Repenser l’évaluation pour transformer les pratiques
Fini le réflexe du quiz à choix multiples en fin de formation ! Trop souvent, ces tests mécaniques évaluent la mémoire à court terme plutôt que la réelle transformation des pratiques, surtout pour les professionnels de santé en formation continue. Évaluer, c’est bien plus qu’un exercice de validation : c’est un levier pédagogique pour ancrer les savoirs, stimuler la réflexion et ajuster l’accompagnement.
Voici cinq alternatives concrètes, fondées sur la recherche et testées sur le terrain, pour faire de l’évaluation un moteur d’apprentissage durable.
1. Le feedback structuré : grandir grâce aux regards croisés
Le feedback n’est pas une simple correction : c’est un dialogue qui construit le savoir ensemble. En formation, un feedback bien encadré entre pairs favorise la réflexion et l’autonomie.
Exemple pratique : Après un atelier de simulation, chaque participant utilise le modèle de Pendleton (points forts, axes d’amélioration, suggestions concrètes) pour donner un retour à son binôme. Le formateur guide l’exercice et recentre si besoin.
Pourquoi ça marche ? Cette approche développe une posture réflexive et renforce la confiance, tout en repositionnant le formateur comme facilitateur plutôt que juge (Boud & Molloy, 2012). Résultat : les apprenants s’approprient mieux les retours et progressent activement.
2. L’autoévaluation guidée : se regarder pour mieux avancer
Les adultes apprennent mieux lorsqu’ils prennent conscience de leurs progrès. Une autoévaluation structurée aide à canaliser cette introspection.
Outil concret : Fournissez une grille listant les compétences visées (savoirs, savoir-faire, savoir-être) avec une échelle de confiance (1 à 5). Demandez aux participants de s’autoévaluer avant et après la formation.
Pourquoi ça fonctionne ? Plutôt que de chercher la « bonne réponse », l’autoévaluation met l’accent sur la capacité à identifier ses écarts et à planifier ses progrès. C’est un tremplin pour l’appropriation des contenus (Eva & Regehr, 2005).
3. L’étude de cas évolutive : raisonner comme sur le terrain
Les cas cliniques statiques, c’est bien ; les cas évolutifs, c’est mieux. En introduisant des informations au fur et à mesure, vous poussez les apprenants à raisonner en contexte incertain.
Exemple pratique : Présentez un patient avec des symptômes initiaux. Selon les hypothèses des apprenants, révélez de nouveaux éléments (analyses, antécédents). Ils ajustent leur raisonnement en temps réel.
Pourquoi c’est efficace ? Cette méthode évalue la capacité à mobiliser les connaissances dans des situations dynamiques, favorisant le transfert vers la pratique réelle (Thistlethwaite et al., 2012).
4. La simulation observée : révéler les compétences invisibles
Certaines compétences, comme l’écoute ou la gestion du stress, ne se mesurent pas par un QCM. Les jeux de rôle ou simulations offrent un cadre idéal pour les observer.
Astuce pratique : Utilisez une grille d’observation avec des critères clairs (empathie, clarté des décisions, gestion du temps). Combinez observation en direct et débriefing différé pour maximiser l’impact.
Pourquoi ça change tout ? La simulation met en lumière des compétences transversales cruciales en santé, souvent négligées par les évaluations classiques (Issenberg et al., 2005).
5. Le journal réflexif : ancrer l’apprentissage dans la durée
L’apprentissage ne s’arrête pas à la fin de la formation. Un journal réflexif aide les participants à intégrer les savoirs dans leur quotidien.
Structure suggérée :
- Ce que j’ai appris aujourd’hui.
- Ce qui m’a surpris ou challengé.
- Ce que je veux appliquer dans ma pratique.
- Ce que je dois encore clarifier.
Pourquoi adopter cet outil ? En stimulant la métacognition, le journal transforme l’expérience en apprentissage durable. Il offre aussi aux formateurs des retours qualitatifs pour ajuster leurs interventions (Mann, Gordon & MacLeod, 2009).
Conclusion : évaluer pour transformer, pas pour valider
Une évaluation réussie ne se contente pas de mesurer : elle engage, ajuste et transforme. Ces cinq approches, combinables selon vos besoins, font de l’évaluation un véritable acte pédagogique.
Former, ce n’est pas tester.
C’est accompagner une transformation, et cela commence aussi par la manière dont on évalue.
Alors, prêt à remplacer le QCM par des outils qui donnent du sens ?
Et vous, quelle méthode allez-vous tester en premier ? Partagez vos idées en commentaire !
→ Bonus exclusif : Téléchargez notre grille pratique « 5 outils d’évaluation actifs » pour dynamiser vos prochaines formations !
Elise N. & Mathilde R. – Avec MonRFS, le savoir se partage
#FormationSanté #PédagogieActive #EvaluationFormative #Andragogie #FormateurSanté #MonRFS
Références :
- Boud, D., & Molloy, E. (2012). Feedback in Higher and Professional Education: Understanding it and doing it well. Routledge.
- Eva, K. W., & Regehr, G. (2005). Self-assessment in the health professions: a reformulation and research agenda. Academic Medicine, 80(10 Suppl), S46–S54.
- Harrison, C. J., Könings, K. D., Molyneux, A., Schuwirth, L., & Wass, V. (2020). Exploring the impact of feedback in clinical education. BMC Medical Education, 20(1), 424. https://doi.org/10.1186/s12909-020-02280-5
- Issenberg, S. B., McGaghie, W. C., Petrusa, E. R., Gordon, D. L., & Scalese, R. J. (2005). Features and uses of high-fidelity medical simulations that lead to effective learning: a BEME systematic review. Medical Teacher, 27(1), 10–28.
- Mann, K., Gordon, J., & MacLeod, A. (2009). Reflection and reflective practice in health professions education: a systematic review. Advances in Health Sciences Education, 14(4), 595–621.
- Thistlethwaite, J. E., Davies, D., Ekeocha, S., Kidd, J. M., MacDougall, C., Matthews, P., Purkis, J., & Clay, D. (2012). The effectiveness of case-based learning in health professional education: a BEME systematic review. Medical Teacher, 34(6), e421–e444.


