Quelques chiffres sur les pratiques d’évaluation des formations des entreprises européennes

Posté le Posté dans International

Comme nous l'avons indiqué précédemment sur ce blog, nous avons initié l'édition 2011 de notre étude sur les pratiques d'évaluation des formations des entreprises françaises. La synthèse l'étude 2010 avait notamment permis de constater la prédominance des évaluations de niveau 1 (réactions/satisfaction) et une plus grande rareté des évaluations aux niveaux supérieurs (ex : apprentissage, transfert/comportements, etc.). S'agit-il là d'une spécificité franco-française ?

A titre de réflexion, le tableau ci-après regroupe quelques chiffres d'études menées auprès d'entreprises européennes afin de caractériser leurs pratiques d'évaluation des formations. Quelques précisions :

  • Le référentiel utilisé est le modèle d'évaluation des formations de Kirkpatrick.
  • Les chiffres de l'étude 2010 de Formaeva sont indiqués à des fins de comparaison (uniquement pour les pratiques d'évaluation formelles).
  • L'étude présentée par Meignant (2006) présente plusieurs éléments liés au niveau 2 de Kirkpatrick (apprentissage) : "Réalisation de tests pour vérifier les nouvelles compétences" (30 %) et "Validation ou certification formelle des qualifications acquises" (40 %). Il est à noter l’existence d'une dernière catégorie nommée "Autres formulaires" (6 %) que nous n’avons pu classer dans l’une ou l’autre des colonnes par manque d’informations.

Pratiques-evaluation-formations-europe(cliquez sur l'image pour l'agrandir)

La lecture de ces chiffres amène trois constats :

  • L'évaluation de niveau 1 (Réactions) demeure la plus pratiquée : cela n'est pas une grande surprise, tant la littérature sur l'évaluation de la formation a déjà mis en exergue de nombreuses fois le fait que les professionnels de la formation se limitaient souvent à ce niveau (ce que ne font que confirmer nos expériences depuis plusieurs années).
  • La fréquence des évaluations diminue au fur et à mesure que l'on progresse dans la hiérarchie des niveaux : ainsi, on évalue souvent le niveau 1, plus rarement le niveau 2, et encore plus rarement les niveaux 3 et 4. Ce constat est encore plus flagrant à la lecture des résultats de l'étude de Formaeva (2010).
  • Il y a toutefois des exceptions car certains chiffres relatifs à l'évaluation des niveaux 3 et 4 semblent élevés. Par exemple, d'après l'étude présentée par Meignant (2006), le transfert des acquis serait évalué en moyenne dans 60 % des cas par les entreprises européennes. Ce chiffre peut sembler élevé et il serait intéressant de connaître les détails méthodologiques de l'étude. En effet, nous rencontrons très fréquemment des responsables formation qui affirment évaluer les formations "à froid" (correspondant, dans leur esprit, à l'évaluation du niveau 3 de Kirkpatrick), alors que cette évaluation ne consiste qu'en une simple question posée dans le cadre de l'entretien annuel et relative à l'utilité des formations suivies par le collaborateur. Parfois, aussi, il s’agit d'une évaluation qui était bien menée "à froid" (quelques semaines ou mois après la formation), mais portant sur la satisfaction ou l'apprentissage (mémorisation des connaissances), non sur l'utilisation des acquis de la formation et/ou les modifications comportementales qui en résultent. C'est pourquoi il n'est pas judicieux de raisonner uniquement en termes d'évaluations "à chaud" et "à froid", car s'agissant plus de moments d'évaluation que d'objets à évaluer (comme le sont les niveaux de Kirkpatrick). Les chiffres donnés par Mathews et al. (2001) pour le niveau 4 sont aussi plus élevés que ceux donnés par les autres études. Cela vient peut-être du fait que les auteurs ont questionné des responsables qualité appartenant à des entreprises certifiées ISO et/ou disposant d'un système formalisé de management de la qualité. Dans ces conditions, il n'est pas étonnant que des liens soient établis entre la formation et certains indicateurs suivis par les qualiticiens (ex : satisfaction des clients).

Les pratiques d'évaluation des formations, en France comme en Europe, semblent donc encore peu développées. Les responsables formation prennent donc rarement le temps d'évaluer : "Tout se passe trop souvent encore comme si l'on formait pour former. On sait que la formation est importante, et donc on forme. On a une vague idée de ce que cela peut apporter, mais on ne prend pas la peine de vérifier ce qu'il en est, puisque l'important est de former, la suite "allant de soi" » (Gérard, 2003, p. 15). Meignant (2006, p. 365) note ainsi "une assez nette contradiction entre l'ambition du discours sur l'investissement-formation et l'existence d'outils de gestion de la formation qui peuvent rarement témoigner d'autre chose que d'une augmentation des dépenses".

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *


*