Évaluer les politiques de formation professionnelle : expériences européennes

Par - Le 01 novembre 2013.

Tous les pays ont besoin de développer une “culture de l'évaluation" de la formation. Tel est l'avis
du Conseil national d'évaluations de la formation professionnelle (CNEFP), qu'il développait
le 9 octobre à Paris [ 1 ]Le thème de ce premier colloque européen
était “Évaluer les politiques de formation
professionnelle : expériences européennes".
, avec de nombreux experts français et européens.

La problématique de l'évaluation de
la formation suscite des questions
multiples. Évaluer par rapport
à quoi ? Comment se donner un
cadre qui permette de définir des critères
pertinents ? Et évaluer comment ? Des démarches
statistiques les plus sophistiquées
aux simples entretiens semi-directifs, où
faut-il mettre le curseur ?

Pour Sandra Enlart, présidente du Conseil
national d'évaluations de la formation professionnelle
(CNEFP) [ 2 ]Annoncé dans l'Ani du 5 octobre 2009, le CNEFP
a été officiellement créé en 2011. Il a pour mission
d'évaluer la politique mise en oeuvre et les effets
de ses actions.
, “il ne s'agit pas seulement
de produire des évaluations, mais aussi
de participer − avec bien d'autres acteurs et
institutions − au développement d'une culture
de l'évaluation dans le champ de la formation
professionnelle". Il est donc important pour
les praticiens (et aussi pour les experts), de
comparer les pratiques en cours dans les
pays afin de “prendre de la distance". Car
tous les pays ont besoin d'“un système de
formation efficace, pertinent et accessible à
tous"...

Analyse de la valeur ajoutée

Mais qu'entend-t-on par ce terme d'évaluation
? Invité à présenter les enjeux
d'un point de vue international, Patrick
Werquin, économiste et professeur au
Cnam (Conservatoire national des arts
et métiers), a rappelé que cette exigence
consistait en “l'analyse de la différence entre
ce qui s'est passé avec la politique de formation
et ce qui se serait passé sans".

Pour la Commission européenne, c'est
“l'appréciation, aussi systématique et aussi objective
que possible, d'un programme ou d'une
politique, en cours ou achevé(e), de sa conception,
de sa mise en oeuvre et de ses résultats".
Le but étant de “mesurer la pertinence et le
degré de réalisation des objectifs, l'efficience,
l'efficacité, l'impact et la durabilité du développement".
Clairement, a insisté Patrick
Werquin, une évaluation “doit, dans tous
les cas, fournir des informations crédibles et
utiles, permettant d'intégrer les enseignements
tirés dans le processus de prise de décision à la
fois des bénéficiaires et des bailleurs de fonds".
Elle sous-entend donc une analyse de la
valeur ajoutée. Mais les objectifs de la politique
doivent-ils guider l'évaluation ? “Oui
et non", a répondu l'ancien senior econonist
de l'OCDE et de l'Unesco : “Oui, parce que
c'est plus facile, plus vendeur, plus cohérent et
plus clair de procéder ainsi. Mais également
non, si les objectifs ne sont pas valides, justifiés,
éthiques, ou cohérents. C'est le cas des
projets pilotes." Et de déplorer : “Beaucoup
d'expériences réussies sont basées sur la rareté,
sans possibilité de généraliser, d'être utiles
au pays et à sa population dans l'ensemble."
Peut-être parce que les dispositifs d'évaluation
très complexes, dans leur quasitotalité,
méritent d'être épurés et simplifiés.
Sans risquer de les dénaturer ni de les détourner
de leurs rôles et de leurs objectifs...

Danemark : “Attention
au tsunami d'évaluations…"


“Aujourd'hui, on ne parle plus de la société
idéale, des moyens pour y parvenir, mais de
la société actuelle et de son fonctionnent.
Attention au tsunami d'évaluations. (…)
On ne discute plus que des dysfonctionnements
qui existent", a déploré Mads Peter Klindt,
de l'Université Aalborg au Danemark.
Évoquant les différentes “vagues" d'évaluations
danoises : elles avaient un caractère
scientifique dans les années 50 et 60 ; elles
étaient fondées sur le “dialogue" dans les années
70 ; elles concernaient en majorité les
“utilisateurs du système éducatif " dans les
années 80 et 90. Et depuis les années 2000,
nous en revenons à une “évaluation scientifique".
Surtout, Mads Peter Klindt redoute
qu'elle puisse être utilisée dans le cadre de
politiques budgétaires, en vue de démanteler
le modèle de “flexisécurité".

Et pour preuve, la politique de l'emploi “qui
se concentre davantage sur le travail que sur la
politique d'éducation, en raison de la politique
d'évaluation". Les résultats apparaissent trop
souvent appréhendés sur le court terme, induisant
par exemple des conclusions négatives
pour les chômeurs qui restent éloignés
de l'emploi, en raison... du temps passé en
formation. Regarder les statistiques par ce
bout de la lorgnette amène à conclure que
la formation n'est pas le meilleur moyen
pour aider une personne à retrouver... rapidement
un emploi. La question du retour
sur investissement se pose, mais la réponse
peut être biaisée.

En Suisse, “pays des paradoxes"

En Suisse, plus d'un tiers des actifs
occupés bénéficient annuellement
d'un soutien de leur entreprise pour
leur formation. Partant de ce postulat,
Siegfried Hanhart, de l'Université de
Genève [ 3 ]Faculté de psychologie et des sciences de
l'éducation.
, a présenté une communication
sur les pratiques d'évaluation de
la formation en Suisse, particulièrement
du point de vue des responsables
de ressources humaines. “En Suisse,
nous sommes au pays des paradoxes. Le
premier est que nous avons peu d'informations
sur les dépenses en formation
professionnelle continue des entreprises."

Deuxième paradoxe : “On prétend évaluer,
mais à regarder de près, l'évaluation
ne correspond pas aux normes scientifiques",
car les données relatives à la
formation des adultes constituent le
“parent pauvre" des statistiques.

Plusieurs éléments de contexte sont toutefois
à prendre en compte : les dépenses de
FPC couvertes par les entreprises en Suisse
étaient estimées en 2006 [ 4 ]Chiffres indiqués lors de la communication, sans
actualisation.
à environ 1,21
milliard d'euros, soit 0,3 % du produit
intérieur brut. La même année, “39 % des
personnes actives occupées ont participé, pour
des raisons professionnelles, à au moins une
activité de formation non formelle en bénéficiant
d'un soutien de leur employeur" [ 5 ]OFS, 2008.. Cet
appui aux entreprises s'est traduit par une
participation aux frais de formation et/ou
par une mise à disposition de temps de travail
pour la formation.

Peu d'interventions publiques

En Suisse, la formation professionnelle
continue relève essentiellement
de la responsabilité des individus et
des entreprises, les pouvoirs publics
n'intervenant que subsidiairement.
“Le principe de subsidiarité de l'État
signifie que la primauté est accordée
aux mécanismes de marché, a indiqué
Siegfried Hanhart. À de rares exceptions
près, comme le fonds pour la formation
et le perfectionnement professionnel dans
quelques cantons, les conventions collectives
sectorielles dans la construction et
dans l'hôtellerie, la décision de soutenir
la formation des employés dépend du bon
vouloir et de l'intérêt des entreprises."
Avec les différentes informations obtenues
dans le cadre de ses recherches, il apparaît
que 58 % des salariés suisses obtiennent un
soutien financier et en temps de travail,
13 % bénéficient d'un soutien en temps de
travail (une autre enquête montre toutefois
que certains salariés “récupèrent" leur
charge de travail pendant leur temps de
repos), 11 % d'un soutien financier − et
16 % de ceux qui se forment n'obtiennent
aucun soutien.

“L'efficacité accrue" des salariés formés...

Alors ? “Dans l'optique de la théorie du
capital humain, l'entreprise qui soutient la
FPC de ses collaborateur est supposée non
seulement en connaître les coûts mais aussi
les avantages." Siegfried Hanhart a livré
des chiffres [ 6 ]Données tirées d'une recherche menée entre
2000 et 2003 en Suisse (Hanhart, Schulz, Perez,
Diagne, 2005).
sur les motivations des entreprises
: 16 % jugent “l'efficacité accrue" des
salariés ayant reçu une formation, 15 %
pensent qu'elles permettent le maintien du
niveau de compétences, 10 % que les salariés
peuvent obtenir de meilleures connaissances
en informatique... Arrivent ensuite
une “meilleure flexibilité des salariés" pour
9 % des employeurs qui
soutiennent la FPC, “de
meilleures compétences
de communication interne
et externe" (9 %)
et un meilleur climat de
travail (8 %).

Lorsque les chercheurs
se risquent à entrer dans
d'autres détails comme
l'appréciation de la
performance par l'employeur,
ils constatent
que cette dernière “ne
repose pas toujours sur une
évaluation formelle". En
tentant néanmoins de
pratiquer l'évaluation
de la formation selon le
modèle de Kirpatrick [ 7 ]À la fin des années 50, Donald Kirkpatrick a défini
un modèle d'évaluation de la formation basé sur
quatre niveaux d'évaluation, chacun étant construit
à partir des informations des niveaux précédents.
,
qui repose sur quatre
niveaux : réaction (évaluation
des réactions
des participants) ; apprentissage
(évaluation
par des tests) ; transfert
(entretien annuel d'évaluation)
et résultats chiffrés
comme l'impact des
résultats sur le CA de
l'entreprise par exemple, Siegfried Hanhart
a relevé que, d'une part, la plupart des
entreprises qui procèdent à une évaluation
ne la font que sur un niveau, et que d'autre
part, le troisième niveau (“entretien annuel
d'évaluation") est plébiscité.

En guise de conclusion, il a indiqué que
l'effort consenti par les entreprises était
conséquent, mais l'estimation des bénéfices
encore peu développée. Elle “relève souvent
plus d'une conviction que d'une mesure
objective".

Notes   [ + ]

1. Le thème de ce premier colloque européen
était “Évaluer les politiques de formation
professionnelle : expériences européennes".
2. Annoncé dans l'Ani du 5 octobre 2009, le CNEFP
a été officiellement créé en 2011. Il a pour mission
d'évaluer la politique mise en oeuvre et les effets
de ses actions.
3. Faculté de psychologie et des sciences de
l'éducation.
4. Chiffres indiqués lors de la communication, sans
actualisation.
5. OFS, 2008.
6. Données tirées d'une recherche menée entre
2000 et 2003 en Suisse (Hanhart, Schulz, Perez,
Diagne, 2005).
7. À la fin des années 50, Donald Kirkpatrick a défini
un modèle d'évaluation de la formation basé sur
quatre niveaux d'évaluation, chacun étant construit
à partir des informations des niveaux précédents.