Please activate JavaScript!
Please install Adobe Flash Player, click here for download

SKBF-CSRE Bildungsbericht 2014 FR

skbf | csre  Centre suisse de coordination pour la recherche en éducation 240 Efficacité  Hautes écoles pédagogiques liale qui en résultent. Ce sont là autant de facteurs que les personnes dispo­ sant d’une expérience professionnelle dans d’autres secteurs mentionnent parmi les principales raisons qui les ont motivées à se reconvertir dans l’en­ seignement (Hof, Strupler et Wolter, 2011). Efficacité L’efficacité de la formation des enseignants se mesure à la manière dont les aspirants enseignants sont préparés à l’exercice de leur métier et donc à la façon dont ils maîtrisent les divers aspects de leur pratique professionnelle (en particulier la pratique de l’enseignement). Elle doit se mesurer aux effets que l’enseignement exerce sur les élèves (Faust, 2010), c’est-à-dire aux pro­ grès que l’enseignement leur permet d’accomplir et pour lesquels il est pos­ sible d’établir un lien causal clair. Pour mesurer l’efficacité de la formation des enseignants, il convient donc de procéder en deux étapes: évaluer tout d’abord la part de l’effet de l’ensei­ gnement dispensé sur l’accroissement des compétences des élèves, puis la part de l’effet de la formation des enseignants sur leur pratique individuelle. Instruments destinés à mesurer l’efficacité de l’enseignement Diverses méthodes permettent d’évaluer la qualité et l’efficacité de l’ensei­ gnement. Une méthode classique consiste à observer un enseignant pendant son travail, comme on le fait fréquemment au cours de la formation puis régulièrement par la suite, sous forme d’inspections. Une autre consiste à interroger les élèves sur le déroulement des cours, le climat régnant dans la classe et d’autres aspects connexes. Enfin, on peut faire passer des tests de performance aux élèves. A cet égard, on veillera à mesurer effectivement et uniquement les gains de performance des élèves (par le biais de tests dits de valeur ajoutée), pour s’assurer de mesurer uniquement les effets de l’ensei­ gnement et non les différences dues aux spécificités des élèves. Ces divers instruments présentent chacun leurs avantages et leurs incon­ vénients ( figure 223 ). Ainsi, la mesure des progrès accomplis se caractérise par une forte valeur prédictive relative aux futures compétences des élèves. Son principal inconvénient est que des tests de performance n’existent que pour une sélection restreinte de matières et qu’ils ne permettent dès lors pas de mesurer les performances de la plupart des enseignants aux divers degrés de la scolarité. De plus, la méthode des tests ne permet pas d’établir de diagnostics sur l’évolution professionnelle probable des enseignants. Dans l’observation des cours, en revanche, la fonction diagnostique, soit l’identi­ fication des forces et des faiblesses des enseignants, est au premier plan. De plus, l’observation des cours a aussi pour objectif (de manière implicite tout du moins) d’améliorer les conditions d’enseignement et donc de favoriser la progression des élèves. Ce dernier aspect reste toutefois insuffisamment ex­ ploré pour l’instant, et le pouvoir de prédiction de l’observation des classes et du feed-back d’experts sur l’évolution probable des élèves reste pour le moins sujet à caution (Kane, 2012). Un autre aspect problématique lié à l’ob­ servation à visée évaluative de l’enseignement tient aux différences impor­ 223  Comparaison de méthodes de mesure de l’efficacité Représentation: d’après Kane, 2012. Valeur prédictive (corrélation avec les gains de performance) Fiabilité (corrélation entre les classes) 0,0 0,1 0,2 0,3 0,4 0,5 0,6 0,7 0,0 0,1 0,2 0,3 0,4 0,5 0,6 0,7 predictive power TP C1 C2 SE OE Le projet Measures of Effective Teaching (MET) mené à l’Université de Harvard a consisté à ana- lyser divers instruments destinés à mesurer l’effi- cacité de l’enseignement ainsi qu’à examiner leur fiabilité et leur valeur prédictive sur la base des données collectées sur plus de 1300 enseignants et plus de 44 000 élèves (Kane, 2012). OE = observations d’enseignement TP = tests de performance SE = sondages auprès des élèves C1 = combinaison C2 = combinaison pondérée Exemple d’interprétation: Avec une corrélation à peine supérieure à 10%, le lien entre les diagnos- tics posés sur la base d’observations de classes (OC) et les progrès individuels des élèves est pour le moins lâche. La méthode de mesure n’est elle- même pas très fiable, la corrélation entre les différentes classes d’un même enseignant ne dépassant pas 40%. Les sondages auprès des élèves (SE) sont sensiblement plus fiables, alors que les tests de performance (TP) présentent une valeur prédictive élevée.

Übersicht