9. Systèmes d’alerte précoce et indicateurs de décrochage scolaire dans le deuxième cycle de l’enseignement secondaire : Le rôle émergent des technologies numériques

Alex J. Bowers
Teachers’ College (Institut pédagogique) de l’Université de Columbia
États-Unis

Les élèves qui ne parviennent pas à obtenir un diplôme du deuxième cycle de l’enseignement secondaire constituent un problème à l’échelle mondiale. Alors que le taux moyen d’obtention d’un diplôme de fin du secondaire dans les pays de l’OCDE est de 81 %, on observe d’importantes variations d’un pays à l’autre, avec un taux de 60 % à l’âge de 25 ans au Mexique et des taux élevés d’environ 90 % en Grèce, en Corée (Corée du Sud) et en Slovénie (OECD, 2019[1]). Il est établi que le fait de ne pas obtenir un diplôme du deuxième cycle du secondaire (aussi appelé « décrochage ») a des effets négatifs sur la vie des élèves, tels qu’un niveau de diplôme inférieur, des revenus plus faibles au cours de la vie, des taux d’incarcération plus élevés, ainsi que des effets négatifs sur la santé (Belfield et Levin, 2007[2] ; Lyche, 2010[3] ; Rumberger, 2011[4] ; Rumberger et al., 2017[5]). Tous les systèmes éducatifs doivent veiller en priorité à ce que les élèves obtiennent leur diplôme du deuxième cycle de l’enseignement secondaire. Il faut donc détecter de manière précoce quels sont les élèves les plus susceptibles de rencontrer des difficultés dans leur parcours scolaire et de quitter l’école finalement. Grâce à des systèmes de prédiction précise et d’alerte précoce, les élèves peuvent bénéficier de ressources supplémentaires à même de favoriser leur persévérance et leur réussite (Bowers et Zhou, 2019[6]). Le domaine des systèmes et indicateurs d’alerte précoce en matière d’éducation est assez récent (Allensworth, 2013[7] ; Balfanz et Byrnes, 2019[8] ; Carl et al., 2013[9] ; Davis, Herzog et Legters, 2013[10] ; Frazelle et Nagel, 2015[11] ; Kemple, Segeritz et Stephenson, 2013[12] ; Mac Iver, 2013[13] ; McMahon et Sembiante, 2020[14]); il vise à fournir des variables prédictives exploitables qui ciblent les élèves risquant de ne pas obtenir leur diplôme du deuxième cycle de l’enseignement secondaire (Allensworth, Nagaoka et Johnson, 2018[15]). Alors qu’à ce jour les secteurs non éducatifs exploitent de plus en plus les technologies disponibles par le biais des domaines émergents du big data, de la science des données, de l’analyse des données et de l’apprentissage automatique (Piety, Hickey et Bishop, 2014[16]), l’application de ces technologies aux systèmes d’alerte précoce du décrochage scolaire n’est apparue que récemment (Agasisti et Bowers, 2017[17] ; Baker et al., 2020[18] ; Bowers et al., 2019[19]). L’objectif de ce chapitre est de passer en revue les avancées en matière de prédiction du décrochage et d’examiner le fonctionnement des systèmes et indicateurs d’alerte précoce. Il se concentre sur l’application des innovations actuelles dans les domaines technologiques de l’apprentissage automatique, de l’analyse des données et de leurs modèles pour envisager les développements prometteurs dans ce domaine. Étant donné que la situation aux États-Unis a fait l’objet de nombreux travaux de recherche au niveau du deuxième cycle du secondaire, nous nous concentrons principalement sur les études américaines, et faisons appel à des études étrangères lorsque cela est possible. Dans nos conclusions, nous évoquons les développements à venir et tournons ensuite notre regard vers l’avenir.

Dans toute la littérature scientifique sur le décrochage scolaire, l’accent est mis sur la création de ce que l’on appelle les systèmes d’alerte précoce et les indicateurs d’alerte précoce. Ces systèmes ont pour objectif de fournir des variables prédictives exploitables concernant les difficultés des élèves et d’aider les établissements scolaires à mettre en œuvre des mesures spécifiques pour favoriser la résilience et la réussite des élèves (Allensworth, Nagaoka et Johnson, 2018[15] ; Balfanz et Byrnes, 2019[8] ; Mac Iver et Messel, 2013[20] ; Davis, Herzog et Legters, 2013[10] ; McMahon et Sembiante, 2020[14]). Dans la mesure où cette méthode de personnalisation collecte des données (Agasisti et Bowers, 2017[17]), le système d’alerte précoce regroupe des indicateurs dans un dispositif unique qui permet d’allouer plus efficacement les ressources limitées des établissements en direction des élèves qui sont susceptibles de décrochage (également dénommés « élèves à risque ») (Carl et al., 2013[9] ; Dynarksi et al., 2008[21] ; Dynarski et Gleason, 2002[22] ; Mac Iver, 2013[13] ; Rumberger et al., 2017[5] ; Stuit et al., 2016[23]). Dans le cadre de ces efforts qui visent à renforcer la résilience des élèves, de nombreux travaux de recherche, provenant du système scolaire de la ville de Chicago (qui constitue un vaste système éducatif en milieu urbain), ont élaboré des indicateurs de « bonne voie » (Allensworth, 2013[7] ; Allensworth et Easton, 2005[24] ; Allensworth et Easton, 2007[25] ; Hartman et al., 2011[26] ; Kemple, Segeritz et Stephenson, 2013[12]). Plutôt que de se concentrer sur le contexte, les antécédents et les facteurs démographiques des élèves, comme le statut socio-économique de la famille (qui influencent fortement la persévérance des élèves (Rumberger, 2011[4]), ces systèmes se concentrent sur les variables prédictives et les indicateurs qui permettent, grâce à leur caractère malléable, aux établissements de fournir un soutien efficace aux élèves (McMahon et Sembiante, 2020[14]).

Cependant, il reste encore beaucoup à faire pour déterminer exactement quels indicateurs sont effectivement précis et prédictifs selon les systèmes éducatifs, quel mode de transmission employer pour que ces informations soient utiles aux établissements scolaires, et ensuite comment les établissements peuvent exploiter ces informations. Par exemple, dans une étude récente qui a choisi au hasard 73 établissements scolaires aux États-Unis et leur a demandé d’utiliser un système d’intervention et de surveillance d’alerte précoce, les établissements de référence ont constaté un an après une diminution des absences chroniques et des échecs des élèves à risque, mais il n’y a pas eu d’effet sur les renvois, la faible moyenne des notes ou l’accumulation de crédits par les élèves (Faria et al., 2017[27]). L’accumulation de crédits est considérée comme un résultat concret de cette étude, c’est un indicateur probant de la persévérance des élèves et de leur réussite potentielle. De la même manière, dans le cadre d’une récente expérience contrôlée menée au hasard dans 41 établissements scolaires aux États-Unis, les établissements de référence ont demandé à un membre du personnel à mi-temps de surveiller les indicateurs d’alerte précoce en neuvième année et de fournir un soutien pédagogique : les établissements en question ont réduit l’absentéisme chronique, mais n’ont pas vu évoluer de manière significative les échecs aux cours ou le nombre de crédits obtenus par les élèves (Mac Iver et al., 2019[28]). Petit bémol cependant : il faut relever que les indicateurs d’alerte précoce peuvent s’avérer plus ou moins pertinents selon les cultures (Encadré 9.1 et Encadré 9.2). Même s’il reste encore beaucoup de choses à apprendre, les systèmes et indicateurs d’alerte précoce sont un domaine de recherche et de pratique fascinant en pleine expansion. Leur objectif est d’identifier les élèves présentant un risque de décrochage et d’intervenir positivement pour soutenir la persévérance des apprenants, en utilisant les techniques d’exploration de données les plus récentes.

Une préoccupation majeure liée aux systèmes et indicateurs d’alerte précoce concerne la précision des indicateurs servant à prédire la probabilité de décrochage d’un élève. Alors que de nombreuses études examinent une série de variables prédictives sous l’angle des corrélations, des régressions logistiques ou d’autres types de statistiques similaires, puis indiquent quelles variables sont les plus significatives pour prédire l’obtention d’un diplôme ou le décrochage d’un élève (Allensworth et Easton, 2007[25] ; Balfanz, Herzog et Mac Iver, 2007[33] ; Bowers, 2010[34]), des recherches récentes se sont concentrées sur la précision des variables prédictives à l’aide de la théorie de la détection du signal (Bowers, Sprott et Taff, 2013[35] ; Bowers et Zhou, 2019[6]). Dans cette théorie (Swets, 1988[36] ; Swets, Dawes et Monahan, 2000[37]), on compare toutes les variables prédictives potentielles à l’aide d’un diagramme FER (fonction d’efficacité du récepteur) qui compare la sensibilité d’une variable prédictive à sa spécificité, ou les vrais positifs aux faux positifs, car on souhaite que la variable prédictive d’un événement identifie tous les cas où l’événement se produit effectivement (dans le cas présent, le décrochage) sans identifier des cas erronés (Bowers et Zhou, 2019[6]). Par exemple, une variable prédictive du décrochage peut être très spécifique, en ce sens que tous les élèves présentant une combinaison de facteurs peuvent décrocher, mais cette variable prédictive peut s’avérer en revanche peu sensible dans la mesure où le pourcentage d’élèves présentant cette combinaison de facteurs et qui finissent par décrocher peut être très faible.

En utilisant la théorie de la détection du signal, Bowers, Sprott et Taff (2013) ont comparé 110 variables prédictives de décrochage qu’ils ont identifiées dans l’ensemble de la littérature scientifique. Ils ont démontré que la grande majorité de ces variables prédictives n’étaient pas meilleures qu’une supposition aléatoire. Cependant, les auteurs sont parvenus à identifier deux ensembles spécifiques d’indicateurs d’alerte précoce plus précis que les autres.

Le premier est l’indicateur d’alerte précoce de Chicago. Élaboré après plus d’une décennie de recherches menées dans le système scolaire urbain de Chicago (Allensworth, 2013[7] ; Allensworth et Easton, 2005[24] ; Allensworth et Easton, 2007[25] ; Allensworth et al., 2014[38] ; Allensworth, Nagaoka et Johnson, 2018[15]), l’indicateur de « bonne voie » de Chicago a été identifié comme la variable prédictive transversale du décrochage la plus précise (transversale signifiant ici que les données de la variable proviennent d’une seule année), et se concentre sur les élèves de neuvième année et sur les notes faibles ou insuffisantes dans des matières essentielles telles que les mathématiques ou l’anglais, ainsi que sur les crédits obtenus. Cet indicateur, qui est facilement disponible et utilisable pour les professionnels de l’éducation, constitue un indicateur d’alerte précoce plus précis que les indicateurs transversaux comparables qui combinent les informations existant actuellement dans le système de gestion des données éducatives des établissements scolaires. Néanmoins, si l’indicateur de Chicago est plus précis que d’autres indicateurs transversaux, la même étude de Bowers et al. (2013) a fait état de variables prédictives du décrochage beaucoup plus précises qui, elles, reposent sur des données longitudinales qui s’inscrivent dans le long terme.

Dans leur étude comparative sur les 110 variables prédictives du décrochage, le deuxième ensemble d’indicateurs d’alerte précoce le plus précis a été généré par une méthode qui fournit systématiquement les variables prédictives les plus précises du décrochage (Bowers, Sprott et Taff, 2013[35]); il s’agit du modèle de croissance à mélange de distribution (Growth Mixture Modelling en anglais ou GMM en abrégé). Cette technique a la capacité d’identifier des modèles de données d’élèves significativement différents au fil du temps (voir l’Encadré 9.3). Trois analyses basées sur le GMM ont été identifiées pour prédire le décrochage scolaire avec une précision extrêmement élevée par rapport à toutes les autres variables prédictives (Bowers, Sprott et Taff, 2013[35]). Premièrement, à partir d’un échantillon de plus de 10 000 élèves du Québec (Canada) âgés de 12 à 16 ans, les auteurs ont examiné l’implication des élèves dans l’établissement scolaire au fil du temps, en fonction de l’assiduité, la discipline et l’intérêt éprouvé pour les matières, et ont identifié des trajectoires spécifiques de faible implication prédisant le décrochage (Janosz et al., 2008[39]). Deuxièmement, une étude utilisant des milliers de résultats en mathématiques d’élèves du secondaire aux États-Unis a identifié des trajectoires spécifiques de progrès ou de régression qui se sont avérées prédictives du décrochage (Muthén, 2004[40]). Et troisièmement, au premier rang de ces études de prédiction très précise figure une étude des trajectoires des moyennes pondérées non agrégées (Bowers et Sprott, 2012[41]).

Dans leur étude, Browers et Sprott (2012[41]) ont analysé les moyennes pondérées non agrégées de plus de 5 000 élèves aux États-Unis au cours de trois semestres, soit le premier semestre de la neuvième année, le deuxième semestre de la neuvième année et le premier semestre de la dixième année. La moyenne pondérée non agrégée est la moyenne des notes obtenues par un élève dans une année d’études donnée, toutes matières confondues. Selon les auteurs, il est pertinent d’examiner ces données sur les notes, car les établissements scolaires du monde entier attribuent et recueillent régulièrement les notes attribuées par les enseignants. Pourtant, cet ensemble de données a rarement été exploité dans le passé comme une donnée importante dans certains systèmes de politique éducative (Bowers, 2009[48] ; Bowers, 2011[49] ; Bowers, 2019[50] ; Bowers et Sprott, 2012[41] ; Brookhart, 2015[51]). L’attention accordée aux moyennes pondérées non agrégées est une innovation par rapport aux moyennes pondérées agrégées, car la variance des données sur les étudiants d’une année à l’autre peut alors être utilisée pour saisir différents types de trajectoires (Bowers, 2007[52]).

Bowers et Sprott (2012[41]) ont identifié quatre trajectoires significativement différentes de la moyenne pondérée non agrégée : 1) les étudiants dont les notes régressent au cours de cette période ; 2) les étudiants dont les notes sont relativement basses au départ et augmentent lentement au fil du temps ; 3) les étudiants qui constituent la majorité et ont des notes stables au fil du temps, proches de la moyenne ; et 4) les étudiants qui ont des notes élevées tout au long de la période. La principale conclusion est que, même si les deux premiers groupes ne constituent que 25 % de l’échantillon, ils représentent plus de 90 % de tous les élèves qui ont abandonné leurs études (Bowers et Sprott, 2012[41]). La majorité des décrocheurs ont connu la trajectoire des notes basses et de la lente augmentation : leurs notes augmentaient, mais apparemment pas assez vite. Les élèves présentant la trajectoire de régression des notes représentaient un pourcentage beaucoup plus faible des décrocheurs. Ces résultats, ainsi que ceux d’études précédentes utilisant les notes attribuées par les enseignants (Allensworth et Luppescu, 2018[53] ; Allensworth, Nagaoka et Johnson, 2018[15] ; Battin-Pearson et al., 2000[54] ; Bowers, 2010[34] ; Bowers, 2010[55] ; Finn, 1989[56] ; Hargis, 1990[57]), confirment la forte validité prédictive des notes sur les résultats à long terme des élèves, tels que la persévérance à l’école et l’obtention d’un diplôme. Bien que les notes aient la réputation, dans une partie de la littérature psychométrique, d’être moins fiables que les tests standardisés (Brookhart, 2015[51]), les recherches menées au cours des 100 dernières années ont démontré que les notes mesurent à la fois la réussite scolaire et la capacité d’un élève à s’inscrire dans le fonctionnement social de l’établissement scolaire qu’il fréquente, ce qui a un impact évident sur l’implication scolaire, la persévérance et les résultats ultérieurs dans la vie (Bowers, 2009[48] ; 2011[49] ; 2019[50] ; Brookhart et al., 2016[58] ; Kelly, 2008[59] ; Willingham, Pollack et Lewis, 2002[60]).

Dans une étude de suivi, à l’aide de l’analyse de structure latente et à partir d’un vaste échantillon d’élèves en décrochage scolaire généralisable à l’échelle nationale aux États-Unis, Bowers et Sprott (2012[61]) ont identifié plus précisément ces deux types d’élèves en décrochage scolaire, ainsi que le petit groupe restant qui représente moins de 10 % des décrocheurs. L’analyse de structure latente, à l’image du GMM, est une forme de modélisation mixte qui permet d’identifier des types de répondants significativement différents par le biais d’un ensemble d’items d’enquête (Collins et Lanza, 2010[62] ; Masyn, 2011[44] ; Muthén, 2004[40] ; Vermunt et Magidson, 2002[47]) et offre également la possibilité d’établir une typologie des répondants. Ici, les auteurs ont identifié trois types de décrocheurs. Cette étude correspondait à la recherche précédente sur la typologie des décrocheurs et identifiait les pourcentages de chaque type à travers les États-Unis (Bowers et Sprott, 2012[61]).

Tout d’abord, 38 % des élèves qui ont décroché représentaient le type de décrocheur « blasé » : ces élèves correspondent à la conception traditionnelle du décrocheur qui est perçu comme quelqu’un d’« inadapté » dans l’étude précédente, en ce sens que ces élèves n’aiment pas l’école, ne pensent pas que les enseignants sont là pour eux, et ont une conception générale blasée du processus de scolarisation. Il s’agit des élèves dont les notes sont faibles et régressent. Ce sont les élèves qui retournent le moins à l’école et dont les résultats à long terme sont faibles.

Deuxièmement, environ 53 % des décrocheurs appartenaient au groupe des décrocheurs « tranquilles ». Ce sont les élèves dont les notes étaient faibles initialement et augmentaient lentement. Il s’agit là d’un élément significatif, car ces élèves correspondent à la majorité de ceux qui décrochent, mais ils sont rarement identifiés par les systèmes scolaires comme étant « à risque ». En effet, ils aiment généralement l’école, y sont bien intégrés et ont des notes qui augmentent lentement — bien que leurs notes n’augmentent pas assez rapidement pour qu’ils puissent finalement réussir tous leurs cours et obtenir leur diplôme.

Le troisième type est celui des décrocheurs « impliqués », qui représentent environ 9 % des décrocheurs. Ces élèves étaient très impliqués dans leur établissement scolaire, avaient généralement des notes élevées et ont ensuite retrouvé le chemin de l’école. Finalement, ils obtiennent leur diplôme et poursuivent des études postsecondaires. Précédemment considérés comme des étudiants « perdus à la dernière minute » (Menzer et Hampel, 2009[63]), ces décrocheurs, bien que représentant le plus petit pourcentage d’élèves qui abandonnent l’école, semblent être les premiers qui devraient être ciblés par des mesures spécifiques. En effet, ils restent longtemps persévérants avant de décrocher et abandonnent souvent en raison d’un événement important dans leur vie privée (comme une grossesse ou un déménagement familial) ou de la découverte d’une erreur dans leur bulletin de notes qui les oblige à rattraper un cours alors qu’ils ne s’y attendaient pas.

Comme le soulignent ces études (Bowers et Sprott, 2012[41] ; 2012[61] ; Bowers, Sprott et Taff, 2013[35]), cette typologie concernant les décrocheurs constitue une avancée significative, car auparavant le décrochage scolaire ou le fait d’être « à risque » était considéré comme une seule catégorie monolithique. La vision d’une catégorie unique d’élèves touchés par le décrochage conduit à une approche naïve dans la mise au point de mesures pour remédier au problème. C’est peut-être pour cette raison que l’effet des mesures dans les essais contrôlés randomisés (ECR) axés sur le décrochage scolaire n’est pas évident à déterminer (Agodini et Dynarksi, 2004[64] ; Freeman et Simonsen, 2015[65]). Par exemple, compte tenu des résultats ci-dessus, les ECR qui accompagnent les élèves persévérants grâce à des mesures qui les reconnectent avec leur établissement scolaire font peut-être fausse route. Car ces mesures, basées sur l’idée traditionnelle que si un élève décroche c’est qu’il est blasé, ne se concentrent que sur un tiers des élèves qui décrochent effectivement alors qu’elles oublient la grande majorité des décrocheurs qui, eux, sont des décrocheurs tranquilles et impliqués. Il n’est donc pas surprenant que de nombreuses expériences aient eu du mal à démontrer les effets des interventions, car jusqu’à présent, les ECR sur les interventions à mettre en place en cas de décrochage n’ont pas mis l’accent sur la définition de mesures individualisées pour les trois différents types de décrocheurs (McMahon et Sembiante, 2020[14] ; Sansone, 2019[66]). Concrètement, les élèves blasés peuvent avoir besoin de renouer avec leur établissement scolaire, tandis que les élèves tranquilles peuvent tirer profit d’un encadrement pédagogique plus poussé, et les élèves impliqués de conseils par rapport aux événements concernant leur vie privée (Bowers et Sprott, 2012[61]).

De nombreuses études sur les systèmes et indicateurs d’alerte précoce évaluent un ensemble de variables pour prédire le décrochage en considérant la probabilité de décrochage des élèves comme faisant partie d’une seule catégorie. Comme l’indique la littérature sur la précision des variables prédictives du décrochage (Bowers, Sprott et Taff, 2013[35]) ainsi que sur les systèmes d’alerte précoce (McMahon et Sembiante, 2020[14]), c’est l’attention portée à la théorie de la typologie du décrochage qui contribue de manière significative à une plus grande précision des variables prédictives du décrochage basées sur le GMM, permettant d’identifier plus de 90 % des élèves qui décrochent. En outre, et c’est peut-être tout aussi important, la nature longitudinale de ces variables prédictives précises permet de saisir des trajectoires d’élèves sensiblement différentes au fil du temps. Une théorie majeure dans la littérature sur le décrochage scolaire qui est souvent négligée dans les recherches sur les systèmes et indicateurs d’alerte précoce (McMahon et Sembiante, 2020[14]) concerne ce qui a été appelé la « perspective du parcours de vie » (Alexander, Entwisle et Kabbani, 2001[67] ; Dupéré et al., 2018[68] ; Dupéré et al., 2015[69] ; Finn, 1989[56] ; Pallas, 2003[70]). Bien plus qu’un événement indépendant arrivant à un moment donné, l’échec des élèves dans le deuxième cycle de l’enseignement secondaire est considéré comme un long processus dans lequel de multiples facteurs de stress s’accumulent au fil du temps et finissent par pousser un élève à ne plus fréquenter l’école. Il est donc important de comprendre ce processus sur le long terme pour prédire avec précision les élèves susceptibles d’abandonner leurs études. La méthode GMM offre un moyen utile d’analyser exactement ce type de données, en s’appuyant sur des données sur le long terme plutôt que sur des variables prédictives ponctuelles, ce qui permet d’accroître la précision des variables prédictives basées sur le GMM (Bowers, Sprott et Taff, 2013[35]).

Dans le cadre d’une étude qui a porté sur une série chronologique de données relatives à tous les élèves de l’État du Wisconsin aux États-Unis et dont l’objectif était de prédire le décrochage scolaire à partir d’un large éventail de variables individuelles, Knowles (2015[71]) a utilisé plusieurs techniques d’exploration de données et d’apprentissage automatique. Cependant, aucune méthode ne s’est avérée plus précise que les variables prédictives du modèle GMM. En effet, l’analyse n’a pas pris en compte la nature longitudinale des données ni adopté une perspective de typologie, qui constitue l’innovation centrale et la valeur ajoutée des modèles de croissance à mélange de distributions. Dans le même ordre d’idées, en utilisant l’étude High School Longitudinal Study de 2009 (HSLS:2009) qui est généralisable à l’échelle nationale et porte sur plus de 21 000 élèves du secondaire, Sansone (2019[66]) s’est concentré pendant un an sur les données des élèves de 9année et a appliqué un ensemble similaire de modèles d’apprentissage automatique et de régression logistique ; ces données concernaient les résultats scolaires, le comportement et les attitudes des élèves. L’étude a obtenu des résultats aussi précis que ceux de Knowles (2015[71]), aucun des modèles n’étant à nouveau aussi précis que les variables prédictives du modèle GMM (Sansone, 2019[66]). Il est intéressant de noter qu’une étude récente, qui a porté sur plus d’un million d’élèves aux États-Unis entre 1998 et 2013 dans les États du Massachusetts, de Caroline du Nord et de Washington, a cherché à déterminer si la simple utilisation des résultats à certains tests (les tests normalisés de mathématiques, de lecture et de rédaction en anglais de la troisième ou de la huitième année) était fiable pour prédire le décrochage scolaire (Goldhaber, Wolff et Daly, 2020[72]). On a constaté que la précision de la variable prédictive est à peu près la même que celle de l’indicateur de « bonne voie » de Chicago, qui ne tient pas compte de 25 % ou plus des élèves qui finissent par décrocher. Une autre étude réalisée au Guatemala et au Honduras, qui portait sur des centaines de milliers d’élèves et certaines de leurs caractéristiques (résultats scolaires, données démographiques des élèves, des établissements et de la communauté locale) (Adelman et al., 2018[73]), a obtenu une précision des variables prédictives dans des fourchettes similaires à celles de Knowles (2015[71]) et Sansone (2019[66]) en ayant recours à des modèles de régression logistique. Ces résultats mettent à nouveau en évidence la puissance du modèle de croissance à mélange de distributions, mais aussi le fait que la méthode d’analyse des données et le choix des indicateurs ont plus d’importance en matière de précision des variables prédictives du décrochage que la taille ou l’exhaustivité de l’ensemble de données.

Tous les éléments issus de la littérature sur les systèmes et indicateurs d’alerte précoce témoignent de l’utilité croissante des technologies émergentes pour identifier des variables prédictives précises du décrochage scolaire dans le deuxième cycle de l’enseignement secondaire, qui se concentrent sur des groupes de modèles de données individuelles au fil du temps. Certes, la recherche dans ce domaine est encore relativement récente et il reste encore beaucoup de travail à faire, mais l’analyse des modèles, l’analyse des données, la science des données, l’analyse de l’apprentissage, l’exploration des données éducatives et l’apprentissage automatique (Koedinger et al., 2015[74] ; Piety, 2019[75]) sont en pleine expansion et offrent déjà des opportunités intéressantes aux chercheurs, aux praticiens de l’éducation et aux décideurs politiques. Ils peuvent tirer parti de ces nouvelles technologies pour développer la capacité de leurs systèmes éducatifs à utiliser les données déjà disponibles dans les établissements scolaires de manière à éclairer la prise de décision et à améliorer les pratiques pédagogiques (Agasisti et Bowers, 2017[17] ; Baker et Inventado, 2014[76] ; Bienkowski, Feng et Means, 2012[77] ; Bowers, 2017[78]). Comme indiqué dans cette littérature, ces techniques « rendent visibles des données qui étaient jusqu’à présent invisibles, passaient inaperçues et n’étaient donc pas exploitables » (Bienkowski, Feng et Means, 2012[77]), p. ix). Dans un effort pour nourrir la recherche et la pratique des systèmes et des indicateurs d’alerte précoce, nous plaidons ici pour qu’on accorde une plus grande attention aux opportunités que ces techniques peuvent offrir, non seulement pour augmenter la précision des indicateurs dans les systèmes d’alerte précoce, mais aussi pour accroître l’utilité des informations exploitables fournies aux professionnels de l’éducation afin de les aider à prendre des mesures en toute connaissance de cause.

Par exemple, un domaine de la recherche sur le décrochage scolaire qui pourrait être renforcé grâce aux technologies d’analyse des données est la question du décrochage à la suite d’un renvoi de l’établissement. Cette question a reçu peu d’attention dans la recherche sur les indicateurs et systèmes d’alerte précoce, mais il s’agit d’un problème bien connu dans la littérature plus générale sur le décrochage. En raison de la typologie des parcours de vie mentionnée ci-dessus, le décrochage scolaire a historiquement été théorisé comme un processus continu qui s’accompagne de multiples facteurs de stress ; ceux-ci pouvant affecter les élèves de différentes manières (Alexander, Entwisle et Kabbani, 2001[67] ; Dupéré et al., 2018[68] ; Dupéré et al., 2015[69]). La capacité des chercheurs à s’appuyer sur ce type de théorie pour faire le lien avec les réalités du processus de décrochage, grâce aux techniques d’analyse mentionnées ci-dessus, peut renforcer la précision des variables prédictives qui intègrent ces informations, telles que celles du modèle GMM. Cependant, des études de taille plus modeste ont démontré que certains élèves qui ne parviennent pas à obtenir leur diplôme d’études secondaires peuvent quitter l’école de leur propre chef tandis que d’autres peuvent être renvoyés contre leur gré (Riehl, 1999[79] ; Rumberger et Palardy, 2005[80]). Il est clair que, certains établissements, particulièrement sous pression, peuvent renvoyer les élèves peu performants en les encourageant à quitter le système, par divers moyens, dans le but d’augmenter la performance moyenne de l’établissement aux tests (Rumberger et Palardy, 2005[80]). Une pratique consiste à faire changer d’établissement les élèves peu performants afin d’éviter leur participation aux tests obligatoires sur lesquels est fondée la responsabilité des établissements. Après plusieurs changements d’établissement, les élèves finissent par quitter le système scolaire (Riehl, 1999[79]). Ce comportement des administrateurs scolaires est hautement problématique, contraire à l’éthique, et ne favorise aucunement la réussite des élèves. Ce genre d’agissements doit donc être détecté le plus tôt possible et faire l’objet d’un suivi approprié en termes de gestion et de développement professionnel afin de recentrer les établissements sur le soutien et l’encadrement à apporter aux élèves. Des types d’analyse de données similaires à ceux décrits ci-dessus pourraient être appliqués aux données des grands systèmes scolaires pour identifier si ces pratiques de renvoi ont effectivement cours. Les techniques d’analyse de modèles telles que l’analyse par classification longitudinale sont conçues pour détecter et déterminer exactement si les élèves quittent le système via un décrochage volontaire ou via un processus substantiellement différent. Cette méthode est d’autant plus efficace lorsqu’on dispose d’ensembles détaillés de données longitudinales relatives à des systèmes entiers. Plus précisément, les analyses par classification telles que l’analyse de structure latente et le modèle de croissance à mélange de distributions peuvent être très utiles pour repérer ces types de comportements. Ainsi, non seulement ces technologies numériques sont utiles pour alimenter les indicateurs et systèmes d’alerte précoce dans une perspective de recherche et de pratique, mais elles peuvent être utilisées au sein des systèmes et entre eux pour détecter de nombreux types de modèles différents.

Alors que la recherche dans ce domaine continue, il existe une gamme de techniques d’analyse de modèles qui sont en cours de développement pour mieux orienter les indicateurs et les systèmes d’alerte précoce. C’est sur ce point que se concentre le reste de cette section.

Des travaux récents ont commencé à élargir le nombre de techniques disponibles pour la recherche et la pratique des systèmes et indicateurs d’alerte précoce. Les chercheurs explorent désormais les possibilités d’utilisation d’analyses issues des domaines de l’exploration de données, de la science des données et de la modélisation longitudinale (Agasisti et Bowers, 2017[17] ; Piety, 2019[75]), notamment via les arbres de décision, les visualisations d’analyse par classification longitudinale et les modèles de survie et de risque temporels.

Tout d’abord, les arbres de décision de classification et de régression (CART) sont une famille de modèles bien connus à la fois des chercheurs et décideurs pour leur utilité. Ces arbres de décision fournissent des points de séparation, des priorités et des pondérations identifiés empiriquement sur les variables en rapport avec un résultat. En tant que forme d’exploration de données, le résultat d’un arbre de décision est une figure qui sépare et hiérarchise les variables les plus importantes identifiées par l’algorithme pour prédire le résultat. Le système donne un point de séparation sur cette variable si elle est continue, puis établit des embranchements dans l’arbre, montrant l’ensemble suivant de variables de plus haute priorité, et ainsi de suite (Breiman et al., 1993[81] ; Quinlan, 1993[82] ; Quinlan, 1990[83]). Les arbres de décision et de régression ont été utilisés dans la recherche et la politique de l’éducation pour identifier les variables prédictives de la réussite et des résultats aux tests (Koon et Petscher, 2015[84] ; Koon, Petscher et Foorman, 2014[85] ; Martínez Abad et Chaparro Caso López, 2017[86]), mais moins souvent pour prédire l’obtention d’un diplôme et l’abandon scolaire. Par exemple, Baker et al. (2020) ont utilisé des arbres de régression pour analyser les données de près de 5 000 élèves du Texas en fonction de 23 groupes de caractéristiques variables. Ces travaux ont confirmé des constats précédents sur les variables prédictives concernant l’abandon scolaire et ont identifié des variables prédictives supplémentaires intéressantes, telles que le non-respect du code vestimentaire et le nombre de fois où un élève absent a été marqué comme étant présent (Baker et al., 2020[18]). Dans une autre étude sur la prédiction du décrochage scolaire, Soland (2013[87] ; 2017[88]) a utilisé de grands ensembles de données généralisables aux États-Unis et plus de 40 variables pour déterminer que les aspirations universitaires et professionnelles étaient des variables importantes à inclure dans la prédiction de l’alerte précoce du décrochage, en plus de la moyenne générale, des résultats aux tests standardisés et des attentes des enseignants (Soland, 2013[87] ; 2017[88]).

Les chercheurs utilisant des arbres de décision à apprentissage automatique sont parvenus à prédire le décrochage scolaire avec une grande précision dans différents pays, dont le Danemark (Márquez-Vera, Morales et Soto, 2013[89]), le Mexique (Nicolae-Bogdan et al., 2015[90]) et la Corée (Chung et Lee, 2019[91]). Au Mexique, l’étude a examiné les données de 670 élèves de l’établissement scolaire de Zacatecas et a inclus plus de 70 variables prédictives. L’étude a révélé que les arbres de régression étaient les plus précis pour prédire un éventuel décrochage scolaire (Márquez-Vera et al., 2013[92] ; Márquez-Vera, Morales et Soto, 2013[89]).

En second lieu, les « forêts » aléatoires sont une autre technique puissante d’analyse de données basée sur les arbres de décision. Comme leur nom le laisse entendre, les forêts aléatoires comportent de nombreux « arbres » de régression, ce qui permet de procéder à un grand nombre d’analyses CART, tout en utilisant une gamme de paramètres de départ aléatoires, puis en testant la « forêt » de modèles d’arbres pour trouver la meilleure solution (Breiman, 2001[93]). Au Danemark, à partir d’un vaste échantillon de plus de 72 000 élèves, on a examiné de multiples procédures d’apprentissage automatique pour déterminer leur précision dans la prédiction de l’abandon scolaire. L’analyse a porté sur des données relatives aux élèves, notamment leurs notes, les absences, les devoirs non remis, ainsi que la taille et l’effectif de l’établissement scolaire ainsi que les données démographiques de la communauté (Nicolae-Bogdan et al., 2015[90]). Les techniques de forêt aléatoire ont donné des résultats plus précis que ceux obtenus via la méthode CART. De la même manière, en utilisant la forêt aléatoire et en analysant les données de plus de 165 000 élèves du secondaire en Corée, Chung et Lee (2019) se sont appuyés sur une série de variables prédictives telles que les absences, les retards à l’école ou en classe, et le temps consacré aux activités personnelles ou extrascolaires (p. ex., les clubs et le bénévolat), et ont constaté une grande précision dans la prédiction du décrochage (Chung et Lee, 2019[91]). En utilisant le même ensemble de données, Chung et Lee (2019[91]) ont observé un grand déséquilibre dans les données coréennes relatives au décrochage. En effet, le pourcentage d’élèves qui abandonnent l’école est assez faible, ce qui peut créer des problèmes pour de nombreux algorithmes d’apprentissage automatique standard basés sur des arbres de régression. Les auteurs ont donc inclus un facteur de correction pour ce déséquilibre, ce qui a permis d’améliorer la précision des algorithmes basés sur les arbres de régression et les forêts aléatoires (Lee et Chung, 2019[94]).

Les algorithmes d’apprentissage automatique de type forêt aléatoire ont également été utilisés récemment avec des données aux États-Unis. Dans une étude analysant les données d’un district scolaire régional sur la côte atlantique comptant environ 11 000 élèves (Aguiar et al., 2015[95]), les auteurs ont utilisé une série de variables prédictives telles que les résultats scolaires, l’assiduité et la mobilité. Plutôt que de prédire la possibilité de décrochage effectif, les auteurs ont prédit que les élèves se situaient dans le percentile 10 supérieur de leur catégorie à risque, ce qui rend difficile la comparaison des résultats à ceux d’autres études. Plus récemment, une étude utilisant un algorithme d’apprentissage automatique de type forêt aléatoire et des données provenant de millions d’élèves à travers les États-Unis (Christie et al., 2019[96]) a analysé un modèle qui comprenait plus de 70 variables prédictives relatives aux élèves, y compris les résultats scolaires, l’assiduité, le comportement, la discipline et les crédits de cours accumulés, parmi beaucoup d’autres. Malheureusement, bien que les auteurs démontrent la grande précision de leur modèle pour prédire le décrochage, ils n’énumèrent pas les 70 variables prédictives, l’algorithme ou la façon dont les variables prédictives sont pondérées ou utilisées dans le modèle, ce qui rend difficile l’évaluation ou l’utilisation de ces résultats dans des recherches ultérieures.

Il est intéressant de noter que dans chacune de ces études utilisant l’apprentissage automatique par forêt aléatoire, la précision globale des prédictions était comparable à celle des variables prédictives du modèle de mélange à croissance de distributions évoqué ci-dessus, avec une précision supérieure à 80-90 %. Néanmoins, une critique concernant ces modèles utilisant l’apprentissage automatique (tels que la forêt aléatoire) (Villagrá-Arnedo et al., 2017[97]) revient de manière constante : il est difficile de les interpréter et d’agir en conséquence, car le fonctionnement exact du code et de l’algorithme n’est pas apparent ou simple à rapporter, et avec un si grand nombre de variables prédictives, savoir comment les exploiter et agir ensuite n’est pas simple (Knowles, 2015[71]). Même si un modèle peut prédire avec précision le décrochage scolaire, si l’algorithme est trop complexe ou dissimulé, il est plus difficile de comprendre et de mettre en œuvre des modèles dans différents contextes, et peut-être plus important encore, de concevoir et de tester des interventions efficaces.

Comme déjà évoqué, l’utilisation des indicateurs et des systèmes d’alerte précoce pour prédire le décrochage scolaire peut être problématique dans la mesure où parfois on ne sait pas ce qu’il se passe « à l’intérieur » de l’algorithme. Quel est le code utilisé ? Quels sont les modèles identifiés par la méthode employée ? (Agasisti et Bowers, 2017[17] ; Bowers et al., 2019[19]). Les experts doivent avoir la possibilité de décortiquer l’algorithme et son code afin de comprendre son fonctionnement. Ils peuvent alors comprendre qu’ils travaillent avec des élèves qu’ils ne peuvent simplement résumer à des moyennes de résultats scolaires, des scores de prédiction ou encore des catégories à risque (Hawn Nelson et al., 2020[98]). Au contraire, ils perçoivent l’élève à travers tout son parcours scolaire grâce au système qui leur permet d’accéder aux données individuelles (Bowers, 2010[34]). Grâce à la technologie d’analyse visuelle des données, les cartes de densité des classifications hiérarchiques permettent de mieux appréhender la situation dans sa granularité. Adaptées de la taxonomie des mégadonnées et de la bio-informatique (Bowers, 2010[34] ; Eisen et al., 1998[99] ; Wilkinson et Friendly, 2009[100]), mais rarement utilisées dans le domaine de l’éducation (Kinnebrew, Segedy et Biswas, 2014[101] ; Lee et al., 2016[102] ; Moyer-Packenham et al., 2015[103]), les cartes de densité d’analyse par classification permettent de visualiser des clusters de données individuelles et mettent en lien ces informations avec les résultats globaux des élèves, ce qui permet d’examiner non seulement les types de clusters, mais aussi la variance entre les clusters, les élèves et les variables. Par exemple, le Graphique 9.1. de Bowers (2010[34]) applique des cartes de densité à l’ensemble de l’historique longitudinal des notes de 188 élèves de deux petits établissements scolaires aux États-Unis. La méthode structure les données de tous les élèves et permet visualiser chaque note de cours individuelle dans toutes les matières, de la maternelle à la terminale, et les met en lien avec des résultats globaux tels que l’obtention d’un diplôme ou le décrochage, ainsi que la participation à un examen d’admission à l’université (American College Test). À des fins de visualisation, les données de chaque élève sont reportées sur une « carte de densité » où les notes les plus élevées dans chaque matière sont représentées en rouge foncé et les notes les plus basses en bleu foncé. Les données chiffrées sont remplacées par des couleurs.

Les classifications hiérarchiques, qui s’appuient sur une longue histoire des techniques d’analyse par classification issues de l’exploration de données (Bowers, 2007[52] ; Romesburg, 1984[104] ; Wilkinson et Friendly, 2009[100]), constituent un moyen efficace pour structurer et analyser les données sur l’éducation. D’habitude, les données sur l’éducation sont représentées dans des fichiers de données avec des lignes d’élèves organisées selon leur nom ou leur numéro d’identification, auxquelles s’ajoutent des colonnes contenant différentes variables. Lorsque l’analyse par classification est appliquée à ce type de données, au lieu d’un tri en fonction du nom ou du numéro d’identification des élèves, on utilise la similarité des variables dans les colonnes pour réorganiser la liste, avec des indications sur la proximité ou la distance de chaque élève par rapport à son cluster et à tous les autres (Bowers, 2010[34]). La carte de densité fournit alors un moyen visuel d’afficher toutes les données, et comme les rangées similaires sont les unes à côté des autres, des blocs de couleurs se forment à travers l’ensemble de données, permettant aux chercheurs et aux décideurs de visualiser l’ensemble des données et tous les élèves en même temps, en lien avec les résultats globaux (pour une synthèse, veuillez consulter Bowers, 2010a). En comparaison, les méthodes plus traditionnelles de visualisation des données dans le domaine de l’éducation, telles que les graphiques à barres ou les tracés linéaires des données des élèves, s’organisent autour d’une sélection de variables. Ces modes de présentation peuvent devenir difficilement interprétables en raison du grand nombre de lignes ou de barres, ne fût-ce que pour une centaine d’élèves seulement. Plutôt que de résumer les données des élèves à des moyennes générales par rapport à une petite sélection de variables, l’analyse par carte de densité présente chaque élève de l’ensemble de données ainsi que chaque point de données, de manière à permettre d’examiner chaque groupe par rapport aux résultats.

Dans le cadre de l’étude de Bowers (2010[34]), les notes de chaque élève tout au long de son parcours dans le système éducatif, de la maternelle à la terminale, ont été analysées et mises en rapport avec l’ensemble de ses résultats. Il est important de noter que des groupes spécifiques de modèles de résultats longitudinaux ont pu être identifiés, modèles qui étaient auparavant inconnus du système scolaire. Comme un groupe d’élèves qui a obtenu des notes élevées jusqu’en troisième et quatrième année, puis qui a vu les notes chuter. Ceux-ci correspondant aux élèves faiblement notés qui abandonnent plus souvent l’école (voir le Graphique 9.1. , marqué en vert en bas dans le graphique). À l’inverse, l’un des plus petits clusters était un groupe d’élèves qui avaient des notes faibles pendant les premières années de scolarité, mais qui ont ensuite rapidement progressé vers la fin de l’enseignement primaire et ont tous obtenu leur diplôme (voir le Graphique 9.1. , marqué en jaune en haut dans le graphique). Dans les deux cas, les élèves de chaque groupe peuvent être identifiés dans le graphique, ainsi que toutes les données qui les concernent. Les responsables scolaires ont ainsi une occasion unique de voir l’ensemble des données importantes en vue de l’obtention d’un diplôme du deuxième cycle de l’enseignement secondaire, réparties dans le temps et entre les élèves eux-mêmes. Les cartes de densité permettent aux responsables de se concentrer sur des élèves spécifiques afin de mieux comprendre leur propre expérience vécue dans le système scolaire. Cette technologie permet donc de mettre au point des mesures concrètes qui peuvent être personnalisées en fonction de la façon dont l’élève a progressé dans le système.

Le bémol de ces techniques d’exploration et de visualisation de données est qu’elles sont utilisées à petite échelle (établissements ou districts scolaires), mais sont censées fonctionner ensuite à l’échelle des systèmes éducatifs. Ces modèles d’exploration de données ont la réputation de ne pas être en mesure d’établir des constats généralisables à grande échelle. En effet, une recherche récente sur les indicateurs et systèmes d’alerte précoce dans trois établissements scolaires de l’État de l’Ohio aux États-Unis a montré des résultats différents dans chaque district (Stuit et al., 2016[23]). Les auteurs ont donc demandé aux chercheurs de comparer les résultats de leurs propres travaux (en utilisant les mêmes variables) avec des résultats de recherches extérieures. Comme les auteurs de chapitre le recommandent :

Malgré la variation dans les prédictions de décrochage scolaire ou du taux d’obtention du diplôme d’enseignement secondaire, les résultats donnent à croire qu’il est important que les districts scolaires passent en revue les résultats individuels et puissent eux-mêmes mettre au point leur propre système d’alerte précoce (p. ii).

De même, à plus grande échelle, dans une étude récente visant à prédire le décrochage et qui portait sur les résultats scolaires, l’assiduité aux cours et le comportement de plus d’un million d’élèves aux États-Unis, lorsque l’algorithme de prédiction par exploration de données a été appliqué à 30 districts cibles en plus de ceux de la série de données, « aucun des… modèles n’a donné d’aussi bons résultats que leur moyenne lorsqu’ils ont été appliqués aux districts cibles » (p. 735) (Coleman, Baker et Stephenson, 2019[105]). Ainsi, la généralisation au-delà de l’ensemble de données d’entraînement constitue actuellement une limite majeure des techniques d’exploration de données dans la prédiction du décrochage scolaire, et pourtant ce travail est d’une importance critique pour les systèmes scolaires concernés dans les données d’entraînement. Pour les dirigeants des établissements et systèmes scolaires, les techniques utilisées dans le domaine de la science des données de l’éducation, telles que l’exploration de données, l’analyse de modèles, leur visualisation et la précision des prédictions, sont des innovations récentes importantes qui peuvent aider à prendre des décisions dans l’ensemble du système éducatif en utilisant des données exploitables (Agasisti et Bowers, 2017[17] ; Bowers, 2010[55] ; Krumm, Means et Bienkowski, 2018[106] ; Bowers, 2017[78] ; Piety, 2019[75]). Comme indiqué dans la littérature récente sur les recoupements entre la science des données, les cycles d’amélioration fondés sur des données probantes et le leadership scolaire, appelé Education Leadership Data Analytics (analyse des données du leadership scolaire), (Bowers et al., 2019[19]), les travaux en cours comprennent :

Les praticiens de l’ELDA [qui] travaillent en collaboration avec les dirigeants et les enseignants du système scolaire pour analyser, structurer et visualiser des modèles et des informations jusqu’alors inconnus à partir des vastes ensembles de données collectées par les structures scolaires. Ils intègrent ensuite les résultats dans un langage et des outils numériques faciles à comprendre et les incorporent dans des cycles d’amélioration, fondés sur des données probantes, qui sont à la fois collaboratifs et créateurs de communautés. (p. 8).

Ce travail d’analyse des modèles au sein de chaque district et système scolaire est donc important et permet d’étayer la prise de décision (Bowers, 2017[78] ; Mandinach et Schildkamp, 2020[107]).

Néanmoins, ce type de transposition et de comparaison des modèles à l’échelle locale ne peut avoir lieu que si les méthodes et les algorithmes utilisés sont publics et en accès libre. À la suite de demandes similaires dans les domaines de la recherche, de la santé, de l’industrie et de l’action publique, dans lesquels de grands ensembles de données sont analysés de manière similaire pour formuler des recommandations (Stodden et al., 2016[108] ; Wachter et Mittelstadt, 2019[109]), des appels ont récemment été lancés en faveur de la transparence et de la publication en libre accès de tous les algorithmes utilisés dans le monde de l’éducation. Les données sur l’éducation doivent être privées et confidentielles. Mais si un algorithme fait une recommandation, une prédiction ou prend une décision concernant des élèves, des enseignants ou des établissements scolaires, il est éthiquement recommandé que le code et l’algorithme soient rendus publics et en accès libre, sans caractéristiques propriétaires cachées (Agasisti et Bowers, 2017[17] ; Bowers et al., 2019[19]). La publication de ces données et le libre accès aux algorithmes utilisés dans les décisions éducatives évitent des problèmes déjà rencontrés dans d’autres domaines de la science des données sociologiques et de l’exploration de données, tels que les prêts bancaires et les décisions d’emprisonnement. Les algorithmes dissimulés et les conséquences non voulues entraînent des biais et des inégalités dans les algorithmes et leurs résultats qui passent inaperçus (Benjamin, 2019[110] ; Hawn Nelson et al., 2020[98] ; O’Neil, 2016[111]), alors que les algorithmes ouverts présentant les informations pertinentes peuvent être testés pour vérifier leur caractère équitable et l’absence de biais (Corbett-Davies et Goel, 2018[112] ; d’Alessandro, O’Neil et LaGatta, 2017[113] ; Dudik et al., s.d.[114] ; Loukina, Madnani et Zechner, 2019[115] ; Zehlike et al., 2017[116]).

Récemment, afin d’aider les spécialistes des systèmes scolaires à évaluer la précision des indicateurs et systèmes d’alerte précoce, Bowers et Zou (2019[6]) ont mis au point un guide pour l’analyse de la fonction d’efficacité du récepteur. Comme indiqué ci-dessus, cette analyse permet de comparer la précision de plusieurs variables prédictives par rapport à un résultat escompté, la technique de l’aire sous la courbe ROC permettant de mesurer la précision en tant que telle et de comparer la différence de précision entre deux variables prédictive (Bowers et Zhou, 2019[6]). Cependant, comme les praticiens des données dans les systèmes scolaires se retrouvent dans leur poste après avoir suivi des parcours professionnels différents (Bowers, 2017[78] ; Bowers et al., 2019[19]), ils n’ont pas reçu, en règle générale, une formation adaptée et ne savent pas nécessairement comment comparer la précision de différentes variables prédictives. En outre, dans de nombreux cas, les praticiens des données sur l’éducation qui travaillent sur des indicateurs et des systèmes d’alerte précoce n’ont pas le temps ou la formation nécessaires pour générer le code servant à évaluer et comparer la précision des indicateurs d’alerte précoce. Cette question est d’autant plus complexe que peu d’études de recherche en éducation publient actuellement leur algorithme et leur code complets pour permettre la réplication et l’utilisation par les praticiens (Bowers et al., 2019[19] ; Knowles, 2015[71]). Pour remédier à ce problème, Bowers et Zhou (2019[6]) ont utilisé de grands ensembles de données généralisables à l’échelle des États-Unis, ouverts et publics, pour fournir un guide et une marche à suivre aux praticiens des données sur l’éducation souhaitant appliquer l’analyse de l’aire sous la courbe d’efficacité du récepteur pour évaluer la précision de chaque indicateur et comparer statistiquement les niveaux de précision significativement différents dans la prédiction des résultats scolaires. Il est important de noter que l’étude fournit non seulement un guide démontrant l’analyse de la précision de l’indicateur de l’aire sous la courbe d’efficacité du récepteur pour un large éventail de résultats en matière d’éducation, allant du décrochage scolaire et de l’obtention du diplôme de l’enseignement secondaire à la scolarisation et à la réussite dans l’enseignement postsecondaire, entre autres (Bowers et Zhou, 2019[6]), mais aussi des données supplémentaires qui comprennent tout le code source ouvert en langage de programmation R, et ce pour chaque tableau, équation et figure de l’étude. Ce type d’étude permet de partager les ressources algorithmiques dans divers contextes, de tester les comparaisons au niveau des codes des résultats ainsi que l’application aux communautés éducatives locales afin de prendre des décisions (Bowers et al., 2019[19]).

Dans le cadre de la recherche et de la pratique sur les indicateurs et systèmes d’alerte précoce en vue de réduire le décrochage scolaire, les technologies émergentes de l’analyse des modèles, de l’exploration des données, de l’analyse de l’apprentissage et de l’apprentissage automatique permettent d’élargir les connaissances sur la manière de prédire avec précision les résultats des élèves, et de proposer ensuite des interventions qui contribuent à leur réussite. Cependant, l’identification des variables prédictives et l’analyse de leur précision ne constituent qu’une composante d’un système beaucoup plus vaste.

Même si l’identification des variables prédictives des résultats des élèves et l’analyse de leur précision dans les indicateurs et les systèmes d’alerte précoce ont fait l’objet de nombreuses recherches et d’un grand intérêt récemment, l’identification des variables prédictives ne représente qu’une petite composante d’un système beaucoup plus vaste. En s’inspirant d’un graphique provenant d’un document rédigé par des ingénieurs de Google Inc. dans lequel ils notent que l’apprentissage automatique n’est qu’un tout petit élément dans lequel « l’infrastructure environnante requise est vaste et complexe » (p. 4) (Sculley et al., 2015[117]), le Graphique 9.2. situe les questions d’« identification des variables prédictives » dans le contexte plus large des systèmes de prévention du décrochage scolaire. De multiples éléments différents travaillent ensemble tout au long du processus, qui commence à gauche du Graphique 9.2. par la collecte, le nettoyage et le traitement d’un large éventail de données sur les élèves et les établissements scolaires, en collaboration avec les membres de la communauté ; il fournit ensuite ces informations aux parties prenantes par le biais du système d’alerte précoce et du tableau de bord ; et il combine finalement ces informations avec les contributions des élèves, des enseignants et des membres de la famille. Cette approche permet alors de faire des inférences sur les difficultés des élèves et leur réussite dans le système, qui, lorsqu’elles sont combinées aux ressources appropriées, peuvent servir à adapter les mesures aux besoins des élèves ou modifier les soutiens actuels que le système éducatif offre à tous. En fin de compte, comme indiqué à droite du Graphique 9.2. , des informations peuvent être recueillies pour alimenter le système et ainsi contribuer à l’amélioration continue.

Nous nous sommes, certes, concentrés tout au long de ce chapitre sur les spécificités des indicateurs d’alerte précoce et leur précision, mais notre réflexion s’inscrit dans une perspective plus large : celle du rôle des structures éducatives dans le soutien à la réussite des élèves. Ce point précis est illustré par le travail réalisé dans la ville de Chicago (Allensworth, Nagaoka et Johnson, 2018[15]). Comme indiqué plus haut, l’indicateur de « bonne voie » de Chicago est un indicateur d’alerte précoce transversal bien connu et assez précis du décrochage scolaire. Au cours des deux dernières décennies, la ville de Chicago a connu une augmentation spectaculaire des taux d’obtention de diplôme (Allensworth et al., 2016[118]), passant de 52,4 % en 1998 à plus de 90 % en 2019 (Issa, 2019, August 22[119]). Cependant, comme l’ont déclaré les chercheurs de Chicago, le fait de trouver des indicateurs de « bonne voie » plus précis et de les intégrer dans un système d’alerte précoce n’a pas entraîné d’amélioration, car il s’agit d’une mesure nécessaire, mais insuffisante pour lutter contre le décrochage scolaire. Le système d’alerte précoce est plutôt une composante d’un ensemble beaucoup plus vaste de systèmes qui, combinés à l’action des professionnels de l’éducation, fournissent des données utiles. Ceux-ci élaborent ensuite des mesures destinées aux élèves et créent des outils pour favoriser la persévérance scolaire ou modifient les outils existants. Comme l’indique Allensworth (2013[7]) :

Il y a dix ans, la lutte contre le décrochage scolaire semblait être un problème insoluble… C’était l’époque où l’accès aux systèmes de données concernant les élèves n’était pas encore généralisé. Maintenant que les professionnels de l’éducation peuvent suivre la progression des élèves tout au long de leur scolarité, ils disposent d’indicateurs d’alerte précoce qui permettent de prédire quand les élèves commenceront à fréquenter le lycée, et sont facilement accessibles aux enseignants du secondaire. De plus, les facteurs les plus directement associés à l’obtention éventuelle d’un diplôme sont aussi ceux qui sont les plus susceptibles d’être modifiés par les pratiques des établissements scolaires : l’assiduité des élèves et leurs efforts en classe. Non seulement les établissements scolaires peuvent identifier les élèves ayant besoin de soutien, mais ils peuvent utiliser les tendances issues des indicateurs pour s’attaquer aux problèmes structurels qui rendent plus difficile l’obtention d’un diplôme (pp. 68-69) (Allensworth, 2013[7]).

Pour s’inscrire dans une stratégie efficace de soutien à la persévérance scolaire et à la réussite scolaire, les systèmes d’alerte précoce doivent reposer sur des indicateurs qui présentent quatre caractéristiques fondamentales : précis, accessibles, exploitables et redevables.

  • Précis en ce sens que la variable prédictive identifie effectivement le résultat à un moment antérieur, ce qui est plus facile à déterminer en utilisant des mesures de précision telles que l’aire sous la courbe de la fonction d’efficacité du récepteur, comme indiqué ci-dessus.

  • Accessible en ce sens que la variable prédictive est facile à comprendre et disponible pour des travaux de recherche. Accessible ne veut pas dire simple, mais plutôt que l’algorithme est susceptible d’être consulté, étudié et compris. L’accessibilité est à l’opposé des algorithmes propriétaires, dissimulés ou à apprentissage automatique, qui masquent la manière dont la prédiction se déroule, mais elle signifie, au contraire, ouverte, publique et compréhensible.

  • Exploitable en ce sens que la variable prédictive peut être utilisée pour prendre des mesures afin d’adapter les réponses ou pour modifier le système actuel et résoudre des problèmes systémiques. Les indicateurs d’alerte précoce exploitables se basent sur des variables prédictives qui sont récentes ou fonctionnent en temps réel, malléables et sous le contrôle des parties prenantes, en opposition aux variables prédictives sur lesquelles les élèves, les enseignants, les responsables scolaires ou les familles n’ont aucune prise.

  • Redevables en ce sens que les variables prédictives sont régulièrement contrôlées pour éviter les biais, qu’elles sont examinées par les communautés d’utilisateurs, et qu’elles sont régulièrement auditées afin d’appréhender les biais algorithmiques potentiels et de promouvoir au bout du compte l’équité. Les indicateurs d’alerte précoce redevables incluent les parties concernées dans la conception et l’application des variables prédictives par rapport aux questions qui les préoccupent, en concevant et en utilisant les variables prédictives en collaboration avec les utilisateurs pour qui le système est conçu.

Parmi les différentes caractéristiques, la redevabilité est peut-être l’aspect le plus important à prendre en compte pour les systèmes et indicateurs d’alerte précoce. Lorsque celle-ci est bien appréhendée, les trois autres caractéristiques (précision, accessibilité et exploitabilité) deviennent plus faciles à comprendre. En effet, la redevabilité en matière de prédiction algorithmique est un sujet de préoccupation croissant à l’échelle mondiale. En évoquant des questions juridiques autour de la confidentialité des données et de la prédiction algorithmique dans l’Union européenne et aux États-Unis, Wachter et Mittelstadt (2019[109]) relèvent :

Malheureusement, il est peu vraisemblable que les organisations fourniront de leur plein gré des explications complètes couvrant le processus, le fondement et la précision de la décision générée par l’algorithme, à moins d’y être obligées. Ces systèmes sont souvent très complexes, impliquent des données personnelles (sensibles) et utilisent des méthodes et des modèles considérés comme des secrets commerciaux. Une explication pourrait informer la personne du résultat ou de la décision et des hypothèses, prédictions ou inférences sous-jacentes qui y ont conduit. En revanche, cette explication ne garantit pas que la décision, l’hypothèse, la prédiction ou l’inférence est justifiée. Autrement dit, l’explication d’une décision n’a pas la même valeur que la justification d’une inférence ou d’une décision. Par conséquent, si le fondement des décisions algorithmiques est au cœur des appels à la redevabilité et à l’explicabilité algorithmiques, des droits individuels sont nécessaires pour donner aux personnes concernées la possibilité de gérer la façon dont les inférences portant atteinte à la vie privée sont faites, et de demander réparation pour inférences abusives lorsqu’elles servent à prendre des décisions importantes. (pp. 503-505) (Wachter et Mittelstadt, 2019[109]).

Cette question est d’autant plus sensible lorsqu’on met en parallèle de récentes prédictions algorithmiques, empreintes de biais raciaux, ethniques et communautaires, dans les domaines des soins de santé, de la finance, du maintien de l’ordre et de l’emprisonnement. Comme l’a récemment relevé Benjamin (2019[110]) dans la revue Science :

Les données utilisées pour entraîner les systèmes automatisés sont généralement historiques et, dans le contexte des soins de santé, elles engendrent des structures hospitalières ségréguées, des programmes d’études médicales racistes et des systèmes d’assurance inégaux, entre autres facteurs. Et pourtant, de nombreux secteurs et organisations, bien au-delà des soins de santé, intègrent des outils automatisés, de l’éducation au secteur bancaire en passant par la police et le logement, avec la perspective que les décisions algorithmiques soient moins biaisées que celles prises par les êtres humains. Mais ce sont les humains qui décident des données et conçoivent les algorithmes, ces derniers s’abritant désormais derrière des perspectives d’impartialité tout en présentant un potentiel de discrimination injuste à une échelle beaucoup plus grande que celle des individus biaisés (p. 422) (Benjamin, 2019[110]).

La responsabilité envers la communauté de bénéficiaires est donc une question centrale pour les systèmes d’alerte précoce utilisés dans le monde de l’éducation. Cette situation, caractéristique des systèmes prédictifs, plaide en faveur d’un plus grand rôle de la communauté dans la planification, la conception, la mise à l’essai et l’utilisation de ces systèmes de données (Bowers et al., 2019[19] ; Hawn Nelson et al., 2020[98] ; Mandinach et Schildkamp, 2020[107]). Ces recommandations invitent les parties prenantes à participer sur un pied d’égalité au cycle d’utilisation des données probantes en collaboration avec les chercheurs, les enseignants et les administrateurs scolaires, en communiquant sur la façon dont les systèmes d’alerte précoce et les indicateurs sont conçus, sur les inférences faites à partir des résultats et sur la façon dont celles-ci seront utilisées de manière positive et constructive, et en définissant des étapes spécifiques et pragmatiques (Hawn Nelson et al., 2020[98]).

Compte tenu des travaux actuels, trois domaines présentent un réel intérêt dans la progression de la recherche en matière d’indicateurs d’alerte précoce et leur utilisation :

En premier lieu, il faut se pencher sur la réplication des résultats précis et des algorithmes, et tester de nouvelles variables prédictives dans de multiples contextes, avec de nombreux ensembles de données. Chaque étude qui identifie un indicateur d’alerte précoce analyse généralement les données, constate les mesures de précision (ou non), puis met en application l’indicateur en question. En fait, tant pour les algorithmes d’apprentissage automatique que pour les indicateurs, il faut répliquer chaque indicateur dans différents contextes, confirmer la précision et tester les biais potentiels afin d’obtenir des comparaisons de base, puis innover à partir de ce qui est déjà connu. Ainsi, davantage d’études sur les indicateurs d’alerte précoce devraient répliquer les indicateurs les plus précis en vue d’obtenir des résultats à partir d’un nouvel ensemble de données. En se basant sur des exemples récents (Bowers, Sprott et Taff, 2013[35] ; Coleman, Baker et Stephenson, 2019[105] ; Knowles, 2015[71]), ces études devraient ensuite communiquer les valeurs sous la courbe de la fonction d’efficacité du récepteur et les comparer avec les résultats de toute nouvelle analyse, et enfin publier le code en accès libre (Agasisti et Bowers, 2017[17] ; Bowers et al., 2019[19]). Afin de stimuler ce type de partage et de réplication de code entre les ensembles de données, la mise en œuvre de normes spécifiques (connues sous l’acronyme anglais de FAIR : Findable, Accessible, Interoperable and Reproducible) stimulerait considérablement l’innovation en encourageant des ensembles de données dépersonnalisées et des algorithmes consultables, accessibles, interopérables et reproductibles (Austin et al., 2017[120] ; Singh et al., 2019[121]). Pour un résumé détaillé des normes spécifiques, voir Austin et al. (2017[120]).

En deuxième lieu, la grande majorité des indicateurs d’alerte précoce dans la plupart des systèmes d’alerte précoce sont des variables transversales à un moment donné dans le temps, dont beaucoup sont collectées dans le premier cycle du secondaire. Cependant, comme nous l’avons montré ci-dessus, les variables prédictives les plus précises utilisent des données longitudinales, en examinant les trajectoires des élèves au fil du temps. Ainsi, un domaine d’avenir consiste à inclure toujours plus de données longitudinales et chronologiques qui utilisent des données sur le long terme démarrant bien avant l’enseignement secondaire. Cependant, le temps en tant que variable peut créer de nombreux problèmes tant pour les statistiques traditionnelles que pour l’exploration de données, car les données d’un élève dans le temps dépendent de moments antérieurs et postérieurs, ce qui est contraire à une hypothèse centrale des statistiques basées sur la régression. De plus, les données concernant le décrochage scolaire présentent un autre problème lié au temps en ce sens que, au fur et à mesure que le temps passe, l’ensemble de données de l’échantillon évolue de manière dynamique. En effet, des élèves abandonnent l’école et « sortent » donc de l’ensemble de données. Cette dépendance temporelle des données longitudinales, tant au niveau individuel qu’au niveau de l’échantillon, peut poser des difficultés aux chercheurs et aux praticiens qui cherchent à appliquer des méthodes issues de la littérature interdisciplinaire. Alors que la recherche sur le décrochage scolaire a rarement été confrontée à ce problème jusqu’à présent, il existe quelques études qui se sont efforcées d’appliquer des modèles tirés de l’épidémiologie, dans laquelle ces problèmes de données conditionnelles longitudinales dépendantes du temps sont constamment présents (Bowers, 2010[55] ; Lamote et al., 2013[122]). Il est intéressant de noter que ces questions peuvent être modélisées assez bien à l’aide de techniques de modélisation de la survie, en particulier les modèles de risque à temps discret (Singer et Willett, 2003[123]). Comme le montre Bowers (2010[55]), le risque de décrochage est lié au facteur temps, et l’estimation de ce risque dépend de l’échantillon d’étudiants restants. Lorsque cet élément est pris en compte, de multiples variables prédictives peuvent alors être testées pour savoir quand elles influencent le plus le risque de décrochage à des moments spécifiques. L’accent mis sur le risque de décrochage à différents moments peut potentiellement orienter les interventions, car une intervention qui pourrait être efficace au début des études secondaires pourrait n’avoir aucun effet plus tard, ou l’inverse.

Troisièmement, un problème bien connu concernant le décrochage scolaire aux États-Unis est ce que l’on appelle les « usines à décrocheurs » (Balfanz et al., 2010[124] ; Balfanz et Legters, 2006[125] ; Balfanz et West, 2009[126]). C’est le reflet d’une situation où dans un pays donné, il peut y avoir des établissements scolaires spécifiques qui concentrent une grande partie des élèves qui abandonnent l’école. Aux États-Unis, le taux d’obtention d’un diplôme s’élève à seulement 50 % dans certains établissements. Ces « usines à décrocheurs » donnent à penser que le problème du décrochage se situe, dans une certaine mesure, au niveau des établissements et du système scolaire lui-même. Pour y répondre, un cadre de modélisation multiniveau permettant de répartir correctement les élèves dans les établissements scolaires est nécessaire (Hox, 2010[127] ; Raudenbush et Bryk, 2002[128]). Il faut estimer la variance du décrochage scolaire qui est attribuable au niveau des élèves et des établissements (Lamote et al., 2013[122]), une question évoquée précédemment dans l’exemple du décrochage scolaire par rapport au renvoi de l’établissement (Rumberger et Palardy, 2005[80]). En matière de recherche sur les indicateurs et systèmes d’alerte précoce, il serait intéressant d’utiliser des cadres de modélisation hiérarchique en association avec les analyses de modèles et les analyses prédictives décrites ci-dessus pour fournir des informations exploitables. Par exemple, le modèle de croissance à mélange de distributions ou l’analyse multiniveau de structure latente peut déterminer quels établissements scolaires ont des proportions différentes d’élèves de différents groupes dans une typologie de décrochage. Pour expliquer l’importance de la nature dépendante des données chronologiques, (Lamote et al., 2013[122]) ont utilisé un modèle multiniveau de risque à temps discret et ont démontré l’importance de prendre en compte la mobilité longitudinale des élèves entre les établissements scolaires. La recherche sur les variables prédictives doit également prendre en compte le niveau des établissements. Si des types spécifiques de décrochage se retrouvent dans un bâtiment spécifique d’un établissement scolaire, la direction de l’établissement pourrait se pencher sur la situation dans ce bâtiment pour aider à améliorer les résultats des élèves qui le fréquentent.

En conclusion, les indicateurs et systèmes d’alerte précoce en matière d’éducation ont récemment connu de sérieuses avancées. Grâce à l’utilisation de techniques d’analyse de données, certains systèmes d’alerte précoce prédisent l’abandon scolaire avec une précision supérieure à 80-90 %. Toutefois, certains domaines spécifiques nécessitent des recherches plus approfondies et une application pratique. Par exemple, la plupart des techniques reposant sur l’apprentissage automatique et l’exploration de données ne sont pas facilement transférables d’un contexte éducatif à un autre. De manière plus inquiétante, de nombreux indicateurs d’alerte précoce sont encore très imprécis.

Les caractéristiques des systèmes d’alerte précoce (précision, accessibilité, exploitation et redevabilité) fournissent un cadre de référence qui peut s’avérer utile dans le développement de l’analyse prédictive et des algorithmes, avec pour but de soutenir les résultats de l’éducation. En fin de compte, la technologie des indicateurs et des systèmes d’alerte précoce n’est qu’une petite partie par rapport à l’utilisation des données dans les établissements scolaires. D’autres éléments comprennent le rôle de la communauté, la dimension éthique de l’utilisation des données et des algorithmes tout au long du processus et une attention continue sur la façon de soutenir la réussite des élèves en fournissant des interventions individuelles et en abordant les offres et les politiques au niveau du système. Le développement de techniques et d’outils qui rendent les données exploitables n’est qu’une des étapes vers des actions efficaces qui visent à l’amélioration de l’apprentissage et à la réussite des élèves. Mais il s’agit bien d’une étape prometteuse qui se matérialisera dans un avenir proche grâce à la numérisation et aux innovations en matière d’exploration et d’analyse des données.

Références

[73] Adelman, M. et al. (2018), « Predicting school dropout with administrative data: new evidence from Guatemala and Honduras », Education Economics, vol. 26/4, pp. 356-372, https://doi.org/10.1080/09645292.2018.1433127.

[17] Agasisti, T. et A. Bowers (2017), « Data Analytics and Decision-Making in Education: Towards the Educational Data Scientist as a Key Actor in Schools and Higher Education Institutions », dans Johnes, G. et al. (dir. pub.), Handbook on the Economics of Education, Edward Elgar Publishing, Cheltenham, UK, https://doi.org/10.7916/D8PR95T2.

[64] Agodini, R. et M. Dynarksi (2004), « Are experiments the only option? A look at dropout prevention programs », The Review of Economics and Statistics, vol. 86/1, pp. 180-194.

[95] Aguiar, E. et al. (2015), Who, when, and why: a machine learning approach to prioritizing students at risk of not graduating high school on time, ACM, Poughkeepsie, New York, https://doi.org/10.1145/2723576.2723619.

[67] Alexander, K., D. Entwisle et N. Kabbani (2001), « The dropout process in life course perspective: Early risk factors at home and school », The Teachers College Record, vol. 103/5, pp. 760-822.

[7] Allensworth, E. (2013), « The Use of Ninth-Grade Early Warning Indicators to Improve Chicago Schools », Journal of Education for Students Placed at Risk (JESPAR), vol. 18/1, pp. 68-83, https://doi.org/10.1080/10824669.2013.745181.

[25] Allensworth, E. et J. Easton (2007), What matters for staying on-track and graduating in Chicago public high schools: A close look at course grades, failures, and attendance in the freshman year, The University of Chicago, http://www.consortium-chicago.org.

[24] Allensworth, E. et J. Easton (2005), The on-track indicator as a predictor of High School graduation, http://www.consortium-chicago.org/publications/p78.html.

[38] Allensworth, E. et al. (2014), Looking Forward to High School and College: Middle Grade Indicators of Readiness in Chicago Public Schools, http://ccsr.uchicago.edu/sites/default/files/publications/Middle%20Grades%20Report.pdf.

[118] Allensworth, E. et al. (2016), High school graduation rates through two decades of district change: The influence of policies, data records, and demographic shifts., http://consortium.uchicago.edu/sites/default/files/publications/High%20School%20Graduation%20Rates-Jun2016-Consortium.pdf.

[53] Allensworth, E. et S. Luppescu (2018), Why do students get good grades, or bad ones? The influence of the teacher, class, school, and student, https://consortium.uchicago.edu/sites/default/files/publications/Why%20Do%20Students%20Get-Apr2018-Consortium.pdf.

[15] Allensworth, E., J. Nagaoka et D. Johnson (2018), High School Graduation and College Readiness Indicator Systems: What We Know, What We Need to Know, https://consortium.uchicago.edu/sites/default/files/publications/High%20School%20Graduation%20and%20College-April2018-Consortium.pdf.

[120] Austin, C. et al. (2017), « Key components of data publishing: using current best practices to develop a reference model for data publishing », International Journal on Digital Libraries, vol. 18/2, pp. 77-92, https://doi.org/10.1007/s00799-016-0178-2.

[18] Baker, R. et al. (2020), « Predicting K-12 Dropout », Journal of Education for Students Placed at Risk (JESPAR), vol. 25/1, pp. 28-54, https://doi.org/10.1080/10824669.2019.1670065.

[124] Balfanz, R. et al. (2010), Building a grad nation: Progress and challenge in ending the high school dropout epidemic., https://www.americaspromise.org/resource/building-grad-nation-progress-challenge-ending-high-school-dropout-epidemic-november-2010 (consulté le 18 janvier 2021).

[8] Balfanz, R. et V. Byrnes (2019), « Early Warning Indicators and Intervention Systems: State of the Field », dans Fredricks, J., A. Reschly et S. Christenson (dir. pub.), Handbook of Student Engagement Interventions, Elsevier, https://doi.org/10.1016/b978-0-12-813413-9.00004-8.

[33] Balfanz, R., L. Herzog et D. Mac Iver (2007), « Preventing Student Disengagement and Keeping Students on the Graduation Path in Urban Middle-Grades Schools: Early Identification and Effective Interventions », Educational Psychologist, vol. 42/4, pp. 223-235, https://doi.org/10.1080/00461520701621079.

[125] Balfanz, R. et N. Legters (2006), « Closing ’dropout factories’: The graduation-rate crisis we know, and what can be done about it. », Education Week, vol. 25, pp. 42-43.

[126] Balfanz, R. et T. West (2009), Raising graduation rates: A series of data briefs: Progress toward increasing national and state graduation rates., https://new.every1graduates.org/raising-graduation-rates/ (consulté le 18 janvier 2021).

[54] Battin-Pearson, S. et al. (2000), « Predictors of early high school dropout: A test of five theories. », Journal of Educational Psychology, vol. 92/3, pp. 568-582, https://doi.org/10.1037/0022-0663.92.3.568.

[2] Belfield, C. et H. Levin (2007), « The education attainment gap: Who’s affected, how much, and why it matters », dans Belfield, C. et H. Levin (dir. pub.), The price we pay : Economic and social consequences of inadequate education, Brookings Institution Press, Washington D.C.

[110] Benjamin, R. (2019), « Assessing risk, automating racism », Science, vol. 366/6464, pp. 421-422, https://doi.org/10.1126/science.aaz3873.

[77] Bienkowski, M., M. Feng et B. Means (2012), Enhancing Teaching and Learning Through Educational Data Mining and Learning Analytics: An Issue Brief, http://www.ed.gov/edblogs/technology/files/2012/03/edm-la-brief.pdf.

[50] Bowers, A. (2019), « Towards Measures of Different and Useful Aspects of Schooling: Why Schools Need Both Teacher Assigned Grades and Standardized Assessments », dans Brookhart, S. et J. McMillan (dir. pub.), Classroom Assessment as Educational Measurement, National Council on Measurement in Education (NCME) Book Series, Routledge, New York.

[78] Bowers, A. (2017), « Quantitative Research Methods Training in Education Leadership and Administration Preparation Programs as Disciplined Inquiry for Building School Improvement Capacity », Journal of Research on Leadership Education, vol. 12/1, pp. 72-96, https://doi.org/10.1177/1942775116659462.

[49] Bowers, A. (2011), « What’s in a grade? The multidimensional nature of what teacher-assigned grades assess in high school », Educational Research and Evaluation, vol. 17/3, pp. 141-159, https://doi.org/10.1080/13803611.2011.597112.

[34] Bowers, A. (2010), « Analyzing the longitudinal K-12 grading histories of entire cohorts of students: Grades, data driven decision making, dropping out and hierarchical cluster analysis », Practical Assessment Research and Evaluation, vol. 15/7, pp. 1-18, http://pareonline.net/pdf/v15n7.pdf.

[55] Bowers, A. (2010), « Grades and Graduation: A Longitudinal Risk Perspective to Identify Student Dropouts », The Journal of Educational Research, vol. 103/3, pp. 191-207, https://doi.org/10.1080/00220670903382970.

[48] Bowers, A. (2009), « Reconsidering grades as data for decision making: more than just academic knowledge », Journal of Educational Administration, vol. 47/5, pp. 609-629, https://doi.org/10.1108/09578230910981080.

[52] Bowers, A. (2007), Grades and data driven decision making: Issues of variance and student patterns, Michigan State University, East Lansing, http://files.eric.ed.gov/fulltext/ED538574.pdf.

[19] Bowers, A. et al. (2019), Education leadership data analytics (ELDA): A white paper report on the 2018 ELDA Summit, Teachers College, Columbia University, https://doi.org/10.7916/d8-31a0-pt97.

[41] Bowers, A. et R. Sprott (2012), « Examining the Multiple Trajectories Associated with Dropping Out of High School: A Growth Mixture Model Analysis », The Journal of Educational Research, vol. 105/3, pp. 176-195, https://doi.org/10.1080/00220671.2011.552075.

[61] Bowers, A. et R. Sprott (2012), « Why Tenth Graders Fail to Finish High School: A Dropout Typology Latent Class Analysis », Journal of Education for Students Placed at Risk (JESPAR), vol. 17/3, pp. 129-148, https://doi.org/10.1080/10824669.2012.692071.

[35] Bowers, A., R. Sprott et S. Taff (2013), « Do we know who will drop out? A review of the predictors of dropping out of high school: Precision, sensitivity and specificity », The High School Journal, vol. 96/2, pp. 77-100, http://muse.jhu.edu/journals/high_school_journal/v096/96.2.bowers.html.

[42] Bowers, A. et B. White (2014), « Do Principal Preparation and Teacher Qualifications Influence Different Types of School Growth Trajectories in Illinois? A Growth Mixture Model Analysis. », Journal of Educational Administration, vol. 52/5, pp. 705-736.

[6] Bowers, A. et X. Zhou (2019), « Receiver Operating Characteristic (ROC) Area Under the Curve (AUC): A Diagnostic Measure for Evaluating the Accuracy of Predictors of Education Outcomes », Journal of Education for Students Placed at Risk (JESPAR), vol. 24/1, pp. 20-46, https://doi.org/10.1080/10824669.2018.1523734.

[93] Breiman, L. (2001), « Random forests », Machine learning, vol. 45/1, pp. 5-32.

[81] Breiman, L. et al. (1993), Classification and regression trees, Routledge, New York.

[51] Brookhart, S. (2015), « Graded Achievement, Tested Achievement, and Validity », Educational Assessment, vol. 20/4, pp. 268-296, https://doi.org/10.1080/10627197.2015.1093928.

[58] Brookhart, S. et al. (2016), « A Century of Grading Research », Review of Educational Research, vol. 86/4, pp. 803-848, https://doi.org/10.3102/0034654316672069.

[9] Carl, B. et al. (2013), « Theory and Application of Early Warning Systems for High School and Beyond », Journal of Education for Students Placed at Risk (JESPAR), vol. 18/1, pp. 29-49, https://doi.org/10.1080/10824669.2013.745374.

[96] Christie, S. et al. (2019), Machine-Learned School Dropout Early Warning at Scale, Paper presented at the The 12th International Conference on Educational Data Mining, Montreal, Canada., https://www.infinitecampus.com/pdf/Machine-learned-School-Dropout-Early-Warning-at-Scale.pdf.

[91] Chung, J. et S. Lee (2019), « Dropout early warning systems for high school students using machine learning », Children and Youth Services Review, vol. 96, pp. 346-353, https://doi.org/10.1016/j.childyouth.2018.11.030.

[105] Coleman, C., R. Baker et S. Stephenson (2019), « A Better Cold-Start for Early Prediction of Student At-Risk Status in New School Districts. », Paper presented at the Proceedings of The 12th International Conference on Educational Data Mining (EDM 2019)..

[62] Collins, L. et S. Lanza (2010), Latent Class and Latent Transition Analysis: With Applications in the Social, Behavioral, and Health Sciences, Wiley, Hoboken, NJ.

[112] Corbett-Davies, S. et S. Goel (2018), The Measure and Mismeasure of Fairness: A Critical Review of Fair Machine Learning., Stanford University.

[113] d’Alessandro, B., C. O’Neil et T. LaGatta (2017), « Conscientious Classification: A Data Scientist’s Guide to Discrimination-Aware Classification », Big Data, vol. 5/2, pp. 120-134, https://doi.org/10.1089/big.2016.0048.

[10] Davis, M., L. Herzog et N. Legters (2013), « Organizing Schools to Address Early Warning Indicators (EWIs): Common Practices and Challenges », Journal of Education for Students Placed at Risk (JESPAR), vol. 18/1, pp. 84-100, https://doi.org/10.1080/10824669.2013.745210.

[114] Dudik, M. et al. (s.d.), fairlearn: A Python package to assess and improve fairness of machine learning models., Redmond, WA: Microsoft., https://fairlearn.github.io/.

[68] Dupéré, V. et al. (2018), « High School Dropout in Proximal Context: The Triggering Role of Stressful Life Events », Child Development, vol. 89/2, pp. e107-e122, https://doi.org/10.1111/cdev.12792.

[69] Dupéré, V. et al. (2015), « Stressors and Turning Points in High School and Dropout », Review of Educational Research, vol. 85/4, pp. 591-629, https://doi.org/10.3102/0034654314559845.

[21] Dynarksi, M. et al. (2008), Dropout prevention: A practice guide, http://ies.ed.gov/ncee/wwc/pdf/practiceguides/dp_pg_090308.pdf.

[22] Dynarski, M. et P. Gleason (2002), « How can we help? What we have learned from recent federal dropout prevention evaluations », Journal of Education for Students Placed at Risk, vol. 2002/1, pp. 43-69, https://doi.org/10.1207/S15327671ESPR0701_4.

[99] Eisen, M. et al. (1998), « Cluster analysis and display of genome-wide expression patterns », Proceedings of the National Academy of Sciences, vol. 95, pp. 14863-14868, http://rana.lbl.gov/papers/Eisen_PNAS_1998.pdf.

[27] Faria, A. et al. (2017), Getting students on track for graduation: Impacts of the Early Warning Intervention and Monitoring System after one year, https://ies.ed.gov/ncee/edlabs/projects/project.asp?projectID=388.

[56] Finn, J. (1989), « Withdrawing from school », Review of Educational Research, vol. 59/2, pp. 117-142.

[11] Frazelle, S. et A. Nagel (2015), A practitioner’s guide to implementing early warning systems, http://ies.ed.gov/ncee/edlabs/regions/northwest/pdf/REL_2015056.pdf.

[65] Freeman, J. et B. Simonsen (2015), « Examining the Impact of Policy and Practice Interventions on High School Dropout and School Completion Rates », Review of Educational Research, vol. 85/2, pp. 205-248, https://doi.org/10.3102/0034654314554431.

[72] Goldhaber, D., M. Wolff et T. Daly (2020), Assessing the Accuracy of Elementary School Test Scores as Predictors of Students’ High School Outcomes: CALDER Working Paper No. 235-0520, https://caldercenter.org/sites/default/files/CALDER%20WP%20235-0520_0.pdf.

[57] Hargis, C. (1990), Grades and grading practices: Obstacles to improving education and helping at-risk students, Charles C. Thomas, Springfield.

[26] Hartman, J. et al. (2011), Applying an on-track indicator for high school graduation: Adapting the Consortium on Chicago School Research indicator for five Texas districts, http://ies.ed.gov/ncee/edlabs/regions/southwest/pdf/REL_2011100.pdf.

[98] Hawn Nelson, A. et al. (2020), A Toolkit for Centering Racial Equity Throughout Data Integration, https://www.aisp.upenn.edu/wp-content/uploads/2020/05/AISP-Toolkit_5.27.20.pdf.

[127] Hox, J. (2010), Multilevel Analysis, Routledge, https://doi.org/10.4324/9780203852279.

[29] India AI (2019), AI is being used to identify potential school dropout rate in Andhra Pradesh, https://indiaai.gov.in/case-study/ai-is-being-used-to-identify-potential-school-dropout-rate-in-andhra-pradesh (consulté le 29 avril 2021).

[32] Interview between Pasi Silander and Stéphan Vincent-Lancrin (2021), Private communication between Pasi Silander, City of Helsinki, and Stéphan Vincent-Lancrin, OECD.

[119] Issa, N. (2019, August 22), Chicago high school dropout rate hits all-time low, CPS says., https://chicago.suntimes.com/2019/8/22/20828653/cps-chicago-public-schools-dropout-rate (consulté le 18 janvier 2021).

[39] Janosz, M. et al. (2008), « School engagement trajectories and their differential predictive relations », Journal of Social Issues, vol. 64/1, pp. 21-40.

[59] Kelly, S. (2008), « What Types of Students’ Effort Are Rewarded with High Marks? », Sociology of Education, vol. 81/1, pp. 32-52, https://doi.org/10.1177/003804070808100102.

[12] Kemple, J., M. Segeritz et N. Stephenson (2013), « Building On-Track Indicators for High School Graduation and College Readiness: Evidence from New York City », Journal of Education for Students Placed at Risk (JESPAR), vol. 18/1, pp. 7-28, https://doi.org/10.1080/10824669.2013.747945.

[101] Kinnebrew, J., J. Segedy et G. Biswas (2014), « Analyzing the temporal evolution of students’ behaviors in open-ended learning environments », Metacognition and Learning, vol. 9/2, pp. 187-215, https://doi.org/10.1007/s11409-014-9112-4.

[71] Knowles, J. (2015), « Of Needles and Haystacks: Building an Accurate Statewide Dropout Early Warning System in Wisconsin », Journal of Educational Data Mining, vol. 7/3, pp. 18-67, http://www.educationaldatamining.org/JEDM/index.php/JEDM/article/view/JEDM082.

[74] Koedinger, K. et al. (2015), « Data mining and education », Wiley Interdisciplinary Reviews: Cognitive Science, vol. 6/4, pp. 333-353, https://doi.org/10.1002/wcs.1350.

[84] Koon, S. et Y. Petscher (2015), Comparing methodologies for developing an early warning system, http://ies.ed.gov/ncee/edlabs/regions/southeast/pdf/REL_2015077.pdf.

[85] Koon, S., Y. Petscher et B. Foorman (2014), Using evidence-based decision trees instead of formulas to identify at-risk readers.

[106] Krumm, A., B. Means et M. Bienkowski (2018), Learning Analytics Goes to School, Routledge, New York, NY : Routledge, 2018., https://doi.org/10.4324/9781315650722.

[122] Lamote, C. et al. (2013), « Dropout in secondary education: an application of a multilevel discrete-time hazard model accounting for school changes. », Quality and Quantity, vol. 47/5, pp. 2425-2446.

[76] Larusson, J. et B. White (dir. pub.) (2014), Educational data mining and learning analytics, Springer, New York, http://link.springer.com/chapter/10.1007%2F978-1-4614-3305-7_4.

[102] Lee, J. et al. (2016), Hierarchical Cluster Analysis Heatmaps and Pattern Analysis: An Approach for Visualizing Learning Management System Interaction Data, Paper presented at the International Conference of Educational Data Mining (EDM), Raleigh, NC, http://www.educationaldatamining.org/EDM2016/proceedings/paper_34.pdf.

[94] Lee, S. et J. Chung (2019), « The Machine Learning-Based Dropout Early Warning System for Improving the Performance of Dropout Prediction », Applied Sciences, vol. 9/15, p. 3093, https://doi.org/10.3390/app9153093.

[115] Loukina, A., N. Madnani et K. Zechner (2019), « The many dimensions of algorithmic fairness in educational applications », Proceedings of the Fourteenth Workshop on Innovative Use of NLP for Building Educational Applications, https://doi.org/10.18653/v1/w19-4401.

[3] Lyche, C. (2010), « Taking on the Completion Challenge: A Literature Review on Policies to Prevent Dropout and Early School Leaving », OECD Education Working Papers, n° 53, OECD Publishing, Paris, https://doi.org/10.1787/5km4m2t59cmr-en.

[13] Mac Iver, M. (2013), « Early Warning Indicators of High School Outcomes », Journal of Education for Students Placed at Risk (JESPAR), vol. 18/1, pp. 1-6, https://doi.org/10.1080/10824669.2013.745375.

[20] Mac Iver, M. et M. Messel (2013), « The ABCs of Keeping On Track to Graduation: Research Findings from Baltimore. », Journal of Education for Students Placed at Risk (JESPAR), vol. 18/1, pp. 50-67.

[28] Mac Iver, M. et al. (2019), « An Efficacy Study of a Ninth-Grade Early Warning Indicator Intervention », Journal of Research on Educational Effectiveness, vol. 12/3, pp. 363-390, https://doi.org/10.1080/19345747.2019.1615156.

[107] Mandinach, E. et K. Schildkamp (2020), « Misconceptions about data-based decision making in education: An exploration of the literature », Studies in Educational Evaluation, https://doi.org/10.1016/j.stueduc.2020.100842.

[92] Márquez-Vera, C. et al. (2013), « Predicting student failure at school using genetic programming and different data mining approaches with high dimensional and imbalanced data », Applied Intelligence, vol. 38/3, pp. 315-330, https://doi.org/10.1007/s10489-012-0374-8.

[89] Márquez-Vera, C., C. Morales et S. Soto (2013), « Predicting School Failure and Dropout by Using Data Mining Techniques », IEEE Revista Iberoamericana de Tecnologias del Aprendizaje, vol. 8/1, pp. 7-14, https://doi.org/10.1109/rita.2013.2244695.

[43] Martin, D. et T. von Oertzen (2015), « Growth Mixture Models Outperform Simpler Clustering Algorithms When Detecting Longitudinal Heterogeneity, Even With Small Sample Sizes », Structural Equation Modeling: A Multidisciplinary Journal, vol. 22/2, pp. 264-275, https://doi.org/10.1080/10705511.2014.936340.

[86] Martínez Abad, F. et A. Chaparro Caso López (2017), « Data-mining techniques in detecting factors linked to academic achievement », School Effectiveness and School Improvement, vol. 28/1, pp. 39-55, https://doi.org/10.1080/09243453.2016.1235591.

[44] Masyn, K. (2011), Latent class analysis and finite mixture modeling, Oxford University Press, Oxford.

[14] McMahon, B. et S. Sembiante (2020), « Re‐envisioning the purpose of early warning systems: Shifting the mindset from student identification to meaningful prediction and intervention », Review of Education, vol. 8/1, pp. 266-301, https://doi.org/10.1002/rev3.3183.

[63] Menzer, J. et R. Hampel (2009), « Lost at the last minute », Phi Delta Kappan, vol. 90/9, pp. 660-664.

[103] Moyer-Packenham, P. et al. (2015), « Examining Patterns in Second Graders’ Use of Virtual Manipulative Mathematics Apps through Heatmap Analysis », International Journal of Educational Studies in Mathematics, vol. 2/2, pp. 1-16, https://doi.org/10.17278/ijesim.2015.02.004.

[31] MSV, J. (2016), Forbes, https://www.forbes.com/sites/janakirammsv/2016/07/30/how-microsoft-is-making-big-impact-with-machine-learning/?sh=784705a02f16 (consulté le 29 avril 2021).

[40] Muthén, B. (2004), « Latent variable analysis: Growth mixture modeling and related techniques for longitudinal data », dans Kaplan, D. (dir. pub.), The Sage handbook of quantitative methodology for the social sciences, Sage Publications, Thousand Oaks, CA, http://www.statmodel.com/papers.shtml.

[90] Nicolae-Bogdan, S. et al. (2015), High-School Dropout Prediction Using Machine Learning: A Danish Large-scale Study, Paper presented at the European Symposium on Artificial Neural Networks, Computational Intelligence and Machine Learning, Bruges, Belgium.

[1] OECD (2019), Education at a Glance 2019: OECD Indicators, OECD Publishing, Paris, https://doi.org/10.1787/f8d7880d-en.

[111] O’Neil, C. (2016), Weapons of math destruction: How big data increases inequality and threatens democracy., Broadway Books.

[70] Pallas, A. (2003), « Educational transitions, trajectories, and pathways », dans Mortimer, J. et M. Shanahan (dir. pub.), Handbook of the life course, Kluwer Academic/Plenum Publishers, New York.

[75] Piety, P. (2019), « Components, Infrastructures, and Capacity: The Quest for the Impact of Actionable Data Use on P–20 Educator Practice », Review of Research in Education, vol. 43/1, pp. 394-421, https://doi.org/10.3102/0091732x18821116.

[16] Piety, P., D. Hickey et M. Bishop (2014), Educational data sciences: Framing emergent practices for analytics of learning, organizations, and systems, ACM.

[82] Quinlan, J. (1993), C4.5: Programs for Machine Learning, Morgan Kaufmann, San Mateo, CA.

[83] Quinlan, J. (1990), « Probablistic decision trees », dans Kodratoff, Y. et R. Michalski (dir. pub.), Machine learning, Morgan Kaufmann, San Francisco (CA), https://doi.org/10.1016/B978-0-08-051055-2.50011-0.

[45] Ram, N. et K. Grimm (2009), « Methods and Measures: Growth mixture modeling: A method for identifying differences in longitudinal change among unobserved groups », International Journal of Behavioral Development, vol. 33/6, pp. 565-576, https://doi.org/10.1177/0165025409343765.

[128] Raudenbush, S. et A. Bryk (2002), Hierarchical linear models: Applications and data analysis methods (2nd ed.), Thousand Oaks: Sage.

[79] Riehl, C. (1999), « Labeling and letting go: An organizational analysis of how high school students are discharged as dropouts », dans Pallas, A. (dir. pub.), Research in sociology of education and socialization, JAI Press, New York.

[104] Romesburg, H. (1984), Cluster analysis for researchers, Lifetime Learning Publications, Belmont, CA.

[4] Rumberger, R. (2011), Dropping Out: Why Students Drop Out of High School and What Can Be Done About It, Harvard University Press, Cambridge, Mass.

[5] Rumberger, R. et al. (2017), Preventing dropout in secondary schools (NCEE 2017-4028), https://ies.ed.gov/ncee/wwc/Docs/PracticeGuide/wwc_dropout_092617.pdf.

[80] Rumberger, R. et G. Palardy (2005), « Test Scores, Dropout Rates, and Transfer Rates as Alternative Indicators of High School Performance », American Educational Research Journal, vol. 42/1, pp. 3-42, https://doi.org/10.3102/00028312042001003.

[66] Sansone, D. (2019), « Beyond Early Warning Indicators: High School Dropout and Machine Learning », Oxford Bulletin of Economics and Statistics, vol. 81/2, pp. 456-485, https://doi.org/10.1111/obes.12277.

[117] Sculley, D. et al. (2015), « Hidden technical debt in machine learning systems. », Paper presented at the Advances in neural information processing systems..

[123] Singer, J. et J. Willett (2003), Applied Longitudinal Data Analysis, Oxford University Press, https://doi.org/10.1093/acprof:oso/9780195152968.001.0001.

[121] Singh, L. et al. (2019), « NSF BIGDATA PI Meeting - Domain-Specific Research Directions and Data Sets », ACM SIGMOD Record, vol. 47/3, pp. 32-35, https://doi.org/10.1145/3316416.3316425.

[88] Soland, J. (2017), « Combining Academic, Noncognitive, and College Knowledge Measures to Identify Students Not on Track For College: A Data-Driven Approach », Research & Practice in Assessment, vol. 12/Summer 2017, pp. 5-19, http://www.rpajournal.com/dev/wp-content/uploads/2017/07/Summer_2017.pdf#page=5.

[87] Soland, J. (2013), « Predicting High School Graduation and College Enrollment: Comparing Early Warning Indicator Data and Teacher Intuition », Journal of Education for Students Placed at Risk (JESPAR), vol. 18/3-4, pp. 233-262, https://doi.org/10.1080/10824669.2013.833047.

[108] Stodden, V. et al. (2016), « Enhancing reproducibility for computational methods », Science, vol. 354/6317, pp. 1240-1241, https://doi.org/10.1126/science.aah6168.

[23] Stuit, D. et al. (2016), Identifying early warning indicators in three Ohio school districts, http://ies.ed.gov/ncee/edlabs/regions/midwest/pdf/REL_2016118.pdf.

[36] Swets, J. (1988), « Measuring the accuracy of diagnostic systems », Science, vol. 240/4857, pp. 1285-1293, https://doi.org/10.1126/science.3287615.

[37] Swets, J., R. Dawes et J. Monahan (2000), « Psychological Science Can Improve Diagnostic Decisions », Psychological Science in the Public Interest, vol. 1/1, pp. 1-26, https://doi.org/10.1111/1529-1006.001.

[30] The Wire (2016), Aadhaar in Andhra: Chandrababu Naidu, Microsoft Have a Plan For Curbing School Dropouts, https://thewire.in/politics/aadhaar-in-andhra-chandrababu-naidu-microsoft-have-a-plan-for-curbing-school-dropouts (consulté le 29 avril 2021).

[47] Vermunt, J. et J. Magidson (2002), « Latent class cluster analysis », dans Hagenaars, J. et A. McCutcheon (dir. pub.), Applied latent class analysis, Cambridge University Press.

[46] Vermunt, J., B. Tran et J. Magidson (2008), « Latent class models in longitudinal research », dans Menard, S. (dir. pub.), Handbook of longitudinal research : Design, measurement and analysis, Elsevier, Burlington, MA, http://www.statisticalinnovations.com/articles/VermuntTranMagidson2006.pdf.

[97] Villagrá-Arnedo, C. et al. (2017), « Improving the expressiveness of black-box models for predicting student performance », Computers in Human Behavior, vol. 72, pp. 621-631, https://doi.org/10.1016/j.chb.2016.09.001.

[109] Wachter, S. et B. Mittelstadt (2019), « A right to reasonable inferences: re-thinking data protection law in the age of big data and AI. », Columia Business Law Review, vol. 494.

[100] Wilkinson, L. et M. Friendly (2009), « The History of the Cluster Heat Map », The American Statistician, vol. 63/2, pp. 179-184, https://doi.org/10.1198/tas.2009.0033.

[60] Willingham, W., J. Pollack et C. Lewis (2002), « Grades and test scores: Accounting for observed differences », Journal of Educational Measurement, vol. 39/1, pp. 1-37, http://www.jstor.org/stable/1435104.

[116] Zehlike, M. et al. (2017), FA*IR: A Fair Top-k Ranking Algorithm, ACM, Singapore, Singapore, https://doi.org/10.1145/3132847.3132938.

Mentions légales et droits

Ce document, ainsi que les données et cartes qu’il peut comprendre, sont sans préjudice du statut de tout territoire, de la souveraineté s’exerçant sur ce dernier, du tracé des frontières et limites internationales, et du nom de tout territoire, ville ou région. Des extraits de publications sont susceptibles de faire l'objet d'avertissements supplémentaires, qui sont inclus dans la version complète de la publication, disponible sous le lien fourni à cet effet.

© OCDE 2022

L’utilisation de ce contenu, qu’il soit numérique ou imprimé, est régie par les conditions d’utilisation suivantes : https://www.oecd.org/fr/conditionsdutilisation.