Annexe B. Notes techniques sur les analyses du présent rapport

Les statistiques présentées dans ce rapport sont tirées de données obtenues à partir d’échantillons d’établissements, de chefs d’établissement et d’enseignants. L’échantillon a été sélectionné selon une méthode d’échantillonnage aléatoire stratifié à deux degrés. En d’autres termes, les enseignants (unités d’échantillonnage du second degré ou secondaires) ont été choisis au hasard dans la liste des enseignants couverts par le champ d’application pour chacun des établissements choisis au hasard (unités d’échantillonnage du premier degré ou primaire). Pour que ces statistiques soient pertinentes pour un pays/territoire, elles doivent refléter l’ensemble de la population dont elles sont tirées et pas seulement l’échantillon utilisé pour les collecter. D’où la nécessité d’utiliser des pondérations d’enquête afin d’obtenir des estimations non biaisées des paramètres de la population ou du modèle.

Les pondérations finales permettent de produire des estimations au niveau des pays/territoires à partir des données d’échantillonnage observées. La pondération de l’estimation indique combien d’unités de population sont représentées par unité échantillonnée. La pondération finale est la combinaison de plusieurs facteurs reflétant les probabilités de sélection aux différentes étapes de l’échantillonnage et la réponse obtenue à chaque étape. D’autres facteurs peuvent également entrer en ligne de compte, en fonction des conditions particulières, afin d’assurer l’impartialité des estimations (p. ex., un ajustement pour les enseignants travaillant dans plus d’un établissement).

Les statistiques présentées dans ce rapport fondées sur les réponses des chefs d’établissement et contribuant aux estimations relatives aux chefs d’établissement, ont été estimées à l’aide des pondérations des établissements (SCHWGT). Les résultats fondés uniquement sur les réponses des enseignants ou sur les réponses des enseignants et des chefs d’établissement (c.-à-d. la fusion des réponses des chefs d’établissement avec celles des enseignants) ont, quant à eux, été pondérés en fonction de la pondération des enseignants (TCHWGT).

Dans le présent rapport, plusieurs indices d’échelle sont utilisés dans les analyses de régression. Les descriptions de l’établissement et de la validation de ces échelles sont disponibles dans le chapitre 11 du rapport TALIS 2018 Technical Report (OCDE, 2019[1]).

Les moyennes OCDE et TALIS, calculées pour la plupart des indicateurs présentés dans ce rapport, correspondent à la moyenne arithmétique des estimations nationales respectives. Lorsque les statistiques sont basées sur les réponses des enseignants, les moyennes OCDE et TALIS couvrent respectivement 31 et 48 pays et territoires (Tableau A B.1). Dans les cas où l’analyse se fonde sur les réponses des chefs d’établissement, les moyennes OCDE et TALIS couvrent respectivement 30 et 47 pays et territoires.

Le total UE représente les 23 États membres de l’Union européenne (UE) qui ont également participé à l’enquête TALIS 2018 en tant qu’entité unique et à laquelle chacun des 23 États membres de l’UE contribue proportionnellement au nombre d’enseignants ou de chefs d’établissement, en fonction de l’analyse réalisée. Le total UE est donc calculé sous la forme d’une moyenne arithmétique pondérée basée sur la somme des pondérations finales des enseignants (TCHWGT) ou des chefs d’établissement (SCHWGT) par pays, en fonction de la population cible.

Dans la présente publication, la moyenne OCDE est généralement utilisée lorsque l’on veut mettre l’accent sur une tendance globale pour un indicateur et sur la comparaison de ses valeurs entre systèmes éducatifs. Dans le cas de certains pays et territoires, les données peuvent ne pas être disponibles pour des indicateurs spécifiques, ou des catégories spécifiques peuvent ne pas s’appliquer. Par conséquent, le lecteur gardera à l’esprit que le terme « moyenne OCDE » fait référence aux pays et territoires de l’OCDE inclus dans les comparaisons respectives. Dans les cas où les données ne sont pas disponibles ou ne s’appliquent pas à toutes les sous-catégories d’une population ou d’un indicateur donné, la « moyenne OCDE » peut être cohérente dans chaque colonne d’un tableau, mais pas nécessairement dans toutes les colonnes d’un tableau.

Les différences entre sous-groupes relevant des caractéristiques des établissements (par exemple, entre les établissements présentant une forte concentration d’élèves issus d’un milieu socio-économique défavorisé et ceux présentant une faible concentration de ce type d’élèves) ont été testées pour déterminer leur signification statistique. Toutes les différences indiquées en gras dans les tableaux de données du présent rapport sont significativement différentes d’un point de vue statistique de 0 à un niveau de confiance de 95 %.

En cas de différences entre sous-groupes, l’erreur-type est calculée en tenant compte du fait que les deux sous-échantillons ne sont pas indépendants. Par conséquent, la valeur attendue de la covariance peut différer de 0, ce qui mène à des estimations moindres de l’erreur-type comparativement aux estimations de l’erreur-type pour une différence entre sous-échantillons indépendants.

La répartition des enseignants et des chefs d’établissements par caractéristique est présentée dans les tableaux A B.2 et A B.3 à l’annexe C.

L’indice de dissimilarité, couramment utilisé comme mesure de la ségrégation, permet de déterminer dans quelle mesure la répartition des enseignants entre les établissements s’écarte de celle qui s’observerait s’ils étaient répartis de manière parfaitement aléatoire. Il est lié aux proportions d’enseignants de deux groupes mutuellement exclusifs (par exemple, les enseignants titulaires d’un diplôme de master et ceux qui ne le sont pas) qui devraient changer d’établissement pour obtenir une répartition parfaitement uniforme entre les établissements. Dans le cadre du présent rapport, l’indice de dissimilarité permet ainsi de déterminer si les enseignants présentant certaines caractéristiques se concentrent dans un nombre restreint d’établissements. On parle de concentration lorsque des individus similaires (dans le cas présent, des enseignants présentant des caractéristiques similaires) se retrouvent dans un même endroit (dans le cas présent, en poste dans le même établissement). Formellement, l’indice de dissimilarité peut s’exprimer comme suit :

D=12j=1JnjaNa-njbNb, où njb (respectivement Nb) représente le nombre d’enseignants de type b dans l’établissement j (respectivement, dans le pays).

Cet indice mesure ainsi la dissimilarité entre la répartition des enseignants de type a et celle des enseignants de type b entre les établissements (OCDE, 2019[2]). Il peut être interprété comme la proportion de l'un ou l'autre groupe qui doit être redistribuée afin d’obtenir une répartition uniforme (en supposant que la taille des établissements puisse être prise en compte), ou comme les proportions moyennes d'enseignants du groupe a et du groupe b qui doivent être réaffectés afin d’obtenir une répartition uniforme, à taille d’établissement égale.

Les valeurs de cet indice vont de 0 (la répartition des enseignants entre les établissements reflète parfaitement la population d’enseignants du pays) à 1 (les enseignants présentant une certaine caractéristique se concentrent dans un seul type d’établissement). Un indice de dissimilarité élevé signifie que la répartition des enseignants présentant une certaine caractéristique est très différente de celle qui s’observerait s’ils étaient répartis entre les établissements de manière aléatoire. Il s’agit donc d’une indication de la forte concentration d’enseignants présentant une caractéristique spécifique dans certains établissements. Graphique A B.1 donne l’exemple d’un cas dans lequel les enseignants peuvent être de type A ou B. Ils sont répartis entre six établissements, chacun d’une capacité de six enseignants. On parlera alors de concentration maximale lorsque tous les enseignants de type A se trouvent regroupés dans un seul établissement, et de concentration nulle lorsque tous les établissements se composent, à parts égales, d'un enseignant de type A et de cinq de type B.

Par définition, la valeur de l’indice de dissimilarité augmente à mesure que les parts globales des deux groupes dans la population d’enseignants deviennent plus déséquilibrées, sur la base de la caractéristique spécifique analysée. Dans les cas où la part des enseignants présentant une certaine caractéristique dans la population globale d’enseignants est soit très faible, soit très importante, la valeur de l’indice de dissimilarité tend à être élevée. Dans le cas extrême où il y a plus d’établissements que d’enseignants présentant une certaine caractéristique dans un pays, la valeur de l’indice de dissimilarité est supérieure à zéro, même si ces enseignants sont répartis de manière aléatoire entre les établissements (OCDE, 2019[2]). La prudence est donc de mise en ce qui concerne la comparabilité de l’indice de dissimilarité entre les pays, en particulier lorsque le groupe d’enseignants présentant une certaine caractéristique qui fait l’objet de l’analyse varie considérablement d’un pays à l’autre.

En outre, la valeur de l’indice de dissimilarité est également affectée par la taille des unités (ici les établissements) entre lesquelles la répartition des individus est analysée. Notamment, lorsque la taille des unités est petite, l’indice de dissimilarité a tendance à surestimer le niveau des écarts par rapport à une répartition parfaitement aléatoire (ce que l’on appelle aussi le biais des petites unités) (Carrington et Troske, 1997[3] ; D’Haultfœuille, Girard et Rathelot, 2021[4] ; D’Haultfœuille et Rathelot, 2017[5]). Ainsi, plus les établissements sont petits en termes de nombre d’enseignants, plus la probabilité est forte d’observer un écart par rapport à une répartition aléatoire des enseignants présentant une certaine caractéristique.

Des analyses de régression ont été effectuées pour chaque pays séparément. À l’instar des autres statistiques présentées dans ce rapport, les moyennes OCDE et TALIS se réfèrent à la moyenne arithmétique des estimations au niveau des pays, tandis que le total UE est calculé comme une moyenne arithmétique pondérée basée sur la somme des pondérations finales des enseignants (TCHWGT) ou des chefs d’établissement (SCHWGT) par pays, selon la population cible.

Afin d’assurer la robustesse des modèles de régression, des variables indépendantes ont été introduites par étapes dans les modèles. Cette approche exigeait également que les modèles à chaque étape soient fondés sur le même échantillon. L’échantillon restreint utilisé pour les différentes versions du même modèle correspondait à l’échantillon de la version la plus étendue (c’est-à-dire avec le nombre maximum de variables indépendantes) du modèle. L’échantillon restreint de chaque modèle de régression excluait donc les observations dans lesquelles toutes les variables indépendantes avaient des valeurs manquantes.

Les statistiques basées sur des modèles multiniveaux comportent les composantes de la variance (variance inter-établissements et intra-établissement), la corrélation intra-classe dérivée de ces composantes, et les coefficients de régression (lorsque indiqué). Les modèles multiniveaux du présent rapport sont des régressions à deux niveaux (le niveau « enseignant » et le niveau « établissement ») et sont estimés à l’aide de la méthode du maximum de vraisemblance.

Des pondérations sont utilisées à la fois au niveau « enseignant » et « établissement ». Le but de ces pondérations est de tenir compte des différences de probabilité de sélection des enseignants dans l'échantillon. Les pondérations finales des enseignants (TCHWGT) ont été utilisées comme pondération d’échantillonnage au niveau des enseignants. Les pondérations intra-établissement des enseignants correspondent aux pondérations finales des enseignants, rééchelonnées pour correspondre à la taille de l'échantillon dans chaque établissement. Les pondérations finales des établissements (SCHWGT) ont été utilisées comme pondération d’échantillonnage au niveau des établissements.

Les estimations basées sur les modèles multiniveaux dépendent de la manière dont les établissements sont définis et organisés au sein des pays et territoires, ainsi que des modalités de leur sélection à des fins d'échantillonnage. Dans l’échantillon TALIS, selon le pays/territoire, les établissements peuvent ainsi être définis comme : des unités administratives (même s’ils comptent plusieurs implantations géographiques différentes) ; des composantes de groupes scolaires plus larges qui accueillent des élèves au niveau CITE concerné ; des bâtiments scolaires ; ou encore des entités administratives (gérées par un chef d’établissement). L’annexe E du rapport TALIS 2018 Technical Report fournit des informations sur la manière dont les pays et territoires définissent les établissements dans leurs systèmes respectifs (OCDE, 2019[1]). En particulier, les estimations de la variance inter-établissements peuvent être affectées si les variables utilisées pour la stratification (processus visant à réduire la variation au sein des strates) sont associées à des différences entre établissements.

Les modèles logistiques multiniveaux peuvent être considérés comme des modèles à réponse latente (Gelman et Hill, 2007[6] ; Goldstein, Browne et Rasbash, 2002[7] ; Rabe-Hesketh et Skrondal, 2012[8]). Dans le présent rapport, la réponse dichotomique observée yi (c’est-à-dire le fait que les enseignants utilisent régulièrement ou non les technologies de l’information et de la communication [TIC] dans le cadre de leur enseignement) est supposée découler d’une réponse continue non observée ou latente yi* qui représente la propension à utiliser les TIC à des fins pédagogiques. Si cette réponse latente est supérieure à 0, alors la réponse observée est 1 ; sinon, la réponse observée est 0 :

yi=1 if yi*>0  0 otherwise

Les modèles linéaires multiniveaux ont été estimés à l’aide du module « mixte » de Stata (version 17.0), tandis que les modèles logistiques multiniveaux ont été estimés avec le module « melogit ».

Corrélation intra-classe

L’indice de corrélation intra-classe correspond à la part de la variance située dans les établissements ; il se définit et s’estime comme suit :

100 × σB2σW2 + σB2

σB2 et σW2 sont respectivement la variance inter-établissements et intra-établissement estimée. Dans le cas des modèles logistiques multiniveaux, la composante de variance intra-établissement supposée (σW2) est la distribution logistique standard, c’est-à-dire π2/33.29. Par conséquent, l’indice de corrélation intra-classe est estimé comme suit :

100 × σB2π2/3 + σB2

Erreurs-types dans les estimations dérivées de modèles multiniveaux

Dans les statistiques dérivées de modèles multiniveaux, telles que les estimations des composantes de la variance et des coefficients de régression des modèles de régression à deux niveaux, les erreurs-types ne sont pas calculées à l’aide de la méthode habituelle de réplication, qui tient compte des taux d’échantillonnage et de la stratification des populations finies. Les erreurs-types sont en fait calculées sur la base des modèles dans l’hypothèse que l’échantillon d’établissements et d’enseignants parmi ceux qui y sont en poste est sélectionné de manière aléatoire (les probabilités d’échantillonnage étant indiquées dans le coefficient de pondération des établissements et des enseignants) dans une population infinie, théorique, d’établissements et d’enseignants, qui correspond aux hypothèses paramétriques des modèles. L’erreur-type de la corrélation intra-classe estimée est dérivée d’une distribution approximative des erreurs-types (basées sur les modèles) des composantes de la variance selon la méthode delta.

L’analyse de régression logistique binaire permet d’estimer la relation entre une ou plusieurs variables indépendantes (ou explicatives) et la variable dépendante (ou de résultat) comportant deux catégories. Le coefficient de régression (β) d’une régression logistique est l’augmentation estimée de la cote logarithmique du résultat par unité d’augmentation de la valeur de la variable prédictive.

De façon plus formelle, soit Y la variable binaire de résultat indiquant non/oui avec 0/1, et p la probabilité que Y soit 1, de sorte que p=prob(Y=1). Soit x1,xk un ensemble de variables explicatives. Alors, la régression logistique de Y sur x1,xk estime les valeurs des paramètres pour β0 ,β1,…, βk par la méthode du maximum de vraisemblance de l’équation suivante :

Logitp=logp/1-p=β0+β1x1++βkxk

De plus, on obtient la fonction exponentielle du coefficient de régression (eβ) qui est le rapport de cotes (odds ratio en anglais) (OR) associé à une augmentation d’une unité dans la variable explicative. Ensuite, en termes de probabilités, l’équation ci-dessus se traduit comme suit :

p=eβ0+β1X1++βkXk(1+eβ0+β1X1++βkXk)

La transformation des cotes logarithmiques (β) en rapports de cotes (eβ; OR) permet de mieux interpréter les données en termes de probabilité. Le rapport de cotes (OR) est une mesure de la probabilité relative d’un résultat particulier dans deux groupes. Le rapport de cotes pour l’observation du résultat en cas de présence d’un antécédent est :

OR=p11/p12p21/p22

p11p12 représente la « probabilité » d’observer le résultat lorsque l’antécédent est présent, et p21/p22 représente la « probabilité » d’observer le résultat lorsque l’antécédent est absent. Ainsi, un rapport de cotes indique dans quelle mesure une variable explicative est associée à une variable de résultat catégorique comportant deux catégories (p. ex. oui/non) ou plus. Un rapport de cotes inférieur à 1 dénote une association négative ; un rapport de cotes supérieur à 1 indique une association positive ; et un rapport de cotes égal à 1 signifie qu’il n’y a pas d’association. Par exemple, si on analyse l’association entre le fait d’être une enseignante et le fait d’avoir fait de l’enseignement son premier choix de carrière, les rapports de cotes suivants seraient interprétés comme suit :

  • 0.2 : Les enseignantes sont cinq fois moins susceptibles que les enseignants d’avoir fait de l’enseignement leur premier choix de carrière.

  • 0.5 : Les enseignantes sont deux fois moins susceptibles que les enseignants d’avoir fait de l’enseignement leur premier choix de carrière.

  • 0.9 : Les enseignantes sont 10 % moins susceptibles que les enseignants d’avoir fait de l’enseignement leur premier choix de carrière.

  • : Les enseignantes et enseignants sont tout autant susceptibles d’avoir fait de l’enseignement leur premier choix de carrière.

  • 1.1 : Les enseignantes sont 10 % plus susceptibles d’avoir fait de l’enseignement leur premier choix de carrière que les enseignants.

  • 2 : Les enseignantes sont deux fois plus susceptibles que les enseignants d’avoir fait de l’enseignement leur premier choix de carrière.

  • 5 : Les enseignantes sont cinq fois plus susceptibles que les enseignants d’avoir fait de l’enseignement leur premier choix de carrière.

Les rapports de cotes sont en gras si le ratio relatif risque/cote est différent de 1 dans une mesure statistiquement significative à un niveau de confiance de 95 %. La signification statistique autour de 1 (hypothèse nulle) est calculée dans le scénario où la statistique du rapport risque/ratio relatif suit une distribution log-normale et non une distribution normale, selon l’hypothèse nulle.

Les régressions logistiques binaires ne peuvent pas fournir une mesure de la qualité de l’ajustement qui serait équivalente au R au carré (R²), qui représente la proportion de la variation observée dans la variable dépendante (ou résultat) pouvant être expliquée par les variables indépendantes (ou explicatives). Contrairement aux régressions linéaires avec des résidus normalement distribués, il n'est pas possible de trouver une expression de forme fermée pour les valeurs des coefficients qui maximisent la fonction de vraisemblance des régressions logistiques ; il faut donc recourir à un processus itératif. Cependant, la qualité de l'ajustement des modèles logistiques binaires peut être évaluée par le pseudo R²1. À l’instar du R², le pseudo R² varie également de 0 à 1, les valeurs plus élevées indiquant un meilleur ajustement du modèle. Néanmoins, le pseudo R² ne peut pas être interprété comme on interpréterait le R².

Le coefficient de corrélation mesure la force et la direction de l’association statistique entre deux variables. Les coefficients de corrélation varient entre -1 et 1 ; les valeurs autour de 0 indiquent une faible association, tandis que les valeurs extrêmes indiquent l’association négative ou positive la plus forte possible. Le coefficient de corrélation de Pearson (indiqué par la lettre r) mesure la force et la direction de la relation linéaire entre deux variables.

Dans le présent rapport, les coefficients de corrélation de Pearson quantifient les relations entre les statistiques nationales. Avec seulement deux variables (x et y), la mesure du R-carré (indiquée par le symbole R2) de la régression linéaire de y sur x (ou, de manière équivalente, de x sur y) est le carré du coefficient de corrélation de Pearson entre les deux variables.

Références

[3] Carrington, W. et K. Troske (1997), « On measuring segregation in samples with small units », Journal of Business & Economic Statistics, vol. 15/4, p. 402, https://doi.org/10.2307/1392486.

[4] D’Haultfœuille, X., L. Girard et R. Rathelot (2021), « segregsmall: A command to estimate segregation in the presence of small units », The Stata Journal, vol. 21/1, pp. 152-179, https://doi.org/10.1177/1536867X211000018.

[5] D’Haultfœuille, X. et R. Rathelot (2017), « Measuring segregation on small units: A partial identification analysis », Quantitative Economics: Journal of the Econometric Society, vol. 8/1, pp. 39-73, https://doi.org/10.3982/QE501.

[6] Gelman, A. et J. Hill (2007), Data Analysis Using Regression and Multilevel/Hierarchical Models, Cambridge University Press, Cambridge, https://doi.org/10.1017/CBO9780511790942.

[7] Goldstein, H., W. Browne et J. Rasbash (2002), « Partitioning variation in multilevel models », Understanding Statistics, vol. 1/4, pp. 223-231, https://doi.org/10.1207/S15328031US0104_02.

[2] OCDE (2019), Balancing School Choice and Equity: An International Perspective Based on Pisa, PISA, Éditions OCDE, Paris, https://doi.org/10.1787/2592c974-en.

[1] OCDE (2019), TALIS 2018 Technical Report, Éditions OCDE, Paris, http://www.oecd.org/education/talis/TALIS_2018_Technical_Report.pdf.

[8] Rabe-Hesketh, S. et A. Skrondal (2012), Multilevel and Longitudinal Modeling Using Stata, Third Edition, Volume II: Categorical Responses, Counts, and Survival, Stata Press, Stockholm.

Note

← 1. Parmi les différents types de pseudo R2, le présent rapport applique celui de McFadden.

Mentions légales et droits

Ce document, ainsi que les données et cartes qu’il peut comprendre, sont sans préjudice du statut de tout territoire, de la souveraineté s’exerçant sur ce dernier, du tracé des frontières et limites internationales, et du nom de tout territoire, ville ou région. Des extraits de publications sont susceptibles de faire l'objet d'avertissements supplémentaires, qui sont inclus dans la version complète de la publication, disponible sous le lien fourni à cet effet.

© OCDE 2022

L’utilisation de ce contenu, qu’il soit numérique ou imprimé, est régie par les conditions d’utilisation suivantes : https://www.oecd.org/fr/conditionsdutilisation.