6. Mieux aider les élèves ayant des besoins spécifiques : L’apport des technologies

Judith Good
Université d’Amsterdam, Pays-Bas
Anciennement de l’Université du Sussex, Royaume-Uni

L’aide qu’apportent les technologies aux élèves ayant des besoins spécifiques est largement reconnue, l’efficacité de plateformes matérielles comme les dispositifs mobiles (Chelkowski, Yan et Asaro-Saddler, 2019[1] ; Ok et Kim, 2017[2]), ainsi que les nombreux logiciels et applications spécialisés n’est plus à démontrer. Les technologies éducatives sont susceptibles de jouer un rôle de plus en plus significatif auprès des élèves ayant des besoins spécifiques, et on demande aux professionnels de l’éducation qu’ils se tiennent au courant des développements des technologies afin de prendre des décisions éclairées sur l’emploi de ces technologies en classe (McLeskey et al., 2017[3]).

Il est toutefois intéressant de noter que, malgré la pléthore de technologies éducatives adaptées à des besoins spécifiques (voir p. ex., (Cheng et Lai, 2020[4] ; Erdem, 2017[5]), peu d’entre elles sont jugées « intelligentes ». La question de l’intelligence artificielle (IA) et de l’éducation fait l’objet de recherches considérables depuis très longtemps [pour les récentes études, voir (Alkhatlan et Kalita, 2018[6] ; Chen, Chen et Lin, 2020[7]), et l’efficacité des systèmes de tutorat intelligents a été clairement démontrée bien au-delà des autres formes d’apprentissage assisté par ordinateur (Kulik et Fletcher, 2016[8]). Pourtant, les systèmes d’IA spécialement conçus pour les élèves ayant des besoins spécifiques font défaut. En vérité, un examen des articles publiés dans l’International Journal of Artificial Intelligence in Education dans les cinq dernières années n’a pas permis d’en trouver un seul qui traitait de l’inclusion, l’accessibilité ou les besoins spécifiques d’éducation. Comme le remarquent Kazimzade et al. (2019[9]), bien que les technologies éducatives adaptées et l’inclusion, au sens le plus large du terme, sont deux considérations essentielles dans le paysage éducatif actuel, elles se croisent plus rarement qu’on ne le pense.

Il est difficile d’expliquer pourquoi il y a si peu de chevauchement entre ces deux domaines. En ce qui concerne l’offre éducative pour les enfants ayant des besoins spécifiques, l’Organisation mondiale de la santé (2011[10]) a souligné la nécessité d’adopter des approches davantage centrées sur l’apprenant, qui reconnaissent les différences dans la façon dont les humains apprennent et qui sont à même de s’adapter de manière souple aux apprenants individuels. Ce chapitre est donc une occasion idéale d’examiner comment on peut développer et adapter les méthodes et approches déjà existantes ainsi que celles en pleine émergence, dans le domaine de l’IA et de l’éducation, afin qu’elles accompagnent les enfants ayant des besoins spécifiques.

Le potentiel des technologies intelligentes configurées pour servir et aider les élèves ayant des besoins spécifiques est particulièrement significatif à l’aune de l’augmentation probable des élèves ayant de tels besoins. En 2000, l’OCDE a estimé que, à un moment donné au cours de leur scolarité, environ 15 à 20 % de jeunes seraient considérés comme ayant des besoins spécifiques d’éducation (OECD, 2000[11]). Vingt ans plus tard, ce chiffre risque d’être plus élevé, étant donné que la reconnaissance du handicap chez les enfants a augmenté constamment, année après année (Houtrow et al., 2014[12]). Bien que le taux de handicaps physiques ait baissé au fil du temps, celui des troubles du développement a, quant à lui, fortement augmenté (Zablotsky et al., 2019[13]), et on estime aujourd’hui que ce dernier touche 17,8 % des enfants aux États-Unis (Zablotsky et Black, 2020[14]).

Le changement des définitions de ce qui constitue un handicap particulier (dans le cas de l’autisme, Volkmar et McPartland (2014[15]) présentent un tableau détaillé de l’évolution des conceptualisations depuis sa description officielle en 1943) ainsi que l’amélioration de l’accès aux services de diagnostic figurent parmi les multiples raisons de cette augmentation. L’étude approfondie de ces phénomènes dépasse le cadre de ce chapitre, toutefois, deux points sont particulièrement importants. Tout d’abord, le fait qu’un enfant sur six aujourd’hui présente un trouble du développement signifie fort probablement que toute classe ordinaire comptera au moins un élève, voire plus, qui nécessitera des ressources supplémentaires pour l’accompagner dans son apprentissage. Ensuite, la hausse constante des taux de diagnostic pourrait se poursuivre à mesure que nous découvrons de nouvelles formes de handicaps et que nous devenons plus précis dans l’identification de ceux que nous connaissons déjà, ce qui ne fait qu’accroître davantage le nombre d’enfants qui auront besoin d’un soutien supplémentaire.

Dans un contexte éducatif, les enfants handicapés sont désavantagés par rapport à leurs condisciples au développement typique. Selon l’Organisation mondiale de la santé (2011, p. 208[10]), « [Aussi,] malgré les progrès enregistrés ces dernières décennies, les enfants et les jeunes handicapés sont-ils moins susceptibles d’entamer une scolarité ou de la poursuivre que les autres enfants. Leur taux de passage en classe supérieure est également plus faible », et la tendance se poursuit (UNESCO Institute for Statistics, 2018[16]). Cette situation entraîne des effets négatifs à long terme sur l’avenir des enfants, risquant de freiner leur intégration dans la société et d’assombrir leurs perspectives de carrière. Par exemple, au Royaume-Uni, seuls 16 % des adultes autistes ont des emplois salariés à temps plein, alors qu’ils sont 77 % à avoir exprimé le désir de travailler (National Autistic Society, 2016[17]). En outre, dans la petite minorité qui travaille, ils sont plus de la moitié à estimer que leur emploi ne fait pas appel aux compétences qu’ils possèdent réellement.

Enfin, il faut prendre sérieusement en considération que, en raison de ce taux croissant de besoins de développement, le soutien aux élèves ayant des besoins spécifiques recoupe de plus en plus l’objectif global de l’équité. Le développement des technologies qui permettent de diagnostiquer et de traiter les troubles des élèves (par exemple, la dyslexie, la dysgraphie, la dyscalculie, des déficiences auditives ou visuelles) facilitera la réduction des écarts en matière de rendement et permettra d’améliorer les résultats d’apprentissage dans les pays.

Dans ce chapitre, nous examinons l’avenir proche du développement des technologies « intelligentes » adaptées aux élèves ayant des besoins spécifiques, en nous attardant sur trois études de cas et en tirant des conclusions utiles aux travaux futurs. Mais tout d’abord, intéressons-nous en détail aux définitions de handicap et de besoins spécifiques, ainsi qu’à leur relation avec l’éducation et les technologies.

De manière générale, par soutien aux élèves ayant des besoins spécifiques dans un environnement pédagogique, on entend le soutien dont un élève handicapé peut bénéficier en raison de besoins qui sont différents de ceux de ses condisciples ayant un développement typique (voir l’Encadré 6.1 pour la terminologie). Fournir une aide efficace à un élève ayant des besoins spécifiques est compliqué et demande une réflexion et une planification méticuleuses. Les besoins des élèves évoluent au fil du temps en raison de divers facteurs (leur trajectoire individuelle de développement, le soutien antérieur, etc.). Leurs besoins peuvent diminuer ou augmenter, ce qui demande de les réévaluer constamment afin de savoir ce qui leur convient à tout moment. La co-morbidité, c’est-à-dire avoir plus qu’un handicap (aussi qualifiée de « multimorbidité » selon la source), est un autre facteur de complication.

Les ressources supplémentaires que nécessite ce soutien peuvent prendre différentes formes, financières, humaines (p. ex., des enseignants supplémentaires), ou matérielles. Ce chapitre s’intéresse tout particulièrement à ce dernier type de ressources, et examine comment les technologies, et les technologies intelligentes en particulier, contribuent à soutenir les élèves ayant des besoins supplémentaires.

On pourrait catégoriser davantage ce soutien de bien des façons, mais il peut être plus utile de s’intéresser à l’objectif de ce type de soutien sur un continuum. À une extrémité se trouvent les technologies configurées pour faciliter l’accès aux programmes d’enseignement et permettre aux élèves ayant un handicap de participer à des activités d’apprentissage dans une salle de classe ordinaire. Dans ce cas, grâce à ces technologies, les élèves accèdent au même contenu d’enseignement que leurs condisciples ayant un développement typique. À titre d’exemple, en fournissant aux élèves aveugles ou malvoyants des technologies qui ont des capacités de reconnaissance vocale, on leur donne accès (du moins en partie) à des matériels d’enseignement utilisés par leurs camarades, ce qui rend leur apprentissage plus facile dans un environnement scolaire inclusif.

À l’autre extrémité du continuum se trouvent les technologies configurées pour aborder les questions liées au handicap de l’enfant et pour lui fournir l’encadrement adéquat. Dans ce cas, le contenu de l’intervention ne fait généralement pas partie du cadre du programme d’enseignement. Les interventions conçues pour encadrer le développement des compétences sociales et de communications des élèves autistes sont un exemple de ce type de technologie. Les technologies qui se situent à cette extrémité du continuum sont davantage controversées : comme mentionné plus haut, les différents points de vue sur le handicap peuvent susciter des débats sur les types d’interventions et de technologies qui conviendront le mieux aux élèves handicapés. Ces points de vue sont souvent implicites, mais ils n’en sont pas moins à l’origine du développement de la technologie éducative, et ont une influence sur les décisions quant aux types de soutien qui conviennent et pourquoi.

Une récente étude sur les technologies pour les enfants autistes a observé qu’une grande part des technologies sont centrées sur le développement des aptitudes sociales (Spiel et al., 2019[21]), ce qui sous-entend que c’est le domaine qui préoccupe le plus parents et professionnels de l’éducation (même si ce n’est pas forcément le cas). Les auteurs soutiennent que bon nombre de ces technologies exigent des enfants qu’ils

« apprennent les modes d’interaction jugés adéquats par les adultes neurotypiques sans que les adultes aient à apprendre comment les enfants autistes pourraient vouloir s’impliquer… » (Spiel et al., 2019, p. 18[21]).   
        

En même temps, les auteurs reconnaissent que l’acquisition de telles compétences permettrait à l’enfant autiste de développer des stratégies pour affronter un monde neurotypique. Il se peut que l’amélioration des capacités d’adaptation entraîne, à son tour, un mieux-être mental, ce qui, en effet, semble être le cas : les interventions ciblant les compétences sociales réduisent à la fois la dépression et l’anxiété (Rumney et MacMahon, 2017[22]).

Finalement, il faut prendre note que de nombreuses technologies configurées à l’origine pour fournir un soutien à l’enfant handicapé dans certains aspects spécifiques pourraient bien avoir l’effet secondaire d’améliorer l’accès aux programmes d’enseignement classique. Ainsi, le fait d’offrir du soutien aux élèves autistes pour qu’ils améliorent leurs compétences sociales et de communication (encadrement de besoins spécifiques) pourrait faciliter leur participation à des activités du programme qui demandent du travail de groupe et de la collaboration (accès aux programmes d’enseignement). De même, les technologies configurées pour aider les enfants atteints de TDAH à acquérir des compétences d’autorégulation, telles que celles décrites dans l’Encadré 6.2 (les technologies en renfort), pourraient bien leur permettre de s’intéresser à un plus grand nombre de sujets enseignés ou de les approfondir.

Comment les technologies peuvent-elles favoriser des démarches centrées sur l’apprenant qui soient souples et adaptables pour les enfants ayant des besoins spécifiques (World Health Organization, 2011[10]) ? Dans cette section, nous décrivons trois démarches de ce type qui s’intéressent à l’autisme, la dysgraphie et la déficience visuelle respectivement.

ECHOES (Porayska-Pomsta et al., 2018[27]) est un environnement d’apprentissage amélioré par la technologie destiné à aider les enfants autistes à explorer et à acquérir des compétences en communication sociale grâce à une série d’activités d’apprentissage ludiques, certaines d’entre elles mettant en scène un personnage virtuel avec lequel l’enfant peut interagir. Le groupe cible de cet environnement est les enfants ayant un âge de développement qui se situe entre 4 et 7 ans (dans le cas d’enfants autistes, il convient de mentionner que leur âge chronologique peut être beaucoup plus élevé en raison de difficultés d’apprentissage supplémentaires).

L’environnement de travail ECHOES (Graphique 6.1) a été conçu pour fonctionner sur un grand écran tactile multipoint avec sortie audio. Les enfants peuvent s’asseoir ou rester debout devant l’écran, et interagir physiquement avec le système en glissant, tapotant et secouant les objets.

Les interactions se font au sein d’un « jardin magique », les objets du jardin ont des propriétés inhabituelles destinées à aiguiser la curiosité et à encourager l’exploration. Par exemple, l’enfant peut toucher et faire glisser la tête d’une fleur qui, ce faisant, se détache de la tige et se transforme en ballon. Le jardin magique abrite également Andy, un agent intelligent, avec lequel l’enfant peut jouer et interagir. Andy joue à la fois un rôle de guide auprès de l’enfant, lui expliquant les activités et lui fournissant de l’aide, et également de condisciple, en se relayant avec l’enfant dans des activités telles que le tri.

L’autisme est un trouble neurodéveloppemental chronique qui affecte les compétences de communication et les interactions d’une personne avec les autres, ainsi que la manière dont cette personne perçoit le monde qui l’entoure (National Autistic Society, 2016[28]). Les difficultés d’interactions sociales et de communication constituent l’une des caractéristiques de l’autisme et, étant donné qu’il s’agit d’un trouble du spectre, ces difficultés se manifesteront de différentes façons à différents points du spectre (p. ex., elles peuvent aller de la difficulté à comprendre les échanges au cours d’une conversation typique à l’absence totale de communication). On peut également voir émerger des différences notables entre des individus censés se situer au même point du spectre, voire chez un même individu à différents moments (p. ex., dans des situations de stress ou d’anxiété, ces difficultés sont susceptibles d’être exacerbées).

Les difficultés sociales et de communication peuvent avoir une influence profonde et durable sur le bien-être social et émotionnel d’un individu, causant des problèmes pour nouer et entretenir des relations (Kuo et al., 2013[29]), entraînant de la solitude (Locke et al., 2010[30]), de l’isolement (Chamberlain, Kasari et Rotheram-Fuller, 2007[31]), et une sensible augmentation de la probabilité d’être harcelé (Cappadocia, Weiss et Pepler, 2012[32]). Au fil du temps, ces difficultés peuvent avoir des conséquences profondément négatives sur la santé mentale de l’enfant (Whitehouse et al., 2009[33]), et entamer sa confiance en lui et son estime de soi (Bauminger, Shulman et Agam, 2004[34]). En outre, ces difficultés persistent toute la vie, de nombreux adultes autistes faisant état d’un fort sentiment d’isolement, malgré leur désir de s’impliquer davantage avec les autres (Müller, Schuler et Yates, 2008[35]).

ECHOES s’appuie sur le modèle SCERTS de communication sociale, de régulation émotionnelle, et de soutien transactionnel (Social Communication, Emotional Regulation, Transactional Support) (Prizant et al., 2006[36]). L’un des objectifs généraux de SCERTS est d’encadrer les enfants autistes dans le développement de compétences et de la confiance dans les activités sociales. SCERT a pour particularité remarquable de chercher à identifier les forces des enfants et de s’appuyer dessus pour développer d’autres compétences.

Ce que SCERTS qualifie de « soutien transactionnel » est un autre aspect intéressant qui prend en compte le rôle de l’environnement de l’enfant, y compris les personnes qui en font partie, dans le développement des compétences en question. Les enfants réussiront mieux à développer des compétences sociales si l’environnement s’adapte à leurs besoins particuliers afin de les aider au mieux (et cela englobe les contacts sociaux : les compétences sociales des enfants augmentent quand ils sont entourés d’interlocuteurs qui les comprennent, les soutiennent et aiment interagir avec eux).

En ce qui concerne la communication sociale, le modèle SCERTS s’intéresse à deux compétences fondamentales, à savoir, l’attention conjointe et l’utilisation de symboles. Par attention conjointe, on entend la capacité de partager l’attention, les émotions et les intentions avec des partenaires, à s’engager dans des interactions sociales réciproques ou alternées. L’utilisation de symboles consiste à utiliser des objets, des images, des mots ou des signes pour représenter les choses et partager les intentions, et avoir la capacité d’utiliser des objets dans le jeu.

En configurant l’environnement virtuel, l’équipe d’ECHOES a opté pour une approche participative impliquant une grande variété d’intervenants, les parents, les aidants, les praticiens, les enseignants et, surtout, les enfants autistes (Frauenberger, Good et Keay-Bright, 2011[37] ; Frauenberger et al., 2013[38]).

L’objectif d’ECHOES était de créer un environnement dans lequel les forces et habiletés des enfants pouvaient se révéler et servir de tremplin, et à cet effet, il présentait à la fois des activités exploratoires et axées sur la tâche. Les activités exploratoires ont été conçues pour donner aux enfants un sentiment d’autonomie et de capacité d’agir avec l’environnement, alors que les activités axées sur la tâche ont permis à l’agent de modeler les comportements d’initiation et de réponse de l’enfant. Par exemple, l’activité où l’enfant et l’agent virtuel, Andy, trient à tour de rôle un nombre fixe de ballons de différentes couleurs et les placent dans les boîtes de la couleur correspondante, est centrée sur la tâche. Dans le cas d’activités exploratoires, il n’y a pas de fin déterminée : on peut par exemple se relayer avec l’agent pour secouer les nuages, ce qui fait pleuvoir et fait pousser les fleurs (voir Graphique 6.2). Le praticien peut s’appuyer sur l’intérêt et la motivation de l’enfant afin de décider de la durée de l’activité, et quand passer à une autre activité.

Les actions et comportements du personnage virtuel intelligent, Andy, sont étayés par un agent de planification autonome. Le planificateur travaille au niveau réactif et au niveau délibératif. Le niveau délibératif se préoccupe de plans à plus long terme en relation avec une activité d’apprentissage particulière. Par exemple, si l’objectif à long terme de l’activité est d’encourager l’enfant à ramasser un panier, le niveau délibératif s’attachera à l’ensemble des actions qu’Andy devra faire pour que cela se produise. Par contraste, le niveau réactif consiste à générer les réactions de l’agent en réponse aux actions immédiates de l’interface de l’enfant (par exemple, ce que l’enfant touche, pendant combien de temps, si c’est le bon objet, etc.).

Si le système est capable de percevoir les comportements tactiles de l’enfant et d’y répondre en conséquence, il ne peut détecter d’autres aspects de l’interaction de l’enfant avec le système ou les comportements généraux, et, ainsi, il est incapable de déterminer à quel moment il conviendrait de répéter une activité particulière (parce que l’enfant la trouve apaisante ou agréable), de passer à une autre activité (parce que l’enfant s’ennuie ou est frustré), ou d’arrêter la séance.

C’est plutôt le praticien encadrant l’enfant qui prend les décisions en utilisant une interface spécialement conçue à cet usage. On accède à l’interface du praticien par un écran distinct de l’écran principal d’ECHOES, pour ne pas détourner l’attention de l’enfant. Cette interface permet au praticien de contrôler le choix, la durée et la séquence de chaque activité d’apprentissage. Cet écran peut également lui servir à demander à l’agent de répéter un comportement, ou de passer à autre chose, lorsque cela s’avère nécessaire. L’action dans l’environnement ECHOES est donc déterminée par la combinaison de l’expertise du professionnel/chercheur et de la planification intelligente du système.

Comme on l’a fait remarquer ci-dessus, l’équipe a privilégié un processus participatif, dans le but d’impliquer autant que possible les utilisateurs finaux dans la conception du système. Sachant que les méthodes classiques de collecte de commentaires, telles que les groupes de discussion et les entretiens ne conviennent pas, l’équipe s’est lancée dans la conception rapide des prototypes afin de mieux impliquer les enfants autistes et pouvoir observer comment ils s’en servaient. Dans l’un de ces cas, l’équipe a été amenée à redéfinir complètement le rôle d’ECHOES dans un contexte plus large. À l’origine, l’équipe avait pensé que les interactions sociales primaires se produiraient entre l’enfant et l’agent social, et a poursuivi la configuration de l’étude en ce sens, le chercheur restant en retrait, et hors de vue de l’enfant. Toutefois, après l’essai du prototype initial, l’équipe de recherche a remarqué que les enfants se tournaient souvent vers le chercheur ou le praticien pour partager l’affect avec eux, pour débuter une conversation, en général à propos de quelque chose se produisant dans l’environnement ECHOES. Elle a donc replacé le programme ECHOES dans un contexte plus large, en reconnaissant l’importance du rôle de l’adulte comme partenaire social supplémentaire, et en arrangeant la configuration de manière à faciliter l’interaction de l’enfant avec l’adulte ou les adultes présents dans la salle (voir l’Graphique 6.3).

Dans une interaction sociale, l’échange naturel se fait à l’aide d’initiations verbales et non verbales (p. ex., poser une question, faire une observation, pointer quelque chose pour attirer l’attention d’une autre personne) et de réponses à ces initiations (p. ex., répondre à une question, hocher la tête, suivre des yeux le geste de pointage vers l’objet en question). Bien que les enfants autistes éprouvent généralement des difficultés avec les deux types d’interactions sociales, les initiations leur sont généralement plus difficiles que les réponses.

En évaluant l’environnement ECHOES, l’équipe cherchait à déterminer si, lors de l’utilisation d’ECHOES, les initiations et réponses des enfants autistes avaient tendance à augmenter, et s’il y avait des différences selon que ces interactions sociales impliquaient soit l’agent, soit l’humain. Les chercheurs ont, par ailleurs, cherché à déterminer si les enfants transposaient des améliorations hors de l’environnement ECHOES (dans ce cas, lors d’une séance de jeu libre avec un professionnel).

Il est intéressant de noter que lorsque les enfants interagissaient avec ECHOES, leurs initiations s’amélioraient avec le temps, et ce tant à l’égard de l’humain que de l’agent (même si cette amélioration n’était pas statistiquement significative). Les réponses des enfants au partenaire humain ont, elles aussi, augmenté substantiellement, mais leurs réponses à l’agent intelligent ont diminué. Les améliorations des comportements d’initiations et de réponses n’ont, toutefois, pas été transposées à la séance de jeu libre.

Ces observations sont pertinentes et ont des implications particulièrement intéressantes pour l’utilisation des technologies dans un environnement pédagogique. L’augmentation des initiations est positive, et il faut noter que, au fil du temps, les enfants répondaient davantage au partenaire humain, mais moins à l’agent. On peut supposer qu’ils se sont rendu compte des limites des technologies, comprenant qu’Andy pouvait uniquement détecter leur réponse que si elle était exprimée de manière tactile, contrairement au partenaire humain.

Au-delà des évolutions des initiations et réponses, ce qu’il faut retenir de l’expérience avec ECHOES, c’est le fait que les enfants ont semblé véritablement aimer interagir avec lui. Comme mentionné ci-dessus, même si l’équipe avait imaginé au départ que les enfants interagiraient principalement avec l’agent virtuel, ils ont remarqué que les enfants désiraient souvent partager leur expérience avec quelqu’un dans la pièce (comme dans le cas de l’enfant dans le Graphique 6.3 qui exprime sa joie avec l’une des chercheuses).

Ceci explique probablement deux choses en ce qui concerne les résultats. En premier lieu, il est possible que l’amélioration de la communication sociale dans l’environnement ECHOES soit due au fait qu’aux yeux de l’enfant les éléments avec lesquels il interagissait sur écran « valaient la peine de communiquer » (Alcorn, Pain et Good, 2014[40]). Cela pourrait également expliquer la dégradation des comportements en communication sociale une fois quitté l’univers ECHOES. Il faudrait donc, tout d’abord, réfléchir à la manière dont nous pouvons configurer les technologies qui, plutôt que d’adopter une méthode d’apprentissage des compétences fondée sur l’exercice et la pratique, devraient viser à offrir des expériences engageantes et motivantes. Idéalement et si possible, il faudrait réfléchir au moyen de rendre ces expériences agréables, en enracinant l’apprentissage, par exemple, dans des environnements qui permettent une exploration ludique et autorégulée (Mora-Guiard et al., 2016[41]) ou des expériences d’apprentissage multisensorielles ludiques (Gelsomini et al., 2019[42]).

En second lieu, plutôt que de considérer les technologies comme des entités discrètes permettant à l’enfant de transposer des compétences dans le « monde réel », il serait plus judicieux de réfléchir comment on peut effectivement incorporer et intégrer les expériences des enfants avec les technologies d’apprentissage dans un environnement éducatif plus large. Il est, par conséquent, important d’appréhender les systèmes être humain-machine comme des formes de systèmes sociaux, et de les considérer dans leur ensemble.

Comme mentionné ci-dessus, le domaine des besoins spécifiques et des handicaps est vaste et varié, car il embrasse les handicaps physiques autant que les troubles cognitifs et neurodéveloppementaux. Le diagnostic de tout handicap nécessite l’intervention et l’évaluation d’un spécialiste. Toutefois, certains troubles, comme la dyslexie ou la dysgraphie, par exemple, peuvent ne se révéler que dans un cadre éducatif, de sorte que la présomption d’un trouble potentiel repose sur l’observation de l’enseignant.

Le processus permettant de diagnostiquer un enfant ayant des besoins spécifiques est généralement long, fastidieux et stressant pour les enfants et leurs familles. Pourtant, une intervention précoce, spécialement ajustée aux besoins de l’enfant, est souvent ce qui peut le mieux l’aider à se développer et à progresser. Par conséquent, tout outil susceptible d’amener les enseignants à reconnaître les signes précurseurs d’un trouble potentiel et de soutenir les enfants et leurs familles dans la recherche d’un diagnostic spécialisé pourrait avoir un énorme impact sur l’éducation d’un enfant et son avenir. Il ne s’agit en aucun cas de suggérer que les enseignants eux-mêmes devraient poser un diagnostic. Toutefois, dans le cadre du processus de diagnostic, l’avis de l’enseignant est souvent sollicité en tant que contribution à ce processus, et prend généralement la forme d’un rapport, d’un questionnaire à remplir, etc. Par conséquent, si les enseignants disposaient d’outils leur permettant de repérer plus rapidement les différences dans le développement d’un enfant dans un cadre éducatif, cela pourrait potentiellement permettre aux familles d’amorcer plus rapidement un processus de diagnostic. Mieux encore, le fait de donner aux spécialistes des informations plus détaillées pourrait également favoriser un diagnostic plus rapide, ce qui ne serait pas le cas autrement.

Une équipe de l’École polytechnique fédérale de Lausanne (EPFL) a mis au point une méthode pour détecter la dysgraphie chez les enfants qui a donné des résultats très prometteurs (Asselborn et al., 2018[43] ; Asselborn, Chapatte et Dillenbourg, 2020[44] ; Zolna et al., 2019[45]). Par dysgraphie, on entend la difficulté à écrire, qui peut se manifester par une écriture illisible et de la peine à former les lettres correctement, des lettres parfois écrites à l’envers et/ou en désordre. Elle peut également s’accompagner de problèmes connexes d’orthographe.

La dysgraphie est en général diagnostiquée grâce à l’un des nombreux tests normalisés existants. Bien que les tests varient entre eux, ils demandent tous à l’enfant de copier du texte, celui-ci étant évalué ensuite par un expert afin de déterminer la lisibilité (en la mesurant à l’aide d’un ensemble de critères) et l’efficience (en comptant la quantité de texte produite dans un laps de temps donné) (Biotteau et al., 2019[46]).

Ces tests ont les désavantages d’être subjectifs et coûteux. En outre, ils se concentrent principalement sur le résultat, c’est-à-dire le texte écrit, plutôt que sur les processus mis en œuvre pour arriver à ce résultat. Asselborn et ses collègues ont mis au point un algorithme d’apprentissage automatique qui peut détecter la dysgraphie, et qui fonctionne sur une tablette standard disponible sur le marché. Afin de développer cet outil, ils ont tout d’abord recueilli des données auprès de 300 enfants (au développement typique ou atteints de dysgraphie) à qui ils ont demandé de copier un texte sur une tablette dont la surface était recouverte d’une feuille de papier (pour imiter les pratiques d’écriture typiques). Ils ont ensuite utilisé une partie de ces données pour former un classifieur d’apprentissage automatique afin qu’il détecte la dysgraphie, et les données restantes pour tester la précision du classifieur. Le taux de détection de la dysgraphie était d’une précision très élevée (Asselborn et al., 2018[43]).

Au cours de ce processus, les chercheurs ont extrait 53 caractéristiques qui décrivent les multiples aspects d’une écriture enfantine, telles que les inclinaisons du stylo, la pression, la vitesse et les changements de vitesse. Ils ont ensuite pu déterminer lesquelles de ces caractéristiques étaient les plus discriminatoires, en d’autres termes, lesquelles permettaient de distinguer l’écriture des enfants atteints de dysgraphie de celle des enfants au développement typique.

L’un des avantages pratiques de ce système est qu’il ne nécessite pas de matériel spécialisé : il fonctionne sur une tablette graphique standard, est donc peu coûteux, et peut être utilisable par des non-spécialistes. En outre, comparé aux méthodes classiques de diagnostic de la dysgraphie, le système peut analyser le processus de l’écriture, plutôt que simplement le produit. Les caractéristiques mentionnées plus haut, comme la pression sur le stylo, les inclinaisons du stylo, et d’autres encore, peuvent fournir une analyse encore plus fine des difficultés que l’enfant expérimente, plutôt que de simplement identifier si l’enfant est ou n’est pas dysgraphique. Cela signifie donc qu’il est possible de répondre de manière plus ciblée et plus spécifique aux besoins de l’enfant.

Ces résultats ont servi au développement de Dynamico (www.dynamico.ch/), une application sur tablette qui sera bientôt disponible dans le commerce. Configuré pour un iPad et un stylo Apple, Dynamico aide les enfants ayant des difficultés d’écriture dans de nombreux environnements, et peut être utilisé à la maison, dans la classe ou avec des thérapeutes. L’appli est constituée d’outils qui peuvent analyser l’écriture des enfants en 30 secondes, ce qui permet ensuite au thérapeute de créer un programme sur mesure pour pallier ce trouble, en fonction des résultats de l’analyse. Cet outil s’avérera également utile aux enseignants pour créer des séquences d’activités d’apprentissage individualisées. Il aura aussi son utilité au domicile de l’enfant, les enseignants et/ou le thérapeute pouvant suivre ses progrès à distance. Du point de vue de l’enfant, les activités sont présentées sous forme de jeux configurés pour être amusants et motivants. Le Graphique 6.4 présente une capture d’écran de l’application sur laquelle les enfants s’entraînent à tracer des lettres à l’aide du stylet : ce faisant, le raton laveur se déplace du début à la fin, et les enfants peuvent recevoir des récompenses en cours de route lorsque leur tracé est précis.

À l’heure actuelle, la recherche développe des technologies pour aider également les élèves atteints de dyslexie et de dyscalculie : l’Encadré 6.3 présente quelques exemples.

Comme pour les autres handicaps, les élèves aveugles ou malvoyants sont confrontés à des lacunes en matière de niveau de formation, ils ont moins accès aux classes et à l’enseignement supérieur, connaissent des taux de chômage élevés et n’accèdent pas facilement à certaines carrières.

Dans de nombreux pays de l’OCDE, la grande majorité des élèves aveugles ou malvoyants sont scolarisés ou sont encouragés à le faire dans un établissement ordinaire. Assurer leur participation à des activités quotidiennes dans la classe entraîne un certain nombre de difficultés. Metatla (2017[51]) présente un excellent aperçu de certaines d’entre elles, comme de privilégier le travail collaboratif alors que les enfants aveugles ou malvoyants et les voyants utilisent du matériel qu’ils ne peuvent pas partager, ou le fait que les murs des classes sont en général couverts de matériel visuel, comme des affiches, des diagrammes, entre autres, que l’on estime essentiels à l’apprentissage, mais qui sont inutiles aux aveugles et malvoyants. Dans cette section, nous nous attachons exclusivement à examiner l’accès au matériel scolaire, particulièrement les graphiques.

La plupart du matériel éducatif comporte un élément visuel significatif, qu’il prenne la forme d’un texte ou d’un graphique (ou, généralement, une combinaison des deux). Il existe de nombreuses options pour avoir accès à un texte écrit. Bien qu’ils ne soient pas exempts de problèmes de convivialité, les lecteurs d’écran traitent les documents numériques qu’ils retranscrivent sous forme audio grâce à la synthèse vocale. Les lecteurs d’écran sont largement répandus tant sur les PC que sur les appareils mobiles (p. ex., JAWS ou NVDA pour Windows, ou VoiceOver pour MAC et IOS). Dans les cas où la personne aveugle ou malvoyante préfère lire le texte plutôt que l’écouter, les plages Braille offrent une solution. Ces afficheurs sont un élément matériel séparé qui reçoit les données du lecteur d’écran et les traduit en braille (à l’aide de picots mobiles), celles-ci pouvant ensuite être lues par l’utilisateur (il faut noter que ces afficheurs sont également des dispositifs d’entrée et permettent aux utilisateurs non-voyants ou malvoyants d’entrer du texte dans un ordinateur) (Encadré 6.4). Bon nombre de ces dispositifs peuvent, toutefois, s’avérer onéreux.

Toutefois, les capacités de synthèse vocale et les plages Braille dynamiques sont conçues pour travailler avec du matériel textuel. Pour ce qui est des représentations graphiques, il n’existe pas de solution analogue peu coûteuse, ce qui signifie que l’accès des élèves aveugles ou malvoyants à des contenus graphiques représente encore un défi. Sur les pages web, on peut utiliser l’attribut alt-text (texte alternatif) pour obtenir une description textuelle d’une image, qui est alors lue par le lecteur d’écran. Toutefois, ces descriptions en texte alternatif sont parfois absentes (car leur inclusion dans le code source de la page dépend de la volonté du créateur de contenu de la page web) et leur qualité varie souvent (car le créateur de contenu a toute latitude pour décider de la meilleure façon de décrire l’image).

De récentes recherches, bien que pas spécifiquement axées sur l’éducation, mais pertinentes et certainement opportunes, suggèrent une autre raison à l’origine de ces difficultés. Dans une étude sur l’accès aux informations de santé publique concernant la pandémie de COVID-19, Holloway et al. (2020[53]) ont constaté que plus de 70 % des sites web qu’ils ont étudiés faisaient appel à des représentations graphiques pour transmettre de l’information sur la pandémie (par exemple, des visualisations en temps réel des données statistiques). Toutefois, moins d’un quart comprenait le texte alternatif correspondant à ces graphiques, non pas parce que le créateur de contenu de la page web ne l’a pas mis, mais parce que les graphiques qui sont interactifs, ou automatiquement mis à jour, ne supportent pas le texte alternatif. Les utilisateurs aveugles et malvoyants n’ont donc pas moyen d’accéder à l’information importante qui figure dans ces visualisations.

Malheureusement, cette inégalité d’accès à l’information graphique semble se creuser davantage en raison de la tendance grandissante à privilégier les graphiques par rapport au texte comme moyen d’échange d’informations (Gorlewicz et al., 2018[54]), et cet échange dans un format numérique est à la fois plus facile et plus rentable comparé aux alternatives sur papier. Paradoxalement, les nouvelles technologies pédagogiques interactives risquent de réduire davantage l’accès des enfants aveugles ou malvoyants à l’information, du fait qu’elles reposent sur le contenu visuel et les interactions telles que le glisser-déposer (Metatla et al., 2018[55]). Certaines matières des programmes d’enseignement présentent également des difficultés. Dans certaines d’entre elles, le rôle des informations graphiques est purement illustratif ou vise à compléter des informations textuelles, mais dans d’autres il s’avère complexe de présenter certains types d’informations autrement. C’est particulièrement le cas des STIM, qui reposent en grande partie sur les représentations telles que les tableaux et les graphiques.

Une méthode reposant sur le toucher, similaire au braille, pourrait permettre aux élèves aveugles ou malvoyants d’avoir accès à de telles représentations. On peut créer des graphiques tactiles à l’aide d’une gaufreuse, qui met en relief les éléments du graphique afin de le rendre perceptible au toucher, ou à l’aide de papier gonflant, papier spécialisé chauffé par des machines qui font gonfler les parties imprimées d’une image, celle-ci devenant alors perceptible au toucher. Toutefois, le résultat de telles méthodes est statique, et il faudra créer un nouveau graphique en cas de modifications ou de mises à jour. Étant donné l’importance des graphiques dynamiques en éducation (p. ex., comprendre comment différentes valeurs de m affectent la courbe d’une ligne dans l’équation mx+b), il est clair que ces types de graphiques tactiles représentent une solution partielle.

Des technologies analogues à la plage Braille dynamique ont été mises au point, en utilisant des rangées de picots, pour l’affichage graphique dynamique, afin de permettre aux utilisateurs aveugles ou malvoyants d’explorer le graphique via le toucher. Toutefois, ces solutions reposent sur du matériel sur mesure et sont extrêmement coûteuses. Même les technologies récemment éditées, p. ex., Graphiti (https://www.orbitresearch.com/product/graphiti/), qui utilisent une rangée de picots pouvant être placés à différentes hauteurs pour transmettre une information topographique, sont encore du matériel spécialisé. S’il est vrai que l’objectif est de pouvoir réduire à terme le prix de Graphiti à 5 000 USD grâce à des commandes groupées, cela représente néanmoins une dépense significative pour un établissement, surtout pour du matériel ne pouvant servir que dans un seul but.

En résumé, faire en sorte que l’accès aux graphiques dynamiques ne nécessite pas de matériel spécialisé est un défi majeur et pourtant incroyablement important. Cela pourrait non seulement transformer le secteur de l’éducation, mais presque tous les aspects de la vie quotidienne d’un individu aveugle ou malvoyant.

En tentant d’aborder la question de l’accès aux graphiques d’une manière qui profite au plus grand nombre d’utilisateurs, Gorlewicz et al. (2018[54]) plaident pour l’utilisation d’appareils intelligents à écran tactile tels que les téléphones ou les tablettes comme plateformes matérielles.

Une telle approche a de multiples avantages. En premier lieu, la plateforme matérielle est peu coûteuse, facilement disponible et déjà largement répandue parmi une vaste proportion du groupe d’utilisateurs ciblé.

En outre, ces appareils ont déjà la capacité intégrée de fournir de l’information par le biais de multiples modalités, notamment visuelles, auditives et tactiles. Presque tous les dispositifs à écran tactile comprennent une carte de son et un haut-parleur, ainsi que des capacités de synthèse vocale, ce qui signifie qu’ils peuvent fournir un accès auditif à l’information aux utilisateurs aveugles ou malvoyants. De plus, le fait que nombre d’écrans tactiles possèdent également des capacités de vibration leur donne la possibilité de fournir une rétroaction vibrotactile. Ce type de rétroaction n’est pas habituellement utilisé comme forme première d’interaction avec un appareil, mais rien ne l’en empêche, et, dans le cas des utilisateurs aveugles ou malvoyants, c’est une modalité supplémentaire qui permet de fournir des informations.

En conséquence, cette approche offre des avantages par rapport aux solutions existantes telles que les affichages graphiques tactiles, qui ne présentent les informations que par le biais d’une seule modalité : le toucher. Ces caractéristiques étant déjà présentes dans la plupart des écrans tactiles, il n’est nul besoin ou presque de créer du matériel onéreux et spécialisé pour un usage restreint.

Gorlewicz et al. (2018[54]) envisagent un affichage comme celui du Graphique 6.5. Dans ce cas, l’information textuelle du diagramme à barres peut être convertie en informations auditives, tandis que les éléments graphiques et spatiaux du diagramme (en l’occurrence les barres) peuvent être transmis par le biais de rétroactions vibratoires. C’est clairement un atout par rapport aux systèmes qui ne peuvent fournir que deux types d’informations inhérentes au diagramme par le biais d’une seule modalité.

Dans cet exemple, bien que la technologie existe pour offrir une solution potentielle à un problème clé, des recherches approfondies sont nécessaires avant qu’un tel système devienne réalité. Plus particulièrement, Gorlewicz et al. (2018[54]) soulignent la nécessité de mener des recherches pour comprendre comment se fait l’encodage, l’interprétation et la représentation des informations graphiques présentées par des canaux non visuels. S’ils constatent que les recherches précédentes ont examiné ces questions en relation aux graphiques tangibles (c’est-à-dire en relief), ils estiment que les résultats ne sont pas forcément applicables, car l’écran tactile n’offre pas une expérience tangible analogue et est donc susceptible de déclencher des récepteurs sensoriels différents. En même temps, une étude récente qui compare l’utilisation de graphiques sur écran tactile à des graphiques en relief a montré qu’il n’y avait pas de différences significatives en termes de performance (Gorlewicz et al., 2020[56]), ce qui laisse entendre qu’il s’agit d’un domaine prometteur qu’il faut continuer d’explorer.

La recherche présentée dans ce chapitre offre trois pistes prometteuses en termes de développement et de déploiement de technologies intelligentes qui pourraient avoir le plus d’impact sur la vie des apprenants ayant des besoins spécifiques d’éducation. La première vise un développement plus holistique des systèmes intelligents, tenant compte des besoins, de l’utilisateur et de l’environnement d’utilisation. La deuxième est la création de systèmes intelligents exploitant les technologies qui ont de grandes chances d’être mises à la disposition des utilisateurs visés (« systèmes intelligents pour tous »). Finalement, les systèmes qui intègrent un mélange d’intelligence humaine et artificielle sont très prometteurs, et il est primordial de poursuivre la recherche afin d’atteindre le mariage idéal. J’examine ces pistes successivement ci-dessous.

Si nous voulons que les technologies intelligentes apportent une aide efficace aux enfants ayant des besoins spécifiques à court et à moyen terme, nous devrions privilégier la mise au point de « systèmes intelligents holistiques », c’est-à-dire de technologies qui 1) répondent à un réel besoin, et qui sont conçues en tenant compte à la fois 2) des utilisateurs finaux et 3) de l’environnement d’utilisation. La négligence de l’un de ces aspects est susceptible de créer des technologies qui ne seront pas adoptées ou qui seront rapidement abandonnées.

Comme nous l’avons vu plus haut, le besoin d’accompagner les apprenants ayant des besoins spécifiques se fait cruellement sentir. Ces besoins sont nombreux, et certains types de handicaps font l’objet d’une recherche et d’un développement moins importants que d’autres (p. ex., la dyscalculie). Même s’il est clair que les technologies jouent, et joueront encore longtemps, un rôle croissant en contribuant à l’apprentissage des personnes ayant des besoins spécifiques, il faut prendre le temps de comprendre ce qui est réellement nécessaire, plutôt que de se fier à ce que les aidants ou les vendeurs estiment nécessaire. De même, il faut regarder où se situe le plus grand impact potentiel : le cas de l’accès des utilisateurs aveugles ou malvoyants au contenu graphique a permis de voir qu’une solution facilement disponible et peu coûteuse pouvait avoir un impact extrêmement important, à la fois dans la salle de classe et en dehors.

L’Organisation mondiale de la santé (2011[10]) souligne l’importance de s’assurer que la voix des enfants handicapés soit entendue, tout en reconnaissant que ce n’est malheureusement pas toujours le cas, et qu’il en va de même pour la conception de nouvelles technologies.

La participation d’enfants handicapés aux activités de conception de technologies intelligentes destinées à soutenir leur apprentissage peut présenter des défis supplémentaires (par exemple, comment faire en sorte que les besoins et les souhaits des enfants non verbaux puissent être exprimés durant le processus de conception), mais il est d’autant plus important qu’ils participent que leurs besoins et souhaits sont susceptibles d’être très différents de ceux des adultes qui conçoivent la technologie. Heureusement, de nombreux travaux se sont consacrés à la conception participative avec des enfants ayant des types divers de handicaps : Benton and Johnson (2015[57]) fournissent une bonne vue d’ensemble.

En plus des enfants, il est nécessaire de faire participer les enseignants dans la conception de toute technologie d’apprentissage. Pour commencer, ils ont une bonne perception et expertise en matière d’accompagnement des enfants ayant des besoins spécifiques d’éducation, et pourront faire valoir leurs idées sur ce qui est susceptible de fonctionner ou pas (Alcorn et al., 2019[58]).

Il faut non seulement configurer pour les utilisateurs, mais il est également essentiel d’avoir une bonne compréhension de l’environnement d’utilisation. Tout type de technologie existe dans un écosystème pédagogique élargi (en général, il comprend la classe et l’établissement scolaire) et l’introduction de technologies avancées dans un tel environnement nécessite de prendre conscience des contraintes existantes avec lesquelles les technologies doivent compter. Il s’agit notamment de considérations pratiques telles que les budgets et priorités de financement de l’établissement, l’adéquation avec les programmes d’enseignement, la robustesse des technologies, leur coût, et leur intégration potentielle avec les technologies existantes. La facilité d’utilisation (tant pour les enseignants que pour les élèves) est une sérieuse préoccupation, tout comme les questions de maintenance et d’assistance technique.

La facilité d’utilisation est un aspect que l’on peut aborder pendant le processus de configuration (idéalement en impliquant les utilisateurs finaux à tout moment) ; toutefois, le choix initial du matériel est une décision qui aura une influence déterminante sur l’utilisation effective de la technologie.

Si l’on considère l’adoption potentielle de technologies destinées à l’apprentissage, il existe deux extrêmes (et un continuum entre les deux). À une extrémité, on trouve les technologies en cours de développement qui sont peu susceptibles d’entrer dans la classe, soit parce qu’elles sont trop chères, soit que le matériel ou le logiciel est trop compliqué à installer, à utiliser et/ou à entretenir (comme ECHOES) pour des non-spécialistes. À l’autre extrémité, on trouve les systèmes qui utilisent des technologies existantes et peu coûteuses qui sont conçues pour être facilement utilisables par des non-spécialistes (comme l’appli Dynamico et des systèmes qui, une fois développés, utilisent des écrans tactiles pour des graphiques vibrotactiles).

Bien que non exploitable en classe, ECHOES nous a permis de mieux comprendre comment créer des environnements susceptibles d’offrir des interactions ludiques et motivantes. Ces informations ont ensuite été reprises dans un système qui se voulait à la fois technologiquement plus simple tout en permettant également aux non-spécialistes de créer leur propre contenu (Porayska-Pomsta et al., 2013[59]). Le projet ECHOES a également remis en question les conceptions admises sur la nature de l’autisme, particulièrement le prétendu « besoin d’uniformité », ce qui a conduit à d’autres recherches et explorations qui ont apporté une contribution théorique importante au domaine (Alcorn, 2016[39]). Il faut étudier et développer les deux types de systèmes, mais, en même temps, les chercheurs doivent savoir clairement où se situent leurs systèmes sur ce continuum.

Une partie du problème de la conception en fonction de l’environnement d’utilisation consiste à comprendre les questions de coût et de disponibilité. De nombreuses technologies d’assistance sont beaucoup trop onéreuses pour les établissements publics et nécessitent un matériel spécialisé qui, dans bien des cas, est limité à un seul type d’usage. Les enfants ne peuvent donc pas avoir accès à des technologies qui pourraient leur apporter un soutien dans leur apprentissage. Pour que les technologies intelligentes aient un impact positif sur les élèves ayant des besoins spécifiques d’éducation à court terme, nous devons réfléchir à la meilleure façon de faire profiter les établissements scolaires des dernières avancées de l’IA, et ce de manière abordable et facilement accessible.

L’utilisation d’appareils à écran tactile, c’est-à-dire les Smartphones et les tablettes, est un moyen très prometteur d’y parvenir, et ce pour deux raisons. Tout d’abord, ces appareils sont disponibles sur le marché, sont raisonnablement abordables et multifonctionnels. Cela leur confère des avantages évidents comparés aux systèmes informatiques spécialisés et sur mesure qui sont développés pour un usage unique et qui sont généralement très coûteux (comme de nombreuses solutions concernant les élèves aveugles ou malvoyants). Ensuite, au-delà de leur puissance de traitement, les écrans tactiles modernes intègrent de nombreux capteurs qui offrent de multiples possibilités d’entrées et de sorties multimodales. Ils offrent des occasions de créer des expériences d’apprentissage nouvelles et innovantes pour les élèves ayant des besoins spécifiques, tout en veillant à ce qu’elles restent relativement peu coûteuses et largement disponibles.

Deux des études de cas présentées dans ce chapitre (pour la dysgraphie et l’accès aux informations graphiques respectivement) montrent très bien que c’est faisable. Dynamico repose sur une recherche scientifique robuste et utilise des algorithmes d’IA complexes qui peuvent fonctionner sur des tablettes disponibles dans le commerce. De plus, il utilise les capteurs intégrés à la tablette (p. ex., la pression) pour pouvoir analyser l’écriture d’un enfant et détecter la dysgraphie. Les chercheurs qui se sont penchés sur l’accès aux informations graphiques ont adopté la même approche, mais n’en sont cependant qu’à un stade encore précoce. Ils mènent aujourd’hui des recherches fondamentales afin de mieux comprendre comment les étudiants aveugles ou malvoyants comprennent et utilisent les graphiques présentés sur une tablette multisensorielle (Hahn, Mueller et Gorlewicz, 2019[60]), et soulignent que de nombreuses autres recherches seront nécessaires avant la création d’un produit commercial. Toutefois, leur objectif final est d’utiliser les capacités des écrans tactiles de manière innovante afin d’offrir des résultats multimodaux aux étudiants aveugles ou malvoyants (dans ce cas, une combinaison de rétroactions auditives et vibrotactiles).

La recherche sur l’exploitation des capacités sophistiquées des écrans tactiles modernes dans le but d’aider les élèves ayant un large éventail de besoins spécifiques, et ce par le biais de formes nouvelles et innovantes d’entrées de données et de résultats, semble être une voie très prometteuse.

Baker (2016[61]) souligne que la mise au point de systèmes de tutorat intelligents était, au départ, guidée par la vision ambitieuse d’en faire des systèmes aussi compétents que les tuteurs humains, capables d’utiliser les mêmes stratégies que les tuteurs humains chevronnés, intégrant des savoirs sur la matière et sur la manière de l’enseigner. Alors qu’aujourd’hui de nombreux systèmes de tutorat intelligents sont mis en œuvre à grande échelle, des centaines de milliers d’élèves en bénéficiant (par exemple, Cognitive Tutor, ALEKS, Mindspark, et Alef), ils ne sont plus que des versions simplifiées de ce qui était prévu à l’origine.

Comme le remarque Baker, la rigidité est l’un des problèmes des interventions automatisées, c’est-à-dire que si une intervention ne fonctionne pas, le système a du mal à le reconnaître et à réagir en conséquence. Ces ruptures d’interaction ne passent pas inaperçues auprès des apprenants. Au cours d’une étude sur la façon dont des enfants percevaient un robot tuteur, humanoïde et empathique, Serholt (2019[62]) a constaté que les enfants qui avaient déjà interagi avec le robot se sont montrés plus critiques à l’égard du concept de la reconnaissance des émotions chez les robots que ceux qui n’avaient pas eu cette expérience. Un enfant a gentiment déclaré que les robots sociaux « pourraient devenir plus utiles à l’avenir, à condition de laisser encore [aux chercheurs/développeurs] quelques années de plus pour les mettre au point et les rendre plus humains » (Serholt, 2019, p. 95[62]). L’expérience de ECHOES est similaire : bien que les enfants n’aient pas été en mesure de le verbaliser, le fait qu’ils aient cessé de répondre à Andy aussi souvent laisse penser qu’ils avaient compris les limites de ses capacités d’interaction. De même, un certain nombre de leurs initiations envers Andy consistaient à lui offrir de l’aide lorsque, en raison de problèmes de planificateur, il ne se comportait pas comme prévu (par exemple, accomplissement de mauvais mouvements dans la tâche de tri, sortie de l’écran…).

Dans le même ordre d’idées, certains aspects de l’enseignement s’avèrent tout simplement plus faciles à effectuer pour les humains, du moins à l’heure actuelle. Ce point se révèle particulièrement vrai pour les élèves ayant des besoins spécifiques. Encadrer leur apprentissage est un art subtil et individuel : des enseignants et assistants pédagogiques compétents auront passé de nombreuses heures et dépensé des efforts considérables à se mettre en phase avec les compétences, les besoins, et les modes de communication particuliers de chaque enfant.

L’environnement de travail ECHOES en est une bonne illustration. La conception originale de ECHOES était beaucoup plus complexe, car il devait pouvoir percevoir les états émotionnels des enfants par le biais de la reconnaissance des émotions faciales, et devait suivre le mouvement des yeux et y répondre en conséquence. Dans les faits, ces deux fonctions se sont révélées problématiques. Les enfants bougeaient partout, avec beaucoup d’énergie dans certains cas, si bien que le système de suivi ne pouvait pas fonctionner correctement. Dans un système configuré pour privilégier l’exploration ludique, demander à un enfant de se tenir tranquille aurait semblé absurde. En outre, les recherches suggèrent que, tout comme les autistes peuvent avoir du mal à comprendre les expressions faciales des autres, les individus neurotypiques ont souvent du mal à comprendre les expressions faciales des autistes (Brewer et al., 2016[63]). Il semblait donc peu judicieux de se fier à un système automatisé, qui aurait été forcément construit dans une perspective neurotypique, pour détecter l’état émotionnel de l’enfant. Cet aspect était également important, plus généralement, dans la situation d’un enfant qui deviendrait particulièrement angoissé, au point de possiblement s’éloigner de l’écran, et de devenir indétectable, alors même qu’une intervention adéquate serait immédiatement nécessaire. Il était, par conséquent, essentiel de s’assurer que tout ce qui faisait partie de l’environnement n’avait pas le potentiel d’entraîner une détresse résultant d’une rupture dans l’interaction.

L’équipe de recherche a donc décidé d’utiliser l’intelligence du système ECHOES pour mettre en place des séquences interactives ludiques et motivantes avec un agent intelligent, ce que les enfants semblaient apprécier, et de faire en sorte que le système repose sur l’humain pour interpréter la signification des comportements des enfants et veiller à leur bien-être général pendant la séance.

Cette nouvelle vision des systèmes éducatifs intelligents combine le meilleur des intelligences humaine et artificielle afin qu’elles apportent un soutien des plus efficaces aux apprenants.

L’intelligence artificielle, dans sa forme actuelle, excelle à trouver des modèles à partir de données, ce que les humains font moins bien. L’accès à ces données a le potentiel d’améliorer l’enseignement et l’apprentissage. C’est la vision de Baker (2016[61]), où les systèmes éducatifs intelligents servent à fournir des données aux humains, qui peuvent les utiliser pour éclairer leurs décisions pédagogiques. Dynamico illustre bien l’utilisation de l’IA en ce sens, puisqu’il permet aux professionnels d’accéder à des données auparavant indisponibles, ce qui a permis, dans ce cas, d’améliorer la façon dont la dysgraphie peut être diagnostiquée ainsi que les moyens permettant de mieux accompagner les apprenants atteints de dysgraphie.

D’un autre côté, l’intelligence humaine convient beaucoup mieux dans des situations où les données ne sont pas toujours aussi tranchées. Par exemple, les enseignants œuvrant avec des enfants autistes ont une connaissance très spécialisée de l’autisme, et auront consacré des heures à développer une compréhension nuancée et approfondie de chaque enfant au fil du temps. Ils peuvent interpréter les signaux d’après le comportement de l’enfant, alors que des personnes ne connaissant pas l’enfant en seraient incapables. Ils sont à même de comprendre les déclencheurs spécifiques qui peuvent conduire à la détresse d’un enfant. Les enseignants seront probablement également sensibles à des gestes, comportements ou propos particuliers précurseurs d’un état de détresse chez l’enfant. Ils sont aussi susceptibles de savoir comment intervenir de manière à dédramatiser la situation et aider et rassurer l’enfant. Cependant, même si les enseignants sont les mieux placés pour offrir ce type d’aide, cela ne signifie pas que l’intelligence artificielle ne pourrait donner un aperçu de la manière singulière dont l’enfant interagit, permettant ainsi au praticien d’intervenir le plus efficacement possible.

Dans cette optique, une vision positive des technologies intelligentes dans le domaine de l’apprentissage serait de permettre l’utilisation de ces technologies dans le but d’optimiser l’orchestration complexe qu’implique le travail avec un enfant ayant des besoins spécifiques d’éducation. Même si les enseignants restent responsables de cette orchestration, les technologies intelligentes pourraient les renforcer de trois manières différentes :

  1. 1. en leur offrant l’aide nécessaire pour reconnaître les besoins en premier lieu (comme dans l’exemple de la dysgraphie exposé plus haut) ;

  2. 2. en fournissant aux enseignants et aux assistants pédagogiques des connaissances et observations sur l’enfant, qui pourraient les aider à guider l’enfant du mieux possible (comme discuté plus haut) ;

  3. 3. en leur fournissant un soutien adaptable à de multiples niveaux (décrit en détail ci-après).

L’une des promesses de l’exploitation de l’intelligence artificielle dans le domaine de l’éducation est celle de l’adaptabilité, c’est-à-dire la capacité de s’adapter au niveau actuel de connaissances et/ou compétences de l’élève, mais aussi, dans certains cas, à son niveau actuel de motivation et/ou de disposition affective. Dans la plupart des cas, cette adaptabilité fonctionne au niveau de l’individu.

Outre l’adaptabilité au niveau de l’individu, le soutien apporté aux apprenants ayant des besoins spécifiques ouvre un espace unique dans lequel il est possible d’envisager des types supplémentaires de personnalisation et d’adaptation, qui pourraient s’accomplir grâce à une combinaison d’intelligences humaine et artificielle, comme détaillé ci-dessous.

Dans la description du système ECHOES présenté plus tôt, on expliquait que le système planificateur fonctionnait au niveau des activités pédagogiques individuelles au sein du système, tandis que le professionnel travaillait à un niveau plus élevé pour structurer l’ensemble de la séance, déterminant le choix des activités particulières, y compris leur durée et leur séquencement. Même si cela marche bien, il faut parfois personnaliser l’environnement avant de pouvoir l’utiliser dans un établissement donné. Andy, l’agent d’IA, communique avec les enfants grâce à la parole et aux gestes. Cependant, dans d’autres établissements, on utilise des phrases et des gestes clés différents, par exemple, pour indiquer aux enfants la fin d’une activité et les préparer, émotionnellement et cognitivement, à passer à l’étape suivante. Le discours et les gestes de l’agent doivent par conséquent être modifiés avant la mise en place d’ECHOES dans l’établissement. Bien que l’équipe de recherche soit en mesure de le faire puisqu’ils sont les développeurs du système, ce serait mieux si les établissements pouvaient bénéficier de cette option.

La personnalisation et l’adaptation dans un contexte de soutien aux apprenants ayant un handicap pourraient probablement se faire non seulement au niveau individuel, ce qui est normalement le cas pour les systèmes intelligents, mais aussi au niveau du handicap et de l’environnement scolaire particulier. Nous décrivons ces trois niveaux ci-dessous (en prenant des exemples issus du système ECHOES pour les illustrer) :

  1. 1. Personnalisation au niveau du handicap : ce niveau implique la personnalisation et l’adaptation de l’interaction en fonction de ce que nous connaissons du travail avec des types particuliers de handicaps. Dans le cas d’ECHOES, conçu pour des enfants autistes, cela signifie qu’il faut penser au rythme de l’interaction (la ralentir pour laisser à l’enfant le temps de réfléchir), au langage utilisé pour les instructions (c.-à-d., utiliser un langage simple et direct, ne pas reformuler les instructions), et décider du temps qu’il faut laisser à l’enfant pour traiter une instruction avant de la redonner. Cependant, ces décisions ont donné lieu à des paramètres fixes, intégrés à l’environnement, et il serait préférable que le praticien puisse les personnaliser.

  2. 2. La personnalisation au niveau de l’établissement : comme expliqué ci-dessus, il s’agit de la personnalisation au niveau du langage, des symboles et signes spécifiques à l’établissement.

  3. 3. La personnalisation au niveau de l’enfant : par exemple, ne pas utiliser certains sons, désactiver les expressions faciales de l’agent, supprimer des mots ou phrases clés qui peuvent être des déclencheurs.

Pouvoir fournir une personnalisation et une adaptation affinées pouvant être activées grâce à une combinaison d’intelligences humaine et artificielle, et qui englobent les connaissances existantes sur un handicap particulier, l’environnement scolaire élargi et l’enfant en particulier, augmente les chances que l’environnement se révèle réellement utile, et ce dans toute une série de situations.

En conclusion, les technologies intelligentes sont porteuses d’espoir, car elles offrent un soutien ciblé et plus sophistiqué aux apprenants ayant des besoins spécifiques. L’intégration des dernières avancées en matière d’intelligence artificielle, ainsi que de la compréhension actualisée des besoins spécifiques et du handicap, dans des technologies déjà disponibles et peu coûteuses pourrait changer la vie des apprenants du monde entier.

Le système ECHOES, présenté dans ce chapitre, est le résultat d’un vaste projet interinstitutionnel et interdisciplinaire. Outre l’auteur, l’équipe comprenait Kaska Porayska-Pomsta (chef de projet), Alyssa Alcorn, Katerina Avramides, Sandra Beale, Sara Bernardini, Mary Ellen Foster, Christopher Frauenberger, Karen Guldberg, Wendy Keay-Bright, Lila Kossyvaki, Oliver Lemon, Marilena Mademtzi,

Rachel Menzies, Helen Pain, Gnanathusharan Rajendran, Tim Smith, et Annalu Waller. Le projet ECHOES a été financé par ESRC/EPSRC, numéro de subvention du programme TRLP TEL : RES-139-25-0395.

Références

[39] Alcorn, A. (2016), Embedding novel and surprising elements in touch-screen games for children with autism: creating experiences “worth communicating about« , PhD thesis, The University of Edinburgh.

[58] Alcorn, A. et al. (2019), « Educators’ Views on Using Humanoid Robots With Autistic Learners in Special Education Settings in England », Frontiers in Robotics and AI, vol. 6, https://doi.org/10.3389/frobt.2019.00107.

[40] Alcorn, A., H. Pain et J. Good (2014), « Motivating children’s initiations with novelty and surprise », Proceedings of the 2014 conference on Interaction design and children, https://doi.org/10.1145/2593968.2610458.

[6] Alkhatlan, A. et J. Kalita (2018), Intelligent Tutoring Systems: A Comprehensive Historical Survey with Recent Developments., rXiv preprint arXiv:1812.09628., https://arxiv.org/abs/1812.09628 (consulté le 26 février 2021).

[44] Asselborn, T., M. Chapatte et P. Dillenbourg (2020), « Extending the Spectrum of Dysgraphia: A Data Driven Strategy to Estimate Handwriting Quality », Scientific Reports, vol. 10/1, https://doi.org/10.1038/s41598-020-60011-8.

[43] Asselborn, T. et al. (2018), « Automated human-level diagnosis of dysgraphia using a consumer tablet », npj Digital Medicine, vol. 1/1, https://doi.org/10.1038/s41746-018-0049-x.

[61] Baker, R. (2016), « Stupid Tutoring Systems, Intelligent Humans », International Journal of Artificial Intelligence in Education, vol. 26/2, pp. 600-614, https://doi.org/10.1007/s40593-016-0105-0.

[34] Bauminger, N., C. Shulman et G. Agam (2004), « The Link Between Perceptions of Self and of Social Relationships in High-Functioning Children with Autism », Journal of Developmental and Physical Disabilities, vol. 16/2, pp. 193-214, https://doi.org/10.1023/b:jodd.0000026616.24896.c8.

[57] Benton, L. et H. Johnson (2015), « Widening participation in technology design: A review of the involvement of children with special educational needs and disabilities », International Journal of Child-Computer Interaction, vol. 3-4, pp. 23-40, https://doi.org/10.1016/j.ijcci.2015.07.001.

[47] Berton, R. et al. (2020), « A Chrome extension to help people with dyslexia », Proceedings of the International Conference on Advanced Visual Interfaces, https://doi.org/10.1145/3399715.3399843.

[46] Biotteau, M. et al. (2019), « <p>Developmental coordination disorder and dysgraphia: signs and symptoms, diagnosis, and rehabilitation</p> », Neuropsychiatric Disease and Treatment, vol. Volume 15, pp. 1873-1885, https://doi.org/10.2147/ndt.s120514.

[63] Brewer, R. et al. (2016), « Can Neurotypical Individuals Read Autistic Facial Expressions? Atypical Production of Emotional Facial Expressions in Autism Spectrum Disorders », Autism Research, vol. 9/2, pp. 262-271, https://doi.org/10.1002/aur.1508.

[32] Cappadocia, M., J. Weiss et D. Pepler (2012), « Bullying Experiences Among Children and Youth with Autism Spectrum Disorders », Journal of Autism and Developmental Disorders, vol. 42/2, pp. 266-277, https://doi.org/10.1007/s10803-011-1241-x.

[31] Chamberlain, B., C. Kasari et E. Rotheram-Fuller (2007), « Involvement or Isolation? The Social Networks of Children with Autism in Regular Classrooms », Journal of Autism and Developmental Disorders, vol. 37/2, pp. 230-242, https://doi.org/10.1007/s10803-006-0164-4.

[1] Chelkowski, L., Z. Yan et K. Asaro-Saddler (2019), « The use of mobile devices with students with disabilities: a literature review », Preventing School Failure: Alternative Education for Children and Youth, vol. 63/3, pp. 277-295, https://doi.org/10.1080/1045988x.2019.1591336.

[4] Cheng, S. et C. Lai (2020), « Facilitating learning for students with special needs: a review of technology-supported special education studies », Journal of Computers in Education, vol. 7/2, pp. 131-153, https://doi.org/10.1007/s40692-019-00150-8.

[7] Chen, L., P. Chen et Z. Lin (2020), « Artificial Intelligence in Education: A Review », IEEE Access, vol. 8, pp. 75264-75278, https://doi.org/10.1109/access.2020.2988510.

[26] Cibrian, F. et al. (2020), « Supporting Self-Regulation of Children with ADHD Using Wearables », Proceedings of the 2020 CHI Conference on Human Factors in Computing Systems, https://doi.org/10.1145/3313831.3376837.

[25] Doan, M. et al. (2020), « CoolCraig: A Smart Watch/Phone Application Supporting Co-Regulation of Children with ADHD », Extended Abstracts of the 2020 CHI Conference on Human Factors in Computing Systems, https://doi.org/10.1145/3334480.3382991.

[5] Erdem, R. (2017), « Students with special educational needs and assistive technologies: A literature review. », Turkish Online Journal of Educational Technology-TOJET, vol. 16/1, pp. 128–146.

[50] Erfurt, G. et al. (2019), « Hands-On Math », Extended Abstracts of the 2019 CHI Conference on Human Factors in Computing Systems, https://doi.org/10.1145/3290607.3313012.

[49] Fan, M. et al. (2017), « Why Tangibility Matters », Proceedings of the 2017 CHI Conference on Human Factors in Computing Systems, https://doi.org/10.1145/3025453.3026048.

[38] Frauenberger, C. et al. (2013), « Conversing through and about technologies: Design critique as an opportunity to engage children with autism and broaden research(er) perspectives », International Journal of Child-Computer Interaction, vol. 1/2, pp. 38-49, https://doi.org/10.1016/j.ijcci.2013.02.001.

[37] Frauenberger, C., J. Good et W. Keay-Bright (2011), « Designing technology for children with special needs: bridging perspectives through participatory design », CoDesign, vol. 7/1, pp. 1-28, https://doi.org/10.1080/15710882.2011.587013.

[42] Gelsomini, M. et al. (2019), « Magika, a Multisensory Environment for Play, Education and Inclusion », Extended Abstracts of the 2019 CHI Conference on Human Factors in Computing Systems, https://doi.org/10.1145/3290607.3312753.

[54] Gorlewicz, J. et al. (2018), « The Graphical Access Challenge for People with Visual Impairments: Positions and Pathways Forward », dans Interactive Multimedia - Multimedia Production and Digital Storytelling, IntechOpen, https://doi.org/10.5772/intechopen.82289.

[56] Gorlewicz, J. et al. (2020), « Design Guidelines and Recommendations for Multimodal, Touchscreen-based Graphics », ACM Transactions on Accessible Computing, vol. 13/3, pp. 1-30, https://doi.org/10.1145/3403933.

[60] Hahn, M., C. Mueller et J. Gorlewicz (2019), « The Comprehension of STEM Graphics via a Multisensory Tablet Electronic Device by Students with Visual Impairments », Journal of Visual Impairment & Blindness, vol. 113/5, pp. 404-418, https://doi.org/10.1177/0145482x19876463.

[53] Holloway, L. et al. (2020), « Non-visual access to graphical information on COVID-19 », The 22nd International ACM SIGACCESS Conference on Computers and Accessibility, https://doi.org/10.1145/3373625.3418015.

[12] Houtrow, A. et al. (2014), « Changing Trends of Childhood Disability, 2001-2011 », PEDIATRICS, vol. 134/3, pp. 530-538, https://doi.org/10.1542/peds.2014-0594.

[9] Kazimzade, G., Y. Patzer et N. Pinkwart (2019), « Artificial Intelligence in Education Meets Inclusive Educational Technology—The Technical State-of-the-Art and Possible Directions », dans Artificial Intelligence and Inclusive Education, Perspectives on Rethinking and Reforming Education, Springer Singapore, Singapore, https://doi.org/10.1007/978-981-13-8161-4_4.

[8] Kulik, J. et J. Fletcher (2016), « Effectiveness of Intelligent Tutoring Systems », Review of Educational Research, vol. 86/1, pp. 42-78, https://doi.org/10.3102/0034654315581420.

[29] Kuo, M. et al. (2013), « Friendship characteristics and activity patterns of adolescents with an autism spectrum disorder. », Autism, vol. 17/4, pp. 481–500, https://doi.org/10.1177/1362361311416380.

[30] Locke, J. et al. (2010), « Loneliness, friendship quality and the social networks of adolescents with high-functioning autism in an inclusive school setting », Journal of Research in Special Educational Needs, vol. 10/2, pp. 74-81, https://doi.org/10.1111/j.1471-3802.2010.01148.x.

[18] Marks, D. (1997), « Models of disability », Disability and Rehabilitation, vol. 19/3, pp. 85-91, https://doi.org/10.3109/09638289709166831.

[3] McLeskey, J. et al. (2017), High-leverage practices in special education., Arlington, VA: Council for Exceptional Children & CEEDAR Center.

[51] Metatla, O. (2017), « Uncovering Challenges and Opportunities of Including Children with Visual Impairments in Mainstream Schools », https://doi.org/10.14236/ewic/hci2017.102.

[55] Metatla, O. et al. (2018), « Inclusive Education Technologies », Extended Abstracts of the 2018 CHI Conference on Human Factors in Computing Systems, https://doi.org/10.1145/3170427.3170633.

[41] Mora-Guiard, J. et al. (2016), « Lands of Fog », Proceedings of the The 15th International Conference on Interaction Design and Children, https://doi.org/10.1145/2930674.2930695.

[35] Müller, E., A. Schuler et G. Yates (2008), « Social challenges and supports from the perspective of individuals with Asperger syndrome and other autism spectrum disabilities », Autism, vol. 12/2, pp. 173-190, https://doi.org/10.1177/1362361307086664.

[17] National Autistic Society (2016), he autism employment gap: Too Much Information in the workplace., https://www.basw.co.uk/resources/autism-employment-gap-too-much-information-workplace.

[28] National Autistic Society (2016), What is autism?, https://www.autism.org.uk/advice-and-guidance/what-is-autism (consulté le 29 juillet 2020).

[11] OECD (2000), Inclusive Education at Work: Students with Disabilities in Mainstream Schools, OECD Publishing, Paris, https://doi.org/10.1787/9789264180383-en.

[2] Ok, M. et W. Kim (2017), « Use of iPads and iPods for Academic Performance and Engagement of PreK–12 Students with Disabilities: A Research Synthesis », Exceptionality, vol. 25/1, pp. 54-75, https://doi.org/10.1080/09362835.2016.1196446.

[27] Porayska-Pomsta, K. et al. (2018), « Blending Human and Artificial Intelligence to Support Autistic Children’s Social Communication Skills », ACM Transactions on Computer-Human Interaction, vol. 25/6, pp. 1-35, https://doi.org/10.1145/3271484.

[59] Porayska-Pomsta, K. et al. (2013), « Building an Intelligent, Authorable Serious Game for Autistic Children and Their Carers », dans Lecture Notes in Computer Science, Advances in Computer Entertainment, Springer International Publishing, Cham, https://doi.org/10.1007/978-3-319-03161-3_34.

[36] Prizant, B. et al. (2006), The SCERTS model: A comprehensive educational approach for children with autism spectrum disorders. Vol. 1., Paul H Brookes Publishing.

[48] Rello, L. et al. (2016), « Dytective: Diagnosing Risk of Dyslexia with a Game », Proceedings of the 10th EAI International Conference on Pervasive Computing Technologies for Healthcare, https://doi.org/10.4108/eai.16-5-2016.2263338.

[22] Rumney, H. et K. MacMahon (2017), « Do social skills interventions positively influence mood in children and young people with autism? A systematic review », Mental Health & Prevention, vol. 5, pp. 12-20, https://doi.org/10.1016/j.mhp.2016.12.001.

[19] Sayce, L. (1998), « Stigma, discrimination and social exclusion: What’s in a word? », Journal of Mental Health, vol. 7/4, pp. 331-343, https://doi.org/10.1080/09638239817932.

[62] Serholt, S. (2019), « Interactions with an Empathic Robot Tutor in Education: Students’ Perceptions Three Years Later », dans Artificial Intelligence and Inclusive Education, Perspectives on Rethinking and Reforming Education, Springer Singapore, Singapore, https://doi.org/10.1007/978-981-13-8161-4_5.

[52] Shilkrot, R. et al. (2015), « FingerReader », Proceedings of the 33rd Annual ACM Conference on Human Factors in Computing Systems, https://doi.org/10.1145/2702123.2702421.

[20] Singer, J. (1999), « Why can’t you be normal for once in your life? From a problem with no name to the emergence of a new category of difference. », Disability Discourse, pp. 59-70.

[23] Sonne, T. et M. Jensen (2016), « ChillFish: A Respiration Game for Children with ADHD », Proceedings of the TEI ’16: Tenth International Conference on Tangible, Embedded, and Embodied Interaction, https://doi.org/10.1145/2839462.2839480.

[24] Sonne, T. et M. Jensen (2016), « Evaluating the ChillFish Biofeedback Game with Children with ADHD », Proceedings of the The 15th International Conference on Interaction Design and Children, https://doi.org/10.1145/2930674.2935981.

[21] Spiel, K. et al. (2019), « Agency of Autistic Children in Technology Research—A Critical Literature Review », ACM Transactions on Computer-Human Interaction, vol. 26/6, pp. 1-40, https://doi.org/10.1145/3344919.

[16] UNESCO Institute for Statistics (2018), Education and disability: Analysis of data from 49 countries. Information Paper No. 49., http://uis.unesco.org/sites/default/files/documents/ip49-education-disability-2018-en.pdf.

[15] Volkmar, F. et J. McPartland (2014), « From Kanner to DSM-5: Autism as an Evolving Diagnostic Concept », Annual Review of Clinical Psychology, vol. 10/1, pp. 193-212, https://doi.org/10.1146/annurev-clinpsy-032813-153710.

[33] Whitehouse, A. et al. (2009), « Friendship, loneliness and depression in adolescents with Asperger’s Syndrome », Journal of Adolescence, vol. 32/2, pp. 309-322, https://doi.org/10.1016/j.adolescence.2008.03.004.

[10] World Health Organization (2011), World report on disability 2011, https://www.who.int/disabilities/world_report/2011/report.pdf.

[14] Zablotsky, B. et L. Black (2020), Prevalence of children aged 3–17 years with developmental disabilities, by urbanicity: United States, 2015–2018., Natl Health Stat Report. 2020 Feb;(139):1-7. PMID: 32510313., https://pubmed.ncbi.nlm.nih.gov/32510313/.

[13] Zablotsky, B. et al. (2019), « Prevalence and Trends of Developmental Disabilities among Children in the United States: 2009–2017 », Pediatrics, vol. 144/4, p. e20190811, https://doi.org/10.1542/peds.2019-0811.

[45] Zolna, K. et al. (2019), « The dynamics of handwriting improves the automated diagnosis of dysgraphia », https://arxiv.org/abs/1906.07576.

Mentions légales et droits

Ce document, ainsi que les données et cartes qu’il peut comprendre, sont sans préjudice du statut de tout territoire, de la souveraineté s’exerçant sur ce dernier, du tracé des frontières et limites internationales, et du nom de tout territoire, ville ou région. Des extraits de publications sont susceptibles de faire l'objet d'avertissements supplémentaires, qui sont inclus dans la version complète de la publication, disponible sous le lien fourni à cet effet.

© OCDE 2022

L’utilisation de ce contenu, qu’il soit numérique ou imprimé, est régie par les conditions d’utilisation suivantes : https://www.oecd.org/fr/conditionsdutilisation.