8. L’humain derrière la machine : compétences et perceptions quant à l’avenir de l’intelligence artificielle

Dans le monde actuel, les données et les informations sont au cœur de nombreux échanges sociaux, activités économiques et progrès technologiques. La dépendance croissante à l’égard de l’analyse des données et de l’analyse et de la diffusion d’informations aux fins de décisions d’ordre économique et social induite par le développement et l’application de l’IA, une catégorie de modèles qui établissent des prédictions statistiques en identifiant des modèles dans les données existantes, a des répercussions notables sur les individus et les sociétés.

Étant donné l’influence déterminante de l’IA sur l’utilisation de l’information et le processus de décision dans les économies et les sociétés modernes, il est indispensable de bien appréhender le facteur humain à l’origine de ses progrès. L’évolution constante des systèmes d’IA crée des compétences diverses dont les travailleurs spécialisés ont besoin pour mettre au point, adapter et gérer les applications liées à cette technologie. Comme le degré de pénétration de l’IA diffère selon les pays, la demande de spécialistes et de compétences spécifiques dans ce domaine peut également varier. Un examen approfondi des travaux portant sur les compétences requises pour la conception, l’adaptation et la maintenance des systèmes d’IA et sur la manière dont la demande de spécialistes dotés de ces compétences varie selon les pays, les secteurs et les professions est proposé dans le document de travail technique Borgonovi et al., élaboré dans le cadre de la préparation du présent rapport (2023[1]). Les lecteurs qui s’intéressent à cet ensemble détaillé d’analyses et d’indicateurs et à la méthodologie sous-jacente peuvent le consulter.

L’apparition de modèles d’IA générative n’a fait que renforcer les capacités des systèmes d’IA, ce qui pourrait avoir des conséquences considérables pour les marchés du travail et les sociétés en général. L’IA pourrait par exemple automatiser des tâches auparavant effectuées par des humains, et notamment obtenir de meilleurs résultats que les travailleurs actuels dans des opérations qui reposent sur l’identification de modèles dans de grandes infrastructures de données, entraînant ainsi des suppressions d’emplois dans certains secteurs. Selon des indices préliminaires, les applications génératives de l’IA pourraient être positivement corrélées à une augmentation du rendement et de la productivité des travailleurs (OCDE, 2023[2]). Elles pourraient également améliorer la qualité de la vie en perfectionnant par exemple les diagnostics médicaux, et accroître l’efficacité et la productivité en automatisant les tâches répétitives, ce qui, toutefois, risque aussi d’accentuer les inégalités existantes.

Ces dernières décennies, les systèmes d’enseignement et de formation ont évolué de manière à permettre aux individus d’effectuer des tâches non répétitives. Cette transformation a été induite par les vagues antérieures de progrès technologiques, qui ont fait valoir l’importance de la résolution de problèmes, parallèlement à la technologie, en milieu professionnel (Autor, Levy et Murnane, 2003[3] ; Ikenaga et Kambayashi, 2016[4] ; Spitz‐Oener, 2006[5]). Or, contrairement aux avancées technologiques précédentes, l’IA est une technologie généraliste capable de résoudre un large éventail de problèmes inédits, ce qui crée de nouvelles exigences pour les systèmes d’enseignement et de formation (Brynjolfsson, Rock et Syverson, 2017[6]). L’avènement des systèmes d’IA pourrait modifier considérablement la demande future de compétences dans la mesure où la capacité des algorithmes et des machines à exécuter avec fiabilité des tâches non répétitives (Georgieff et Hyee, 2021[7]) et à obtenir des résultats équivalents ou supérieurs à ceux des humains dans certains domaines, comme les sciences et la lecture, va croissant (OCDE, 2023[8] ; 2023[9]). D’une part, la technologie peut rendre l’humain superflu pour l’exécution de certaines tâches. De l’autre, elle peut compléter l’humain, ce qui exige que les travailleurs apprennent à gérer efficacement les nouvelles technologies (Arntz, Gregory et Zierahn, 2016[10] ; Georgieff et Hyee, 2021[7]) du fait que certaines tâches, mais pas toutes, seront touchées par l’automatisation (Bessen, 2016[11] ; Lassébie et Quintini, 2022[12]). L’incidence de l’IA sur les perspectives professionnelles et la qualité de l’emploi des travailleurs sera également fonction de leur métier. En particulier, comme l’IA est une technologie prédictive dans certaines professions, comme celles de l’encadrement, où les décisions se fondent sur le jugement, mais aussi sur des prévisions, son adoption pourrait imposer aux salariés d’améliorer leurs compétences complémentaires, comme celles concernant les décisions en matière de gestion et celles liées à la gestion des risques et à l’éthique (Agrawal, Gans et Goldfarb, 2022[13] ; OCDE, 2023[2]).

Bon nombre des tensions sociales et politiques actuelles résultant de l’automation des tâches auparavant effectuées par des humains sur le marché du travail sont liées aux questions de savoir si les technologies numériques viendront remplacer ou compléter le travail humain, si elles entraîneront une amélioration ou une dégradation de la situation de l’emploi et, à terme, si elles seront associées à une augmentation ou une diminution des débouchés sur le marché du travail. Outre les retombées directes de l’IA et des technologies numériques sur la productivité et la croissance, il est indispensable, pour répondre à ces questions, de se faire une idée exacte des tâches que diverses technologies peuvent exécuter et des compétences que les humains doivent acquérir pour exploiter efficacement les avantages qu’offrent les avancées technologiques (OCDE, 2021[14] ; Violante, 2008[15] ; OCDE, 2023[16]).

Le présent chapitre met en lumière l’élément humain à l’origine des progrès en matière de développement et d’application de l’IA en analysant les compétences exigées des personnes intervenant dans ces domaines dans 14 pays de l’OCDE - Allemagne, Australie, Autriche, Belgique, Canada, Espagne, États-Unis, France, Italie, Nouvelle-Zélande, Pays-Bas, Royaume-Uni, Suède et Suisse - entre 2019 et 2022. À partir d’informations tirées d’offres d’emploi publiées en ligne par des employeurs en quête de spécialistes de l’IA, il examine les différences concernant la demande de professionnels - c’est-à-dire des travailleurs possédant les compétences nécessaires pour mettre au point, adapter et entretenir des systèmes d’IA - dans différents secteurs, ainsi que l’éventail des compétences exigées d’eux en général, et par les grands « employeurs dans le domaine de l’IA » en particulier. Il évalue également dans quelle mesure les offres d’emploi destinées aux travailleurs qualifiés dans ce domaine mentionnent les aspects liés à l’éthique et à l’utilisation responsable de l’IA, aspects dont l’importance va croissant compte tenu des progrès réalisés dans l’adoption et la mise en service de cette technologie. Pour les besoins de la présente édition des Perspectives sur les compétences, on entend par « compétences en IA » les compétences nécessaires pour mettre au point, entretenir et adapter des systèmes d’IA et non l’éventail plus large de compétences requises pour travailler avec l’IA. Le chapitre examine en outre certains des comportements, perceptions et dispositions susceptibles d’influencer la réaction du grand public à l’adoption de l’IA et de favoriser l’intégration des systèmes d’IA sur les marchés du travail et dans les sociétés.

Les systèmes fondés sur l’IA peuvent traiter de gros volumes de données, repérer des modèles et établir des prévisions plus rapidement et plus précisément que les humains, ce qui rehausse l’efficacité et la productivité dans différents secteurs. De surcroît, comme ils peuvent analyser de grandes quantités de données en peu de temps et mettre en évidence des schémas que l’humain ne saurait détecter, ils sont en mesure de fournir des informations utiles à l’appui des processus de décision dans des environnements caractérisés par de grandes infrastructures de données. Ce pourrait être le cas dans des domaines comme la santé, la finance et la recherche scientifique, où l’IA peut aider à diagnostiquer des maladies, à déceler des créneaux d’investissement ou à accélérer la découverte de nouveaux médicaments. Enfin, l’IA pourrait apporter des informations personnalisées aux individus en fonction de leurs besoins et de leurs préférences.

En 2021, dans les pays de l’OCDE, 35 % des adultes en moyenne ont déclaré craindre que l’intelligence artificielle n’ait au cours des deux prochaines décennies un effet « essentiellement préjudiciable », 42 % pensent qu’elle sera « essentiellement utile », les autres n’ayant pas d’opinion, refusant de répondre ou estimant que l’IA ne sera ni utile, ni préjudiciable (Graphique 8.1). Les perceptions de l’IA varient cependant considérablement selon les pays. Au Portugal, par exemple, plus de 50 % des personnes interrogées craignaient que l’IA n’ait des conséquences essentiellement préjudiciables sur l’humain au cours des 20 prochaines années, ce qui n’était le cas que de 20 % d’entre elles en Corée, au Japon et en Islande. Dans la même veine, en Corée, en Finlande et au Japon, plus de 60 % des répondants estimaient que l’IA sera essentiellement utile à l’humain ; au Chili, en Croatie, au Portugal et en Colombie, seuls 30 % d’entre eux partageaient cet avis. Dans les pays de l’OCDE, 18 % des adultes ont déclaré ne pas avoir d’opinion sur l’incidence probable de l’IA ; en Islande, c’était le cas de pas moins de 35 % d’entre eux. En Corée et en Italie, en revanche, seuls 9 % des adultes se sont dits « sans opinion ».

Si l’on tient compte uniquement des personnes exprimant une opinion quant à l’incidence probable de l’IA sur l’humain au cours des deux prochaines décennies, la proportion de celles qui estiment que l’IA va être essentiellement utile est en moyenne, dans les pays de l’OCDE, supérieure de 7 points de pourcentage à celle des personnes qui craignent qu’elle ne soit essentiellement préjudiciable (Graphique 8.2). Ce chiffre semble indiquer que, dans l’ensemble, les populations de ces pays comptaient en 2021 plus d’optimistes que de pessimistes à cet égard. En même temps, les pourcentages de pessimistes et d’optimistes parmi les populations varient considérablement d’un pays à l’autre. Au Portugal, par exemple, on observe un écart de 25 points entre la proportion d’adultes estimant que l’IA serait essentiellement préjudiciable et celle de ceux qui pensent qu’elle sera essentiellement utile à l’humain au cours des deux prochaines décennies. De même, cet écart était de 23 points en Colombie et de 21 points au Chili. En Corée, en revanche, on constate un écart de 50 points entre le pourcentage d’adultes estimant que l’IA sera essentiellement utile et celui de ceux qui pensent qu’elle sera essentiellement préjudiciable. Cet écart s’établit à 41 points en Finlande et à 47 points au Japon.

Les perceptions des conséquences à long terme de l’IA sur les sociétés diffèrent selon les profils socioéconomiques des personnes et de leur expérience de la discrimination. En particulier, les femmes, les personnes non diplômées de l’enseignement supérieur et celles qui ont été confrontées à des discriminations en raison de la couleur de leur peau, de leur religion, de leur nationalité ou groupe ethnique, de leur genre ou de leur handicap sont plus susceptibles de déclarer craindre des effets néfastes de l’IA à long terme. À titre d’exemple, en 2021, dans les pays de l’OCDE, 32 % des hommes mais 38 % des femmes en moyenne ont dit craindre que ces effets ne soient essentiellement préjudiciables, alors que 49 % et 36 %, respectivement, estimaient qu’ils seraient essentiellement utiles (Graphique 8.3). De même, 28 % des diplômés de l’enseignement supérieur et 37 % des personnes non diplômées de l’enseignement supérieur craignaient des effets essentiellement préjudiciables à long terme, tandis que 55 % des premiers et 39 % des secondes les estimaient principalement utiles. Enfin, alors qu’un pourcentage équivalent de personnes ayant été victimes de discriminations et de celles qui n’en ont pas connu prévoit des conséquences favorables à long terme, 32 % des premières et 27 % des secondes en attendent des effets dommageables.

Les données concernant les populations en général se rapportent aux opinions quant à l’incidence globale attendue de l’IA sur les citoyens. Selon des travaux récents, les employés des entreprises manufacturières et financières affichent des degrés d’optimisme plus élevés en ce qui concerne l’influence de l’IA sur le marché du travail que ceux exprimés par le grand public quant à son incidence globale : 19 % des salariés du secteur financier et 14 % de ceux du secteur manufacturier se sont déclarés très ou extrêmement inquiets du risque de perte d’emploi au cours des dix prochaines années, tandis que, respectivement, 46 % et 50 % d’entre eux n’étaient pas inquiets du tout (Lane, Williams et Broecke, 2023[18]). Il convient de noter que l’enquête a été réalisée avant l’apparition de l’IA générative et que les avis ont peut-être évolué depuis, tant en ce qui concerne l’incidence globale de l’IA que ses répercussions en milieu professionnel. De fait, une enquête menée en août 2023 aux États-Unis a indiqué que plus de deux tiers des adultes déclarent craindre que l’IA ne supprime des travailleurs, un tiers des répondants environ se disant très inquiets (American Federation of Labor and Congress of Industrial Organizations (AFL-CIO), 2023[19]).

Le débat relatif aux conséquences de l’essor et de l’adoption de l’IA considère généralement les machines et les humains comme des entités distinctes et antagonistes, même si les systèmes d’IA sont créés, déployés et utilisés par des humains et exécutent des tâches guidées par des décisions humaines. Le manque d’interprétabilité des résultats des systèmes d’IA, par exemple, n’est pas dû au fait que ces systèmes acquièrent des capacités de décision ou un libre arbitre. Il tient plutôt à la capacité d’information limitée de la cognition humaine au regard du niveau de complexité des étapes et des processus que les systèmes d’IA suivent pour produire des résultats. Cette complexité résulte de l’interaction entre les algorithmes sur lesquels les systèmes d’IA sont fondés et le volume de données utilisées par les systèmes pour produire des prévisions. Les grands modèles de langage à la base de systèmes d’IA aujourd’hui bien connus, comme ChatGPT, ont été mis au point par des humains et ne sont utiles que lorsqu’ils sont utilisés par des humains pour résoudre les questions et les problèmes auxquels ils sont confrontés. La différence, lorsque l’on a recours à l’IA, est que la prise de décision est décalée dans le temps et dans l’espace : les décisions concernant les interventions des systèmes d’IA ne sont pas prises au moment et à l’endroit où ces systèmes doivent résoudre un problème, mais au moment et à l’endroit où les développeurs en définissent les paramètres.

Comme les systèmes d’IA sont produits par des humains, il faut d’abord, pour mesurer les capacités et le potentiel que cette technologie présente pour les sociétés et les marchés du travail, mieux cerner le rôle que les humains jouent dans la création ou l’adaptation de ces systèmes aux besoins spécifiques des différents utilisateurs finaux. Ce sont en effet les spécialistes de l’IA qui décident de la façon dont les systèmes d’IA recueillent, stockent et utilisent les données pour établir diverses prévisions, depuis la détection de cancers (Bi et al., 2019[20]) jusqu’à la production d'une traduction instantanée entre différentes langues (Borgonovi, Hervé et Seitz, 2023[21]). Or, on en sait peu sur la demande de travailleurs dotés des compétences nécessaires pour mettre au point et adapter des systèmes d’IA dans les différents pays, sur son évolution, passée et actuelle, et sur ses éventuelles variations selon les secteurs et les professions.

Par ailleurs, l’étude des éventuelles différences entre les compétences requises par les divers employeurs utilisateurs de l’IA permettrait de mettre au jour les facteurs structurels qui favorisent les disparités en matière de diffusion des technologies, de productivité et de croissance économique. Des données récentes ont de fait mis en évidence des écarts de productivité grandissants entre les entreprises les plus performantes et les autres (Andrews, Criscuolo et Gal, 2016[22]), écarts dus à un ralentissement de la diffusion des technologies. Les compétences jouent un rôle essentiel dans les processus de diffusion, surtout dans les phases actuelles de la transformation numérique. Des travaux récents de l’OCDE ont examiné les caractéristiques des entreprises qui adoptent l’IA (Calvino et al., 2022[23] ; Dernis et al., 2023[24]) et les liens entre le recours à l’IA et la productivité (Calvino et Fontanelli, 2023[25]). Ces études ont mis en évidence une hétérogénéité substantielle due à des facteurs divers, comme la taille, l’âge et le secteur d’activité de l'entreprise. Point important, elles ont également souligné le rôle crucial des actifs complémentaires, en particulier les compétences, tant pour l’adoption de l’IA que pour les gains de productivité qu’en dégagent ses utilisateurs. Dans ce contexte, la mesure précise des compétences spécifiques souhaitées par les différents types d’employeurs dans le domaine de l’IA permettrait de mieux comprendre les fondements sur lesquels repose leur performance. Ces informations pourraient éclairer les politiques visant à favoriser une transformation numérique inclusive.

Les publications existantes sur la main d’œuvre de l’IA et ses acteurs sont peu nombreuses et se fondent essentiellement sur des données tirées d’offres d’emplois en ligne. Cette situation tient à l’absence, dans les statistiques officielles sur l’emploi, de catégories spécifiques permettant de recenser précisément le nombre de travailleurs associés à la mise au point et à l’utilisation de systèmes et d’outils d'IA. Bien que les estimations varient (Acemoglu et al., 2022[26] ; Alekseeva et al., 2021[27] ; Green et Lamby, 2023[28] ; Samek, Squicciarini et Cammeraat, 2021[29]), toutes indiquent que les personnes actives dans ce domaine à l’échelle mondiale sont peu nombreuses.

Des travaux précédemment réalisés pour cerner la demande de travailleurs susceptibles de faire progresser le développement et l’utilisation de systèmes d’IA ont principalement porté sur les pays anglophones et ont exploité différents algorithmes et des mots-clés liés à l’IA pour repérer les compétences et les emplois associés à cette technologie dans les offres d’emploi en ligne (Alekseeva et al., 2020[30] ; Babina et al., 2020[31] ; Manca, 2023[32] ; Samek, Squicciarini et Cammeraat, 2021[29] ; Squicciarini et Nachtigall, 2021[33]). Plus récemment, Green et Lamby (2023[28]) ont élargi le champ des études et estimé la taille et les caractéristiques de la main d’œuvre du secteur de l’IA dans les pays de l’OCDE. Ils ont notamment mis en lumière le manque de diversité actuel de cette main d'œuvre, aujourd’hui essentiellement constituée d’hommes très qualifiés.

Le Graphique 8.4 illustre l’évolution du pourcentage d’offres d’emploi en ligne exigeant des compétences en IA entre 2019 et 2022. Globalement, dans les pays de l’échantillon, cette proportion a augmenté, passant de 0.30 % en 2019 à 0.40 % en 2022 [ces estimations correspondent à celles d’autres études sur ce thème, comme Green et Lamby (2023[28])]. Ces résultats représentent les évolutions observées jusqu’en 2022, avant l’introduction du chatbot génératif ChatGPT. Cela dit, il ressort de données en provenance des États-Unis que malgré une très forte croissance de l’IA générative entre décembre 2022 et septembre 2023, cette technologie ne représente encore qu’une faible part du marché global de l’IA. En 2022, 519 offres d’emploi demandant des compétences dans ce domaine ont été publiées. Entre décembre 2022 et septembre 2023, on en a recensé10 113 aux États-Unis, soit une hausse de 1.848 %. Elles ne représentent toutefois que 0.026 % des offres d’emploi en IA publiées au cours de cette période (Lightcast, 2023[34]).

La proportion d’offres d’emploi en ligne qui demandent des compétences liées à l’IA et son évolution dans le temps varient dans les 14 pays de l’OCDE pour lesquels on dispose de données. En 2019, cette part se situait entre 0.07 % en Nouvelle-Zélande et 0.69 % aux États-Unis et, en 2022, entre 0.14 % en Belgique et 0.84 % aux États-Unis. Si les niveaux initiaux diffèrent d’un pays à l’autre, le pourcentage d’annonces exigeant des compétences en IA a augmenté dans la plupart d’entre eux entre 2019 et 2022, à l’exception de l’Autriche et de la Suède. Il n’a cependant pas dépassé 1 %, même au cours de l’année la plus récente analysée. Ces estimations ne permettent pas de connaître le stock réel de travailleurs dotés de compétences en IA sur le marché du travail, mais plutôt l’évolution de la demande de travailleurs qui seraient tenus d’utiliser de telles compétences dans le cadre de leur emploi. De ce fait, elles laissent entendre qu’un petit nombre de professions seulement exigent les compétences spécialisées nécessaires pour créer et exploiter des systèmes d’IA.

Au cours de la période examinée, la diffusion des compétences en IA, mesurée par l’accroissement du pourcentage des offres d’emploi en ligne qui en exigent, a été variable selon les pays. Dans les pays de l’échantillon, ce pourcentage a augmenté de 33 % en moyenne. Dans certains pays, cette hausse est nettement supérieure à la moyenne. En Espagne et en Nouvelle-Zélande, par exemple, pays où la proportion des offres d’emploi en ligne exigeant des compétences en IA était à l’origine relativement faible, celle-ci a respectivement augmenté de 155 % et de 150 % entre 2019 et 2022. L’Espagne s’inscrivait au 11e rang, sur 14 pays, en 2019, mais au cinquième en 2022. La Nouvelle-Zélande se classait au dernier rang en 2019, et à l’avant-dernier en 2022. L’augmentation observée a été plus modérée pour les pays qui affichaient au départ, en 2019, de plus hauts pourcentages d’annonces demandant des compétences en IA. Aux États-Unis, par exemple, pays où cette proportion est la plus élevée, la hausse a été de 22 % environ. Dans d’autres, comme l’Autriche et la Suède, aucune progression n’a été constatée.

Le pourcentage d’offres d’emploi en ligne qui exigent des compétences liées à l’IA et son évolution dans le temps varient également selon les secteurs de l’économie. En particulier, le pourcentage observé au cours de la période 2019-22 est nettement plus élevé dans les secteurs des «activités professionnelles », des « TIC » et de « l’industrie manufacturière » que dans d’autres, comme « l’hébergement et la restauration », « l’agriculture » »et les « transports », où pratiquement aucune offre d’emploi ne demandait de compétences en IA (Borgonovi et al., 2023[1]). De plus, les secteurs où le pourcentage des offres d’emploi liées à l’IA était très faible en 2019 n’ont guère connu d’évolution depuis. En revanche, des secteurs comme l’industrie manufacturière, les TIC et les activités professionnelles, qui affichaient déjà des pourcentages relativement élevés en 2019, ont enregistré des augmentations substantielles. Le Graphique 8.5 présente le pourcentage d’offres d’emploi en ligne exigeant des compétences en IA dans les secteurs des TIC, de l’industrie manufacturière et des activités professionnelles, les trois secteurs où la demande à cet égard est la plus forte dans tous les pays et pour toutes les années de la période 2019-22.

La proportion moyenne de postes exigeant des compétences en IA dans les pays anglophones et européens de l’échantillon était de 25 % pour les activités professionnelles, de 24 % pour les TIC et de 13 % pour l'industrie manufacturière. Le pays présentant la part la plus élevée de postes à pourvoir demandant de telles compétences dans le secteur des activités professionnelles était la Nouvelle-Zélande (50 %), suivie de la France (36 %) et des États-Unis (30 %). Dans le secteur des TIC, les plus forts pourcentages étaient observés en Espagne (45 %), en Belgique (40 %) et en Italie (40 %). Dans l’industrie manufacturière, les plus élevés étaient constatés en Allemagne (23 %), en Suède (21 %) et en Suisse (21 %). À l’intérieur des pays, la part relative des postes exigeant des compétences en IA peut varier sensiblement d’un secteur à l’autre, ce qui tient probablement aux différences de spécialisation.

Alors que les analyses précédentes portaient sur la répartition des postes exigeant des compétences en IA entre les pays, les secteurs et les professions, cette section s’intéresse au type de compétences recherchées par les employeurs lorsqu’ils souhaitent recruter des personnes qualifiées dans ce domaine. On a fait appel à une liste de 211 mots-clés prédéfinis pour classer les postes selon qu’ils requièrent ou non des compétences en IA. Pour décrire pertinemment les compétences demandées dans les offres d’emploi liées à l’IA, on les a ensuite regroupées en catégories cohérentes. Celles-ci ont été définies à partir de l’évaluation réalisée par des spécialistes du secteur des compétences courantes dans ces domaines ou dans la mise en œuvre de l’IA. Il s’agit des sept catégories suivantes : « Intelligence artificielle », « Conduite autonome », « Apprentissage automatique », « Traitement automatique des langues », « Réseaux neuronaux », « Robotique » et « Reconnaissance visuelle d’images » (le Tableau 8.1 présente quelques exemples des compétences figurant dans chacune des sept catégories).

Le Graphique 8.6 illustre l’évolution des offres d’emploi en ligne exigeant des compétences en IA, par catégorie de compétences, entre 2019 et 2022. En 2022, la catégorie la plus fréquemment mentionnée dans les annonces était l’apprentissage automatique, celui-ci étant requis dans plus de 0.25 % des cas. Parmi les annonces qui exigeaient des compétences en IA, soit 0.35 % environ du nombre total d’offres en ligne en 2022 (Graphique 8.4), près de 35 % exigeaient des compétences en apprentissage automatique (Graphique 8.7). La catégorie « intelligence artificielle » venait en deuxième place, 0.16 % des offres d’emploi environ demandant des compétences dans ce domaine en 2022, soit près de 21 % de celles qui exigeaient des compétences en IA (Graphique 8.7). Les autres catégories étaient réclamées dans moins de 0.1 % des annonces en ligne, la robotique et la conduite autonome étant les moins souvent demandées (0.04 % et 0.06 %). L’une des raisons en est sans doute que ces compétences sont étroitement liées à un secteur et un pays donnés.

Le Graphique 8.7 illustre la demande relative pour les trois premières des sept catégories de compétences mentionnées dans les annonces exigeant des qualifications en IA dans chaque pays entre 2019 et 2022. En moyenne, au cours de la période considérée et dans les 14 pays pour lesquels on dispose de données, 34 % des offres d’emploi en ligne requérant des compétences en IA en demandaient dans la catégorie « Apprentissage automatique », 21 % dans la catégorie « Intelligence artificielle », et 14 % dans la catégorie « Réseaux neuronaux ».

Dans tous les pays, la catégorie « Apprentissage automatique » s’inscrit au premier rang, dans une fourchette comprise entre 39 % aux États-Unis et 29 % en France. Dans 11 des 14 pays, les compétences liées à la catégorie « Intelligence artificielle » venaient en deuxième position, les pourcentages les plus élevés étant observés en Nouvelle-Zélande (27 %), les plus bas en Suède (14 %). En Suisse, en Allemagne et en France, la proportion des offres d’emploi liées à l’IA exigeant des compétences dans la catégorie « Intelligence artificielle » était inférieure à celle des offres d’emploi qui en demandaient de la catégorie « Réseaux neuronaux ». La France et l’Allemagne affichent cependant les plus forts pourcentages d’offres d’emploi demandant des compétences en « Réseaux neuronaux », soit 18 % et 17 % respectivement.

Il ressort de l’examen des catégories de compétences requises dans les offres d’emploi en ligne liées à l’IA que deux d’entre elles ont occupé une place dominante au cours de la période 2019-22 (Graphique 8.6) et dans les différents pays (Graphique 8.7) : l’apprentissage automatique et l’intelligence artificielle. Néanmoins, le Graphique 8.8 indique que si l’on considère d’autres catégories, la demande relative de compétences dans les catégories les moins demandées varie selon les pays. En particulier, alors que le Graphique 8.6 montrait que deux catégories affichaient en moyenne des parts relativement faibles par rapport aux autres dans les différents pays en 2022 (conduite autonome [0.05 %] et robotique [0.03 %]), on constate au Graphique 8.8 que la proportion des offres d’emploi exigeant des compétences en conduite autonome était comparativement élevée en France (19 % des offres d’emploi en ligne demandant des qualifications en IA) et en Suède (17 %). Ce pourcentage était très faible en Nouvelle-Zélande (3.7 % seulement). S’agissant de la « robotique », la demande était comparativement vigoureuse aux Pays-Bas (13 %), suivis de la Suède (9 %), la plus faible étant observée en Nouvelle-Zélande et en Espagne (1.5 %).

Les systèmes d’IA peuvent accompagner et améliorer le processus de décision et réaliser des tâches analytiques complexes mais ils soulèvent en parallèle des problèmes éthiques inédits. La Recommandation sur l’intelligence artificielle - première norme intergouvernementale sur ce thème - a été adoptée par le Conseil de l’OCDE réuni au niveau des Ministres le 22 mai 2019 (OCDE, 2019[36]). Elle vise à stimuler l’innovation et renforcer la confiance dans l’IA en promouvant une approche responsable au service d’une IA digne de confiance, tout en garantissant le respect des droits de l’homme et des valeurs démocratiques. La Recommandation, qui vient compléter les normes existantes de l’OCDE dans des domaines tels que la protection de la vie privée, la gestion du risque de sécurité numérique et la conduite responsable des entreprises, traite des questions propres à l’IA et a vocation à définir une norme susceptible d’être mise en œuvre et suffisamment souple pour résister à l’épreuve du temps, dans un domaine en rapide mutation. En juin 2019, à l’occasion du Sommet d’Osaka, les dirigeants du Groupe des Vingt (G20) ont accueilli les Principes du G20 sur l’IA, issus de la Recommandation de l’OCDE (OCDE, 2019[36]).

La Recommandation énonce cinq principes complémentaires fondés sur des valeurs, jetant les bases d’une approche responsable à l’appui d’une IA digne de confiance, et appelle les acteurs de l’IA à les promouvoir et les mettre en œuvre : 1) croissance inclusive, développement durable et bien-être ; 2) valeurs centrées sur l’humain et équité ; 3) transparence et explicabilité ; 4) robustesse, sûreté et sécurité ; et 5) responsabilité.

Outre des cadres réglementaires solides, la mise en œuvre des principes de l’OCDE relatifs à l’IA exige des développeurs et des utilisateurs de cette technologie qu’ils intègrent des considérations éthiques dans la conception, la mise au point, l'adaptation et l'utilisation finale des systèmes d'IA.

Malgré l’adoption de ces principes et les préoccupations croissantes quant à l’importance des risques éthiques associés au développement et à l’utilisation de l’IA, les employeurs potentiels ne mentionnent que rarement la prise de décision éthique dans les annonces de postes comportant des tâches de mise au point et d’adaptation de systèmes d’IA.

Le Graphique 8.9 présente le pourcentage des postes liés à l’IA annoncés en ligne comportant des tâches liées au développement et à l’utilisation de systèmes d’IA. Il s’intéresse en particulier à la présence de mots-clés associés à l’éthique de l’IA, l’IA digne de confiance, l’IA responsable ou l’IA éthique. Il apparaît que, dans la majorité des pays, moins de 1 % des annonces mentionnent ces mots-clés. Néanmoins, entre 2019 et 2022, le pourcentage d’annonces contenant des mots-clés liés à l’éthique de l’IA a fortement augmenté dans la plupart des pays.

Aux États-Unis, par exemple, seules 0.1 % des annonces de postes comportant des tâches liées au développement et à l’utilisation de systèmes d’IA mentionnaient de tels mots-clés en 2019. En 2022, ce chiffre atteignait 0.5 %. De même, en Allemagne, ce pourcentage est passé de moins de 0.05 % en 2019 à 0.4 % en 2022 ; au Royaume-Uni, il a progressé de 0.1 % environ à 0.4 %, et en Espagne, de moins de 0.1 % à 0.3 % au cours de la même période.

Cette section s’intéresse à un sous-ensemble d’employeurs en IA aux États-Unis, pays où la demande de compétences en IA dans les offres d’emploi en ligne est la plus forte parmi les pays pour lesquels on dispose de données. Elle examine plus précisément la demande de travailleurs qualifiés en IA chez les dix premiers employeurs de chaque secteur d’activité, qui ont été à l’origine de 43 % environ des offres d’emploi dans ce domaine (un peu moins de 315 000) aux États-Unis en 2022. Comme les analyses précédentes, celle-ci examine les écarts entre les secteurs, les professions et les qualifications s’agissant du nombre de postes à pourvoir qui exigent des compétences en IA. Elle prend toutefois en compte un autre critère, à savoir le type d’employeurs.

En particulier, elle compare les offres d’emploi liées à l’IA publiées en ligne par les dix principaux employeurs de personnes qualifiées dans ce domaine (ci-après, « principaux employeurs en IA ») à celles publiées par d’autres employeurs dans ce secteur (ci-après, « autres employeurs en IA »). Les dix principaux employeurs en IA sont les dix employeurs de chaque secteur d’activité qui ont publié la plus forte proportion d’offres d’emploi en ligne demandant les compétences nécessaires pour effectuer des tâches d’IA. Pour relativiser les écarts éventuels, les analyses s’étendent également aux offres d’emploi ne mentionnant aucune compétence liée à l’IA, c’est-à-dire ne recherchant aucune qualification dans ce domaine (ci-après « non-IA »), et couvrent donc les offres d’emploi émanant des principaux employeurs en IA, des autres employeurs en IA ou d’employeurs non-IA.

Les TIC, les services professionnels, l’industrie manufacturière, la finance et l’assurance figurent parmi les secteurs où le pourcentage d’offres d’emploi liées à l’IA publiées par les dix principaux employeurs dans ce domaine est le plus élevé aux États-Unis, comme le montre le Graphique 8.10. Le graphique indique que le pourcentage d’annonces exigeant des compétences en IA publiées par les principaux employeurs en IA, par rapport aux offres des autres employeurs en IA, est plus élevé dans les secteurs où la part globale des offres d’emploi liées à l’IA est comparativement faible. Ainsi, alors que 3 % environ des postes à pourvoir dans le secteur de l’information aux États-Unis requièrent des compétences en IA, seuls 46 % d’entre eux font l’objet d’offres publiées par les dix principaux employeurs dans ce domaine. Dans le secteur de l’agriculture, en revanche, 1.4 % environ des annonces demandent des compétences en IA, mais près de 90 % d’entre elles sont publiées par les dix principaux employeurs en IA.

Le Graphique 8.11 se penche sur les compétences techniques, socioémotionnelles et fondamentales requises par les différents types d’employeurs en IA aux États-Unis. Il met plus particulièrement en évidence le pourcentage d’offres d’emploi liées à l’IA publiées en ligne par les dix principaux employeurs et les autres entreprises d’IA dont le descriptif de poste mentionne soit une compétence technique (partie A), soit une compétence socioémotionnelle et fondamentale (partie B), en retenant les vingt compétences les plus couramment demandées dans l’ensemble des annonces publiées par les dix premiers employeurs en IA. Les profils de compétences demandés chez ces derniers et dans les autres entreprises actives dans ce domaine ne varient pas sensiblement, les langages de programmation représentant une grande partie des compétences techniques les plus demandées, en particulier Python. Viennent ensuite les compétences liées à l’informatique et à la science des données, et celles associées au service d’informatique en nuage largement utilisé d’Amazon Web Services (AWS)1.

Le pourcentage des principaux employeurs en IA exigeant des compétences liées à AWS, à l’informatique décisionnelle, à Microsoft Azure, à Apache Hadoop, à Java, au génie logiciel, à l’analyse des données et aux données massives est plus élevé que celui des autres entreprises IA. Comme on pouvait s’y attendre, aucune de ces compétences n’est particulièrement présente dans les offres d’emploi en ligne non liées à l’IA, c’est-à-dire celles qui ne demandent aucune compétence dans ce domaine.

La demande de compétences socioémotionnelles et fondamentales dans les deux types d’annonces est par contre plus comparable. Les compétences en communication, notamment, y sont très couramment mentionnées. En revanche, les annonces liées à l’IA réclament plus souvent que les autres des compétences en matière d’encadrement et de gestion, mais aussi d’innovation, de recherche, de résolution de problèmes et de mentorat, ce qui montre clairement que les travailleurs qualifiés en IA doivent posséder un large éventail de compétences techniques, socioémotionnelles et créatives. En fait, à l’exception du service à la clientèle et des compétences liées à la vente, les employeurs exigent plus souvent l’une ou l’autre des compétences socioémotionnelles et fondamentales présentées au Graphique 8.11 pour les postes liés à l’IA que pour les autres.

En particulier, les dix principaux employeurs en IA attachent relativement plus d’importance aux compétences en matière d’encadrement, de mentorat et de gestion - ainsi qu’en matière d’innovation et de résolution de problèmes - que les autres employeurs en IA. Ils réclament aussi plus souvent des qualifications dans les domaines du service à la clientèle, de la prévision, de l’exploitation, de la planification ou des mathématiques. On notera avec intérêt que si la demande pour différents types de compétences en communication est forte dans l’ensemble des offres d’emploi en ligne, les principaux employeurs en IA exigent plus souvent des compétences en communication interpersonnelle et orale.

La section qui précède décrit l’ensemble des compétences requises des travailleurs qui œuvrent au développement, à la maintenance et à la mise en œuvre des technologies d’IA. Or, l’incidence de l’IA sur les économies et les sociétés sera également fonction des compétences, des comportements et des dispositions des personnes généralement susceptibles d’utiliser des produits et technologies fondés sur l’IA. L’écrivain français François Gaston, duc de Lévis, estimait que c’est par la qualité de leurs questions, plutôt que de leurs réponses, que l’on devrait juger les individus (duc de Lévis, 1810[37]). Les systèmes d’IA générative réduisent le temps et les efforts nécessaires pour produire des résultats fondés sur les connaissances existantes, c'est-à-dire pour produire des réponses. Toutefois, la qualité des résultats ainsi produits est fonction de celle des invites que les humains définissent, des problèmes auxquels ils donnent priorité et de la manière dont ils les présentent. L’utilisation de ces résultats dépend en outre de l’interprétation qu’ils en donnent. Autrement dit, à court terme tout au moins, la réalisation du potentiel de l’IA générative dépendra de la capacité des individus à produire des invites de qualité - c’est-à-dire à poser de bonnes questions -, à évaluer la qualité des réponses et à les interpréter de manière à ce qu’elles puissent être appliquées à des problèmes et des situations réels. Enfin, l’utilisation responsable de l’IA suppose que les utilisateurs humains soient disposés à ne pas tenir compte des résultats produits par les systèmes d’IA et à opter pour une autre ligne de conduite.

Pour que les individus puissent décider de l’opportunité, du moment et de la façon d’utiliser les systèmes d’IA pour réaliser différentes tâches, ils doivent à l’évidence posséder les connaissances nécessaires pour en évaluer les résultats. Outre ces solides connaissances, ils doivent être convaincus de la supériorité de leur propre savoir et de leurs propres compétences sur ceux du système utilisé, condition sine qua non pour qu’ils assument la responsabilité des décisions relatives à l’utilisation des résultats de l’IA. Il leur faut pour cela un degré de confiance et un sentiment d’efficacité personnelle élevés quant à leurs capacités en général et à leur ligne de conduite privilégiée dans des contextes précis. Il faut également qu’ils soient disposés à commettre des erreurs lorsqu’ils choisissent de ne pas tenir compte d’informations fournies par les systèmes d’IA qui, a posteriori, auraient pu se révéler exactes. En parallèle, les dispositions et attitudes des structures managériales en entreprise devront également adopter de nouvelles pratiques en matière de responsabilité pour favoriser l’autonomisation des travailleurs dans leur utilisation de l'IA.

Certaines caractéristiques qui définissent les tâches dans lesquels les systèmes d’IA ne seront pas en mesure de remplacer les humains dans un avenir prévisible peuvent créer un paradoxe. Celui-ci découle de l’inconfort que ressentent de nombreux individus et organismes lorsqu’ils opèrent dans des situations où se situe leur avantage comparatif, autrement dit des situations pour lesquelles il existe peu d’informations préalables et qui sont déterminées par des nuances culturelles et contextuelles. Au lieu de voir dans ces situations incertaines des circonstances favorables, les individus les considèrent actuellement comme des menaces. Il ressort d’études psychologiques que, pour de nombreux individus, le coût lié à l’expérience de pertes est plus important que le bénéfice associé à celle de gains et que par conséquent, face à une perspective d’échec, ils sont plus susceptibles d’opter pour une démarche sous-optimale d’un « point de vue rationnel » afin d’éviter des pertes (Kahneman et Tversky, 1979[38]).

En statistique, le terme « risque » a trait à la probabilité qu'un événement se produise. Le risque fait donc référence au niveau d’incertitude connu que certains événements se produisent, et il est neutre ; autrement dit, il n’a pas de connotations positives ou négatives. Le Graphique 8.12 indique cependant que plus d’un adulte sur deux dans les pays de l’OCDE (à l’exception de la Lettonie) perçoit le terme « risque » comme dénotant un danger. Au Mexique, en Colombie, en Espagne et au Costa Rica, plus de 80 % d’entre eux estiment que le terme « risque » indique un danger ; en Croatie, en Slovénie, en Lituanie, en Bulgarie, en Allemagne, en Estonie, en Pologne, en Autriche, en Hongrie et en Grèce, ce pourcentage se situe entre 50 et 60 %.

La perception du mot « risque » comme étant associé à un danger varie selon les caractéristiques socioéconomiques. En particulier, dans les pays de l’OCDE, 64 % des hommes et 72 % des femmes en moyenne ont déclaré l’associer à un danger plutôt qu’à une chance, soit un écart de 8 points de pourcentage (Graphique 8.13). Cette perception y est également plus répandue dans les catégories à faible revenu que dans catégories à revenu élevé. Ainsi, parmi les 20 % les plus pauvres de la population de chaque pays, 70 % ont estimé que le mot « risque » est synonyme de danger, pourcentage qui s’établit à 65 % chez les 20 % les plus riches. Ces écarts de perception sont en revanche moins prononcés entre les différents niveaux d’instruction : en moyenne, 69 % des personnes non diplômées de l’enseignement supérieur ont déclaré que le mot « risque » indique un danger plutôt qu’une chance, contre 66 % des diplômés.

La peur de l’échec caractérise la tendance des individus à éviter de commettre des erreurs dans l’accomplissement d’une tâche ou d’une activité parce que l’échec est perçu comme honteux (Borgonovi et Han, 2020[40] ; McGregor et Elliot, 2005[41]). L’intensité de cette crainte est déterminée par le risque d’échec perçu (c’est-à-dire la difficulté de la tâche) et par les coûts associés à l’échec (qui peuvent comprendre l’occasion manquée de tirer profit d’une réussite, la stigmatisation et le jugement social, et d’autres possibles conséquences négatives (Lazarus, 1991[42] ; Warr, 2000[43]). La volonté d’éviter l’échec peut conduire les individus à limiter leurs choix et à prendre moins de risques que ne le leur permettraient leurs capacités. Les études montrent que la peur de l’échec est plus prononcée chez les femmes (McGregor et Elliot, 2005[41]) et que celles-ci sont plus susceptibles d’enregistrer des résultats négatifs lorsqu’elles le craignent (Wach et al., 2015[44]). Ces résultats concordent avec ceux de travaux indiquant que les femmes réagissent moins favorablement aux environnements compétitifs (Croson et Gneezy, 2009[45] ; Niederle et Vesterlund, 2010[46]), sont généralement plus frileuses à l’égard du risque (Fisk, 2018[47]) et, qu’à niveau de réussite équivalent, leur image d’elles-mêmes et leur sentiment d’efficacité personnelle sont inférieurs à ceux des hommes (Goldman et Penner, 2014[48]).

Dans la mesure où les entreprises qui suivent les avancées de l’IA et de la robotique demanderont aux humains d’effectuer un plus grand nombre de tâches comportant un degré d’incertitude élevé, leurs dirigeants devront définir des critères de réussite qui tiennent compte de l’incertitude inhérente aux résultats, indépendamment des efforts et des compétences des travailleurs. En parallèle, comme condition préalable à la réussite, les travailleurs devront acquérir une vision non stigmatisante de l’échec et de l’erreur et s’habituer à intervenir dans des opérations et des situations plus difficiles et moins prévisibles.

Le Graphique 8.14 montre qu’en moyenne, dans les pays de l’OCDE, 73 % des élèves de 15 ans déclarent que l’échec les fait douter de leurs capacités. Ce chiffre est de 87 % au Japon, de 84 % en République slovaque, de 83 % en Corée et de 82 % en Irlande et au Danemark. En revanche, il n’est que de 56 % aux Pays-Bas et en Autriche, et de 50 % en Allemagne.

Dans la droite ligne des données empiriques précédentes concernant les populations adultes, le Graphique 8.15 montre que les filles sont nettement plus susceptibles d’exprimer une crainte de l’échec que les garçons. Ainsi, en cas d’échec, dans les pays de l’OCDE, 67 % des garçons mais 77 % des filles, en moyenne, déclarent s’inquiéter de ce que les autres vont penser d’eux ; 65 % des garçons mais 81 % des fille disent craindre de ne pas avoir assez de capacités ; et 45 % des garçons mais 61 % des filles déclarent douter de leurs projets d’avenir. En revanche, aucun écart n’est observable sur ce plan entre les élèves ayant au moins un parent diplômé de l’enseignement supérieur et ceux qui n’en ont pas. Ainsi, en cas d’échec, en moyenne dans les pays de l’OCDE, 73 % des élèves âgés de 15 ans ayant un parent diplômé du supérieur et 72 % de ceux n’en ayant pas déclarent s’inquiéter de ce que les autres vont penser d’eux ; 73 % disent craindre de ne pas avoir assez de capacités ; et 54 % des premiers et 53 % des seconds déclarent douter de leurs projets d’avenir.

Les humains ont tendance à anthropomorphiser, c’est-à-dire à « attribuer » des caractéristiques humaines à des entités non humaines et à communiquer avec elles comme s’il s’agissait d’humains (Festerling et Siraj, 2021[50]). Or, la robotique et les systèmes d’IA, y compris les grands modèles de langage comme GPT4, doivent être reconnus pour ce qu’ils sont : des outils créés par des humains et qui, pour l’essentiel, combinent sous des formes complexes des travaux précédemment effectués par d’autres humains (Lanier, 2023[51]). Autrement dit, si les machines obtiennent d’excellents résultats en matière de synthèse et d’identification de modèles dans les travaux précédemment réalisés par des humains, elles sont des instruments d’aide à la décision humaine et n’ont pas encore un niveau d’autonomie propre.

Pour évaluer l’influence des politiques en matière de compétences sur le développement et la mise en œuvre d’une IA responsable et définir des mesures efficaces en conséquence, il convient de mieux appréhender : 1) la demande de travailleurs œuvrant à la mise au point et au déploiement de l’IA ; 2) les compétences qui leur sont demandées ; 3) les états d’esprit et dispositions qui déterminent les décisions humaines ; 4) les comportements qu’un déploiement à grande échelle de l’IA générative risque de modifier. Comme le montrent les résultats des enquêtes sur les espoirs et les inquiétudes des citoyens quant à l’incidence potentielle de l’IA sur leurs perspectives, il faut absolument veiller à ce que les travailleurs qualifiés participant au développement et au déploiement de l’IA soient non seulement dotés des compétences techniques requises pour leur travail, mais aussi en mesure de favoriser le développement de systèmes d'IA responsables et éthiques.

Les résultats présentés dans ce chapitre indiquent que, même après une forte augmentation de la demande de spécialistes munis de compétences en IA, les offres d’emploi en ligne liées à ce domaine ne représentent qu’un faible pourcentage de l’ensemble des postes proposés en ligne dans les 14 pays analysés entre 2019 et 2022. Le pourcentage le plus élevé a notamment été observé aux États-Unis en 2022, où les offres d’emploi liées à l’IA ont représenté 0.84 % de celles publiées en ligne. En moyenne, dans les pays de l’échantillon, le pourcentage des offres d’emploi en ligne exigeant des compétences en IA était de 0.30 % en 2019 et de 0.40 % en 2022. Le fait que seule une faible proportion des nouvelles offres en ligne s’adresse à des personnes participant au développement et au déploiement de l’IA, conjugué aux répercussions potentiellement considérables des systèmes d’IA, permet de penser qu’un nombre relativement restreint d’individus sont en mesure d’exercer une influence profonde sur l’économie mondiale et les sociétés humaines.

Certaines compétences - notamment celles liées à l’apprentissage automatique - semblent particulièrement demandées dans les offres d'emploi liées à l'IA. En effet, parmi les différents pays, entre 29 % (en France) et 39 % (aux États-Unis) de ces offres requièrent des compétences en matière d’apprentissage automatique. Celles associées à la conduite autonome et à la robotique semblent globalement moins demandées, ce qui peut s’expliquer par leur nature plus sectorielle. Elles varient aussi sensiblement selon les pays, ce qui tient peut-être à l’importance relative des différents secteurs dans les différents pays et à leur évolution probable, compte tenu des tendances propres à chaque secteur et des décisions d’investissement dans chacun d’eux.

Une série d’analyses a examiné les différences entre les compétences réclamées par diverses entreprises aux États-Unis, où le secteur de l’IA occupe une place comparativement importante depuis plus longtemps. Les résultats montrent que les premières entreprises du secteur font en général plus systématiquement appel à certaines compétences techniques et réclament plus souvent des compétences en matière d’encadrement et de gestion, ainsi qu’en matière d’innovation et de résolution de problèmes, ce qui témoigne de l’importance qu’elles attachent à ce que leurs employés possèdent un large éventail de compétences. Les décisions de recrutement des dix premières entreprises du secteur de l’IA sont peut-être un indicateur de la façon dont la demande de compétences évoluera dans l’ensemble de l’économie à mesure que d’autres entreprises adopteront cette technologie.

Malgré une prise de conscience croissante de l’importance des considérations éthiques dans le développement de l’IA, seule une minuscule minorité des entreprises offrant des postes qui exigent des compétences en IA mentionnaient l’éthique et l’IA responsable dans les annonces publiées en ligne. En 2022, 0.3 % seulement des annonces publiées au Canada demandaient des compétences en matière d’IA éthique, ce chiffre étant de 0.5 % au Royaume-Uni et de 0.4 % aux États-Unis. Il semblerait donc qu’en dépit des engagements fermes des pays et des intentions déclarées des entreprises de développement de l’IA, l’éthique de l’IA ne soit pas encore un critère de recrutement prioritaire. Ces considérations doivent figurer parmi les priorités, au même titre que le manque de diversité de la main-d’œuvre de l’IA et de ses conséquences pour les systèmes d’IA en développement.

Un dernier jeu d’analyses a mis en évidence les variations des attitudes des adultes et des jeunes à l’égard du risque et de l’échec selon les pays et les catégories socioéconomiques. Les comportements et les dispositions liés à la prise de décision en situation d’incertitude risquent fort de déterminer la façon dont l’IA sera adoptée par les citoyens et les entreprises partout dans le monde, leur capacité à adopter l’IA en tant qu’instrument pratique et d’aide à la décision autonome, et leur disposition à effectuer des tâches pour lesquelles les humains disposent d’un avantage comparatif par rapport aux systèmes d’IA, c’est-à-dire des situations pauvres en données et caractérisées par un fort degré d’incertitude. Les résultats montrent que d’importants pans de la population de l’OCDE ont des perceptions négatives du risque et de l’incertitude et redoutent l’échec, les femmes et les filles en particulier. Ces résultats sont préoccupants en ce qu’ils pourraient indiquer que les femmes seront moins disposées à effectuer des tâches que les outils d’IA exécutent mal et à passer outre les algorithmes d’IA dans leur processus de décision à mesure que la qualité des résultats de l’IA s’améliore et que l’adoption des systèmes d’IA se généralise. Il convient de les mettre en parallèle avec les résultats indiquant un manque de représentativité parmi les travailleurs de l’IA (Green et Lamby, 2023[28]) et avec les données présentées au chapitre 5 du présent rapport concernant l’excès de confiance supérieur des garçons. Ils doivent également être considérés en relation avec les perceptions sociétales selon lesquelles les garçons et les hommes sont plus susceptibles que les filles et les femmes de posséder des capacités exceptionnelles (Leslie et al., 2015[52] ; Zhao et al., 2022[53]) et le fait que ces perceptions permettent aux garçons et aux hommes de vivre l’échec comme un précurseur possible de la réussite plutôt que comme la preuve d’un éventuel (manque de) potentiel sous-jacent.

L’analyse de l’élément humain à l’origine des progrès de l’IA permet d’évaluer l’ampleur et la diversité de la demande d’emplois et de compétences dans ce domaine. Une analyse de cette nature faciliterait l’élaboration d’interventions visant à promouvoir la diffusion de l’IA dans l’ensemble de l’économie, notamment dans les entreprises et les secteurs qui n’ont pas encore pleinement tiré parti de son potentiel. L’adoption de l’IA englobe à la fois l’utilisation de services d’IA, comme ChatGPT ou Amazon (services largement utilisés dans les pays de l’OCDE), qui exploitent cette technologie, et l’intégration et la personnalisation concrètes d’algorithmes d’IA dans la production et la prestation de services, comme on le voit, par exemple, dans le développement d’une application de rencontre en ligne. Par ailleurs, ces analyses rappellent utilement que ce sont les humains qui guident les évolutions techniques liées à la diffusion et à l’adoption de l’IA et que, par conséquent, les évolutions de l’IA peuvent en dernier ressort être déterminées par des décisions humaines.

Références

[26] Acemoglu, D. et al. (2022), « Artificial intelligence and jobs: Evidence from online vacancies », Journal of Labor Economics, vol. 40/S1, pp. S293-S340, https://doi.org/10.1086/718327.

[13] Agrawal, A., J. Gans et A. Goldfarb (2022), Power and Prediction: The Disruptive Economics of Artificial Intelligence, Harvard Business Review Press.

[27] Alekseeva, L. et al. (2021), « The demand for AI skills in the labor market », Labour Economics, vol. 71, p. 102002, https://doi.org/10.1016/j.labeco.2021.102002.

[30] Alekseeva, L. et al. (2020), « AI adoption and firm performance: Management versus IT », SSRN Electronic Journal, https://doi.org/10.2139/ssrn.3677237.

[19] American Federation of Labor and Congress of Industrial Organizations (AFL-CIO) (2023), The State of Labor Unions Is Strong, https://aflcio.org/sites/default/files/2023-08/GBAO%20AFL-CIO%20Labor%20Day%20Poll%20Memo.pdf (consulté le 19 octobre 2023).

[22] Andrews, D., C. Criscuolo et P. Gal (2016), « The Best versus the Rest: The Global Productivity Slowdown, Divergence across Firms and the Role of Public Policy », OECD Productivity Working Papers, n° 5, Éditions OCDE, Paris, https://doi.org/10.1787/63629cc9-en.

[10] Arntz, M., T. Gregory et U. Zierahn (2016), « The Risk of Automation for Jobs in OECD Countries : A Comparative Analysis », Documents de travail de l’OCDE sur les questions sociales, l’emploi et les migrations, n° 189, Éditions OCDE, Paris, https://doi.org/10.1787/5jlz9h56dvq7-en.

[3] Autor, D., F. Levy et R. Murnane (2003), « The skill content of recent technological change: An empirical exploration », The Quarterly Journal of Economics, vol. 118/4, pp. 1279-1333, https://doi.org/10.1162/003355303322552801.

[31] Babina, T. et al. (2020), « Artificial intelligence, firm growth, and industry concentration », SSRN Electronic Journal, https://doi.org/10.2139/ssrn.3651052.

[11] Bessen, J. (2016), « How computer automation affects occupations: Technology, jobs, and skills », Boston University School of Law, Law and Economics Research Paper, vol. 15-49, https://scholarship.law.bu.edu/cgi/viewcontent.cgi?article=1811&context=faculty_scholarship.

[20] Bi, W. et al. (2019), « Artificial intelligence in cancer imaging: Clinical challenges and applications », CA: A Cancer Journal for Clinicians, https://doi.org/10.3322/caac.21552.

[1] Borgonovi, F. et al. (2023), « Emerging trends in AI skill demand across 14 OECD countries », OECD Artificial Intelligence Papers, n° 2, Éditions OCDE, Paris, https://doi.org/10.1787/7c691b9a-en.

[40] Borgonovi, F. et S. Han (2020), « Gender disparities in fear of failure among 15‐year‐old students: The role of gender inequality, the organisation of schooling and economic conditions », Journal of Adolescence, vol. 86/1, pp. 28-39, https://doi.org/10.1016/j.adolescence.2020.11.009.

[21] Borgonovi, F., J. Hervé et H. Seitz (2023), « Not lost in translation: The implications of machine translation technologies for language professionals and for broader society », Documents de travail de l’OCDE sur les questions sociales, l’emploi et les migrations, n° 291, Éditions OCDE, Paris, https://doi.org/10.1787/e1d1d170-en.

[6] Brynjolfsson, E., D. Rock et C. Syverson (2017), Artificial Intelligence and the Modern Productivity Paradox: A Clash of Expectations and Statistics, National Bureau of Economic Research, Cambridge, MA, https://doi.org/10.3386/w24001.

[25] Calvino, F. et L. Fontanelli (2023), « A portrait of AI adopters across countries: Firm characteristics, assets’ complementarities and productivity », OECD Science, Technology and Industry Working Papers, n° 2023/02, Éditions OCDE, Paris, https://doi.org/10.1787/0fb79bb9-en.

[23] Calvino, F. et al. (2022), « Identifying and characterising AI adopters: A novel approach based on big data », OECD Science, Technology and Industry Working Papers, n° 2022/06, Éditions OCDE, Paris, https://doi.org/10.1787/154981d7-en.

[45] Croson, R. et U. Gneezy (2009), « Gender differences in preferences », Journal of Economic Literature, vol. 47/2, pp. 448-474, https://doi.org/10.1257/jel.47.2.448.

[24] Dernis, H. et al. (2023), « Identifying artificial intelligence actors using online data », OECD Science, Technology and Industry Working Papers, n° 2023/01, Éditions OCDE, Paris, https://doi.org/10.1787/1f5307e7-en.

[37] duc de Lévis, P. (1810), Maximes et réflections sur différents sujets de morale et de politique.

[50] Festerling, J. et I. Siraj (2021), « Anthropomorphizing technology: A conceptual review of anthropomorphism research and how it relates to children’s engagements with digital voice assistants », Integrative Psychological and Behavioral Science, vol. 56/3, pp. 709-738, https://doi.org/10.1007/s12124-021-09668-y.

[47] Fisk, S. (2018), « Who’s on top? Gender differences in risk-taking produce unequal outcomes for high-ability women and men », Social Psychology Quarterly, vol. 81/3, pp. 185-206, https://doi.org/10.1177/0190272518796512.

[7] Georgieff, A. et R. Hyee (2021), « Artificial intelligence and employment: New cross-country evidence », Documents de travail de l’OCDE sur les questions sociales, l’emploi et les migrations, n° 265, Éditions OCDE, Paris, https://doi.org/10.1787/c2c1d276-en.

[48] Goldman, A. et A. Penner (2014), « Exploring international gender differences in mathematics self-concept », International Journal of Adolescence and Youth, vol. 21/4, pp. 403-418, https://doi.org/10.1080/02673843.2013.847850.

[28] Green, A. et L. Lamby (2023), « The supply, demand and characteristics of the AI workforce across OECD countries », Documents de travail de l’OCDE sur les questions sociales, l’emploi et les migrations, n° 287, Éditions OCDE, Paris, https://doi.org/10.1787/bb17314a-en.

[4] Ikenaga, T. et R. Kambayashi (2016), « Task polarization in the Japanese labor market: Evidence of a long-term trend », Industrial Relations: A Journal of Economy and Society, vol. 55/2, pp. 267-293, https://doi.org/10.1111/irel.12138.

[38] Kahneman, D. et A. Tversky (1979), « Prospect theory: An analysis of decision under risk », Econometrica, vol. 47/2, p. 263, https://doi.org/10.2307/1914185.

[18] Lane, M., M. Williams et S. Broecke (2023), « The impact of AI on the workplace: Main findings from the OECD AI surveys of employers and workers », Documents de travail de l’OCDE sur les questions sociales, l’emploi et les migrations, n° 288, Éditions OCDE, Paris, https://doi.org/10.1787/ea0a0fe1-en.

[51] Lanier, J. (2023), There Is No A.I - There are ways of controlling the new technology—but first we have to stop mythologizing it, https://www.newyorker.com/science/annals-of-artificial-intelligence/there-is-no-ai (consulté le 24 avril 2023).

[12] Lassébie, J. et G. Quintini (2022), « What skills and abilities can automation technologies replicate and what does it mean for workers? : New evidence », Documents de travail de l’OCDE sur les questions sociales, l’emploi et les migrations, n° 282, Éditions OCDE, Paris, https://doi.org/10.1787/646aad77-en.

[42] Lazarus, R. (1991), Emotion and Adaptation, Oxford University Press, New York, NY.

[52] Leslie, S. et al. (2015), « Expectations of brilliance underlie gender distributions across academic disciplines », Science, vol. 347/6219, pp. 262-265, https://doi.org/10.1126/science.1261375.

[34] Lightcast (2023), New Skills Sought for Data Scientists, Machine Learning Engineers, Curriculum Writers in Past 12 Months, https://lightcast.io/resources/blog/generative-ai-10-19-2023 (consulté le 23 octobre 2023).

[35] Ligthcast (2022), Ligthcast™, https://lightcast.io/.

[32] Manca, F. (2023), « Six questions about the demand for artificial intelligence skills in labour markets », Documents de travail de l’OCDE sur les questions sociales, l’emploi et les migrations, n° 286, Éditions OCDE, Paris, https://doi.org/10.1787/ac1bebf0-en.

[41] McGregor, H. et A. Elliot (2005), « The shame of failure: Examining the link between fear of failure and shame », Personality and Social Psychology Bulletin, vol. 31/2, pp. 218-231, https://doi.org/10.1177/0146167204271420.

[46] Niederle, M. et L. Vesterlund (2010), « Explaining the gender gap in math test scores: The role of competition », Journal of Economic Perspectives, vol. 24/2, pp. 129-144, https://doi.org/10.1257/jep.24.2.129.

[16] OCDE (2023), AI and the Future of Skills, Volume 2: Methods for evaluating AI capabilities.

[8] OCDE (2023), Is Education Losing the Race with Technology? : AI’s Progress in Maths and Reading, La recherche et l’innovation dans l’enseignement, Éditions OCDE, Paris, https://doi.org/10.1787/73105f99-en.

[2] OCDE (2023), Perspectives de l’emploi de l’OCDE 2023 : Intelligence artificielle et marché du travail, Éditions OCDE, Paris, https://doi.org/10.1787/aae5dba0-fr.

[9] OCDE (2023), « Putting AI to the test : How does the performance of GPT and 15-year-old students in PISA compare? », OECD Education Spotlights, n° 6, Éditions OCDE, Paris, https://doi.org/10.1787/2c297e0b-en.

[14] OCDE (2021), AI and the Future of Skills, Volume 1: Capabilities and Assessments, La recherche et l’innovation dans l’enseignement, Éditions OCDE, Paris, https://doi.org/10.1787/5ee71f34-en.

[36] OCDE (2019), Recommandation du Conseil sur l’intelligence artificielle, Éditions OCDE, Paris, https://legalinstruments.oecd.org/fr/instruments/OECD-LEGAL-0449.

[49] OCDE (2018), Base de données PISA 2018, https://www.oecd.org/pisa/data/2018database/.

[29] Samek, L., M. Squicciarini et E. Cammeraat (2021), « The human capital behind AI: Jobs and skills demand from online job postings », OECD Science, Technology and Industry Policy Papers, n° 120, Éditions OCDE, Paris, https://doi.org/10.1787/2e278150-en.

[5] Spitz‐Oener, A. (2006), « Technical change, job tasks, and rising educational demands: Looking outside the wage structure », Journal of Labor Economics, vol. 24/2, pp. 235-270, https://doi.org/10.1086/499972.

[33] Squicciarini, M. et H. Nachtigall (2021), « Demand for AI skills in jobs: Evidence from online job postings », OECD Science, Technology and Industry Working Papers, n° 2021/03, Éditions OCDE, Paris, https://doi.org/10.1787/3ed32d94-en.

[15] Violante, G. (2008), « Skill-Biased Technical Change », dans The New Palgrave Dictionary of Economics, Palgrave Macmillan UK, Londres, https://doi.org/10.1057/978-1-349-95121-5_2388-1.

[44] Wach, F. et al. (2015), « Sex differences in secondary school achievement – The contribution of self-perceived abilities and fear of failure », Learning and Instruction, vol. 36, pp. 104-112, https://doi.org/10.1016/j.learninstruc.2015.01.005.

[43] Warr, M. (2000), « Fear of Crime in the United States: Avenues for Research and Policy », Criminal Justice, vol. 4, pp. 451-489, https://www.ncjrs.gov/criminal_justice2000/vol_4/04i.pdf (consulté le 23 mai 2023).

[17] World Risk Poll (2021), World Risk Poll 2021: A Digital World - Perceptions of Risk from AI and Misuse of Personal Data, https://wrp.lrfoundation.org.uk/LRF_2021_report_a-digtial-world-ai-and-personal-data_online_version.pdf.

[39] World Risk Poll (2019), The Lloyd’s Register Foundation World Risk Poll Report 2019, https://wrp.lrfoundation.org.uk/.

[53] Zhao, S. et al. (2022), « The acquisition of the gender‐brilliance stereotype: Age trajectory, relation to parents’ stereotypes, and intersections with race/ethnicity », Child Development, vol. 93/5, https://doi.org/10.1111/cdev.13809.

Note

← 1. AWS est une gamme complète de services proposés par Amazon ; la plateforme fournit aux entreprises l’infrastructure numérique nécessaire pour gérer des données, exécuter des applications et effectuer une multitude d’autres opérations via lnternet, sans avoir à recourir à des serveurs physiques.

Mentions légales et droits

Ce document, ainsi que les données et cartes qu’il peut comprendre, sont sans préjudice du statut de tout territoire, de la souveraineté s’exerçant sur ce dernier, du tracé des frontières et limites internationales, et du nom de tout territoire, ville ou région. Des extraits de publications sont susceptibles de faire l'objet d'avertissements supplémentaires, qui sont inclus dans la version complète de la publication, disponible sous le lien fourni à cet effet.

© OCDE 2024

L’utilisation de ce contenu, qu’il soit numérique ou imprimé, est régie par les conditions d’utilisation suivantes : https://www.oecd.org/fr/conditionsdutilisation.