Complexité et économie

Complexité et politique économique

par Alan Kirman, École des hautes études en sciences sociales (EHESS), Paris ; Aix-Marseille Université

Les deux derniers siècles ont vu peu à peu s’imposer l’idée que le libéralisme social et politique constituait le fondement souhaitable sur lequel organiser la société. Les théoriciens de l’économie se sont efforcés de s’adapter à ce point de vue et ont mis au point des modèles de plus en plus élaborés pour étayer l’affirmation selon laquelle laissés à eux-mêmes, les individus s’organiseront spontanément en un « état socialement souhaitable ». Ce faisant, toutefois, ils nous ont conduits à une vision du système économique qui est en désaccord avec ce que l’on observe dans de nombreuses autres disciplines.

En effet, alors que dans des domaines comme la physique statistique, l’écologie et la psychologie sociale, il est désormais largement admis que des systèmes d’individus interagissant entre eux n’auront pas le type de comportement qui correspond à celui d’un individu (ou particule) moyen ou caractéristique, cette idée n’a guère eu d’effet sur la science économique. Si les tenants de ces disciplines se sont mis à étudier l’émergence des systèmes dynamiques non linéaires résultant d’interactions complexes entre des individus, les économistes, pour leur part, n’ont pas cessé de vouloir fonder leur analyse sur l’idée d’individus de « rationalité optimisatrice », se comportant comme s’ils agissaient de manière isolée. Tel est, en effet, le paradigme fondamental sur lequel sont construits la théorie économique moderne et nos modèles économiques classiques. Ce paradigme remonte à 1776 et à la notion de « main invisible » chère à Adam Smith, qui suggère que lorsque les individus sont laissés, pour autant qu’il soit possible, à eux-mêmes, l’économie se structure d’elle-même pour parvenir à un état doué de caractéristiques satisfaisantes en termes de bien-être.

Or, ce paradigme non seulement n’est pas validé par l’observation des faits, mais ne repose pas non plus sur de solides fondements théoriques. Il est devenu une hypothèse, la pierre angulaire de la théorie économique, même si la persistance de crises économiques majeures pourrait, semble-t-il, nous porter à croire que cette analyse est réellement problématique. L’expérience montre que l’amnésie est fréquente chez les économistes et que, si chaque crise débouche sur le besoin de sortir des sentiers battus pour approcher l’économie (en témoigne la création de l’Institute for New Economic Thinking de George Soros), in fine c’est l’inertie qui prévaut et les économistes retournent sur des sentiers maintes fois foulés.

Il est remarquable que l’on ait tendance à profiter d’une période d’accalmie relative pour déclarer victoire sur l’ennemi. Rappelons-nous Robert Lucas, lauréat du Prix Nobel, qui déclarait en 2003, dans son discours de la présidence devant l’American Economic Association, que « le problème central de la prévention des dépressions était résolu ».

Pendant ce bref épisode de calme, économistes comme responsables de l’action publique s’étaient, en effet, laissés aller à croire que tout allait bien.

Puis vint 2008 et, comme toujours en période de crise, des voix s’élevèrent, principalement du côté des observateurs et des responsables politiques, pour demander pourquoi les économistes n’avaient anticipé ni le déclenchement de la crise, ni sa gravité.

Lorsque Sa Majesté la Reine demanda aux économistes de la London School of Economics pourquoi les choses avait mal tourné, on lui répondit en ces termes : « En résumé, votre majesté, l’incapacité à prévoir la date, l’ampleur et la gravité de la crise … a été au fond l’incapacité de l’imaginaire collectif de plusieurs esprits brillants … à comprendre les risques qui pesaient sur tout le système ».

Dès que l’on considère l’économie comme un système complexe adaptatif dans lequel le comportement du tout résulte des interactions entre ses diverses composantes, il n’est plus possible d’établir une relation simple entre chacune des parties et le tout. Du fait de toutes ces interactions et boucles de rétroaction complexes entre les actions des individus et le comportement du système, les actions des particuliers, des entreprises et de l’État auront immanquablement des « conséquences imprévues ». Non seulement les individus eux-mêmes évoluent au fil du temps, mais également le réseau qui les relie. L’évolution de tels systèmes est intrinsèquement difficile à prévoir, ce qui signifie que le discours des responsables de l’action publique, de type « cette mesure produira tel et tel résultat », doit changer pour un autre : « un certain nombre de résultats sont possibles et selon nos meilleures estimations, les probabilités d’obtenir ces résultats actuellement sont… ».

Prenons le cas de l’impact possible du Brexit sur l’économie britannique et sur l’économie mondiale. Des prévisions de croissance révisées sont actuellement publiées pour ces économies mais, lorsque tout dépend à ce point des conditions dans lesquelles s’effectuera cette sortie, est-il raisonnable d’être aussi déterministe dans ses prévisions ? Étant donné la complexité et l’imbrication des économies, les facteurs politiques qui influeront sur la nature de la séparation, la perception qu’en auront les acteurs (des individus aux gouvernants) et leurs anticipations de ses conséquences, quel degré de confiance pouvons-nous placer dans les estimations ponctuelles de la croissance des prochaines années ?

Alors que d’aucuns sont tentés de considérer l’approche par les systèmes complexes comme un aveu de notre incapacité à contrôler, voire à influer sur les résultats économiques, tel n’est pas nécessairement le cas. Hayek a soutenu en son temps qu’il n’existait pas de « lois » (laws) économiques, seulement des « modèles structurants » (patterns). Le développement des « données massives » et des techniques permettant de les analyser peuvent nous donner les outils nécessaires pour identifier ces modèles structurants et s’y adapter. Toutefois, ceux-ci se dessinent à partir des interactions entre des individus qui sont, à maints égards, plus simples que l’homo economicus, et ce sont ces interactions entre des individus relativement simples, qui réagissent à leur environnement plus qu’ils n’optimisent leurs choix de manière isolée, qui engendrent les troubles majeurs caractéristiques de nos systèmes.

Dernier point : lorsque l’on tente de stabiliser ces systèmes, c’est une erreur de s’intéresser à une seule variable, que ce soit pour avoir prise sur le système ou pour se renseigner sur son évolution. S’intéresser à une variable unique, au taux d’intérêt par exemple, ne confère pas suffisamment de souplesse aux responsables de l’action publique, et mesurer des résultats de variables considérées isolément, comme le taux de chômage ou le PIB, ne renseigne pas suffisamment sur l’état de l’économie.

Liens utiles

L’article original publié sur le site OECD Insights, accompagné de liens et d’informations complémentaires, se trouve ici : http://wp.me/p2v6oD-2B4.

La série complète d’articles peut être consultée à cette adresse : http://oecdinsights.org/?s=NAEC+complexity.

Herbert Simon, ou le holisme pragmatique : économie et « architecture de la complexité »

par Vela Velupillai, Madras School of Economics

« Herb avait déjà tout mis en place, il y a une quarantaine d’années – et moi, je ne le connais que depuis 35 ans ! », Alan Newell, 1989.

Tout était déjà là, en effet, avec les articles que Simon avaient publiés sur les concepts de « systèmes hiérarchiques » en 1950, de « quasi-décomposabilité » vers 1949 et de « causalité », étayant l’idée d’une évolution relativement rapide des systèmes dynamiques en une série de structures complexes stables. Ces articles fondateurs ont été réédités dans leur quasi-totalité et sont reproduits dans un ouvrage de 1977,  Models of Discovery, qui reprend en outre, dans sa section 4, les notions classiques de « systèmes hiérarchiques » et de « quasi-décomposabilité », sous l’intitulé « Complexity ». Quant à sa « vision cybernétique », elle est devenue le fondement à part entière de la modélisation informatique des « agents résolveurs », de rationalité limitée, qui mettent en œuvre des procéduresde recherche heuristique pour démontrer, entre autres exemples, les théorèmes mathématiques et axiomes (du monumental ouvrage de Whitehead et Russel, Principia Mathematica), et corrobore l’affirmation tout à fait juste d’Alan Newell, citée en exergue.

Lorsqu’il définit la notion de complexité dans son article intitulé The Architecture of Complexity (« l’architecture de la complexité »), Simon évite les formalismes et s’en remet à un concept rudimentaire et fonctionnel de systèmes complexes, qui aiderait à identifier des exemples de structures observables – principalement dans les sciences du comportement – susceptibles de conduire à la théorisation et partant, à des théorèmes, sur les systèmes dynamiques évolutifs possédant des caractéristiques se prêtant à l’étude et à la prévision au moyen des concepts de hiérarchie, de quasi-décomposabilité et de causalité. Ainsi, la définition presque informelle qu’il en donne est celle-ci (les italiques ont été ajoutés) : « J’entends approximativement par “système complexe” un système comportant un grand nombre de parties qui interagissent entre elles dans une relation non simple. Dans un tel système, le tout est plus que la somme des parties… au sens concret où, étant donné les propriétés des parties et les lois qui régissent leurs interactions, il n’est pas simple d’inférer les propriétés du tout. Face à la complexité, unréductionniste de principe peut être en même temps un holiste pragmatique ».

Simon a toujours été un holiste pragmatique, même lorsqu’il essaie de réduire le comportement d’entités complexes à des processus d’une grande simplicité (principe de parcimonie), censés présenter les propriétés du « tout » en fonction de « parties » aux interactions « non simples », pouvant elles-mêmes être simples. Il a synthétisé la manière dont cette approche pouvait s’appliquer à l’économie dans une lettre qu’il a adressée au Professeur Axel Leijonhufvud et à moi-même, après avoir lu mon ouvrage Computable Economics. (Cette lettre peut être consultée ici : https://oe.cd/2hn/) Simon y soutient que :

« Venons-en, finalement, à la limite empirique… [celle] du niveau de complexité que les humains sont réellement capables de traiter, avec et sans leurs ordinateurs, et – plus important encore, peut-être – de ce qu’ils font réellement pour résoudre des problèmes dépassant cette limite stricte, bien qu’encore compris dans certaines limites plus larges ».

Ce dernier point est important pour la science économique car nous autres humains passons l’essentiel de notre existence à prendre des décisions qui dépassent, de loin, les niveaux de complexité que nous sommes en capacité de gérer de manière juste ; et c’est là qu’entrent en jeu les notions de « décisions suffisantes et satisfaisantes » (satisficing), les niveaux d’aspiration flottants, la reconnaissance et l’heuristique, et d’autres mécanismes par lesquels parvenir à des décisions « suffisamment bonnes ». (Le terme anglais satisfice [dont est dérivé le néologisme satisficing], qui figure dans le Oxford English Dictionary  comme synonyme en northumbrien de satisfy, a été repris par Simon (1956) dans son article Rational Choice and the Structure of the Environment pour décrire une stratégie par laquelle le décideur prend une décision qu’il juge adéquate, même si celle-ci n’est pas optimale en théorie.) Une théorie économique de la parcimonie, qui plus est vérifiable par l’observation, montre combien les êtres humains, faisant appel à des processus très simples, parviennent à desdécisions allant bien au‐delà de leur capacité à trouver des solutions justes en appliquant les critères de maximisation habituels ».

À de nombreux égards, Architecture of Complexity fait la synthèse des conceptions évolutives (sic) que Simon avait de l’analyse quantitative des comportements, qui a jeté les bases de la gestion de structures de causalité complexes et hiérarchisées par des agents de rationalité limitée, mettant en œuvre – avec l’aide d’ordinateurs – des procédures qui sont elles-mêmes l’image réfléchie des processus humains de résolution de problèmes. Mais cet article a également préfiguré la précision grandissante de la réalité prévisible – non réductible à des phénomènes non pragmatiques et non empiriques – nécessitant une description opérationnelle de systèmes complexes qui constituent l’observable par nature et résultent de la dynamique évolutionniste de structures hiérarchisées. En conséquence, la quatrième et dernière section d’Architecture of Complexity « examine la relation entre les systèmes complexes et leurs descriptions », examen pour lequel Simon retourne à la définition fondatrice que donne Solomonoff de la théorie algorithmique de l’information.

Architecture of Complexity a également permis d’expliciter de nombreuses questions que nous nous posions pour associer l’idée formulée par Simon d’agents (et d’institutions) de rationalité limitée prenant des décisions suffisantes et satisfaisantes » (satisficing) – mais non optimales (optimising), là encore pour des raisons pragmatiques, historiquement observables et réalistes –, qui utilisent des processus de recherche heuristique pour la résolution humaine de problèmes (Human Problem Solving) dans des contextes de décisions comportementales. La fameuse distinction entre rationalité substantive et rationalité procédurale est née de la dichotomie entre deux modes de description, d’état ou de processus, d’un monde « tel qu’il est perçu et …. tel que l’on peut agir sur lui ».

Pour l’essentiel, Architecture of Complexity renferme une multitude de définitions pragmatiques et de procédures d’application réalistes, même dans l’utilisation des ordinateurs numériques. La théorie de la calculabilité reprend à son compte la thèse Church-Turing pour définir les algorithmes. La notion de « complexité computationnelle » est fondée sur l’hypothèse de la validité de la thèse Church-Turing. Les algorithmes de Simon pour ces modèles humains de résolution de problèmes (« agents résolveurs ») sont des processus de recherche heuristique, où aucune hypothèse de ce type n’est posée. Aussi le sentiment qui s’est emparé de lui vers la fin de sa vie n’est-il pas surprenant (les italiques ont été ajoutés) :

« Le domaine de la science informatique a été très occupé par les questions de complexité computationnelle, la simplicité computationnelle en étant l’envers. Or, dans les publications de ce domaine scientifique, le terme « complexité » a une signification très différente de celle que je lui donne dans le contexte qui nous occupe. Pour des raisons surtout d’accessibilité mathématique et au détriment de la pertinence, les théorèmes sur la complexité computationnelle se sont principalement intéressés au comportement, dans le pire des cas, des algorithmes de calcul au fur et à mesure que la taille des séries de données augmente. À la limite, ils se sont même concentrés sur la « calculabilité » au sens de Gödel, sur Turing et sur le problème de l’arrêt. Je dois dire que ces considérations provoquent chez moi un grand sentiment d’ennui  ».

Liens utiles

L’article original publié sur le site OECD Insights, accompagné de liens et d’informations complémentaires, se trouve ici : http://wp.me/p2v6oD-2Lg.

La série complète d’articles peut être consultée à cette adresse : http://oecdinsights.org/?s=NAEC+complexity.

À crise économique, pensée économique en crise

par Andy Haldane, économiste en chef et directeur des analyses et statistiques monétaires à la Banque d’Angleterre.

À bien des égards, l’état actuel de l’économie donne des raisons de verser dans le pessimisme. De nombreux experts, dont des économistes, se sont exprimés sans voir leurs propositions prises en compte, alors que nos sociétés se trouvent confrontées à des défis majeurs : ralentissement de la croissance et de la productivité, recul des échanges et de la mondialisation, inégalités accusées et grandissantes. Nous ne parviendrons à résoudre ces problèmes, à la fois complexes et opérant sur plusieurs fronts, qu’en nous dotant de cadres d’analyse complexes et pertinents sur chacun de ces fronts, qui nous permettent d’appréhender l’ensemble des enjeux et d’élaborer les politiques publiques appropriées. Nos cadres d’analyse macroéconomique montraient une pertinence certaine dans l’environnement plutôt stable qui prévalait avant la crise, qu’en est-il aujourd’hui ?

Cette ère est bel et bien révolue, comme le montrent les termes clés qui caractérisent notre environnement, tels que solutions de continuité, points d’inflexion, équilibres multiples, ou prévalence des incertitudes. Pour redonner toute sa pertinence à la pensée économique et apporter une réponse appropriée aux problématiques actuelles, nous devons élaborer de nouveaux cadres, mieux à même de saisir la complexité ambiante de nos sociétés.

Nous constatons un intérêt croissant pour la théorie de la complexité comme grille d’analyse de la dynamique des systèmes économiques et financiers. Par exemple, des modèles épidémiologiques ont été utilisés pour définir et ajuster les normes de fonds propres réglementaires destinées aux très grandes banques situées au cœur du système financier, et considérées à ce titre comme de « grands vecteurs de contagion » en puissance. Une attention moindre a été accordée à l’utilité possible de la théorie de la complexité pour rendre compte de l’architecture générale des politiques publiques, à savoir la manière dont les différentes pièces du casse-tête de l’action publique s’agencent dans la configuration économico-financière d’ensemble. Tous ces systèmes peuvent être décrits comme formant un « système de systèmes » complexe et évolutif, ensemble de sous-systèmes étroitement imbriqués, dont chaque élément est lui-même un réseau complexe. La structure même d’un système de systèmes complexe appelle ainsi une intervention publique qui puisse être déclinée à différentes échelles, pourcomprendre les évolutions à l’œuvre aux différents niveaux du système et les infléchir. Cela signifie aussi que la prise en compte des interactions entre ces différentes strates est importante pour évaluer les risques.

S’il n’existe pas de définition consacrée d’un système complexe, celle proposée par Herbert Simon dans The Architecture of complexity – « système composé d’un grand nombre de parties qui interagissent de manière non simple » – en offre une description pragmatique utile. Le tout se comporte très différemment de la somme de ses parties. Les propriétés des systèmes complexes expliquent que leur description dans le temps donne lieu à des distributions statistiques irrégulières, souvent très éloignées de la distribution normale. En particulier, les extrémités de la distribution sont plus épaisses que celles observées dans une distribution normale. En d’autres termes, les interactions et les rétroactions à l’échelle du système induisent des probabilités d’événements catastrophiques bien plus élevées que dans le cas d’une distribution gaussienne.

Conformément au principe de la survie des individus les mieux adaptés à leur environnement, Simon a avancé que les réseaux « décomposables » étaient davantage résilients et, partant, plus susceptibles de se multiplier. Pour Simon, ces réseaux décomposables sont des structures organisationnelles pouvant être partitionnées de sorte que la résilience du système dans son ensemble ne dépend d’aucun de ses sous-éléments. Si cette approche peut offrir une description acceptable sur le long terme de certains systèmes complexes du monde réel, elle fonctionne moins bien pour rendre compte de l’évolution des systèmes socio-économiques. Un grand nombre des réseaux qui sont aujourd’hui efficients le doivent à leur extrême connectivité. En économie, on sait que les rendements croissent fortement en fonction de l’échelle et du périmètre d’une industrie en réseau. Un exemple en est fourni par le partage des risques commerciaux et financiers au sein des chaînes d’approvisionnement et des réseaux interbancaires déployés à l’échelle mondiale. Cela représente une forte incitation factuelle pour les systèmes socio-économiques non décomposables.

En outre, lorsque ces réseaux hyper-connectés sont confrontés à une menace systémique, ils sont souvent capables de s’adapter pour assurer leur survie. Par exemple, les risques de désordre social, économique ou financier induisent le plus souvent une adaptation des politiques publiques destinée à éviter une crise systémique. Ces stratégies adaptatives permettent de préserver des structures socio-économiques par ailleurs fragiles, mais peuvent également favoriser l’accroissement de la connectivité et de la complexité de ces réseaux. À titre d’exemple, les mesures visant à soutenir les très grandes banques en cas de crise, au motif qu’elles sont de « grands vecteurs de contagion », peuvent inciter celles-ci à accroître encore leur taille et leur complexité. En raison de la présence simultanée des économies en réseau et de l’adaptation de l’action publique en cas de crise, il est possible que les systèmes socio-économiques soient moins darwiniens, et donc moins décomposables, que les systèmes naturels et biologiques.

Quelles conséquences la grille d’analyse d’un système complexe de systèmes a-t-elle sur l’élaboration des politiques publiques ? Tout d’abord, elle met en exergue l’importance de disposer de données exactes et d’une cartographie à jour de chacune des strates du système, a fortiori lorsque ces strates sont elles-mêmes complexes. Des données granulaires sont donc nécessaires pour rendre compte des interactions qui se jouent entre ces sous-systèmes complexes et au sein de chacun d’eux.

De plus, une modélisation individuelle de ces strates et de leurs interactions avec leurs homologues peut se révéler utile tant pour comprendre les risques et dynamiques propres au système que pour ajuster au mieux les mesures d’action publique s’adressant à chacune d’entre elles.

Enfin, concernant le contrôle des risques, il est probable qu’un principe proche de la règle de Tinbergen s’applique : pour gérer et superviser efficacement les risques, il faudra mettre en œuvre au moins autant d’instruments qu’il n’existe de sous-composantes complexes dans le système de systèmes. En d’autres termes, toute analyse trop imprécise d’un système de systèmes complexe peut conduire à une perte de contrôle, non seulement à l’échelle du système, mais aussi à chacun des niveaux qui le composent.

En tout état de cause, la pensée économique est en crise. Certains y voient une menace, quand d’autres y lisent l’occasion d’accomplir un pas en avant décisif, semblable à celui proposé par Keynes dans les années 1930. Mais nous ne pourrons saisir cette opportunité sans avoir d’abord réexaminé les contours de la science économique et exploré de nouvelles voies. Il est de plus important d’appliquer une approche interdisciplinaire à l’analyse des systèmes économiques. En effet, des propositions issues d’un vaste ensemble de disciplines, qu’il s’agisse des sciences naturelles ou des sciences sociales, peuvent être à l’origine d’une lecture inédite des comportements individuels comme des dynamiques œuvrant à l’échelle du système.

C’est précisément l’objectif de l’initiative relative aux Nouvelles approches face aux défis économiques (NAEC), et l’OCDE, en consacrant cette réflexion à l’approche de la complexité, se place à l’avant-garde des travaux qui permettront d’adapter le processus d’élaboration et d’analyse des politiques économiques aux réalités du xxie siècle.

Cet article s’appuie sur la contribution préparée pour la table ronde NAEC organisée par l’OCDE le 14 décembre 2016 ; sur la conférence «  GLS Shackle Biennial Memorial Lecture  » du 10 novembre 2016 ; et sur la conférence «  On microscopes and telescopes  », donnée le 27 mars 2015 au Lorentz Centre, à Leiden, lors des ateliers consacrés à la complexité socio‐économique.

Liens utiles

L’article original publié sur le site OECD Insights, accompagné de liens et d’informations complémentaires, se trouve ici : http://wp.me/p2v6oD-2M4.

La série complète d’articles peut être consultée à cette adresse : http://oecdinsights.org/?s=NAEC+complexity.

Théorie de la complexité et économie évolutionniste

par Robert D. Atkinson, Président, Information Technology and Innovation Foundation

Si la crise financière et la Grande Récession ont été avant tout synonymes de dévastation, elles auront eu au moins un mérite : celui d’amorcer une remise en question plus résolue de l’hégémonie de la théorie néoclassique de l’économie. À cet égard, l’intérêt croissant pour la théorie de la complexité est une évolution bienvenue. De fait, aborder la politique économique du point de vue de la complexité ouvre la voie à d’importants progrès – à condition toutefois que nous évitions une passivité hayékienne fondée sur l’idée que l’action est trop risquée compte tenu du degré de complexité des systèmes économiques. Cela constituerait une grave erreur, car le risque associé à l’inaction dans les systèmes complexes est souvent supérieur au risque de l’action, notamment quand cette dernière naît d’une réflexion rigoureuse, qui s’appuie sur une argumentation solide.

Les failles de la théorie néoclassique ont été identifiées depuis longtemps, notamment le postulat de « l’économie fonctionnant comme une machine », selon lequel, lorsque les responsables politiques actionnent un certain levier, ils obtiennent un certain résultat. Or, n’en déplaise à Larry Summers, l’économie n’est pas une science applicable en tout temps, en tout lieu. C’est une doctrine, et à mesure que les économies évoluent, les doctrines devraient évoluer elles aussi. Après la Seconde Guerre mondiale, alors que les États-Unis passaient de ce que Michael Lind appelle la seconde république (le système de gouvernance de l’après-Guerre de Sécession) à la troisième république (la structure de gouvernance de la « Grande Société » qui a fait suite au New Deal), la question de la trajectoire à suivre en matière de politique économique a donné lieu à un vigoureux débat intellectuel. Dans Keynes-Hayek: The Clash That Defined Modern Economics, Nicholas Wapshott décrit le débat entre Keynes (défenseur de la troisièmerépublique), pour qui l’État devait occuper une plus grande place et intervenir davantage, et Hayek (tenant de la seconde république), qui craignait une trop forte ingérence de l’État. Aujourd’hui, nous avons besoin d’un débat d’une aussi grande ampleur concernant l’avenir de la politique économique à l’orée de la « quatrième république ».

Si nous voulons élaborer une doctrine économique de ce type en vue de piloter l’actuel système économique socio-technique, alors la complexité est appelée à jouer un rôle fondateur. Mais en optant pour la complexité, nous courons le risque de voir ses partisans substituer une idéologie à une autre. Si les responsables politiques actuels sont d’avis que les systèmes économiques sont relativement simples et que les politiques ne produisent que des effets de premier ordre, ceux qui sont acquis à la théorie de la complexité pourraient penser que des effets de deuxième, troisième et quatrième ordres sont omniprésents. En d’autres termes, le battement d’aile d’un papillon au Mexique peut entraîner une tornade au Texas. Si les choses sont à ce point complexes, nous ferions mieux de suivre le conseil de Hayek et d’intervenir au minimum. Au moins les responsables politiques mécanistes avaient-ils l’impression qu’ils pouvaient faire quelque chose, et peut-être avaient-ils raison. La complexité hayékienne, quant à elle, risque de mener à l’inaction.

Ce qui nous amène à un second défi, celui de la « pensée unique ». Nombre d’avocats de la complexité imputent la crise financière à des instruments financiers (tels que les obligations adossées à des actifs, ou CDO). Les régulateurs n’auraient rien vu venir en raison de la complexité de ces instruments. En réalité, ces derniers n’étaient que les symptômes de la crise : au cœur de celle‐ci aux États-Unis tout au moins – se trouvait l’octroi frauduleux de prêts hypothécaires. Mais le principal problème était d’ordre intellectuel : la quasi-totalité des économistes néoclassiques souscrivaient à la théorie selon laquelle, dans un marché efficient, les prix à l’instant t reflètent déjà toutes les informations permettant aux investisseurs d’anticiper le prochain mouvement des cours. Si les prix des logements sont appelés à croître de 80 % en quelques années, alors leur valeur effective augmente de 80 %. Une refonte de la pensée économique implique donc de remplacer non seulement un grand nombre des postulats de base de la théorie néoclassique, mais aussi une fâcheuse tendance à la pensée unique. Le premierobjectif risque cependant d’être plus difficile à atteindre que le second.

Dès lors, que devrions-nous retenir de la complexité ? À mes yeux, l’un de ses éléments clés est, et ce à juste titre, l’évolution. D’un point de vue évolutionniste, une économie est un « organisme » qui produit en permanence de nouveaux secteurs et de nouvelles technologies, organisations, activités et ressources, tout en se débarrassant de ce que les nouvelles technologies ou autres évolutions rendent superflu. Le rythme de ces changements varie dans le temps et dans l’espace en fonction de divers facteurs, dont les progrès technologiques, l’esprit d’entreprise, les politiques locales et l’environnement concurrentiel international. Au sens où les modèles néoclassiques conçoivent le changement, il s’agit davantage de croissance que d’évolution. Autrement dit, les transactions qui ont lieu sur le marché maximisent l’efficience statique et le bien-être des consommateurs. Comme l’écrit Alan Blinder, « les activités économiques peuvent-elles être réorganisées de sorte qu’elles profitent à certains sans nuire à d’autres ? Le cas échéant, nous avons mis à jour une inefficience. Sinon, le système est efficient. »

En matière de complexité ou d’économie évolutionniste, nous devrions nous concentrer non pas sur l’efficience d’allocation statique, mais sur l’efficience adaptative. Pour Douglass North, « l’efficience adaptative … concerne les types de règles qui déterminent la manière dont une économie évolue au fil du temps. Elle a également à voir avec les dispositions d’une société à acquérir des savoirs et des connaissances, à promouvoir l’innovation, à prendre des risques et à exercer des activités créatives de toutes sortes, ainsi qu’à résoudre les problèmes et les obstacles qu’elle rencontre sur son chemin ». De la même manière, dans leur ouvrage An Evolutionary Theory of Economic Change paru en 1982, Richard Nelson et Sidney G. Winter notent que « au sens large, “évolutionniste” renvoie à des processus de changement progressif, à long terme ».

Nous avons là une piste intéressante, à savoir que l’un des axes clés de la politique économique devrait consister à encourager l’adaptation, l’expérimentation et la prise de risque. Il convient de soutenir des politiques visant à accélérer délibérément l’évolution économique, notamment à l’aide d’innovations technologiques et institutionnelles. Il s’agit non seulement de rejeter le néo-luddisme au profit de l’optimisme technophile, mais de lancer de manière proactive une politique de l’innovation. Il s’agit aussi de permettre de nouvelles expérimentations politiques, en sachant qu’un grand nombre d’entre elles échoueront, mais que certaines réussiront et deviendront des « espèces dominantes ». Expérimenter politiques et programmes permettra à la politique économique d’être mieux armée pour soutenir des systèmes adaptatifs complexes.

Liens utiles

L’article original publié sur le site OECD Insights, accompagné de liens et d’informations complémentaires, se trouve ici : http://wp.me/p2v6oD-2Df.

La série complète d’articles peut être consultée à cette adresse : http://oecdinsights.org/?s=NAEC+complexity.

Complexité, modestie et politique économique

par Lex Hoogduin, Université de Groningen et GloComNet

Les sociétés et les économies sont des systèmes complexes, mais les théories auxquelles il est fait appel pour étayer les politiques économiques, pour la plupart, ne prennent pas en compte la complexité. Elles prennent comme agent représentatif le consommateur moyen, et partent de l’hypothèse que l’avenir est risqué, plutôt qu’incertain. Cette hypothèse permet l’application du calcul de probabilités, et de toute une série d’autres techniques qui en sont tirées.

Dans les situations de risque, tous les possibles résultats d’une politique peuvent être anticipés. Ce postulat ne vaut pas dans les situations d’incertitude, mais les êtres humains, y compris les responsables de l’action publique, ne peuvent éviter d’avoir à prendre des décisions et d’avoir à agir face à un avenir incertain. L’argument est de pure logique. Les êtres humains ne peuvent pas savoir aujourd’hui quelles seront les découvertes de demain. Les découvertes futures pourront influencer et infléchir les conséquences de leurs actions et décisions actuelles. C’est pourquoi ils sont dans l’incapacité de produire une liste exhaustive des possibles résultats d’actions ou de décisions relevant de l’action publique.

Prendre dûment en compte la complexité et l’incertitude de l’avenir suppose un changement de paradigme économique. Ce paradigme n’a pas à repartir de zéro. Il doit s’inspirer de la science moderne de la complexité, des représentants de l’école néo-autrichienne (Hayek et von Mises, en particulier), ainsi que des travaux de Keynes et de Knight, et de certains courants de la psychologie cognitive (Kahneman 2011, par exemple). Il n’est pas possible de développer dans ces lignes un discours sur la théorie et une argumentation sur la nécessité de changer de paradigme. Je me bornerais à débattre des implications de ce nouveau paradigme sur la politique économique.

Il s’agit tout d’abord de reconnaître qu’il est impossible de prédire l’avenir dans le détail. Nous devons être modestes vis-à-vis de ce que la politique économique peut produire comme résultats. C’est le « principe de modestie ». La politique économique ne peut atteindre des objectifs précis en matière de croissance économique, de distribution du revenu, d’inflation, d’augmentation de la température moyenne d’ici quatre décennies, etc. Les responsables de la politique économique seraient bien avisés de ne pas prétendre être en mesure de tenir des engagements qu’ils ne seront pas capables d’honorer. Il en découle que nombre des politiques menées actuellement devraient être abandonnées. Pour ne citer qu’un exemple, le ciblage de l’inflation par les banques centrales ne résiste pas à l’épreuve du principe de modestie.

Selon ce principe, il faut également s’abstenir d’établir des prévisions économiques détaillées à partir desquelles seront élaborées et mises en œuvre les politiques publiques. Ces dernières ne doivent pas être formulées en fonction de l’hypothèse selon laquelle nous connaissons la valeur de certaines variables que nous sommes dans l’impossibilité de connaître. Le multiplicateur du revenu déterminé par rapport aux évolutions de la politique budgétaire en est une illustration. Au regard du principe de modestie, les clignotants virent au rouge lorsque l’on parle de réglementation et de surveillance prenant en compte les risques.

Ce que peut faire la politique économique, en revanche, c’est contribuer à l’instauration et à l’évolution d’un ordre économique performant, et éviter de mettre en péril cet ordre, ce que j’appellerais le principe consistant à « ne pas nuire », et être aussi peu que possible une source d’incertitude pour les agents économiques privés.

L’ordre est un concept central du nouveau paradigme, venant remplacer le concept d’équilibre/(dés)équilibre dans l’économie conventionnelle. Un ordre est l’ensemble de résultats globaux possibles (que produisent des mécanismes comme la croissance, l’inflation, le caractère cyclique, etc.) découlant de l’action ou des interactions intentionnelles d’individus en fonction d’un ensemble de règles au sens large (législation, éthique, conventions…), regroupé sous l’appellation de régime. L’économie peut analyser la relation entre les modifications du régime et les modifications de l’ordre économique. La politique économique peut influer sur l’ordre économique en modifiant le régime.

Cette connaissance ne peut toutefois pas être assimilée à une certitude. Des surprises (positives ou négatives), des opportunités ou des menaces ne peuvent être exclues. Il ne s’agit donc pas de concevoir des politiques et de se borner à les mettre en œuvre en l’état. La formulation des politiques et leur mise en œuvre doivent évoluer au fil d’un processus constant de suivi et d’adaptation. La démarche permet aussi des changements évolutifs. Un ordre économique qui est empêché d’évoluer peut perdre de son adéquation et s’effondrer soudainement ou donner lieu à une crise (comme l’a décrit Scheffer s’agissant des transitions critiques au sein de la société). Ce mécanisme a pu jouer un rôle dans la Grande modération qui a précédé la crise financière de 2007/2008 et dans la crise des fonds de pension. C’est également un avertissement qui nous engage à ne pas fonder nos politiques visant à promouvoir la durabilité sur des objectifs de température précis pour des décennies dans un avenir qu’il est impossible de connaître.

L’adéquation d’un ordre se décline autour de cinq dimensions. Premièrement, il peut être défini comme un ordre au sein duquel les agents se comportent conformément à la description évoquée au paragraphe précédent – la formulation des politiques suit un processus constant de suivi et d’adaptation. Par ailleurs, l’adéquation est déterminée par la réactivité des agents (l’aptitude à repérer des erreurs ou identifier des opportunités) ; leur résilience (l’aptitude à survivre et à se remettre après des erreurs ou des surprises négatives) ; la faculté d’adaptation (l’aptitude à s’adapter) ; et la créativité (l’aptitude à imaginer et modeler l’avenir). Les politiques publiques peuvent avoir une visée facilitatrice, aidant les agents économiques à améliorer leurs capacités, même si elles se heurtent aux limites que commandent les principes de « modestie » et la volonté de « ne pas nuire ». Il faut noter que le concept de stabilité n’apparaît pas dans la définition de l’adéquation, ce qui marque une différence vis-à-vis des politiques actuelles qui font une large place à la stabilité.

Dans les propres actions des pouvoirs publics, transparence et prévisibilité devraient être les maîtres-mots.

Pour qu’il en soit ainsi, le meilleur moyen est de suivre des règles simples. Il s’agirait, en matière de politique budgétaire par exemple, d’équilibrer le budget, en ne ménageant qu’une marge de manœuvre limitée, et clairement définie, au fonctionnement des stabilisateurs automatiques.

Ce nouveau paradigme met en évidence certaines méthodes et techniques d’analyse, par exemple : techniques narrativesanalyse de réseauxlogique évolutionnisteréflexion autour de scénarios qualitatifs, dynamique non linéaire (Scheffer), analyse historique (le développement des systèmes complexes est path dependent, c’est-à-dire modelé et contraint par sa forme historique) et tests de résistance inversés.

Les politiques économiques élaborées selon ces axes aident les citoyens à vivre leur vie comme ils l’entendent. Ce sont des politiques satisfaisantes qui permettent de vivre une existence satisfaisante.

Liens utiles

L’article original publié sur le site OECD Insights, accompagné de liens et d’informations complémentaires, se trouve ici : http://wp.me/p2v6oD-2CF.

La série complète d’articles peut être consultée à cette adresse : http://oecdinsights.org/?s=NAEC+complexity.

Une économie mondiale de plus en plus complexe

par Sony Kapoor, Directeur général, Re-Define International Think Tank et PDG de Court Jesters Consulting

Un système compliqué (une voiture par exemple) peut être démonté et compris comme étant la somme de ses parties. En revanche, un système complexe (comme la circulation automobile) affiche des caractéristiques nouvelles induites par les interactions entre les éléments qui le composent. Appliquer la théorie de la complexité à la politique économique suppose de reconnaître que l’économie n’est pas un système compliqué, mais un système complexe.

Historiquement, les modèles économiques et les politiques correspondantes considéraient l’économie comme un système compliqué dans lequel des modèles simplifiés et stylisés, souvent appliqués à une économie fermée, à un secteur spécifique ou à certains mécanismes d’interaction uniquement, tels que les taux d’intérêt, cherchent d’abord à simplifier l’économie réelle, puis à la comprendre et enfin à généraliser afin de définir une politique.

Cette approche est de plus en plus périmée et génère des résultats qui ne rendent pas compte de la complexité grandissante de l’économie moderne. Toute décision d’action fondée sur cette notion de système compliqué qui est la somme de ses parties peut être dangereusement imprécise et inadaptée. Quels sont les facteurs qui produisent cette complexité croissante de l’économie mondiale ? Dans quelle mesure pouvons-nous agir sur ces facteurs ?

Globalement, un système complexe peut être assimilé à un réseau de nœuds reliés entre eux, à divers degrés, par le biais d’un ou de plusieurs circuits. Aussi, ce qui se produit au niveau d’un nœud est transmis via le réseau et se répercute vraisemblablement à des degrés divers sur les autres nœuds. Par conséquent, le comportement du système dans son ensemble dépend des nœuds ainsi que de la nature des relations qui les unissent. La complexité du système, en l’espèce l’économie mondiale, est influencée par un certain nombre de facteurs, parmi lesquels : premièrement, le nombre de nœuds ; deuxièmement, le nombre de liens d’interdépendance entre eux ; troisièmement, la nature de ces liens ; et quatrièmement, la vitesse à laquelle un stimulus ou un choc se propage aux autres nœuds. Appliquons maintenant chacun de ces facteurs à l’économie mondiale.

Le nombre de nœuds au sein de l’économie mondiale a rapidement augmenté. Pour comprendre cette évolution, on peut examiner les pays qui sont des participants actifs à l’économie mondiale. La croissance de la Chine et d’autres marchés émergents, ainsi que leur intégration de plus en plus poussée dans le commerce mondial et plus récemment dans les systèmes financiers mondiaux, constituent de bons indicateurs de la progression du nombre de nœuds. On constate également une augmentation de la taille relative et de l’importance de ces nœuds avec la République populaire de Chine, qui selon certains indicateurs est d’ores et déjà la première économie au monde.

Dans le même temps, le nombre de liens d’interdépendance entre les nœuds a augmenté encore plus vite. Le nombre de connexions possibles entre les nœuds s’accroît de façon non linéaire à mesure que le nombre de nœuds augmente, de sorte que l’économie mondiale compte désormais un nombre sans précédent de liens entre ces nœuds, dans tous les domaines : financiers, économiques, commerciaux, politiques, institutionnels, technologiques, militaires, humains, informations et voyages. La complexité croissante des chaînes d’approvisionnement commerciales et manufacturières, l’externalisation grandissante des services, les progrès dans la collaboration militaire, la nature universelle des avancées technologiques, l’accroissement des migrations et des voyages, ainsi que l’augmentation du trafic de télécommunications et Internet au niveau mondial ont tous entraîné une hausse spectaculaire du nombre de connexions entre les nœuds.

Cette progression quasi exponentielle n’est pas le seul phénomène remarquable. La portée et la nature de ces connexions connaissent elles aussi un élargissement considérable. Cet élargissement se manifeste surtout par l’expansion rapide de chaînes d’approvisionnement manufacturières complexes ; les liens financiers qui sont la conséquence directe du démantèlement progressif des mesures de contrôle des capitaux ; et les progrès des communications internationales et de la diffusion de l’information via Internet. Ces connexions sans cesse croissantes entre différents nœuds transforment en profondeur le comportement du système et la façon dont l’économie mondiale réagira aux stimuli, changements ou chocs affectant un ou plusieurs nœuds, selon des modalités de plus en plus difficiles à modéliser ou à prévoir.

Enfin, ce n’est pas seulement le nombre et l’intensité des liens entre les nœuds qui augmentent, mais c’est aussi le rythme auquel l’information, la technologie, les connaissances, les chocs, les flux de financement ou les éléments pathogènes se déplacent qui s’accélère. Ces évolutions alimentent la théorie de la complexité dans une économie mondiale de plus en plus interconnectée. Ces systèmes sont plus efficients, et la recherche d’efficience donne naissance à des chaînes d’approvisionnement en juste à temps, à une accélération des transactions financières et à d’autres phénomènes. Néanmoins, cette efficience a pour corollaire une plus grande fragilité. De plus en plus d’éléments montrent que les chocs financiers, économiques, pathogènes, de sécurité ou autres se propagent plus rapidement à travers le monde.

En résumé, les modèles d’équilibre général dynamique stochastique (EGDS) et les autres approches traditionnelles de la modélisation de l’économie mondiale sont de plus en plus inadaptés et imprécis pour rendre compte de la complexité croissante de l’économie mondiale. Cette complexité résulte à la fois de l’augmentation du nombre de nœuds (pays) désormais intégrés à l’économie mondiale, mais aussi du nombre et de la nature des interconnexions entre eux, qui s’intensifient à un rythme décuplé.

Cette réalité nécessite d’élaborer les politiques selon une nouvelle approche qui intègre les enseignements de la théorie de la complexité en abordant la modélisation dans une perspective englobant l’ensemble du système, qui modifie la conception institutionnelle afin de réduire la fragilité du système et qui approfondisse la définition et la coordination des politiques au niveau international et intersectoriel.

Liens utiles

L’article original publié sur le site OECD Insights, accompagné de liens et d’informations complémentaires, se trouve ici : http://wp.me/p2v6oD-2Mn.

La série complète d’articles peut être consultée à cette adresse : http://oecdinsights.org/?s=NAEC+complexity.

Complexité économique, institutions et inégalités de revenus

par César Hidalgo et Dominik HartmannMacro Connections, The MIT Media Lab

La capacité d’un pays de générer et distribuer des revenus est-elle déterminée par sa structure productive ? Il y a de cela plusieurs décennies, Simon Kuznets a émis l’hypothèse que la relation entre le niveau moyen de revenu d’un pays et son niveau d’inégalités de revenus prenait la forme d’une courbe en U inversé. La courbe de Kuznets indiquait que les inégalités de revenus s’accentuaient d’abord avant de diminuer, tandis que le revenu du pays considéré augmentait. Néanmoins, cette relation s’est avérée difficile à vérifier empiriquement. Cette hypothèse de courbe en U inversé ne tient plus lorsqu’on retire de l’échantillon plusieurs pays d’Amérique latine, et au cours des dernières décennies, la partie ascendante de la courbe de Kuznets a disparu tandis que les inégalités se creusaient dans de nombreux pays à faible revenu. En outre, plusieurs économies d’Asie de l’Est sont passées du groupe des pays à faible revenu à celui des pays à revenu intermédiaire tout en réduisant les inégalités de revenus.

Considérés dans leur ensemble, ces résultats remettent en cause la robustesse empirique de la courbe de Kuznets, et indiquent que le produit intérieur brut (PIB) par habitant constitue une mesure du développement économique qui est insuffisante pour expliquer les variations des inégalités de revenus. Ce point est confirmé par les conclusions de récents travaux, suivant lesquelles les inégalités dépendent non seulement du rythme de croissance ou du stade de développement d’un pays, mais aussi de son type de croissance. Par conséquent, il semblerait logique que des mesures plus nuancées du développement économique, telles que celles portant sur les types de produits exportés par un pays, fournissent sur les liens existant entre le développement économique et les inégalités des informations qui transcendent les limitations des mesures globales de la production comme le PIB.

Selon certains universitaires, les inégalités de revenus dépendent de divers facteurs, qui vont de la dotation en facteurs de production d’une économie, sa géographie et ses institutions à sa trajectoire historique, son évolution technologique et son rendement du capital. La combinaison de ces facteurs devrait se refléter dans la gamme de produits attribuable à l’économie considérée. Ainsi, les économies coloniales qui étaient spécialisées dans un ensemble limité de produits agricoles ou minéraux tendaient à se caractériser par une répartition plus inégale du pouvoir politique, du capital humain et de la richesse. Inversement, les produits très élaborés, tels que les appareils d’imagerie médicale ou les composants électroniques, sont généralement produits dans des économies diversifiées exigeant des institutions plus inclusives. Les secteurs d’activité complexes et les économies complexes sont florissants lorsque les travailleurs sont en mesure d’apporter une contribution créative aux activités des entreprises.

Cela laisse entrevoir un modèle de secteurs d’activité hétérogènes dans lequel les entreprises ne survivent que lorsqu’elles sont en mesure d’adopter ou de découvrir les institutions et le capital humain qui conviennent le mieux à chaque secteur. Suivant ce modèle, la composition de la gamme de produits qu’un pays exporte devrait nous renseigner sur ses institutions et sur la qualité de son capital humain. Ce modèle laisse également à penser que la gamme de produits d’un pays devrait fournir des informations expliquant les inégalités et susceptibles d’échapper aux mesures globales de développement telles que le PIB, la durée moyenne de scolarisation ou les indicateurs établis à partir d’enquêtes relatifs aux institutions formelles et informelles.

Avec nos collègues du Media Lab de l’Institut de technologie du Massachusetts (MIT), nous avons utilisé l’indice de complexité économique (ICE) pour obtenir des informations sur le niveau de développement d’une économie qui soient différentes de celles correspondant aux mesures des revenus. La complexité économique est une mesure des connaissances qui sont présentes dans une société et intégrées dans les produits qui en émanent. Les produits les plus complexes sont des machines et des produits chimiques très élaborés, tandis que les moins complexes sont des matières premières ou des produits agricoles bruts. La complexité économique d’un pays dépend de la complexité des produits qu’il exporte. Un pays est considéré comme une économie complexe s’il exporte non seulement des produits très complexes mais aussi un grand nombre de produits distincts. Pour déterminer la complexité économique d’un pays, nous mesurons l’ubiquité moyenne des produits qu’il exporte, puis la diversité moyenne des pays qui les produisent, etc.

Ainsi, en 2012, le revenu moyen par habitant et la durée moyenne de scolarisation du Chili (qui s’établissaient respectivement à 21 044 USD à parité de pouvoir d’achat (PPA) aux prix courants de 2012 et à 9.8 années) étaient comparables à ceux de la Malaisie (22 314 USD and 9.5 années), alors que celle-ci occupait le 24e rang et le Chili le 72e rang du classement des pays fondé sur l’ICE. Cela s’explique par les différences de structure d’exportation entre ces deux pays : les exportations du Chili sont constituées en grande partie de ressources naturelles, tandis que la Malaisie exporte un large éventail de produits électroniques et de machines (ainsi que l’illustre ce graphique : https://oe.cd/2ho/). En outre, ces différences de classement à l’aune de l’ICE mettent également en évidence de manière plus précise les écarts d’inégalités de revenus entre ces pays. Mesuré par le coefficient de Gini, le niveau des inégalités est nettement plus élevé au Chili (0.49) qu’en Malaisie (0.39).

Nous avons dissocié la corrélation entre la complexité économique et les inégalités de revenus de la corrélation entre les inégalités de revenus et le revenu moyen, la population, le capital humain (mesuré par la durée moyenne de scolarisation), la concentration des exportations et les institutions formelles. Nos résultats mettent en évidence une corrélation forte et robuste entre l’indice de complexité économique et les inégalités de revenus. Cette relation est robuste même en tenant compte des mesures des revenus, du niveau d’études et des institutions, et cette relation est restée forte au cours des cinquante dernières années. Nos résultats montrent également que les augmentations de la complexité économique tendent à s’accompagner de diminutions des inégalités de revenus.

Nos conclusions ne signifient pas que les structures productives déterminent à elles seules le niveau des inégalités de revenus d’un pays. Au contraire, une explication plus probable est que les structures productives reflètent de manière très précise divers facteurs, allant des institutions au niveau d’études, qui évoluent parallèlement à la gamme de produits qu’un pays exporte et à l’inclusivité de son économie. Néanmoins, compte tenu de cette évolution parallèle, nos conclusions soulignent que les structures productives sont non seulement associées aux revenus et à la croissance économique, mais aussi à la distribution de ces revenus.

Nous mettons au point une méthode qui permet d’analyser plus finement la relation entre structure productive et inégalités de revenus. Cette méthode est fondée sur un nouvel indicateur, l’indice de Gini par produit (IGP), qui permet d’estimer le niveau attendu d’inégalités pour les pays exportant un produit donné. L’application des valeurs de l’IGP au réseau de produits connexes nous permet de créer des cartes qui peuvent être utilisées pour anticiper l’impact qu’aura l’évolution de la structure productive d’un pays sur son niveau d’inégalités de revenus. Ces cartes offrent aux chercheurs et aux gouvernants la possibilité d’explorer et de comparer les évolutions parallèles complexes des structures productives, des institutions et des inégalités de revenus pour des centaines d’économies.

Liens utiles

L’article original publié sur le site OECD Insights, accompagné de liens et d’informations complémentaires, se trouve ici : http://wp.me/p2v6oD-2CN.

La série complète d’articles peut être consultée à cette adresse : http://oecdinsights.org/?s=NAEC+complexity.

Foules, consensus et complexité dans le cadre des prévisions économiques

par Brian Dowd, Focus Economics

Prévoir le comportement futur de quoi que ce soit, et a fortiori de quelque chose d’aussi complexe et énorme qu’une économie dans son ensemble, n’est pas une tâche aisée. Les prévisions exactes sont donc rares. Les économies sont des systèmes complexes en mouvement perpétuel, et extrapoler des comportements et des relations à partir des cycles économiques antérieurs pour le suivant est une entreprise extraordinairement compliquée. En outre, et cela peut sembler surprenant, la difficulté de l’exercice de prévision tient à l’ampleur du volume de données économiques brutes disponibles. Dans un monde idéal, les prévisions économiques se fonderaient sur la totalité des informations disponibles. Dans le monde réel, néanmoins, cela est quasiment impossible, dans la mesure où les informations sont disséminées dans une myriade d’articles de presse, de communications des pouvoirs publics et autres, ainsi que dans une montagne de données brutes.

Certains pourraient considérer comme un avantage l’existence de cette masse d’informations, mais rien ne serait plus éloigné de la vérité. Les milliers d’indicateurs et de données disponibles tendent en effet à produire une quantité considérable de bruit statistique, ce qui complique sérieusement la mise en évidence de liens de causalité significatifs entre variables. Et, naturellement, nous ne pouvons oublier l’incertitude inhérente à toute prévision, élément que les conjoncturistes doivent prendre en compte et qui constitue une source de bruit supplémentaire.

Dès lors, la question est de savoir s’il est possible d’éliminer tout ce bruit pour obtenir une prévision plus exacte. C’est là qu’entre en jeu « la sagesse des foules ». Francis Galton, un érudit de l’époque victorienne, a été le premier à mettre en évidence cette sagesse des foules au cours d’une foire aux bestiaux à laquelle il s’est rendu en 1906. Les visiteurs de la foire ont été mis au défi de deviner le poids d’un bœuf, avec une récompense à la clé pour la personne ayant avancé le chiffre le plus proche de la réalité. Galton a émis l’hypothèse que la bonne réponse ne serait pas donnée par un individu, mais par tout le monde. Cela n’est pas aussi contradictoire qu’il y paraît. Plus de 750 participants ont avancé un chiffre et, comme on pouvait s’y attendre, personne n’a deviné le poids exact de l’animal. Néanmoins, lorsque Galton a calculé la moyenne arithmétique de toutes ces supputations, il s’est avéré – chose incroyable – que c’était le poids exact du bœuf : 543.4 kilogrammes.

L’idée élémentaire sur laquelle repose la sagesse des foules est que la moyenne des réponses d’un groupe de personnes est souvent plus exacte que la réponse d’un individu donné, comme dans l’expérience de Galton. L’exactitude de cette sagesse collective augmente avec le nombre de participants et la diversité de leurs compétences.

Quel est donc le rapport entre sagesse des foules et prévisions économiques ? Vous vous souvenez de tout ce bruit qui rend les prévisions économiques si difficiles et en affecte la précision ? La théorie, c’est qu’un bruit idiosyncratique est associé à chaque réponse individuelle et que lorsqu’on utilise la moyenne de réponses multiples, ces bruits tendent à s’éliminer, de sorte que l’image obtenue in fine est beaucoup plus exacte.

Parfois simplement qualifié de prévisions combinées, le consensus des conjoncturistes repose également sur l’idée de sagesse des foules que l’on doit à Galton. Il s’agit en substance de la moyenne des prévisions émanant de différentes sources. De nombreux travaux empiriques réalisés au cours des dernières décennies montrent que faire la moyenne de prévisions multiples permet d’éliminer le bruit statistique et d’obtenir ainsi une prévision plus exacte. Il est certes possible qu’un conjoncturiste établisse une prévision meilleure que le consensus, mais il est peu probable que le même conjoncturiste le fasse régulièrement une période étudiée après l’autre. En outre, ces prévisions individuelles qui s’avèrent effectivement meilleures que le consensus des conjoncturistes sur une période donnée sont impossibles à identifier à l’avance, dans la mesure où elles varient sensiblement d’une période à l’autre.

Un exemple pratique illustre les avantages du consensus des conjoncturistes. En janvier 2015, il s’établissait à 5.1 % pour la croissance du produit intérieur brut (PIB) de la Malaisie au cours de l’année 2015. En mars 2016, le taux effectif de croissance de l’année précédente est ressorti à 5.0 %. Comme on pouvait s’y attendre, quelques prévisions étaient plus proches du résultat final que le consensus, mais comme cela a déjà été indiqué, il était impossible de déterminer a priori lesquelles. Une autre façon d’examiner la question consiste à comparer différentes prévisions individuelles avec le chiffre effectif, ainsi que nous l’avons fait pour les prévisions établies en janvier 2015 par 25 analystes économiques pour la croissance du PIB de la Malaisie au cours de l’année 2015. En mars 2016, la prévision maximale au sein de ce groupe s’est révélée supérieure de 16 % au chiffre effectif, tandis que la prévision minimale était inférieure de 10 %. Le consensus des conjoncturistes, en revanche, était seulement supérieur de 1.9 % au taux de croissance effectif. Lorsqu’on calcule la moyenne de l’ensemble des prévisions, on constate donc que les erreurs à la hausse et à la baisse se compensent pour l’essentiel. Par conséquent, le consensus des conjoncturistes était nettement plus proche du chiffre effectif que la majorité des prévisions individuelles.

Que l’on s’appuie sur le consensus des conjoncturistes, sur des prévisions individuelles ou sur toute autre forme de prévision, on obtiendra rarement un résultat parfait en tentant de prédire l’avenir. Pour revenir à l’exemple de la Malaisie, le consensus des conjoncturistes ne correspondait pas exactement au résultat final, mais il permettait assurément de réduire la marge d’erreur. Les prévisions sont quasiment toujours erronées dans une certaine mesure, mais l’essentiel est de chercher à réduire cette erreur, et le plus souvent, on obtiendra des prévisions plus exactes. L’utilisation du consensus des conjoncturistes permet non seulement de réduire la marge d’erreur, mais aussi de gagner en cohérence et en fiabilité. Les prévisions individuelles peuvent varier sensiblement d’un analyste à l’autre, tandis que le consensus des conjoncturistes fournira de manière systématique des prévisions correctes.

La prévision est une science, mais pas une science exacte. Elles ne sont certes pas parfaites, mais les prévisions n’en demeurent pas moins importantes pour les entreprises et les pouvoirs publics, dans la mesure où elles apportent un éclairage sur l’avenir et les aident à prendre des décisions cruciales en termes de stratégie, de planification et de budget. En définitive, doit-on accorder crédit aux prévisions ? Il est indéniable qu’établir des prévisions est un exercice compliqué, que leur inexactitude est notoire et qu’il existe peu de moyens d’améliorer de manière systématique leur exactitude. Le fait est, cependant, que les prévisions ne doivent pas nécessairement être parfaites pour être utiles. Il faut simplement veiller à ce qu’elles soient aussi exactes que possible. Une façon d’y parvenir consiste à s’appuyer sur la sagesse d’une foule d’analystes pour produire un consensus des conjoncturistes.

Comme l’a dit Henri Poincaré, mathématicien, physicien et philosophe français : « Il est de loin préférable de prévoir, même sans certitude, que de ne pas prévoir du tout. » Le consensus des conjoncturistes constitue un moyen plus exact de « prévoir ».

Liens utiles

L’article original publié sur le site OECD Insights, accompagné de liens et d’informations complémentaires, se trouve ici : http://wp.me/p2v6oD-2Mn.

La série complète d’articles peut être consultée à cette adresse : http://oecdinsights.org/?s=NAEC+complexity.