Applications de la théorie de la complexité

Urbanisation et systèmes complexes

par Colin Harrison, ingénieur émérite IBM (en retraite), ancien responsable de l’élaboration de la stratégie technique relative à l’initiative Smarter Cities d’IBM

La ville est la plus grande invention de l’humanité : un écosystème artificiel qui permet à des millions d’individus de vivre à proximité immédiate les uns des autres et de collaborer à la création de nouvelles formes de valeur. Si les villes ont été inventées il y a des millénaires, leur importance économique s’est spectaculairement accrue avec la Révolution industrielle, au point qu’elles abritent désormais la majeure partie de l’économie mondiale. Tous les aspects de la vie humaine s’y retrouvent, et c’est pourquoi étudier les villes implique de traverser les frontières entre l’économie, la finance, l’ingénierie, l’écologie, la sociologie, l’anthropologie et, de fait, la quasi-totalité des formes de savoir. Cependant, si nous disposons de vastes connaissances dans chacun de ces domaines pris individuellement, nous en savons peu, scientifiquement parlant, sur la façon dont ces domaines s’articulent au sein du système de systèmes que constitue une ville. Bref, comment une ville fonctionne-t-elle ?

Le comprendre serait utile pour les décennies qui viennent. Ces 60 à 70 dernières années, la mondialisation a répandu encore plus largement la Révolution industrielle, créant au sein des villes de nouvelles possibilités qui attirent des centaines de millions de migrants internes et internationaux. Ce processus permet à nombre de ces migrants de sortir de la misère, tout en causant aux villes, de Londres à Nairobi, des difficultés d’ordres divers face à ce flux incessant d’arrivées.

En outre, les villes sont responsables d’une part importante des émissions de gaz à effet de serre, consomment des ressources naturelles telles que l’eau et l’air et produisent de la pollution. La bataille contre les changements climatiques ne pourra se gagner qu’au niveau des villes. Les villes sont aussi les principaux pôles d’innovation et de développement économique, deux conditions nécessaires pour continuer de sortir les migrants de la pauvreté.

On peut faire remonter l’histoire de l’urbanisme à plus de trois mille ans, avec l’adoption des premiers schémas directeurs pour l’aménagement des villes, mais c’est l’extraordinaire essor urbain de la fin du xixe siècle qui a révolutionné ce domaine en obligeant à tenir compte des nombreux services et affordances nécessaires aux citadins. Toutefois, l’urbanisme est né, avant tout, des sciences humaines, et il se fonde essentiellement sur de vastes études de cas, même s’il a adopté de nombreux outils numériques. La démarche consistant à appréhender la ville comme un objet d’étude scientifique est plus récente, et elle en est encore à ses prémices. Cette démarche trouve notamment son origine dans les progrès de la réflexion sur la complexité – théorie des réseaux, lois d’échelle et science des systèmes, par exemple – et dans l’accessibilité croissante des données urbaines.

L’étude des lois d’échelle en milieu urbain remonte au moins au début du xxe siècle, époque à laquelle on a constaté que les villes offraient un exemple de la loi de Zipf. Appliquée aux villes, la loi de Zipf veut que, dans la plupart des pays, le nombre de villes dotées d’une population supérieure à S soit proportionnel à 1/S. On a beaucoup progressé dans la compréhension des lois d’échelle ces dernières années, grâce aux travaux de West, Bettencourt et Batty. Leurs travaux montrent que les villes présentent de nombreuses propriétés (telles que le nombre ou la longueur des routes, le nombre d’aménités de type restaurants, etc.) qui suivent des lois d’échelle, pour des populations allant de dix mille habitants à des dizaines de millions d’habitants. De plus, ces lois d’échelle ont des exposants s’échelonnant entre 0.85 et 1.15 qui montrent que les grandes villes sont plus productives, plus innovantes, plus économes en énergie et plus coûteuses – mais aussi plus rémunératrices – que les petites villes. De même, les attributs négatifs tels que la délinquance, la morbidité etla pollution présentent une progression super-linéaire, ce qui signifie qu’ils ne suivent pas une augmentation strictement proportionnelle à celle de la taille de la ville. Par exemple, le PIB est proportionnel à la taille (S) d’une ville, à une puissance légèrement supérieure à 1 (soit S1.15), alors que d’autres attributs tels que, par exemple, la consommation d’énergie par habitant suivent une progression sublinéaire (soit S0.85). Les lois de réseaux décrivent également bien l’évolution à long terme des réseaux routiers et ferroviaires urbains.

Si les lois d’échelle et de réseaux sont très utiles d’un point de vue descriptif, les avis sont partagés quant à leur validité pour des pays différents et quant à leur pouvoir prédictif. En d’autres termes, le positionnement des attributs sur l’échelle est un instantané du rapport fréquence/taille à un moment donné. Si une ville progresse en taille, il n’est pas certain qu’elle enregistre, à court terme, toutes les conséquences positives et négatives décrites. De plus, ces lois ne proposent aucune explication aux comportements observés. Il s’agit néanmoins d’un champ d’étude important pour les urbanistes qui constatent l’expansion ou la contraction d’une ville.

Les données urbaines étant devenues plus nombreuses, il est désormais possible d’étudier les villes en tant que systèmes complexes d’interactions. On peut considérer une ville comme une myriade d’interactions entre ses habitants, ses infrastructures et affordances, son environnement naturel et ses organisations publiques, privées et civiques. Certaines de ces interactions consistent en la fourniture de biens ou de services en échange d’une contrepartie financière, mais nombre d’entre elles consistent en l’échange ou la transmission d’informations permettant aux habitants et aux organisations de faire des choix. Le transport public est souvent étudié sous cet angle, ce qui a permis, par exemple, de montrer que les villes de taille petite et moyenne se dotaient progressivement de réseaux permettant des déplacements pendulaires entre un petit nombre de quartiers résidentiels et de quartiers d’activité, tandis que les très grandes villes telles que Londres étaient dotées de réseaux beaucoup plus riches, qui offraient aux habitants plus de flexibilité quant à leurs lieux de résidence et de travail.

On peut aussi modéliser le fonctionnement des villes en utilisant des populations synthétiques d’agents logiciels qui représentent la répartition des comportements ou préférences de populations réelles beaucoup plus vastes. De tels modèles fondés sur des agents représentant des paramètres de point de départ, de destination, de temps de trajet et de préférences modales sont utilisés pour examiner l’impact global de nouveaux services tels que le Crossrail de Londres.

À l’heure où l’internet des objets permet de mieux observer comment les habitants d’une ville donnée choisissent de tirer parti des possibilités qu’elle offre, nous pouvons espérer découvrir des principes abstraits de fonctionnement des villes. Nous pouvons imaginer construire des modèles basés sur des agents représentant l’éventail complet des choix que les habitants d’une ville font, à une échelle temporelle allant de quelques minutes à des années et à une échelle spatiale allant de quelques mètres à des kilomètres. De même, au vu de la disponibilité croissante de l’information en temps réel, nous pouvons espérer comprendre un jour l’utilisation efficace des services d’une ville en termes d’équilibre de Nash, situation (souvent utilisée pour décrire une partie de poker) dans laquelle, selon la théorie des jeux, aucun joueur n’a intérêt à modifier la stratégie qu’il a choisie si les autres joueurs ne modifient pas la leur : toutes les stratégies des joueurs sont optimales. Il s’agit là de perspectives lointaines, mais le programme de la Commission européenne relatif à la science des systèmes globaux représente le point de départ de cette aventure.

Liens utiles

L’article original publié sur le site OECD Insights, accompagné de liens et d’informations complémentaires, se trouve ici : http://wp.me/p2v6oD-2Cx.

La série complète d’articles peut être consultée à cette adresse : http://oecdinsights.org/?s=NAEC+complexity.

Données massives, théorie de la complexité et développement urbain

par Ricardo Herranz, Directeur général, Nommon Solutions and Technologies, Madrid

Nous vivons dans un monde urbanisé : plus de la moitié de la population mondiale est concentrée en zone urbaine et selon la plupart des prévisions, à la fin du siècle, c’est pratiquement la totalité de la population de la planète que vivra dans les villes. Dans ce contexte se développe l’opinion selon laquelle les défis planétaires que sont l’élimination de la pauvreté, la viabilité écologique, le changement climatique et la durabilité et la sécurité de l’approvisionnement en énergie sont intimement liés aux villes, qui sont à la fois l’origine de ces grands problèmes mondiaux et le lieu où les solutions à ces problèmes peuvent être trouvées. À court terme, les villes sont confrontées au défi majeur de surmonter la crise financière et économique, et d’en sortir plus fortes. À long terme, elles doivent faire face aux enjeux structurels liés à la mondialisation, au changement climatique, aux pressions qui s’exercent sur les ressources, à l’évolution démographique, aux migrations, et à la ségrégation et la polarisation sociales. Bon nombre de ces défis concernent autant les villes du monde développé que celles des pays en développement, tandis que d’autres sont liés à des différences géographiques, institutionnelles, socio-économiques et culturelles.

Pour relever ces défis, les décideurs et, plus largement, la société doivent faire face à plusieurs problèmes de fond. Les nombreuses composantes du tissu urbain sont étroitement imbriquées, ce qui entretient une dynamique complexe et ne permet pas d’anticiper facilement l’impact et les conséquences indésirables de l’action publique. Les villes ne sont pas des systèmes fermés, mais font partie d’ensembles de villes. Les politiques de développement urbain font l’objet de processus décisionnels largement réparti et à plusieurs niveaux, et elles ont un impact profond sur des acteurs très divers, dont les objectifs sont souvent divergents ou contradictoires.

Ces dernières années, nous avons vu apparaître des concepts comme « ville intelligente », « informatique urbaine », « analytique urbaine » et « science citoyenne », que l’on considère comme étant très prometteurs pour améliorer le fonctionnement des villes. Cependant, le gros de ce potentiel reste sans doute encore à réaliser. Le concept de ville intelligente concentre un certain nombre d’idées sur la contribution que les technologies de l’information et des communications peuvent apporter pour répondre aux enjeux fondamentaux du monde urbain. Ce que recouvre ce concept, c’est une approche intégrée des synergies et arbitrages entre différents domaines d’action étroitement liés, mais qui étaient jusqu’à présent envisagés séparément, comme l’aménagement du territoire, les transports et l’énergie. Cette approche serait facilitée par la capacité d’analyser les flux de données de plus en plus importants générés par la généralisation des capteurs dans le milieu bâti et de l’utilisation des appareils mobiles personnels. Parallèlement, les dispositifs intelligents et les médias sociaux favorisent de nouvelles formes de participation du public à l’urbanisme. Les possibilités sont énormes, mais les défis également.

On mise beaucoup sur l’explosion des données massives pour jeter les bases d’une nouvelle science des villes. Au cours des 20 dernières années, la tendance dominante, en matière de modélisation urbaine, est passée de modèles d’équilibre général à des modèles dynamiques ascendants (modèles basés sur les activités et modèles basés sur les agents) qui vise à représenter les villes sous formes d’éléments plus désagrégés et hétérogènes. Cet affinement croissant des modèles s’accompagne de la nécessité de disposer d’une abondance de données fines pour la calibration et la validation du modèle, ce qui fait obstacle à l’utilisation opérationnelle de méthodes de modélisation de pointe. L’apparition de nouvelles sources de données massives permet la collecte de données spatio-temporelles sur l’activité urbaine à un niveau de détail inégalé, d’où se dégagent des informations qu’il était impossible d’obtenir à partir des données d’enquêtes ou de recensement. Ces données ont déjà permis de réaliser d’importantes améliorations pratiques dans des domaines comme la planification des transports, mais il est beaucoup moins certain, du moins jusqu’à présent, que les données massives nous aient permis d’améliorer sensiblement notre compréhension de la problématiqueurbaine. En principe, le potentiel existe : alors que la recherche sur le milieu urbain était fondée auparavant sur des ensembles de données démographiques et économiques transversales, souvent constitués d’échantillons relativement petits, nous disposons aujourd’hui de données longitudinales détaillées à grande échelle qui nous permettent de tester de nouvelles hypothèses sur la structure et la dynamique urbaines. Par ailleurs, le risque existe que les données massives ne favorisent une évolution en faveur de modèles non explicatifs, prédictifs et à court terme, au détriment de la théorie. Il apparaît essentiel, pour surmonter cette difficulté et tirer parti des possibilités offertes par les données massives en vue d’améliorer les théories et les politiques publiques, d’articuler les concepts de villes intelligentes et de données massives avec les connaissances acquises au cours des dernières décennies dans des domaines comme la science régionale, l’économie urbaine et la modélisation des transports.

Des travaux empiriques, mais également des avancées théoriques, seront nécessaires pour faire face aux nouveaux défis que sont la rareté de l’énergie, le changement climatique, les technologies émergentes comme la voiture autonome et l’évolution des relations sociales, les nouvelles activités et les nouvelles formes d’économie du partage, rendues possibles par les médias sociaux et les communications électroniques, entre autres facteurs qui transforment en profondeur la structure et la dynamique urbaines. Autre défi majeur, il faudra intégrer les données et les modèles aux processus de gouvernance : l’évaluation des politiques et la planification participative sont encore largement fondées sur des considérations qualitatives, et le sentiment qui prévaut est que les modèles urbains les plus récents ne sont pas suffisamment aboutis en ce qui concerne l’intégration institutionnelle et l’utilisation opérationnelle. Les nouvelles formes de partage et de visualisation de données, de participation numérique et d’engagement des citoyens sont des outils prometteurs pour s’attaquer à cette question, mais là encore, il nous faut trouver comment mettre en commun les données et les connaissances spécialisées sous une forme qui se conjugue harmonieusement avec le processus décisionnel participatif et comble l’écart entre savoir implicite et connaissance explicite. Les progrès récents dans des domaines comme la théorie des réseaux, la modélisation informatique basée sur les agents et la théoriede la décision collective, et plus généralement l’approche intrinsèquement holistique et éclectique préconisée par la science de la complexité, semblent composer un cadre propice à l’élaboration d’une nouvelle science des villes, capable à son tour de faire progresser la planification et la gestion des villes, pour nous armer face aux formidables défis du développement urbain du xxie siècle.

Liens utiles

L’article original publié sur le site OECD Insights, accompagné de liens et d’informations complémentaires, se trouve ici : http://wp.me/p2v6oD-2Di.

La série complète d’articles peut être consultée à cette adresse : http://oecdinsights.org/?s=NAEC+complexity.

Innovation et complexité

par Andrew Wyckoff, Directeur, Direction de la science, de la technologie et de l’innovation de l’OCDE

Depuis sa création, en 1961, l’OCDE a influencé l’attitude des gouvernements à l’égard de la science, de la technologie et de l’innovation, et la façon dont la science économique appréhende ce triptyque. Un an seulement après la création de son Groupe de travail des experts nationaux sur les indicateurs de la science et de la technologie (GENIST), en 1962, l’OCDE réussissait, avec son étude intitulée « Science, economic growth and government policy » (1963), à convaincre les gouvernements que la politique scientifique devait être liée à la politique économique. En 1971, « Science, growth and society » (aussi appelé « le rapport Brooks », du nom du président du groupe de travail qui en est l’auteur) anticipait bon nombre de nos préoccupations actuelles en insistant sur la nécessité d’associer les citoyens à l’évaluation des conséquences du développement et de l’utilisation des nouvelles technologies.

Pour de nombreux experts, toutefois, la contribution majeure a été le concept de systèmes nationaux d’innovation, présenté en 1992 dans une publication marquante, « La technologie et l’économie : les relations déterminantes ». Les origines du concept remontent à la crise des années 70, qui avait suscité une remise en question des explications que la pensée économique avaient données jusque-là du mécanisme de la croissance et du ralentissement de la croissance de la productivité. Un rapport de l’OCDE publié en 1980 – « Technical Change and Economic Policy » – est aujourd’hui largement reconnu comme étant le premier document d’orientation majeur à remettre en cause les interprétations macroéconomiques de la crise des années 70 et à souligner le rôle des facteurs technologiques pour trouver des solutions, faisant valoir par exemple que l’innovation pouvait être plus puissante que la compétitivité des salaires pour stimuler l’économie.

Les économistes de l’OCDE ont été les pionniers d’une nouvelle approche considérant l’innovation non pas comme quelque chose de linéaire, mais comme un écosystème fait d’interactions entre le savoir existant, la recherche et l’invention ; les marchés potentiels ; et le processus de production. Dans les stratégies d’innovation nationales, l’un des principaux enjeux concerne les interactions entre les différents acteurs : entreprises, établissements publics de recherche, structures intermédiaires et autres. Et contrairement à l’opinion qui prévalait chez les décideurs dans les années 80 et au début des années 90, l’OCDE estimait également que les pouvoirs publics devaient jouer un rôle central dans l’innovation, d’où le terme « stratégie nationale d’innovation ».

Aujourd’hui, l’innovation privilégie les services, et certaines entreprises brouillent même la distinction entre la valeur ajoutée des produits et celle des services, le smartphones étant un bon exemple à cet égard. C’est là le résultat logique de la transformation numérique croissante de l’économie. Les technologies numériques sont devenues si omniprésentes que l’on peut facilement oublier quand elles ont fait leur apparition. Le World Wide Web que nous connaissons aujourd’hui, par exemple, a été créé dans les années 90, et en 1995 encore, Microsoft a pensé qu’il était possible de lancer un concurrent de l’internet (MSN). Google n’est né qu’en 1998 et n’a été introduit en bourse que six ans plus tard.

L’économie et la société numériques ont atteint un tel stade de développement en si peu de temps qu’il est difficile de prédire comment elles évolueront à l’avenir. Il est toutefois possible d’isoler certains facteurs de changement. Les données massives (Big Data) en seront l’un des plus importants. Dans « Le phénomène de l’innovation fondée sur les données », l’OCDE cite des sources selon lesquelles plus de 2.5 exaoctets (Eo, ou milliards de gigaoctets) de données sont générés chaque jour, soit l’équivalent de 167 000 fois le contenu de l’ensemble des livres de la bibliothèque du Congrès des États-Unis. La première entreprise mondiale de vente au détail, Walmart, enregistre déjà plus de 1 million de transactions client par heure. La disponibilité de volumes de données aussi énormes permettra de mettre au point de nouveaux modèles qui mettront la puissance du concept de complexité au service des sciences sociales, y compris la science économique. Le processus d’élaboration des politiques pourrait aussi bénéficier de nouveaux modes de collecte de données sur les politiques proprement dites et d’une grande amélioration de nos capacités d’évaluation.

L’analyse des données (souvent en temps réel), pratiquée de plus en plus à partir de dispositifs intelligents intégrés à l’internet des objets, ouvre de nouvelles perspectives de création de valeur liées à l’optimisation des processus de production et à la création de nouveaux services. Cet « internet industriel » tisse ses propres systèmes complexes, dotant machines et réseaux d’une autonomie qui leur permet d’apprendre et de prendre des décisions indépendamment d’une intervention humaine. Une telle évolution est de nature à engendrer de nouveaux produits et marchés, mais peut aussi semer le chaos sur les marchés existants, comme en témoignent divers micro-crash financiers.

Deux séries de défis, ou de tensions, appellent l’attention des décideurs si l’on veut maximiser les bienfaits de l’innovation fondée sur les données et atténuer les risques économiques et sociaux que celle-ci peut présenter par ailleurs. Il faut d’abord promouvoir l’« ouverture » de l’écosystème de données mondial, et donc la libre circulation des données entre les pays, secteurs et organisations, tout en conciliant les intérêts divergents des individus et des organisations (notamment en ce qui concerne la protection de la vie privée et de la propriété intellectuelle). Ensuite, il importe de trouver les mesures propres à activer les moteurs de l’innovation fondée sur les données, et en même temps maîtriser les effets de la « destruction créatrice » induite par cette innovation. Se pose en outre la question de l’efficacité des politiques nationales quand on sait que l’innovation fondée sur les données s’inscrit par définition dans une dimension mondiale. En tant que responsable de l’élaboration des politiques, vous pouvez encourager une certaine dynamique dans votre pays, mais ses retombées en termes d’emplois ou de marchés se feront peut-être sentir ailleurs.

Compte tenu de l’apparition de si nombreuses nouvelles technologies, de l’intégration croissante des entreprises et des pays aux chaînes de valeur mondiales, et de l’élévation générale du niveau de formation des travailleurs, on imaginerait que la croissance de la productivité explose, alors qu’en fait, elle ralentit. Mais selon l’étude « The Future of Productivity  » de l’OCDE, cette tendance moyenne masque la situation réelle. Ainsi, dans le secteur manufacturier, la productivité du travail dans les entreprises les plus productives de la planète (celles qui se situent à la « frontière mondiale ») a augmenté en moyenne de 3.5 % par an au cours années 2000, contre 0.5 % dans les autres entreprises.

La diffusion du savoir-faire des entreprises pionnières vers le reste de l’économie n’a pas eu lieu – soit en raison de blocages, soit parce que nous traversons une période de transformation et que les compétences nécessaires pour exploiter au mieux les technologies demeurent l’apanage d’une minorité. Probablement les deux à la fois. Nous devons donc aider les entreprises à la frontière à continuer d’innover et faciliter la diffusion des nouvelles technologies et des innovations entre les entreprises qui se situent à la frontière mondiale et celles qui sont à la frontière nationale. Nous pouvons nous efforcer de créer un environnement de marché où les entreprises les plus productives puissent prospérer, pour ainsi faciliter la pénétration plus large des technologies et des innovations. Et nous devons améliorer l’adéquation des compétences aux emplois afin de mieux utiliser le vivier de talents qui existe dans l’économie et permettre aux travailleurs qualifiés de changer d’emploi et ainsi de diffuser leur savoir-faire.

Dans un système complexe, on ne saurait prédire les résultats avec une quelconque certitude, mais nombre de retombées imprévues des interactions à l’œuvre dans le système d’innovation sont bénéfiques. Les mesures évoquées ci-dessus seraient toutes utiles isolément et devraient normalement se renforcer les unes les autres pour produire des effets profitables.

Liens utiles

L’article original publié sur le site OECD Insights, accompagné de liens et d’informations complémentaires, se trouve ici : http://wp.me/p2v6oD-2Ff.

La série complète d’articles peut être consultée à cette adresse : http://oecdinsights.org/?s=NAEC+complexity.

La gouvernance de l’éducation dans un monde complexe

par Tracey Burns, Chef de projet, Direction de l’éducation et des compétences de l’OCDE

Le fameux principe « KISS » (ou « Keep it simple, stupid !  ») est un appel à la simplicité. Mais, de plus en plus, les responsables de l’action publique prennent conscience qu’il est essentiel de ne pas faire simple – voire d’embrasser la complexité – pour pouvoir comprendre les systèmes d’aujourd’hui et assurer la réussite des réformes.

Les sociétés modernes sont composées d’un nombre croissant de parties prenantes diverses, qui collaborent de manière formelle et informelle. À la faveur de progrès et d’un essor rapides, les technologies de l’information et de la communication jouent désormais un rôle beaucoup plus immédiat dans le processus décisionnel, et la prestation des services publics est plus décentralisée.

Cette complexité s’accompagne de multiples processus dynamiques qui échappent au cadre traditionnel de l’action publique. Cela n’a rien de surprenant : nombre d’observateurs expliquent, depuis 30 ans, à quel point le cycle habituel de l’élaboration des politiques est inadapté dans les domaines de l’agriculture, de la médecine et de l’éducation. Cependant, ce qui a changé, c’est qu’une palette de plus en plus large d’intervenants prend désormais conscience qu’il n’est plus possible de continuer à s’appuyer sur des modèles de réforme linéaires traditionnels.

Il ne s’agit pas d’un débat purement théorique : en ignorant le caractère dynamique de la gouvernance, on rend les réformes moins efficaces. Dans l’éducation par exemple, même des établissements scolaires très comparables peuvent avoir des réactions très différentes face à une même mesure. Une étude de cas sur les Pays‐Bas a montré en quoi il avait été bénéfique, pour certains établissements en difficulté, d’être classés comme nécessitant des améliorations, puisque cela leur avait permis de se rassembler en tant que communauté pour amorcer un cercle vertueux d’amélioration des performances. À l’inverse, d’autres établissements classés dans la même catégorie s’étaient retrouvés dans une situation difficile, certains tombant même dans un cercle vicieux caractérisé par la démotivation des enseignants, le départ d’élèves pour d’autres établissements et une baisse des performances générales. Un modèle simple de réforme et de gouvernance ne peut rendre compte d’une telle complexité.

Comment identifier la complexité ? Selon un article publié en 2002 par Glouberman et Zimmerman, qui a fait date, on distingue trois types de problèmes : les problèmes simples, les problèmes compliqués et les problèmes complexes. Par problème simple, on entend par exemple la préparation d’un gâteau. Si vous le faites pour la première fois, ce n’est pas évident, mais avec une recette et les bons ingrédients, vous êtes à peu près certain d’y arriver. Dans ce cas, les compétences sont utiles, mais pas indispensables.

À titre de comparaison, on pourrait citer comme exemple de problème compliqué l’envoi d’une fusée sur la lune. Des formules sont essentielles pour résoudre ce type de problèmes, et des compétences pointues sont non seulement utiles mais aussi nécessaires. Néanmoins, tous les aspects fondamentaux des fusées étant les mêmes, une fois résolu le premier problème compliqué, il est raisonnable de penser que vous pourrez recommencer.

Les choses sont différentes avec les problèmes complexes, comme par exemple le fait d’élever un enfant. Comme tous les parents le savent, il n’existe aucune recette ou formule magique. Si le fait d’élever un premier enfant vous apporte une expérience précieuse, il n’est absolument pas garanti que vous parveniez à en élever un autre. Pourquoi ? Parce que chaque enfant est unique et, parfois, imprévisible. Les solutions qui peuvent fonctionner dans un cas peuvent ne fonctionner qu’en partie, voire pas du tout, dans un autre.

Pour revenir à l’exemple des établissements scolaires en difficulté, ce qui rendait le problème complexe plutôt que compliqué tient à l’impossibilité d’anticiper les processus dynamiques sur lesquels se fonde la réaction des établissements et des communautés. La prise en compte de la complexité inhérente à la gouvernance moderne constitue donc une première étape essentielle pour veiller à l’efficacité des réformes. Pour être efficace, la gouvernance moderne doit:

  • S’attacher aux processus, non aux structures. La quasi-totalité des structures de gouvernance peuvent être performantes lorsque les conditions sont réunies. Ce n’est pas le nombre de strates, et le pouvoir qui leur est conféré, qui détermine l’efficacité d’un système, mais plutôt la cohérence au sein du système, l’implication de toutes les parties concernées et les processus qui sous-tendent la gouvernance et la réforme.

  • Être flexible et capable de s’adapter au changement et aux évènements inattendus. Renforcer l’aptitude d’un système à tirer les enseignements des retours d’informations est un aspect essentiel de ce processus, et aussi une étape nécessaire vers l’assurance qualité et l’obligation de rendre des comptes.

  • Passer par le renforcement des capacités, la participation des parties prenantes et un dialogue ouvert. Mais elle doit aussi suivre une trajectoire claire : la participation d’un éventail plus vaste de parties prenantes ne peut fonctionner que si une vision stratégique a été définie et qu’un ensemble de processus a été mis en place pour mettre à profit leurs idées et leurs contributions.

  • Impliquer une approche à l’échelle de l’ensemble du système. Cela suppose d’harmoniser les politiques, les rôles et les responsabilités pour améliorer l’efficience et réduire les chevauchements ou conflits potentiels (par exemple entre l’obligation de rendre des comptes et la confiance, ou l’innovation et l’évitement du risque).

  • Exploiter les données et la recherche disponibles pour étayer l’action publique et les réformes. Un système de connaissances solide conjugue données systémiques descriptives, résultats de la recherche et savoir des spécialistes. Les principales parties prenantes savent quoi utiliser, pourquoi et comment.

Créer les cadres de gouvernance ouverts, dynamiques et stratégiques nécessaires pour superviser les systèmes complexes n’est pas chose aisée. La gouvernance moderne doit être en mesure de concilier dynamisme et complexité, tout en définissant une trajectoire claire vers les objectifs définis. Qui plus est, compte tenu des ressources financières limitées actuellement disponibles, elle doit le faire de manière aussi efficiente que possible. Si elle est difficile, cette tâche est néanmoins nécessaire.

Liens utiles

L’article original publié sur le site OECD Insights, accompagné de liens et d’informations complémentaires, se trouve ici : http://wp.me/p2v6oD-2D9.

La série complète d’articles peut être consultée à cette adresse : http://oecdinsights.org/?s=NAEC+complexity.

Le développement comme produit d’un système complexe adaptatif

par Frans Lammersen et Jorge Moreira da Silva (Directeur) Direction de la coopération pour le développement de l’OCDE – DCD-DAC

Adam Smith a écrit dans  La Richesse des nations : « Pour élever un État du dernier degré de barbarie au plus haut degré d’opulence, il ne faut que trois choses : la paix, des taxes modérées et une administration tolérable de la justice. Tout le reste est amené par le cours naturel des choses ». D’autres auteurs, moins optimistes, attribuent la richesse ou la pauvreté des nations à des différences de religion, de culture, de ressources et/ou de géographie.

Les théories modernes du développement économique résultent de la réflexion menée sur la reconstruction de l’Europe au lendemain de la Seconde Guerre mondiale. Le Programme de rétablissement européen – ou plan Marshall – reposait sur l’idée que les institutions locales et les comportements sociaux peuvent freiner la croissance économique, en particulier s’ils influent sur l’épargne et le taux d’investissement du pays. Selon ce modèle de croissance linéaire, l’injection massive et ciblée de capital associée à l’intervention publique face aux dysfonctionnements du marché conduit à terme à l’industrialisation et au développement. Bien d’autres théories ont suivi, mais aucune n’est en mesure d’expliquer de façon convaincante pourquoi certains pays connaissent une croissance économique rapide et d’autres non.

La communauté du développement continue de chercher l’ingrédient qui manque pour amorcer la croissance économique. Parmi les prétendants envisagés figurent le capital, les technologies, l’action publique, les institutions, des politiques meilleures et l’intégration du marché. Chaque fois que nous croyons avoir découvert ce qui fait défaut, nous constatons en définitive qu’il ne peut s’agir d’un élément extérieur, mais plutôt d’une caractéristique propre au système. L’aide au développement s’appuie de longue date sur une conception mécanique accordant une grande place à la production de masse et à l’idée d’entraînement, avec des organismes d’aide qui proposent des « solutions miracles » face à des problèmes aussi complexes que l’éradication du paludisme, l’atténuation de la vulnérabilité, l’amélioration de la résilience ou le renforcement de la connectivité. Malheureusement, les programmes de développement mis en œuvre au coup par coup ou par étapes donnent rarement de bons résultats.

La réflexion sur la complexité – qui offre un moyen de comprendre les interactions et l’évolution dans le temps des éléments du système – prend une importance grandissante dans le discours sur le développement. Après tout, y a-t-il rien de plus complexe que la promotion du développement, de la viabilité, des droits de l’homme, de la paix et de la gouvernance ? Nous devons envisager l’économie et la société comme un vaste ensemble d’interactions entre des agents adaptatifs en grand nombre qui évoluent parallèlement. Le développement ne consiste plus alors en un simple accroissement de la production, mais forme un système caractérisé par l’interdépendance des entreprises, des productions, des technologies et des institutions économiques, financières, juridiques, sociales et politiques. Ensemble, ces éléments et leurs interactions donnent aux citoyens les moyens de mener des vies heureuses, saines et épanouissantes.

Lorsque nous envisagerons le développement comme le produit d’un système complexe adaptatif plutôt que comme la somme des événements qui influent sur les populations et les entreprises, nous comprendrons mieux comment agir pour accélérer et modeler le développement. Nous serions plus efficaces si nous décidions d’évaluer les problèmes de développement à travers le prisme des systèmes complexes adaptatifs. Il nous serait ainsi plus facile de définir les priorités, de concevoir et d’utiliser des programmes de développement globaux pour atteindre les multiples objectifs d’inclusivité, de développement durable et de croissance économique inscrits dans le Programme de développement durable à l’horizon 2030. Les organismes d’aide se rangent de plus en plus à l’idée d’une évolution – par la méthode empirique – des solutions à apporter aux problèmes complexes, et reconnaissent que les programmes efficaces ont toutes les chances de différer d’un pays à l’autre, en fonction de l’histoire, des ressources naturelles et des réseaux de relations sociales propres à chacun. L’essentiel pour tout acteur de l’aide est de se débarrasser de ses idées préconçues et de commencer par observer, analyser et écouter avec attention, afin de repérer les domaines dans lesquels des améliorations sont déjà à l’œuvre,puis d’essayer d’encourager et d’alimenter ces évolutions.

La complexité joue un rôle particulièrement important lorsque les connaissances et les capacités requises face aux défis à relever sont dispersées entre différents acteurs qui n’entretiennent pas de liens institutionnels forts et officialisés. Bien des problèmes complexes vont de pair avec des intérêts divergents, des objectifs contradictoires ou des scénarios incompatibles. En outre, il est souvent difficile de déterminer comment atteindre un objectif donné dans un contexte particulier, ou de modifier des procédures qui font intervenir des forces puissantes et imprévisibles. Précisons également qu’il ne faut pas considérer la reconnaissance de la complexité comme une solution désespérée pour le développement. D’immenses progrès ont été accomplis sur le plan économique et social, et l’aide au développement s’est révélée globalement utile. La coopération a contribué à la réalisation des objectifs économiques en aidant les pays en développement à connecter leurs entreprises aux marchés internationaux, à celle des objectifs sociaux en œuvrant pour une mondialisation favorable aux pauvres, et à celle des objectifs environnementaux, par l’adaptation au changement climatique et l’exploitation des avantages comparatifs.

Les enjeux du développement ne sont pas tous intrinsèquement complexes néanmoins. Pour ceux qui le sont, la complexité ne doit pas servir d’excuse au fatalisme et à l’inertie. Nous devons au contraire nous efforcer d’encourager l’innovation, l’expérimentation et le renouvellement. Il nous faut constituer des partenariats pour tirer des enseignements du passé, et nous doter ainsi de stratégies plus efficaces, que les populations visées puissent s’approprier. Celles-ci nous diront ce qui fonctionne ou pas. Nous devons concevoir ensemble un scénario de changement qui fasse intervenir de nombreuses voix et perspectives différentes. Nous devons aussi rester modestes et conscients qu’il vaut mieux commencer à petite échelle, apprendre et s’adapter à mesure que se développent des processus itératifs de dialogue. Nous devons poursuivre notre quête de changement, en recherchant systématiquement les facteurs nouveaux qui se manifestent dans le reste du monde, et écouter les avis les plus divers pour être mieux à même d’anticiper, de nous adapter et de saisir les opportunités.

En acceptant la complexité là où elle compte, nous serons en mesure de contribuer plus efficacement au Programme de développement durable à l’horizon 2030.

Liens utiles

L’article original publié sur le site OECD Insights, accompagné de liens et d’informations complémentaires, se trouve ici : http://wp.me/p2v6oD-2ML.

La série complète d’articles peut être consultée à cette adresse : http://oecdinsights.org/?s=NAEC+complexity.