LE TRÈS GRAND NOMBRE DE COMPOSANTS EN INTERACTIONS MULTIPLIANT LE NOMBRE DES LIAISONS ENTRE CES COMPOSANTS RENDENT LA GESTION DES TRÈS GRANDS SYSTÈMES EXTRÊMEMENT ARDUE.
LA COMPLEXITÉ RENVOIE SOUVENT À UN SEUIL CRITIQUE, À UNE FRONTIÈRE ENTRE CHAOS ET ORDRE. LA DESCRIPTION DÉTAILLÉE DE TELS SYSTÈMES, TOUT COMME LA DÉTERMINATION DE LEUR ÉTAT EST QUASI IMPOSSIBLE.
LA RECHERCHE DE L’ÉQUILIBRE PERMANENT EST UNE QUÊTE VOUÉE À L’ÉCHEC DANS UN MONDE DYNAMIQUE QUI NOUS PROJETTE CONSTAMMENT DANS UN AVENIR INCERTAIN: LA BONNE SOLUTION D’HIER PEUT ÉCHOUER LAMENTABLEMENT AUJOURD’HUI ET PRODUIRE DES EFFETS DÉVASTATEURS DEMAIN
Comment éviter un nouvel effondrement des marchés financiers? La situation inquiète d’autant plus que l’irréversible internationalisation de ces marchés semble aggraver de manière très considérable les effets de phénomènes que l’on voudrait juguler. Plutôt que de rêver à l’hypothétique maîtrise du risque systémique, une plus grande autonomie doit être laissée aux unités les plus proches des points de déséquilibre.
Cela implique confiance et respect des finalités convenues avec des instances de contrôle limitées en nombre et disposant du pouvoir d’activer des processus de décision en temps quasi-réel.
PLUS DE DETAILS EN SUIVANT :
SILVIO MUNARI ET MAIA WENTLAND HEC-Lausanne
Les risques auxquels les marchés financiers se trouvent confrontés sont maîtrisables si, et seulement si, le système fonctionne selon les règles du jeu qui ont présidé à sa mise en place. Et c’est précisément là que le bât blesse et qu’apparait le risque systémique. Ce dernier se rapporte, pour simplifier, à l’ensemble des événements qui, étant hors du contrôle des gestionnaires, peut affecter le système dans son ensemble. Or, à notre avis, le risque principal qu’encourt actuellement le marché financier vientplutôt du fait qu’il a échappé au rôle de régulateur de l’économie réelle qu’il est censé jouer…!
Le système ne répond plus à la règle d’efficience et d’auto régulation de l’offre et de la demande, en partie parce que les opérateurs procèdent par imitation et non sur la base de fondamentaux économiques. Au lieu de se soucier de la valeur réelle des biens qu’ils échangent sur ces marchés, ils tentent de prévoir ce que feront les autres ou s’appuient sur les prédictions des faiseurs d’opinion. C’est l’anticipation de l’évolution des cours qui détermine en partie l’action des investisseurs.
Ce processus de «renforcement par imitation» conduit les intervenants à placer les mêmes ordres en même temps sur le marché et provoque un effet boule de neige: c’est l’effet de contagion mimétique déjà décrit par Keynes en 1936 et dont s’est inspiré Orléan pour développer son modèle de rationalité mimétique en 1984. Sans entrer plus avant dans des considérations psychologiques dont l’impact est indéniable, notons également la tendance à garder des actions qui ont perdu de la valeur et à vendre celles qui en ont gagné.
Las! Les solutions proposées pour remédier à cette situation, portent toutes sur l’amélioration ou le renforcement du contrôle et la mise en place de mesures préventives pour pallier la survenue d’événements non désirés. Ces idées, dont la presse s’est faite l’écho à maintes reprises depuis le début de la crise s’inscrit dans la croyance qu’il est possible de garantir le contrôle total de ces systèmes et idéalement le maintien de son équilibre.
Comme si l’on pouvait tout prévoir et surtout l’avenir, et commesi compliqué était synonyme de complexe!
Un détour par quelques définitions et précisions sur les notions de système, de contrôle des systèmes et de comportement des systèmes s’avère indispensable, notamment parce que la systémique telle que définie dans le monde financier ne dit rien du comportement des systèmes complexes et reste muette sur les mesures de pilotage ou de contrôle (au sens anglo-saxon du terme «to control») de ces systèmes.
Si le concept de système n’est pas nouveau – on en parlait déjà en Chine ancienne – en revanche les tentatives de classification remontent, quant à elles, au milieu du XXe siècle. Avec pour objectif de mieux en saisir les caractéristiques spécifiques, les typologies proposées classent les systèmes selon une échelle allant des plus simples aux plus complexes. Parmi les distinctions importantes, on notera celles qui opposent les systèmes fermés aux systèmes ouverts, les systèmes artificiels aux systèmes naturels, les systèmes vivants aux systèmes organisés humains, les systèmes compliqués aux systèmes complexes.
C’est cette dernière distinction (systèmes compliqués versus systèmes complexes) qui retient ici notre attention. Les systèmes compliqués, voire très compliqués, appartiennent essentiellement à la catégorie des systèmes dits artificiels créés par l’Homme. Appelés également systèmes à états, ils doivent être complètement décrits pour pouvoir être construits et fonctionner (description des composants et de leur mode d’assemblage, nombre d’états qu’ils peuvent prendre, définition soigneuse des conditions de fonctionnement). A chaque instant leur état est connaissable car la valeur des variables d’état qui les caractérisent à un moment donné est connue. Au-delà des fonctionnalités prévues par leurs concepteurs, ils sont en principe incapables de s’adapter aux perturbations de leur environnement pour continuer à produire les résultats attendus.
Pour qu’un système soit contrôlable, le système qui doit le contrôler doit disposer d’une «variété» au moins égale ou supérieure au système à contrôler (Loi de la «Variété requise» d’Ashby).
Les progrès de la technologie repoussent, certes, certaines limites et notamment permettent de manipuler plus aisément de très grands systèmes grâce à leur très grande capacité de calcul. Néanmoins, et même lorsque leurs composants sont complètement connus et totalement décrits, le très grand nombre de composants en interactions multipliant le nombre des liaisons entre ces composants rendent la gestion des très grands systèmes extrêmement ardue. La très grande complication fait émerger la complexité.
Et qu’est-ce-que la complexité?
Quoiqu’il existe pléthore de définitions, toutes s’accordent à dire qu’elle est caractéristique des systèmes vivants. Certaines s’appuient sur les notions d’information, d’entropie (niveau de désordre du système), de chaos ou de hasard. Toutes expriment le fait que la connaissance des parties ne suffit pas à expliquer le fonctionnement du tout. L’étymologie du mot, qui vient du latin complexus, «tissé ensemble » suggère l’intrication des parties ou des composants de base.
La formule consacrée de la complexité postule que «le tout est plus que la somme des parties». Les systèmes complexes dynamiques, les ensembles ouverts instables ne peuvent être décrits par l’analyse classique qui consiste à découper le tout pour l’appréhender par décomposition de ses fonctions élémentaires.
A cet aspect s’ajoute celui de sa situation « en bordure» de deux états différents, voire contradictoires. La complexité renvoie souvent à un seuil critique, à une frontière entre chaos et ordre. La description détaillée de tels systèmes, tout comme la détermination de leur état est quasi impossible: on ne peut dénombrer tous leurs composants, ni à fortiori toutes les interactions existantes ou potentielles entre ces composants. Comme il est impossible de connaître l’état de tels systèmes à chaque instant, leur représentation ne peut donc pas être exhaustive. Leur variété peut devenir infinie!
Ainsi est-il illusoire de penser qu’un quelconque système artificiel puisse assurer le contrôle total d’un système complexe, du seul fait qu’il ne possède par définition qu’une variété toujours inférieure à celle du système qu’il est supposé contrôler.
Les modèles de représentation que l’on peut s’en donner sont voués à rester toujours incomplets puisqu’ils dépendent de facteurs multiples et que les variables exogènes aux modèles sont innombrables. Là ne s’arrête pas la difficulté de l’exercice, car une autre caractéristique fondamentale des systèmes complexes réside en leur capacité à favoriser l’émergence. En effet, les interactions dynamiques entre les éléments d’un tel système le font évoluer naturellement vers un état critique, toujours à la limite du déséquilibre, dans lequel tout événement mineur peut conduire à l’émergence de ce qu’il est convenu d’appeler des « avalanches « d’importance variable. Ces états critiques s’auto-organisent de manière chaotique en fonction des perturbations de leurs environnements, souvent par bifurcations inattendues durant lesquelles des régressions, voire des destructions, peuvent avoir lieu. Leur comportement est donc imprévisible.
La métaphore de la tempête peut aider à comprendre notre propos. A partir de ses travaux en météorologie, Lorenz a pu constater qu’une très faible perturbation à un point du système pouvait engendrer une tempête à un autre endroit. C’est le très célèbre «effet papillon». Le problème c’est que tous les effets ne produisent pas des tempêtes et l’endroit où une tempête peut être générée n’est pas prédictible. On peut juste dire que la tempête est possible, sans même pouvoir y associer un degré de probabilité.
Le crash du marché financier illustre de façon dramatique l’émergence spontanée d’événements extrêmes dans les systèmes complexes.
D’une part, la recherche de l’équilibre permanent est une quête vouée à l’échec dans un monde dynamique qui nous projette constamment dans un avenir incertain: la bonne solution d’hier peut échouer lamentablement aujourd’hui et produire des effets dévastateurs demain. D’autre part, étant peu contrôlable, la marge de manoeuvre pour contraindre globalement de tels systèmes est extrêmement faible d’autant que ces contraintes pourraient elles-mêmes déclencher des effets très différents de ceux attendus. De plus, même dans le cas peu probable où les différents acteurs financiers et économiques auraient tous des comportements individuels adéquats, la multitude des interactions possibles peuvent générer des perturbations inattendues. Car comme nous l’avons souligné, il est impossible d’empêcher l’émergence d’un déséquilibre plus ou moins important d’une partie d’un système complexe en raison de phénomènes contre-intuitifs générés par les interactions du système lui-même.
Ainsi, toute solution qui viserait à renforcer les contrôles sur tout ou partie d’un tel système pour le maintenir à l’équilibre est un effort vain, voire nuisible.
Alors quoi faire? Plutôt que de tenter de prévenir la tempête, ce que l’on ne pourra jamais faire, mieux vaut chercher à s’en protéger. A notre sens, et s’agissant de traiter une problématique liée aux systèmes complexes, il faut abandonner l’approche purement analytique au profit d’une analyse des relations entre éléments du système. Cette manière de faire, proche de celle qu’utilise les physiciens, est susceptible de mettre en lumière des dépendances locales ouvrant la voie à ce que d’aucun appelle des «poches de prédiction».
La question de savoir si tel ou tel élément du système est plus susceptible qu’un autre de provoquer un dysfonctionnement n’est pas suffisante. En effet l’élément considéré peut agir de manière appropriée, alors que c’est la combinatoire entre les éléments qui peut générer des comportements indésirables et non-désirés. Etablir des règles du jeu pour que l’ensemble puisse fonctionner adéquatement reste évidemment nécessaire afin de mettre en place une «configuration d’ordre» qui permette au jeu de se déployer selon les règles prévues.
Ces configurations doivent toutefois être suffisamment ouvertes pour que les actions puissent s’enchaîner de manière harmonieuse et autorisent les acteurs à atteindre leurs objectifs. Le match peut ainsi avoir lieu dans le cadre des règles dynamiques. Le déroulement de la partie, pas plus que son résultat final, les aléas du jeu, ou le comportement de chaque joueur ne sont prédictibles. En fonction de l’évolution de la situation, il s’agit donc que chaque membre d’une équipe puisse agir et réagir en temps réel de manière appropriée pour poursuivre l’objectif attendu.
Les méthodes et techniques de management et de contrôle des organisations sont actuellement encore trop souvent fondées sur les approches issues des avancées concernant le pilotage des systèmes artificiels, dont l’origine remonte aux découvertes de la cybernétique. La notion de complexité apparue dans les discours sur le fonctionnement des organisations dans les années 1990 dont l’une des figures de proue est le sociologue Edgar Morin – n’a, en ce début de XXIe siècle, pas encore adéquatement transformé la manière dont sont gérés les systèmes de décision et de contrôle. Tant les grandes entreprises que les administrations publiques ont tendance à augmenter les points de contrôles et le nombre d’instances de contrôle, dès qu’une dérive inappropriée apparaît.
Or, comme nous venons de le démontrer, les phénomènes émergents ne peuvent être évités par un accroissement du contrôle, et surtout pas par des contrôles basés sur des procédures prédéterminées ni par des interventions planifiées à l’avance. A l’instar de Karl Weick (universitaire américain, considéré comme l’un des théoriciens les plus renommé de la théorie des organisations), nous pensons qu’il convient au contraire de limiter la standardisation et la normalisation, notamment la planification, car cette dernière rétrécit le champ des perceptions possibles. Nous sommes d’avis qu’il faut également limiter les procédures opérationnelles qui conduisent à se focaliser sur des routines, diminuent les possibilités de répondre à l’inattendu et empêchent de réagir efficacement et avec intelligence. Certes les systèmes de contrôle restent très utiles, voire indispensables, dès lors qu’ils sont conçus comme des outils de pilotage prospectif de manière à favoriser l’anticipation, l’attention à l’inattendu, l’identification des ruptures et défauts; qu’ils contribuent à mieux percevoir la conduite des opérations et à contenir les perturbations imprévues; qu’ils sont susceptibles de renforcer la résilience des systèmes et des hommes; qu’ils accélèrent et améliorent le recours à l’expertise. Mais c’est avant tout la capacité d’interprétation, la vitesse de réaction des individus face à des phénomènes émergents (apparaissant à leur niveau de responsabilité) et le bon sens (et oui, notre vieux gros bon sens!) qui sont les mieux à même d’ajuster les paramètres du système afin que celui-ci retrouve un équilibre dynamique adéquat.
Dès lors, vous l’aurez compris, nous prenons le contre-pied des tenants du renforcement du contrôle et estimons qu’une plus grande autonomie doit être laissée aux unités les plus proches des points de déséquilibre. Cela implique confiance et respect des finalités convenues avec des instances de contrôle limitées en nombre et disposant d’un pouvoir étendu leur permettant d’activer des processus de décision en temps quasi-réel. Il est grand temps de passer d’une approche mécaniste tournée vers la compréhension des interactions entre systèmes techniques existants, à une vision orientée vers les finalités humaines (modèles sociaux). En ce sens, acteurs et décideurs doivent pouvoir répondre aux défis de maintenir une dynamique appropriée des systèmes qu’ils conduisent.
Dans cette optique chaque individu doit porter attention aux dysfonctionnements du système et réagir, à son niveau de responsabilité hiérarchique et dans le respect des principes éthiques, en fonction de processus coordonnés et transparents.
Ces derniers doivent naturellement s’articuler autour d’une stratégie et d’objectifs clairs, clairement communiqués.
Cette manière de faire permet au surplus de mieux déceler les signaux faibles, lesquels nous semble être particulièrement importants dans le monde financier (cf. les travaux d’Igor Ansoff en matière de stratégie et de surveillance de l’environnement concurrentiel, technologique et sociétal). Il s’agit de repérer des variables peu signifiantes individuellement mais qui, par combinaison, sont susceptibles de faire émerger des informations extrêmement pertinentes. Mettre l’accent sur l’analyse et l’interprétation de ces variables est plus difficile, mais beaucoup plus efficace, que de mettre sous contrôle ou d’accroître le contrôle des variables connues et convenues. Les affaires Madoff ou Société Générale ont pu se produire parce que, outre l’appât du gain conjugué à l’oubli qu’à gain élevé risque élevé, les «signaux faibles» n’ont vraisemblablement pas été pris en compte.
Jean-Pierre Ghelfi, alors qu’il était membre de la CFB (Commission Fédérale des Banques) relevait à propos des risques inhérents aux produits dérivés, dans un article publié par l’Agefi en avril 1995, qu’»une sur-réglementation sera toujours inutile et inopérante si les acteurs du marché restent sourds aux mesures élémentaires de prudence qu’ils doivent prendre». Il plaidait déjà pour des normes prudentielles plus élevées, tout en rappelant que la commission estimait le système «globalement sous contrôle». Les événements qui ont conduit le système financier à sa déstabilisation démontrent, globalement et malheureusement, le contraire.
EN COMPLEMENT INDISPENSABLE : Un nouveau paradigme émerge face à l’échec des réglementations (cliquez sur le lien)
2 réponses »