Comprendre la science des systèmes complexes
La complexité n'est pas aisée à définir. Il n'existe pas de définition générale et unique de la complexité. Elle est souvent décrite de manière différente selon les champs de recherche.
Les systèmes complexes sont aussi nombreux que variés: les cellules, les organismes, le cerveau humain, internet, les réseaux sociaux, les entreprises, les marchés financiers, etc. Quelles propriétés ces systèmes ont-ils en commun?
1) L'émergence
La première propriété caractéristique des systèmes complexes est assurément l'émergence, qu'on peut définir en première approche par l'idée que le tout est plus que la somme des parties. Il est vrai que, au plan historique, l'intérêt des physiciens pour la complexité s'est accru avec la découverte des propriétés émergentes d'agrégat d'éléments identiques. C'est le cas de l'humidité qui est une qualité émergente d'un agrégat de molécules d'eau, une qualité qu'on ne peut attribuer aux molécules prises individuellement.
L'émergence est une propriété liée à l'interaction des éléments qui se distingue de la simple sommation. L'humidité diffère par exemple du poids de l'eau qui n'est que la somme du poids des molécules qui la composent.
2) Comportement chaotique et non-linéarité
En un sens général, les phénomènes complexes se situent entre les phénomènes simples et les phénomènes purement aléatoires. Ils trouvent "au bord du chaos" (at the edge of chaos). Lorsque les lois qui gouvernent un système sont simples, le comportement du système est aisé à comprendre et à prédire. A l'autre extrémité, certains systèmes se comportent de manière aléatoire. Il se peut qu'il existe des lois qui gouvernent les systèmes de ce type; mais ces système sont en tout cas hautement non linéaire. De petites variations dans l'état du système peuvent conduire à une profonde transformation du système. Un tel système est dit chaotique. les systèmes complexes se situent quelque part entre ces deux extrêmes. Un système complexe n'est pas aisé à comprendre; mais il n'est pas chaotique au point que sa compréhension soit impossible.
La science de la complexité substitue à la vision classique du déterminisme une théorie fondée sur le chaos et la non-linéarité. Comme on le sait, Laplace avait développé une conception déterministe de l'univers en l'envisageant comme un système soumis à des lois pouvant être mathématisées sous forme d'équations linéaires et permettant une prédiction des phénomènes. Une équation linéaire, qui a pour forme f(x) = a + bx, implique qu'une modification de la valeur d'un effet est proportionnelle à une transformations des éléments causaux. De petites variations dans les causes provoquent ainsi de petites variations dans les effets que les calculs mathématiques permettent de prédire.
En revanche, les systèmes complexes sont non linéaires, c'est-à-dire qu'ils ne sont pas régis par le principe de superposition. A partir d'un certain seuil, les variations qu'il connaît ne sont plus proportionnelles. Des activités élémentaires peuvent provoquer des événements inattendus et l'émergence de nouvelles structures. Cela prend la forme de transitions abruptes et imprévisibles. De telles conséquences sont étudiées par la théorie des catastrophes. Nassim Nicholas Taleb nomme "cygnes noirs" ces petits événements aléatoires qui ont un énorme impact et qui sont très difficilement prévisibles (Taleb 2012). Ces effets ont été popularisés sous le nom d'"effet papillon". Celui-ci ne signifie pas que le battement d'aile d'un papillon puisse à lui seul provoquer un ouragan mais qu'une variation de faible amplitude dans les conditions initiales peut produire d'importantes transformations. James Gleick affirme en ce sens que "en science comme la vie, on sait fort bien qu'une succession d'événements peut atteindre un point critique au-delà duquel une petite perturbation prend des proportions gigantesques. Le chaos signifiait que ces points existaient partout. ils étaient omniprésents. dans des systèmes tels que la météo, la dépendance aux conditions initiales était une conséquence inéluctable de la manière dont les petites échelles interféraient avec les grandes" (Gleick, 2008: 44-45). Dans les systèmes complexes, il existe ainsi un point de bifurcation à partir duquel les trajectoires du système divergent grandement de la valeur des paramètres initiaux. Il ne faut pas en conclure que la science newtonienne, fondée sur des lois linéaires, soit fausse mais plutôt qu'elle n'est valable que pour une partie réduite du réel.
3) L'organisation hiérarchique
L'organisation hiérarchique est étroitement liée à l'émergence. Chaque niveau d'émergence obéit à ses propres lois. Par exemple, ce sont les lois de la table périodique qui régissent la combinaison de l'oxygène et de l'hydrogène dans la molécule H2O alors que ce sont les lois de la mécanique des fluides (notamment les équations Navier-Stokes) qui valent pour l'eau.
Les lois d'un niveau plus élevé ne doivent pas violer les lois des niveaux inférieurs. En d'autres termes, les lois des niveaux inférieurs contraignent les lois des niveaux supérieurs. les propriétés émergents d'un certain niveau se doivent d'être consistantes avec les lois qui régissent les interactions aux niveaux inférieurs (Holland 2014: 4).
Dans cette organisation hiérarchique, il existe des interactions entre les différents niveaux d'émergence. Les effets "bottom-up" désignent les effets d'un microniveau sur un macroniveau. Par exemple, les acheteurs et les vendeurs agissent sur le cours d'un marché. A l'inverse, les effets "top-down" désignent les effets d'un macroniveau sur un microniveau. Le cours du marché influence les décisions des acheteurs et des vendeurs.
4) L'auto-organisation
La science de la complexité étudie les systèmes qui ont la propriété de s'auto-organiser en des états d'une complexité plus élevée. Le concept d'auto-organisation a été introduit dans les années 40 et 50 par la science cybernétique. Plus précisément, c'est Heinz von Foerster (1911-2002) qui a inventé le concept à la fin des années 50 afin de rendre compte de la complexité des êtres vivants.
Mais l'analyse des phénomènes d'auto-organisation doit surtout son essor à la théorie d'Ilya Prigogine (1917-2003) des structures dissipatives. Selon Prigogine, les structures dissipatives ne se maintiennent pas seulement dans un état stable loin de l'équilibre: elles peuvent aussi évoluer. Lorsque le flux de matière et d'énergie s'accroît, elles peuvent connaître des instabilités et se transformer en de nouvelles structures dotées d'une complexité plus grande. Prigogine montre que, lorsque les structures dissipatives reçoivent leur énergie de l'extérieur, les instabilités et les sauts vers de nouvelles formes d'organisation résultent de fluctuations qui sont amplifiées par les boucles de rétroaction positive. Alors que la cybernétique de la première génération considérait ces amplifications dues à la rétroaction comme destructrices pour les systèmes, la théorie des structures dissipatives montre qu'elles sont source d'ordre et de complexité.
5) Les boucles de rétroaction ou feedbacks
Les variables d'un système peuvent être rattachées les unes aux autres de quatre manières (von Ameln 2004: 25-26).
a) Effet positif simple
La variable A agit positivement sur la variable B; mais la variable B n'agit pas sur la variable A. C'est le cas par exemple lorsqu'une nouvelle directive d'une entreprise agit sur son chiffre d'affaires; mais que celui-ci n'a pas d'effet sur les directives de l'entreprise.
b) Effet négatif simple
La variable agit négativement sur la variable B; mais la variable B n'agit pas sur la variable A. C'est le cas lorsque le taux de change agit négativement sur les ventes d'un produit (les fait baisser); mais les ventes du produit n'ont pas d'effet sur le taux de change.
c) Boucles de rétroaction compensatoires
La variable A agit positivement sur B et la variable B agit négativement sur la variable A ou l'inverse. Il s'agit du modèle classique de l'autorégulation que suivent de nombreux processus physiologiques dans l'organisme comme le système endocrinien.
d) Boucles de rétroaction autocatalytique
La variable A agit positivement ou négativement sur la variable B et la variable B agit de la même manière sur la variable A. Quand les deux variables agissent négativement, on a affaire à un cercle vicieux. Par exemple, une fille se sent oppressée par les questions de sa mère et se replie sur elle-même. De ce fait, la mère a l'impression que sa fille a quelque chose à cacher et insiste encore davantage.
Bibliographie
Falko von Ameln (2004), Konstruktivismus, Tübingen
Henri Atlan (2011), Le vivant postgénomique. Ou qu'est-ce que l'auto-organisation?, Paris
James Gleick (2008), La théorie du chaos, Paris
John H. Holland (2014), Complexity. A Very Short Introduction, Oxford
Nassim Nicholas Taleb (2012), Le cygne noir. La puissance de l'imprévisible, Paris