La question se pose et simplement y réfléchir aurait paru incongru il y a encore peu de temps.
Pour ceux qui ont connu l’ère Gaullienne, c’est sidérant : l’élan a laissé la place à l’immobile, l’empêtré, à la merci des événements, comme une mouche prise dans une toile d’araignée et qui vibrionne.
Immédiatement, on cherche les coupables : la classe politique française, tous gouvernements confondus, avec les gestions socialistes en tête de peloton … les technocrates aussi, de tous genres, énarques ou européens.
Les uns avec des erreurs très lourdes et maintes fois évoquées par hiboo comme la retraite à 60 ans, les 35 heures, la destruction de l’avantage compétitif du nucléaire, les impôts de production, les impôts sur l’épargne productive (“mon ennemi c’est la finance” de François Hollande !!!).
Les autres avec une montée extravagante de normes en tous genres (automobile, banques, gestion des données, reporting des entreprises) qui paralysent des entreprises exposées à l’assaut d’une concurrence extérieure débridée, le blocage des décisions au niveau européen avec des mécanismes de vote exigeants, l’empêchement de l’émergence de plusieurs compétiteurs de classe mondiale par la détermination des règles de concurrence à l’échelle européenne et non mondiale, des statuts de la BCE centrés uniquement sur la maîtrise de l’inflation et pas sur la croissance ou la gestion de la parité monétaire.
Tout cela est véridique, analysé, documenté. Mais est-ce toute l’explication ?
Nous sommes habitués, éduqués dès l’enfance, à rechercher les causes et leurs conséquences : ce genre de raisonnement, d’attitude intellectuelle, caractérise l’étude des systèmes simples mais est inefficace dans l’analyse des systèmes complexes :
- Un système simple se caractérise en effet par des relations directes et prédictibles entre ses composants. Il implique généralement un nombre limité de variables et permet une compréhension spontanée de son fonctionnement. Dans ces systèmes, le comportement global peut être prédit directement en connaissant les règles qui régissent le système.
- A l’opposé, un système complexe est un ensemble constitué d’un grand nombre d’entités en interactions simultanées. Le comportement global du système résulte d’interactions non-linéaires entre les éléments, créant des boucles de rétroaction qui le rendent difficilement prévisible. Les exemples incluent les nuées d’oiseaux, les colonies de fourmis, le cerveau humain, l’économie ou les marchés financiers.
Nous avons maintes fois évoqué cela chez hiboo pour expliquer qu’il était le plus souvent inefficace de chercher des causes à une volatilité intrinsèque au système financier : on ne peut pas appliquer des raisonnements valables pour la causalité des systèmes simples à l’analyse de la volatilité des systèmes complexes ; c’est pourtant ce que la plupart des commentateurs et analystes financiers font le plus souvent.
Pourquoi cet entêtement dans l’erreur ? Parce que l’analyse des systèmes complexes invalide largement toutes les idéologies basées sur des causalités simples comme la baisse tendancielle de la rentabilité marginale du capital ou la courbe de Laffer ou encore le “big bang” (on peut aussi citer le marxisme, le libéralisme, la psychanalyse freudienne et tant d’autres) et qui nous servent de repères intellectuels, émotionnels, politiques.
Mais peut-être raisonnons nous tous encore majoritairement avec une analyse purement causale très simplement parce que les idées nouvelles prennent du temps avant de pénétrer dans notre éducation, notre intelligence du monde, nos raisonnements : il a fallu du temps pour que les hommes admettent que la terre n’était pas plate, probablement parce que cela remettait en cause un fondement de leur système de pensée, de leur colonne vertébrale spirituelle, de leur manière et justification d’être au monde.
Et cela n’a rien à voir avec le niveau d’intelligence : il a été très difficile pour Einstein d’accepter l’interprétation probabiliste de la physique quantique, contemporaine de la physique statistique, car elle remettait en cause sa conviction profonde dans le déterminisme des lois naturelles. D’où sa célèbre phrase : « Dieu ne joue pas aux dés », par laquelle il exprimait son refus d’un univers régi par le hasard fondamental. Le débat entre déterminisme et indéterminisme reste d’ailleurs toujours d’actualité en physique quantique : la majorité des expériences valident l’indéterminisme quantique, mais la question de l’existence d’un déterminisme sous-jacent (variables cachées) reste un sujet de recherche et de débat philosophique.
Les premières découvertes sur les systèmes complexes et sur la physique statistique, qui est la science des systèmes complexes, remontent pourtant au 18ème siècle, et au français Daniel Bernoulli avec ses travaux sur les gaz (1738). Alors que l’on croyait auparavant que la matière était continue, il propose une interprétation révolutionnaire de la pression des fluides basée sur un modèle atomique : il imagine que la matière est faite de petites particules invisibles, les atomes ou molécules, et explique que la pression d’un gaz vient du choc de ces particules contre les parois du récipient. Cette idée change tout : la pression n’est plus un « fluide mystérieux », mais “une conséquence des collisions des molécules contre les parois”.
Puis une étape fondamentale au 19ème siècle avec la découverte de la loi de distribution par Maxwell : il imagine que les molécules d’un gaz sont comme des petites boules qui se déplacent dans toutes les directions et rebondissent les unes contre les autres et contre les parois du récipient. Ces collisions sont dites « élastiques », car les molécules ne perdent pas d’énergie lors du choc. Maxwell démontre que, même si on ne connaît pas le détail de chaque choc, on peut prédire comment les vitesses des molécules se répartissent dans un gaz : la majorité des molécules ont une vitesse moyenne, mais il y en a toujours quelques-unes très lentes ou très rapides. C’est la première fois qu’on relie un comportement global (la température, la pression) à des mouvements individuels invisibles, ou dit autrement que l’on formalise mathématiquement une grandeur macroscopique statistique (la distribution) à partir d’un modèle microscopique (“un ensemble de sphères subissant des collisions élastiques”), sans connaître chaque détail individuel.
Puis en 1872, Boltzmann s’intéresse à une question fondamentale : pourquoi des phénomènes naturels dans la vie courante semblent-ils aller dans un seul sens (par exemple, la diffusion d’un parfum dans une pièce) alors que les lois de la mécanique newtonienne sont réversibles, c’est-à-dire qu’elles fonctionnent de la même façon si on inverse le sens du temps : on pourrait « rembobiner » une vidéo de deux boules de billard qui se cognent sans que rien ne choque, les trajectoires sont tout aussi possibles dans un sens que dans l’autre. Pour résoudre ce paradoxe, Boltzmann propose une interprétation statistique de l’irréversibilité et de l’évolution vers l’équilibre. Il montre que, dans un gaz, il existe un nombre immense de configurations désordonnées pour les particules, et très peu de configurations ordonnées. Dès lors, la probabilité qu’un système évolue spontanément vers le désordre est écrasante : c’est ce qu’on appelle l’augmentation de l’entropie. Ainsi, l’irréversibilité de ces phénomènes naturels n’est pas due à une asymétrie fondamentale des lois physiques, mais à la statistique des grands nombres : l’évolution vers le désordre est, tout simplement, la plus probable.
Loschmidt (1876-1877) objecte que, les lois de la mécanique étant réversibles, l’irréversibilité découverte par Boltzmann semble paradoxale, ce qui conduit ce dernier à expliciter “la nature statistique des hypothèses qu’il utilise” et à rompre avec l’approche purement mécanique (causale): même si chaque collision est réversible, la probabilité que toutes les particules se réorganisent spontanément de façon ordonnée est pratiquement nulle ; il ne s’agit plus d’une certitude mécanique, mais d’une quasi-certitude statistique.
L’acceptation définitive de l’atomisme et de la physique statistique survient grâce aux travaux de Jean Perrin sur le mouvement brownien (1907-1909) : le hasard observé dans le mouvement désordonné de petites particules (comme du pollen) suspendues dans un liquide, observé au microscope, et qui semblait inexplicable par les seules lois de la physique classique, s’explique parfaitement si l’on suppose que les particules sont sans cesse frappées par des molécules invisibles du liquide ; Perrin en déduit le nombre d’Avogadro (le nombre d’atomes ou de molécules dans une mole de matière), ce qui apporte la preuve expérimentale que la matière est faite d’atomes.
Ces travaux serviront également d’axe central dans la compréhension des marchés financiers en tant que systèmes complexes : ces derniers sont imprévisibles à court terme, mais leurs comportements collectifs peuvent être décrits statistiquement.
La physique statistique moderne connaît depuis 1950 l’émergence de nouveaux domaines et cette évolution historique illustre la transformation progressive d’une discipline initialement focalisée sur les gaz parfaits vers une science capable d’aborder la complexité des systèmes naturels, confirmant, avec la mécanique quantique et la relativité, sa position de pilier de la physique moderne et de la compréhension du monde.
Bon, très bien, et donc ?
Et donc c’est probablement plus compliqué de déterminer si oui ou non la France va s’effondrer que l’approche simple et causale écrite en introduction parce que l’économie est un système complexe.
Et en même temps, on ne peut exclure l’approche causale simple comme élément de prédiction.
Si on traduit cela dans les marchés financiers pour bien comprendre : chez hiboo nous aimons bien comparer un marché financier à un vol d’étourneaux qui est un autre système complexe : la volatilité du vol d’étourneaux, les volutes dans le ciel, ressemblent beaucoup à la volatilité des marchés financiers. Et bien, cette volatilité du vol d’étourneaux est imprévisible parce que sa causalité est très marginale et diffuse, comme pour les marchés financiers, et on ne peut absolument pas prévoir le sens, la durée et la taille d’un mouvement du vol d’étourneaux (système complexe), et en même temps, si un chasseur tire sur le vol d’étourneaux, on est sûr que ce tir va provoquer un éloignement rapide du vol par rapport au chasseur (système simple).
De la même manière pour les marchés financiers, comme pour une action, on ne peut absolument pas prévoir son évolution à court terme (sens, durée du mouvement et amplitude de la hausse ou de la baisse) et on ne peut pas l’expliquer parce qu’il n’y a pas de causalité discernable ; en revanche si un évènement comme une crise sanitaire majeure survient, on est certain que le marché va fortement baisser, ou au moins fortement évoluer (système simple).
Il faut donc accepter de vivre dans un monde où s’appliquent simultanément la loi des systèmes simples et celle des systèmes complexes, exactement comme dans le monde physique où s’applique simultanément la physique newtonienne et quantique.
A partir de là, revenons à la France.
On peut donc dire en même temps que :
1° : Système simple : la France va s’effondrer si la dette publique continue de monter parce que les dépenses sont excessives et adossés à des impôts qui sont aussi excessifs et à une part de la dépense publique dans le PIB qui, à plus de 55%, génère beaucoup d’inefficacité dans l‘allocation des ressources de la nation qui sont par nature limitées.
2° : Système complexe : l’économie française connaît des phases de croissance, de crise, de reprise et d’expansion, souvent imprévisibles et marquées par des chocs externes ou internes (crises pétrolières, crise financière de 2008, pandémie de 2020, etc.).
Ces fluctuations sont le résultat d’une multitude d’interactions entre agents économiques (ménages, entreprises, État), de chocs exogènes et de régulations (politiques monétaires, budgétaires, etc.)
On ne peut donc pas savoir où va la France, c’est imprévisible parce que son évolution économique et politique relève d’un système complexe. Il n’est pas certain qu’elle s’effondre, ce sera peut-être le cas, mais on peut aussi avoir des scénarios gris ou roses : la France pourrait entrer dans une grande période de croissance ! En fait, pour mesurer les potentiels, ce serait plus judicieux d’aller regarder sa position sur sa droite de régression. Peut être que si on avait opté pour cette approche, on aurait vu qu’après 30 ans de croissance échevelée, la France était probablement à deux écarts types au-dessus d’une droite de régression dont la pente est probablement à 1,5% sur la longue route !
Redisons la même chose, mais de manière différente : comme nous avons une lecture causale (système simple) de l’économie, nous pensons que la France était bien gérée sous de Gaulle et Pompidou parce que la croissance était forte et les caisses étaient pleines. Mais les bons ratios économiques étaient peut-être plus le résultat d’une croissance intrinsèquement forte que d’une politique publique efficace.
Pourquoi est-ce que la croissance était forte ? La cause n’est pas discernable (système complexe) ; cela vient du terrain, se diffuse sans que l’on sache vraiment comment ni pourquoi. D’ailleurs, le rapport Carré-Dubois-Malinvaud (1972) qui analyse la croissance économique française de l’après-guerre, montre, à partir d’une vaste étude statistique, que la forte croissance des Trente Glorieuses s’explique pour moitié par l’accumulation des facteurs traditionnels (capital et travail) et pour l’autre moitié par un « résidu » attribué à l’amélioration de la productivité globale des facteurs, ce qui est une manière astucieuse de dire que l’on ne sait pas.
Pour prendre un autre exemple, celui de la démographie, le fils de Guillaume, Armand Rouvier qui est historien (nous en profitons pour vous recommander vivement la lecture de son livre : “Peut-on encore être conservateur ? Histoire d’une idée incomprise en France”, éditions Buchet-Chastel) aime bien lui rappeler l’erreur d’Alfred Sauvy dans son analyse de la démographie française.
Alfred Sauvy, économiste et démographe français, est célèbre pour ses travaux sur la population et ses prévisions démographiques, notamment dans l’entre-deux-guerres et l’après-guerre. Il fut le fondateur de l’INED et un acteur central du débat sur la démographie française au XXe siècle.
Sauvy et d’autres démographes ont élaboré des projections qui prévoyaient un déclin continu et dramatique de la population française, anticipant une France vieillissante, affaiblie et menacée par un déficit démographique durable.
Cette vision pessimiste reposait sur la tendance à la baisse de la natalité observée depuis la fin du XIXe siècle et sur les conséquences démographiques des deux guerres mondiales.
Le baby-boom d’après-guerre (1945-1975) a totalement contredit ces projections : la natalité a connu une forte hausse, inversant la tendance au déclin et provoquant une croissance démographique inattendue.
Sauvy a souligné que les erreurs de prévision sont souvent dues à une surestimation de la stabilité des tendances passées et à une sous-estimation de la capacité de la société à se transformer ; il aurait été plus juste de dire que la volatilité des systèmes complexes est imprévisible et qu’il ne faut pas aborder leur étude avec les éléments d’étude d’un système simple.
Conclusion
Situation actuelle de la France : un système loin de l’équilibre
- Dette publique à 113 % du PIB : niveau record, croissance rapide de l’endettement.
- Croissance quasi nulle : stagnation du PIB, faible capacité à générer de la richesse nouvelle, appauvrissement relatif de la population.
- Déficit commercial : la France importe plus qu’elle n’exporte, signe de perte de compétitivité.
Ces déséquilibres s’apparentent à un système physique où les flux sont désorganisés et où l’entropie (désordre, incertitude) augmente.
Dans l’état actuel, la France est donc exposée à une dynamique instable : la dette élevée, l’absence de croissance et le déficit commercial créent un environnement propice aux fluctuations et aux scénarios extrêmes.
Mais la théorie des systèmes complexes considère l’économie comme un ensemble dynamique où de nombreux agents (ménages, entreprises, institutions, marchés) interagissent de façon non linéaire, créant des comportements globaux imprévisibles à partir de règles locales simples. Les propriétés clés incluent :
- Émergence : des phénomènes collectifs nouveaux apparaissent, impossibles à déduire des comportements individuels.
- Auto-organisation : le système se réorganise spontanément face aux chocs ou aux changements.
- Non-linéarité : de petits événements peuvent avoir de grands effets (effet papillon).
- Boucles de rétroaction : les actions des agents modifient l’environnement, qui influence en retour leur comportement.
- Sensibilité aux conditions initiales et aux chocs.
La physique statistique appliquée à l’économie française montre ainsi que les cycles économiques, les crises et les reprises sont des phénomènes statistiques naturels dans un système complexe. Les « anomalies » (croissances ou crises soudaines) sont possibles mais rares, et la dynamique globale reste gouvernée par des lois statistiques similaires à celles de la physique hors d’équilibre : à l’échelle macroéconomique et sur le long terme, les fluctuations extrêmes deviennent de plus en plus rares, et l’économie française tend à retrouver un certain ordre, même après des chocs majeurs.
La physique quantique appliquée à l’économie montre également que des effets tunnel sont peu probables mais possibles :
L’effet tunnel est un phénomène de la mécanique quantique par lequel une particule (comme un électron) peut traverser une barrière d’énergie, même si elle ne possède pas assez d’énergie pour la franchir selon les lois de la physique classique. Autrement dit, il existe une certaine probabilité que la particule « passe au travers » de la barrière, comme si un tunnel invisible s’ouvrait à elle.
Dans l’économie française actuelle, la “barrière” pourrait représenter l’ensemble des obstacles structurels (dette élevée, croissance nulle, déficit commercial, rigidités du marché du travail, etc.) qui semblent empêcher toute amélioration rapide ou sortie de crise.
Par analogie, l’effet tunnel suggère qu’il existe une probabilité, faible mais réelle, qu’un événement ou une dynamique inattendue permette à l’économie française de franchir cette barrière, c’est-à-dire de sortir soudainement d’une situation bloquée sans que les conditions classiques (croissance forte, réformes structurelles massives) soient réunies.
Appliquée à l’économie française, la théorie des systèmes complexes invite donc à abandonner les prévisions linéaires : l’évolution future sera marquée par l’incertitude, la possibilité de transitions soudaines et l’importance des interactions entre agents. La résilience, l’innovation et la capacité d’adaptation deviennent les clés pour traverser les déséquilibres et saisir les opportunités d’émergence d’un nouvel équilibre.
Au final, nous ne savons pas si la France va ou ne va pas s’effondrer. C’est un peu comme dans la chanson de Jean Gabin, “maintenant je sais que je ne sais pas”, et notre expérience est qu’il ne se passe jamais ce que nous pensons qu’il peut se passer.
Comme nous vous l’avions déjà rapporté, Warren Buffet a dit à peu près la même chose dans sa dernière assemblée de Berkshire Hattaway :
1° : Investir, c’est placer de l’argent aujourd’hui pour en récupérer davantage à l’avenir — mais vous ne savez pas ce qui va se passer. Cela ne se passe jamais exactement comme on s’y attend, et cela ne changera jamais.
2° : Ce qui compte dans l’investissement, ce n’est pas combien vous savez, mais à quel point vous définissez de façon réaliste ce que vous ignorez. Ce sont les opportunités qui comptent.
L’équipe hiboo