La science moderne et l’analytique (2/5)

La science moderne et l’analytique (2/5)

Le langage de la Nature

À partir de la fin du 16ème  siècle, se produit en Europe ce que les historiens nommeront la révolution scientifique.

La Nature semble progressivement se dévoiler et perdre ses mystères divins à travers les découvertes de génies tels que Copernic, Galilée ou encore Newton. Aux questions que lui posent les hommes, elle répond désormais par un langage qui leur est accessible :
“Le livre de la nature est écrit en langage mathématique ” disait Galilée.

C’est alors qu’apparaît la méthode scientifique, alliance de la théorie, de l’expérimentation et du formalisme mathématique, que René Descartes conceptualisera dans son “discours de la méthode”, en mettant en avant des préceptes tels que “diviser chaque difficultés” ou encore “raisonner du plus simple au plus compliqué”. La science permet alors de répondre de façon précise à des problèmes clairement posés, sur des phénomènes quantifiables (du type : “où cette balle va-t-elle atterrir si je l’envoie dans telle direction, avec telle vitesse ?”). Ainsi se développe une vision mécaniste du monde que reprendront les philosophes influents de l’époque, à l’image de Thomas Hobbes, pour qui “penser, c’est calculer”.

L’alliance de la science et de la technique

Cette approche sera favorisée par un autre processus historique. Jusqu’à la fin du moyen âge, les inventions ne sont que des outils n’ayant aucune implication sur les connaissances scientifiques. Mais à partir du 17ème  siècle, les connaissances scientifiques permettent des progrès techniques, qui entraînent à leur tour des découvertes scientifiques. L’invention du thermomètre en est une illustration : celui de Galilée (non gradué) est conçu à partir des connaissances sur l’influence de la température sur la densité des matériaux. Fahrenheit intégrera une échelle des températures, ce qui améliorera la précision des mesures et donc la démarche expérimentale et le savoir scientifique en général.

On assiste à une sorte d’hybridation entre science (épistémè) et technique (tekhnè) qui, depuis l’antiquité étaient opposées, la première étant perçue comme une discipline noble de l’élite intellectuelle où la seconde était jugée comme une activité “vulgaire”, réservée au peuple des artisans. 

La technique au service de la science et vice versa : tel fut le levier de la croissance matérielle dans l’Europe moderne (les richesses consécutives au pillage des Amériques n’ayant pas joué un rôle mineur dans l’histoire). Une meilleure efficacité des outils et une meilleure connaissance des lois de la Nature dessinent un cercle vertueux du progrès dans tous les domaines : d’abord en physique, puis en médecine, en biologie, en agriculture, et plus globalement dans la production de biens matériels. L’exemple le plus illustre est celui de la machine à vapeur, perfectionnée par James Watt à la fin du 18ème siècle. Cette invention permet de pomper l’eau des mines et ainsi d’augmenter l’extraction du charbon qui va à son tour alimenter la production de machines – dont le train, lui-même équipé de machines à vapeur. L’augmentation du parc de machines fera en retour croître la demande en charbon. C’est ainsi qu’advient la révolution industrielle.
Science devient synonyme de puissance. Une puissance (technique, économique et militaire) qui s’exercera sur un Monde bientôt totalement dominé par l’Europe.

Alors que depuis l’antiquité, la science était une discipline méditative, destinée à la connaissance pure, sa finalité sera désormais l’efficacité immédiate de ses applications. 

Une nouvelle ontologie

Au fil du temps, un esprit analytique, né de cette science moderne occidentale, s’est construit en fractionnant le savoir en spécialités, en se focalisant sur l’efficacité par une approche linéaire des phénomènes. C’est ainsi qu’est apparue une nouvelle ontologie, c’est à dire une nouvelle représentation du monde. Un monde où tous les mystères pourront être percés par le génie humain. Un monde où l’homme serait “maître et possesseur d’une Nature” (Descartes) dont il pourrait extraire des ressources sans limites pour mener à bien son rêve prométhéen de croissance infinie. L’économie politique, par Adam Smith et ses successeurs ont érigé cette vision des choses en un véritable dogme qui a colonisé l’ensemble de nos esprits “modernes”.

La réduction du réel

Une des conséquences de cette mythologie moderne est l’utilisation quasi pavlovienne d’indicateurs de performance, dont on peut citer les fameux PIB ou ROI, qui ne disent pas grand chose d’une situation en dehors de la fraction de réel qu’ils mesurent. Ce qui n’est pas ou peu quantifiable ou qui n’est pas jugé utile dans l’objectif précis que l’on se fixe, autrement dit, ce qui n’entre pas simplement dans les cases d’un fichier Excel, se retrouve ainsi renvoyé hors des radars de l’attention humaine.

Ce qui constitue la force de l’approche analytique représente également sa principale faiblesse. En favorisant une hyper spécialisation en disciplines, nous nous sommes condamnés à traiter les problèmes en silos, sans tenir compte de leur adhérence entre eux ou avec leur environnement. En découpant les phénomènes en parties, nous avons écarté toute vision holistique et complexe, nous privant ainsi de la possibilité de nous fixer des objectifs globaux, d’élaborer des stratégies globales. On dit que la fin justifie les moyens, mais de la même manière, les moyens conditionnent les fins. Ainsi, la science moderne a accouché d’une façon de penser qui oriente nos actions vers des buts spécifiques et réducteurs.

Une approche biaisée

La pensée analytique est en quelque sorte une pensée de laboratoire où l’on ne raisonne que “toute chose égale par ailleurs”, alors que le réel est avant tout complexité, où un seul paramètre ne varie jamais seul et où règne l’incertitude. La pensée analytique est donc particulièrement sujette aux biais d’interprétation dès lors que le périmètre de la problématique est étendu.

Illustrons cet aspect parcellaire de la pensée analytique avec ce qu’on appelle le paradoxe de Jevons et sa conséquence : l’effet rebond. Les thuriféraires de la pensée purement linaire et en silo prétendent qu’un gain d’efficacité à petite échelle se propage nécessairement à grande échelle. Or, on constate empiriquement l’inverse : les gains d’efficacité des moteurs thermiques n’ont pas entraîné une baisse globale de la consommation d’énergie des véhicules. De même, les gains d’efficacité des microprocesseurs n’ont pas provoqué une diminution de la consommation énergétique du numérique. La raison est simple pour qui s’extrait de la pensée linéaire : si une voiture (ou un ordinateur) est plus efficace, on peut se permettre de s’en servir davantage et d’y ajouter des fonctionnalités, d’autant plus qu’en général le gain d’efficacité est traduit en gain de productivité donc en baisse de prix. L’exemple emblématique d’actualité est celui de la 5G. Cette technologie permettra d’économiser de l’énergie par unité de donnée traitée mais elle permettra de multiplier par un facteur 100 ou 1000 la quantité totale de données traitées, donc in fine l’énergie totale consommée.

Nous avons ainsi adopté au cours de ces derniers siècles une représentation réductionniste du monde qui n’est pas sans rapports avec notre difficulté à affronter les défis majeurs et globaux qui s’offrent à nous aujourd’hui, car ces derniers en sont les conséquences directes : effondrement de la biodiversité, dérèglement climatique ou épuisement des ressources non renouvelables, pour n’en citer que quelques uns…Cette civilisation du “progrès” semble atteinte d’une sorte de myopie à la fois spatiale et temporelle qui consiste à ignorer (ou feindre d’ignorer) les externalités négatives à moyen et long terme que ses prises de décisions engendrent.

Einstein disait qu’on ne résout pas un problème en adoptant le mode de pensée qui l’a créé.

Pourtant, en mode shadocks, nous continuons de “pomper” sans remettre en question notre compréhension du réel. Autrement dit,  nous ne cessons de déplorer les effets dont nous chérissons les causes.