Pour l’émergence d’une société humaine apaisée et réconciliée avec sa biosphère

Jean-Paul Vignal
Article publié le 3 septembre 2010
Pour citer cet article : Jean-Paul Vignal , « Pour l’émergence d’une société humaine apaisée et réconciliée avec sa biosphère  », Rhuthmos, 3 septembre 2010 [en ligne]. https://www.rhuthmos.eu/spip.php?article172

L’instabilité qui caractérise la période actuelle n’est pas vraiment une surprise pour les nombreux observateurs qui ont diagnostiqué depuis quelques décennies déjà que les paradigmes de l’ère industrielle n’étaient pas soutenables à long terme. Techniquement, il aurait en effet été surprenant que l’on puisse passer, sans remise en cause profonde de ces paradigmes, d’un mode de production « nomadique » qui considérait les ressources de la biosphère comme infinies et inaltérables, à un monde « fini », dans lequel les ressources sont limitées et susceptibles d’être dégradées par l’action humaine au point de remettre éventuellement en cause la survie de l’espèce en tant que telle. Institutionnellement, les systèmes extrapolés de la vision mécaniste du monde ont de plus en plus de difficultés à gérer des interactions dont la complexité va croissant, que la simplification réductrice du lien univoque entre cause et effet n’est de toute évidence plus opérationnelle. On peut, comme le pense par exemple Dee Hock, le promoteur d’un nouveau mode de fonctionnement , estimer que le changement nécessaire a spontanément « autant de chance de réussite qu’une boule de neige en enfer » et ne pourra intervenir qu’après un désastre social et économique majeur. On peut aussi observer un monde qui vit et agit « malgré » les crises, et y chercher les germes des démarches qui permettront une transition moins violente, comme le fait d’ailleurs avec beaucoup de talent Dee Hock lui même.


Cette instabilité se manifeste par la convergence de plusieurs « crises d’évolution » que nos esprits imprégnés de rationalisme et d’horlogerie « newtono-cartésienne » ont tendance à considérer et à traiter isolément, mais qu’il convient de tenter d’appréhender globalement si l’on souhaite trouver de véritables pistes de solution. Ce document de travail en analyse brièvement quelques-unes, en essayant de suggérer qu’elles ne sont pas sans issues, et propose ensuite une démarche qui pourrait structurer et rythmer cette transhumance vers une société réconciliée avec elle même et avec la biosphère qui lui prête vie.

 La contraction du temps et la complexité croissante qui en résulte

L’une des plus spectaculaires de ces crises est provoquée par la contraction du « temps ». Elle est due pour l’essentiel à l’accélération vertigineuse des progrès de l’informatique et des télécommunications. À titre d’exemple, l’invention du langage a permis un progrès considérable dans le traitement de l’information, mais il a fallu attendre plusieurs millénaires pour que l’imprimerie multiplie ces possibilités, puis encore quelques siècles pour que le télégraphe puis le téléphone et la radio permettent la transmission de la parole, la télévision celle des images, et le fax celle des documents. Et puis, en moins de vingt ans, toutes ces technologies ont convergé dans des appareils mobiles qui donnent au plus grand nombre la possibilité de recevoir et de transmettre sons, images et documents de presque partout dans le monde. Cette irruption de l’instantané au niveau planétaire entraîne dans son sillage un rapport différent à l’espace : l’endroit ou l’on se trouve physiquement détermine de moins en moins ce que nous faisons tandis que les capacités de traitement de l’information de la technologie qui nous relie aux différents réseaux de télécommunications le font de plus en plus.


La manifestation la moins perceptible et la moins maîtrisée socialement de cette accélération du temps est incontestablement la montée en puissance d’un système financier obsédé par la rotation toujours plus rapide de ses capitaux, qui a pleinement pris avantage des possibilités des technologies les plus sophistiquées de traitement de l’information dans le seul but de multiplier les transactions génératrices de profits [1]. De « chevaliers blancs » neutres chargés d’assurer de temps à autres la stabilité des « marchés » de toute sorte en fournissant la contrepartie éventuellement absente des transactions physiques, les financiers en sont devenus de fait les opérateurs principaux. Leur obsession de rentabilité immédiate est telle que le monde réel – celui qui subvient tant bien que mal aux besoins d’une humanité de plus en plus nombreuse – devient progressivement un simple prétexte à un tourbillon incontrôlé de mouvements financiers virtuels qui, de fait, extraient par le biais de la spéculation le maximum de richesses possible du monde réel, en le réduisant à la portion congrue du strict indispensable à la survie de cette providentielle poule aux œufs d’or [2]. Si rien ne change, comme cela semble être le cas malgré les gesticulations médiatisées des politiques, la crise actuelle ne sera qu’un épisode dans une longue série de catastrophes qui conduiront à l’effondrement final prévue par les scénarios catastrophes, simplement et très normalement parce qu’à chaque fois que la ponction devient trop forte, le monde réel s’effondre sous la charge.


Ce raccourcissement du temps entraîne une complexification des choix que les schémas analytiques traditionnels de causalité simple permettent de moins en moins de maitriser : pris de panique devant le nombre des choix possibles – et l’importance de chacun d’entre eux –, les systèmes qui ont assuré tant bien que mal la régulation pendant l’ère industrielle sont de moins en moins opérationnels et, faute d’imagination et de volonté politique, abandonnent progressivement leurs prérogatives au plus fort du moment, le soit disant « marché ».

 Crise écologique, redistribution géographique et décentralisation

La crise écologique est maintenant reconnue par tous ; sauf cataclysme nucléaire, et encore, elle ne remet pas en cause la vie elle-même qui a su surmonter d’autres crises. Certains des privilégiés qui profitent du système actuel pensent de ce fait pouvoir s’en protéger et nient sa gravité, mais ils sont de moins en moins crédibles car l’épuisement des ressources minérales et fossiles est, quant à lui, incontestable et obligera un jour certes lointain, mais certain, à vivre de ressources renouvelables, en principe moins agressives pour la biosphère.


À défaut donc de déjà faire vraiment l’unanimité, les solutions possibles sont connues : il faudrait passer de nos modèles pillards et pollueurs, à des modèles qui, dans l’idéal, ne prélèveraient aucune ressource non renouvelable, ne rejetteraient aucun déchet non recyclable et ne pollueraient donc plus ni l’air, ni l’eau, ni les sols. En pratique, cela revient à passer d’une activité économique de chasseur/cueilleur/disséminateur de déchets à une activité de type agricole, fondée sur l’exploitation de ressources renouvelables et le recyclage de celles qui ne le sont pas, dans laquelle l’arc et les flèches du nomade sont remplacés par les investissements lourds en infrastructure du paysan sédentaire (défrichage, irrigation, bâtiments, équipements, cheptel…)


Cette sédentarisation effraie : ce serait, nous promet-on, le retour à la bougie et aux cavernes. Est-ce bien exact ? On peut en douter, notamment en ce qui concerne l’énergie. Tout ce qui est renouvelable dérive plus ou moins directement de l’énergie que la terre reçoit du soleil, que ce soit sous forme de rayonnement direct, de biomasse, de vent ou d’énergie hydraulique et/ou marée motrice. L’énergie solaire totale reçue par la terre est considérable ; on l’estime en général à 120 000 TW. À titre indicatif, la consommation humaine actuelle est évaluée à moins de 20 TW, avec des rendements utiles souvent inférieurs à 20 %, quand ce n’est pas nettement moins. Même en tenant compte du fait que 2 milliards d’humains seulement participent réellement à cette consommation, on peut considérer sans grand risque d’erreur que 50 TW devraient suffire pour permettre à une dizaine de milliards d’humains économes et autonomes de vivre comme ils l’entendront, et non plus comme ils le peuvent. À l’échelle géologique, il est possible que les 120 000 TW s’épuisent eux aussi ou ne suffisent pas un jour. A l’échelle humaine, cela semble peu probable.


Il faudra bien sûr de nombreux et remarquables progrès scientifiques et techniques pour ramener l’empreinte énergétique humaine à des niveaux soutenables, mais il faudra surtout, et d’abord, cesser de raisonner en termes d’économies d’échelle par la taille : à l’inverse des mines de charbon et des puits de pétrole, les 120 000 TW solaires sont repartis de manière connue et assez stable à la surface du globe, et la meilleure façon de les exploiter, quelle que soit leur forme, est de le faire localement : comme dans le cas des micro-ordinateurs, les économies d’échelle ne proviennent alors plus de la taille, mais du nombre d’installations. Il est à ce titre curieux de vouloir couvrir des milliers d’hectares de désert de capteurs solaires pour alimenter l’Europe en électricité, alors que la solution la plus naturelle consiste à équiper chaque toiture et/ou chaque façade de capteurs solaires qui, en prime en amélioreront légèrement l’isolation, diminuant d’autant les besoins en climatisation. Le même raisonnement s’applique à la biomasse : il n’y a pas si longtemps , de nombreux agriculteurs distillaient officiellement leur alcool grâce à un système bien rodé d’alambiques fixes ou ambulants : pourquoi ne produiraient ils pas à nouveau demain leur éthanol, leur biogaz, leur biodiesel ou leur biohuile à la ferme ou dans des coopératives de proximité, pour leur propre consommation, mais aussi pour leurs voisins ? C’est techniquement possible et relativement simple.


Cette redistribution géographique des activités n’est pas du goût de tout le monde, et – c’est vrai – pose de nombreux problèmes. Elle augmente en effet le degré de complexité en multipliant les cellules opérationnelles, au lieu de les concentrer dans des sites de plus en plus gigantesques comme cela s’est passé pendant toute l’ère industrielle. Pour être fonctionnelles et économique, ces cellules doivent avoir accès aux connaissances et aux services nécessaires pour exploiter localement leur micro-unités, sans devoir pour autant maintenir localement de couteuses équipes polyvalentes qui seraient forcement sous employées et économiquement injustifiables. À défaut, pour le moment, d’apporter une solution pratique, faute de volonté politique, l’amélioration exponentielle des possibilités de traitement de l’information devrait un jour prochain fournir une solution technique ; mais au lieu d’équiper prioritairement les zones à faible densité de population dans lesquelles ces technologies pourraient rendre de réels services, les politiques ont décidé, dans leur grande sagesse libérale avancée, de laisser la main magique du marché régler seule ce problème. Résultat : une offre surabondante et dispendieuse dans les grandes agglomérations pour diffuser essentiellement du contenu loisir plus ou moins vertueux, et le service minimum dans toutes les zones rurales dont les conseils généraux n’ont pas encore compris que dans nos sociétés dites postmodernes, l’accès à l’information est un droit au même titre que celui aux infrastructures de transport ou à l’eau courante.


Elle pose aussi un problème important de mode de fonctionnement et de gouvernance. Elle entraîne en effet la création de systèmes très complexes de réseaux interdépendants, répartis géographiquement et fonctionnellement, dont la coordination est essentielle au bon fonctionnement et à l’équilibre des systèmes économiques, politiques et sociaux dans leur ensemble. Il est clair en effet que l’optimum de l’intérêt général n’est pas la somme des optima particuliers comme vient de le montrer la crise financière, ou comme le montre chaque jour la délocalisation des activités économiques vers des paradis fiscaux ou sociaux. Elle crée, ce faisant, des problèmes nouveaux, dont la solution passe par l’apparition de concepts et de technologies nouvelles, qui auront en commun de remettre en cause à des degrés divers les modèles de développements qui ont sous tendu la révolution industrielle.

 Crise des valeurs

Cette complexité croissante intervient dans un contexte où la fin – l’argent roi résument sobrement les grincheux – l’emporte de plus en plus sur les motivations et les moyens. Cette évolution se traduit par un affaiblissement des institutions traditionnellement garantes des valeurs et de l’intérêt communs, au profit d’organisations qui sont, elles, plus centrées sur la défense et la promotion d’intérêts particuliers. Ce glissement vers l’attribution de plus de pouvoir aux organismes centrés sur la réalisation de projets, n’est pas un mal en soi, car il permet d’obtenir des résultats efficaces et de compartimenter la complexité des systèmes politiques, sociaux et économiques en unités plus faciles à gérer. Mais il est extrêmement dangereux quand le « chacun pour soi » caractéristique des organisations devient la seule valeur véritablement partagée, comme c’est de plus ne plus le cas. Pour reprendre une analogie biologique, un être humain ne survivrait pas plus de quelques minutes si chacune des parties qui le constituent cherchait à optimiser sa performance sans se soucier de ses voisines. Heureusement, le cerveau est doté de mécanismes de régulations, automatiques et inconscients pour l’essentiel, conscients dans les cas exceptionnels, qui permettent une survie harmonieuse. Il n’y a regrettablement plus de cerveau garant de l’intérêt collectif dans nos sociétés modernes : il a cédé la place à la main magique du marché.


La difficulté principale à court terme vient de l’inégalité croissante entre ces différentes organisations. La plus puissante d’entre elles, les fameux « marchés financiers », a réussi le véritable tour de force d’éliminer à son seul profit, en les ringardisant, tous les contrôles qui permettaient aux États de garder un droit de regard sur la création de monnaie, et aux autres organisations de ne pas leur être totalement asservies. Le résultat est étonnant : au terme d’une crise dont ils sont les principaux responsables, un hold up parfaitement légal, mais complètement immoral, que les autorités les plus prudentes chiffrent à au moins 10 % du PNB mondial ; et un système financier qui nage à nouveau dans l’opulence et se permet sans vergogne ni pudeur de distribuer bons et mauvais points aux gouvernements qui l’ont tiré d’affaire. Tout ceci aux dépens des citoyens/contribuables qui doivent maintenant faire des sacrifices pour amortir ce détournement.


Faute de valeurs communes fortes, la montée en puissance des particularismes liés au communautarisme ambiant exaltent et privilégient les valeurs de différentiation, de compétition, de défiance, d’appropriation privée et d’exclusion propres au monde économique libéral « avancé » ; elles l’emportent de plus en plus dans tous les secteurs de la vie humaine sur celles de responsabilité, de confiance, de coopération et de partage qui fondent et rendent possible la vie en société. Le système est tellement corrompu que contester cette forme abâtardie de libéralisme qui n’en a guère que le nom est désormais considéré comme un crime de lèse-majesté contre l’économie de marché, alors que ce devrait être exactement l’inverse : l’économie de marché quand elle est pratiquée suivant ses principes fondateurs, est a l’économie ce que la démocratie est à la politique : le moins mauvais des systèmes possibles.


Une des difficultés majeures actuelles consiste à retrouver un équilibre durable entre « institutions » et « organisations », ou, comme préfèrent dire certains, entre ordre gestionnaire et rassurant, et chaos déstabilisateur créateur de valeur. Il est impossible en effet de laisser les intérêts particuliers complètement libres. Comme le dit la sagesse populaire, la liberté des uns s’arrête là où commence celle des autres. Aucune organisation simplement « exécutive » ne peut assurer ce respect du plus élémentaire principe de la vie en société. Seules des institutions porteuses de valeurs acceptées par tous peuvent le faire.


Il faut noter que cette crise des valeurs est en fait surtout celle des valeurs de l’occident, qui ont prévalu pendant les années glorieuses de l’ère industrielle, que de celle de l’humanité dans son ensemble. La révolution industrielle se fondait sur un triptyque qui n’a pas résisté à sa dissolution dans l’argent roi : la morale chrétienne, une croyance forte dans le caractère essentiellement bénéfique de la science, et la confiance dans l’économie comme source de bonheur pour tous. Or, « Aimer son prochain comme soi même » dans un monde où le quotidien est fait d’envies le plus souvent frustrées, de compétition et de prédation n’est pas simple, pas plus qu’il n’est facile de croire en la science quand on constate qu’elle est la source de la plupart des maux, à commencer par le terrible perspective d’un holocauste nucléaire.


Pendant ce temps, le Japon d’abord, puis maintenant la Chine et l’Inde, en fins connaisseurs du théorème d’Heisenberg sur l’incertitude, ont montré que l’on pouvait battre l’occident sur son terrain quand on était capable d’assimiler son savoir faire scientifique et technique mais en conservant ses valeurs traditionnelles à base de consensus entre points de vue différents voire opposées qui se complètent et s’enrichissent parce que le principe de décision n’est pas de « convaincre » l’autre, mais de trouver le meilleur compromis possible pour le groupe entre ces points de vue. Dans ces cultures, la solution n’est pas binaire, avec un gagnant et un perdant, mais « quelque part » au point d’équilibre entre les forces contradictoires qui s’expriment pendant son élaboration.

 Crise de la production et de la diffusion des savoirs

Nous sommes, paraît-il, entrés dans l’ère du savoir. Quoi de plus précieux dans cette perspective que les lieux où se crée, se transmet et s’applique ce savoir ? En principe rien. Or, que constate-t-on ? : une évolution rapide vers un modèle d’université/organisation, entièrement tournée vers la « production » de résultats de recherche et d’étudiants hyper-spécialisés, prêts à l’emploi, mais qui, sauf exceptions, a la plus grande difficulté à atteindre ces objectifs, car, du fait de la rapidité de la progression des connaissances, son « offre » est par nature, décalée par rapport à la « demande » d’un environnement sans cesse en mouvement. De plus, laisser « la main magique » fixer les programmes de recherche revient au mieux à enrichir de façon excessive les « clients » de cette recherche, car on n’a jamais vu, par exemple, un transfert de technologie public/privé assorti de clauses prévoyant un partage des résultats entre « salariés » et « actionnaires », et au pire à développer des savoirs dont la mise en œuvre est toxique pour la société et/ou pour la pour la biosphère


Ce glissement vers des modèles marchands a, de plus, le grave défaut de susciter un violent mouvement de négation du savoir en tant que tel par certains chercheurs eux-mêmes, l’intérêt de la connaissance étant alors radicalement nié au nom de l’utilisation mercantile et socialement contestable qui en est faite. La contestation en vrac et sans appel des « biotechnologies » par les tenants de la décroissance et/ou du bio est une bonne illustration des dangers de cette condamnation manichéenne de la recherche fondamentale. Il paraît assez évident, par exemple que la base scientifique qui sera nécessaire pour vraiment optimiser le rendement de la photosynthèse des plantes est en majorité la même que celle, très partielle aujourd’hui, qu’utilisent certains industriels de l’agrochimie pour promouvoir la vente de leurs produits agrochimiques grâce à la mise au point de semences modifiées génétiquement pour résister aux herbicides ou aux pesticides qu’ils commercialisent. Il est préoccupant que l’on rejette l’amélioration des connaissance scientifique des mécanismes de la vie au nom de l’utilisation contestable qu’en font certains industriels, simplement parce que l’on ne dispose pas de mécanismes de référence pour encadrer et limiter plus strictement ce genre d’application, en exigeant par exemple dans ce cas particulier que les industriels et le complexe agro-industriel apportent des preuves convaincantes de la robustesse de leur connaissance scientifique des conséquences de l’introduction d’un matériel génétique nouveau dans un écosystème.


Dans les meilleurs cas – ceux des universités que l’on cite toujours comme de brillantes réussites d’intégration dans la vie de la cité–, on assiste à la marchandisation de valeurs essentielles et à une privatisation au profit d’organisations extérieures, qui trouvent ainsi un moyen efficace et peu couteux d’externaliser leur recherche et leur formation.


La solution n’est pas évidente. Sans nier la nécessité d’une interface forte entre société et université qui veille à ce que « l’argent des contribuables » comme disent les américains, ne soient pas inutilement englouti dans des projets essentiellement personnels, elle passe vraisemblablement par un rééquilibrage en faveur des valeurs de création et de transmission du savoir qui ont fondé l’université, au lieu de persévérer dans la volonté de la transformer progressivement en laboratoire de recherche et en service de formation d’une économie libérale globalisée. Dans un monde ou tout va très vite, l’essentiel n’est pas de « produire » de l’innovation et de la formation focalisées, mais de créer l’environnement qui permet de le faire dans les meilleures conditions, (i) en fournissant les indispensables connaissances fondamentales, (ii) en formant des étudiants qui soient capables de s’adapter à leur environnement plutôt que de les diriger dans les impasses de l’hyperspécialisation sur tel ou tel gadget qui sera forcément démodé, comme eux, en moins de 5 ans.


Cette crise de l’Université est d’autant plus préoccupante qu’elle coïncide d’une part avec la mise en cause radicale du bien fondé de la connaissance, comme on vient de le voir avec l’exemple des biotechnologies, et d’autre part avec l’émergence de nouvelles théories scientifiques qui déstabilisent les certitudes de la science classique en remettant en cause certains de ses crédos. Ainsi, pour n’en citer que quelques-unes, celle de la relativité modifie les références à l’espace et au temps et celle de la mécanique quantique celles sur la continuité de la matière ; le théorème de Gödel sur l’indicibilité, en affirmant que l’on ne peut connaître entièrement un système « de l’intérieur » et celui sur l’incertitude de Heisenberg qui montre qu’on ne peut connaître à la fois la vitesse et l’emplacement d’une particule au niveau subatomique à un instant donné, posent quant à eux des limites que l’on avait pu croire infinies.

 Révolution des techniques d’information et modes de réorganisation sociale

La recherche d’un bon équilibre, si possible auto-stable, entre intérêt collectif et initiative individuelle dans un système capable de digérer sans l’étouffer la complexité croissante de nos sociétés n’est de toute évidence pas une mince affaire. Commencer par reconnaître que c’est un problème central est un premier pas indispensable, que relativement peu de personnes ont vraiment accompli. En accepter les conséquences en est un autre tout aussi nécessaire.


L’une des raisons essentielles du recul des institutions provient de leur gouvernance, qui est le plus souvent hiérarchique. Les limites de ces systèmes sont d’autant plus patentes que les possibilités sans cesse améliorées des technologies de l’information incitent les organisations à créer sans cesse de nouvelles passerelles entre les différents réseaux dans lesquels elles inscrivent leurs activités, qu’elles soient économiques, sociales ou politiques, afin d’améliorer la qualité et la diversité des prestations qu’ils peuvent rendre à leurs utilisateurs. Il est très probable que cette tendance à la complexification des relations d’interdépendance va aller en s’amplifiant : plus il y aura de possibilités de créer des liaisons, plus elles seront exploitées comme le montre le développement remarquable des services offerts grâce à l’existence d’Internet au cours des 15 dernières années.


Bien qu’il soit difficile de prévoir les formes d’organisation nouvelles qui résulteront de l’évolution du rôle des systèmes de traitement de l’information, il semble néanmoins que quelques tendances fortes commencent à apparaître. Dans le domaine du traitement de l’information lui-même, par exemple, tandis que la plupart des prédictions des années 1960/70 proposaient de confier le destin du monde à quelques ordinateurs centraux, le succès inattendu du PC, puis la mise en œuvre du système d’information d’entreprise des années 1980/90 sont venus mettre à mal cette vision monolithique, héritière directe des paradigmes centralisateurs qui prévalaient lors de l’introduction de l’informatique. De même, dans le domaine de la communication, l’avènement de l’Internet et de son protocole coopératif et unificateur a confirmé depuis ce changement radical de cap.


Les choix possibles pour l’organisation de ces réseaux sont multiples, car les systèmes complexes et répartis peuvent effectivement être organisés soit de façon hiérarchique, soit en mode « pair à pair », soit de façon hybride, hiérarchique/pair à pair, comme c’est le plus souvent le cas dans les systèmes biologiques. Dans le premier cas, l’intelligence qui pilote le système se situe essentiellement au niveau du coordinateur qui centralise les commandes. Techniquement, cela signifie des puissances de calcul considérables dès que le nombre de variables à gérer et de composants augmente. On a donc plutôt tendance à limiter le nombre de ces variables, et à multiplier les niveaux hiérarchiques pour réduire les risques d’engorgement, ce qui a pour effet principal de diminuer considérablement l’adaptabilité et la flexibilité du système, et d’en diminuer le rendement, car tous ces échelons intermédiaires ne sont souvent que des courroies de transmission, qui produisent peu ou pas de valeur ajoutée valorisable en « externe », mais essentiellement de la « facilitation » interne.


Dans le second et le troisième cas, l’absence de décideur unique (consensus distribué) implique l’utilisation de mécanismes plus complexes, et donc une distribution de l’intelligence dans le système, qui procure des avantages notables en matière d’adaptabilité, et permet une plus grande sécurité de fonctionnement.


Économiquement, les infrastructures organisées de façon hiérarchisée impliquent en général un investissement initial massif, que compense ensuite un coût d’investissement par participant supplémentaire marginal, jusqu’à saturation du dispositif mis en place initialement, et des coûts de fonctionnement moindres, car ces systèmes sont relativement simples. C’est un avantage quand il s’agit de structures dont on connaît assez précisément à l’avance les fonctions et le nombre de participants ou d’utilisateurs, mais c’est un inconvénient qui peut être sérieux dans un contexte difficile à prévoir. Leur rigidité exposent en effet leurs promoteurs à au moins deux risques :

  • un risque « commercial » : si les succès n’est pas à la hauteur des projections, l’investissement sera difficile a amortir,

  • un risque d’ « exploitation » : on peut être amené à surdimensionner l’investissement pour assurer une bonne qualité de service dans des conditions d’utilisation extrêmes mais trop limitées dans le temps pour justifier l’investissement.


Le premier risque peut être illustré par les difficultés des sociétés de téléphonie mobile qui doivent consentir des investissements massifs pour exploiter leurs licences, sans savoir si la technologie correspond vraiment à un besoin et sera un succès. Celui de devoir disposer d’infrastructures très lourdes pour faire face à des utilisations ponctuelles dans certains lieux (transports, évènements sportifs…) correspond au second.


Dans le cas des systèmes décentralisés, l’investissement par utilisateur est beaucoup plus divisé, et, proche du coût du système mis en place en chaque point opérationnel du système, les frais de structure étant par définition plus limités, et même en principe nuls dans le cas des systèmes totalement « pair à pair ». Ainsi, pour autant que l’on fasse abstraction du coût de la mise au point initiale de la technologie (conception, algorithmes, équipements) le coût d’investissement marginal par utilisateur dans un réseau ad hoc de télécommunication est limité au coût du terminal émetteur/récepteur du nouvel utilisateur. Le fait de produire ces terminaux en très grande série permet de baisser leur coût de façon à ce que le coût global d’investissement par unité de capacité soit inférieur à celui des systèmes centralisés. Mais ça n’est pas toujours le cas, particulièrement dans les phases transitoires.


Ainsi, en simplifiant à l’extrême, et sans tenir compte de l’impact à long terme sur l’environnement, ni de la notion de qualité de service, il est aujourd’hui déjà probablement moins coûteux de faire travailler des micro-ordinateurs en réseau que d’acquérir un superordinateur, sauf pour certaines applications très spécifiques. Par contre, si l’on fait également abstraction de l’impact à long terme sur l’environnement, produire de l’électricité dans des centrales nucléaires et la transporter dans des réseaux centralisés est encore, sauf exception (faibles consommations dans des lieux éloignés des réseaux de transport principaux) moins coûteux, malheureusement diront certains, que de la produire localement sur les lieux de consommations.

 Pour un retour à un meilleur équilibre entre efficacité économique et garantie des valeurs sociales

Cette profonde modification des modes de fonctionnement offre des opportunités considérables car, dans un contexte économique et social où les économies d’échelle ne créent plus de barrières d’entrée difficiles à franchir ou même à contourner, la capacité d’imaginer, de concevoir et de mettre en place des solutions nouvelles devient un avantage compétitif fort, ce qui contribue à rééquilibrer les relations entre pouvoir en place – quelle qu’en soit la nature (politique, économique, financier, syndical...) – et capacité de création.


Mais elle pose aussi des problèmes considérables d’organisation. Le monde du vivant a trouvé depuis son origine une solution, qui consiste à décentraliser la responsabilité de l’action. Sans entrer dans une digression sur la théorie des systèmes, la prise en compte de quatre facteurs principaux affecte l’auto-organisation qui résulte de cette décentralisation :

  • celle des interactions entre les influences locales et globales, non hiérarchisées, qui caractérisent les systèmes auto-organisés ;

  • celle de l’existence de points de tensions qui proviennent de la multitude de contraintes à satisfaire (local/global, spécifications, contraintes externes et feed back ...) ;

  • celle du feed back et des phénomènes de récurrence ;

  • celle de la notion de système complexe, par opposition aux systèmes mécaniques simples et aux systèmes régis par les lois statistiques sur les grands nombres.


Ces facteurs viennent se surimposer – et compléter – les quatre contraintes classiques auxquelles doit satisfaire tout système, à savoir :

  • maîtriser en permanence leurs rapports avec leur environnement ;

  • être structurés et organisés de manière simple et efficace, en général en niveaux et modules ;

  • conserver leur identité, c’est-à-dire maintenir la stabilité de leur forme et de leur organisation, quels que soient les flux de, et vers, l’extérieur qui les traversent ;

  • être suffisamment variés, afin de conserver la redondance de moyens qui est nécessaire pour faire face aux situations imprévues. Un système qui ne dispose pas de suffisamment de variété est susceptible de blocage ou de sclérose. Cette caractéristique est importante dans des architectures hiérarchisées car il faut, dans ce cas, trouver le bon équilibre entre adaptabilité et contrôle. La loi dite de la variété requise énoncée par Ashby stipule que « pour contrôler un système donné, il faut en effet disposer d’un contrôle dont la variabilité est au moins égale à la variété de ce système ». Réciproquement, quand la variété du serviteur augmente et dépasse celle du maître, les rôles s’inversent, comme on peut le constater tous les jours dans le combat inégal entre entreprises multinationales – qu’elles soient financières ou pas – et États.


Il existe de ce fait un risque important que trop de contrôle prévienne rapidement toute possibilité d’adaptation. Ce n’est pas important dans des systèmes bien connus, évoluant dans un environnement stable ou prévisible. C’est par contre vital dans un environnement instable. Dans le cas des systèmes ouverts, ou partiellement ouverts, qu’il s’agisse de systèmes sociaux, biologiques, ou mécaniques, ils doivent avoir une capacité d’évolution qui leur permette d’assurer leur survie en cas de modification des flux échangés avec l’extérieur. Pour compléter ces brèves remarques il convient de noter que particulièrement dans les systèmes hiérarchisés, ce sont toujours les éléments les plus faibles et/ou les plus marginaux qui sont sacrifiés en premier quand l’adaptation n’est pas possible, sélection oblige

 Quelques exemples d’organisation réticulaire

Parmi les manifestations concrètes de l’émergence de ces nouveaux modes de fonctionnement, plus autonomes, coopératifs et solidaires, on peut relever le recours de plus en plus fréquent à l’empowerment des salariés dans de nombreuses entreprises, recours qui semble désormais avoir franchi avec succès le cap de l’effet de mode. On peut également citer la notion d’écologie industrielle ; il faut souligner à son propos qu’elle est par essence incompatible avec les règles de fonctionnement actuelles des marchés ; elle se fonde en effet sur des engagements mutuels de fourniture et d’acquisition de produits ou de services et s’effondre dès qu’un participant fait appel à un tiers pour acheter ou vendre ses produits ou ses services parce qu’il y trouve un intérêt financier momentané.


La mise en place d’Internet, dont la première ébauche permet déjà de « désintermédier » beaucoup de relations en mettant en contact directement et à bas prix, à peu près tout le monde avec tout le monde à la surface du globe est un premier pas vers des systèmes maillés dans lesquels les membres du réseau « seront » la structure, chaque participant étant à la fois émetteur, récepteur et transmetteur. La montée en puissance du principe de supply chain, est une autre illustration ; bien que plus contestable, car souvent piloté d’une main de fer par le membre le plus « puissant », celui qui contrôle le contact avec le client ou l’utilisateur final, substitue progressivement au rapport de force entre clients et fournisseurs, la notion de « chaînes de production » constituées de sociétés indépendantes juridiquement mais fonctionnant en étroite coopération pour fournir à l’utilisateur le meilleur service au meilleur prix. Enfin, pour prendre un exemple issu d’une société dans laquelle le consensus est une règle établie et respectée, l’apparition au Japon du concept de Ba que Pierre Marie Fayard définit comme une « communauté stratégique de connaissance » est une application intéressante au domaine de la connaissance plus que jamais régi par la compétition et la propriété intellectuelle. D’une façon plus conventionnelle et acceptable par les systèmes en place, mais au même titre que les réflexions américaines qui remettent en cause la propriété intellectuelle [3], il prône le retour à la coopération et à l’ouverture dans le domaine de la création de la connaissance et de l’innovation.


Dans le domaine du management, le concept de chaordique semble particulièrement prometteur. Il a été développé par un groupe réuni autours de Dee Hock, le créateur du système de carte bancaire VISA. Le nom qu’ils ont choisi traduit bien la tentative de création d’un mode de fonctionnement « à l’équilibre », qui concilierait le chaos créateur de l’action avec l’ordre nécessaire à la survie.


La réflexion de Dee Hock s’est organisée autour de 3 questions :

  • « Pourquoi les organisations, partout, qu’elles soient commerciales, sociales ou religieuses, ont-elles de plus en plus de difficulté à mener leurs affaires ? »

  • « Pourquoi, partout dans le monde, des individus se sentent-ils de plus en plus en conflit avec les organisations dont ils font partie et s’en sentent étrangers ? »

  • « Pourquoi la société et la biosphère sont-elles de plus en plus en débâcle ? »


Il résume l’inspiration de sa démarche dans la façon dont il aborde la présentation qu’il en fait aux dirigeants d’entreprises en utilisant une analogie avec le cerveau « Je (leur) demande : Prenez toutes vous idées et croyances traditionnelles sur l’organisation et appliquez-les aux neurones de votre cerveau. Organisez les neurones de votre cerveau, cet organe infiniment diversifié, le plus complexe qui soit apparu dans l’histoire de l’évolution, de la même façon que vous organiseriez une entreprise. D’abord, il faudrait nommer un neurone PDG, n’est-ce pas ? Ensuite, vous devez décider quels neurones vont faire partie du conseil d’administration, puis lesquels vont s’occuper des Ressources humaines, et puis il faudra écrire un manuel d’utilisation. Si vous pouviez organiser votre cerveau selon ce modèle, qu’est-ce qui arriverait ? Vous seriez instantanément incapable de respirer jusqu’à ce que quelqu’un vous indique comment, où, quand et à quelle vitesse. Vous ne seriez pas capable de penser ni de voir. Et si votre système immunitaire était organisé selon ces mêmes idées ? D’abord il faudrait faire une étude de marché afin de déterminer quel virus vous a attaqué. »


Il estime que notre vision mécaniste du monde est tellement intégrée dans nos modes de raisonnement qu’elle nous empêche de penser « autrement », et d’avoir la plus grande difficulté à concevoir la possibilité d’autres systèmes, alors même que c’est le cas de celui qui règle notre fonctionnement biologique : « Depuis quatre cents ans nous avons essayé de construire toutes nos organisations comme si le modèle newtonien de la réalité était applicable universellement. Une personne fait un rapport à celle-là qui rapporte à son tour à celle-ci et ainsi de suite. Les ordres venant d’en haut sont transmis vers le bas […] Si vous regardez bien, vous verrez que chaque institution que vous avec connue dans votre vie est consciemment ou inconsciemment fondée sur cette métaphore et ce modèle. Votre école fonctionnait de cette façon, votre église, votre communauté, et votre État également. C’est votre vision de la réalité qui est la machine. »


Pour refonder notre vision des organisations, il part du postulat que toute organisation saine se fonde sur un but et des principes. Pour lui, ce but ne se résume pas à un classique objectif, ou à une mission, c’est « l’expression sans ambiguïté de ce que des personnes souhaitent devenir ensemble. ». De même, un principe n’est pas un vague précepte éthique ou moral complaisamment affiché au vu et au su de tous pour être mieux oublié dès qu’il pourrait s’opposer à la règle du profit maximum à court terme, mais « une conviction fondamentale sur la façon dont vous avez l’intention de vous conduire dans la poursuite de ce but ». Reprenant l’analogie avec le monde du vivant, il pense « que le but et les principes, clairement compris et articulés, et partagés, constituent le code génétique de toute organisation saine. C’est dans la mesure où le but et les principes sont partagés que l’on peut se passer de commandement et de contrôle. Les personnes impliquées vont savoir comment se conduire en accord avec ces buts et principes, et elles le feront de mille manières inattendues et créatives. L’organisation va devenir un organisme de convictions, un organisme vivant. »


La piste est passionnante, car, que l’on apprécie ou pas son inspiration, le mouvement VISA est une formidable réussite, qui parvient à concilier les intérêts de centaines de milliers de structures aussi diverses que des associations sans but lucratif et les plus grandes institutions financières du monde. VISA est une incontestable preuve in vivo qu’un modèle d’organisation combinant liberté d’action des membres, autodiscipline et coordination très structurée, n’est pas utopique puisqu’il peut fonctionner à la satisfaction générale même dans l’univers supposé impitoyable de la finance. Il a de plus l’avantage d’être très résilient : dans le cas de VISA, les difficultés récentes du système financier ne l’ont jamais empêché de fonctionner, et même si certains membres, grands ou petits, disparaissent, il est fort probable que VISA leur survivra sous une forme ou une autre, ne serait-ce que parce qu’elle est devenue indispensable à 3 univers distincts : celui de la finance, celui du commerce et de l’industrie, et celui des consommateurs. Il est rassurant pour l’avenir que cette organisation ait pu voir le jour dans le domaine le plus pollué par les idées libérales et soit en fait, au niveau individuel, l’un des plus beaux fleurons de la globalisation qui en contournant la plupart des contrôles régaliens nationaux sur la monnaie, transforme chacun des porteurs de cartes en détenteur crédible de monnaie virtuelle presque partout dans le monde.


Il y a d’autres exemples, moins contestables sur le fond ; l’un des plus connus est LINUX, le système d’exploitation pour ordinateurs, qui, même si certaines sociétés commerciales en vivent très bien, a l’avantage de ne pas être construit sur et par l’argent.


D’une façon générale, tous ces exemples ont pour but de trouver le bon équilibre entre l’incontestable efficacité des organisations « projets centriques » et le respect du bien commun en redonnant de la force aux institutions et aux valeurs qui les sous-tendent. Le simulacre actuel de « re-régulation » qui est supposé rétablir un peu de contrôle sur la liberté unilatérale d’un système financier qui privatise ses gains en échappant même à l’impôt grâce aux paradis fiscaux, mais collectivise ses pertes sans la moindre honte, est de ce point de vue affligeant : les États ne font que remettre à flots les fauteurs de trouble : la preuve en est que la majorité des citoyens va plus mal qu’avant la « crise » alors que la fine fleur de la finance a retrouvé ses revenus et son arrogance, et a même réussit à transformer en plantureuse source de profit son propre renflouement grâce à la main magique des marchés qui distribue maintenant bons et mauvais points à ces États gaspilleurs de ressources publiques qui ont eu la faiblesse de la tirer d’affaire.


La partie la plus innovante et porteuse d’avenir des idées de Dee Hock et la chaordique est celle qui souligne le primat de la démarche et de la méthode sur les objectifs qui deviennent les sous-produits d’un processus vivant, la nécessité de fonctionner par consensus et d’y parvenir non pas en éliminant les oppositions, mais en recherchant et en identifiant dans un dialogue permanent entre intérêt particulier et intérêt collectif, ordre et chaos, holisme et individualisme, idéologie et pragmatisme – on pourrait dire entre yin et yang –, celle, pour finir, qui estime que le vrai pouvoir sera de plus en plus celui d’influencer la façon dont se décide le comportement des hommes ou des institutions dans le sens qui est jugé favorable, bien plus que celui de contraindre ou même d’inspirer.


Sa principale faiblesse est de ne pas être une solution toute faite, prête à l’emploi après lecture du manuel et séminaire de formation, mais d’être une démarche qui oblige à accepter de prendre le risque de se remettre en cause personnellement pour pouvoir changer collectivement.

 Résistances à la réorganisation réticulaire

Si elle a tant d’avantages, la question qui se pose est alors de savoir pourquoi ce genre de synthèse entre liberté d’action et intérêt général ne s’impose pas comme une évidence à tous. Il y a pour cela deux séries de raisons principales.


Sans surprise, la première est que les élites qui vivent « richement » du système dissymétrique et immoral actuel n’ont absolument aucune raison de lui laisser se substituer un système moins avantageux pour eux sans combattre pied à pied. Leur contrôle sur les medias est tel qu’il n’est pas nécessaire d’être un futurologue chevronné pour deviner que le combat sera rude.


Plus paradoxalement, la seconde tient à la résistance au changement de la majorité qui subit et fait vivre à ses dépens le système en place. Cette nouvelle façon de « vivre » les organisation remet en effet en cause les habitudes confortables, et souvent déresponsabilisantes des organisations classiques rigides, fondées sur l’application de la loi linéaire de cause à effet, dans laquelle chacun a une place et un rôle connu et stable. Cette attitude n’est pas exceptionnelle dans le monde du vivant où victimes et prédateurs vivent souvent en bonne intelligence – jusqu’à un certain point. Elle est en grande partie le résultat d’un conditionnement des esprits par une propagande qui clame haut et fort que le système actuel est celui qui garantit la meilleure protection possible contre l’univers hyperconcurrentiel de la globalisation et que le marketing, loin de créer des besoins futiles, est la science exacte qui permet de généreusement répondre aux attentes et aux besoins des citoyens consommateurs.


Changer de paradigme n’est certainement pas facile. Refuser de le faire quand un environnement radicalement différent l’impose est suicidaire en termes d’évolution. Combien de « bulles financières » faudra-t-il crever avant que cette évidence ne soit admise par la majorité bien pensante, that is the question ?


En attendant, un peu plus d’attention au rétablissement des valeurs collectives et aux institutions qui en assurent la promotion et la défense ne ferait sans aucun doute pas de mal. Un animal social ne peut pas survivre bien longtemps en tant que tel s’il s’en tient seulement au respect de préceptes essentiellement narcissiques. Trouver le bon dosage entre liberté de faire et respect de l’autre est à coup sûr une des principales pistes pour trouver une sortie durable au désordre actuel. Les élites ayant depuis longtemps abandonné sans aucune pudeur le concept de la primauté de l’intérêt général, et plus encore celui de la survie dans le temps long, cette solution ne peut provenir que du terrain et être auto-organisée, car c’est la seule façon réaliste de démontrer, par l’exemple, comme l’a fait VISA, que compétition et exclusion ne sont pas les seules règles universelles de la postmodernité.


Jean-Paul Vignal, juillet 2010


Bibliographie :


Notes

[1Comme il ne peut normalement pas y avoir de transaction qui ne soit pas physique sans écart de prix, le but principal des marchés est de créer de l’instabilité, au lieu de la contrôler.

[2La spéculation n’est pourtant pas une nécessité ; dans un monde aux ressources finies, on ne devrait pas parier sur la valeur d’un bien ou d’un service qui n’existe pas encore ; un mécanisme assurantiel devrait plutôt permettre de s’assurer contre le risque qu’il ne soit pas disponible en quantité, en temps et au prix souhaitables. La spéculation est particulièrement choquante dans le domaine de la santé : nos soi-disant systèmes de santé sont essentiellement curatifs et spéculent sur la maladie, qui leur assure leur revenu, plus que sur la recherche d’un maintien en « bonne santé » qui serait préventive et fondée sur une meilleure connaissance des mécanismes immunitaires, une alimentation saine… et un peu d’exercice physique ! Un modeste prélèvement sur l’énorme valeur ajoutée qu’il y a entre la ferme et l’assiette du consommateur (80 % aux USA) devrait permettre de trouver le financement nécessaire aux recherches.

[3Cf. par exemple les sites Creative Commons (http://creativecommons.org/) ou le livre de James Boyle « The Public Domain : Enclosing the Commons of the Mind”(http://www.thepublicdomain.org/)

Suivre la vie du site RSS 2.0 | Plan du site | Espace privé | SPIP