fil-educavox-color1

Par Olivier Ertzscheid sur son site affordance.framasoft.org (Creative commons)  : De quoi avons-nous le plus besoin ? D’eau ou de données ? D’eau assurément. Et de quoi les données, de quoi “nos” données ont-elles le plus besoin ? D’eau également. Il est un pan technologique des guerres de l’eau qui commence à peine à émerger dans le champ social et médiatique et c’est celui de la rivalité entre les sociétés prédatrices et extractivistes de la “Tech” d’un côté qui ne voient dans l’eau qu’un énième bien rival qu’il faut être en mesure de capter à tout prix, et celui de communautés, de peuples, de régions ou de pays luttant pour leur survie et contre des formes déjà très avancées ou mortifères de stress hydrique et qui s’épuisent à lutter pour défendre leurs ressources en eau comme un bien commun vital. Et qui en plus de le faire contre d’autres lobbys agricoles déjà anciens, le font désormais également contre les géants de la tech.

D’eau d’eau l’enfant d’eau.

Depuis quelques années, les guerres de l’eau prennent bien des formes et sont traitées de bien des manières dans les médias.

La première manière, c’est le plus souvent de manière presque “pittoresque” lorsqu’il s’agit de montrer des camions livrant exceptionnellement de l’eau dans un petit village de montagne pour que chacun se réjouisse de n’être pas habitant de ce petit village et que chacun mesure aussi la chance qu’il a de vivre dans un pays où l’on s’imagine qu’il y aura toujours des camions pour venir nous livrer en cas de manque, de l’eau ou d’autres choses.

La deuxième manière, c’est l’escamotage dramatique. À part sur certaines chaînes ou stations à l’audience le plus souvent confidentielle, on n’entend presque jamais parler de la première famine climatique mondiale qui touche Madagascar depuis déjà plus d’un an. Quand l’agenda médiatique le permet, c’est à dire quand tout le monde n’est pas en train de se dorer au soleil ou d’aspirer à le faire, on montre la dimension dramatique d’une famine, d’une sécheresse à l’autre bout du monde, d’un enfant décharné au ventre gonflé de malnutrition et puis l’on escamote, et on n’y reviendra pas.

La troisième manière est toujours plus économique que politique lorsque l’on présente la prédation de ressources naturelles au mépris du vivant (y compris lorsque nous sommes ce vivant) comme c’est le cas en plein d’endroits dans le monde y compris chez nous, à Vittel par exemple, où Nestlé épuise les nappes depuis tant d’années.

Voilà pour les grands traitements médiatiques de nos guerres de l’eau : angle pittoresque, angle économique, angle de l’oubli.

Jusqu’à ces derniers mois. Et jusqu’à cette dernière année où à force de sécheresses, d’incendies, et de catastrophes climatiques diverses, la question de l’eau recommence à être traitée comme ce qu’elle n’aurait jamais dû cessé d’être : une question fondamentalement politique. A ma connaissance seul le programme porté par la France Insoumise lors des dernières élections présidentielles avait fait du sujet de l’eau un sujet politique. Depuis, ce qui était jusqu’ici le domaine réservé de la science-fiction apocalyptique et survivaliste de pays privilégiés de l’hémisphère Nord et tout à la fois le quotidien de bien plus d’une moitié de la population mondiale, est devenu une réalité tangible, proche, palpable, immédiate pour l’ensemble de l’humanité : nous probablement ou nos enfants certainement, vivons et vivrons toutes et tous des guerres de l’eau qui feront probablement bien plus de dégâts que toutes celles que l’humanité traversa jusqu’ici.

L’épuisement documenté, observable, scientifiquement explicable d’une ressource, se traduit toujours en conflits d’usage, lesquels conflits achèvent en général d’épuiser soit la ressource elle-même soit les perdants de ce conflit. Certains de ces conflits apparaissent presque dérisoires comme le furent l’année dernière la guerre des golfs, d’autres sont bien plus dramatiques au plan national ou international. Il est en réalité toujours deux conflits dans une telle guerre : celui pour le maintien de la ressource elle-même et c’est alors, au moins dans les états démocratiques, aux pouvoirs publics d’affronter les intérêts privés ; et celui subséquent des affrontements entre les individus et les communautés liés à cette ressource. Sans oublier que la ressource (l’eau) est elle-même une ressource à la dynamique complexe et affectée des résultats de ces différents conflits : elle peut – par exemple – n’être plus potable du fait du “simple” réchauffement et de la multiplication d’algues ou de micro-organismes la rendant impure à la consommation ou même à la baignade ; elle peut s’épuiser brutalement ou se raréfier lentement ; elle peut également être sciemment contaminée lors d’un conflit d’usage, etc.

Mais revenons à nos géants de la Tech et à leurs pratiques extractivistes mortifères sur la ressource en eau, pratiques que seules légitiment les comportements qu’ils ont installé au service d’un modèle économique à la rentabilité aussi forte qu’à la vue aussi courte. Et qui font, à leur tour, peser une nouvelle menace inédite sur la ressource mondiale en eau.

Et commençons par deux exemples récents et concrets.

Uruguay contre Google.

En Uruguay, plus de la moitié de la population n’a plus accès à l’eau potable à cause d’une sécheresse record. Face à ces 3,5 millions de personnes sans eau courante, on apprenait en Mai via l’AFP et le Huff Post mais aussi dans l’enquête du Guardian, que Google a acheté “près de 20 hectares de terrain pour y construire un centre données qui utiliserait 7,6 millions de litres d’eau par jour pour refroidir ses serveurs. Ce qui représente l’équivalent de la consommation domestique quotidienne de 55 000 personnes, selon les chiffres du ministère de l’Environnement.

https://affordance.framasoft.org/wp-content/uploads/2023/08/Uruguay-Water-300x196.jpeg 300w" data-sizes="(max-width: 600px) 100vw, 600px" data-was-processed="true" width="600" height="392">

Tolède contre Méta.

En Espagne, plus précisément du côté de la Castille et de Tolède, et alors même que le pays fait face à une sécheresse et à un stress hydrique inédit, c’est Meta qui annonce la construction d’un gigantesque Data Center. D’un côté un investissement d’un milliard d’euros sur 7 ans et la promesse de “plus de 250 emplois ultraqualifiés”, de l’autre côté, les besoins en eau d’une telle infrastructure : “200 millions de litres d’eau potable par an, 665 millions de litres en incluant l’eau “propre”. Et une opacité quasi-totale sur le reste, avec la certitude déjà de nombreuses fois documentée que les entreprises de la tech minorent, mentent ou dissimulent délibérément la consommation réelle en eau de telles infrastructures.

Ainsi à The Dalles en Oregon, il y a eu une action en justice intentée par la ville au nom de Google (sic) contre le plus grand journal local qui avait révélé la consommation réelle en eau du Datacenter de la firme alors que celle-ci le tenait pour un “secret commercial”. Procès heureusement abandonné au bout de 13 mois, la ville de The Dalles acceptant de communiquer les chiffres de consommation d’eau à l’avenir et Google affirmant (mais un peu tard …) qu’il tenait à être transparent sur ces sujets et renonçait à les considérer comme un secret commercial.

Et partout ailleurs …

A Taïwan, c’est l’industrie des semi-conducteurs et l’agriculture qui sont les deux moteurs économiques de l’île. Or ce sont également les deux secteurs les plus consommateurs en eau potable. Quand une sécheresse survient comme ce fut le cas l’année dernière, non seulement les habitants de l’île sont directement menacés, mais la pression internationale est immense sur la gestion et la priorisation de la ressource en eau car le pays produit plus des deux tiers des puces électroniques utilisées dans le monde. Une sécheresse durable à Taïwan et c’est l’industrie électronique mondiale qui sombre.

Comme l’explique le Washington Post, à l’échelle des Etats-Unis (mais c’est également le cas ailleurs dans le monde), nombre de ces Datacenters sont installés dans des zones et des régions où le stress hydrique est déjà fort. L’installation de datacenters nécessitant d’abondantes ressources en eau dans des régions en proie à des sécheresses régulières peut sembler idiot, mais ce choix est fait car dans ces régions, “l’énergie est bon marché et à faible teneur en carbone, comme l’Arizona ou d’autres États où l’énergie solaire ou éolienne est abondante” et que cela permet pour ces mêmes entreprises “de contribuer à la réalisation de leurs propres objectifs en matière de climat.

Des villes et des pays entiers contre des entreprises que l’on dit multi-nationales et qui sont essentiellement mono-extractivistes : Vittel contre Nestlé, Grigny contre Coca-Cola, Uruguay contre Google, Tolède et la Castille contre Meta … Et l’on pourrait allonger la liste à foison autant qu’à déraison. Avec à chaque fois cet arbitrage premier entre des populations qui vivent ce stress hydrique au quotidien et des politiques publiques qui s’abreuvent soit aux promesses d’emploi ou d’attractivité, soit aux pots de vin des lobbys, soit aux deux.

La mère de tous les conflits : fermer les immenses fermes.

L’affrontement central dans les conflits d’usage à venir se fera autour de deux lignes de front extrêmement denses, puissantes et structurées : d’un côté le lobby technologique, ses datacenters et ses fermes de serveurs, et de l’autre le lobby de l’agriculture industrielle intensive qui mobilise et nécessite également de gigantesques ressources en eau. Le point de convergence des 2 modèles (agricole et technologique) est qu’ils concourent à un appauvrissement et à un épuisement des sols autant qu’au stress hydrique des populations avoisinantes. Et que pour l’essentiel, ils s’en moquent.

Face à des populations, y compris dans des pays dits développés et non désertiques, qui affrontent un manque d’eau potable et un stress hydrique considérable, la consommation d’eau par et pour l’agriculture intensive ainsi que par et pour la gestion de nos données et services numériques explose dans des proportions toujours aussi effarantes et toujours davantage alarmantes.

Toujours plus de données conservées toujours plus longtemps dans toujours plus de services nécessitant toujours plus de serveurs. Toujours plus d’agriculture intensive et de monocultures. Toujours plus de besoins en eau. Et toujours … moins d’eau disponible.

On pense bien sûr à la phrase que l’on attribue à Sitting Bull, qu’elle soit ou non apocryphe importe peu, sa puissance d’évocation suffit :

“Quand ils auront coupé le dernier arbre, pollué le dernier ruisseau, pêché le dernier poisson. Alors, ils s’apercevront que l’argent ne se mange pas.”

On pense surtout à l’impérieuse nécessité d’abandonner à tout coût et sous toute modalité, légale ou non, ces modèles mortifères pour un avenir commun. On s’inquiète de voir qu’à chaque nouvelle alarme, à chaque nouveau constat du GIEC, à chaque nouvelle catastrophe climatique proche ou lointaine, nous ne semblons capables de réagir que par des idées aussi stupides que les méga-bassines qui ne cherchent même plus à masquer qu’elles n’opèrent un changement dans la conservation et la disponibilité de la ressource en eau que pour les formes d’agricultures les plus puissantes en terme de lobbying mais aussi les plus néfastes en terme d’agronomie, d’impact carbone et d’avenir commun.

Fermes “intensives”, méga-fermes comme celle dite des 1000 vaches, mais aussi, “fermes de données” ou “fermes de serveurs”, l’adoption du vocabulaire fermier n’est pas que métaphorique et circonstanciel : elle est structurelle. Agriculture intensive et industries numériques sont des modèles extractivistes convergents : mêmes effets du sur-dimensionnement de leurs infrastructures, même tonneau des danaïdes énergétique, mêmes formes d’exploitations visibles ou invisibles amenant une foules de précaires à trimer pour maintenir la rente d’un oligopole, mêmes communs négatifs, et ainsi de suite.

A quoi l’on pourrait ajouter l’argumentaire marketing irénique visant à faire croire que les fermes industrielles et leur usines de méthanisation pourraient être la solution pour permettre aux datacenters d’avoir une consommation énergétique moindre ou plus vertueuse, et qui en réalité ne poursuit que le but d’acter la réalité d’une fusion entre ces deux horizons extractivistes. “Les datacenters débarquent à la ferme” titrait ainsi Le Parisien dans un article fleurant bon l’ambiance champêtre, mais oubliant de rappeler que le rapprochement de deux pollutions ne fait pas un horizon de solutions, et que l’alignement de deux modèles dans lesquels l’excès de pollution du premier permettrait de limiter l’empreinte carbone du second ne change rien à la vocation délétère de leur nature extractiviste et intensive.

A noter par ailleurs que ce type de projet est en germe depuis plus de 10 ans (c’est Microsoft qui avait annoncé les premières expérimentations) sans avoir jusqu’ici donné de résultats probants (à ma connaissance en tout cas).

IAA : Intelligence Artificielle Assoiffée.

Si, en plus de tous les éléments précédents, on peut être inquiets de l’évolution de nos futurs numériques, c’est parce que chaque nouvelle avancée dans le domaine s’annonce comme toujours davantage gourmande en consommation, d’eau notamment. Derrière le développement des modèles de Deep Learning ou derrière l’ensemble des technologies commodément regroupées sous le terme “d’intelligence artificielle”, se donne à lire sans grande difficulté d’analyse en termes de projections à moyen terme, un effondrement dramatique de la ressource en eau.

Derrière la question de l’IA (chatGPT et consorts) et derrière la question de la multiplication d’appareillages numériques se structure un discours qui vise, à l’échelle de l’observation individuelle, à nous convaincre que l’on nous vend des dispositifs et des technologies toujours plus respectueuses de nos données, de notre temps d’attention et des ressources de la planète ; mais ces dispositifs et ces technologies, si on les envisage à l’échelle macro-économique de leurs conditions de production, sont des dispositifs et des technologies qui, pour fonctionner, utilisent en continu des ressources calculatoires de plus en plus énergivores et nécessitant une consommation d’eau là aussi toujours plus abondante (sans parler de ce qui est et demeure une vieille problématique liée à l’extraction de certains matériaux rares leur permettant de fonctionner et de se retrouver dans nos quotidiens surconnectés).

Rendre l’Intelligence Artificielle moins assoiffée : rendre lisible pour la diminuer, l’empreinte hydrique secrète des modèles d’Intelligence Artificielle.” Voilà le titre d’un préprint publié par 4 chercheurs et qui pose en introduction les faits suivants :

Les DataCenters – en particulier ceux où  les grands modèles d’IA comme GPT-3 et GPT-4, sont physiquement formés et déployés – sont connus pour leur forte consommation d’énergie, représentant collectivement 2 % de la consommation mondiale d’électricité et une importante empreinte carbone.
Néanmoins, ce qui est beaucoup moins connu, c’est que les centres de données sont également extrêmement “assoiffés” et consomment une énorme quantité d’eau douce propre. Par exemple, (…) les centres de données appartenant à Google aux États-Unis consomment à eux seuls 12,7 milliards de litres d’eau douce pour le refroidissement sur site en 2021, dont environ 90 % d’eau potable. Cette quantité étonnante d’eau est suffisante pour produire 6,9 millions de voitures BMW, ou 5,7 millions de véhicules électriques (y compris la fabrication de cellules de batterie) par Tesla dans sa Gigafactory à Berlin, selon les données sur la consommation d’eau publiées par BMW et Tesla. L’empreinte hydrique combinée de l’ensemble des centres de données américains en 2014 a été estimée à 626 milliards de litres.

Les 4 auteurs définissent un modèle (un peu trop complexe pour le relater ici) permettant de mesurer l’usage efficient de la ressource en eau (WUE pour “Water Usage Effectiveness“) dans les différents datacenters. Ils terminent en plaidant pour une plus grande transparence de la consommation réelle en eau de ces datacenters, sur la nécessité de pouvoir disposer d’instruments publics de mesure de l’empreinte hydrique au même titre que de l’empreinte carbone, et sur l’importance des cycles temporels pendant lesquels on fait “tourner” ces usines calculatoires mais également sur leur implantation géographique. Et parviennent à des mesures qui peuvent parfois sembler anecdotiques mais qui permettent de mesurer à l’aune de référentiels quotidiens ce que représente “vraiment” la consommation en eau d’une interaction avec, par exemple, GPT-3 quand nous passons du temps à lui poser plein de questions idiotes (ou non) :

“L’entraînement de GPT-3 dans les centres de données ultramodernes de Microsoft aux États-Unis peut consommer directement 700 000 litres d’eau douce propre, ce qui est suffisant pour produire 370 voitures BMW ou 320 véhicules électriques Tesla, et ces chiffres auraient été triplés si les GPT-3 avaient été entraînés dans les centres de données asiatiques de Microsoft.
Si l’on entraîne ailleurs un grand modèle d’IA similaire avec une efficacité hydrique moyenne de 3,8L/kWh, la consommation d’eau sur site peut atteindre 4,9 millions de litres, ce qui est suffisant pour produire environ 2 600 voitures BMW ou 2 200 véhicules électriques Tesla.

En outre, l’entraînement de GPT-3 est également responsable d’une empreinte hydrique supplémentaire hors site de 2,8 millions de litres en raison de la consommation d’électricité (en supposant l’efficacité de l’utilisation de l’eau au niveau de la moyenne nationale américaine de 1,8L/kWh et une efficacité de l’utilisation de l’électricité de 1,2). Ainsi, l’empreinte hydrique totale de la l’entraînement de GPT-3 s’élèverait à 3,5 millions de litres si cet entraînement avait lieu aux États-Unis, ou à 4,9 millions de litres si cet entraînement avait lieu en Asie.

Conclusion : ChatGPT doit “boire” une bouteille d’eau de 500 ml pour une simple conversation d’environ 20 à 50 questions et réponses, selon le moment et le lieu où le ChatGPT est déployé. Si une bouteille d’eau de 500 ml ne semble pas énorme, l’empreinte totale combinée de l’eau pour l’inférence reste extrêmement importante, compte tenu des milliards d’utilisateurs de ChatGPT et du nombre de requêtes quotidiennes.”

Un autre article scientifique de Mai 2021 sur l’empreinte environnementale des Data Centers aux Etats-Unis, souligne qu’environ environ 20 % des centres de données aux États-Unis dépendent déjà de bassins hydrographiques soumis à un stress modéré ou élevé en raison de la sécheresse et d’autres facteurs.
Et une étude opérée par un cabinet d’experts auprès de 122 entreprises sur le marché des Data Centers montre que “64 % des entreprises divulguent des éléments d’un programme de gestion des risques climatiques physiques et seulement 16 % divulguent des éléments d’un programme de gestion des risques liés à l’eau.” Le besoin impérieux de transparence déjà pointé plus haut dans différents articles scientifiques, se réaffirme donc comme un essentiel.

D’autres travaux ou analyses pointent également la possibilité de se tourner non plus vers de l’eau potable mais vers des eaux usées ou saumâtres (Microsoft annonçait un tel projet il y a plus de 10 ans, et 10 ans plus tard Google annonçait qu’il y réfléchissait aussi tout en explosant son volume de consommation en eau), d’implanter les datacenters en haute mer à la manière de plateformes pétrolières Off-Shore, ou bien, à l’instar du projet Natick de Microsoft, de carrément balancer des citernes de données en pleine mer à proximité des côtes pour les rafraîchir avec un argumentaire marketing qui donne envie de planter des clous enduits de piment dans des yeux d’ingénieurs, je cite : “50% d’entre nous vivons près des côtes. Pourquoi nos données n’en feraient-elles pas autant ?“.

On rappellera aussi que depuis déjà plus de 10 ans des techniques de stockage à froid (“cold storage”) sont en place pour tenter de limiter l’empreinte énergétique de ces Data Centers.

Globalement les “solutions” à la consommation en eau et en électricité des Datacenters tournent autour de 3 axes :

  1. il faut investir massivement dans le solaire et l’éolien pour trouver des sources d’énergie alternatives et décarbonées,
  2. il faut continuer de développer des techniques de réduction de chaleur : par exemple  – mais c’est contreproductif sur d’autres points – avec des centres de données dits “hyperscale”, et en travaillant sur des points déjà listés plus haut (refroidissement par immersion liquide …) ou sur des technologies permettant de produire de l’électricité à partir de la déperdition de chaleur (comme le cycle organique de Rankine)
  3. il faut, et c’est l’un des résultats majeurs de l’étude menée par ces chercheurs, agir sur l’implantation géographique et la localisation stratégique de ces Data Centers, puisqu’ils montrent que “les décisions immobilières peuvent jouer un rôle similaire à celui des avancées technologiques dans la réduction de l’empreinte environnementale des centres de données.

Si le point 1 fait consensus, il relève malheureusement encore pour beaucoup d’acteurs du secteur d’une simple forme de Greenwashing. L’ensemble des sujets du point 2 font également débat et ne sauraient, sauf dans un récit solutionniste, constituer à eux seuls un horizon à long terme sauf à faire abstraction de la situation environnementale et de la crise climatique. Quant au point 3, la problématique est que la temporalité de la construction d’un DataCenter au regard de la soudaineté des changements et événements climatiques ne permet pas de se projeter de manière linéaire dans ces décisions immobilières.

De l’eau tech aux low techs.

Il est bien sûr nécessaire de continuer d’explorer en recherche et développement toutes les pistes possibles pour limiter l’empreinte hydrique des Data Centers, tout comme est il nécessaire de soutenir et de développer une recherche (indépendante …) permettant d’éclairer les zones d’ombre ou les mensonges de sociétés désormais promptes à communiquer sur le sujet au travers d’images d’Epinal comme on peut en voir sur les sites et dans les rapports annuels de Microsoft, d’Amazon, de Meta, ou de Google.

Non mais regardez comme Jeff Bezos est attentif au bonheur de ces enfants jouant avec de l’eau pure.
Hahaha.

Non mais mesurez à quel point Microsoft oeuvre à la conservation des glaciers
et à la possibilité de faire de la barque sur de grands lacs. Hahaha.

Non mais appréciez à quel point le gars Zuckerberg entre deux combats de Ju-Jitsu
se lance dans l’élevage de petits oiseaux barbotant dans de l’eau pure. Hahaha.

1 Capture decran 2023 08 03 a 12.21.19 1024x811

Non mais regardez comment chez Google, le fait de repeindre avec des jolies couleurs le showroom
de notre Data Center va nous permettre de consommer beaucoup moins. Hahaha.

Mais pour sortir de ce cercle vicieux, pour passer de “l’eau tech” aux “low techs”, il ne suffira pas de colibris faisant chacun leur part. Pas davantage qu’il ne suffira de dénoncer l’éléphant de l’usage nécessaire et raisonnable dans la pièce de la disponibilité permanente. Mais il nous faudra, comme dirait l’autre, “enfourcher le tigre” de politiques publiques déterminées à faire du renoncement et de la fermeture un héritage fécond (lisez à ce sujet ces deux livres remarquables que sont “héritage et fermeture” et “politiser le renoncement“).

Des entreprises en charge de la gestion de l’eau dans des villes et métropoles réfléchissent déjà aux moyens de diminuer l’approvisionnement en eau des Data Centers lorsque la demande viendrait à exploser dans des périodes de forte demande. Mais quels seront les critères mis en place ? Avec quelle transparence ? Sous quelle autorité politique ? Avec quel mandat ? Au risque de l’influence de quel(s) lobby(s) ?

Les équilibres entre la consommation d’eau nécessaire à la vie et celle nécessaire au maintien d’une industrie sont déjà plus que fragiles. Pour l’instant nous semblons collectivement considérer qu’il est primordial de préserver les capacités industrielles et secondaire de préserver la capacité de vie.

Passer de “l’eau tech” aux “low techs” n’est pas seulement une urgence vitale singulière et collective, c’est un impératif moral de toute action politique. 

Reste une question, qui doit être bien posée pour être bien comprise, et qui est celle que l’on retrouve dans l’article de Frédéric Lasserre, “Conflits hydrauliques et guerres de l’eau : un essai de modélisation“, publié en 2007 dans la Revue internationale et stratégique, et où il cite notamment les travaux de Leif Ohlsson qui distingue la “rareté” en eau de la “pauvreté” en eau à l’aune de la capacité d’une société à gérer le manque ou l’appauvrissement de cette ressource :

L. Ohlsson distingue la ressource en eau elle-même de la ressource sociale : une société confrontée à un niveau croissant de rareté de la ressource brute pourra y faire face sans nécessairement voir sa prospérité en souffrir, en mobilisant sa « capacité d’adaptation sociale » selon L. Ohlsson ou son « ingéniosité » selon T. Homer-Dixon. En ce sens, la rareté de l’eau n’est pas la même chose que la pauvreté en eau, une situation qui recouvre à la fois la rareté de l’eau, définie en disponibilité par habitant, et la rareté de la capacité d’adaptation sociale. Face à la rareté de l’eau, une société pourra développer des systèmes de récupération et de recyclage, des méthodes d’irrigation plus performantes, des usines de dessalement plus efficaces – en recourant à la technologie. Mais elle pourra aussi modifier ses comportements, notamment accepter la tarification de son eau, consommer moins de viande et donc réduire la part de l’élevage dans la production agricole globale (celui-ci étant fort consommateur d’eau par kilogramme produit), changer de cultures et entériner des choix politiques d’arbitrage entre les besoins concurrents de certains de ces groupes. La consommation de l’eau et la satisfaction des besoins qu’elle induit ne sont pas, on le voit, qu’une question de technologie et d’approvisionnement. Elles relèvent aussi des questions de comportements socio-économiques et de choix politiques, d’où le terme de capacité d’adaptation sociale. Cette notion permet de comparer des situations fort différentes : celle de l’Ouest des États-Unis par exemple, confronté à une certaine pénurie d’eau mais où les piscines extérieures sont monnaie courante, ou celle les fermiers palestiniens de Cisjordanie. Dans les deux cas il y a rareté de l’eau, mais la pauvreté en eau n’est pas la même. En effet, le potentiel d’adaptation sociale est bien supérieur aux États-Unis du fait des arbitrages possibles et du potentiel d’économies agricoles et domestiques en eau, tandis que toute mesure d’économie d’eau en Cisjordanie frappe durement le secteur agricole, qui employait encore environ 18 % de la population active en 2004.

Le concept de capacité sociale d’adaptation est donc particulièrement pertinent ici, car on peut se poser la question du degré d’adaptation de nombreuses sociétés confrontées à une rupture hydraulique rapide. Face à une raréfaction de l’eau, les pouvoirs publics et la société répondront par un dosage d’arbitrage, d’encouragement en faveur de technologies moins consommatrices, d’investissements dans le recyclage et les mesures d’économies, ou d’efforts pour changer les attitudes face à l’eau. Tous ces processus sont plus aisés lorsque les capacités financière et technologique sont présentes.

En leur absence, divers blocages peuvent paralyser les processus de changements, blocages d’ordre social, économique, politique, sans compter le jeu des représentations politiques. Et ces blocages peuvent accroître les tensions engendrées par les situations de rareté, au point de provoquer des éruptions de violence.

Il est des formes de grands récits technologiques qui n’ont pour objet que de nous installer dans une réalité où nos “capacités d’adaptation sociale” nous garantiraient de n’avoir qu’à arbitrer autour d’une raréfaction compensable, que l’on pourrait à chaque fois réorienter ou rediriger pour préserver le nécessaire vital pour les populations tout en maintenant une économie garantissant ses marges de rente et de croissance.

Dans son article fondateur, publié en 2000, “Water Conflicts and Social Resource Scarcity“, Leif Ohlsson explique que les conflits autour de la gestion de la raréfaction de la ressource en eau passent par plusieurs phases.

D’abord il s’agit purement et simplement d’un constat de pénurie qui contraint à répondre à la question “comment en avoir davantage” par la gestion de l’offre et des solutions de macro-ingénierie (faire venir l’eau d’ailleurs et en plus grande quantité).

Ensuite, lorsque ce premier stade est dépassé ou qu’il vient à son tour à toucher ses limites, vient alors le temps de travailler sur l’efficience, sur l’optimisation de la ressource en eau restant disponible, ce qui revient à répondre à la question : “comment faire mieux avec chaque goutte d’eau disponible“. Ce à quoi Leif Ohlsson répond :

“Les moyens d’y parvenir consistent à modifier les règles et réglementations, les procédures administratives et les incitations économiques (en général, le cadre institutionnel), afin de mettre en pratique des modes d’utilisation plus efficaces de l’eau. La rareté de l’eau devient alors relative, puisque la quantité d’eau disponible dépend de la volonté sociale et de la rationalité écologique d’employer des modes de production (…) moins consommateurs d’eau. Au niveau de la haute technologie, on peut citer l’irrigation au goutte-à-goutte, la remise en circulation des eaux usées et les appareils électroménagers à faible consommation d’eau. (…)

Modifier un tel cadre institutionnel n’est pas seulement lourd et fastidieux ; cela empiétera également sur les intérêts acquis des segments de la société qui peuvent être devenus très puissants et bien ancrés au fil du temps. (…)

A ce moment-là [si et seulement si l’on y parvient], les choses qui valent encore la peine d’être faites – c’est-à-dire qui sont compatibles avec les nouvelles incitations économiques – le seront d’une manière plus économe en eau.
D’autres, en revanche, ne vaudront plus la peine d’être réalisées en raison des coûts sociaux et économiques plus élevés qu’elles impliquent, et seront donc abandonnées. Ces cas représentent un précurseur du tour de vis final.”

Enfin, la troisième phase, le “tour de vis final”, qui est :

perçu comme la réalisation d’un saut quantique dans l’efficacité de l’eau en maximisant le rendement économique de chaque goutte d’eau mobilisée dans la société. Il s’agit d’une logique qui, une fois réalisée, découle presque inévitablement du changement institutionnel et des nouvelles incitations économiques introduites au cours de l’ère précédente.

Et de conclure que :

“la question de savoir si les sociétés parviendront à vivre avec moins d’eau aujourd’hui dépend de la manière dont elles gèreront les défis de l’adaptation à une autre utilisation sociale de l’eau. L’exemple paradigmatique est ce que l’on a appelé “l’histoire du siècle”, à savoir la progression de plus en plus rapide de la culture des denrées alimentaires vers l’achat de denrées alimentaires sur le marché international.”

L’article d’Ohlsson publié en 2000 s’intéresse principalement à des pays ou à des sociétés déjà confrontés à un stress hydrique important ou critique. Mais ses conclusions sont riches d’enseignement pour l’ensemble de la dynamique du bouleversement environnemental que nous sommes en train de vivre et de subir.

Nous ne devons pas simplement et uniquement réfléchir à une autre utilisation sociale de l’eau (même si cela reste un impératif et une urgence) mais nous devons également, et simultanément, réfléchir à une autre utilisation sociale de la technologie, qui ne peut et ne doit être faite que de données et d’architectures massives et concentrées.

Et ce chemin de réflexion, passe par ce que Kate Crawford soulignait dans son “Atlas de l’Intelligence Artificielle” :

L’IA n’est ni intelligente ni artificielle. Elle n’est qu’une industrie du calcul intensive et extractive qui sert les intérêts dominants. Une technologie de pouvoir qui à la fois reflète et produit les relations sociales et la compréhension du monde. (…) Les modèles permettant de comprendre et de tenir les systèmes responsables ont longtemps reposé sur des idéaux de transparence… (…) Dans le cas de l’IA, il n’y a pas de boîte noire unique à ouvrir, pas de secret à révéler, mais une multitude de systèmes de pouvoir entrelacés. La transparence totale est donc un objectif impossible à atteindre. Nous parviendrons à mieux comprendre le rôle de l’IA dans le monde en nous intéressant à ses architectures matérielles, à ses environnements contextuels et aux politiques qui la façonnent, et en retraçant la manière dont ils sont reliés.

La place et le rôle de l’eau dans les architectures techniques visibles ou invisibles, proches ou lointaines qui nous environnent et façonnent notre rapport au monde médié par les technologies, cette place et ce rôle de l’eau n’est que l’un de ces environnements contextuels que souligne Kate Crawford, mais cela en est un essentiel.

L’intelligence artificielle, comme l’essentiel de nos affordances technologiques, se tisse et se trame en premier lieu au sein d’infrastructures de calcul qui ne raisonnent qu’en terme de gigantisme et d’extractivisme. L’eau, la ressource mondiale en eau, pourrait être, si nous avons l’intelligence politique collective de nous en saisir et de l’analyser comme telle, le révélateur de cette multitude de systèmes de pouvoir entrelacés, et l’un des principaux levers d’action politique pour les combattre.

 

 

 

Dernière modification le mercredi, 16 août 2023
An@é

L’association An@é, fondée en 1996, à l’initiative de la création d’Educavox en 2010, en assure de manière bénévole la veille et la ligne éditoriale, publie articles et reportages, crée des événements, valorise les innovations, alimente des débats avec les différents acteurs de l’éducation sur l’évolution des pratiques éducatives, sociales et culturelles à l’ère du numérique. Educavox est un média contributif. Nous contacter.