Changement climatique : Entre consommation électrique et CO2, l’IA est-elle compatible avec le climat ?
Contrairement aux apparences, l’IA ne rime pas avec climat. Dans un rapport annuel de Google paru mardi, le géant américain pointe une explosion de son bilan carbone, avec une hausse des émissions de gaz à effet de serre de 48 % par rapport à 2019. En cause : l’énorme consommation d’énergie liée à l’IA. « On a vu l’IA comme une solution miracle, mais elle génère des consommations d’eau et d’énergie à des niveaux records », pointe pour 20 Minutes Caroline Gans-Combe, économiste et professeure associée à l’INSEEC.
A titre d’exemple, « la moyenne des requêtes sur ChatGPT en une journée équivaut à la consommation annuelle de 14.000 ménages français ». Et une seule requête sur ChatGPT consomme dix fois plus d’énergie que la même requête sur un moteur de recherche classique. Et cette consommation n’est pas amenée à se réduire tout de suite. « Le besoin de calcul informatique pour l’IA a été multiplié par un million en six ans et il décuple chaque année », admettait en mai le patron de Google, Sundar Pichai.
A la consommation comme à la construction, les « data centers » sont gourmands
L’objectif de décarbonation, tant au niveau des pays que des entreprises, en prend un coup. Par rapport à 2019, Google s’était engagé à diminuer ses émissions de 50 % d’ici 2030, il est aujourd’hui sur une dynamique inverse. Idem pour Microsoft, dont les émissions ont augmenté de 23 % en trois ans, alors que l’entreprise vise officiellement un bilan carbone négatif en 2030. Quant à Amazon, l’objectif de neutralité a été reporté à 2040. Plus indirectement, l’eau utilisée pour refroidir les « data centers », contribue aussi à perturber le cycle de l’eau à différentes échelles.
Selon l’Agence internationale de l’Energie (AIE), la consommation électrique des « data centers », les centres qui permettent de faire fonctionner tout le réseau internet dont les IA, pourrait doubler d’ici 2026. Et l’électricité encore largement carbonée utilisée n’est pas la seule en cause. Car pour encaisser les besoins en puissance de calcul, Google, Amazon et Microsoft ont prévu de construire de nouveaux « data centers ». Entre artificialisation des sols et besoins en matières premières comme les terres rares, le coût écologique de ces fermes de calculateurs sera élevé. Microsoft a ainsi reconnu que la construction de nouveaux sites avait fait bondir ses émissions indirectes de CO2 de 30 % en 2023.
Vers une IA sobre ?
Pour les approvisionner, il faudra aussi mettre en place de nouvelles structures énergétiques. Comme le rappelle Le Monde, il existe ainsi certains projets de « data centers » consommant à eux seuls l’équivalent de la production d’une centrale nucléaire. A-t-on seulement les moyens d’encaisser le coût de ces ressources ? « Oui, si on procède à un arbitrage », tranche Caroline Gans Combe. « Il faut penser l’IA dans un processus économique d’ensemble, mesurer ce qu’elle apporte en réduction de certaines ressources, et en consommation ailleurs. »
Autrement dit, les gains en efficacité permis par l’IA dans certains secteurs permettraient de compenser en partie la consommation des « data centers ». De plus, sur l’IA elle-même, « des modèles de sobriété sont en train d’émerger », pour réduire la consommation par recherche.
En revanche, « il faudra l’arrêter là où du point de vue sobriété, elle n’apporte rien », pointe Caroline Gans Combe. Plus incisive, Sasha Luccioni, spécialiste des questions énergétiques pour la plate-forme d’IA Hugging Face, posait la question dans Le Monde : « a-t-on vraiment besoin de l’IA générative partout ? »