En forte croissance et vorace en énergie, l’IA a besoin de toujours plus d’électricité. Microsoft vient de trouver une solution « propre » et pérenne avec la relance annoncée de la centrale nucléaire de Three Miles Island, tristement célèbre. Mais à quel prix ?
Le 20 septembre 2024 est à marquer d’une croix dans le calendrier accéléré de l’Intelligence Artificielle. Ce vendredi, l’énergéticien américain Constellation a annoncé la relance du réacteur 1 de la centrale de Three Mile Island, centrale victime d’un accident nucléaire historique en 1979 et fermée depuis 2019.
Ce réveil est la conséquence d’un accord inattendu entre le propriétaire de la centrale et Microsoft qui veut ainsi assurer l’alimentation de ses datacenters et plus largement de ses besoins liés à l’IA. Ce contrat, d’une durée de 20 ans, va donc faire renaître de ses cendres, en 2028 – si les autorités de régulation valident l’accord – la partie épargnée de la centrale de Pennsylvanie qui devrait alors fournir à la multinationale informatique quelque 837 mégawatts d’énergie décarbonée par an, soit la quantité annuelle nécessaire à l’alimentation d’une ville comme Atlanta.
Le nucléaire, réponse aux besoins continus en énergie décarbonée
Avec cet accord, Microsoft veut répondre aux besoins grandissant d’énergie de ses datacenters, notamment ceux de Chicago, de Virginie, de l’Ohio et de Pennsylvanie.
« Alimenter les industries essentielles à la compétitivité économique et technologique mondiale de notre pays, y compris les centres de données, nécessite une abondance d’énergie sans carbone et fiable à chaque heure de la journée. Les centrales nucléaires sont les seules sources d’énergie capables de tenir constamment cette promesse », a expliqué vendredi Joe Dominguez, le PDG de Constellation
Bobby Hollis, vice-président en charge de l’énergie chez Microsoft, a ajouté que :
« cet accord constitue une étape majeure dans les efforts déployés par Microsoft pour devenir neutre en carbone, conformément à notre engagement ».
100 milliards de $ pour alimenter l’IA
La firme fondée par Bill Gates, a par ailleurs annoncé la semaine dernière avoir passé un autre accord, avec, entre autres, le gestionnaire d’actifs BlackRock, afin d’investir pas moins de 100 milliards de dollars dans des infrastructures liées à l’IA : création ou extension de datacenters mais aussi infrastructures productrices d’énergie « propre », avec priorité au renouvelable, toujours pour répondre aux besoins en électricité décarbonée.
En France, l’informaticien avait déjà annoncé en mai dernier, lors du sommet « Choose France », qu’il investira 4 milliards dans ses centres de données pour répondre aux besoins de l’IA.
Explosion planétaire de la consommation d’électricité
Cette annonce vient rappeler la problématique à laquelle se heurte l’IA et l’intensification de son usage : son besoin exponentiel d’énergie. Selon Bloomberg, le nombre de centres de données, qui alimentent notamment l’IA, a plus que doublé entre 2015 et 2024, passant de 3500 dans le monde à 7100. La consommation d’énergie qui en résulte a littéralement explosé pour atteindre 350 TWh en 2024, soit l’équivalent de la consommation électrique annuelle de 52 millions de foyers (occidentaux)! C’est aussi beaucoup plus que la production de l’ensemble des 56 réacteurs nucléaires français : 320 TWh sur l’ensemble de l’année 2023.
Certains experts prédisent qu’en 2026, les datacenters capteront l’équivalent de la consommation électrique du Japon ! Et selon Ami Badani, responsable marketing d’ARM, leader en conception de puces électroniques, qui a tiré la sonnette d’alarme en avril dernier dans une conférence à Londre, la « demande insatiable d’énergie » va conduire l’IA à consommer, dès 2030, l’équivalent d’un quart de l’électricité produite aux Etats-Unis ! Un vrai défi mondial auquel se prépare donc Microsoft qui, manifestement, anticipe son besoin d’indépendance énergétique. Que feront les autres ? Combien de centrales nucléaires pour alimenter toutes les IA ?
Pourquoi l’IA est-elle une technologie énergivorace ?
Pourquoi tant de besoin en électricité ? Selon l’Agence internationale de l’énergie (AIE), environ 40% de l’électricité consommée par les datacenters est utilisée pour alimenter les serveurs quand 40% sert… à les refroidir !
Deuxième raison essentielle de cette inflation énergétique : chaque requête lancée par une IA générative, par exemple, consomme dix fois plus d’énergie que celles lancée via les moteurs classiques car elle sollicité instantanément des milliers de puces électroniques. D’où, d’ailleurs, l’appel de certains experts, à limiter le recours à l’IA version ChatGPT, Dall-E, Gemini, Copilot…
Sans compter la phase d’apprentissage des IA génératives qui exploitent sur de longues périodes des milliers de puces électroniques dans des centaines de datacenters pour apprendre, comprendre, résoudre…
Qui paiera ?
Si certains soulignent ou prédisent que l’IA fait déjà ou fera faire des économies d’énergie, nous sommes encore très loin d’une balance positive. D’autant que l’IA n’en est qu’à ses débuts et prospère à la vitesse de la lumière.
On arrive donc à ce paradoxe que dans le contexte d’extrême nécessité de réduire la production de gaz à effet de serre (Co2) : l’IA impose dans l’urgence sa solution : la résurgence de la production nucléaire
La spectaculaire initiative de Microsoft n’est probablement qu’un début. Elle pose aussi cette question : qui paiera au bout du compte tous ces investissements colossaux, sinon l’utilisateur final?…
Proposition de lecture en lien avec l’article : IA Frugale, le 1er référentiel international pour une IA responsable et durable.