L'intelligence artificielle est l'avenir, mais accélère-t-elle la consommation d'énergie non durable ? C'est ce que laissent entendre les chiffres. Selon l'Agence internationale de l'énergie (AIE), en 2022, l'IA consommait 2 % de l'énergie mondiale. D'ici 2026, ce chiffre devrait augmenter de près de 130 %. Pour remettre ce chiffre dans son contexte, il équivaut à la consommation annuelle d'énergie de la Suède. Les experts s'inquiètent de la consommation de ressources qu'exige l'IA et préviennent que les problèmes environnementaux, déjà préjudiciables, ne feront que s'accélérer.
Vous voulez en savoir plus sur l'inquiétante consommation d'énergie de l'IA ? Cliquez ici.
L'IA consomme déjà 1 à 2 % de l'énergie mondiale. En 2022, les centres de données consommeront 460 térawatts-heure, soit l'équivalent de la demande énergétique de la France. D'ici 2026, la consommation devrait au moins doubler, selon des estimations prudentes.
Les centres de données qui rendent l'IA possible accélèrent leur consommation d'énergie à des niveaux rapides qui ne feront que contribuer davantage à des problèmes environnementaux déjà désastreux.
Les partisans de l'IA affirment que son utilisation contribuera à résoudre d'autres problèmes liés à la crise climatique, notamment la consommation efficace des ressources, ainsi que d'autres questions sociales complexes.
Cependant, l'IA émet une quantité importante de CO2, qui est l'un des moteurs du changement climatique. Les critiques notent que cette qualité va à l'encontre de l'objectif qu'elle se propose d'atteindre.
Des estimations prudentes de la consommation d'énergie de l'IA suggèrent que la technologie consomme autant que les pays développés. En l'absence d'une solution claire sur la manière d'atténuer ces questions, ce problème est appelé à perdurer.
L'IA fonctionne en grande partie sur des centres de données, mais aussi sur du matériel qui, lui aussi, pose des problèmes de durabilité en termes de production et d'utilisation.
Si la phase d'"interférence" de l'utilisation de l'IA ne consomme pas beaucoup d'énergie en soi, son utilisation constante en accumule. Par exemple, en 2022, les centres de données de Facebook ont effectué des milliers de milliards d'interférences par jour.
Ces interférences proviennent de fonctions algorithmiques telles que l'émission de recommandations, entre autres. Cela signifie que chaque fois qu'un utilisateur de Facebook (ils sont plus de trois milliards), se connecte et consulte son fil d'actualité, des interférences sont déclenchées.
Il n'y a pas que Facebook. Les plateformes en ligne qui, par exemple, demandent une confirmation de l'"humanité", souvent par l'identification d'objets dans les images, s'engagent également dans le même processus.
Si les développeurs d'applications analysent la consommation d'énergie lors de la phase de développement, des études ont montré que la consommation est en réalité beaucoup plus élevée lors de l'utilisation quotidienne.
L'organisation Algorithm Watch utilise l'exemple du modèle BLOOM. Au cours de la phase de développement, l'application a utilisé 24,7 tonnes de CO2, sans compter les émissions liées à la production et à l'exploitation du matériel, ce qui fait que les émissions sont presque deux fois plus importantes que la quantité déclarée.
Un autre exemple mis en avant par l'organisation est le PaLM, le modèle de langage de l'IA de Google. Bien que le PaLM reçoive près de 90 % de son énergie de sources exemptes de carbone, une seule exécution de sa phase de développement a entraîné l'émission de 271,43 tonnes de CO2.
Cette quantité d'émissions de CO2 équivaut à 1,5 vol commercial en avion à réaction aux États-Unis. Bien que cela puisse sembler peu, compte tenu des milliers de vols qui ont lieu chaque jour aux États-Unis, il s'agit tout de même d'une quantité importante de C02.
Il est particulièrement important de s'en souvenir lorsque l'on considère un programme comme PaLM, qui est censé être un modèle plus durable par rapport à certains de ses concurrents en matière d'IA.
Outre les émissions, l'IA repose sur la puissance de calcul. Celle-ci nécessite bien entendu de l'énergie. Les serveurs chauffent et doivent être refroidis en permanence pour éviter la surchauffe.
C'est là que l'eau entre en jeu. L'eau douce est utilisée pour refroidir les centrales électriques et les serveurs informatiques. Pour les modèles de langage tels que GPT-3 et LaMDA, Algorithm Watch affirme que des millions de litres sont utilisés rien que pour la phase d'entraînement.
La croissance et la demande grandissante de systèmes d'IA signifient que de plus en plus d'infrastructures d'eau devront être accessibles. Les faits et les chiffres parlent d'eux-mêmes. La consommation d'eau de Google a augmenté de 20 % en un an seulement, tandis que celle de Microsoft a augmenté de 34 %.
Les outils d'IA de plus en plus populaires, tels que ChatGPT, consomment 500 ml d'eau en seulement quelques questions et réponses. Avec au moins 100 millions d'utilisateurs actifs, la quantité d'eau consommée par le seul ChatGPT est alarmante.
Il est clair que la consommation d'énergie réelle de l'IA doit être documentée avec précision, mais elle doit également être évaluée et réglementée. L'utilisation de l'IA comporte des risques, ne serait-ce qu'en termes de durabilité.
Certains critiques craignent que les mesures juridiques et les évaluations n'entravent l'évolution et l'innovation de l'IA, mais il est essentiel de réduire la consommation d'énergie.
Selon l'Université hébraïque, "il est essentiel de réduire la consommation d'énergie", faute de quoi l'IA risque de devenir "un outil pour les riches".
L'IA fonctionnant sur la base de l'apprentissage automatique, elle consommera toujours beaucoup d'énergie pour former et faire fonctionner les modèles.
Il est clair que la poursuite de l'IA nécessite certains paramètres pour s'assurer que nous pouvons en tirer des avantages à long terme. Les mécanismes de contrôle permettant de comprendre la consommation de ressources, les émissions de CO2 et la production de matériel sont des éléments essentiels.
La crainte est que toute réglementation crée des conditions si inaccessibles qu'elle entraînera des limitations en termes de création et d'utilisation de modèles d'IA.
Certains experts estiment que l'industrie de l'IA doit s'engager dans des changements architecturaux à grande échelle pour s'adapter aux préoccupations environnementales, tout en adoptant des approches plus efficaces pour répondre aux besoins de l'industrie.
Ces ajustements s'appliquent également au développement du matériel. Les entreprises peuvent être amenées à investir dans l'amélioration de l'efficacité d'outils techniques tels que les puces électroniques.
Le rapport environnemental 2024 de Google indique que ses émissions de carbone ont augmenté de moitié au cours des cinq dernières années, et celles de Microsoft de 30 %. L'une des principales sources de consommation d'énergie est le besoin constant de l'IA d'accéder à la mémoire.
Selon les experts, la clé de la réduction de la consommation d'énergie consiste à trouver un moyen de rendre la mémoire d'accès moins gourmande en énergie et à développer des circuits plus efficaces.
Il s'agit d'un processus long et coûteux qui nécessiterait un investissement important dans la recherche. Par conséquent, les experts ne croient pas que les entreprises s'empresseront de trouver des solutions énergétiques dès maintenant, préférant développer leurs services d'IA tant que la réglementation n'est pas claire.
Sources: (Nature.com) (Algorithm Watch) (Fierce Network) (Wired)
Découvrez aussi : Technologie : comment elle a révolutionné nos vies et notre apprentissage
La consommation d'énergie insoutenable de l'IA
D'ici 2026, les centres de données consommeront autant d'énergie que la Suède
LIFESTYLE Ai
L'intelligence artificielle est l'avenir, mais accélère-t-elle la consommation d'énergie non durable ? C'est ce que laissent entendre les chiffres. Selon l'Agence internationale de l'énergie (AIE), en 2022, l'IA consommait 2 % de l'énergie mondiale. D'ici 2026, ce chiffre devrait augmenter de près de 130 %. Pour remettre ce chiffre dans son contexte, il équivaut à la consommation annuelle d'énergie de la Suède. Les experts s'inquiètent de la consommation de ressources qu'exige l'IA et préviennent que les problèmes environnementaux, déjà préjudiciables, ne feront que s'accélérer.
Vous voulez en savoir plus sur l'inquiétante consommation d'énergie de l'IA ? Cliquez ici.