Alimenter une requête sur ChatGPT nécessite dix fois plus d’électricité qu’une recherche Google classique. Ce chiffre, révélé par l’Agence internationale de l’énergie (AIE), illustre l’impact croissant des technologies d’intelligence artificielle (IA) générative sur les ressources énergétiques. Bien que leur déploiement massif menace de bouleverser les bilans carbone, les chercheurs peinent encore à en mesurer précisément les conséquences. Entre centres de données voraces, extraction minière intensive et déchets électroniques, les implications dépassent largement la simple question de la consommation électrique.
Points Forts |
---|
Une requête sur ChatGPT consomme dix fois plus d’électricité qu’une recherche Google classique, révélant l’appétit énergétique sans précédent de l’IA générative. Les technologies numériques représentent déjà 2 à 4 % des émissions mondiales de CO₂, un chiffre comparable à celui de l’industrie aéronautique Ces infrastructures, équivalentes à la consommation électrique de la France (460 TWh en 2022), pourraient voir leur demande énergétique bondir de 160 % d’ici 2028. De l’extraction minière au traitement des déchets électroniques, l’empreinte environnementale de l’IA dépasse largement la simple consommation électrique. La concentration géographique des data centers (20 % en Irlande, 25 % en Virginie) et la disponibilité des métaux rares pour les puces Nvidia soulèvent des questions de résilience et de durabilité. |
Un coût énergétique exponentiel
Les centres de données, piliers de l’économie numérique, représentent déjà une empreinte énergétique comparable à celle de la France : 460 TWh en 2022, soit 1 à 1,3 % de la consommation mondiale. Jusqu’en 2020, leur optimisation technique avait contenu cette demande malgré une croissance annuelle de 4 %. Mais l’arrivée des modèles linguistiques massifs (LLM), moteurs de l’IA générative, menace cet équilibre. Ces systèmes consomment de l’énergie en deux phases : l’entraînement des algorithmes, autrefois la plus gourmande, et l’inférence, c’est-à-dire la génération de réponses en temps réel. Aujourd’hui, cette dernière étape représente 60 à 70 % de leur consommation totale, selon Meta et Google.
Ainsi, si les neuf milliards de recherches quotidiennes sur Google étaient traitées par ChatGPT, la demande électrique supplémentaire atteindrait 10 TWh par an. Goldman Sachs anticipe une hausse de 160 % de la consommation des data centers d’ici 2028, qui représenteraient alors 3 à 4 % de l’électricité mondiale. En Europe, leur part dans la reprise de la demande énergétique post-2024 pourrait atteindre un tiers d’ici 2026.
Enjeux structurels et géographiques
Outre leur appétit énergétique, les infrastructures numériques soulèvent des questions de résilience. Les réseaux électriques, déjà saturés dans plusieurs régions, peinent à absorber cette croissance. En Irlande, les data centers absorbent 20 % de l’électricité nationale ; dans l’État de Virginie (États-Unis), ce taux dépasse 25 %. « Implanter ces infrastructures là où l’eau et l’énergie sont déjà sous pression n’est pas le choix le plus durable », souligne Manuel Cubero-Castan, chercheur à l’EPFL.
La production de puces électroniques pose un autre défi. Nvidia, qui domine le marché des semi-conducteurs dédiés à l’IA avec 95 % de parts, a vu ses 3 millions de puces H100 consommer autant d’énergie que le Guatemala en 2024 : 13,8 TWh. D’ici 2027, cette consommation pourrait atteindre 134 TWh, mais la disponibilité des métaux rares et la capacité de production pourraient freiner cette expansion.
Des pistes d’optimisation… et des limites
Malgré ces menaces, certaines innovations laissent entrevoir des solutions. Les prochaines générations de data centers misent sur une meilleure efficacité énergétique, notamment via le refroidissement innovant. À l’EPFL, le projet Heating Bits explore la récupération de chaleur et l’intégration d’énergies renouvelables. Par ailleurs, l’IA elle-même pourrait optimiser la gestion des réseaux électriques ou accélérer la recherche en énergies propres.
Cependant, ces gains restent fragiles face à la course aux modèles de plus en plus volumineux. « Même avec des progrès techniques, une adoption massive d’IA générative ne compensera pas la hausse des émissions si l’on ne réduit pas la demande globale », prévient Cubero-Castan.
L’ombre du « dark data »
Un tiers du trafic mondial provient de données inutilisées, stockées à grands frais énergétiques. Ces 1,3 billion de gigaoctets quotidiens, majoritairement constitués de « dark data », génèrent autant d’émissions que trois millions de vols Londres-New York. Leur suppression, encouragée lors de la Journée du nettoyage numérique le 15 mars, représenterait une piste simple pour alléger l’empreinte environnementale.
Vers un équilibre incertain
Pour l’heure, l’impact climatique de l’IA générative reste marginal à l’échelle planétaire, comparé aux vidéos (70-80 % du trafic internet), aux jeux en ligne ou aux cryptomonnaies. Les moteurs principaux de la demande énergétique restent la croissance économique, les véhicules électriques, la climatisation et l’industrie. Néanmoins, son essor interroge : alors que 60 % de l’énergie mondiale provient encore des fossiles, chaque mégawattheure supplémentaire compte.
« L’innovation ne suffira pas sans une réduction drastique de la surconsommation », insiste Cubero-Castan. Entre progrès techniques et sobriété, le secteur numérique devra redéfinir ses priorités pour éviter que l’IA, instrument de progrès, ne devienne un accélérateur de crises.
Lexique
- Intelligence artificielle générative : Technologie créant du contenu (texte, images) via des modèles comme les LLM, dont l’entraînement et l’inférence sont extrêmement gourmands en énergie.
- Centres de données : Infrastructures hébergeant des serveurs, représentant 1 à 1,3 % de la consommation électrique mondiale et menacés par une saturation accrue.
- Empreinte carbone : Impact climatique des technologies numériques (2-4 % des émissions globales), incluant data centers, réseaux et fabrication de composants.
- Modèles linguistiques massifs (LLM) : Algorithmes d’IA entraînés sur des téraoctets de données, dont l’inférence (réponses en temps réel) représente désormais 60-70 % de leur consommation énergétique.
- Efficacité énergétique : Optimisation technique visant à réduire la consommation, comme les systèmes de refroidissement innovants ou l’intégration d’énergies renouvelables.
- Dark data : Données stockées mais jamais utilisées, représentant 60 % des 1,3 billion de gigaoctets quotidiens, et générant autant d’émissions que trois millions de vols transatlantiques.
- Semi-conducteurs : Puces électroniques (ex. Nvidia H100) dominantes sur le marché de l’IA, dont la production et l’usage intensif menacent les ressources en métaux rares.
- Déchets électroniques : Tonnages de matériel obsolète issus de l’industrie numérique, souvent mal recyclés, aggravant l’impact environnemental.
- Réseau électrique : Infrastructures saturées dans plusieurs régions (Irlande, Virginie), incapables de supporter la croissance exponentielle des data centers.
- Bilan carbone : Équilibre entre les gains énergétiques potentiels de l’IA (optimisation des réseaux) et ses coûts environnementaux directs et indirects.
Article adapté du contenu de l’auteure : Anne-Muriel Brouet
Source : EPFL