Alors que les modèles d’intelligence artificielle redéfinissent les frontières du possible, leur empreinte écologique interroge. Derrière chaque assistant vocal, chaque générateur de texte ou d’images, se cachent des infrastructures gourmandes en énergie, dont l’expansion menace les objectifs climatiques mondiaux. À Saarbrücken, une équipe de chercheurs dirigée par Wolfgang Maaß, professeur à l’université de Sarre et au Centre allemand de recherche en intelligence artificielle (DFKI), explore des pistes pour concilier innovation technologique et sobriété énergétique. Leur approche, qui mêle compression algorithmique et optimisation des réseaux neuronaux, pourrait réduire jusqu’à 90 % la consommation électrique des systèmes d’IA, tout en démocratisant leur accès aux entreprises de taille modeste.
Points forts |
---|
La consommation électrique exponentielle des data centers et des modèles d’IA, menaçant les objectifs climatiques européens. La réduction de 90 % de la consommation énergétique grâce à la compression algorithmique et à l’optimisation des réseaux neuronaux. Accès facilité aux PME via des modèles compacts, sans infrastructure coûteuse. Partenariat avec Stahl Holding Saar qui illustre l’efficacité des modèles légers dans le recyclage de l’acier. |
Des data centers sous pression énergétique
Les centres de données, piliers de l’économie numérique, sont au cœur de leur problématique. Selon Bitkom, leur consommation électrique a plus que doublé au cours des dix dernières années en Allemagne, un rythme qui s’accélère avec la montée en puissance de l’IA. Les modèles de langage ou de traitement d’images actuels, entraînés sur des bases de données colossales, exigent des ressources exponentielles. « L’IA est une technologie extrêmement énergivore », souligne Wolfgang Maaß. « Chaque requête, chaque génération de texte ou d’image mobilise des milliers de processeurs, dont le refroidissement alourdit encore la facture énergétique. » Une réalité incompatible avec les ambitions européennes de neutralité carbone d’ici 2050.
Face à ce défi, l’équipe de Maaß propose une rupture méthodologique : adapter les outils d’IA à leurs usages réels plutôt que de chercher à maximiser leur puissance. « Nous développons des modèles plus compacts, conçus pour des tâches spécifiques, sans sacrifier la performance », explique Sabine Janzen, chercheuse senior au DFKI. Leur approche s’appuie notamment sur la distillation des connaissances, une technique inspirée de la pédagogie. Comme un étudiant qui synthétise l’essentiel d’un cours sans relire l’intégralité des manuels, les modèles « élèves » héritent des compétences des modèles « enseignants » tout en éliminant les paramètres superflus. Résultat : une réduction de 90 % de la taille des algorithmes, sans perte d’efficacité. « Les modèles compacts surperforment parfois les systèmes initiaux », précise Sabine Janzen, chercheuse au DFKI.
L’optimisation automatique au service de l’efficience
Une seconde innovation, la recherche d’architecture neuronale (NAS), permet d’aller plus loin. Leur méthode automatisée teste des configurations de réseaux neuronaux pour identifier les structures les plus efficientes. « La NAS élimine le besoin de concevoir manuellement ces réseaux, un processus long et coûteux », ajoute la chercheuse. Appliquée aux modèles de traitement d’images, elle a déjà permis de réduire de 90 % l’empreinte énergétique de systèmes utilisés en sidérurgie.
En collaboration avec Stahl Holding Saar, l’équipe a développé un algorithme de tri des ferrailles, réduisant l’empreinte énergétique de 90 % tout en améliorant la précision. Par ailleurs, un outil de prédiction des coûts et de la consommation énergétique est en cours de finalisation, permettant aux entreprises de planifier les pics de calcul en fonction de l’heure la moins carbonée. « Le modèle compact non seulement consomme moins d’énergie, mais surpasse parfois le système initial en précision », se félicite encore Sabine Janzen.
Outre la compression des modèles, les chercheurs travaillent à démocratiser l’accès à ces technologies. Les petites et moyennes entreprises, souvent exclues des innovations par le coût des infrastructures, pourraient bientôt exploiter des outils sur mesure, hébergés sur des serveurs légers. « Il s’agit de rendre l’IA accessible à tous, sans compromis écologiques », insiste Wolfgang Maaß.
Un volet crucial de leurs travaux concerne également la mesure de l’impact environnemental. « Aujourd’hui, les entreprises peinent à évaluer la consommation énergétique de leurs modèles d’IA », relève Hannah Stein, doctorante impliquée dans le projet. Pour combler leur lacune, l’équipe développe un outil de prédiction des coûts et de l’énergie nécessaires à chaque étape du cycle de vie d’un modèle. Objectif : permettre une planification stratégique, en alignant les pics de calcul sur les heures où l’électricité est la moins carbonée.
Un équilibre entre progrès et responsabilité
Leur démarche s’inscrit dans un contexte où l’Union européenne durcit ses régulations environnementales. En 2022, la Commission a présenté un plan visant à réduire de 40 % la consommation énergétique des data centers d’ici 2030. Les travaux de l’équipe allemande offrent une piste tangible pour atteindre cet objectif, tout en maintenant l’innovation. « L’IA ne doit pas être un frein à la transition écologique, mais un accélérateur », résume Wolfgang Maaß.
Reste que les défis sont multiples. La standardisation des méthodes de mesure, l’adoption par l’industrie ou encore la gestion des compromis entre compression et robustesse des modèles restent à résoudre. Néanmoins, les premiers résultats esquissent une voie pragmatique : une intelligence artificielle plus sobre, plus équitable, et pleinement intégrée aux impératifs climatiques. Une révolution silencieuse, mais aux implications profondes.
Lexique
- Distillation des connaissances : Technique de compression des modèles d’IA pour ne retenir que les paramètres essentiels, réduisant leur taille et leur consommation énergétique.
- Recherche d’architecture neuronale (NAS) : Méthode automatisée d’optimisation des réseaux neuronaux pour maximiser l’efficience énergétique et les performances.
- Terawatt-heure (TWh) : Unité de mesure énergétique équivalant à un milliard de kilowatt-heures, utilisée pour quantifier la consommation des data centers.
- Réseaux neuronaux artificiels : Systèmes inspirés du cerveau humain, capables d’apprendre à partir de données massives, mais gourmands en ressources.
- Empreinte carbone : Impact environnemental des infrastructures numériques, notamment des data centers et des modèles d’IA.
- Modèles compacts : Algorithmes d’IA optimisés pour des tâches spécifiques, alliant faible consommation et haute performance.
- Planification énergétique : Outil de prédiction des coûts et de l’énergie nécessaires aux cycles de vie des modèles d’IA, pour une gestion durable.
ESCADE (« Energy-Efficient Large-Scale Artificial Intelligence for Sustainable Data Centers ») est un projet de trois ans doté d’un budget d’environ 5 millions d’euros financé par le ministère fédéral de l’économie et de l’action climatique (BMWK). Le projet se déroulera jusqu’à la fin du mois d’avril 2026. Le consortium ESCADE est composé de l’équipe de recherche dirigée par Wolfgang Maaß (Université de la Sarre et DFKI), NT Neue Technologie AG, Stahl-Holding-Saar GmbH & Co. KGaA, SEITEC GmbH, l’université de technologie de Dresde, l’université de Bielefeld et l’institut autrichien de recherche appliquée Salzburg Research.
Légende illustration : Vous ne lisez pas toute une bibliothèque pour répondre à une question spécifique. On se concentre plutôt sur les livres qui ont un rapport avec la question posée. C’est l’approche adoptée par les chercheurs Sabine Janzen (à droite) et Hannah Stein (à gauche) pour rendre les modèles d’IA plus efficaces sur le plan énergétique. © Oliver Dietze