L’essor de la numérisation et l’utilisation croissante de l’intelligence artificielle nécessitent une puissance de calcul toujours plus importante, et par conséquent, une consommation énergétique accrue. Les centres de données représentent désormais 4 % de la consommation électrique en Allemagne, une tendance en hausse. L’efficacité énergétique des systèmes de calcul est donc devenue une priorité majeure.
L’édition de la liste Green500 des supercalculateurs les plus économes en énergie au monde a connu un bouleversement majeur, puisque toutes les machines du Top 3 sont nouvelles dans la liste.
La première place du GREEN500 a été occupée par JEDI – JUPITER Exascale Development Instrument, un nouveau système d’EuroHPC/FZJ en Allemagne. JEDI a obtenu une efficacité énergétique de 72,73 GFlops/Watt et un score HPL de 4,5 PFlop/s, ce qui le place au 190e rang du TOP500. JEDI est une machine BullSequana XH3000 équipée d’une Grace Hopper Superchip 72C. Elle possède 19 584 cœurs au total.
La machine Isambard-AI de l’Université de Bristol au Royaume-Uni a obtenu la deuxième place avec une efficacité énergétique de 68,83 GFlops/Watt et un score HPL de 7,42 PFLop/s. Isambard-AI a obtenu la place n° 129 du TOP500 et compte 34 272 cœurs au total.
La troisième place est occupée par le système Helios de la société polonaise Cyfronet. La machine a obtenu un score d’efficacité énergétique de 66,95 GFlops/Watt et un score HPL de 19,14 PFlop/s.
Comme dans la liste précédente, le système Frontier mérite une mention honorable en ce qui concerne l’efficacité énergétique. Frontier a atteint un score HPL exascale de 1,206 EFlop/s tout en obtenant un score d’efficacité énergétique de 56,97 GFlops/Watt. Ce résultat place le système au 11e rang du GREEN500, en plus de sa première place au TOP500.
JEDI : Premier module du supercalculateur exascale JUPITER
Le premier module du supercalculateur exascale JUPITER, nommé JEDI, a été classé en première position sur la liste Green500 des supercalculateurs les plus économes en énergie au monde. Cette annonce a été faite par le Forschungszentrum Jülich et l’EuroHPC Joint Undertaking, en collaboration avec le consortium de supercalculateurs ParTec-Eviden, lors de la Conférence internationale sur le supercalcul (ISC) à Hambourg.
Installé en avril par le consortium germano-français, le JUPITER Exascale Development Instrument (JEDI) utilise le même matériel que le module booster JUPITER, actuellement en construction au Centre de recherche de Jülich.

Importance de l’efficacité énergétique
La numérisation rapide et l’usage croissant de l’intelligence artificielle nécessitent une puissance de calcul accrue, entraînant une consommation énergétique plus élevée. Les centres de données représentent désormais 4 % de la consommation électrique en Allemagne, une tendance en hausse. Par conséquent, l’efficacité énergétique des systèmes de calcul est devenue une priorité majeure.
Le supercalculateur JUPITER, acquis par l’initiative européenne de supercalcul EuroHPC Joint Undertaking, se distingue dans ce domaine. Le module JEDI, installé en avril, atteint 72 milliards d’opérations en virgule flottante par seconde par watt, surpassant l’ancien leader qui en réalisait environ 65 milliards.
Le facteur décisif de l’efficacité exceptionnelle du module réside dans l’utilisation des unités de traitement graphique (GPU) et l’optimisation des applications scientifiques pour les calculs sur GPU. Aujourd’hui, presque tous les systèmes en tête du classement Green500 reposent largement sur les GPU, conçus pour effectuer des calculs avec une efficacité énergétique bien supérieure à celle des unités centrales de traitement (CPU).
Le système de développement JEDI est l’un des premiers au monde à utiliser la dernière génération d’accélérateurs de NVIDIA : le NVIDIA GH200 Grace Hopper Superchip, combinant le GPU NVIDIA Hopper et le CPU NVIDIA Grace sur un seul module. Basé sur l’architecture BullSequana XH3000 d’Eviden, le système inclut un système de refroidissement par eau chaude, Direct Liquid Cooling, nécessitant beaucoup moins d’énergie que le refroidissement par air conventionnel et permettant de réutiliser la chaleur générée.
Accès anticipé pour les scientifiques
Le précurseur JUPITER, JEDI, dispose déjà du même équipement que le module booster JUPITER. Les scientifiques peuvent accéder au matériel dès les premières étapes de développement dans le cadre du programme JUPITER Research and Early Access Program (JUREAP) pour optimiser leurs codes. Ils bénéficient du soutien d’experts du Jülich Supercomputing Centre.
«Avec JUPITER, la consommation d’énergie, dans ce cas l’énergie verte, et une possible réutilisation de la chaleur étaient des sujets importants dès le départ. Le matériel offre diverses possibilités d’optimisation énergétique. Avec JEDI, nous pouvons maintenant nous préparer bien à l’avance et voir quelles parties de ces possibilités peuvent être utilisées par nos utilisateurs finaux pour optimiser leurs charges de travail,» déclare Benedikt von St. Vieth, Jülich Supercomputing Centre.
JUPITER est destiné à devenir le premier supercalculateur en Europe à dépasser le seuil d’un exaflop, soit un quintillion d’opérations en virgule flottante par seconde. Le système final sera installé par étapes dans la seconde moitié de cette année et sera initialement mis à disposition des utilisateurs scientifiques dans le cadre du programme d’accès anticipé avant de passer à une utilisation générale début 2025.
La puissance de calcul colossale de JUPITER contribuera à repousser les limites des simulations scientifiques et à entraîner de grands modèles d’IA.
Le système exascale modulaire utilise l’architecture dynamique modulaire (dMSA) développée par ParTec et le Jülich Supercomputing Centre. Le module booster JUPITER, actuellement installé, comprendra environ 125 racks BullSequana XH3000 et environ 24 000 Superchips NVIDIA GH200, interconnectés par le réseau NVIDIA Quantum-2 InfiniBand. Pour les calculs en 8 bits, courants pour l’entraînement des modèles d’IA, la puissance de calcul devrait dépasser les 70 exaflops, faisant de JUPITER le supercalculateur le plus rapide au monde pour l’IA.
Consommation énergétique et durabilité
Selon les estimations, les besoins énergétiques de JUPITER s’élèveront en moyenne à environ 11 mégawatts. Des mesures supplémentaires permettront d’utiliser l’énergie de manière encore plus durable. Le centre de données modulaire qui abritera JUPITER est conçu pour extraire la chaleur générée lors du refroidissement et l’utiliser ensuite pour chauffer les bâtiments du campus du Centre de recherche de Jülich.
Tous les composants matériels et logiciels de JUPITER seront installés et gérés par la pile de gestion unique JUPITER Management Stack, une combinaison de ParaStation Modulo (ParTec), SMC xScale (Atos/Eviden) et de composants logiciels du JSC.
Le système de développement JEDI est beaucoup plus petit que le supercalculateur exascale final. Il se compose d’un seul rack de la dernière série BullSequana XH3000, contenant actuellement 24 ordinateurs individuels, appelés nœuds de calcul. Ces nœuds sont interconnectés via quatre commutateurs NVIDIA Quantum-2 InfiniBand et seront complétés par 24 nœuds de calcul supplémentaires au cours du mois de mai.
Lors des mesures pour le classement Green500 des supercalculateurs les plus économes en énergie, le système JEDI a atteint une puissance de calcul de 4,5 quadrillions d’opérations en virgule flottante par seconde, soit 4,5 pétaflops, avec une consommation électrique moyenne de 66 kilowatts. En fonctionnement optimisé, la consommation électrique a été réduite à 52 kilowatts.
Légende article : L’instrument de développement JUPITER Exascale (à gauche, en orange) au Centre de supercalcul de Jülich. Copyright : Forschungszentrum Jülich / Ralf-Uwe Limbach
Le financement du système final JUPITER ainsi que de JEDI est assuré pour moitié par l’Union européenne via EuroHPC, et pour les deux autres quarts par le ministère fédéral allemand de l’Éducation et de la Recherche (BMBF) et le ministère de la Culture et des Sciences de l’État de Rhénanie-du-Nord-Westphalie (MKW-NRW) par l’intermédiaire du Gauss Centre for Supercomputing (GCS).