Total triple la puissance de calcul de son gigantesque supercalculateur Pangea, conçu pour optimiser la découverte et l’extraction des réserves d’énergie, ce qui en fait l’un des plus puissants supercalculateurs au monde
La production d’énergie viable est dorénavant devenue un défi informatique auquel sont confrontées de plus en plus d’entreprises du secteur de l’énergie, à une période complexe où les prix du pétrole sont bas.
Avec une baisse de leurs revenus, les entreprises œuvrant dans le secteur de l’énergie cherchent à réduire leurs coûts de production. En effet, il faut débourser des centaines de millions de millions de dollars pour l’achat d’un puit de pétrole standard avant même de pouvoir tester son efficacité ; les technologies informatiques innovantes telles que les supercalculateurs peuvent donc considérablement réduire ces dépenses.
Par exemple, un supercalculateur peut traiter des quantités importantes de données afin d’identifier de façon précise les gisements de pétrole sous la surface de la terre et aider ainsi à prédire la façon dont ils fluctueront. Cela réduit fortement le nombre de forages d’exploration coûteux et chronophages réalisés lors de la recherche de gisement ; recherche qui n’aboutit pas toujours.
Pour être encore plus efficace, Total a annoncé augmenter de 4,4 pétaflops, la puissance de calcul de son supercalculateur SGI Pangea, fourni par le nouveau système SGI® ICE™ X. Le nouveau système SGI, acquis l’année dernière, est maintenant en production et va permettre à Total d’identifier de nouvelles réserves d’énergie et de déterminer plus rapidement les méthodes d’extraction optimales. Grâce au supercalculateur SGI, Total peut améliorer l’imagerie sismique complexe du sous-sol et de simuler les tendances de fluctuations des gisements, ce qui réduit le temps et les coûts de découverte et d’extraction des réserves d’énergie.
Les solutions SGI sont conçues pour répondre aux défis complexes des données très massives de l’industrie de l’énergie. Que ce soit pour le traitement de nouvelles données, l’archivage des données sismiques brutes, ou pour effectuer des simulations géographiques sur des territoires inexplorés ou difficiles d’accès, SGI fournit des ordinateurs de hautes performances et intégrant des capacités de visualisations et de stockages évolutives.
Pendant plus d’une décennie, Total a utilisé la technologie des ordinateurs hautes performances (HPC) de SGI pour optimiser ses prises de décision fructueuses en matière d’exploration des zones géologiques complexes, et pour améliorer l’efficacité de sa production d’énergie. Utilisé par le département d’imagerie sismique et d’interprétation de Total, SGI va améliorer le précédent système HPC SGI Pangea du Centre de Recherche Scientifique et Technique Jean-Féger, situé à Pau, en lui adjoignant un super calculateur SGI ICE X. Ainsi, le supercalculateur Pangea est passé de 2,3 pétaflops en 2013, à l’impressionnante puissance de 6,7 pétaflops. Aujourd’hui, Pangea est l’un des 35 supercalculateurs les plus puissants au monde, selon le TOP500 de novembre 2015.
Une efficacité accrue avec Pangea, le supercalculateur de Total
Le système mis à jour dispose d’une puissance équivalente à environ 80.000 ordinateurs personnels, et d’une capacité de stockage d’environ 27 millions de CD.
Le précédent supercalculateur Pangea de 2,3 pétaflops, avait un système basé sur le processeur Intel Xeon E5-2670 V1 composé de 110,592 cœurs de calcul et contenant 442 téraoctets de mémoire construites à partir du supercalculateur SGI ICE X. Pangea, aujourd’hui l’un des plus rapides supercalculateurs au monde commercialisé, est pris en charge par la technologie M-Cell et le processeur Intel® Xeon® de la gamme de produit E5-2600 V3. La solution de gestion des données offre une capacité de stockage de 18,4 pétaoctets exploitables, comprenant SGI InfiniteStorage™ 17000 disk arrays avec Intel® Enterprise Edition for Lustre File system, et SGI DMF™ pour la virtualisation de stockage hiérarchisé.
La dernière mise à jour de la solution SGI ICE X pour Pangea comprend :
• 9.2 pétaoctets de stockage supplémentaires pour un total de 6,7 pétaflops
• 4 608 nœuds supplémentaires basés sur le processeur Intel Xeon E5-2680 V3 qui se composent de 110 592 cœurs de calcul
• 589 téraoctets de mémoire construit sur 8 M-Cells
• Une circulation de l’air à circuit fermé et un refroidissement à l’eau chaude créant le confinement d’une allée chaude intégrée, ce qui réduit significativement la consommation globale d’énergie
• Un système de gestion de puissance, qui permet au supercalculateur ainsi mis à jour de fonctionner avec une puissance de 4,5 mégawatts
• Une équipe de professionnels sur site dédiée au soutien des dispositifs du supercalculateur de TOTAL, à savoir le développement et l’optimisation d’applications.
Copyright image : Total – Cédric Motte
( src – CP – SGI )
Gros chiffres pour un calculateur dédié aux (très) basses fréquences. Intel fait un forcing pas possible pour déboulonner Nvidia sur le multicoeur massif. Les nouveaux Xeon’s ont une gestion d’énergie de ouf… La morale de l’histoire est qu’une chute de 60% du revenu pétrolier provoque une baisse drastique des dépenses opérationnelles mais que le marché reste très stratégique. Or l’information , c’est le pouvoir … (au sens large du terme = potentiel) Donc pas de réduction de budget sur la grosse IT et les accords avec les géants du hardware à gros calcul.. L’autre morale de l’histoire, c’est que le traitement de signal n’a pas fini de donner un avantage concurrentiel à ceux qui s’offrent de gros moyens d’ingénierie dans ce domaine. Ca me donne envie de retourner dans cette spécialité. L’intelligence artificielle est un autre gros consommateur de ressources mais j’ai un sacré bourdon quand je vois ça Finalement l’IA offre plus de débouchés et permet aux auteurs de code d’être mieux considérés que dans le DSP qui devient trop académique à mon goût Le temps des pionniers est terminé , place aux géants. Dans l’IA, ça n’arrivera jamais parce que les indépendants battent régulièrement les industriels (réclame plus de sens artistique et d’intuition) M’enfin , c’est une belle machine…
La puissance en pétaflops ne absolument rien dire. Selon le type d’algorithme la puissance réelle est donnée par la bande passante mémoire. Par exemple, sur une FFT c’est le bus mémoire qui limite bien avant les Flops même en double préciion avec les sinus/cosinus en haute résolution. Sur du Navier Stokes, cela dépend du maillage mais ça bloque sur les échanges aux limites entre les noeuds de calcul. Par exemple sur une radeon HD 6950 données pour 1,5GFlop on tire 110MFlops à la limite du bus sur une FFT (120Gb/s sur les bus mémoire). Vue le débit du bus mémoire d’un Xeon, je suis carément septique sur ce type d’architecture. Je développe beaucoup sur les cartes graphique en calcul scientifique, et c’est toujours la bande passante mémoire qui limite. Nvidia a des prix trop élevés sur leur proc avec des performance en double précision potables. Autre exemple:j’ai optimisé le code de recherche d’ondes gravitationelles pour EinsteinAtHome et c’est 10 minutes sur un Radeon R9 au lieu de 9 heures sur un core I7 (= Xeon). Pour cette application, en gros 50 Xeon = un radeon R9, et le rapport puissance/perf est bien évidement du coté de la carte graphique. Comme quoi, il y de la marge pour encore augmenter les performances sans augmenter la consommation.
La FFT en OpenCL (sur GPU) constituait mon « cadeau de mariage » pour devenir associé de ma boite.. C’était mon dada à l’époque .. et je l’ai donc très bien vendue. Maintenant, les choses ont évolué depuis 2010 et il ne sert à rien de faire de la FFT plus rapidement que la durée de sa fenêtre si vous connaissez un peu le paradigme Fourier Evidemment, si vous avez de très nombreux points de mesure , une fréquence de samplig apocalyptique, un taux d’overlap stratosphérique et que vous faites plusieurs types de fenêtrage (au moins deux pour garder la trace des amplitudes et limiter le bruit), et bien tout cela n’aura augmenté votre besoin en puissance de calcul que d’un facteur 10 au maximum Là , on est sur des facteurs million (par rapport au gigaflop) Par contre, CUDA sur Nvidia permettait déjà 1 teraflop en 2011 sur une carte à deux ventilos qui m’ont assourdi les oreilles pendant les tests.. Pour la précision de flottants, on est en IEEE partout, donc pas de différence entre les procs. Et non en fait, le Xeon n’est pas du tout fait comme un i7. Xeon a plus de coeurs et moins de fréquence pour préserver son enveloppe thermique. Xeon est orienté telecom plutôt que rapport puissance/coût Autant dire qu’il coûte cher.. très cher La largeur de bus sous CUDA atteint 256 bits sur des GPU commerciaux et la mémoire GDDR 5 est rapide mais plus encore , la mémoire cache du CPU fonctionne à sa fréquence nominale et a des temps de latence quasi nuls : mémoire statique, plus couteuse en transistors mais persistente et sans rafraichissement Le bus est donc interne au CPU pour autant qu’on utilise des tables de quelques megabytes. Et le DSP, ce n’est pas que la FFT ! Fourier n’est pas exempt de défauts. Ses grands atouts sont d’être univesel et tolérant au bruit. Après, on ignore tout des applicatifs.. C’est là que la stratégie entre en scène. Lorsque j’ai implémenté la FFT 3D temps réel. J’ai eu des tas de mises au point « de merde » à faire. Les finitions et la documentation m’on couté 60% du temps environ … deux tiers, c’est pas rien.. Bref… Les architectures se valent .. il n’y aura pas de vainqueur sur le terrain de la science pure. Mais d’un point de vue marketing , c’est une autre histoire
..qu’ils n’ont pas ajouté un FPGA ou un ASIC sur les cartes. Mais en fait la question n’est pas vraiment là. Total n’est pas un fabricant de supercomputers. Cette machine est sorti de la cuisse d’Intel à 100%. Et Intel , c’est une soixantaine d’usines à plusieurs milliards chacunes dans le monde… Ils ne sont pas vraiment à un processeur près. Comme ils ont décidé de truster le business de supercalculateurs, facile de comprendre pourquoi : c’est le royaume des dieux sur terre.. ils peuvent largement se permettre de dessiner un chipset spécialisé dans le massivement // Quand on s’appelle Intel , on fabrique tout soi même, on ne dépend pas de sous-traitants comme Global Foundries ou TSMC comme c’est le cas de toute la consurrence (AMD notamment) Et comme Intel a toujours compensé son architecture un poil plus lourde par une ou deux générations d’avance en finesse de gravure et en agencement des transistors (3D) , il utilise logiquement son avance pour se faire une place au banquet d’Odin Vous pouvez oublier les solutions bon marché. Intel est largement bénéficiaire et fait la course en tête dans les segments autrement difficiles comme le grand public. Ici on est dans le pur B2B, il boit du petit lait… Ne vous trompez pas : Intel est arrivé un peu tard dans le 64 bits certes, mais il est largement premier globalement. Qui plus est, il est très impliqué dans le très haut de gamme (militaire, spatial, gouvernements). IBM tenait ce rôle autrefois. Aujourd’hui Intel a investi le secteur logiciel et s’est spécialisé dans le fourniture de solutions // Jetez un coup d’oeil sur leur site. Ils proposent des SDK, des formations, de l’information gratuite en pagaille et un tas de choses à télécharger gratuitement. Et ils envoient régulièrement des mails très appétissants à des gars dans mon genre pour imposer gratuitement leurs solutions On n’est pas dieu par hasard.. Mais au delà de la petite phrase, Intel garde un tempérament de numero 1 , c’est très différent du peloton de tête, il est seul et hégémonique , c’est comme ça, ce n’est pas une affaire d’opinion. C’est une affaire de domination !