A chaque fois que vous téléchargez une vidéo, partagez une photo, envoyez un email à un ami ou tweetez sur l’endroit ou vous êtes, votre appareil relié à internet s’adresse à un data center (un centre de données informatique).
Des rangées de serveurs stockent des trillions de méga-octets d’informations. Ces systèmes complexes, affamés d’énergie, alimentent le web.
Aujourd’hui, les datas centers sont responsables de 2% des émissions de carbone dans le monde et utilisent 80 millions de megawattheures d’énergie chaque année, soit environ le total d’électicité utilisé par la région Ile de France.
On considère qu’un seul data center consomme l’équivalent de 40.000 foyers. D’ici à 2020, avec la même croissance qu’aujourd’hui et sans amélioration de l’efficacité énergétiques, les data centers produiront 359 mégatonnes de CO2, soit l’équivalent du rejet en CO2 de 125 millions de voitures.
Le Groupe suisse ABB a réalisé une infographie explicite avec d’un côté l’impact des data centers et de l’autre les opportunités à mettre en oeuvre des solutions d’efficacité énergétique.
[ Consulter le document initial ABB : ICI ]
2%, c’est moins que la « contribution » des transports aériens. Et ces derniers ne « profitent » qu’à une infime minirité de la population mondiale, et ont une marge de progrès très faible, alors que, comme l’explique l’article, les data centers pourraient consommer beaucoup moins, et ils le feront dès que le cout de l’énergie explosera. Personnellement, je peux me passer beaucoup plus facilement de l’avion que d’internet. Par ailleurs pour être honnëte, il faudrait mettre sur la balance les économies de carbone que permet et permettra internet (courrier, achat, visioconf etc…)
Et combien d’énergie en transport aurait-on alors dépensé et combien d’arbres aurait-il fallu scier si nous n’avions pas eu d’informatique ? On serait sans doute à des milliers de fois plus ! Il faut vraiment ne rien avoir à faire de ses journées pour analyser des trucs pareils. Je serais curieux de savoir combien de CO2 les personnes qui ont analysé cela ont dépensé pour cette analyse tiens !
Il faut aussi comparer la consommation energetique d’un email (avec un document de travail en piece jointe) avec la consommation des moyens de communications anterieurs: fax, courrier postal…
Cette analyse montre quand meme de forts potentiels d’economies: – Installer les data-center a proximite d’une source froide (pays froid, cours d’eau, mer…) pour eviter d’avoir a utiliser des climatiseurs; – Relier les (gros) data-center directement aux centrales electriques; (toutes les centrales electriques produisent d’abord en courant continu); plutot que de convertir le courant en alternatif, puis de le reconvertir en continu, ce qui entraine bcp de pertes. – Mutualiser les data-center autour du monde pour lisser les periodes de pointes et reduire le nombre de serveurs sous-utilises.
@michel1234 – Juste pour info, et pour ‘chercheur de verités’ face à certains paradoxes………… On a des ‘data centers’ et PLUS de papier ! : Par contre pour des ‘visio conf’ et d’autres économies en ‘transports’ et ‘déplacelments’, vu qu’on semble avoir du mal à baisser sensiblement nos consommation ‘carburant’, j’ai tendance à croire que c’est pareil, on déplace autant ET on ‘visio conf ‘ EN PLUS. Toujours plus………Le beurre, l’argent du beurre, le sourire de la cremière, ET LE CHOLESTEROL de la cremière EN PLUS……….. trimtab
Sans entrer trop dans le détail, c’est vrai qu’un datacenter a toute sa place en ville et que la chaleur dispersée peut être redistribuée (j’ai longtemps chauffé ma piaule avec mon pc à l’époque ou les consommations étaient autrement pires qu’aujourd’hui) C’est en ville qu’aboutissent tous les barebones (dorsales réseau) et les serveurs ne présentent pas de caractère de dangerosité. Je vous signale qu’OVH (premier français et européen de l’hébergement) a toujours employé un système de refroidissement par eau « maison » Ensuite comme j’explique dans mon l’autre article, de grands efforts sont faits pour limiter la consommation mais ceux ci ne se voient pas car la demande croît de 50% par an depuis 2000. Enfin , comme le disent très bien Gaga et Michel1234 , il faut comparer la consommation des DC à celle des activités qu’ils remplacent , le gâchis de papier, le transport du courrier , des journeaux. Le télétravail est une source d’économie d’énergie complètement sous estimée en France. En revanche , la video à la demande est évidemment plus coûteuse que les chaines de télé broadcast avec programmes et horaires fixés à l’avance mais le service n’est pas le même. Enfin , alors qu’Intel annonce qu’il s’intéresse à la gravure des processeurs en 2 nanometres et en 3D on peut imaginer que la loi de Moore va influencer ces consommations à la baisse. Le premier ordinateur au monde ne savait qu’additionner/soustraire des entiers et consommait un demi megawatt ! que de chemin parcouru et c’est loin d’être terminé. Comme toujours dans ce domaine (sauf chez apple), c’est la partie logicielle qui pêche avec une grande liberté laissée aux développeurs qui se transforme souvent en gouffre d’énergie. Pourtant Google fait beauccoup d’efforts sur la partie cliente (navigateurs) restent au développeurs de sites web (je ne nomme personne) à faire le nécessaire : -Alléger les clients -Optimiser javascript ou suivre les recomandations google -utiliser les fichiers .js en cache au lieu des scripts HTML embedded -Précompiler les scripts quand c’est possible (problème en PHP) -Utiliser des languages compilés (C, C++, …) -Surveiller les bases de données contre les tables qui grossissent inopinément et les indexes qui ne fonctionnent pas (profiling) -Supprimer le caractère ‘*’ des requetes (lister les champs) -Créer des tables redondantes afin de limiter leur taille (archivage) -Utiliser des procédures stockées+++++ -Empècher les recherches de texte (LIKE %…) …etc… j’arrète là De toute façons, tant que les fournisseurs de services internet ne factureront pas la consommation electrique , tout ceci n’aura de sens que lorsque les serveurs saturent et qu’il faut en héberger de nouveaux , il est assez facile de deviner le trafic réel d’un site en partant de son degré d’optimisation..
En tant que un professionnel du DataCenter (www.eco-datacenter.fr), la communication d’ABB telle que présentée dans le présent article me fait sourire, elle comporte quelques raccourcis maladroits. Ceci étant, ce qu’essaye d’expliquer ABB c’est qu’il y a des économies potentiellement importantes à réaliser en optimisant les datacenters, c’est une réalité. Les économies d’énergies se convertissent rapidement en économies d’argent et comme le coût de l’énergie est en perpétuelle hausse, il devient intéressant pour l’exploitant de faire un bilan des optimisations possibles et de mettre les économies escomptées en regard des coûts de mise à niveau. Selon moi, cette démarche va dans le bon sens, elle est responsable vis à vis de l’environnement et stratégique pour l’exploitant du datacenter. La conception et la l’optimisation de Datacenters étant un métier à part entière, j’aurais beaucoup de mal à tout résumer ici, mais il faut savoir que beaucoup de personnes oeuvrent sur ce sujet. Très bonne journée à tous! PS pour samivel51: les centrales électriques ne produisent pas de courant continu.
juste une petite remarque, pour les 2 nanaomètres il va falloir attendre encore un peu ;o) 22nm c’ est actuellement » l’état de l’art » et en parlant d’intel, si les responsables IT achetaitent dans un premier temps autant de serveurs avec des puces AMD cela permettrait d’économiser quelques centrales électriques dans le monde. seulement Pub marketing et monopole travaillent malheureusement de concert pour plus de profits d’intel.