Un consortium comprenant le français Cofely (Groupe GDF SUEZ) et l’allemand M+W Group vient de se voir attribuer un contrat d’un demi milliard d’euros dans le cadre du projet de recherche international énergétique ITER**, en cours de construction dans les Bouches-du-Rhône (France).
L’objectif d’ITER est de démontrer que la fusion de deux variétés d’hydrogène (deutérium et tritium) dans un réacteur baptisé Tokamak peut devenir une source d’énergie exploitable et produire de l’électricité. Pour y parvenir, ITER devra démontrer que l’on peut produire 10 fois plus d’énergie que ce qui a été nécessaire pour initier la réaction de fusion. La contribution européenne au projet est estimée à 6,6 milliards d’euros.
Le plus grand Tokamak du monde est en cours de construction à Saint-Paul-lez-Durance, dans les Bouches-du-Rhône, à proximité immédiate du CEA Cadarache.
Le contrat octroyé par Fusion for Energy (F4E), l’organisation qui gère la contribution de l’Union Européenne au projet ITER, porte sur la conception, la réalisation et la maintenance des installations climatiques, électriques et mécaniques de 13 bâtiments, dont le complexe Tokamak.
"C’est une réalisation majeure pour l’Europe, non seulement en raison de l’importance du marché, mais aussi parce que des entreprises européennes bénéficieront d’une occasion sans précédent de partager et d’acquérir un savoir-faire qui générera de futures opportunités commerciales" a déclaré le Professeur Henrik Bindslev, Directeur de F4E.
D’une durée de 6 ans, l’accord comprend la conception, les études, la réalisation et la maintenance des installations de chauffage, ventilation, climatisation, électriques (courants forts, courants faibles et éclairage) et mécaniques de 13 bâtiments du site (97 200 m²), dont le complexe Tokamak qui abritera le réacteur lui-même. Les systèmes d’instrumentation et de contrôle, les réseaux des fluides, la détection et la protection contre les incendies et le contrôle-commande sont également inclus.
Cofely Axima, le mandataire, Cofely Endel et Cofely Ineo réaliseront plus spécifiquement la partie nucléaire du contrat, le tokamak, composé de 3 bâtiments classés Installation Nucléaire de Base. Cette complémentarité a d’ailleurs permis aux entités de Cofely de faire une nouvelle fois la différence après avoir déjà remporté le contrat du bâtiment des bobines poloïdales du projet ITER.
"Prendre part au plus grand projet international de recherche sur l’énergie de fusion est une véritable fierté. Ce contrat symbolise la complémentarité de nos expertises et notre capacité à nous positionner en première ligne comme concepteur au sein de projets qui comptent parmi les plus complexes du moment" a commenté pour sa part Guy Lacroix, Directeur général délégué de GDF SUEZ Energie Services.
Après une phase d’études d’un an, le démarrage des travaux est programmé pour septembre 2014. Ils dureront 5 ans et mobiliseront, au plus fort de l’activité en 2016, jusqu’à 450 personnes. Si le recours aux salariés des quatre entreprises du consortium sera privilégié, il ne suffira pas à répondre aux besoins. Une vague importante de recrutements, d’une centaine de personnes environ, est donc prévue pour la réalisation de ce contrat.
** ITER est un programme de recherche international auquel participent sept nations représentant elles-mêmes 35 pays : l’Europe, les Etats-Unis, la Russie, la Chine, l’Inde, la Corée et le Japon.
Pas croyable qu’il y ait encore dans notre continent et dans le monde des ingénieurs et des politiques qui continue de jeter de l’argent par les fenêtres, et à croire en la viabilité d’une technologie dangeureuse, couteuse, et techniquement irréaliste!!!! Pour moi c’est l’un des plus gros scandal de gaspillage d’argent! Et dire qu’il était à moment donné , question de sifonner une partie de l’argent de la PAC (politique agricole commune) pour trouver des fonts pour cette m_____!!!!!
que le projet aboutisse ou pas il faut le faire. C’est la seule chance de trouver une énergie vraiment inépuisable et surtout utilisable en fonction des besoins. La fusion est possible et a déjà été testée avec succés sur le précédent prototype déjà situé à cadarache (jet ). L’énergie produite est équivalente à l’énergie consommée. Espérons que ce nouveau prototype produira nettement plus qu’il ne consomme. Rapellons aux nombreux lecteurs que le mot réaction nucléaire met en transe que la fusion ne produit pas de déchets radio actifs, à part les parois du réacteur , que la réaction ne peut s’embaler en l’absence d’inertie thermique et compte tenu du fait que la réaction ne peut se maintenir sans un apport d’énergie extèrieure. Ce projet international ne coutera pas grand chose à chaque pays contributeur : comparativement aux 1000 milliards de dollard qu’a couté l’invasion de l’irak pour sécuriser l’approvisionnement pétrolier des états unis , ce n’est qu’une goutte d’eau dans un ocean de gaspillage. Même en cas d’échec les progrés sur les matériaux et les champs magnétiques sont déjà considérables. Nous savons tous que seule l’énergie solaire est inépuisable cependant il ne faut pas mettre tous les oeufs dans le même panier et le problème de l’accumulation de cette énergie imprévisible et intermittente n’est toujours pas règlé. De plus les surfaces occupées par les panneaux sont tout de même assez considérables , surfaces qui ne sont réellement disponibles que dans les zones désertiques , zones qui consomment l’électricité au moment ou celle ci est produite(contrairement à nous qui la consommons surtout le soir )
Eh bien, pour vous, s’il s’agit du plus gros gaspillage concernant 15 malheureux milliard de dollard à l’échelle du PIB Mondial, c’est que vous avez vraiment, mais vraiment pas la notion d’argent ni de gaspillage. Et qu’il trouve l’argent dans les 50 milliards que nous coûte la PAC pour financés n’importe quels grand projet scientifique, ne me géne absolument pas, quand va-t-on arrêtés cette m_____!!!!! de PAC qui nous coûte une fortune et qui contribue à moins de 3% du PIB européens, que les agriculteurs se démerde au lieux d’être subventionnés à Outrance, bloqués les routes à la moindre occassion, et cramés de la bouffe qui a demandés engrais, énergie, temps, dans un monde malnourris de 850 millions de personnes, dés que les cours ne sont plus favorable ! @chelya : Vous auriez les sources et les laboratoires concernés ? Cordialement,
Ah bon ? le privé investit dans le recherche fondamentale ? c’est nouveaux sa. Quand au partenariat public-privé, laissés moi rire, c’est le truc là, qui permet avec l’argent du contribuable d’exploité les recherches public afin de les ultra-rentabilisés sur le marché ? Vous avez oubliés le succés Galileo en public-privé 😉 Cordialement,
dépenser 6,6 milliards d’euros pour une hypothétique découverte… alors que l’on n’est pas capable d’appliquer et de dépenser de l’argent dans des energies renouvelables qui fonctionnent. je renvoie vers les pistes à faire évoluer de l’hydrogène, cité dans un article d’hier. quand je pense que la semaine dernière je me faisais traiter de menteur quant aux sommes allouées dans l’industrie nucléaire en parlant de 5 milliards (budget CEA)… je n’avais pas vu que nous n’étions pas les seuls à jeter l’argent des contribuables par les fenêtres.
La semaine dernière,vous(jolipanda),aviez surtout promis de ne plus revenir sur ce site à cause de la prétendue censure d’Enerzine à votre égard.Vous nous l’aviez joué style Calimero injustement censuré…Et vous revoilà… A l’avenir,faites nous le plaisir de ne plus nous faire votre cinéma habituel,si Enerzine corrigeait ou supprimait des posts inappropriés de votre part comme cela était arrivé la semaine dernière .
il y aura toujours des anti-tout incapables de se projeter et de financer un projet certes trés incertain mais au potentiel immense pour l’humanité. Capables seulement de regarder à court terme et jusqu’à la pointe de leurs chaussures , incapable de voir le sulendemein ou l’immense obstacle qui se présente à nous : la fin des resources fossiles et le réchauffement de notre planète. la diminution des surfaces disponible pour chacun en raison de la surpopulation qui continue de s’accentuer. Les petits pays fortement peuplés situés en zone tempèrée ne peuvent se contenter de l’énergie solaire et du vent qui en est son sous produit. les mutations qui s’annoncent nécessitent de faire feu de tout bois et de cesser de ne financer qu’au jour le jour les petits projets sans envergure.
Oui,tous ces pisses vinaigres qui dans les années 1957-1961 auraient condamnés Spoutnik (1957) et Gagarine(1961) pour le cout scandaleux de ces programmes de recherche utopiques et irréalistes. Affreuses dépenses de l’argent des contribuables pour des choses futiles et sans avenir. Idem pour les programmes américains de satellites en tout genre(des années 60 et 70). Censés selon les mêmes pisses vinaigres de l’époque,ne déboucher sur rien d’utile ni de valable… Sauf que maintenant,il serait impensable de se passer des inombrables application en tout genre des centaines(voir des milliers)de satelites qui gravitent autour de nous… Ces très idiots courts-termistes de l’époque dont nous avons les très débiles descendant,parmi nous, en ces années actuelles(2010-2020),continuent leurs stupides critiques de par leurs cervelles archaiques,sur des projets aussi fondamentaux pour l’avenir que l’avait été dans les années cinquantes,soixantes et soixante-dix, les très couteuses recherches et devellopement spatiales satellitaires . Maintenant c’est le tour d’ITER et de la fusion nucléaire d’être critiqué par ces mêmes archaiques,malheureusement de toutes les époques.
représente un budget de 16 milliards d’euros répartis sur 34 pays et sur 40 ans : Ce projet représente pour la France un coût total de 1,1 milliard d’euros, soit de l’ordre de 28 millions d’euros par an. Ma conclusion est donc que ITER est un programme de recherche de très long terme, potentiellement une révolution technologique similaire à celle de l’invention de la machine à vapeur ou du moteur à combustion à l’échelle de l’humanité. Et son coût est totalement négligeable comparé à, par exemple, la subvention du photovoltaïque, énergie dont le prix est démentiel, pour un nombre de kwh produits ridicule, et pour un impact environnemental nul voire négatif.
Trop d’excès dans vos commentaires, chers compatriotes! Les pour: vous avez raison, puisque dans une société dominée par les abus de complexité, toute pompe à finance sur le long terme est peut-être bonne à prendre pour aider la majorité bureaucratique de nos scientifiques, à moins que le système financier ne s’écroule avant… Les contre: vous avez raison aussi, parce que mettre ses oeufs dans le même panier est une idiotie scientifique, car on privilège ici une seule filière de recherche sur la fusion. Les autres, on les ignore et elles seront dans notre pays étouffées pour des décades, tout en étant encouragées ailleurs…
La France est mal placée pour dire que ça coute cher puisque elle est la principale bénéficiaire. Tous ces milliards frais venus des 4 coins du globe sont dépensés à Caradache , en terre françoise où le seul fait d’acheter un sandwich rapporte de la TVA. Clairement , c’est une bonne affaire. Pour la petite histoire , l’administration Bush en 2003 s’était farouchement opposée au choix de la France comme site. Il a fallu attendre un an pour que les tensions de la seconde guerre du golfe retombent mais les américains ont diminué leur part d’investissement (ils ont régularisé plus tard) ITER nouvelle machine à vapeur? Personnellement je ne crois pas , Le seul critère à valider pour ITER par rapports aux autres Tokamaks est l’ignition. Il reste beaucoup d’Iters à faire avant de seulement résoudre l’élimination de l’hélium et la synthèse du tritium. Et pour faire fonctionner cette machine pendant des jours entiers , c’est encore une autre affaire Le rapport aux premiers moteurs de l’histoire est d’autant plus exagéré qu’ITER ne produirait in fine que de la chaleur et il y a un paquet de technologies parfaitement maitrisées qui permettent de le faire. La machine a vapeur a quand même permis de faire quelque chose que personne ne savait faire avant. Ce n’est donc pas la bonne référence. Par contre si on voit ITER comme la poursuite plutôt bien financée de la recherche sur les Tokamaks mais aussi sur les supra conducteurs géants , le précédent étant le LHC, on comprend mieux l’intéret. Cela dit , il est parfaitement probable que le Tokamak reste un jouet divertissant mais inexploitable pour l’éternité tant les problèmes à résoudre sont énormes avant de lui faire produire de l’énergie utile. Quand on voit la portée de l’observation du boson de higgs et la validation du modèle standard qui s’ensuit, on se dit que ITER, n’aura peut-être pas le Nobel (je n’y crois pas du tout) mais qu’une grande richesse scientifique se trouvera dans les publications qui conclueront le projet. L’autre aspect est celui de la fabrication : le passage de la théorie à la pratique , les super calculateurs, le génie des matériaux, les procédés de refroidissement… Tout cela est précieux. Faudrait pas oublier que le développement du microprocesseur est issu du programme Apollo, dont l’objectif était plutôt de marcher sur la lune plutôt que nous permettre de dialoguer sur des forums.. Les retombées technologiques sont rarement prévisibles, mais bien réelles. Il est donc nécessaire de nourrir de grands projets scientifiques , chers et inutiles. Mais à mon avis la crainte de perdre les astronautes dans l’espace était plus « motivante » que le fait de faire le enieme Tokamak et encore pire , faire de l’énergie , on sait très bien faire ça. Le processeur a évité les mouvements d’horlogerie (encore présents sur Apollo 11) et gagner du poids au décollage pour le carburant du retour ! Le laser megajoule est un grand concurrent d’Iter sur la fusion, plutôt orienté militaire dans un premier temps, son positionnement dans l’énergie est de plus en plus tangible. Encore une fois la fusion en Tokamak peut très bien se révéler totalement inexploitable mais ITER n’en serait pas inutile pour autant Quant à comparer cela au développement du PV dans le mix national, c’est plutot incongru de la part d’un salarié de l’énergéticien, c’est faire d’iter un enjeu politique qu’il ne devrait vraiment pas devenir. En revanche , certes le PV coute en CSPE le cout de son développement d’il y a 10 ans, en ce sens , le principal bénéfice de la CSPE se trouve dans la chute des prix des panneaux solaires , c’est ça que payent nos factures : une technologie , pas des MWh
¤ Le développement du microprocesseur n’a rien à voir avec le programme Apollo. La réalité est plus triviale. En 1969, la société japonaise Busicom, premier gros client d’Intel, demande à cette société toute jeune de lui fournir un essemble de circuits intégrés pour réaliser une calculatrice … une quatre opérations de l’époque. C’est le premier circuit intégré en un seul « chip » utilisant une logique programmée, le programme étant dans un chip ROM, les données temporaires dans un chip RAM et un dernier chip gérant les entrées/sorties (clavier, afficheur). L’Intel 4004 (4 bits) a été commercialisé en novembre 1971. Un an plus tard est sorti le 8008 (premier 8 bits), plus puissant, qui a commencé à se répandre chez les bricoleurs de l’électronique. Puis est venu le 8080 en avril 1974, donnant naissance à une floraison de micro-ordinateurs qui, à l’époque, utilisaient une simple télé pour afficher 12 lignes de 40 caractères. En mai 1978 est apparu le 8086, premier 16 bits. Ce qui a entraîné la multiplication des constructeurs de micro-ordinateurs à travers le monde et son usage dans les entreprises. Entre temps étaient apparus les écrans, affichant 24 lignes de 80 caractères. Plus pratiques pour la comptabilité, la gestion des stocks, celle des clients et des fournisseurs. Une version réduite en 1979, le 8088 a été utilisée en 1981 par IBM pour son premier PC : des années après les premiers constructeurs d’ordinateurs. Mais ce ne sont pas ses qualités particulères qui ont fait son succès (il était plutôt médiocre), mais surtout les machines à écrire à boules très répandues dans les entreprises et un peu le prestige des gros ordinateurs classiques.
Certes Luis , la plaquette Intel est très claire sur ce point mais in est en train de parler d’une mission militaro-spatiale de pointe où les différents prestataires militaires se battaient pour apposer leur logo La vraie naissance du processeur s’est produite lorsque les éléments électro-mécaniques ont été remplacés par des systèmes entièrement électriques, les premiers concernés étaient les missiles ballistiques, domaine technique où l’acharnement était amplifié par la paranoïa générale sur les missiles nucléaires Le programme apollo doit absolument tout à cette guerre technologique, ce n’était que la vitrine civile d’une recherche strictement militaire. L’essentiel des tâches à remplir concernait le guidage, l’engin ne pouvant être en contact permanent avec le sol (qui disposait de radars) il était indispensable de corriger les trajectoires sans intervention du centre de contrôle. A ce titre , Apollo étant toujours habité, avait un gros avantage, les astronautes pouvaient utiliser un sextant (le même que celui des marins), et communiquer les données au sol L’originalité de l’ordinateur d’Apollo (qui s’appellait AGC et pesait 35Kg) était d’être le premier reposant entièrement sur des circuits intégrés : 4100 circuits Fairchild Semiconductor wrappés (avec des câbles) sur une plaque époxy qui n’était donc pas un circuit imprimé mais cablé Déployé à deux exemplaires (un module de commande et 1 LEM) , c’est cette fichue machine qui a bipé sans cesse dans les oreille d’Aldrin et Armstrong lors de la descente d’alunissage, aucun des deux n’ayant pus l’interrompre. Le problème était dû à une procédure de sécurité qui permettait d’avorter la descente et retourner vers le module en cas de dysfonctionnement irrécupérable. Le radar de rendez vous était toujours actif. 64 ko de ROM et 2000 de ram capable d’interprèter les données radar et sextant transmises du sol Par contre , la NASA avait prévu un mouvement d’horlogerie mécanique jusqu’à Apollo 15 je crois pour les tâches récurrentes. C’est aussi pour cette mission que la NASA a accepté de réduire légèrement la charge de carburant et permettre l’emport de la fameuse Jeep —– On peut situer l’invention du processeur à de nombreuses reprises car c’est évidemment une invention collective. Le 4004 n’était que la première intégration de toute la logique de process (registres, état, adressage, bus, ..) dans un seul composant, les systèmes précédent employaient plusieurs chips pour faire la même chose Par la suite , les autres composants ont été à leur tour intégrés , DMA, PMMU, FPU, cache…. et plus récemment le northbridge et surtout le GPU , intégration qui permet aux CPU de changer de nom, ils s’appellent désormais APU.
Comme je suis un vieux gars, il se trouve que j’ai travaillé à deux reprises sur d’authentiques IBM PC 8088 4.77MHz 128kb ram, FP 5 »1/4 360kb, 5Mb HD, le standard d’affichage était de 25 lignes de 80 car et non pas 12 lignes Adaptateurs graphiques MDA , CGA permettait la couleur mais imilté à 40 car. et Hercules réputé plus rapide avec des modes étendus souvent incompatibles avec les applications Le VGA est arrivé peu après , c’est le seul standart survivant aujourd’hui avec son 640*480 millions de couleurs. Sur les IBM , le mode graphique n’éxistait pas su tout, on ne pouvait dessiner qu’avec des caractères monochromes (ecrans verts) En fait c’étaient de vieilles machines (je ne suis pas si vieux) mais elles avaient l’avantage d’être absolument in-cre-vables Elles rendaient de grands services même dans un parc de 286 et 386 , leur fiabilité inspirait confiance