Diminution des temps de «remboursement énergétique»
Combien d’années faut-il à des panneaux photovoltaïques pour restituer l’électricité préalablement investie dans leur fabrication? Cette question suscite une certaine confusion entre les notions de «remboursement» et de «coefficient de retour» énergétiques. Explications.
Tout dispositif de production d’électricité par transformation d’énergie primaire réalisée à partir d’une source renouvelable «gratuite» (soleil, vent, hydraulique, biomasse) est composé d’éléments plus ou moins élaborés à partir de matières premières, non gratuites quant à elles. L’infrastructure d’une éolienne comprend notamment les fondations, le mât, la nacelle, l’alternateur, la boîte d’engrenage, les pales ou l’électronique de réglage.
Pour une installation photovoltaïque, il s’agit des cellules solaires, du verre, d’un film de scellement, du cadre, du câblage, des supports, de l’onduleur pour transformer le courant continu issu des modules photovoltaïques en un courant alternatif conforme au réseau électrique, ou encore d’un dispositif de régulation électronique.
Ces composants ont été préalablement fabriqués à partir de produits intermédiaires, eux-mêmes formés de matières premières ayant subi des transformations multiples, de l’extraction des matériaux bruts dans des mines jusqu’à la mise en forme, en passant par le raffinage. Ces procédés chimiques, physiques et mécaniques représentent un coût énergétique sous forme de chaleur et d’électricité. C’est l’énergie cachée, dite «grise», investie en amont, dans la fabrication de tout objet.
Des matériaux énergivores
La plupart des modules photovoltaïques actuels sont basés sur des assemblages de cellules solaires de 0,1 à 0,8 millimètre d’épaisseur, constitués de plaques de silicium de grande pureté chimique, dite de qualité électronique. La préparation de ce matériau à partir de la silice (oxyde de silicium SiO2) naturelle, également présente dans les nombreux silicates de la croûte terrestre, représente un ensemble de procédés particulièrement gourmands en énergie.
C’est pourquoi la recherche travaille désormais à la mise au point de cellules à couches minces de l’ordre du micromètre d’épaisseur (1 à 3 ?m) qui réduisent très fortement les quantités de silicium nécessaires. Ces couches sont en général déposées à l’aide d’un gaz, le silane (SiH4), également issu de la silice, via le silicium très pur. Le cas échéant, les besoins en énergie sont bien moindres que pour les cellules cristallines. D’autres substances semi-conductrices (tellure, cadmium, sélénium, indium, cuivre) peuvent être utilisées, mais leurs coûts sont d’autant plus élevés que ces matières premières sont beaucoup moins abondantes que la silice dans la croûte terrestre.
Une fois en activité, une installation photovoltaïque produira un certain nombre de kilowattheures d’électricité durant une durée de vie que l’on peut estimer, pour notre calcul, à vingt-cinq ou trente ans. La quantité d’électricité produite varie fortement en fonction des lieux d’exposition et du taux d’ensoleillement. On peut compter, en Europe, sur une fourchette comprise entre 700 et 1200 kilowattheures par an-née pour une installation de 1 kWc (1 kilowatt-crête).
Progrès en vue
Dans les meilleures conditions, il s’agit d’un ouvrage d’une puissance installée de 1 kilowatt sous un ensoleillement de 1000 watts par mètre carré. Ainsi, une installation de 8 mètres carrés avec un rendement de conversion de 12,5% fournira en vingt-cinq années de fonctionnement quelque 20'000 à 30'000 kilowattheures d’énergie électrique selon l’endroit où elle se trouve.
Le calcul destiné à évaluer la quantité d’énergie grise investie dans la fabrication d’une telle installation est sujet à des hypothèses extrêmes. Il est relativement complexe car les matériaux utilisés ont été fabriqués à l’aide de différentes sources d’énergie, et dans des pays caractérisés par différents types de production d’électricité.
Selon les filières (silicium monocristallin, polycristallin ou amorphe, couches minces simples, doubles ou triples, autres semi-conducteurs), le temps de remboursement énergétique, durant lequel l’installation doit produire en électricité l’équivalent de son énergie grise est de l’ordre de 3 à 5 ans. Mais le potentiel d’amélioration est important. Les nouvelles filières à couches minces permettront de descendre à 1 à 2 ans, voire moins si l’on ne considère que les modules eux-mêmes.
Quant au coefficient de retour énergétique, appelé «Erntefaktor» en allemand, il représente le quotient de la durée de vie productive de l’installation par son temps de remboursement énergétique, Si la durée de vie retenue est de 25 ans, ce coefficient est actuellement de l’ordre de 4 à 8. Il pourra s’élever à 10, 12, voire à 15 avec l’avènement des futures couches minces. Autrement dit, l’installation photovoltaïque «rendra» 10 à 15 fois son énergie grise. Ce progrès améliorera la compétitivité de cette source d’énergie dans des proportions considérables.
Les objectifs de Kyoto s’éloignent
Entre les discours et les faits, le fossé ne cesse de se creuser. A de rares exceptions près, on s’éloigne partout dans le monde des objectifs de Kyoto en matière de réduction des émissions de CO2. Et la tendance, à vue humaine, paraît irréversible.
C'est un paradoxe! Plus on considère les changements climatiques comme un sujet de préoccupation, plus la situation s'aggrave. Durant la dernière décennie, les rejets de C02 du secteur énergétique ont progressé de 7%. Et le mouvement va s’accélérer. Selon les dernières estimations de l’Agence internationale de l’énergie (AIE), les émissions «humaines» de gaz carbonique passeront de 7 milliards de tonnes en 2006, à 10 milliards de tonnes en 2029 et à 14 milliards de tonnes par année vers 2050.
Quelles sont les raisons d'un tel enchaînement? La croissance de la demande d'énergie, tout d'abord. La consommation a progressé de 11% au cours des dix dernières années, le Moyen-Orient et l'Asie se taillant des parts du lion avec, respectivement, des hausses de 46% et 32%. Ces chiffres sont encore plus impressionnants dans le domaine de l’électricité. La Chine envisage de construire près de six cents centrales à charbon d'ici 2012, l’Inde plus de 250 ouvrages à combustible fossile et l’Allemagne une trentaine de grandes centrales à charbon et à gaz.
Globalement, malgré les discours lénifiants, la tendance n’est pas prête de s’inverser. Pour une raison simple: à l’échelle mondiale, le renouvellement du parc de centrales électriques repose pour 80% sur les combustibles fossiles. Il se met en service chaque année près de 13’000 mégawatts de puissance électrique dans des ouvrages à gaz, charbon ou mazout. La contribution des autres sources, y compris l’éolien dont on parle tant, traîne loin derrière.
Pourtant leader de la croisade mondiale contre le réchauffement climatique, la grande majorité des pays industriels occidentaux reste elle aussi très en deçà des objectifs de Kyoto. Alors qu’elles auraient dû les réduire de près de 10% pour se conformer à ces objectifs, tant l’Union européenne que la Suisse rejettent aujourd’hui toujours autant de gaz à effet de serre qu’en 1990, et cela bien que les statistiques ignorent la contribution des transports aériens, qui ne cesse de croître d’année en année.
Faut-il désespérer? Il n’est pas exclu que la dynamique qui s’est engagée en matière d’utilisation rationnelle de l’énergie et de substitution vers les sources non fossiles apporte une contribution positive au cours des prochaines années, en Europe essentiellement. Mais ces progrès éventuels pourraient ne pas faire le poids en regard des effets de la croissance démographique et économique d’une part, et de l’abandon du nucléaire par l’Allemagne et l’Espagne d’autre part.
Ailleurs dans le monde, dans les Amériques et en Asie surtout, la consommation des agents fossiles, et les rejets subséquents de gaz carbonique, resteront fortement orientés à la hausse. Inutile de se bercer d’illusion! Nous devons nous préparer à cohabiter encore longtemps avec le CO2
Télécharger Frenews no 44 en pdf
Signes d’essoufflement dans la production
A-t-on atteint le «Peak oil»?
«Il n’est pas sûr que l’on puisse produire dans vingt ans les 100 millions de barils par jour nécessaires pour satisfaire la demande prévisible!» Cette estimation du président de Total est aujourd’hui corroborée par d’autres acteurs de la branche pétrolière. Le fameux «pic pétrolier» est-il atteint?
Christophe de Margerie exprimait ses doutes le 31 octobre dernier, lors d'une conférence à Londres, sur la capacité de l'industrie pétrolière à parvenir à un rythme d'extraction journalier de 120 millions de barils/jours, quantité estimée par l'Agence Internationale de l'Energie pour satisfaire la demande mondiale en 2030 en fonction du développement économique et des besoins afférents en produits pétroliers.
Pour le président du groupe Total, même une production quotidienne de 100 millions de barils à cette échéance paraît douteuse. Un jugement soutenu par le patron de ConocoPhillips, James Mulva: «Je ne vois pas d’où pourrait provenir une production de 100 millions de barils/jour», affirmait-il lors d'une récente conférence présentée à New York. Ces propos pessimistes sont confirmés par la courbe de production mondiale qui plafonne depuis cinq ans entre 73 et 75 millions de barils/jour.
Un nouvel Alaska par année
Les raisons de cette stagnation sont multiples. D'abord le manque de capacités humaines (ingénieurs) et techniques (barges, matériaux, pompes). A quoi s’ajoutent, comme le souligne le CEO d'ExxonMobil, Rex Tillerson, les restrictions que les compagnies rencontrent dans certains pays producteurs pour des raisons politiques ou de nationalisme économique. Il estime à 116 millions de barils par jour le niveau de production possible en 2030 «si ces barrières étaient levées».
Un autre obstacle réside dans le coût croissant des recherches et développement des champs pétrolifères. Ceux que l’on découvre aujourd'hui sont généralement de plus petite taille et situés dans des zones d’accès et de climat difficiles. Pour maintenir le niveau d’extraction actuel, il faudrait, du fait du déclin des champs existants, ajouter tous les ans une capacité nouvelle de 4 millions de barils/jour, soit l'équivalent de la production de l'Alaska.
On comprend mieux, à la lumière de ces estimations, pourquoi les pétroliers se précipitent sur toutes les opportunités d'exploration de gisements nouveaux. C'est ainsi que les adjudications en Alaska, dans la mer dite des Tchouktches, ont suscité des offres à des prix exorbitants. Le grand gagnant a été Shell, qui accusait un retard par rapport à ses concurrents en réserves prouvées, et qui y a investi 2,1 milliards de dollars pour 725 lots à explorer. En Irak, malgré la situation chaotique du pays, pas moins de 70 offres de préqualification ont été déposées pour porter la production du pays de 2 à environ 4 millions de barils/jour en 2009.
Les optimistes et les pessimistes
Reste la question du fameux «Peak oil». Deux courant de pensées s’opposent sur cette question: les «pessimistes» et les «optimistes». Les premiers, principalement des géologues dont les plus connus sont Laherrere, Campbell et Ivanohe, fondent leur raisonnement sur plusieurs hypothèses. Selon eux, les réserves des principaux pays producteurs sont surestimées pour des raisons politiques (quotas).
Les plus gros gisements ont été découverts, ceux qui restent sont de petites tailles et leur exploitation sera difficile. De plus, les pétroles non conventionnels (schistes bitumeux, bruts extra lourds) seraient inexploitables pour des raisons techniques et environnementales. Enfin, le taux de découvertes de nouveaux gisements décroît depuis 20 ans. Ainsi, pour les «pessimistes», le «Peakoil» est-il définitivement atteint, la production va progressivement diminuer dès ces prochaines années.
Les «optimistes», eux, n’envisagent une diminution de la production qu’à partir de 2030 au plus tôt. Ce sont surtout des économistes, dont Adelmann, Lynch et Odell sont les plus représentatifs. Ils prennent en considération l’incidence des réductions sur la rentabilité des champs marginaux, ainsi que le rôle des technologies modernes dans la découverte de nouvelles réserves et dans l’amélioration de la récupération dans les réserves existantes. Ils estiment aussi que les pétroles non conventionnels, compte tenu de la hausse des prix du marché, ont atteint le seuil de rentabilité et permettront d’accroître de manière substantielle les quantités de réserves récupérables.
La spéculation dans la formation des prix
Le poids croissant des barils virtuels
Les barils papier, vous connaissez? Ces cargaisons virtuelles jouent un rôle croissant dans la formation des prix du pétrole. Des prix qui, selon la quasi-totalité des milieux concernés resteront durablement élevés.
Les chocs pétroliers de 1974 et 1979 ont profondément changé la façon dont les prix sont déterminés. Auparavant dominaient les contrats à long terme, d’une durée moyenne de 24 et 36 mois, à prix stables. Ces contrats ont été entre-temps remplacés, d'abord par le marché «spot», créé en 1969, puis par les marchés à terme, offrant ainsi la possibilité aux financiers d’agir directement sur les prix.
Sur le marché «spot», les ventes sont conclues au jour le jour pour une quantité donnée de pétrole brut à enlever ou à livrer à un point donné. Aujourd'hui, les cours sont principalement déterminés dans les marchés à terme, en particulier au New York Mercantile Exchange (NYMEX), qui a commencé ses transactions sur le pétrole en 1983, et à l'International Petroleum Exchange (IPE), créé en 1980 et basé à Londres.
Les contrats à terme consistent à passer des ordres d'achat ou de vente d'une certaine quantité de «pétrole papier». L'objectif affiché est de se couvrir en compensant une opération réelle par une opération «barils-papier» inverse, aux mêmes conditions. Un «trader», par exemple, achète une cargaison de pétrole et, dans le même temps, vend l'équivalent de «barils-papier» sur le marché à terme.
Contrats fictifs
Si le prix du brut a chuté et que le trader perd de l'argent à la revente du pétrole physique, il rachète le «pétrole papier» moins cher qu'il ne l'a vendu et réalise un bénéfice qui compense la perte subie sur le marché réel. Ces opérations sont en fait principalement spéculatives, avec un double effet de levier. Chaque contrat dérivé est une mise sur 1000 barils de pétrole.
Exemple: plus de 100 millions de ces contrats dérivés sur le pétrole avaient été négociés en 2004, soit l’équivalent de 100 milliards de barils. Une étude de la revue économique et politique américaine Executive Intelligence Review a établi que pour 570 «barils papier» sur l'IPE, correspond un seul baril de pétrole réel. Autrement dit, ce sont ces 570 contrats fictifs qui déterminent le prix de ce baril.
Et ce n'est pas tout. Sur l'IPE, un «trader» peut acheter un contrat en misant seulement 3,8% de sa valeur. Ainsi, pour obtenir un contrat représentant 1000 barils, à 100 dollars le baril, un trader n'aura qu'à débourser 3800 dollars, c'est-à-dire 3,8% de 100’000 dollars. Nous sommes ainsi bien éloignés de la production physique de pétrole. A tel point que le Brent, par exemple, qui détermine le prix d'environ 60% de la production mondiale, représente aujourd'hui moins de 0,5% de la production physique réelle
Le retour des cartels
L'industrie pétrolière n'a pas que des outils spéculatifs à sa disposition. Au cours des vingt dernières années, elle n’a pratiquement plus investi dans le raffinage aux Etats-Unis, la capacité totale étant même tombée de 18 millions de barils par jour au début des années 80, à seulement 16 millions en 2006, alors que l’on savait que la demande de produits raffinés allait augmenter. Or une capacité réduite fait monter les prix. Le Financial Times estimait que, grâce à cette baisse de capacité, les entreprises de raffineries américaines, comme Valero, Premcor, Tesoro et Ashland, gagnaient désormais de 10 à 20 dollars de plus par baril raffiné.
Deux autres phénomènes ont joué un rôle clé dans cette dynamique de flambée des prix. D'abord, on ne peut s'empêcher de constater une relation entre la hausse des cours du pétrole et les fusions-acquisitions qui ont marqué ce secteur à la fin des années 90. En août 1998, alors que l'or noir était au plus bas, à environ 12 dollars le baril, BP lançait une OPE sur Amoco, créant le troisième groupe pétrolier mondial.
En novembre de cette même année, Exxon, le numéro deux mondial, ravissait à Shell la première place en rachetant Mobil. Au même moment, Total absorbait Petrofina pour acquérir ensuite, au début de 2000, Elf Aquitaine. Ces trois fusions, ainsi que l'achat de Texaco par Chevron en octobre 2000, se sont traduites par un renforcement considérable de la puissance du cartel pétrolier.
Les «hedge funds» s’en mêlent
Autre phénomène, le développement des «hedge funds» a accentué le caractère spéculatif du marché spéculatif. Dans la revue australienne Business Review Weekly, le banquier d'affaires Gerry van Wyngen soulignait le fait que beaucoup de ces fonds possèdent des capacités d’investissement de plus de 1 milliard de dollars cash, ce qui leur donne un énorme pouvoir sur le marché du pétrole.
Personne ne sait combien de pétrole est contrôlé par les hedge funds, ni par les autres investisseurs et spéculateurs. «Mais, souligne-t-il, il s'agit clairement d'une quantité importante, et les effets sur les prix sont considérables». Si l'OPEP décide par exemple d’accroître sa production de 500’000 barils par jour afin de faire baisser les prix, il est alors facile pour les spéculateurs d'acheter ce surplus sur le marché pour 60 millions de dollars, réduisant à néant les effets stabilisateurs des prix de cette capacité supplémentaire.
La situation est-elle désespérée? «Avec des prix pareils, nous nous attendions à une vague d’investissements dans de nouvelles capacités de production et de raffinage», soulignait l’an dernier le directeur sortait de l’Agence internationale de l’énergie (AIE), Claude Mandil. Il profitait du 6e Sommet pétrolier international, à Paris, pour appeler les pays producteurs et les grandes compagnies à accroître leurs investissements pour consolider les futures capacités d’or noir.
Mais les milieux interpellés ont botté cette proposition en touche. Derrière les discours convenus, ni l’OPEP qui n’a plus de bande de fluctuation, ni les compagnies, qui embellissent elles aussi leurs marges bénéficiaires, ne sont pas mécontents d’une situation de prix durablement tendus. Doit-on le leur reprocher?
Rédaction: Jean-Pierre Bommer
Sources: Enerzine, FRE, Union Pétrolière, IFP, Les Echos, EIR
Techniquement résolue, politiquement en suspens
Télécharger le dépliant en pdf
La gestion des déchets radioactifs
1. L’homme a domestiqué la radioactivité
2. La solution suisse sur les rails
3. Les trois étapes de la mise en sécurité des déchets
4. La transmutation: solution du futur
1. L’homme a domestiqué la radioactivité
S'agit-il de cette force mystérieuse et diabolique que certains dénoncent? En fait de mystère, la radioactivité est un phénomène tellement connu et maîtrisé qu'on l'utilise quotidiennement dans les domaines les plus pointus de la médecine, de l’énergie, de l'industrie ou de l'agriculture.
La Terre et le ciel sont radioactifs. Les hommes y sont exposés. Et certains plus que d'autres: un habitant de Saint-Moritz, parce qu'il habite en altitude, subit une irradiation naturelle près de trois fois plus élevée qu'un voisin de la centrale nucléaire de Gösgen. Tel un bruit de fond dans lequel l'homme a toujours vécu depuis son apparition sur terre, les substances radioactives (radionucléides) sont omniprésentes. Elles se désintègrent en nous et autour de nous en émettant des rayonnements plus ou moins pénétrants.
Il existe trois types de rayonnement:
- 1. les rayons alpha, notamment présents dans les gisements d'uranium et composés de noyaux d'hélium, pénètrent à peine la surface de la peau mais diffusent une grande quantité d'énergie;
- 2. les rayons bêta, présents dans le phosphate naturel, sont constitués d'électrons quatre mille fois plus légers que les particules alpha. Ils pénètrent jusqu'à deux centimètres de tissu humain;
- 3. les rayons gamma sont beaucoup plus pénétrants mais généralement de moindre intensité. lis se manifestent sous forme d'ondes électromagnétiques, comme la lumière émise par le Soleil ou les rayons X, mais d'une longueur d'ondes plus faible.
Rhône radioactif
Que leur source soit naturelle ou artificielle, ces rayonnements ont le même comportement. En traversant la matière, ils transmettent de l'énergie aux atomes qui la constituent et dont ils arrachent des électrons, créant ainsi des ions (atomes n'ayant plus leur compte d'électrons). C'est le phénomène d'ionisation, point de départ de toutes les transformations que les rayonnements peuvent provoquer en traversant la matière.
La radioactivité est universelle. Le Rhône charrie en une année près de cent tonnes d'uranium naturel qui proviennent en partie du ruissellement des pluies sur les massifs cristallins. Les eaux minérales aussi contiennent des radioéléments, découverts au début du siècle et dont l'action est vantée de longue date par les dépliants de certaines stations thermales. D'anciennes étiquettes de bouteilles arboraient fièrement «Eau la plus radioactive du monde».
Le radon est le principal facteur d'irradiation d'origine terrestre. Il constitue à lui seul la source de plus de la moitié des rayonnements radioactifs naturels. Gaz inodore, le radon se diffuse parfois loin de son point originel situé dans la roche. A travers failles et fentes du terrain, il remonte à la surface du sol pour se répandre dans l'air et dans l'eau. Sa concentration dépend essentiellement de la nature du sol. Son terrain de prédilection? Les régions granitiques. Raison pour laquelle on enregistre dans certaines zones alpines des taux d'irradiation naturelle deux à trois fois plus élevés que sur le Plateau (un taux d’un peu plus de 1 millisievert par année).
Filtre atmosphérique
L'atmosphère contient de multiples radionucléides, comme le carbone 14, le tritium, le sodium 22 ou le béryllium 7, formés à chaque instant par interaction des rayonnements dits secondaires qui réagissent pour former de nouvelles particules (gamma notamment, mais aussi des neutrons). Le tritium, par exemple, est un isotope de l'hydrogène.
Autre radioélément né dans la haute atmosphère: le carbone 14, brassé dans la circulation de l'air, issu de la rencontre des particules cosmiques avec des atomes d'azote. Sous l'influence du champ magnétique de la Terre, ces particules radioactives sont de plus en plus nombreuses à mesure qu'on se rapproche des pôles. D'autres sont arrêtées par l'atmosphère terrestre. On relève deux fois plus de particules à haute altitude qu'au niveau de la mer.
Pas étonnant, dans ces conditions, que les spationautes soient particulièrement exposés. Sur la station MIR (à 400 kilomètres d'altitude), par exemple, on a mesuré une dose moyenne d'un millisievert par jour et par individu. La dose absorbée par les passagers d'un avion lors d'un aller-retour Paris-Los Angeles (vingt-deux heures de vol à 10 000 mètres d'altitude) atteint 0,056 millisievert.
Indispensable à la vie
L'homme est donc soumis quotidiennement à une irradiation externe et interne en provenance de la Terre et de l'atmosphère. On estime à environ 4 millisieverts par an son exposition moyenne à l'irradiation d'origine naturelle. Son propre corps est radioactif: outre le carbone 14 (l'uranium et le radium), il contient du potassium, indispensable à la vie, dont l'isotope 40 est radioactif. Près de cinq cents mille désintégrations se produisent toutes les minutes en chacun de nous, avec l'émission de rayons alpha, bêta et gamma.
Nous sommes également soumis à une radioactivité d'origine artificielle. Qui, par exemple, n'a pas subi d'examen radiologique (0,5 millisievert pour une radiographie pulmonaire)? Qui ne s'est jamais tenu devant un poste de télévision (0,005 millisievert par heure), ou n'a jamais porté de montre à cadran lumineux (environ 0,02 millisievert par an)?
En fait, la radioactivité est universelle. Aujourd'hui, l'homme a si bien maîtrisé ce phénomène qu'il peut en tirer un formidable éventail d'utilisations dans la médecine, l'énergie, l'agriculture, la science et la technique. Lors d'un exposé présenté pour célébrer le centenaire des rayons X, le Dr André Flückiger, président du Groupement des radiologues FMH de la Société vaudoise de médecine, estimait que l'utilisation de la radioactivité en médecine a probablement permis de sauver plus de vies humaines au cours du 20e siècle que toutes les guerres ont fait de morts pendant cette même période.
|
|
|
|
Les seuils d'irradiation - en millisierverts par année
• 0,01 mSv: dose supplémentaire reçue par les voisins d'une centrale nucléaire.
• 1,5 mSv: irradiation individuelle moyenne provenant de traitements médicaux
• 4 mSv: irradiation naturelle moyenne de la population suisse
• 50 mSv: limite légale pour les personnes exposées professionnellement
• 500 - 2000 mSv: possibilité statistique significative d'induire un cancer
• 2000 - 6000 mSv: atteintes à la santé quasi certaines
• plus de 6000 mSv: décès rapide.
Le becquerel (Bq) mesure l'activité d'une source radioactive, 1 Bq correspond à une désintégration d'un atome par seconde. Le sievert exprime l'effet biologique des rayonnements ionisants sur les organismes vivants. |
|
|
|
|
|
|
|
2. La solution suisse sur les rails
Le but majeur de toute stratégie de gestion des déchets est d’assurer une protection à court et à long terme de l’homme et de l’environnement. Le Conseil fédéral a reconnu en 2006 la faisabilité technique du stockage final des déchets. Il reste désormais à le mettre en uvre.
Comment stocker les déchets radioactifs en toute sécurité pour de très longues durées? La nouvelle loi fédérale sur l’énergie nucléaire, en vigueur depuis le 1er février 2005, exige leur enfouissement géologique en couches profondes. Deux dépôts sont prévus: l’un pour les déchets de haute et de moyenne activité à vie longue, l’autre pour les déchets de faible et moyenne activité à vie courte.
D’importantes tâches liées à la gestion des déchets radioactifs sont d’ores et déjà réalisées. Leur recensement, leur caractérisation et leur entreposage constituent des travaux de routine. L’entreposage se déroule sur le site des centrales et dans les installations spéciales du dépôt intermédiaire Zwilag, à Würenlingen.
Les déchets faiblement et moyennement radioactifs (85’000 mètres cubes pour 50 années d’utilisation des cinq centrales existantes) résulteront de l’exploitation et, ultérieurement, du démantèlement des installations. Il s’agira, avant la déconstruction des ouvrages, des vêtements de protection, du matériel de nettoyage, des outils, d’eau usée, de filtres des systèmes d’épuration. Ces matériaux contaminés sont immédiatement traités sous une forme apte au stockage profond.
Barrières multiples
En vue de leur stockage futur, les déchets de haute activité issus du retraitement d’assemblages combustibles usés (9000 mètres cubes après 50 ans d’exploitation) sont mélangés à des produits vitrifiants et coulés dans des conteneurs standardisés (coquilles en acier), où ils durcissent en un verre solide. Une fois les conteneurs placés dans les dépôts géologiques, les cavernes seront remplies d’argile étanche. Autant de barrières qui seront complétées par la roche d’accueil de plusieurs centaines de mètres d’épaisseur.
Dans le cadre de la démonstration de faisabilité du stockage géologique, la Société coopérative nationale pour le stockage des déchets radioactifs (Nagra) a ouvert la voie à la création d’un dépôt à partir du projet «argile à opalinus», dans le Weinland zurichois.
La gestion des éléments combustibles irradiés, des déchets hautement radioactifs vitrifiés et des déchets moyennement radioactifs à vie longue provenant des centrales nucléaires peut être réalisée en Suisse. C’est ce que reconnaissait le Conseil fédéral le 28 juin 2006 : «La faisabilité du stockage final des déchets nucléaires est désormais établie».
Le problème n’est donc plus technique. Il est politique. Il faudra disposer d'un dépôt pour les déchets hautement radioactifs en 2040 et d'un site pour les matériaux faiblement et moyennement radioactifs si possible avant cette date.
En bref
3. Les trois étapes de la mise en sécurité des déchets
La gestion des déchets radioactifs comprend trois étapes:
1. On isole les déchets radioactifs à la source.
2. On les surveille activement après les avoir conditionnés et emballés hermétiquement.
3. On libère l’homme de la surveillance active en enterrant les déchets à grande profondeur.
Les points 1 et 2 sont réalisés quotidiennement depuis près de 40 ans par les exploitants de centrales suisses, avec une efficacité constamment vérifiée. Il n’y a eu aucun cas d’irradiation dangereuse lié à l’utilisation de l’énergie nucléaire au cours de cette période. Ces deux premières étapes garantissent à elles seules que la radioactivité des déchets ne peut affecter ni l’homme ni l’environnement.
La 3e étape sera effective dès la construction de dépôts finaux dans des couches géologiques stables et profondes. Ces dépôts seront conçus de manière à ce que même si les déchets devaient remonter à la surface, ce retour serait plus lent que la décroissance de la radioactivité. Autrement dit, une fois à ciel ouvert, le rayonnement subsistant ne présenterait pas le moindre danger. Compte tenu des faibles quantités produites et du temps nécessaire au refroidissement des déchets de haute activité, les dépôts devront être disponibles vers 2030-2040.
Le coût de la mise en sécurité des déchets est inclus dans le prix du kilowattheure facturé. Les centrales suisses provisionnent entre 0,8 et 1,2 centime par kWh à cet effet. Grâce à ce prélèvement, qui n’affecte pas la rentabilité du nucléaire, nous disposerons en 2025 de 12 milliards de francs pour financer l’élimination des déchets.
4. Transmutation: la solution du futur
«Transmuter» les déchets radioactifs les plus dangereux pour les rendre inoffensifs - une perspective qui pourrait se concrétiser dès 2040 dans des réacteurs de 4e génération.
La transmutation consiste à agir au coeur de l'atome pour changer la composition de son noyau. Les réactions en chaîne engendrent de petites quantités d'éléments qui, pendant des centaines ou des milliers d’années, resteront plus radioactifs que le sol dans lequel ils seront enfouis. D'où l'idée d'utiliser une succession de désintégrations pour «transmuter» les déchets hautement radioactifs à vie longue en éléments moins actifs, à durée de vie réduite, voire stabilisés.
Une première étape de transmutation a été franchie en 2005 sur le site nucléaire français de Marcoule: la séparation chimique des trois actinides mineurs du reste des déchets radioactifs. On s’efforce depuis lors de les «transmuter» dans le réacteur à neutrons rapides (surgénérateur) Phénix. En Suisse, l’Institut Paul Scherrer participe à la recherche sur la transmutation, notamment à travers le projet MEGAPIE, qui a contribué à la démonstration de la faisabilité technique de l’utilisation du plomb comme caloporteur.
La maîtrise de la transmutation n’est qu’une question de temps.
Auteur: Jean-Pierre Bommer /août 2007
Les malentendus de la controverse énergétique
C’est le sujet socio-économique le plus abondamment traité par les médias depuis près de vingt ans. Sommes-nous pour autant bien informés sur l’énergie? Eh bien non. C’est devenu une foire d’empoigne où les opinions l’emportent sur les faits. Avec, en toile de fond, l’impensable: une Suisse qui va bientôt manquer d’électricité.
L’énergie est une grande scène de théâtre sur laquelle s’agitent d’innombrables acteurs aux objectifs, aux conceptions et aux intérêts différents, et souvent antagonistes. Le débat est dominé par les spécialistes autoproclamés et autres magiciens qui tous ont la solution miracle, si seulement on voulait les écouter et suivre leurs conseils.
Donnons d’emblée la parole à un spécialiste dont personne ne met en cause les compétences: «L’énergie est un monde féroce dans lequel on tue tous les jours!», déclarait il y a une dizaine d’années l’ancien ministre saoudien du Pétrole, Cheikh Saki Yamani. Une fois que l’on a accepté et digéré ce fait majeur, on peut s’intéresser aux détails. Avec un peu moins d’illusion et un peu plus de réalisme.
Autrefois, l’énergie était essentiellement, voire exclusivement un facteur du développement économique des nations. Son rôle était de contribuer à l’essor de ses utilisateurs, et de ses producteurs aussi. Certes, elle joue toujours ce rôle de grand acteur économique. Mais pas seulement. Entre-temps, l’énergie est devenue un facteur de confrontation et de division.
Elans religieux
Ainsi, la controverse énergétique, dans les discours, s’est-elle substituée aux affrontements politiques traditionnels qui se jouaient, souvenez-vous, entre la gauche et la droite, entre le progressiste et le réactionnaire, le conservateur et le révolutionnaire, le capitaliste et le collectiviste.
Qui tient encore ce type de discours, à part peut-être Arlette Laguiller, l’éternelle candidate à la présidence de la république française? La confrontation est toujours là. Mais le vocabulaire a changé. Il est aujourd’hui marqué par l’énergie. On oppose aujourd’hui le vert aux autres coloris, l’anti- au pro-nucléaire, le fossile au renouvelable, la route au rail, le gaspilleur à l’utilisateur économe.
L’énergie est aussi devenue un détonateur du choc des générations. Elle divise les familles, crée des fêlures dans les partis politiques, qui n’ont plus leur aile droite ou gauche, conservatrice ou sociale, mais verte ou jaune. De belles et longues carrières politiques et administratives se bâtissent sur le militantisme énergétique.
Entre Berne et Lausanne
L’énergie s’impose dans les discours philosophiques. Elle est invoquée de manière incantatoire. C’est le fameux «yaka»: yaka économiser, yaka faire du renouvelable, yak taxer, yaka interdire. Elle suscite des élans quasi religieux. On implore le Dieu Soleil de mettre son énergie à disposition pour sauver la déesse Gaïa, nom mythologique donné à la Terre, d’un excès de pollution ou de chaleur.
L’énergie ne se contente plus de nous chauffer et de nous transporter. Elle participe à l’asservissement des esprits au politiquement correct. Il m’arrive d’évoquer le sujet dans l’intercity, entre Lausanne et Berne. Et quand la discussion dérape vers le nucléaire, mes interlocuteurs baissent la voix ou lancent des regards inquiets autour d’eux pour s’assurer que leur propos ne puissent tomber dans de mauvaises oreilles.
Le plus frappant, dans ces réactions, c’est qu’elles sont inconscientes. Si j’ai le front d’attirer leur attention sur ces attitudes de prudence, voire de crainte, mes interlocuteurs tombent des nues. Ils se mettent sur la défensive, et ils m’en veulent aussi. Ce qui est normal, tant il est discourtois de faire remarquer à autrui ce qui peut paraître comme une faiblesse. Aujourd’hui, le cas échéant, j’observe et je me tais.
Manque à gagner
L’opposition au nucléaire serait le fait de militants idéalistes et désintéressés, essentiellement préoccupés par le sort des générations futures. Telle est l’image véhiculée par les médias et magnifiée dans les discours. Il existe effectivement des antinucléaires idéalistes qui payent de leur personne pour exprimer leurs convictions, avec le désir sincère de mettre leur pierre à une société meilleure.
L’image des sympathiques barbus qui auraient amené des grands groupes mondiaux comme General Electric ou ABB à abandonner leur business nucléaire n’est donc pas entièrement fausse, mais un peu courte. Mes quelque trente années d’activité dans le domaine de l’énergie m’ont appris que la situation est un peu plus compliquée, et que le nucléaire a des opposants autrement plus redoutables.
Qui sont-ils ?
Il y a d’abord les énergies concurrentes. Chaque centrale nucléaire en activité représente pour elles un manque à gagner annuel de l’ordre de 200 millions de dollars. Quand on sait que l’économie charbonnière repose aujourd’hui presque exclusivement sur la production d’électricité, on imagine bien qu’elle n’allait pas prendre acte de l’avènement de l’atome les bras croisés.
Conclave pétrolier
Au début des années 60, quand le nucléaire civil est apparu sur la scène énergétique, les grands groupes pétroliers s’étaient naturellement concertés pour décider de ce qu’il convenait de faire. Les uns jugeaient ce domaine prometteur, estimant et qu’il fallait «y aller». Les autres considéraient cette éventualité comme trop risquée. Il n’était pas avéré que le nucléaire allait s’imposer, et son développement nécessitait des moyens qu’il valait mieux investir dans la prospection de nouveaux gisements de brut.
C’est la faction conservatrice qui l’emporta. Mais dès lors que l’on renonçait à s’y engager, la nouvelle source d’énergie devenait une concurrente qu’il s’agissait de mettre sur la touche. Et c’est ainsi que l’on vit apparaître sous leur flamboyant vernis écologique des ONG puissantes, riches et omniprésentes qui allaient mener la vie dure à l’atome dans tous les pays où il se développait.
Entendons-nous bien. Ceci n’est pas une critique de ma part. Nous vivons dans un monde de compétition, de guerre. Et en matière d’énergie, les enjeux économiques et géostratégiques sont gigantesques. Chacun défend ses positions et parts de marché sans état d’âme. Certains ont les moyens de le faire, d’autres moins.
L’humanisme de Cousteau
Un autre adversaire du nucléaire, tout aussi redoutable et puissant, est la mouvance écologique de type malthusienne, pour laquelle tous les maux de la société proviennent de la surpopulation. L’ennemi c’est l’homme, l’homme qui gaspille, qui pollue, qui consomme, qui détruit l’environnement et qui détraque le climat. Il faut donc s’opposer à tout ce qui peut favoriser le développement de l’économie physique, qui favorise à son tour la croissance démographique. Et le nucléaire, par la densité énergétique de son combustible, est le type même de technologie qui cimente le développement honni.
L’une des plus éminentes figures du malthusianisme écologique était le commandant Jacques-Yves Cousteau, comme en témoigne cet extrait d’interview parue dans la Revue de l’Unesco de novembre 1991: «Nous voulons éliminer les souffrances? L’idée est belle mais elle n’est pas tout à fait bénéfique sur le long terme. Il est à craindre que l’on ne compromette ainsi l’avenir de l’espèce. Il faut que la population mondiale se stabilise et pour cela, il faudrait éliminer 350'000 personnes par jour
». Heureusement que le grand humaniste au bonnet rouge, compte tenu de son influence, n’a pas précisé comment il fallait s’y prendre.
Autres adversaires de l’atome: les partisans des nouvelles sources renouvelables. Il est aujourd’hui acquis qu’un adepte de l’énergie solaire doit par définition s’opposer au nucléaire. Autrement dit, ces deux formes d’énergie ne peuvent que se combattre l’une l’autre. Or, cet antagonisme artificiel est totalement absurde dans la mesure où le Soleil est le siège d’une réaction thermonucléaire permanente. C’est la plus grande centrale nucléaire du système solaire. Sans la force nucléaire, il n’y aurait pas de soleil, sans soleil, il n’y aurait pas de vie.
Science honnie
Si l’on fait le compte de tous les opposants à l’atome, en y ajoutant des médias hostiles dans leur grande majorité, on peut considérer comme un miracle le fait qu’il y ait encore des réacteurs en activité dans le monde.
Cette controverse s’inscrit dans le cadre plus large du rejet du progrès scientifique. La presse évoque régulièrement les inquiétudes que suscite la société moderne. Ainsi, la preuve n’aurait pas été faite que telle substance ou technologie n’est pas dangereuse, que les champs électromagnétiques ne sont pas nocifs, que telle centrale électrique est sans effet sur l’environnement, que les OGM ne sont pas porteurs de maladies génétiques.
A entendre tous ceux qui s’inquiètent des maux de la société moderne, il faudrait cesser tout développement et multiplier les études préalables, conformément au principe de précaution érigé au rang de dogme. Une fois ces études faites, on en réclame d’autres, sans pour autant apaiser les médias et le public. Le nucléaire, la téléphonie mobile, les problèmes de toxicité (amiante), de contamination (vache folle ou grippe aviaire) en sont les exemples les plus spectaculaires.
Germes de confusion
Tout ce brouhaha crée en fin de compte plus d’inquiétude qu’il n’en apaise. Des sondages ont démontré que la majorité de la population estime que nous vivons plus dangereusement qu’il y a 50 ans, alors même qu’entre-temps, l’espérance de vie a fait un bond considérable. Nous vivons aujourd’hui mieux et plus longtemps qu’il y a un demi-siècle. Ce qui n’empêchera pas certains d’insinuer que cette longévité accrue n’est pas «normale» et qu’il conviendrait d’en étudier scientifiquement les causes et les effets.
Autre source de désinformation énergétique: les données quantitatives sont le plus souvent soigneusement évacuées du débat. On compare et on analyse dans l’absolu: mon énergie est mieux que ton énergie. Sauf à vouloir créer et entretenir la confusion, il serait bon d’introduire de temps en temps des ordres de grandeur dans les discussions pour clarifier les enjeux et procéder aux meilleurs choix possibles.
Des exemples? Selon l’Agence internationale de l’énergie, la consommation mondiale va augmenter d’au moins 60% au cours des trente prochaines années. Et les trois quarts de cette hausse seront couverts par les énergies fossiles. Kyoto ou pas, les rejets de gaz à effet de serre vont par conséquent augmenter dans des proportions considérables.
Inertie
Il y a pire. La Suisse est au bout de ses réserves d’électricité. Avec une hausse annuelle de la demande de l’ordre de 2%, nous allons manquer de courant dès ces prochaines années. L’inertie des responsables politiques et économiques face à cette situation est ahurissante quand on sait que l’électricité est le système nerveux de tout pays industriel moderne.
«Il faut faire du renouvelable», répondent les uns. Autrement dit, du photovoltaïque et de l’éolien. Ces deux sources de substitution couvrent aujourd’hui 0,05% (un demi pour mille) des besoins de la Suisse en électricité, bien que la Confédération ait investi à elle seule près d’un milliard de francs dans leur développement au cours des vingt-cinq dernières années.
Cessons de rêver. Compte tenu de l’urgence, il faut engager sans délai les démarches nécessaires pour construire de nouveaux ouvrages nucléaires. Dans l’intervalle, les projets de centrales à gaz actuellement à l’étude pourront faire l’appoint. Il n’y a pas d’alternative.
«Voilà la solution!» s’était exclamée la présidente des Verts en brandissant une lampe à faible consommation lors d’un débat télévisé consacré à l’énergie nucléaire. De son côté, l’Office fédéral de l’énergie renchérissait en affirmant que le remplacement des traditionnelles ampoules à incandescence par des lampes «froides» permettrait d’économiser la production de la centrale nucléaire de Gösgen.
Il aurait été judicieux, avant d’être aussi affirmatifs, que les collaborateurs de l’Ofen prennent leur calculette. Car que disent les chiffres?
70% de notre électricité sont destinés à l’économie. Ils font tourner les usines, entraînent les chemins de fer et alimentent les ordinateurs. En matière d’éclairage, le passage du chaud au froid est pratiquement achevé dans les entreprises. Il n’y subsiste qu’une petite part d’ampoules à incandescence, qui n’est d’ailleurs que peu sollicitée puisque les bureaux ne sont utilisés que de jour.
C’est par conséquent l’habitat privé qui est visé par un éventuel remplacement global des ampoules traditionnelles. L’éclairage des logements ne représente que 3% à 4% de la quantité globale d’électricité consommée dans le pays. Autrement dit, en remplaçant les ampoules à incandescence par des modèles à faible consommation, on réalisera une économie d’électricité annuelle de 1,8% à 2,4% seulement. Or il se trouve que la centrale de Gösgen produit 16% des besoins de la Suisse en électricité. Cherchez l’erreur!
Cette substitution lumineuse aurait un autre effet auquel personne ne semble avoir songé. Les ampoules à incandescence transformant la plus grande partie de l’électricité consommée en chaleur, elles augmentent la température des pièces de séjour de 1 à 2 degrés dès la nuit tombée selon le nombre de lampes utilisées. Et la perte de cet appoint de chaleur, clairement perceptible pour les organismes humains, conduira les occupants des lieux à pousser leur chauffage pendant la saison d’hiver. Avec pour résultat une augmentation effective des émissions de CO2.
A quoi s’ajoute le fait que la fabrication des lampes se déroule dans des pays où l’électricité provient pour une part importante de combustibles fossiles. De sorte que l’élévation des rythmes de fabrication des lampes de remplacement se traduira elle aussi par des rejets supplémentaires de gaz à effet de serre.
Il conviendrait aussi de procéder préalablement à une évaluation des effets de cette substitution en matière de rendement énergétique. Car les lampes froides sont des objets de haute technologie qui comprennent des métaux et autres matériaux rares, dont la fabrication exige de grandes quantités d’électricité. Il n’est pas exclu que ces lampes soient usées avant d’avoir restitué sous forme de lumière l’électricité investie dans leur fabrication.
Dernier aspect, et non des moindres pour tous ceux qui se préoccupent d’écologie: comment va-t-on gérer l’élimination dans un laps de temps réduit de 40 à 50 millions d’ampoules à incandescence, faites de verre, de gaz et autres matériaux toxiques, sans dommage pour l’environnement? Il subsiste à ce propos de nombreuses questions en suspens.
Tout effort d’économie est le bienvenu. On sera néanmoins bien avisé de procéder à un véritable bilan énergétique et écologique de l’élimination des lampes à incandescence avant de prendre des décisions contraignantes et irréversibles.
Auteur: Jean-Pierre Bommer / article paru dans le quotidien 24 HEURES du 25 avril 2007
Mal connue, mal définie, peu habitée, pas vraiment en concurrence pour être la première destination de vacances, l’Arctique, réchauffement climatique aidant, pourrait devenir le nouvel eldorado énergétique. Il abriterait près du quart des réserves mondiales en hydrocarbures, un pactole que certains pays entendent «sécuriser» au moyen d’armes nucléaires.
Si le coût de l’exploitation de pétrole et de gaz dans l’Arctique reste élevé, le réchauffement climatique, qui y augmente deux fois plus vite que dans le reste du monde, devrait permettre une bonne maîtrise des coûts, en particulier si le prix du baril se maintient à ses niveaux actuels.
L’Arctique peut être découpé en trois zones. La première englobe les terres à l’intérieur du cercle arctique. La deuxième délimite les régions trop inhospitalières pour permettre aux arbres de pousser. La troisième, finalement, fait référence à la température, qui peut atteindre des pointes maximales de 10° C en juillet, le mois le plus chaud dans cette zone immense.
Car il faut bien parler d’immensité: un sixième de la superficie terrestre, soit 30 millions de kilomètres carrés, qui s’étend sur vingt-quatre fuseaux horaires. Cette énorme surface n’abrite cependant que 5 millions d’habitants qui représentent une trentaine de peuplades parlant autant de langues différentes. Bien que l’ensemble de l’Arctique recouvre un formidable potentiel en termes d’énergie et de matières premières, l’activité économique se concentre aujourd’hui dans deux pays: les Etats-Unis, avec l’Alaska, et la Russie.
Le quart des réserves mondiales
L’arctique russe bénéficie de la plus vaste superficie de plate-forme continentale au monde. Selon certaines estimations, 25% des réserves mondiales en hydrocarbures y seraient concentrées, soit 136 milliard de tonnes d’équivalent pétrole. Les réserves de gaz de la mer de Barents totaliseraient 10 000 milliards de mètres cube de gaz, celles de Timan-Pechora 600 milliard de mètres cubes et 1,5 milliard de tonnes de pétrole, celles de la République de Komi 520 million de tonnes d’équivalent pétrole.
L’Etat russe, qui contrôle la majeure partie des ressources pétrolières et gazières du pays, s’est fixé comme objectif à l’horizon 2020 que 25% de la production de pétrole et 33% de la production de gaz proviennent de l’Arctique. Il dispose dans cette partie du monde de nombreuses infrastructures: les ports de Saint Pétersbourg, Murmansk et Kaliningrad, ainsi que des facilités de chargement en hydrocarbures sur la côte balte. Il y possède aussi de multiples infrastructures militaires, en particulier la flotte du Nord, basée à Severomosk, près de Murmansk, avec des ports à Kola, Motovskiy, Gremikha et Ura Guba. Cette flotte regroupe deux tiers des sous-marins nucléaires du pays et une grande partie de sa force de frappe.
Les gisements les plus prometteurs sont les trois projets sur l’île de Sakhalin, ceux des mers de Pechora, de la Baltique, de Barents et d’Okhotsk, auxquels s’ajoute le site de Shtokman, à 550 kilomètres au nord de Murmansk, dans la mer de Barents. Il est bien positionné pour servir la côte Est des Etats-Unis. Il s’agit du plus grand réservoir offshore de gaz au monde et Gazprom devrait l’exploiter à partir de 120 puits.
Pactole canadien
Entreprise d’Etat, Gazprom est à la recherche d’un partenaire avec une participation minoritaire à hauteur de 100 milliards de dollars. Les groupes américains Chevron et Conoco Phillips, les Norvégiens Norsk Hydro et Statoil, ainsi que le français Total ont manifesté leur intérêt. Plusieurs sources donnent Total favori, car il offrirait à Gazprom la possibilité tant recherchée de s’intégrer en aval par le biais d’une participation dans un terminal de gaz liquide en Louisiane.
Le gisement de Sakhalin 1 fait l’objet d’une exploitation commerciale depuis 2001. Ses réserves exploitables sont estimées à 2,3 milliards de barils de pétrole et 485 milliards de mètres cubes de gaz. Le groupe Exxon Neftgaz en est l’opérateur. Shell et Gazprom sont les opérateurs conjoints de Sakhalin 2, qui présente une capacité annuelle d’extraction de 9,6 millions de tonnes de gaz liquide naturel. Sakhalin 3, 4, 5 et 6 sont en cours d’évaluation, tout comme plusieurs projets dans les mers de Pechora, de la Baltique, de Barents et d’Okhotsk.
L’Arctique nord-américain présente lui aussi un vaste potentiel. Les gisements canadiens les plus prometteurs se trouvent dans le Delta du Mackenzie. On y a identifié trois champs d’une capacité globale de 6000 milliards de mètres cubes de gaz. Il reste à construire un oléoduc pour les évacuer. BP Amoco, très impliqué en Alaska, développe les gisements Northstar et Liberty, dont le potentiel est estimé à près de 6 milliards de barils de pétrole.
L’Arctique européen abrite lui aussi un beau trésor énergétique. Le groupe norvégien Statoil produit du gaz à partir du gisement de Snow White, à Hammerfest. Il abriterait 160 milliards de mètres cubes. La société italienne ENI produit pour sa part du pétrole à partir du champ de Goliat, dont les réserves sont estimées à 250 millions de barils. Leur exploitation se fera par un système sous-marin relié à une station terrestre qui télécommandera l’unité de production.
Sécuriser les routes maritimes
L’extraction des réserves est une chose, leur transport vers les consommateurs en est une autre. Le projet ARCOP de l’Union européenne propose des solutions pour acheminer le pétrole par la route maritime du Nord qui contourne la Russie, ce qui permettrait d’alimenter le vieux continent avec le produit de l’extraction des mers de Pechora et de Kara. Encore faudra-t-il préalablement sécuriser la route maritime du Nord, qui n’est actuellement utilisée que par la flotte russe.
Le gouvernement conservateur, après sa victoire aux dernières élections, s’est aussitôt engagé à construire des brise-glaces armés et des ports. Il est vraisemblable que les Canadiens ne répèteront pas l’erreur cuisante de 1997, lorsqu’ils on vendu au citoyen américain Pat Broe le port désaffecté de Churchill, au Manitoba, pour 10 dollars canadiens. On estime aujourd’hui la valeur du trafic annuel de marchandise susceptible d’y passer en 2020 à 100 millions de dollars.
Contrairement à l’Antarctique, aucun traité international ne couvre les activités dans l’Arctique. Or plusieurs pays y ont des prétentions: le Canada, le Danemark, la Finlande, l’Islande, la Norvège, la Russie, la Suède et les Etats-Unis. Les traités internationaux autorisent les Etats à émettre des prétentions sur les fonds marins à 350 miles de leur côte, qui est déterminée par la limite de leur plate-forme continentale.
Manoeuvres nucléaires
Or, à ce jour, aucun pays n’a fourni la preuve que sa plate-forme continentale lui permettait de revendiquer l’ensemble des réserves du Pôle. Tant que cela ne sera pas fait, la zone neutre autour du pôle restera administrée par l’Autorité Internationale des fonds marins. En mars 2006, l’Etat-major de la marine russe a annoncé qu’elle étudiait la possibilité de faire garder les gisements par des sous-marins nucléaires équipés d’ogives, nucléaires elles aussi. Le Canada, quand à lui, a dévoilé un plan de défense du passage du nord-ouest d’un coût de 5 milliards de dollars.
L’Arctique offre un terrain de manuvres pour les sous-marins et pour les bombardiers porteurs d’ogives nucléaires, tant pour les Russes que pour les Américains, raison pour laquelle ces derniers et leurs alliés canadiens ont mis en place le système d’alerte «North Warning System». L’Etat-major américain a évoqué dans un «livre blanc» sa stratégie de destruction des missiles balistiques russes dans l’Arctique si un conflit conventionnel venait à éclater en Europe. Le Canada, lui, a laissé entendre qu’il était soucieux de ne pas être attiré dans un conflit par une administration américaine à la gâchette facile.
Dans une période de raidissement des positions des uns et des autres, avec pour enjeu la valorisation d’un immense pactole énergétique, les tensions autour de la propriété des réserves de l’Arctique pourraient exercer rapidement une influence majeure sur la géopolitique mondiale.
Des pays du Golfe à la Namibie
Au moment de son réveil dans les pays industriels, l’atome fait d’autres envieux. Coup sur coup, l’Egypte, l’Algérie, le Maroc, des Etats du Golfe, et même la Namibie, annoncent leur intention de se lancer dans le nucléaire civil.
Confrontés au défi du développement, certains gouvernements ont parfaitement identifié les avantages de l’atome pour assurer un approvisionnement performant et stable en électricité. Mais s’ils veulent se donner une chance d’accéder au nucléaire civil, ces pays doivent se rendre insoupçonnables en termes de prolifération.
L’exemple de l’Iran est là pour rappeler que toute ambition dans ce domaine passe par un préavis favorable des Etats-Unis et par l’intégration d’un éventuel programme de développement dans le cadre strict et balisé de l’Agence internationale de l’énergie atomique (AEIA). L’Egypte et l’Algérie, entre autres, ont engagé des discussions bilatérales avec Washington. Avec des résultats positifs: «Nous sommes sur le point de signer un accord de coopération dans le domaine du nucléaire civil», vient de confirmer l’ambassadeur des Etats-Unis à Alger, Robert S. Ford, au quotidien La Tribune.
Trois pôles africains
L’Algérie dispose de deux réacteurs nucléaires expérimentaux en activité depuis 1995. Ils sont placés sous le contrôle de l’AIEA, qui les inspecte régulièrement. Alger ne cesse d’affirmer sa volonté d’instaurer une totale transparence autour de son programme de recherche nucléaire, en privilégiant une coopération multilatérale. Au mois de janvier dernier, la ville accueillait une conférence régionale africaine sur l’atome, organisée à l’enseigne de «La science et la technologie au service du développement». A cette occasion, le président Abdelaziz Bouteflika a plaidé pour l’accès des pays africains aux technologies nucléaire civiles.
De fait, trois pôles de développement pourraient se constituer en Afrique: l’Algérie au nord, au sud la République sud-africaine pays le plus avancé grâce à son programme de réacteurs à haute température et l’Egypte à l’Est. «Nous encourageons ce pays à aller de l'avant dans son programme nucléaire civil», vient de confirmer Robert Joseph, secrétaire adjoint du département d'Etat américain pour le contrôle des armements et la sécurité internationale, dans un communiqué à l'issue d'une rencontre avec le ministre égyptien des Affaires étrangères, Ahmed Aboul Gheit.
Nous devons penser à l’avenir
Cette rencontre faisait suite à l’annonce par le président Hosni Moubarak, en septembre 2006, que son pays poursuivrait ses recherches en matière de nucléaire civil. «Nous avons le droit d'utiliser cette ressource à des fins pacifiques pour satisfaire la demande croissante en énergie», déclarait de son côté
Ahmed Zewali, prix Nobel de chimie 1999, cité jeudi par l'agence de presse Mena.
Cette ambition égyptienne désormais clairement affirmée a fait tache d’huile plus à l’Est: «Les pays arabes du golfe Persique prévoient d’engager en 2009 leur propre programme nucléaire», vient de déclarer le ministre de l'Energie et de l'Industrie du Qatar, Abdullah ben Hamad Al Attiyah. «Tôt ou tard, le pétrole et le gaz vont s’épuiser et nous devons penser à l’avenir», a-t-il ajouté.
Une fois approuvé par les gouvernements concernés, ce projet de développement commun sera conduit dans le cadre du Conseil de coopération du Golfe (CCG), qui regroupe l'Arabie Saoudite, les Emirats arabes unis, le Koweït, le Qatar, Bahreïn et le Sultanat d'Oman. Quelle que soit l’orientation donnée aux futures recherches, elle n’inclura pas l’enrichissement de l’uranium. C’est ce qu’a tenu à rappeler le secrétaire général du CCG, Abdullah Al Attiyah, soucieux de se démarquer d’emblée du modèle iranien.
Site marocain
Le 19 mars dernier, quatre experts de la compagnie étatique russe Atomstroyexport arrivaient au Maroc pour rencontrer des représentants de l’Office national de l’énergie (ONE). Au cur des discussions figurait, selon le quotidien espagnol El Pais, le projet de construction de la première centrale électrique nucléaire marocaine à Sidi Boulbra. Auparavant, le ministre chérifien de l’Energie, Mohamed Boutaleb, avait confirmé les ambitions atomiques de son pays, en précisant qu’il n’entendait pas se cantonner à la seule énergie: «Nous encourageons le recours aux technologies nucléaires dans des secteurs vitaux, comme la médecine, l’agriculture, l’hydrologie et la recherche scientifique».
Atomstroyexport est le maître d’uvre russe des accords intergouvernementaux sur la construction d’ouvrages nucléaires à l’étranger. Cette société supervise sept réacteurs en cours de construction en Chine, en Inde, en Iran et en Bulgarie. Elle poursuit des négociations avec d’autres pays, tels le Kazakhstan et la Turquie. Le site d’implantation étant identifié, une première centrale marocaine pourrait entrer en service vers 2016.
«Puisque nous avons le combustible, pourquoi ne pas en profiter pour exploiter nos propres centrales?» Une question que se posent également les dirigeants de la Namibie, qui vient d’inaugurer la deuxième mine d’uranium sur son territoire. «Nous allons explorer la possibilité d’utiliser une partie de ce combustible pour générer de l’électricité», confirmait le président Hifikepunye Pohamba. La Namibie contribue à hauteur de 7% à la production mondiale d'uranium. La mise en service de cette seconde mine lui permettra de porter sa participation à 10% d’ici la fin de 2007.
Auteur: Jean-Pierre Bommer / Source : Forum nucléaire suisse / mai 2007
Comment éviter la grande crise de l’eau?
Le climat? L’énergie? De sacrés défis. Mais c’est dans le domaine de l’eau potable que se joue, surtout, l’avenir de l’humanité. Au moment où les réserves souterraines tendent à s’épuiser, le dessalement de l’eau de mer pourrait rapidement s’avérer indispensable. Une solution irréaliste à grande échelle sans le recours intensif à la force nucléaire.
Les nappes phréatiques sont la principale source d’eau potable pour plus de trois milliards de d’individus. A quoi s’ajoute le fait qu’une part importante des ressources alimentaires de nombreux pays repose sur l’irrigation à partir de ces réserves souterraines. Or ces dernières tendent à s’épuiser. Depuis le milieu du siècle passé, l’homme les utilise à un rythme supérieur à leur capacité de régénération naturelle.
L’eau douce représente 3% des réserves mondiales, soit l’équivalent de 35 millions de kilomètres cubes. Un pactole a priori confortable. Mais plus des deux tiers de ce pactole sont retenus dans les calottes polaires, les glaciers et des aquifères inaccessibles. De fait, près de 40'000 kilomètres cubes d’eau douce sont disponibles sur une base annuelle. Ces réserves sont inégalement réparties. Une dizaine de pays s’en partagent 60%, tandis que plusieurs dizaines d’autres, principalement en Afrique et au Proche-Orient, subissent des pénuries chroniques.
Maturité industrielle
Près d’un milliard et demi d’êtres humains n’ont pas accès à l’eau potable. Cette carence est l’une des principales causes de sous-développement endémique. Elle pourrait aussi devenir à terme une nouvelle source de tensions politiques et de guerres. C’est dire l’intérêt que présente toute possibilité d’accroître les capacités de production d’eau douce.
Une solution prometteuse existe déjà. Grâce aux technologies de dessalement, les régions côtières pourront être durablement approvisionnées. Et une partie importante des 13 millions de mètres cubes d’eau salée ou saumâtre souterraine pourra être valorisée pour l’alimentation des régions enclavées au coeur des grandes masses continentales.
Le dessalement est arrivé à maturité industrielle. La distillation et l’osmose inverse sont les procédés les plus fréquemment utilisés. La distillation consiste à évaporer l’eau de mer par rayonnement solaire ou en chaudière. Libérée des sels et des autres substances volatiles, la vapeur est condensée, puis récupérée.
L’osmose inverse nécessite quant à elle de traiter dans un premier temps l’eau de mer en la filtrant pour la débarrasser des éléments en suspension et des micro-organismes qu’elle contient. On applique ensuite à l’eau épurée une pression suffisante pour la faire passer à travers une membrane semi-perméable qui retient les sels.
Hors de prix
L’inconvénient majeur de ces systèmes réside dans les besoins élevés en énergie, soit de 6 à 15 kilowattheures d’électricité par mètre cube d’eau selon la méthode utilisée. La capacité mondiale de dessalement atteint actuellement un peu moins de 40 millions de mètres cubes par jour, avec 12'000 unités de production, dont la moitié se situent au Proche-Orient. Les pays du Golfe ont déjà investi plus de 100 milliards de dollars dans la construction et l’exploitation d’usines de dessalement.
Le coût de production moyen de ces ouvrages, qui utilisent des agents fossiles comme énergie primaire, est de l’ordre de 1 à 2 dollars par mètre cube d’eau. Ce niveau de prix reste prohibitif pour un dessalement à grande échelle dans les pays en développement. Une réduction d’un facteur 5 à 10 suppose un recours à des énergies moins onéreuses, et moins polluantes par la même occasion.
Le nucléaire pourrait s’imposer rapidement comme une source de dessalement majeure. Des expériences menées dans plusieurs régions du monde l’ont d’ores et déjà démontré. Un réacteur à neutrons rapides de 135 mégawatts a fonctionné pendant vingt-sept ans à Aktau (Kazakhstan), produisant simultanément de l’électricité et 80'000 mètres cubes d’eau potable par jour. Au Japon, une dizaine de petites stations de dessalement sont couplées à des réacteurs à eau pressurisée.
Eau lourde pour eau douce
Le développement de réacteurs destinés au dessalement fait l’objet de programmes en Russie et en Chine également. La centrale russe à eau bouillante VK-300 et le réacteur à haute température chinois NHR-200sont conçus pour la production simultanée d’électricité et d’eau douce, avec la possibilité d’alimenter des réseaux de chauffage à distance.
Dans ces systèmes, la distillation devrait s’imposer comme méthode de dessalement. Une fois en activité, les unités VK-300 fourniront près de 3 milliards de kilowattheures par année et 300'000 mètres cubes d’eau douce par jour. Le premier NHR-200 chinois devrait entrer en service au cours de 2007, avec une production quotidienne de 160'000 mètres cubes d’eau.
Un autre projet consiste à coupler le réacteur à eau lourde Candu 6 à des unités de dessalement développées par le groupe canadien Candesal, qui est à l’origine d’un concept de préchauffage de l’eau salée avant son traitement par osmose inverse. Cette société travaille aussi avec des partenaires russes à la mise au point d’un système de dessalement nucléaire flottant. Il permettra d’alimenter des pays en énergie et en eau sans qu’il soit nécessaire d’engager de lourds investissements en infrastructures terrestres.
On utilisera à cet effet un système inspiré des brise-glaces nucléaires russes. Un ouvrage flottant de 70 mégawatts thermiques permettra de produire en distillation ou osmose inverse près de 80'000 mètres cubes d’eau douce par jour, en plus d’un demi-milliard de kilowattheures d’électricité par an. Le port de Severodvinsk, au nord de la Sibérie, pourrait accueillir la première usine flottante d’ici à 2010. Plusieurs pays, tels la Chine ou l’Indonésie, ont d’ores et déjà exprimé leur intérêt pour ce type de centrale.
Outre les avantages en termes de suppression de pollution et de gaz à effet de serre, le dessalement nucléaire présente des atouts économiques considérables. Etant donné que ces ouvrages fourniront simultanément de très grandes quantités d’électricité, le coût effectif de la production d’eau douce restera négligeable en comparaison des installations alimentées en combustibles fossiles.
Première en République sud-africaine
La République sud-africaine va donner une forte poussée à l’avènement d’ouvrages nucléaires de quatrième génération. Elle s’apprête à construire un réacteur pilote à haute température, basé sur une technologie développée puis abandonnée dans les années 80 aux Etats-Unis et en Europe.
«Une technologie robuste, simple, sûre, parfaitement adaptée à l’Afrique et aux pays en développement»: c’est ainsi que le ministre sud-africain des Entreprises publiques, Alec Erwin, décrit le PBMR (Pebble Bed Modular Reactor), dit «à lit de boulets». Cette installation est la continuation d’un long développement entamé dès les années 50, lorsque le physicien allemand Rudolf Schulten préconisa la création d’une source d’énergie nucléaire «intrinsèquement sûre» capable de fournir tout à la fois de l’électricité abondante et bon marché et des hautes températures pour procédés industriels.
Une des clés de cette technologie réside dans l’encapsulation de petites quantités (des grains) de combustible dans des céramiques capables de supporter de hautes températures, de sorte que les produits de fission restent confinés à l’emplacement même de leur création. Ce concept a été testé et validé pendant plus de vingt années avec un réacteur expérimental de 30 mégawatts exploité au centre de recherche nucléaire allemand de Jülich.
La Suisse aussi
Les réacteurs à haute température (HTR) avaient suscité de grands espoirs au siècle passé déjà. Des prototypes ont fonctionné dans les années 70 et 80 aux Etats-Unis (Peach Bottom et Fort St. Vrain), en Allemagne (Jülich) et en Grande-Bretagne (réacteur Dragon), avec d’excellents résultats, même si des avaries mécaniques et, surtout, des pressions politiques, ont entraîné l’arrêt des premiers prototypes de grandes tailles aux Etats-Unis et en Allemagne. Un abandon qui s’explique aussi par l’expansion rapide des réacteurs à eau légère.
Entre-temps, l’évolution des techniques, notamment dans la métallurgie, dans les paliers secs à gaz et les matériaux réfractaires, a remis en selle la réaction à haute température. La société General Atomics, alliée à un consortium japonais, français et russe, travaille sur un HTR «tout hélium» de 300 mégawatts. Ce réacteur aux éléments combustibles compacts prismatiques fonctionne selon le cycle de Brayton. L’hélium chaud se détend dans une turbine à gaz couplée à un compresseur, qui le renvoie dans le cur.
A l’échelle internationale, c’est le modèle allemand qui a suscité le plus grand intérêt. Ainsi, des travaux de recherche sur des réacteurs de type PBMR ont été conduits entre 1990 et 1995 à l’Institut de recherche suisse Paul Scherrer (PSI). On y a notamment mesuré les caractéristiques neutroniques des boulets de combustible. Ces derniers furent finalement envoyés en Chine, qui poursuit elle aussi activement le développement de cette technologie. Le PSI participe aujourd’hui à un projet de recherche sur les matériaux destinés aux réacteurs à haute température.
Reconversion africaine
Mais c’est bien en Afrique que se construira le premier projet pilote de puissance, grâce à la décision de la compagnie électrique nationale Eskom, en 1980, d’étudier le potentiel de la technologie allemande. Le tournant se produisit en 1994, lorsque le pays abandonna son programme nucléaire militaire et redéploya les personnels et les ressources vers le projet PBMR.
Ce projet suscita une remarquable coopération internationale, avec le japonais Mitsubishi Heavy Industries, qui fournira les systèmes de turbines à hélium pour la production d’électricité par cycle direct, ainsi que British Nuclear Fuels/Westinghouse et des entreprises canadiennes et allemandes. L’objectif est de développer des modules de petites puissances, de l’ordre de 165 mégawatts électriques, conformes aux besoins des pays en développement.
Ce faisant, l’Afrique du Sud a décidé de devenir un centre mondial d’excellence nucléaire, comme l’a souligné Alec Erwin. Son pays mettra l’exportation de modules nucléaires standardisés au cur d’une stratégie visant à devenir un fournisseur majeur de biens d’équipements. Au moins douze pays ont d’ores et déjà manifesté leur intérêt pour l’acquisition de cette technologie.
Applications multi-énergies
Le réacteur pilote devrait être achevé en 2011. Les premières unités commerciales pourraient suivre à partir de 2014, avec un rythme de production annuelle de six unités. Plusieurs installations de test ont été mises en place: pour la fabrication du combustible, pour la production d’hélium et pour l’échangeur de chaleur. Après le lancement du programme, ces équipements offriront leurs services aux opérateurs de tout pays désireux d’utiliser des PBMR.
Lors d’une conférence internationale à Londres, en janvier 2006, le directeur des programmes américains de la société PBMR, Wilhelm Kriel, livra une vision enthousiaste de ce réacteur comme source de chaleur à haute température. Parmi les applications industrielles possibles figurent la production à grande échelle d’hydrogène, de méthane synthétique et d’autres combustibles liquides et gazeux à partir du charbon, ainsi que de la chaleur pour les industries chimiques et la récupération de pétroles lourds. «Grâce au PBMR, dit-il, l’énergie nucléaire s’est finalement libérée des menottes qui la forçaient à ne produire que de l’électricité!»
La haute température est-elle contagieuse? Toujours est-il que l’on assiste à un regain d’intérêt pour elle aux Etats-Unis également. En février 2006, le groupe General Atomics et l’Université du Texas ont signé un accord pour la construction d’un réacteur expérimental de 10 à 25 mégawatts. Appelé HT3R (Heater), cet ouvrage devrait être opérationnel en 2012. Au lieu de boulets, le combustible sera enfermé dans des barres.
Le HT3R présente une grande importance nationale et internationale. Il permettra de former les futurs ingénieurs aux équipements nucléaires, de tester de nouveaux matériaux et technologies et de mener des études de faisabilité sur l’utilisation des hautes températures pour la production d’hydrogène ou de désalinisation de l’eau.
Auteur: Jean-Pierre Bommer / Source : Forum nucléaire suisse / mai 2007
Que s’est-il réellement passé à Tchernobyl?
Un réacteur sans enceinte de protection réelle, une équipe de techniciens débarquée de Moscou qui procède à des tests au mépris de toutes les règles de sécurité, vingt années de rumeurs contradictoires sur les effets sanitaires de l’accident: que s’est-il passé, ce 26 avril 1986 à Tchernobyl.
La tranche 4 de la centrale de Tchernobyl est un réacteur RBMK de 1000 mégawatts, en service depuis 1983. Le cur abrite 1681 tubes de force enfermant le combustible, soit 190 tonnes d’oxyde d’uranium enrichi, et un empilement de graphite comme modérateur, le tout refroidi par une circulation d’eau sous pression.
C’est lors d’une expérimentation ordonnée par des techniciens venus de Moscou que tout s’est déclenché. Programmé lors d'un arrêt de routine de la tranche pour maintenance, les 25 et 26 avril, cet essai devait permettre d’évaluer le fonctionnement d'un nouveau système de refroidissement de secours du cur du réacteur.
Voici le rappel de l’engrenage fatal, marqué par une succession ahurissante d’erreurs humaines:
- 25 avril, 13h00: le réacteur est ramené à mi-puissance sur demande du centre de distribution électrique pour préparer l'essai;
- 23h00: la réduction de puissance est amplifiée. Des barres de contrôle sont extraites du cur. La puissance tombe à 30 MW. Cette chute de réactivité a pour effet de déstabiliser le réacteur;
- 26 avril, 1h15: en violation de toutes les procédures de sécurité, les opérateurs décident de poursuivre l'essai et bloquent les signaux d'arrêt d'urgence. Dès lors, c’est la réaction en chaîne:
- 1h23 et 4 secondes: les vannes d'admission de la turbine sont fermées, au mépris des procédures d’urgence. La pression de vapeur s’emballe;
- 1h23 et 21 secondes: les barres de régulation descendent automatiquement, trop tard;
- 1h23 et 40 secondes: le chef opérateur ordonne l'arrêt d'urgence. Toutes les barres de contrôle sont descendues dans le cur, mais en vain;
- 1h23 et 44 secondes: le pic de puissance est atteint.
Dans le cur, les crayons de combustible se fragmentent. Les pastilles d'oxyde d'uranium, surchauffées, explosent et provoquent une déflagration qui soulève la dalle supérieure du réacteur, d'un poids de 2000 tonnes. Le cur est désormais à ciel ouvert. Le graphite prend feu. Trente foyers s'allument.
Les débris de combustible et de structure du réacteur sont projetés dans les environs de la centrale. Les poussières, les aérosols et les gaz sont entraînés par les masses d’air jusqu’à 10 000 mètres d’altitude et dérivent au gré des vents au-dessus d’une majeure partie de l’Europe. Ce sont au total près de 12 exabecquerels (exa= milliard de milliard) qui, en 10 jours, sont partis dans l'environnement, soit 30 000 fois l'ensemble des rejets d'aérosols des installations nucléaires dans le monde en une année.
Le bilan sanitaire
Près de 4000 personnes pourraient finalement décéder des suites d'une radio-exposition consécutive à l'accident, même si, à ce jour, une quarantaine de morts seulement lui ont été directement attribués. Ces chiffres figurent dans un rapport intitulé «Chernobyl’s Legacy: Health, Environmental and Socio-Economic Impacts» (L'héritage de Tchernobyl: impacts sanitaires, environnementaux et socio-économiques).
Ce rapport résume une étude multidisciplinaire de 600 pages qui recense les travaux d’une centaine de scientifiques, d'économistes et de spécialistes de la santé. Il est publié par un forum composé de huit institutions spécialisées des Nations Unies: l’Agence internationale de l'énergie atomique (AIEA), l’Organisation mondiale de la santé (OMS), les programmes des Nations Unies pour le développement (PNUD), pour l'alimentation et l'agriculture (FAO) et pour l’environnement (PNUE), le Bureau de la coordination des affaires humanitaires (OCHA), le Comité scientifique des Nations Unies pour l’étude des effets des rayonnements ionisants (UNSCEAR), la Banque mondiale, ainsi que les gouvernements du Bélarus, de la Russie et de l'Ukraine.
«Cette compilation des recherches les plus récentes répond aux questions que l'on continuait à se poser sur le nombre de décès et de maladies imputables à l'accident de Tchernobyl et sur ses répercussions économiques», déclare le président du Forum Tchernobyl, Burton Bennett, éminent spécialiste des effets radiologiques.
Un millier de personnes présentes sur le site de la centrale ont été exposées à des doses de rayonnement très élevées le jour de l’accident. Selon le rapport, un peu plus de 2000 des quelques 200’000 travailleurs chargés d’éliminer les traces les plus visibles de l’accident en 1986 et 1987 pourraient encore décéder des suites d’une radio-exposition.
Rassurant
Quelque 4000 cas de cancer de la thyroïde, essentiellement chez des enfants et des adolescents au moment de l'accident, sont imputables à la contamination résultant de l'accident, avec 9 décès avérés. Le taux de survie parmi les patients atteints de ce type de cancer atteint presque 99%.
La plupart des habitants des zones contaminées ont reçu des doses relativement faibles, comparables aux niveaux du fond de rayonnement naturel. Aucune indication ni probabilité d’une diminution de la fertilité parmi les populations touchées, ni aucune indication d’une augmentation des malformations congénitales pouvant être attribuées à une radio-exposition n’ont été établies.
Telles sont les principales conclusions sanitaires de l’étude du Forum Tchernobyl. On est loin des centaines de milliers, voire des millions de victimes régulièrement invoquées par des organisations antinucléaires. Cet accident n’en est pas moins une catastrophe au sens réel du terme pour les centaines de milliers d’habitants des zones les plus touchées, traumatisés par la crainte d’avoir été irradiés ou par le déracinement qu’ils ont subi.
Toute relance durable de l’énergie nucléaire passera immanquablement par la démonstration préalable qu’un second Tchernobyl est inconcevable dans les installations nucléaires modernes. Or l’autre catastrophe atomique civile, en 1979 à Three Mile Island, devrait paradoxalement rassurer les plus sceptiques: la fonte du coeur, le pire accident qu’on puisse imaginer, n’a en aucun moment mis en danger les hommes et l’environnement. Parce que le réacteur était équipé d’enceintes d’acier et d’un dôme de béton qui n’existaient pas à Tchernobyl.
|