|
|
|
|
 |
|
L'ESSENTIEL SUR... Les déchets radioactifs |
|
|
|
|
|
L'ESSENTIEL SUR...
Les déchets radioactifs
Publié le 27 janvier 2015
On appelle déchet radioactif toute matière radioactive qui ne peut plus être ni recyclée ni réutilisée. Du fait de leur radiotoxicité, potentiellement dangereuse pour l’homme et pour l’environnement, les déchets radioactifs sont gérés de façon spécifique. Cette gestion est encadrée par la Loi. 90 % des déchets radioactifs (en volume), produits en France, disposent déjà d’une filière de gestion en stockage ultime. Les déchets de haute activité et de moyenne activité à vie longue (HA et MA-VL) n’ont pas encore de filières définitives de stockage. Ils sont conditionnés et entreposés par leurs producteurs, dans l’attente d’un site de stockage définitif.
DÉCHETS RADIOACTIFS : DÉFINITION
Les déchets radioactifs sont d’une grande diversité : éléments issus des combustibles usés des centrales nucléaires et des activités Défense pour la force de dissuasion, matériaux issus du démantèlement d'installations nucléaires, éléments radioactifs à usage industriel (techniques de contrôle de fabrication, stérilisation) ou médical (imagerie, radiothérapie), éléments issus de la recherche nucléaire…
En France, les déchets radioactifs sont classés selon deux critères :
* Leur durée de vie, calculée en fonction de la « période radioactive » des radioéléments contenus : la période est le temps au bout duquel la quantité d’un même radionucléide est divisée par deux. Elle varie, selon les radionucléides, de quelques jours à plusieurs milliers d’années. On parle de déchets à vie courte (VC), quand la période est inférieure à 31 ans, et de déchets à vie longue (VL) au-delà.
*
* Leur niveau de radioactivité, exprimé en becquerels : cela correspond au nombre de désintégrations d’atomes par seconde. On parle de déchets de très faible activité (TFA), faible activité (FA), moyenne activité (MA) ou haute activité (HA).
Les différentes catégories de déchets radioactifs
En fonction de ces deux critères, il existe 5 catégories de déchets radioactifs :
* Les déchets de très faible activité (TFA) issus principalement du démantèlement des installations nucléaires : gravats, bétons, ferrailles. Leur radioactivité décroit de manière significative en une dizaine d'années. Ils représentent 27% du volume des déchets radioactifs produits en France et contiennent moins de 0,01% de la radioactivité de l’ensemble des déchets.
* Les déchets de faible et moyenne activité à vie courte (FMA-VC) : il s'agit essentiellement des déchets liés à la maintenance des installations nucléaires. Une partie provient aussi des hôpitaux ou des laboratoires de recherche. Ce sont des objets contaminés comme des gants, des filtres, des résines… Leur radioactivité décroit de manière significative en 300 ans environ. Les déchets FMA-VC constituent 63% du volume des déchets radioactifs, pour 0,02% de leur radioactivité.
*
* Les déchets de faible activité à vie longue (FA-VL) : cette catégorie couvre les déchets radifères (contenant du radium) provenant de minéraux utilisés dans certaines industries et les déchets de graphite issus du démantèlement des réacteurs nucléaires de 1ère génération. Les déchets FA-VL constituent 7% du volume des déchets radioactifs, pour 0,01% de leur radioactivité.
* Les déchets de moyenne activité à vie longue (MA-VL), issus du traitement des combustibles usés des centrales nucléaires : structures qui entourent les combustibles usés (coques et embouts) et effluents liquides issus du procédé de retraitement. Les déchets MA-VL constituent 3% du volume des déchets radioactifs, pour 4% de leur radioactivité.
* Les déchets de haute activité à vie longue (HA-VL) correspondent aux déchets issus du traitement des combustibles nucléaires usés : ils contiennent les « produits de fission » et les « actinides mineurs » formés par les réactions nucléaires dans le combustible lors de son séjour en réacteur. Leur durée de vie peut s'étendre sur plusieurs milliers, voire plusieurs millions d'années. Ils ne représentent que 0,2% du volume des déchets radioactifs mais 96% de la radioactivité totale des déchets radioactifs en France.
ENJEU :
ASSURER UNE GESTION DURABLE
DES DÉCHETS RADIOACTIFS
Les déchets radioactifs contiennent des radionucléides potentiellement dangereux pour l’homme et pour l’environnement. Ils doivent donc être gérés de manière spécifique tout au long de leur durée de nuisance potentielle : inventaire et collecte des déchets radioactifs, conditionnement adaptés, solutions de stockage sûres et pérennes.
Juridiquement, les grands principes de gestion des déchets radioactifs sont indiqués par la loi du 28 juin 2006 relative à la gestion durable des matières et déchets radioactifs.
Ces principes sont les suivants :
* protection de la santé des personnes et de l’environnement ;
* réduction de la quantité et de la nocivité des déchets radioactifs ;
* prévention ou limitation des charges supportées par les générations futures ;
* principe pollueur-payeur qui prévaut en droit de l’environnement.
L'Agence nationale pour la gestion des déchets radioactifs (Andra) est l’organisme chargé de trouver, mettre en œuvre et garantir des solutions de gestion sûres pour l’ensemble des déchets radioactifs français.
Renouvelé tous les 3 ans, le plan national pour la gestion des matières et des déchets radioactifs (PNGMDR) constitue l’outil privilégié pour mettre en œuvre ces principes. Par ailleurs, tous les 3 ans, un inventaire complet des matières et des déchets radioactifs est réalisé et publié par l’Andra.
Aujourd’hui, 90 % des déchets nucléaires (en volume) produits en France disposent déjà d’une filière de gestion en stockage ultime. L’Andra dispose de centres dédiés de stockage et peut ainsi les gérer de façon industrielle : les déchets de très faible activité (TFA) sont stockés sur le site de Morvilliers (Aube), les déchets de faible et moyenne activité à vie courte (FMA-VC) sont stockés en surface sur le centre de Soulaines (dans l’Aube également).
Pour les déchets FA-VL, une démarche de recherche de site de stockage est conduite par l’Andra depuis 2008. En attendant la création d'un centre pouvant les accueillir, les déchets FA-VL sont entreposés dans des installations spécifiques, le plus souvent sur le lieu même où ils sont produits.
Enfin, les déchets de haute activité (HA) et de moyenne activité à vie longue (MA-VL) n’ont pas non plus de filière définitive de stockage. Dans l’attente d’un site de stockage définitif, ils sont conditionnés et entreposés dans des installations ad hoc par leurs producteurs, principalement à La Hague (Manche), Marcoule (Gard), Cadarache (Bouches-du-Rhône) et Valduc (Côte-d’Or). À terme, ils devraient être stockés sous terre, dans des formations géologiques de grande profondeur. C’est le projet Cigéo (Centre industriel de stockage géologique pour les déchets) de l’Andra, qui fait l’objet d’un débat public durant l’année 2013.
LES RECHERCHES SCIENTIFIQUES
SUR LES DÉCHETS RADIOACTIFS
La gestion des déchets radioactifs s’inscrit dans une démarche de progrès continu. Elle fait donc l’objet de programmes de R&D importants depuis la fin des années 1950, le but étant de minimiser la quantité de déchets, de concentrer la radioactivité et de garantir le confinement dans des conditions sûres.
Les déchets HA et MA-VL font l’objet de programmes de recherches particuliers dont les grandes orientations sont fixées par la loi du 28 juin 2006.
Cette loi définit trois axes de recherche et d’études complémentaires :
* La séparation/transmutation des actinides mineurs, sous la responsabilité du CEA : il s’agit d’isoler puis de transformer les éléments les plus radiotoxiques en les « transmutant » en d’autres éléments moins radiotoxiques et à vie plus courte. Ces recherches sont menées par le CEA en lien avec celles menées sur les réacteurs nucléaires à neutrons rapides de 4ème génération, capables de réaliser la transmutation. Le CEA a coordonné les travaux de recherche menés par les établissements publics (Andra, CEA, CNRS, Universités) et leurs partenaires industriels (Areva, EDF) afin d’évaluer les perspectives industrielles des technologies étudiées. Un dossier sur le résultat de ces travaux a été remis au gouvernement fin 2012.
Le stockage en formation géologique profonde (projet Cigéo en Meuse / Haute-Marne), sous la responsabilité de l’Andra : le stockage des déchets de haute et moyenne activité à vie longue en formation géologique profonde est retenu par la loi comme solution de référence. Cet axe de recherche correspond au projet Cigéo de l’Andra. Dans le domaine de la R&D, le CEA y contribue avec des études notamment sur le comportement à long terme des colis de déchets en milieu géologique profond et sur la migration des radionucléides dans les couches géologiques.
Le 3ème axe d’étude porte sur l’entreposage des déchets radioactifs HA et MA-VL en attente d’une solution de gestion définitive. Il est aussi confié à l’Andra. Le CEA a contribué à des études de conception de ces installations d’entreposage.
DOCUMENT cea LIEN |
|
|
|
|
 |
|
Les noyaux des atomes |
|
|
|
|
|
Les noyaux des atomes
Publié le 3 novembre 2016
La conception que se font les physiciens des noyaux des atomes et de la physique qui les gouverne a fortement évolué depuis le début du XXème siècle. On les classe sur un diagramme en fonction de leur nombre de protons et de neutrons appelé charte des noyaux. Dans ce diagramme, la « vallée de la stabilité » délimite la zone des noyaux existants.
A L’INTÉRIEUR DE L’ATOME
L’atome est le constituant de base de la matière. Dans le noyau de l’atome se trouvent les protons (chargés positivement) et les neutrons (non chargés), tandis que les électrons (chargés négativement) sont localisés autour du noyau.
Son nombre de protons ou numéro atomique est noté Z. L’atome étant neutre, il comporte autant d’électrons que de protons. Ainsi le numéro atomique détermine les propriétés chimiques de l’atome.
A chaque valeur de Z correspond un nom d’atome, un élément chimique. Ainsi l’hydrogène possède 1 proton, tandis que le carbone en possède 6.
Le nombre de neutrons au sein du noyau est désigné N. Le nombre de masse A est la somme de Z+N. Pour un atome de Z donné, on peut compter plusieurs isotopes, en fonction du nombre de neutrons.
DES NOYAUX DANS TOUS LEURS ÉTATS
Un noyau d’atome est dit :
* lié lorsque la cohésion des protons et des neutrons est assurée. Plus leur énergie de cohésion est élevée, plus il faudra fournir d’énergie pour séparer les constituants du noyau. Les noyaux liés peuvent être stables ou instables.
* stable lorsqu’il ne se désintègre pas spontanément en un autre noyau. La majorité des noyaux que l’on trouve sur Terre sont stables.
* instable ou radioactif lorsqu’il tend à se transformer spontanément en un autre noyau. On appelle cette transformation « désintégration radioactive ». La probabilité que cet événement survienne dépend de sa période radioactive, qui correspond au temps au bout duquel la moitié d’un ensemble de noyaux de même nature s’est désintégrée.
* excité lorsque, stable ou instable, il a acquis un surplus d’énergie. Le noyau peut vibrer ou tourner sur lui même et /ou dissiper cette énergie excédentaire par émission d’une particule ou d’un photon.
DES NOYAUX EN FORME
Dès les origines de la physique nucléaire, devant la complexité d'un système composé de N particules en interaction, les physiciens imaginent des modèles visant à donner une description simple mais suffisamment réaliste du noyau. Depuis les années 60 les physiciens constatent que le noyau des atomes peut prendre les formes les plus inattendues. La forme d’un noyau correspond à la zone dans laquelle ses constituants élémentaires peuvent se trouver. Ces constituants élémentaires sont les protons et les neutrons, qu’on nomme ensemble les nucléons, liés par l’interaction forte, l’une des quatre forces fondamentales à l’œuvre dans l’Univers. Ils sont eux-mêmes composés de quarks et de gluons (également soumis à l’interaction forte).
Jusqu’au 19e siècle, l’atome est considéré comme la brique de base de la matière, indivisible. A partir du 20e siècle, la physique permet aux scientifiques de rentrer dans l’intimité de l’atome.
Voici les principales phases de la transformation de notre vision du noyau :
* 1911-1919 : On voit l’atome comme un noyau composé de protons chargés positivement autour duquel gravitent les électrons ;
* 1932 : Le noyau compte aussi des neutrons ;
* 1934 : Synthèse d’un atome artificiel. C’est le premier noyau exotique. Casse tête des physiciens tant leurs propriétés sont variées (forme, mode de désintégration radioactive, composition, durée de vie tellement courte que la notion même d’existence semble dépassée…), les noyaux exotiques continuent d’être étudiés aujourd’hui : il en resterait, selon les modèles théoriques, 3 000 à 5 000 à découvrir.
* Années 40 : Certaines combinaisons particulières de protons et de neutrons entraînent des noyaux ayant une énergie de liaison très élevée. Les physiciens les appellent les noyaux magiques. C’est le cas pour les noyaux qui comptent 2, 8, 20, 28, 50, 82 ou 126 protons et/ou neutrons. A la même époque, le noyau peut être décrit macroscopiquement comme une goutte de matière. C’est le modèle de la goutte liquide qui permet de calculer l’énergie de liaison du noyau grâce à une seule équation simple.
* Années 50 : On pense que les nucléons sont organisés en niveaux d’énergies qu’on appelle couches nucléaires, similaires à celles des électrons autour du noyau. C’est le modèle en couches : chaque couche a un nombre fini d’emplacements, lorsqu’une couche est totalement remplie et qu’aucune n’est remplie partiellement, l’édifice est particulièrement robuste.
* Années 70 : La théorie du champ moyen considère que chaque nucléon se déplace dans un puits de potentiel, généré par l’ensemble des autres nucléons, qui le confine dans le noyau.
* Années 80 : les noyaux ne sont plus vus comme un mélange homogène et plus ou moins sphérique. Ils sont imaginés comme des structures très variées : ainsi le carbone 12, atome stable, porté à haute énergie, est vu comme un tripode de trois noyaux d’hélium ; Le lithium 11 fait partie d’une nouvelle famille de noyaux dits noyaux à halo : son extension spatiale est similaire à celle du plomb 208, qui comporte pourtant vingt fois plus de nucléons.
* Années 90 : A quelques encablures de la vallée de la stabilité, la théorie prévoit l’existence d’une série de noyaux comportant plus de 110 protons dont la durée de vie serait relativement élevée. Les scientifiques parlent de l’îlot de stabilité des noyaux super-lourds. Cette relative stabilité des noyaux super-lourds va à l’encontre de la force de répulsion coulombienne qui tend à faire se disloquer un édifice composé d’un trop grand nombre de charges de même signe.
* Années 2000 : Avec la montée en puissance des grands accélérateurs de faisceaux radioactifs (Spiral au Ganil, RIBF à Riken…) de nombreux nouveaux isotopes radioactifs sont découverts et étudiés.
* Aujourd’hui, tous les éléments jusqu’à 118 protons ont été synthétisés. Les quatre derniers découverts (113, 115, 117 et 118 protons) ont été officiellement nommés en 2016. De nouveaux instruments sont en développement pour aller encore plus loin. Les noyaux exotiques très riches en neutrons produits lors des explosions de supernovae sont encore hors de notre portée. On est encore très loin d’avoir découvert tous les noyaux existants et les phénomènes surprenants qu’ils pourraient faire apparaître !
LA VALLÉE DE LA STABILITÉ
Lorsqu’on classe les noyaux connus des atomes en fonction de leur nombre de protons (Z, éléments) et de neutrons (N, isotopes), on obtient un ensemble de données en forme de faisceau. Si on ajoute la valeur de l’énergie de liaison de chaque noyau sous la forme d’un histogramme, on obtient un graphe en trois dimensions qui présente une surprenante vallée au fond de laquelle se trouvent les 250 à 300 atomes stables. Plus on s’éloigne de ces noyaux, plus l’énergie de liaison de nucléons dans le noyau est faible. Les atomes radioactifs subissent une série de transformations qui les ramène toujours vers le fond de ladite vallée. Les chercheurs désignent cette figure par le terme imagé de « vallée de la stabilité ».
D’OU VIENNENT LES NOYAUX :
LA NUCLÉOSYNTHÈSE DANS LES ÉTOILES
Les éléments qui constituent la matière sont apparus à différentes étapes de l’histoire de l’univers. Les atomes les plus légers sont les plus anciens : hydrogène, hélium, lithium et béryllium ont été formés par assemblage de protons et de neutrons dans les trois minutes suivant le Big Bang. Il y a entre douze et quinze milliards d’années. Les autres éléments, plus lourds, sont plus récents et ont été produits dans les étoiles. Les premiers atomes compris entre le carbone et le fer ont été synthétisés lors de la fin de vie d’étoiles près de dix fois plus massives que notre Soleil. Au delà du cobalt, les noyaux sont synthétisés lors de réactions explosives telles que les supernovas. On ne connaît pas encore précisément tous les processus responsables de la création des atomes dans l’Univers.
DOCUMENT cea LIEN |
|
|
|
|
 |
|
LE GIEC |
|
|
|
|
|
L'ESSENTIEL SUR...
Le GIEC
Publié le 23 novembre 2018
Le GIEC, Groupe d’experts intergouvernemental sur l’évolution du climat, a pour mission d’évaluer de la façon la plus précise et complète possible les informations internationales scientifiques, techniques et socio-économiques sur l’évolution du climat. Le point sur sa création, ses missions, son fonctionnement...
SA CRÉATION ET SES MISSIONS
En 1988, l’Organisation météorologique mondiale (OMM) et le Programme des Nations unies pour l’environnement (PNUE) créent le Groupe d’experts intergouvernemental sur l’évolution du climat (le GIEC) ayant pour mandat d’évaluer de façon impartiale les informations internationales scientifiques, techniques et socio-économiques sur l’évolution du climat. Le GIEC a rendu son premier rapport en 1990. Depuis, de manière régulière, environ tous les 5-6 ans, le GIEC délivre des rapports d’évaluation qui tiennent lieu de référence pour les scientifiques et les décideurs du monde entier.
Le GIEC est organisé en trois groupes de travail, chacun mobilisant des centaines de spécialistes.
* Le Groupe I fait le point sur l’état de la recherche scientifique dans le domaine de l’évolution du climat. En pratique, le groupe I évalue l’ensemble des données de l’évolution observée du climat ainsi que sa modélisation pour le XXe et XXIe siècle.
* Le Groupe II traite des impacts des changements climatiques sur différents secteurs (eau, écosystèmes, agriculture, santé…) et des possibilités de s’y adapter.
* Enfin, le Groupe III examine les moyens de réduction des gaz à effet de serre et d’atténuation du changement climatique en général. À ces trois groupes principaux s’ajoutent des groupes de travail spécifiques, pour les inventaires nationaux d’émissions des gaz à effet de serre ou certains sujets techniques (séquestration du carbone, transport aérien, couche d’ozone…).
*
Un rapport de synthèse qui résume les contributions des groupes I, II et III est également rédigé par le GIEC.
UN FONCTIONNEMENT UNIQUE
EN SON GENRE
Le fonctionnement du GIEC s’appuie sur une base scientifique, mais il passe également par une interaction entre scientifiques et responsables gouvernementaux.
Typiquement, un cycle du GIEC se déroule comme suit. Les délégués gouvernementaux décident en séance plénière de la réalisation d’un rapport, de sa structure générale (nombre de groupes), des présidents du GIEC et de ses groupes, ainsi que de son échéance. Les présidents des groupes réunissent des experts scientifiques lors de quelques réunions de réflexions (scoping meetings) afin de définir une trame générale du rapport. Des auteurs de chapitres sont alors choisis parmi la communauté scientifique internationale. Ces auteurs vont ensuite se réunir tous les six mois pendant deux ans afin de rédiger le rapport. Les versions intermédiaires du rapport (drafts) sont mises à la disposition de la communauté scientifique pour relecture. La dernière version du rapport ainsi que le résumé à l’intention des décideurs qui fait une quinzaine de pages sont relus par la communauté scientifique à nouveau, mais également par les représentants gouvernementaux des différents États membres du GIEC.
Finalement, le résumé à l’intention des décideurs est soumis à l’approbation des gouvernements en séance plénière. Cette assemblée est composée des représentants des États, de représentants observateurs d’organisations non gouvernementales, et des deux scientifiques coprésidents du groupe de travail du GIEC, entourés de leurs auteurs principaux. Pendant une semaine, parfois jour et nuit, le document est discuté ligne par ligne jusqu’à accord à l’unanimité. C’est lors de cette épreuve que l’on parle de consensus entre les scientifiques et les gouvernements. Depuis la création du GIEC, tous les rapports ont été adoptés en séance plénière par l’ensemble des 192 pays représentés dans l’assemblée du GIEC.
CONSENSUS ET TRANSPARENCE
Cette approche par consensus a parfois été critiquée par les “climatosceptiques”, c’est-à-dire ceux qui mettent en doute la réalité du changement climatique ou de son origine, à savoir l’activité humaine. Leur argument est le suivant : en science, il n’y a pas de consensus, il n’y a pas de pensée unique ; au contraire, il y a un débat d’idées permanent et une perpétuelle remise en question des acquis. C’est tout à fait exact, et les travaux du GIEC s’inscrivent pleinement dans cette définition.
Pendant deux ans, les coprésidents de chaque groupe, entourés de leurs auteurs, recensent l’ensemble de la connaissance dans le domaine. Ils le font dans une transparence totale. Non seulement les textes sont mis sur le Web, mais également les remarques des nombreux rapporteurs et les réponses des auteurs à ces remarques. Les incertitudes et les controverses non résolues sont clairement présentées dans les volumineux rapports. Seul le résumé pour les décideurs, qui fait une quinzaine de pages, est discuté lors des assemblées plénières. L’objectif de cette séance plénière est de produire un document, le résumé pour les décideurs, qui ait à la fois l’aval des scientifiques qui l’ont préparé et celui des États membres qui vont le cosigner. Le texte se doit donc d’être dans un langage compréhensible et sans ambiguïté pour les non-scientifiques.
UN CINQUIÈME RAPPORT D’ÉVALUATION POUR 2013-2014
La force du GIEC réside, d’une part, dans ses rapports longs qui sont une source précieuse d’informations pour la communauté scientifique et, d’autre part, dans le rapport pour les décideurs qui, de par son processus d’approbation en séance plénière, engage pleinement les États membres. Les gouvernements ne peuvent plus prétendre ne pas avoir l’information pertinente ; ils l’ont approuvée. L’action politique nécessaire à la limitation du changement climatique est donc entre leurs mains. C’est cette double approche qui a valu auxmembres du GIEC de se voir décerner le prix Nobel de la Paix en 2007 “pour leur effort pour rassembler et disséminer la connaissance du changement climatique anthropique et pour établir les fondations pour les mesures qui sont nécessaires pour le contrecarrer”.
De fait, le premier rapport, publié en 1990, a conduit l’Assemblée générale des Nations unies à élaborer une convention-cadre sur les changements climatiques, entrée en vigueur en 1994.
Le deuxième rapport, sorti en 1995, a fourni les éléments de base aux négociations du protocole de Kyoto (1), dans le cadre de la convention.
Le troisièmerapport, paru en 2001, a confirmé la responsabilité humaine dans le réchauffement constaté au cours de la seconde moitié du XXe siècle. Il prévoit notamment une aggravation du phénomène conduisant à un réchauffement moyen global de plusieurs degrés entre 1990 et 2100.
Les conclusions du quatrième rapport ont été rendues publiques en 2007, avant la conférence des parties de Bali (Indonésie).
Lors de la session du GIEC, qui s’est déroulée en Hongrie à Budapest en avril 2008, il a été décidé de préparer un cinquième rapport. À Stockholm, en Suède, le 27 septembre 2013, les membres du Giec ont adopté le premier volet de leur 5e rapport, consacré aux « éléments physiques du climat ». Sa rédaction a impliqué des scientifiques auteurs du monde entier, parmi lesquels 17 français dont 8 chercheurs du Laboratoire des sciences du climat et de l’environnement (LSCE Institut Pierre Simon Laplace - CEA/CNRS/UVSQ). Une étude qui confirme et précise l’ampleur du changement climatique provoqué par l’accumulation des gaz à effet de serre.
Les deux autres volets sur les impacts, vulnérabilités et adaptation et sur l’atténuation du changement climatique ont été publiés début 2014.
COP21/CMP11
Du 30 novembre au 11 décembre 2015, la France a accueilli et présidé la 21e Conférence des parties de la Convention-cadre des Nations unies sur les changements climatiques de 2015 : COP21/CMP11. Cet événement a rassemblé près de 40 000 participants, avec 195 pays représentés.
La COP21 a abouti à un accord universel, ambitieux, à valeur juridique, avec des mécanismes de révision tous les 5 ans, dans l'optique d'accélérer les efforts pour limiter les rejets de gaz à effet de serre et la transition vers des sociétés et des économies sobres en carbone.
UN SIXIÈME RAPPORT D’ÉVALUATION DU GIEC 2016 - 2022
Le Groupe d’experts intergouvernemental sur l’évolution du climat (GIEC) a entamé son 6e cycle d’évaluation. Au cours de ce cycle, le groupe d’experts produira trois rapports spéciaux, un raffinement du rapport méthodologique pour les inventaires nationaux d’émission de gaz à effet et son 6e rapport d’évaluation (AR6) prévu pour avril 2022.
Les scientifiques du Laboratoire des sciences du climat et de l’environnement (Institut Pierre Simon Laplace - CEA/CNRS/UVSQ) sont très impliqués dans la préparation du rapport AR6 du GIEC.
* Pour en savoir plus : https://www.ipcc.ch/pdf/ar6_material/AC6_brochure_fr.pdf
.[1] Protocole de Kyoto: un des trois traités internationaux sur lesquels repose la gouvernance internationale sur le climat. Il propose un calendrier de réduction des émissions des six gaz à effet de serre considérés comme la principale cause du réchauffement climatique des cinquante dernières années.
DOCUMENT cea LIEN |
|
|
|
|
 |
|
les supercalculateurs |
|
|
|
|
|
les supercalculateurs
Publié le 29 mai 2017
Un supercalculateur est un très grand ordinateur, réunissant plusieurs dizaines de milliers de processeurs, et capable de réaliser un très grand nombre d’opérations de calcul ou de traitement de données simultanées. Les superordinateurs sont utilisés par les scientifiques et les industriels pour concevoir de nouveaux systèmes et objets (moteurs, avions, voitures), des matériaux ou des médicaments ; simuler des phénomènes physiques complexes (séismes, formation des étoiles, galaxies ou même Univers entier…) ; réaliser des prévisions (météorologie, climat) ; ou réaliser virtuellement des expériences difficilement réalisables en laboratoire.
COMMENT FONCTIONNE
UN SUPERCALCULATEUR ?
Dans les années 1930, les ordinateurs – ou calculateurs – effectuaient une opération par seconde. Aujourd’hui, les supercalculateurs les plus puissants réalisent des dizaines de millions de milliards d’opérations par seconde.
De tels progrès ont été possibles grâce à la miniaturisation des processeurs et des mémoires mais aussi grâce à une organisation particulière de ces calculateurs et de leur environnement à différentes échelles.
UN FONCTIONNEMENT EN « GRAPPE »
Pour réaliser autant d’opérations simultanées, les supercalculateurs effectuent les calculs « en parallèle », c’est-à-dire en les répartissant sur différents processeurs. Ceux-ci sont organisés en « grappe » de « nœuds de calcul », connectés par un réseau ultrarapide. Les nœuds de calcul mettent en commun leurs mémoires pour former une mémoire « distribuée » de très grande taille, et sont reliés à des espaces de stockage de plus grande taille encore. L’architecture détaillée des nœuds de calcul est également devenue un élément déterminant pour optimiser leur fonctionnement.
Les performances d’un supercalculateur décrivent ses capacités à exécuter des calculs mais aussi à traiter de très grands volumes de données. A ce niveau, on parle de « calcul haute performance » (ou « HPC », pour High Performance Computing en anglais) et la vitesse de traitement des opérations s’exprime principalement en Flops (Floating Point Operations Per Second, opération de base pour du calcul numérique, soit addition ou multiplication décimale).
LES SUPERCALCULATEURS :
DES CAPACITÉS DE STOCKAGE GIGANTESQUES
Physiquement, les supercalculateurs sont constitués de nombreuses armoires (baies), reliées entre elles par des kilomètres de câble réseau (interconnexion ultra-rapide des nœuds de calcul) et regroupées dans des centres de calcul. Un centre de calcul comprend aussi de gigantesques capacités de stockage local de données auxquelles les ordinateurs doivent pouvoir accéder rapidement (dizaines de « petaoctets », contrepartie des dizaines de « petaflops » de puissance de calcul).
Comme ces machines sont de plus en plus puissantes et denses, leur consommation électrique devient très importante et dégage énormément de chaleur – tant dans les processeurs que dans les mémoires et réseaux de communication. Il faut donc mettre en place un système de refroidissement efficace et lui-même le moins énergivore possible - par exemple par circulation d’eau dans les portes des armoires ou dans les nœuds de calcul - ainsi qu’une climatisation dans la salle machine. Bien optimisés, ces systèmes de refroidissement consomment une fraction minoritaire de la consommation électrique globale, l’essentiel de l’énergie apportée au centre de calcul peut alors servir directement aux calculs et traitements de données et les coûts de fonctionnement sont mieux maîtrisés
LES SUPERCALCULATEURS, DES OUTILS ESSENTIELS POUR LA MODÉLISATION ET L’ANALYSE DES DONNÉES AU PROFIT DE LA SCIENCE ET DE L’INDUSTRIE
Grâce aux progrès des supercalculateurs, la simulation numérique – calculs permettant de représenter un phénomène physique ou complexe sur un ordinateur – s’est généralisée à toutes les disciplines au point de devenir le « troisième pilier » de la méthode scientifique, aux côtés de la théorie et de l’expérimentation.
La simulation numérique permet de mener des « expériences virtuelles » qui remplacent ou complètent les expérimentations lorsque celles-ci sont dangereuses (accidents, crash tests), à des échelles de temps trop longues ou trop courtes (climatologie, physique atomique), à des échelles de taille trop petites ou trop grandes (protéines, astrophysique) ou encore interdites (essais nucléaires)…
Depuis quelques années le calcul intensif, producteur de masses de données de plus en plus importantes, devient également un maillon indispensable du traitement des « mégadonnées » d’autres origines (expériences, observations, réseaux de capteurs, Internet…). Les techniques et méthodes du calcul haute performance (HPC) se retrouvent ainsi au cœur de processus mêlant production et analyse de données, modélisation numérique, techniques statistiques et d’apprentissage, intelligence artificielle...
Véritable fer de lance de ces approches, le HPC est la déclinaison la plus avancée à un moment donné de traitements parallèles qui se retrouvent souvent employés ou diffusés largement, à plus petite échelle et à terme, dans tous les secteurs de l’informatique.
LES DIFFÉRENTES ÉTAPES
D’UNE SIMULATION NUMÉRIQUE
Les différentes étapes d’une simulation numérique
Prenons l’exemple d’un chercheur ou d’une équipe de recherche recourant au HPC. Les moyens de calcul sont fournis par des centres de calcul régionaux, nationaux ou encore internationaux. L’accès à ces ressources se fait souvent via des dossiers de demande préparés à l’avance, parfois soumis à des processus de sélection compétitifs.
L’activité complète de modélisation/simulation comporte plusieurs étapes :
* Décrire la réalité : les phénomènes physiques sont souvent complexes. Pour les représenter, les physiciens prennent en compte de nombreuses lois physiques, par exemple celles qui régissent les relations entre la vitesse, la température et la pression dans un fluide.
*
* Modélisation : Les lois physiques sont traduites en équations mathématiques, faisant intervenir l’ensemble des paramètres pertinents.
*
* Résolution numérique et programmation : les équations mathématiques, trop complexes pour être calculées humainement, doivent être traitées par un ordinateur. Comme celui-ci ne peut les résoudre en tous points et de manière continue, les mathématiciens les scindent en plus petits intervalles. Les équations sont calculées pour chacun des points et des instants pertinents. L’enchaînement des calculs à réaliser s’appelle un algorithme. En général, en simulation numérique, il s’agit au final de nombreuses additions et multiplications traduisant l’évolution des quantités physiques. Pour que l’ordinateur puisse exécuter l’algorithme, celui-ci est converti en langage informatique par les informaticiens.
*
* Validation : les trois étapes précédentes produisent un logiciel de calcul dont il faut assurer la mise au point « physique » (on parle de validation) et pas uniquement « informatique » (ici on parle de vérification). Il s’agit de délimiter la justesse physique des résultats pour certains domaines dans lesquels on peut se fier au logiciel. La comparaison avec des expériences ou résultats déjà connus est un ingrédient de la validation. De plus en plus, on recherche aussi l’estimation des incertitudes ou des sensibilités des calculs vis-à-vis de leurs paramètres. A défaut de réduire totalement les erreurs ou incertitudes, leur encadrement est apprécié.
*
* Ces quatre étapes ne sont pas nécessairement reproduites à chaque étude. L’effort de mise au point d’un environnement de simulation (logiciel de calcul et tous les outils complémentaires tels que la visualisation des résultats) se fait en amont soit par une équipe de recherche ou un groupement d’équipes, parfois par des sociétés logicielles spécialisées, et il est amorti sur des durées parfois très longues – années voire décennies.
*
* 5. Exécution de simulations : grâce aux moyens de plus en plus performants mis à leur disposition par les spécialistes concevant les supercalculateurs et les centres de calcul, les physiciens et ingénieurs lancent leurs simulations numériques. Puis les résultats sont conservés dans des espaces de stockage de grande capacité, conçus pour un accès performant et pérenne. Les utilisateurs peuvent en général visualiser leurs données sur leur poste de travail de façon interactive, parfois directement connectés au système de stockage du centre de calcul - les masses de données concernées par le post-traitement peuvent en effet excéder les capacités locales de recopie ou les capacités de débit du réseau entre site de calcul et laboratoire.
Les enjeux de la simulation numérique
La simulation numérique a pour objectifs :
* De comprendre et faire progresser la science, dans tous les domaines ;
* De concevoir : dans l’industrie, la simulation numérique permet de réduire le nombre de tests nécessaires au développement des produits, et donc le coût et la durée des étapes de recherche, développement, et conception. Ainsi, elle améliore la productivité, la compétitivité et la capacité d’innovation des entreprises dans tous les secteurs : aéronautique, cosmétique, bâtiment…
* D’agir et décider : dans le domaine de la sécurité vis-à-vis des risques naturels ou industriels, de la santé, de l’environnement, de la prévision climatique..., la simulation numérique permet de répondre à des enjeux sociétaux.
DOCUMENT cea LIEN
|
|
|
|
|
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 ] Précédente - Suivante |
|
|
|
|
|
|