|
|
|
|
 |
|
LA FUSION PAR LASER |
|
|
|
|
|
La fusion par laser a le vent en poupe
un mythe pour le xxie siècle: la fusion nucléaire - par Denis Pesme dans mensuel n°299 daté juin 1997 à la page 67 (3391 mots) | Gratuit
Faire imploser avec des lasers ou des particules accélérées une minuscule capsule remplie de deutérium et de tritium, telle est l'idée à la base de la fusion par confinement inertiel. Le procédé étant directement hérité de celui de la bombe H, les travaux ont été longtemps soumis au secret militaire. A l'initiative des Américains, le voile commence à se lever. Deux gros projets destinés à entretenir le stock d'armes nucléaires, le NIF aux États-Unis et le Laser Mégajoule en France, devraient doper la recherche civile.
Le projet de la filière dite du confinement inertiel consiste non pas vraiment à confiner mais à faire imploser violemment le mélange deutérium-tritium D-T par l'action d'un rayonnement intense. Sous l'effet de sa propre inertie, la densité et la tempéra-ture du mélange D-T atteignent, durant quelques milliardièmes de seconde, les valeurs requises pour que s'amorcent les réactions de fusion.
Le principe inertiel est voisin de celui à l'oeuvre dans la bombe dite H, mise au point par les Américains en 1952 en 1968 par la FranceI. Dans une bombe H, l'explosion d'une bombe A déclenche un rayonnement X qui entraîne la réaction de fusion. La difficulté pour produire de l'énergie est d'engendrer la réaction à petite échelle et de façon contrôlée.
L'idée de base est d'utiliser la lumière laser comme allumette. Les propriétés des rayons laser - cohérence, longueur d'onde bien définie, brièveté d'émission - permettent de focaliser l'énergie lumineuse dans des volumes très petits et de porter la matière à des températures et des pressions très élevées. Le mélange D-T est enfermé dans une minuscule capsule de moins d'un millimètre de diamètre, un « microballon », qu'on irradie ensuite au moyen de puissantes impulsions laser. Ce principe fut exposé pour la première fois publiquement en 1972 par des physiciens américains du laboratoire de Lawrence Livermore1. A cette époque, il était fondé sur le schéma dit de l'attaque directe, selon lequel le microballon est irradié uniformément par de nombreux faisceaux laser.
Les recherches, y compris en France, ont rapidement révélé une propriété remarquable des plasmas denses et chauds ainsi créés : ils émettent naturellement dans le domaine des rayons X et, si la longueur d'onde du laser et l'élément irradié sont bien choisis, l'efficacité de conversion en rayonnement X de l'énergie laser incidente peut dépasser 70 %. Cette propriété a ouvert la voie à un second schéma, l'« attaque indirecte ». Selon ce concept, les faisceaux laser sont dirigés non sur le microballon, mais vers l'intérieur d'une cavité où on les enferme. En frappant les parois internes, la quasi- totalité de leur énergie se transforme en un rayonnement X qui provoque l'implosion du microballon fig. 1. Le critère de Lawson qui précise les conditions nécessaires à l'ignition thermonucléaire est, initialement, formulé en termes de densité, température et durée de confinement du combustible voir p. 60. Dans le cas du confinement inertiel, pour un mélange D-T et une température de 10 keV soit une centaine de millions de degrés, on montre que le critère de Lawson se ramène à la condition rR > 0,2 g/cm2, où r est la densité du combustible en g/cm3 et R le rayon du microballon, en centimètre. Cette inégalité n'est cependant pas suffisante pour produire efficacement de l'énergie : les calculs montrent que pour obtenir un gain rapport entre l'énergie libérée et l'énergie investie dans la source d'au moins 10, rR doit dépasser 3 g/cm2.
A ce stade, on pourrait penser qu'il suffirait d'utiliser des cibles de taille assez grande pour que les inégalités précédentes soient satisfaites. Ainsi, sachant que la densité du mélange D-T vaut 0,2 g/cm3, une capsule de rayon 1 cm permettrait a priori d'atteindre le critère de Lawson. Cependant, la source de rayonnement qui aurait à chauffer à 10 keV une si grosse cible devrait fournir une énergie de l'ordre de 1 000 mégajoules en un temps très court : irréalisable, car cette valeur est environ mille fois plus élevée que celle délivrée par les instruments les plus performants. C'est pourquoi il est nécessaire de faire intervenir deux ingrédients supplémentaires essentiels, la compression de la cible et la formation d'un point chaud.
Des bilans assez simples montrent en effet qu'en comprimant fortement la cible l'énergie à fournir initialement peut rester raisonnable quelques mégajoules. Les taux de compression requis sont compris entre 1 000 et 10 000 fois la densité du mélange D-T solide. Quant à la formation d'un point chaud, l'idée est de ne porter à la température d'ignition qu'une petite partie du combustible quelques pour-cent.
Par ailleurs, l'énergie nécessaire pour chauffer le mélange D-T à la tempéra-ture d'ignition doit être déposée très rapidement, en une dizaine de nanosecondes 1 ns = 1 milliardième de seconde. Les seules sources capables de délivrer des énergies de l'ordre du mégajoule sur des durées aussi brèves sont les rayons laser, ou bien les faisceaux de particules accélérées ions lourds en particulier.
Comment réaliser l'implosion du mélange D-T ? En attaque directe, le microballon est illuminé directement par les faisceaux laser. L'intérêt de ce schéma réside dans l'efficacité élevée du transfert d'énergie au microballon. En contrepartie, les contraintes sur les lasers sont sévères : pour assurer une excellente uniformité de l'irradiation les défauts d'uniformité ne doivent pas dépasser quelques pour-cent, un grand nombre de faisceaux sont nécessaires, de très bonne qualité optique, et leur énergie doit être contrôlée de façon précise.
En attaque indirecte, le microballon est placé à l'intérieur d'une cavité mesurant quelques millimètres et constituée d'un matériau de numéro atomique élevé or, tungstène, etc. : la longueur d'onde X obtenue est d'autant plus courte que l'élément irradié est lourd. Les faisceaux laser irradient la paroi interne de cette cavité, y créant un plasma chaud qui rayonne intensément dans le domaine X. Par une succession de processus d'absorption et de réémissions, ce rayonnement s'uniformise et provoque l'implosion de la capsule. L'intérêt de l'attaque indirecte réside donc dans l'uniformité de l'irradiation du microballon, ce qui assure une meilleure stabilité hydrodynamique de son implosion.
Voyons à présent comment se déroule l'implosion proprement dite, que l'attaque soit directe ou indirecte. Les microballons ont un rayon de l'ordre du millimètre et sont constitués d'une coquille solide contenant un mélange D-T gazeux. La coquille est elle-même composée de deux parties. Sa partie externe, dénommée ablateur, est faite d'un matériau léger, genre plastique, dopé par un matériau lourd de forte opacité ; sa partie interne est du combustible D-T froid, à l'état solide. Sous l'effet du rayonnement intense laser ou rayons X, la couche externe de la coquille se vaporise en moins d'une picoseconde un millième de milliardième de seconde, se transformant en un plasma de plusieurs dizaines de millions de degrés. Une partie de l'énergie absorbée est convertie en énergie cinétique correspondant à la détente centrifuge du plasma. En réaction à cette détente, il s'ensuit un mouvement centripète du reste de la cible, d'où sa compression.
On obtient de cette façon des densités de mélange D-T de plusieurs centaines de grammes par cm3. L'ablateur sert donc de piston pour comprimer le microballon. Autre intérêt : il empêche les rayons X de pénétrer au centre de la cible, ce qui y induirait un « préchauffage ». Celui-ci, en limitant la compression, interdirait la formation finale d'un point chaud. Pour former un point chaud central, la méthode conventionnelle consiste à ajuster l'intensité du rayonnement en fonction du temps - au cours des quelques nanosecondes que dure l'impulsion - de manière à produire une suite continue de chocs qui parviennent au même moment au centre de la cible. Comme la vitesse de propagation de ces ondes de choc augmente avec l'intensité du rayonnement, il faut que cette intensité s'accroisse au cours du temps de façon à ce que les dernières ondes de choc rattrapent les premières.
Un nouveau concept, encore très prospectif, a été proposé en 1993 par les physiciens de Livermore pour créer le point chaud2. Il consiste à utiliser la capacité des impulsions laser ultra-intenses de pénétrer dans un plasma très dense ce dernier serait opaque aux impulsions « classi- ques », et d'accélérer ses électrons à des vitesses proches de celle de la lumière. Ces électrons très énergétiques sont ensuite capables de chauffer le plasma très dense qui les entoure. Ainsi, en focalisant une impulsion laser à très haute intensité sur un plasma préalablement comprimé à l'aide d'un rayonnement classique de forte énergie de l'ordre du mégajoule, on a l'espoir de former un petit point chaud. C'est le concept dit de l'allumeur rapide.
Quelle que soit la technique, le microballon comporte à la fin de la compression un point central très chaud et peu dense sa température devant atteindre au moins 10 keV pour rR de l'ordre de 0,3 g/cm2, entouré du combustible D-T froid et dense température < 1 keV, rR Å 3 g/cm2. L'ignition thermonucléaire initiale s'effectue dans le point chaud, et les particules a les noyaux 4He qui en émergent déposent leur énergie dans le combusti-ble froid comprimé. Lorsque toutes les valeurs requises pour la température et le produit rR seront atteintes, une onde de combustion thermonucléaire auto-entretenue sera alors engendrée, qui brûlera progressivement la totalité du D-T fig. 2. Deux catégories de mécanismes interviennent dans les expériences : les mécanismes d'interaction rayonnement-matière , qui déterminent l'efficacité et la qualité du transfert de l'énergie des faisceaux laser vers le microballon, et les mécanismes de nature hydrodynamique , dont dépend le déroulement de l'implosion du microballon. Les problèmes liés à ces deux types de mécanismes ne se posent pas de la même façon dans les schémas d'attaque indirecte et d'attaque directe. La déclassification récente des recherches sur la fusion inertielle permet de mesurer la qualité des résultats obtenus en attaque indirecte3. On sait maintenant que la conversion de l'énergie des faisceaux laser en rayonnement X est très efficace 70 à 80 %, qu'on a un bon contrôle de la symétrie de ce rayonnement X autour du microballon, et qu'il induit une pression d'ablation et une vitesse centripète de la coquille conformes aux prédictions théoriques. Reste un problème clef : le contrôle de l'interaction des faisceaux laser avec le plasma qu'ils créent par irradiation des parois internes de la cavité. En effet, cette interaction peut donner naissance à de néfastes instabilités dites paramétriques, lesquelles sont dues à un couplage résonnant entre le rayonnement laser et les ondes électrostatiques qui se propagent librement dans le plasma. Elles peuvent réduire l'absorption de la lumière laser, nuire à sa bonne uniformité, et produire des particules très rapides qui préchauffent le combustible froid et réduisent donc sa compression.
Les mécanismes hydrodynamiques sont eux aussi bien compris en attaque indirecte. L'enjeu essentiel est de limiter les instabilités qui peuvent se développer au cours de l'implosion. Elles sont de même nature que l'instabilité dite de Rayleigh-Taylor, qui se produit lorsqu'un fluide surmonte un autre fluide plus léger : la moindre perturbation renverse le système, le corps le plus dense ayant tendance à se retrouver en bas. Dans l'implosion, c'est l'accélération ou la décélération de la coquille qui joue le rôle de la gravité. On trouve ainsi que des instabilités de type Rayleigh-Taylor peuvent naître à partir des défauts initiaux du microballon, conduisant à la pollution du mélange fusible par le matériau de l'ablateur et, de là, à la perte de la symétrie sphérique ou à l'impossibilité de former un point chaud.
Dans le schéma d'attaque directe, les résultats concernant les mécanismes d'interaction laser-matière sont connus depuis longtemps, car ils n'étaient pas classifiés. Ici, l'énergie du rayonnement laser est déposée dans le plasma qui entoure le microballon et qui se détend dans le vide. Ce qui est donc en jeu, c'est la physique de l'interaction entre le laser et le plasma chaud qui entoure le microballon températures de plusieurs keV. Les objectifs recherchés sont d'une part de rendre maximale l'absorption du rayonnement laser, et d'autre part que l'énergie soit absorbée par le plasma dans son ensemble, et non concentrée dans une sous-population de ses constituants électrons en particulier.
Un premier résultat important a été la démonstration en 1979 par le LULI Laboratoire pour l'utilisation des lasers intenses, à Palaiseau, de l'amélioration du couplage rayonnement/cible grâce à l'emploi de rayonnements de courtes longueurs d'onde4. Celles-ci 0,53 mm, 0,35 mm, 0,26 mm, obtenues par doublement, triplement et quadruplement de la fréquence fondamentale 1,06 mm en longueur d'onde des lasers à verre dopé au néodyme*, assurent un excellent taux d'absorption de l'onde laser de l'ordre de 90 %, diminuent les instabilités paramétriques, et procurent des vitesses et pressions d'ablation très élevées. Ce résultat a conduit à écarter les lasers à CO2* longueur d'onde de 10,6 mm, et toutes les grandes installations laser utilisent désormais soit la conversion de fréquence avec des lasers à verre dopé au néodyme, soit des lasers KrF* ou à iode*, de faible longueur d'onde.
Les instabilités paramétriques demeurent toutefois l'un des problèmes clefs en attaque directe. En effet, même si l'emploi de courtes longueurs d'onde réduit considérablement leur développement, il est encore difficile d'extrapoler le niveau de ces instabilités dans le cas des plasmas de grande taille quelques millimètres, contre à peine 1 mm actuellement des futures expériences d'ignition et de combustion. Une des pistes étudiées pour lutter contre ces instabilités est de réduire la cohérence du laser - ce qu'on appelle le lissage optique.
L'attaque directe souffre aussi des instabilités hydrodynamiques de type Rayleigh-Taylor, qui peuvent se développer plus facilement qu'en attaque indirecte. Les défauts d'uniformité de l'illumination du microballon par les faisceaux laser, au même titre que les défauts d'homogénéité dans la coquille, servent de germe à la croissance de ces instabilités. On estime que, pour limiter leur développement, la non-uniformité du dépôt d'énergie doit rester inférieure à 1 %. En attaque directe, une telle exigence ne peut être satisfaite qu'en employant un grand nombre de faisceaux, lissés optiquement, avec un contrôle précis de l'énergie de chacun d'eux en fonction du temps.
En résumé, chacun des schémas a ses avantages et ses inconvénients. L'attaque directe a une haute efficacité de transfert de l'énergie des faisceaux laser vers le microballon, mais les difficultés évoquées ci-dessus exigent une excellente qualité d'illumination. L'attaque indirecte est plus robuste vis-à-vis des instabilités, au prix d'une plus faible efficacité du transfert de l'énergie. Au total, les résultats obtenus dans les deux schémas sont similaires et encourageants, puisque les taux de compression par rapport à la densité du solide 0,2 g/cm3 dès à présent atteints sont, en attaque directe, 600 au Gekko XII d'Osaka, et en attaque indirecte 100-200 avec l'installation Nova à Livermore et avec la machine Phébus à Limeil.
Quelles sont les perspectives ? Plusieurs laboratoires développent des projets de lasers impulsionnels de grande puissance destinés à marquer un progrès décisif vers la fusion par confinement inertiel, soit en validant des techniques, soit en faisant la démonstration de l'allumage et de la combustion du mélange deutérium-tritium. Les deux projets les plus importants sont le NIF aux Etats-Unis et le LMJ en France. Ils privilégient l'un et l'autre l'attaque indirecte. Ces deux projets liés aux activités de défense sont très similaires, le LMJ ayant toutefois, grâce à ses 240 faisceaux, une marge de manoeuvre légèrement supérieure à celle du NIF 192 faisceaux. Mais le LMJ ne sera en principe achevé que sept ans après le NIF américain voir l'encadré « Les grands projets ».
Pour spécifier les performances de ces installations, les scientifiques s'appuient sur les expériences d'implosion effectuées sur les équipements existants ainsi que sur les simulations numériques. Les Américains se réfèrent également à leur programme classifié Centurion-Halite mené sur le site du Nevada par les laboratoires de Livermore et de Los Alamos ; il a consisté à tester le schéma d'attaque indirecte en faisant imploser des cibles à l'aide du rayonnement X délivré par un engin nucléaire.
Des incertitudes scientifiques persistent cependant. Dans un diagramme puissance-énergie, le domaine où l'allumage et la combustion du D-T sont accessibles est borné par la limite de fonctionnement du laser, et par les deux limitations d'ordre physique dont nous avons parlé précédemment, les instabilités paramétriques et les instabilités hydrodynamiques.
Bien que ces deux types de mécanismes soient étudiés en profondeur avec les installations actuelles, leur comportement dans les conditions de l'ignition dimensions des cibles, durées des impulsions laser n'est extrapolable qu'avec de larges incertitudes. C'est pourquoi le dimensionnement de la chaîne laser a été conçu pour disposer d'une assez grande marge de manoeuvre. Au total, on estime que le laser devra être en mesure de délivrer de l'ordre de 1,8 mégajoule en 16 nanosecondes environ.
L'attaque directe reste une option très étudiée, en particulier aux Etats-Unis avec l'installation Omega-Upgrade de l'université de Rochester. Ce projet a débuté en 1989, le laser a été achevé en 1995 et les premières expériences ont commencé il y a quelques mois. Entre attaques directe et indirecte, les jeux ne sont donc pas encore faits.
Tous les efforts ne seront pas monopolisés par les grands projets. Etant donné la complexité de la physique des plasmas chauds, des recherches plus fondamentales ou plus prospectives, impliquant l'ensemble des spécialistes des plasmas chauds, sont encouragées parallèlement. Un exemple est toute la physique relative à l'allumeur rapide, évoqué plus haut, dans lequel on utilise une impulsion laser ultra-intense. Dans tous les cas de figure, la réalisation d'un laser fournissant l'énergie requise représente une succession de défis. Le seul candidat aujourd'hui est le laser à verre dopé au néodyme. Une architecture classique fondée sur l'amplification en ligne, comportant une série d'amplificateurs de plus en plus grands, ne peut être retenue à cause de son faible rendement. De nouvelles solutions ont été proposées pour les projets NIF et LMJ, comme la technique du multipassage où le rayon laser repasse plusieurs fois dans chaque amplificateur. Principales difficultés : la tenue des composants optiques à des flux d'énergie aussi élevés ; le développement d'effets optiques non linéaires qui peuvent altérer la propagation de l'onde et réduire l'énergie délivrée ; le lissage optique nécessaire pour irradier uniformément la cible ; enfin la conversion de fréquence pour obtenir un rayonnement de longueur d'onde 0,35 µm, valeur pour laquelle l'absorption du plasma est optimale. Mais aucun de ces problèmes n'est aujourd'hui considéré comme rédhibitoire.
L'intérêt militaire de ces projets est clair : compte tenu du traité interdisant les essais nucléaires, il s'agit de procéder à des simulations destinées à entretenir un savoir-faire. La production d'énergie civile, elle, est un objectif à long ou très long terme. Il est encore trop tôt pour en avoir une image précise, bien que de nombreuses études y aient été consacrées. Disons simplement que l'idée générale pour un futur réacteur à fusion est de reproduire des architectures similaires à celles du LMJ et du NIF, du moins pour la chambre d'implosion. Les lasers seront peut-être remplacés par des faisceaux d'ions, de meilleur rendement énergétique.
L'énergie libérée par la fusion devra être récupérée sous forme de chaleur par les enceintes, chaleur qui servira à produire de l'électricité par des moyens classiques. A un taux d'une dizaine d'implosions par seconde, l'énergie thermonucléaire dégagée devrait en principe suffire pour produire 1 gigawatt d'électricité, ce qui correspond à la puissance d'une centrale nucléaire d'aujourd'hui.
Pour les laboratoires civils, la filière de la fusion par confinement inertiel offre un avantage : il est possible d'étudier la physique de l'interaction rayonnement-plasma et de l'implosion indépendamment de la technologie des sources de rayonnement. En effet, la physique de l'interaction rayonnement-matière et de l'implosion dépend peu de la source du rayonnement, que ce dernier soit celui des faisceaux laser proprement dits ou bien celui produit par conversion de l'énergie délivrée par des faisceaux laser ou par des faisceaux d'ions accélérés. Une bonne stratégie consisterait donc à mener un programme de recherches sur les sources de rayonnement pour les futurs réacteurs, et à poursuivre simultanément les études de physique à l'aide des lasers. Ces instruments sont en effet les mieux adaptés à l'heure actuelle pour délivrer des énergies de l'ordre du mégajoule en une dizaine de nanosecondes. Pour un réacteur, les sources de rayonnement devraient avoir des caractéristiques semblables, mais avec un taux de répétition de l'ordre de 10 hertz. Les faisceaux d'ions lourds peuvent constituer une telle source potentielle, s'ils démontrent toutefois qu'ils peuvent être focalisés dans de petits volumes. Par ailleurs, les lasers pompés par diodes, caractérisés eux aussi par des rendements et des taux de conversion élevés, progressent constamment. Il est donc encore difficile de dire lequel des deux types de faisceaux sera le mieux placé pour les futurs réacteurs.
Par Denis Pesme
DOCUMENT larecherche.fr LIEN |
|
|
|
|
 |
|
NEUTRINOS - MÉTAMORPHOSE |
|
|
|
|
|
Paris, 15 juin 2011
Des neutrinos en flagrant délit de métamorphose
Pour la première fois, les physiciens de l'expérience T2K au Japon, parmi lesquels ceux du CNRS (1) et du CEA/Irfu, annoncent avoir très probablement détecté une transformation de neutrinos muons en neutrinos électrons. L'observation - probable à plus de 99% - de ce phénomène constituerait une découverte majeure pour la compréhension de la physique des particules élémentaires et ouvrirait la voie à de nouvelles études sur l'asymétrie entre la matière et l'antimatière.
Les neutrinos existent sous trois formes ou « saveurs » : les neutrinos électrons, muons et tau. L'expérience T2K, située au Japon, étudie le mécanisme d'oscillation de ces particules, c'est-à-dire la faculté qu'elles ont à se transformer en une autre saveur dans leurs déplacements. Son principe est d'observer les oscillations des neutrinos sur une distance de 295 km, entre les sites de Tokai, où les neutrinos muons sont produits grâce à l'accélérateur de particules de JPARC (2) sur la côte est du Japon, et le détecteur Super-Kamiokande, une cuve d'eau cylindrique de 40 mètres de diamètre et 40 mètres de hauteur située à 1 000 mètres sous terre, près de la côte ouest (d'où son nom T2K, qui signifie « de Tokai à Kamiokande »).
Les analyses des données collectées entre la mise en service de l'expérience en janvier 2010 et mars 2011 (l'expérience a été arrêtée avec le séisme du 11 mars) montrent que durant cette période, le détecteur Super-Kamiokande a enregistré un total de 88 neutrinos, parmi lesquels 6 neutrinos électrons qui proviendraient de la métamorphose de neutrinos muons en neutrinos électrons. Les 82 neutrinos restants seraient essentiellement des neutrinos muons n'ayant subi aucune transformation entre leur point de production et leur détection. Des mesures utilisant un GPS certifient que les neutrinos identifiés par le détecteur Super-Kamiokande ont bel et bien été produits sur la côte est du Japon. Les physiciens estiment ainsi que les résultats obtenus correspondent à une probabilité de 99,3% de découverte de l'apparition des neutrinos électrons.
L'expérience T2K redémarrera dès la fin de cette année. Bien que situés dans une zone sismique proche de l'épicentre du tremblement de terre du 11 mars 2011, le laboratoire JPARC et les détecteurs proches de T2K n'ont subi heureusement que des dégâts minimes. Le prochain objectif de T2K est de confirmer avec davantage de données l'apparition des neutrinos électrons et, mieux encore, de mesurer le dernier « angle de mélange », un paramètre du modèle standard qui ouvrirait la voie aux études de l'asymétrie entre la matière et l'antimatière dans notre Univers.
La collaboration T2K regroupe plus de 500 physiciens de 62 institutions réparties dans 12 pays (Japon, pays européens et États-Unis). Les équipes du CNRS et du CEA/Irfu ont mis au point certains instruments de mesure utilisés dans les détecteurs proches (situés à 280 mètres du point de production des neutrinos et nécessaires à contrôler l'expérience) et participé à la calibration du détecteur Super-Kamiokande. Elles ont également contribué à l'analyse des données.
DOCUMENT cnrs LIEN |
|
|
|
|
 |
|
NEUTRINOS ET ÉNERGIE NOIRE |
|
|
|
|
|
2. La piste des neutrinos
dossier - par Jacques-Olivier Baruch dans mensuel n°384 daté mars 2005 à la page 38 (1094 mots) | Gratuit
L'énergie sombre serait-elle liée aux neutrinos, des particules qui interagissent faiblement avec la matière ? Cette récente hypothèse suppose que les masses de ces particules très légères varient au cours du temps. Elle pourrait être testée dans les expériences en cours.
Les physiciens adorent notre époque. Comme 95 % de l'énergie de l'Univers est d'origine inconnue, ils ont tout loisir d'imaginer de superbes théories, certes prédictives, mais encore invérifiables. Le XXIe siècle débute ainsi par un vaste champ de conjectures ouvertes. Parmi elles, l'énergie sombre tient une place de choix. Quelle est sa nature ? Comment interagit-elle avec la matière ? Pourquoi a-t-elle pris le pas sur la force gravitationnelle au point d'accélérer aujourd'hui l'expansion de l'Univers ?
Si de nombreux physiciens se « contentent » d'imaginer un champ scalaire de type quintessence voir l'article précédent, d'autres vont plus loin. C'est le cas d'une des dernières hypothèses en lice, lancée l'été dernier par un groupe de l'université de Washington, à Seattle. Dans deux articles, David Kaplan, Robert Fardon, Ann Nelson et Neil Weiner émettent l'hypothèse que les neutrinos, si leurs masses varient, feraient partie du moteur de l'accélération de l'Univers [1] [2]. Ils nomment leur théorie MaVaNs Mass Varying Neutrinos.
Des particules insaisissables
Les neutrinos sont des particules inventées par le théoricien Wolfgang Pauli, en 1930, pour résoudre un problème d'énergie dans le bilan des réactions nucléaires mettant en jeu les interactions faibles. Ils sont émis par plusieurs sources : lors des fusions nucléaires que connaissent les étoiles, celles que produisent les hommes dans les centrales ou les accélérateurs de particules, mais aussi lors de la désintégration de matières radioactives et des chocs avec les particules des rayons cosmiques. Une bonne partie d'entre eux provient des premiers instants de l'Univers.
Comme ils n'interagissent que très peu avec la matière, leur étude est difficile, et la connaissance que l'on a d'eux très parcellaire. Ils existent, puisqu'ils sont régulièrement détectés, la première fois étant en 1955 par Frederick Reines et Clyde Cowan. Ils sont de trois types différents. Chacun est associé à une particule existante, l'un avec l'électron, les deux autres avec ses deux grands frères, le muon ou le tau. Ils ne portent pas de charge et auraient des masses très faibles d'environ cinq millièmes d'électronvolt, soit cent millions de fois moins qu'un électron. Cette valeur a été déduite d'une autre propriété étonnante de ces particules : elles oscillent, c'est-à-dire qu'elles peuvent changer de type durant leur course dans l'Univers, comme ce fut démontré en 1998 par l'équipe japonaise du détecteur SuperKamiokande qui observa qu'un neutrino électronique pouvait se transformer en neutrino muonique [3].
On n'en sait pas plus. C'est dans ce gouffre d'ignorance que l'équipe de Seattle espère puiser la solution à l'énergie sombre. La source de cette énergie répulsive proviendrait, selon eux, de l'interaction entre les neutrinos et de nouvelles particules, dont la masse serait à peu près équivalente, soit un millième d'électronvolt. « Les neutrinos seraient ainsi une composante fondamentale de l'énergie sombre », commente Gia Dvali, physicien de l'université de New York [4].
David Kaplan et ses collègues arguent que, du fait de leur très faible masse, les neutrinos doivent être très sensibles aux interactions qui ne demandent que peu d'énergie. En particulier avec ces particules encore inconnues dont les auteurs postulent l'existence. Ce seraient les composantes d'un champ scalaire comme le prévoient aussi les modèles de quintessence. Les interactions entre ces particules de l'énergie sombre et les neutrinos seraient à l'origine des oscillations d'un type à un autre. En plus, elles provoqueraient une augmentation des masses des neutrinos au cours du temps. L'ensemble neutrinos-champ scalaire se conduirait tel un fluide de pression négative, poussant l'expansion de l'Univers à s'accélérer.
Mais pourquoi l'Univers s'étendrait-il plus vite aujourd'hui qu'hier, alors que l'expansion a dilué aussi bien la quantité de neutrinos que des autres particules ? La cause proviendrait encore du champ scalaire. Car, dans le scénario MaVaNs, l'énergie sombre se répartit entre celle du champ scalaire et celle liée à la masse totale des neutrinos. Or, seule cette dernière varie. Et encore, pas beaucoup, car la réduction de la densité des neutrinos au cours de l'expansion de l'Univers est contrebalancée par l'augmentation de leur masse. Au fur et à mesure de l'expansion, l'énergie gravitationnelle, dont l'effet est attractif, aurait diminué plus vite que l'énergie sombre. Il y a six milliards d'années, l'effet répulsif de cette dernière serait devenu prédominant : l'expansion cessa de ralentir pour accélérer.
La preuve à portée de main
Toujours selon MaVaNs, ce ne serait pas toujours le cas. Arriverait un moment où les neutrinos seraient trop dispersés et trop massifs pour être influencés par le champ scalaire de l'énergie sombre. L'accélération stopperait. L'expansion de l'Univers se poursuivrait, mais en ralentissant de plus en plus. « Une idée intéressante mais très spéculative », selon François Vannucci, du laboratoire de physique des hautes énergies de l'université Pierre-et-Marie-Curie. « Les nouvelles idées sont saines, tant que les scientifiques restent conscients que ce ne sont que des hypothèses, répond Ann Nelson, coauteur des deux articles. Pour l'instant, nous avons une théorie autocohérente, qui rend compte des observations passées et a des implications sur les expériences. »
C'est l'avantage de ce modèle. Alors que les autres modèles ne peuvent être confrontés qu'aux observations astronomiques ou cosmologiques, celui-ci pourrait être confirmé - ou contrecarré - à partir d'expériences terrestres. Et sans forcément devoir construire d'autres grands équipements, même si les auteurs n'oublient pas de demander la mise en service de nouvelles expériences spécialement consacrées à la résolution de cette énigme. Des déviations dans le modèle standard de ces particules insaisissables devraient être visibles dans les données des expériences passées, puisque les masses des neutrinos y ont toujours été considérées comme constantes. Ces données concernent aussi bien celles recueillies sur les neutrinos émis dans les réacteurs nucléaires, par exemple, ceux des centrales françaises de Chooz ou du Bugey, que les détections de neutrinos solaires effectuées par les expériences japonaises KamLand, K2K ou SuperKamiokande.
Mieux même, ces modèles pourraient résoudre l'anomalie de l'expérience américaine LSND à Los Alamos.
En 1995, ce Liquid Scintillator Neutrino Detector avait observé que les neutrinos muoniques se transformaient en neutrinos électroniques sur de très courtes distances. Les physiciens en déduisaient une masse différente de celles des autres expériences..., si les masses des neutrinos étaient constantes. La solution proposée par l'équipe de Washington permettrait donc de résoudre plusieurs énigmes à la fois.
Pour Gia Dvali, si la tentative de vérification de ce scénario échoue à dévoiler la nature de l'énergie sombre, elle permettra, au pire, de comprendre un peu mieux ces fantasques particules que sont les neutrinos. Ce sera déjà beaucoup.
Par Jacques-Olivier Baruch
DOCUMENT larecherche.fr LIEN |
|
|
|
|
 |
|
L'ORDINATEUR QUANTIQUE |
|
|
|
|
|
Les constructeurs de qubits
et aussi - par Ferdinand Schmidt-Kaler, Philippe Grangier dans mensuel n°398 daté juin 2006 à la page 38 (1900 mots) | Gratuit
L'ordinateur quantique n'est plus seulement théorique. Son unité de calcul, le qubit, pourrait être portée par des ions, piégés et refroidis à très basse température. Cette technique permet déjà de réaliser des calculs simples.
Avec des dimensions de quelques dizaines de nanomètres, les transistors des ordinateurs actuels ne sont plus très éloignés de l'échelle atomique où apparaissent les propriétés quantiques des constituants élémentaires de la matière. Dans le cadre technologique actuel, ces effets quantiques sont le plus souvent considérés comme une nuisance, source d'erreurs de calcul. Le principe d'un ordinateur quantique consiste au contraire à exploiter ces propriétés : il s'agit de concevoir de nouveaux processeurs dont la puissance de calcul pourrait être augmentée exponentiellement.
Dans cette nouvelle approche, les bits, unités élémentaires de l'informatique classique, deviennent des bits « quantiques », des qubits, le plus souvent portés par des objets quantiques individuels, par exemple des atomes, des ions ou des photons. De nombreuses équipes de recherche parviennent déjà à manipuler ces qubits et à leur faire effectuer des opérations simples, premiers pas vers des calculs complexes.
Dans son principe, un calcul quantique équivaut à faire évoluer de manière contrôlée l'état initial d'un ensemble de qubits appelé un q-registre. À la fin du calcul, on mesure l'état du q-registre, qui fournit une valeur binaire comme pour un registre classique. Bien qu'il commence et se termine tel un calcul classique, le calcul quantique est d'une extraordinaire puissance. Il possède en effet une propriété inimaginable dans le monde classique : pendant le calcul lui-même, l'ordinateur met parallèlement en jeu tous les états correspondant à tous les nombres que le registre peut contenir.
Pour contrôler cette méthode de calcul paradoxale, on doit faire évoluer le système de qubits sous l'action d'une horloge qui détermine le rythme du calcul. À première vue, une opération compliquée, notamment la factorisation de très grands nombres voir article précédent, semble être un problème inextricable. En réalité, ce calcul peut être décomposé en une succession d'opérations simples n'affectant qu'un ou deux qubits. Elles sont effectuées par des « portes logiques », dont des exemples bien connus en informatique classique sont les portes NON, ET, OU, etc. Mais puisque les portes quantiques agissent sur des qubits, elles peuvent effectuer certaines opérations logiques inconcevables classiquement. En particulier, parce que l'information n'est pas portée par chaque qubit, mais par des corrélations quantiques entre plusieurs d'entre eux. Cette « intrication » des qubits joue un rôle fondamental dans ce type de calcul.
Exigences contradictoires
Le passage à la réalisation d'un ordinateur quantique requiert de combiner deux exigences a priori contradictoires. D'une part, il est indispensable, afin d'effectuer le calcul désiré, de pouvoir agir sur les qubits, de les intriquer et les faire interagir. D'autre part, il faut les isoler le mieux possible de toutes les interactions non contrôlées avec le monde extérieur. Car l'ensemble de ces interactions, que l'on appelle « décohérence », détruit le caractère quantique - et en particulier l'intrication - de l'état du registre. Il induit des erreurs dont l'accumulation peut rapidement devenir inacceptable, car elle empêche le calcul d'aboutir.
Malgré la difficulté prévisible de telles opérations, le nombre de candidats au titre de qubit est actuellement très grand lire « Les autres candidats qubits », p. 41. Un minisondage réalisé par le site Web Qubitnews [1] place les ions, s'ils sont piégés dans un petit volume par des champs électriques, en tête des candidats potentiels : il est alors effectivement possible de les contrôler, de les coupler et de les protéger des perturbations indésirables dues à leur environnement. Ces ions peuvent être excités ou laissés dans leur état fondamental. Leur état d'excitation, noté « 0 » ou « 1 », devient une unité élémentaire d'information quantique, c'est-à-dire un qubit. Le calcul est effectué en utilisant des faisceaux laser focalisés sur chacun des ions. Ces lasers, convenablement ajustés, permettent de préparer les qubits dans l'état souhaité « 0 » ou « 1 », de piloter le déroulement du calcul, et finalement de lire l'état du registre, en forçant l'ion à émettre une lumière qui va révéler son état « 0 » ou « 1 » [fig. 1] .
Piège linéaire
Ces techniques expérimentales très sophistiquées doivent beaucoup à différents lauréats du prix Nobel de physique. À Theodor Hänsch et John Hall Nobel 2005, qui ont réalisé des expériences de métrologie de grande précision, comme celles sur les horloges atomiques. À Wolfgang Paul Nobel 1989, le père des pièges à ions, qui permettent de conserver les ions dans un volume restreint en utilisant une combinaison de champs électriques statiques et oscillants. Et également à Claude Cohen-Tannoudji, Steven Chu et William Phillips Nobel 1997, dont le travail sur le refroidissement par laser est important dans ces expériences de calcul quantique, car l'amplitude du mouvement des ions piégés -donc leur température - doit être diminuée jusqu'à ce qu'elle atteigne une dizaine de nanomètres, limite quantique imposée par le principe d'incertitude de Heisenberg * . Et pour obtenir un q-registre, ce sont plusieurs ions qui doivent être refroidis dans le même piège. Puisqu'ils portent tous la même charge positive, ils vont alors se repousser et s'arranger régulièrement dans le piège. Si la structure de ce dernier les force aussi à s'aligner, on obtient alors un piège linéaire, dans lequel les ions individuels sont séparés de quelques micromètres.
C'est cette proximité qui va permettre la réalisation du calcul. En effet, une opération logique revient à modifier l'état d'un qubit en fonction de l'état d'un autre qubit. L'idée fondamentale permettant de réaliser ces opérations a été introduite en 1995 par Ignacio Cirac et Peter Zoller, à l'université d'Innsbruck,en Autriche [2] . De manière simplifiée, elle consiste à utiliser le fait que, si un ion est mis en mouvement par un laser, il va pousser les autres à cause de sa charge électrique. En termes plus sophistiqués, les modes d'oscillation de la chaîne d'ions servent de bus quantique, capable de véhiculer l'information quantique entre les qubits portés par les ions piégés. Les mouvements d'oscillations étant eux-mêmes quantifiés, ils s'effectuent par « sauts » soigneusement contrôlés : par exemple, si un ion est dans l'état « 0 », il en déplacera un autre, mais pas s'il est dans l'état « 1 ». Il faut bien sûr se souvenir que, puisqu'un qubit peut être à la fois dans l'état « 0 » et dans l'état « 1 », il va à la fois pousser et ne pas pousser son voisin... ce qui illustre les limites des représentations imagées du fonctionnement de ce système. Néanmoins, la chaîne d'ions peut être à nouveau complètement immobilisée après chaque opération logique, ce qui assure le bon déroulement du calcul.
Maîtriser la « décohérence »
Les expériences réalisées par les groupes de Rainer Blatt, à l'université d'Innsbruck, et de Dave Wineland, du National Institute of Standards and Technology NIST de Boulder, dans le Colorado, ont ainsi permis de passer rapidement de la réalisation de la première porte à deux qubits en 2003 [3] , à la mise en oeuvre d'un petit algorithme à 3 qubits l'année suivante [4] , puis à celle d'un état intriqué à 8 qubits en 2005 [5] .
Pas encore de quoi pavoiser. Car la réalisation de calculs complexes n'est pas à la portée des expérimentateurs. Cela demande en premier lieu de maîtriser la « décohérence » : toute interaction incontrôlée du registre avec son « environnement » perturbe le fragile état intriqué et crée des erreurs dans le calcul. Il faut donc corriger ces erreurs. De nombreuses approches ont été proposées pour y parvenir. L'idée consiste à écrire un « qubit logique » non pas sur un ion unique, mais sur plusieurs ions à la fois. Ce petit ensemble d'ions est effectivement plus résistant aux perturbations. Des expériences réalisées à Boulder [6] et à Innsbruck [7] utilisent cette notion de « sous-espace préservé de la décohérence ». Une généralisation de telles techniques sera indispensable pour que l'ordinateur quantique puisse un jour réellement calculer.
Il faudra aussi augmenter le nombre d'ions. Comme la technique du couplage d'ions via leur mouvement sera d'autant plus difficile que la chaîne sera longue, d'autres techniques sont envisagées. Par exemple, l'équipe d'Innsbruck a proposé d'utiliser un ion piégé dans une tête mobile, portée par faisceau laser, qui peut interagir avec un ensemble d'ions immobiles dans un plan et transporter l'information quantique de qubit en qubit [8] . Le groupe du NIST propose, lui, de déplacer des ensembles d'ions entre des zones de calcul et des zones de stockage, en utilisant des électrodes miniaturisées. Ces idées présentent des similarités avec des concepts déjà utilisés en informatique, et des recherches impliquant des physiciens, des informaticiens et des ingénieurs ont été lancées en Europe et aux États-Unis, afin de parvenir à la fois à miniaturiser les pièges et à augmenter le nombre d'ions piégés.
Combien de temps les ions piégés resteront-ils les meilleurs candidats qubits ? Parmi leurs avantages principaux figure l'efficacité de leur préparation et de leur lecture, ces manipulations s'effectuant pratiquement sans erreur. S'y ajoute un « temps de cohérence » assez long pour pouvoir effectuer un grand nombre d'opérations élémentaires potentiellement plusieurs milliers. Par contre, le taux d'erreurs d'une porte logique individuelle devra être amélioré d'un facteur au moins 100 pour que l'ordinateur quantique puisse fonctionner - ce qui est difficile mais pas inaccessible. Côté inconvénient, il faut noter la lenteur de l'opération d'une telle porte logique 10 000 fois plus lente que dans un micro-ordinateur. Sans compter que la gestion « qubit par qubit » de mémoires quantiques de grande taille est loin d'être évidente. Les calculs d'architecture montrent qu'un ordinateur quantique passerait plus de 99 % de ses ressources à gérer sa mémoire et à corriger ses erreurs. Seulement 1 % servirait à effectuer le calcul proprement dit. Néanmoins, même avec ce problème, il conserverait l'avantage sur son cousin classique.
Gageure technologique
Les objectifs visés à cinq ou dix ans sont de réaliser des micropièges de 30 à 50 ions. Ces dispositifs seront capables de simuler des systèmes quantiques en interaction, et donc de prédire leur évolution, déjà trop complexe pour être calculée sur un ordinateur conventionnel. Mais la factorisation d'un grand nombre est beaucoup plus exigeante. Par exemple, le temps de calcul d'un ordinateur classique pour factoriser 2999, codé avec 1 000 bits, est estimé de l'ordre du million d'années. Un ordinateur quantique pourrait effectuer ce même calcul beaucoup plus rapidement, mais il devra contenir plusieurs centaines de milliers de qubits.
Pour Dave Wineland, un « abysse quantique » sépare un système a priori accessible 100 qubits et un ordinateur quantique « universel » 1 000 000 qubits. Ce défi est effectivement colossal. Pourtant, à l'heure actuelle, aucune objection physique fondamentale, qui interdirait par principe de réaliser un ordinateur quantique, n'a été énoncée. La gageure est donc purement technologique. Mais il reste très difficile de prédire si l'ordinateur quantique calculera un jour et, si c'est le cas, à quoi il ressemblera. Il semble néanmoins établi que les concepts qu'il utilisera, en particulier l'intrication, donneront accès à des idées physiques et à des perspectives d'applications radicalement nouvelles, dont les développements ne font sans doute que commencer.
en deux mots Diverses expériences tentent de construire des ébauches d'ordinateurs quantiques. Les plus avancées sont mises au point dans les laboratoires d'optique quantique. Il s'agit de piéger des ions dans des petits volumes et de les faire interagir entre eux grâce à des lasers. Ce procédé permet aujourd'hui de réaliser des calculs simples.
À plus long terme, d'autres techniques sont envisagées.
Par Ferdinand Schmidt-Kaler, Philippe Grangier
DOCUMENT larecherche.fr LIEN |
|
|
|
|
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 ] Précédente - Suivante |
|
|
|
|
|
|