LES NEUTRINOS, DES PARTICULES SURPRENANTES
 

 

 

 

 

 

 

LES NEUTRINOS, DES PARTICULES SURPRENANTES

Les neutrinos sont des particules élémentaires intéragissant très peu avec la matière. Depuis 70 ans ils jouent un rôle prépondérant en physique des particules. Les progrès de ces dernières années ont été époustouflants, sinon surprenants. Nous savons désormais que les neutrinos sont massifs! Je reprendrai pas à pas l'épopée des neutrinos pour dévoiler comment plusieurs générations de physiciens ont révélé les secrets de ces particules fantomatiques, et utilisé les neutrinos pour sonder à la fois l'infiniment petit et l'infiniment grand. J'insisterai sur les développements expérimentaux récents et je discuterai finalement des recherches actuelles.

Les neutrinos, des particules surprenantes !
par Thierry Lasserre
Qu'est-ce qu'un neutrino ?
Tout comme l'électron, le neutrino est une particule élémentaire, c'est à dire un constituant de la matière qui ne nous apparaît pas aujourd'hui comme composé d'éléments encore plus petits. On le désigne par la lettre grecque n. Dans la nomenclature des physiciens des particules, il appartient à la catégorie des leptons qui comprend aussi l'électron, le muon, et le tau. Les deux derniers sont des cousins de l'électron, mais respectivement 200 fois et 3500 fois plus massifs. Les leptons sont organisés en trois familles associées: électronique, muonique, et tauique. Nous verrons qu'il existe trois types de neutrinos (on parle souvent de trois saveurs). A chaque lepton correspond un anti-lepton, de même masse, mais de charge électrique opposée. Les leptons possèdent un spin[1] ½, ils appartiennent donc à la catégorie plus générale des fermions (du nom d'Enrico Fermi).
Selon le modèle standard de la physique des particules (MSPP), la masse des neutrinos est nulle. Toutefois, nous verrons qu'une série d'expériences a démontré qu'elle est différente de zéro, encore que très petite par rapport à celles des autres leptons (au moins 250 000 fois plus faible). C'est une découverte fondamentale très récente qui va sans doute faire évoluer le MSPP dans les prochaines années.
A l'échelle du noyau atomique, les neutrinos interagissent uniquement par l'intermédiaire de l'interaction faible car ils sont insensibles aux interactions forte et électromagnétique. En effet, ils ne portent ni de charge de couleur, ni de charge électrique. En conséquence, la probabilité d'interaction d'un neutrino avec la matière est extrêmement faible : un neutrino issu d'une désintégration radioactive traverse, en moyenne, une épaisseur de plomb d'une année-lumière (dix mille milliards de kilomètres) avant d'interagir !

Découverte des neutrinos
Au début du XXe siècle, la radioactivité à peine découverte était soigneusement étudiée au sein des laboratoires. Les désintégrations de type b (bêta) étaient déjà identifiées comme responsables de la transmutation d'un noyau atomique en un autre élément voisin dans la classification de Mendeleïev. Lors d'un processus b, le noyau radioactif émet un électron (ou rayon b) et change sa charge électrique d'une unité, en transformant un proton en neutron ou vice versa. Un exemple familier est celui du tritium 3H, l'isotope le plus lourd de l'hydrogène (1 proton et 2 neutrons), qui se désintègre en hélium 3He (2 protons et 1 neutron) et émet un électron.

Les expérimentateurs de l'époque entreprirent de mesurer précisément l'énergie de l'électron émis, afin de mieux comprendre la structure des noyaux atomiques. D'après les lois de conservation de l'énergie et de l'impulsion[2], ils savaient prédire le partage d'énergie qui devait s'opérer uniquement entre l'électron et le noyau de recul. L'électron devait en principe toujours emporter la même quantité d'énergie. A la grande stupéfaction de tous, James Chadwick montra en 1914 que tel n'est pas le cas : les électrons ont un spectre continu en énergie, entre zéro et l'énergie attendue dans le cas d'une réaction à deux corps ! Cela pouvait signifier qu'une partie de l'énergie s'évanouissait dans les processus b ...
En 1930 le physicien Wolfgang Pauli se risqua à sauver la loi sacro-sainte de la conservation de l'énergie en proposant, selon ses propres termes, « un remède désespéré ». Il invoqua l'existence d'une nouvelle particule partageant l'énergie du processus b avec l'électron et le noyau. Afin de s'ajuster aux données expérimentales, cette nouvelle particule devait être électriquement neutre, de spin demi entier, et de masse inférieure à celle de l'électron. Cette particule, fut nommée plus tard neutrino, littéralement « petit neutre », par Fermi. Une fois créé, le neutrino s'échappait de la zone de détection à une vitesse très proche de celle de la lumière, et laissait croire, si on l'ignorait dans le bilan de la réaction, que la loi de conservation de l'énergie était violée. Peu de temps après, le génial Fermi formula une théorie mathématique des désintégrations b qui rendait parfaitement compte de tous les résultats expérimentaux. Il introduisit la notion de force faible (en comparaison à la force électromagnétique) qui transforme un proton en un neutron, en créant simultanément un électron et un anti-neutrino. Aussitôt, Hans Bethe et Rudolf Peierls suggérèrent une réaction permise par la théorie de Fermi pour détecter indirectement l'insaisissable : la capture d'un neutrino (ou anti-neutrino) par un noyau et l'émission simultanée d'un électron (ou anti-électron). Malheureusement la petitesse de la force faible semblait réduire leurs espoirs à néant ...
En 1951, les physiciens de Los Alamos Fred Reines et Clyde Cowan, qui travaillaient alors sur les essais nucléaires américains, songèrent utiliser la bouffée considérable de neutrinos électroniques émise dans la furie d'une explosion atomique[3] afin de détecter une poignée de neutrinos. La réaction la plus prometteuse était la désintégration b inverse, anti-ne + p à e+ + n, ou p est le noyau d'hydrogène (proton), e+ l'anti-électron (ou positron), et n le neutron ( figure 1). Ils usèrent de la technique des liquides scintillants, découverts quelques années auparavant. De tels liquides aromatiques servent à la fois de cible puisqu'ils contiennent énormément de protons et de milieu de détection car ils permettent de « matérialiser » les traces que laissent le positron et le neutron[4]. En effet, un bref flash de lumière visible (quelques nanosecondes) est émis chaque fois qu'une particule chargée ou un rayon gamma traverse le milieu. Cette lumière, dont l'intensité est proportionnelle à l'énergie des particules incidentes, est ensuite collectée par des capteurs ultrasensibles aux photons visibles, appelés tubes photomultiplicateurs (TPM). Les flashs lumineux sont alors convertis en signaux électriques et enregistrés pour l'analyse.
Après de longues réflexions, la faisabilité d'une telle expérience, à 20 mètres d'une explosion atomique, était en question, et les deux confrères se tournèrent vers une autre source de neutrinos plus facile à apprivoiser. Les réacteurs nucléaires fonctionnent sur le principe de la fission d'un mélange judicieux de noyaux dits fissiles, principalement l'uranium 235 et le plutonium 239. Baignés par un flux de neutrons dans le cœur d'un réacteur, ces noyaux se scindent en deux morceaux (ils fissionnent) tout en libérant de l'énergie, et quelques neutrons qui entretiennent la réaction ( Figure 12). L'inconvénient de la fission est que presque tous les fragments émis et les autres produits de réaction sont radioactifs, et se désintègrent jusqu'à atteindre une configuration stable[5]. Or, chaque désintégration radioactive b engendre un neutrino électronique (ou un anti-neutrino).
Les réacteurs sont ainsi des sources copieuses, cependant mille fois moins intense qu'une explosion nucléaire de 20 kilotonnes (à l'époque). En 1956, après plusieurs années d'efforts, Reines et Cowan installèrent un détecteur de 4 200 litres de liquide scintillant, et d'eau contenant une faible quantité de cadmium pour favoriser la détection des neutrons ( Figure 2), près du réacteur nucléaire de Savannah River, en Caroline du sud. Après quelques mois de prise de données ils identifièrent les interactions des anti-neutrinos électroniques. Le signal était 5 fois plus faible quand le réacteur était à l'arrêt pour maintenance. Après tous les tests de rigueur, la découverte fut annoncée par télégramme à Pauli en juin 1956. Reines obtint le prix Nobel de physique en 1995 (Cowan étant malheureusement décédé en 1974). Notons qu'au cours de cette expérience, Reines et Cowan mesurèrent aussi la probabilité d'interaction des neutrinos, grandeur couramment appelée section efficace, en conformité avec la prédiction de la théorie de Fermi.

Figure 1
Principe de détection des anti-ne dans l'expérience de Reines et Cowan. Un anti-ne interagit sur un noyau d'hydrogène de l'eau. Il y a production instantanée d'un positron et d'un neutron. Le positron s'annihile avec un électron du milieu, et deux photons gammas sont émis ; ces derniers sont détectés par leurs interactions dans le scintillateur liquide. Le neutron commence par ralentir par collisions, puis il est capturé par un noyau de Cadmium ; cette capture est suivie par l'émission de photons gammas qui sont détectés dans le scintillateur liquide.
Trois neutrinos
Dès les années 50 on savait qu'un muon se désintègre en un électron et deux neutrinos : m+ à e+ + n + n. On en suspectait qu'un neutrino était associé à l'électron (celui de Reines et Cowan) et l'autre au muon. En 1963, Léon Lederman, Mel Schwartz, et Jack Steinberger, réalisèrent une expérience ingénieuse à Brookhaven (Etats-Unis) pour déterminer si ces deux neutrinos sont identiques ou distincts.

Figure 2
Principe de l'expérience de mise en évidence du neutrino muoniques.
Ils utilisèrent un accélérateur de protons de 30 GeV[6] comme source de neutrinos. Un faisceau de protons dirigé sur une cible de béryllium produit une myriade de pions[7] par l'intermédiaire de l'interaction forte. Les pions chargés se désintègrent en muons et en neutrinos par interaction faible. Les muons se désintègrent à leur tour comme expliqué ci-dessus. Derrière une zone de désintégration, les expérimentateurs ajoutent un écran de terre ou de métal d'une dizaine de mètres d'épaisseur pour éliminer les particules indésirables. Grâce à leur formidable pouvoir de pénétration seuls les neutrinos jaillissent en sortie. L'expérience était agencée de telle sorte que la majorité de neutrinos arrivant en zone de détection provenait de la désintégration des pions. Le détecteur (une chambre à étincelles), placé à quelques dizaines de mètres, était adapté pour discriminer un électron d'un muon. En effet, un muon se matérialise par une longue trace continue, alors qu'un électron, deux cent fois plus léger, dessine une trajectoire plus erratique. L'expérience mit en évidence beaucoup plus des traces de type muonique que de traces de type électronique. Le neutrino produit lors de la désintégration d'un pion (positif) ne peut se transformer qu'en muon, mais pas en électron : p+ à m+ + nm. Si le neutrino électronique était identique au neutrino muonique on aurait découvert presque autant de traces de chaque saveur. Il existe donc un neutrino spécifiquement associé au muon, noté nm. Lederman, Schwartz, et Steinberger furent gratifiés du prix Nobel de physique en 1988 pour cette découverte.
Ce résultat permit non seulement de mettre en évidence une deuxième saveur de neutrino, mais en plus de démontrer l'existence de deux familles bien distinctes de leptons. Dans le MSPP il est d'usage d'associer un nombre quantique spécifique à chaque famille, appelé nombre leptonique électronique, muonique, ou tauique. Nous verrons par la suite que ce nombre leptonique, introduit de façon ad hoc dans le MSPP, n'est en fait pas toujours conservé.
Trois familles seulement existent dans le modèle standard, sans que l'on sache pourquoi. Le tableau serait donc incomplet si je ne mentionnais pas le neutrino tauique, noté nt, qui fut observé directement seulement en l'an 2000.

Les neutrinos dans le modèle standard
Au sein du MSPP, on regroupe les leptons selon les couples (e, ne), (m, nm), et (t, nt), qui définissent le secteur des leptons. Dans cet exposé, je passerai volontairement sous silence les subtilités relatives au spin et à la projection du spin du neutrino le long de sa trajectoire (même si celles-ci jouent un rôle capital dans l'interaction faible). Les interactions entre particules sont maintenant bien comprises, et dans le MSPP deux fermions interagissent en échangeant un boson[8]. L'interaction faible se modélise par les échanges d'un trio de bosons W+, W-, Z0. Contrairement au photon de masse nulle, ces trois bosons sont entre 80 et 100 fois plus lourds que le proton ! C'est ce qui explique la très faible portée de l'interaction faible.

Prenons maintenant l'exemple concret de la désintégration bêta ( Figure 3). La réaction n à p + e- + anti-ne est en fait la transformation d'un quark de type « down » ( d) du neutron en un quark de type « up » ( u) et un boson W-, qui se désintègre à son tour en une paire (e-, anti-ne). Le neutron composé de trois quarks ( u,d,d) devient le trio de quarks ( u,u,d), qui n'est autre qu'un proton. Les interactions qui font intervenir les W sont appelées « courant chargés », car ils transforment le neutrino en son lepton associé (ou inversement) en modifiant la charge électrique d'une unité. Les interactions impliquant le boson Z0 sont désignées « courants neutres » car elles laissent inchangés les deux fermions qui interagissent. Ces dernières sont plus subtiles et elles ont seulement été découvertes en 1973, au CERN, en utilisant un faisceau de neutrinos muoniques et une chambre à bulles en guise de détecteur. Enfin, en 1989, l'étude de la durée de vie du Z0 au collisionneur électron-positron du CERN (le LEP) a montré qu'il n'y a que trois saveurs de neutrinos légers se couplant avec la matière.

Figure 3
Désintégration b (de type -) du Brome 80 en Krypton 80, dans le cadre de la théorie de Fermi (à gauche), et la même réaction dans le cadre du MSPP (à droite). Dans les deux cas la réaction fondamentale est la conversion d'un quark (d) en un quark (u) avec émission d'un électron et d'un anti-ne.

Les sources de neutrinos
Fort heureusement pour les physiciens des particules, les sources de neutrinos sont diverses et variées. On distingue les sources naturelles et les sources artificielles. Il est tout aussi important d'identifier la saveur des neutrinos qui naissent de ces fontaines de particules, et de comprendre les mécanismes de production. J'ai déjà évoqué les explosions de bombes à fission et les réacteurs nucléaires qui émettent des anti-ne. Les accélérateurs de particules actuels permettent essentiellement de produire des nm ou anti-nm. Le corps humain contient 20 milligrammes de l'isotope 40 du potassium (émetteur b) : chaque jour, 400 millions de neutrinos s'échappent de nos os à une vitesse proche de celle de la lumière ! L'atmosphère est le siège de réactions produisant nm et ne et leurs antiparticules. Le soleil émet uniquement des ne. Certaines explosions d'étoiles (supernovae de type II) produisent une quantité astronomique de neutrinos des trois saveurs et de leurs antiparticules. Les noyaux actifs de galaxie où siègent de gigantesques trous noirs en font probablement de même. Enfin, un rayonnement fossile de neutrinos et d'anti-neutrinos des trois saveurs baigne l'univers depuis les premières secondes qui suivirent le Big-Bang.
Voyons maintenant comment certaines de ces sources sont exploitées pour percer les mystères de ces surprenants neutrinos.

Les neutrinos solaires : la fin d'une énigme
Le Soleil, plus massif et plus brillant que la majorité des étoiles, est au milieu de son cycle de vie. Il puise son énergie de la réaction de fusion de deux protons conduisant à la conversion de l'hydrogène en hélium en son cœur, en émettant deux ne: 4p + 2e- à 4He + 2ne + 27 MeV. Il est ainsi le siège d'un cycle compliqué de réactions, dont certaines produisent des ne ( Figure 4). Les principaux sont les neutrinos dits primordiaux de faible énergie, encore dénommés neutrinos « pp » (ne(pp), E

 

   VIDEO     canal U       LIEN  

 
 
 
  LES NEUTRINOS DANS L'UNIVERS
 

 

 

 

 

 

 

LES NEUTRINOS DANS L'UNIVERS

Notre corps humain contient environ 20 millions de neutrinos issus du big bang, émet quelques milliers de neutrinos liés à sa radioactivité naturelle. Traversé en permanence par 65 milliards de neutrinos par cm2 par seconde venus du Soleil, il a été irradié le 23 février 1987 par quelques milliards de neutrinos émis il y a 150000 ans par l'explosion d'une supernova dans le Grand Nuage de Magellan. Les neutrinos sont également produits dans l'interaction des rayons cosmiques dans l'atmosphère ou dans les noyaux actifs de galaxies… Quelle est donc cette particule présente en abondance dans tout l'Univers où elle joue un rôle-clé ? Inventé par W.Pauli en 1930 pour résoudre le problème du spectre en énergie des électrons dans la désintégration b, le neutrino fut découvert par F.Reines et C.Cowan en 1956, auprès du réacteur nucléaire de Savannah River (Caroline du Sud). Il n'a plus depuis quitté le devant de la scène, que ce soit chez les physiciens des particules, les astrophysiciens ou les cosmologistes. Cette particule élémentaire, sans charge électrique, n'est soumise qu'à l'interaction faible, ce qui lui permet de traverser des quantités de matière importantes sans interagir. En 1938, H.Bethe imaginait que des réactions nucléaires de fusion étaient au coeur de la production d'énergie des étoiles, en premier lieu le Soleil. Dans les années 60, les astrophysiciens se lancent dans la construction de modèles solaires et des expérimentateurs dans la construction de détecteurs pour les piéger. Il a fallu attendre 2002 pour comprendre que le déficit de neutrinos solaires observé (le célèbre "problème des neutrinos solaires") était dû à un phénomène lié à la mécanique quantique, appelé l'oscillation des neutrinos. La mise en évidence de cette oscillation a apporté la preuve décisive que les neutrinos avaient une masse non nulle. Nous ferons le point sur cette particule fascinante après les découvertes récentes.

Texte de la 581 e conférence de l'Université de tous les savoirs prononcée le 24 juin
2005
Par Daniel Vignaud: « Les neutrinos dans l'Univers »
Introduction
Notre corps humain contient environ 20 millions de neutrinos issus du big bang et émet chaque seconde quelques milliers de neutrinos liés à sa radioactivité naturelle. Traversé en permanence par 65 milliards de neutrinos par cm2 par seconde venus du Soleil et quelques millions d'antineutrinos cm2 par seconde venus de la Terre, il a été irradié le 23 février 1987 par quelques milliards de neutrinos émis il y a 150000 ans par l'explosion d'une supernova dans le Grand Nuage de Magellan. Les neutrinos sont également produits dans l'interaction des rayons cosmiques dans l'atmosphère ou dans les noyaux actifs de galaxies... Quelle est donc cette particule présente en abondance dans tout l'Univers où elle joue un rôle-clé ?

Inventé par W. Pauli en 1930 pour résoudre le problème du spectre en énergie des électrons dans la désintégration b, le neutrino fut découvert par F. Reines et C. Cowan en 1956, auprès du réacteur nucléaire de Savannah River (Caroline du Sud). Il n'a plus depuis quitté le devant de la scène, que ce soit chez les physiciens des particules, les astrophysiciens ou les cosmologistes. Cette particule élémentaire, sans charge électrique, n'est soumise qu'à l'interaction faible, ce qui lui permet de traverser des quantités de matière importantes sans interagir.

En 1938, H. Bethe imaginait que des réactions nucléaires de fusion étaient au cSur de la production d'énergie des étoiles, en premier lieu le Soleil. Dans les années 60, les astrophysiciens se lancent dans la conception de modèles solaires et des expérimentateurs dans la construction de détecteurs pour les piéger. Il a fallu attendre 2002 pour comprendre avec certitude que le déficit de neutrinos solaires observé (le célèbre « problème des neutrinos solaires ») était dû à un phénomène lié à la mécanique quantique, appelé l'oscillation des neutrinos. La mise en évidence de cette oscillation a apporté la preuve décisive que les neutrinos avaient une masse non nulle.

Nous ferons le point sur cette particule fascinante après les découvertes récentes.


1. Le neutrino, particule élémentaire

Le neutrino est né en 1930 pour répondre à un problème expérimental non résolu. A la fin des années 20, période charnière en physique s'il en est, les physiciens s'interrogent sur une difficulté liée à la désintégration b des noyaux radioactifs. L'énergie de l'électron émis devrait avoir une valeur unique et non la forme d'un spectre étendu comme il est observé. Niels Bohr va alors jusqu'à proposer de manière iconoclaste que l'énergie n'est pas conservée dans un tel processus. En décembre 1930, Wolfgang Pauli, dans une lettre restée célèbre « Chers messieurs et dames radioactifs ... », émet l'hypothèse qu'une particule inconnue emporte une partie de l'énergie pour rétablir l'équilibre. Il n'est pas trop sûr de son idée, pourtant géniale, et il faudra plusieurs mois pour qu'il l'élabore plus officiellement. Le déclic a lieu à Rome à l'automne 1933. Enrico Fermi, qui a baptisé la particule « neutrino » (le petit neutre), l'incorpore à la théorie de l'interaction faible qu'il construit magistralement.
Le neutrino restera longtemps à l'état de particule « virtuelle ». Plusieurs physiciens, et non des moindres comme Hans Bethe, écriront même qu'il est quasiment impossible de le mettre en évidence, tant est faible sa probabilité d'interaction. Il faudra attendre d'avoir des sources de neutrinos suffisamment puissantes.
Le neutrino sera découvert en 1956 par Frederick Reines et Clyde Cowan, auprès du réacteur de Savannah River (Caroline du Sud), après une première tentative en 1953. Il s'agit en réalité de l'antineutrino émis dans la fission de l'uranium. Lorsque cet antineutrino interagit avec un proton de la cible, il émet un positron (antiparticule de l'électron) et un neutron. La détection simultanée de ces deux particules est la signature non ambiguë de l'interaction de l'antineutrino. Ces neutrinos associés avec un électron sont appelés neutrinos électroniques ne.
En 1962 une équipe de physiciens mettra en évidence un deuxième type de neutrinos, le neutrino-muon nm, auprès de l'accélérateur du Brookhaven National Laboratory. Les nm sont issus de la désintégration des mésons p (ou pions) en association avec un muon m, le m étant un lepton plus lourd que l'électron. A la suite de la découverte d'un troisième lepton encore plus lourd, le tau t, en 1978, il était clair qu'il y avait un troisième type de neutrinos associé, le nt. Celui-ci ne sera découvert qu'en 2000.
Combien y a-t-il d'espèces de neutrinos ? La réponse est venue du collisionneur électron-positron du CERN, le LEP, en 1990. En mesurant avec précision la largeur de désintégration du boson Z, proportionnelle au nombre d'espèces, les physiciens ont déterminé qu'il n'y en avait que trois. Ces trois neutrinos et les trois leptons chargés qui leur sont associés sont les briques leptoniques de la matière, soumises à l'interaction faible. Les 6 quarks sont les briques hadroniques de la matière, soumises à l'interaction forte. Ils sont regroupés en trois doublets dont l'association aux 3 doublets leptoniques est fondamentale au modèle standard de la physique des particules. Toutes les particules chargées sont en outre soumises à l'interaction électromagnétique, dont l'intensité est intermédiaire entre la force faible et la force forte. Les neutrinos, sans charge électrique, ne sont soumis qu'à l'interaction faible : ils interagissent environ mille milliards de fois moins que l'électron, qui lui-même interagit environ cent fois moins qu'un proton. Quid de leur masse ? Attendons la suite.

2. L'oscillation des neutrinos

Dans le modèle standard dit « minimal » de la physique des particules, les neutrinos n'ont pas de masse. C'est à priori surprenant car toutes les autres briques de matière (quarks, électrons, muons, ...) en ont une. Les tentatives de mesurer directement cette masse sont restées vaines. Les physiciens les plus ingénieux n'ont pu mettre que des limites supérieures sur leur valeur. Et cette limite supérieure est bien inférieure à la masse des leptons chargés associés. Par exemple celle sur la masse du ne est 1 eV [1] alors que la masse de l'électron est de 511000 eV (et celle du proton un milliard d'eV). Si les mesures directes ne donnent rien pour l'instant, il faut faire appel à la ruse, en l'occurrence une propriété liée à la mécanique quantique.
La mécanique quantique nous dit que les neutrinos que l'on observe, les ne, nm ou nt ne coïncident pas nécessairement avec ce qu'on appelle les états propres de masse mais peuvent en être des superpositions. Si les neutrinos ont une masse, le calcul montre alors que lorsqu'ils se déplacent, ils peuvent se transformer (plus ou moins totalement) d'une espèce dans une autre. Le phénomène est périodique en fonction de la distance L parcourue entre la source et le détecteur et a pris le nom d'oscillation. La longueur d'oscillation est proportionnelle à l'énergie et inversement proportionnelle à la différence des carrés des masses des deux neutrinos considérés. Comme nous avons 3 familles de neutrinos, les paramètres de l'oscillation sont 3 angles de mélange qi et deux différences des carrés des masses Dm2ij. La mise en évidence de l'oscillation serait donc une preuve directe que les neutrinos sont massifs.
Si nous voulons illustrer de manière simple le mécanisme d'oscillation et ses conséquences, donnons une couleur à chaque espèce de neutrinos, par exemple bleu pour le ne, rouge pour le nm et vert pour le nt. Supposons une source de neutrinos bleus et un détecteur de neutrinos sensible uniquement aux neutrinos rouges. Si le détecteur ne compte rien, c'est qu'il n'y a pas eu d'oscillation ; si le détecteur compte toujours du rouge, c'est que l'oscillation est maximale ; si le détecteur compte parfois du rouge c'est que le mélange est partiel.
La question de la masse des neutrinos est fondamentale pour ouvrir la porte du modèle standard vers de nouvelles théories plus complètes. Comme nous allons le voir, le mécanisme d'oscillation va prouver non seulement que les neutrinos ont une masse, mais également qu'il est la clé de plusieurs énigmes astrophysiques.

3. Les neutrinos solaires

Depuis les années 20, on pressent que la source d'énergie du Soleil (et des étoiles) est d'origine nucléaire. Les neutrinos nous en ont apporté la preuve directe, à la suite de quarante années excitantes d'échanges passionnés entre les astrophysiciens qui construisent des modèles du Soleil, les expérimentateurs qui inventent et mettent en Suvre des détecteurs de plus en plus gros et de plus en plus sensibles, les théoriciens qui affinent notre compréhension du comportement des neutrinos.
Le Soleil est une gigantesque boule de gaz, essentiellement de l'hydrogène et de l'hélium. Au centre, la température est suffisamment élevée (15 millions de degrés) pour initier des réactions nucléaires de fusion entre deux protons (deux noyaux d'hydrogène). Cette fusion produit un noyau de deutérium, un positron et un ne. Il s'ensuit un cycle compliqué de réactions nucléaires où l'hydrogène va se transformer en hélium en libérant une minuscule quantité d'énergie (10-12W). Lorsque l'on connaît l'énergie produite par le Soleil (1360 W par m2 sur Terre), on calcule que l'on est bombardé en permanence par 65 milliards de neutrinos solaires par cm2 par seconde.
L'histoire commence en 1964 par des discussions entre deux scientifiques que rien ne destinait à collaborer. L'astrophysicien John Bahcall fait les premiers calculs du flux et du spectre en énergie des neutrinos solaires. Raymond Davis, un chimiste, reprend une de ses idées antérieures de détecter les ne avec du chlore grâce à la réaction ne + 37Cl ® e- + 37Ar qui fait intervenir un des isotopes du chlore. Cette méthode radiochimique nécessite de construire un détecteur contenant 600 tonnes de tétrachlorure de carbone C2Cl4, de le placer profondément sous terre dans la mine d'or de Homestake (Dakota du Sud), d'extraire régulièrement les atomes d'argon radioactif (37Ar) et de compter leur désintégration, témoignage direct du passage des neutrinos solaires. L'expérience est difficile car malgré le flux important de neutrinos qui traverse le détecteur, un par jour seulement transmute le chlore en argon. Les premiers résultats, en 1968, montreront que Davis compte trois fois moins d'argon que prévu. C'est le début de ce que l'on a appelé le problème ou l'énigme des neutrinos solaires.
Les astrophysiciens ont raffiné leurs modèles ; plusieurs équipes, dont des françaises, ont brillamment contribué à mieux connaître le fonctionnement du Soleil. L'expérience chlore a continué pendant 30 ans, perfectionnant sa méthode, traquant les inefficacités. D'autres expériences se sont construites : Kamiokande au Japon, à partir de 1986 avec 3000 tonnes d'eau ; les expériences gallium (GALLEX au laboratoire souterrain du Gran Sasso, Italie, et SAGE au laboratoire souterrain de Baksan, Caucase), à partir de 1990 rassemblant près de 100 tonnes de ce précieux métal ; SuperKamiokande au Japon à partir de 1996 et ses 50000 tonnes d'eau. Rien à faire : le flux mesuré est toujours resté inférieur au flux calculé, après toutes les vérifications expérimentales et les progrès théoriques.
Parallèlement, les physiciens des particules, dans leur tentative d'inclure les neutrinos dans leur modèle standard, étudiaient sérieusement cette possibilité que les neutrinos puissent osciller d'une espèce dans une autre. Ils mettaient en évidence un effet nouveau d'amplification possible de l'oscillation dans la matière du Soleil. A la fin des années 90, il était séduisant de penser que les neutrinos solaires n'avaient pas disparu, mais que les ne s'étaient transformés en nm ou nt (hypothèse confortée par la mise en évidence de l'oscillation des nm atmosphériques en 1998 comme nous le verrons dans le chapitre suivant). En effet, tous les détecteurs n'étaient sensibles qu'à ces ne et pas aux nm ou nt. Mais il manquait la preuve ! C'est alors que le détecteur SNO (Sudbury Neutrino Observatory) entre en scène. Utilisant une cible de 2000 tonnes d'eau lourde placée à 2000 m sous terre dans une mine de nickel au Canada, SNO a pu observer non seulement les interactions des ne (ne d ® e- p p) en mesurant l'électron, mais également les interactions de toutes les espèces (n d ® n p n) en mesurant le neutron. En juin 2001, les physiciens de SNO ont pu annoncer que les ne n'avaient pas vraiment disparu, mais qu'ils s'étaient transformés par le mécanisme d'oscillation. Ils montraient également que le flux total de neutrinos solaires était bien égal à celui calculé par les modèles. Ils continuent d'affiner leurs mesures, mais l'essentiel est là, fabuleux épilogue d'une belle histoire scientifique. Nous savons aujourd'hui que les neutrinos solaires se transforment en grande partie (mais pas totalement) en nm ou nt, sans savoir dans quel type en particulier.

4. Les neutrinos atmosphériques.

L'atmosphère est bombardée en permanence par le rayonnement cosmique, constitué pour l'essentiel de protons ou de noyaux plus lourds. Lorsque ces particules arrivent dans les hautes couches de l'atmosphère, elles interagissent avec l'air en produisant des pions. Ceux-ci vont se désintégrer en émettant un muon m et un neutrino nm. Après un parcours variable, le muon lui-même se désintègre en un électron, un antineutrino électronique et un nm. Un bilan rapide donne au niveau du sol deux fois plus de nm que de ne si on oublie la distinction particule-antiparticule, sans importance au premier ordre. Des modèles phénoménologiques calculent toutes les caractéristiques des neutrinos (nature, énergie, direction,...) avec la précision requise.
La mesure des neutrinos atmosphériques est intéressante en soi, mais n'était pas prioritaire pour les physiciens, car la source de ces neutrinos n'a que peu d'intérêt astrophysique. Ils y sont venus lorsqu'ils ont construit au début des années 80 des détecteurs pour observer la désintégration du proton, processus fondamental prédit par les théories de grande unification (fort heureusement avec une durée de vie supérieure à 1032 ans qui nous laisse le temps d'y penser). En effet, les interactions des neutrinos atmosphériques dans le détecteur constituaient un bruit de fond incontournable pour le signal attendu pour la mort du proton.
Le proton s'accrochant à la vie plus que prévu, les physiciens se sont concentrés sur les neutrinos atmosphériques, en essayant de comptabiliser séparément les ne des nm. Les premières expériences (Fréjus au laboratoire souterrain de Modane, Kamiokande au Japon, IMB dans l'Ohio) donnaient des résultats contradictoires. Avec quelques poignées d'événements, certaines observaient un rapport entre les deux types de neutrinos conforme aux prédictions, d'autres observaient un peu moins de nm que prévu. La difficulté de séparer les interactions des deux types de neutrinos (un électron dans un cas, un muon dans l'autre) et la faible statistique rendaient la communauté sceptique.
SuperKamiokande, dont nous avons déjà parlé pour les neutrinos solaires, arrive au printemps 1996. 50000 tonnes d'eau ultra-pure sont observées par plus de 10000 photomultiplicateurs, comme autant d'yeux. Ceux-ci sont sensibles à la lumière Tcherenkov émise dans l'ultra-violet par le passage des particules chargées. L'électron et le muon ont un comportement légèrement différent. Le muon produit un bel anneau de lumière, l'électron un anneau plus flou, plus large. En deux ans, la collaboration SuperKamiokande accumule plusieurs milliers d'interactions de neutrinos et raffine la séparation des deux types. En juin 1998, elle annonce qu'il y a bien un déficit de nm mais que les ne sont au rendez-vous avec le nombre attendu. Elle précise que le déficit de nm est associé à ceux venus des antipodes, c'est-à-dire ceux qui ont traversé la terre en parcourant une distance de plusieurs milliers de km. Comme nous avons appris que l'oscillation dépendait de la distance parcourue, l'interprétation en termes d'oscillation s'imposait naturellement. Depuis, tous les artefacts ont été traqués, les données se sont accumulées, et nous avons maintenant la certitude que non seulement les nm oscillent, mais qu'ils se transforment intégralement en nt.

5. Les neutrinos de supernova

Nous avons vu que les neutrinos étaient les témoins directs de la vie du Soleil : 8 minutes après avoir été produits au cSur de l'étoile, ces messagers nous informent que l'astre qui conditionne la vie sur Terre est en parfaite santé ; il est en plein âge mûr et a encore plus de 4 milliards d'années devant lui. Mais les neutrinos peuvent être également les messagers de la mort des étoiles lorsqu'elles explosent à la fin de leur vie, phénomène que l'on appelle supernova.
Le Grand Nuage de Magellan est une petite galaxie voisine de la Voie Lactée, notre Galaxie, à 150000 années-lumière, visible depuis l'hémisphère sud. A la fin de février 1987, un événement astronomique n'est pas passé inaperçu : nous avons reçu sur Terre le faire-part de décès d'une étoile de ce Nuage, Sanduleak -69°202, il y a justement 150000 ans. Et le message a été transmis par la lumière ... et par les neutrinos.
Dans la nuit du 23 au 24 février 1987, à l'observatoire chilien de Las Campanas, un astronome canadien et son assistant chilien observent par hasard une nouvelle étoile brillante dans le Grand Nuage de Magellan, une étoile qui va être visible pendant quelques dizaines de jour sans télescope. C'est la première supernova de l'année 1987 et elle sera baptisée SN1987A. Il y a des siècles qu'une supernova n'a pas été observée à l'Sil nu. Assez proche de la Terre (tout est relatif), elle n'intéresse pas que les astronomes. Depuis les années 40, on sait que les explosions de certaines supernovas sont des sources de neutrinos. Il devient urgent de le vérifier. Par chance, il y a deux ou trois détecteurs de neutrinos en fonctionnement, en particulier celui de Kamiokande au Japon, qui vient d'entrer en service il y a quelques semaines. Dès l'annonce du télégramme, les japonais se précipitent sur les données accumulées dans les dernières heures. Bienheureuse surprise lorsqu'ils découvrent que, le 23 février à 7h35 en temps universel, une dizaine de signaux caractéristiques se détachent du ronronnement du détecteur (qu'ils appellent le bruit de fond). Le phénomène a duré une poignée de secondes. Une dizaine de neutrinos voyageant depuis 150000 ans se sont laissés piéger par le détecteur souterrain. Mission accomplie pour ces témoins directs de la mort d'une étoile.

Les étoiles ne peuvent vivre qu'en consommant des quantités considérables de carburant. Plus elles sont massives, plus elles en consomment et moins elles vivent longtemps : le carburant s'épuise plus vite car la température centrale de l'étoile est plus élevée. L'histoire commence toujours par la transformation de l'hydrogène en hélium, comme dans le Soleil. Mais ensuite le cycle de réactions nucléaires fait intervenir le carbone, l'oxygène, le néon, puis le silicium, et enfin le fer, le noyau le plus stable. La structure de l'étoile est alors comparable à celle d'un oignon, avec les éléments les plus lourds au centre. Lorsque le cSur de fer a atteint une masse de 1,4 fois celle du Soleil, appelée masse de Chandrasekhar, il s'effondre violemment sur lui-même. La température monte brutalement, mais aucune réaction nucléaire ne peut plus avoir lieu car il n'y a plus de combustible approprié. La densité devient extrême. Les nombreux photons vont alors provoquer la photodésintégration du fer qui va retourner à l'état initial de protons et de neutrons. C'est alors que les électrons se font capturer par les protons dans une réaction (e- p ® n ne) qui est source de neutrinos, les premiers témoins de la mort de l'étoile. Des réactions d'annihilation entre les électrons et les positrons produisent des paires neutrino-antineutrino et ces malheureux restent quelques instants prisonniers tellement la densité est élevée. Soudain, alors que la partie centrale du cSur ne fait plus qu'une vingtaine de km de diamètre, elle se durcit brutalement et provoque le rebond des couches externes, qui tombent en chute libre, créant une formidable onde de choc. L'implosion, jusque là cachée aux yeux extérieurs se transforme en une gigantesque déflagration dévastatrice qui va se propager à travers les pelures de l'oignon. Les couches externes sont alors balayées vers l'extérieur. Au moment de l'explosion, l'étoile qui meurt devient brillante comme mille soleils et les neutrinos libérés se propagent dans tout l'espace.

Dans la réalité, les choses sont un peu plus complexes et les physiciens qui modélisent n'ont pas réussi à faire exploser l'étoile : l'énergie rejetée violemment vers l'extérieur ne serait pas suffisante pour traverser toutes les couches externes qui n'arrêtent pas de tomber vers le centre. Et pourtant l'étoile explose puisqu'on en voit le feu d'artifice. Les physiciens ont alors pensé que les neutrinos pourraient jouer un rôle dans cette explosion en venant à la rescousse de la déflagration. La situation s'améliore, mais l'explosion n'est pas assurée. S'il y a encore du travail, on pense aujourd'hui que les neutrinos sont bien des acteurs indispensables à l'explosion.
Une grande partie de l'énergie gravitationnelle de l'étoile se transforme en neutrinos de toutes les espèces et le nombre produit lors de l'explosion est fabuleux. Environ 1058 de ces particules ont été émises dans toutes les directions. 500 millions de milliards ont traversé le détecteur Kamiokande en moins de 10 secondes et une dizaine a laissé un signal.
Depuis 1987, d'autres détecteurs plus gros, plus performants ont été construits ou sont en projet. La veille est longue. La Nature ne nous a pas encore récompensé d'une nouvelle explosion. Mais nous sommes sûrs que les neutrinos messagers de la mort des étoiles sont déjà en route vers nous. A quand le prochain signal ? Dans un jour, dans un an ou dans dix ans ? Sachons être patients.

6. Les neutrinos extragalactiques

L'Univers est le siège de phénomènes particulièrement violents. Nous venons d'en voir un exemple avec les supernovas, mais il existe des astres dont la violence est permanente. Et si là encore les neutrinos pouvaient compléter les informations que nous donne la lumière reçue dans les télescopes, des ondes radio aux photons gamma en passant par la lumière visible.
Parmi les sources de lumière particulièrement intenses se trouvent les quasars. Il s'agit de trous noirs très massifs, en général au cSur d'une galaxie (on les appelle aussi noyaux actifs de galaxie), qui brillent à eux tout seuls beaucoup plus que le reste de la galaxie. Le trou noir attire la matière avant de l'engloutir, ce qui fournit une fabuleuse source d'énergie gravitationnelle (un ogre comme 3C273, à plus d'un milliard d'années-lumière de nous, se nourrit chaque année de l'équivalent de plusieurs soleils). Cette matière a la forme d'un disque, appelé disque d'accrétion. Perpendiculairement à ce disque, deux puissants jets de particules relativistes sont émis à des distances de plusieurs centaines de milliers d'années-lumière. Dans ces jets, il y a bien sûr des électrons, qui émettent en particulier des rayons gamma très énergiques, du keV au TeV, que l'on observe tous les jours avec les satellites comme INTEGRAL ou les détecteurs au sol comme HESS, en Namibie. Mais il y a aussi probablement des protons. Et ces protons, dans leurs interactions avec la matière environnante, vont produire des pions (rappelons nous les neutrinos atmosphériques) qui vont se désintégrer en gammas s'ils sont neutres ou en muons et neutrinos s'ils sont chargés. Pour nous aider à comprendre le fonctionnement de ces quasars ou d'autres objets astrophysiques comme les pulsars binaires ou les sursauts gamma, il est important de mesurer le flux de neutrinos qu'ils émettent.

Les neutrinos offrent bien des avantages : comme ils interagissent très faiblement, ils peuvent traverser des quantités importantes de matière alors que même les gammas peuvent être absorbés sur des distances cosmologiques ; comme ils n'ont pas de charge, ils ne sont pas déviés par les champs magnétiques galactiques ou intergalactique des régions traversées. Mais il n'y a pas que des avantages. L'inconvénient majeur est bien sûr leur minuscule probabilité d'interaction, même si celle-ci augmente proportionnellement à leur énergie. En outre, les flux prédits par les modèles, si importants soient-ils, sont des milliards de fois inférieurs à celui des neutrinos solaires. La tâche est herculéenne.
Depuis une trentaine d'années, des projets de détecter ces neutrinos venus de l'enfer des quasars ou des sursauts gamma sont à l'étude. Depuis une dizaine d'années, plusieurs sont en construction, que ce soit dans la glace du pôle sud (AMANDA) ou au fond de la Méditerranée (ANTARES). Le principe est toujours le même. Il faut s'affranchir des bruits de fond parasites en s'installant à quelques milliers de mètres de profondeur. Mais même à 2 ou 3 mille mètres, les neutrinos atmosphériques sont le signal dominant (de la même façon qu'on ne voit pas les étoiles durant le jour car la lumière du Soleil est beaucoup plus forte). L'astuce consiste à observer les neutrinos venus des antipodes et qui ont traversé la Terre, utilisée comme filtre au rayonnement parasite. AMANDA observe ainsi l'hémisphère nord du ciel et ANTARES plutôt l'hémisphère sud. Les prédictions, malgré leurs incertitudes, annoncent toutes que ces détecteurs doivent avoir des tailles gigantesques, de l'ordre du km3. Les neutrinos interagissent dans l'eau, la glace ou la roche au voisinage ou à l'intérieur du détecteur ; ils émettent alors un muon (s'il s'agit d'un nm, ou un électron s'il s'agit d'un ne) qui va parcourir plusieurs dizaines ou centaines de mètres à une énergie de plusieurs TeV (1015 eV). Ce muon garde la mémoire de la direction du neutrino incident à ces énergies élevées. Il émet du rayonnement Tcherenkov (cf. SuperKamiokande) observé par des centaines de photomultiplicateurs déployés sur des lignes verticales au fond de la mer ou de la glace.
AMANDA a montré que son détecteur fonctionnait bien, malgré les difficultés de l'implantation au pôle sud ; les physiciens déploient aujourd'hui ICECUBE, au rythme des courts étés antarctiques. ANTARES, une douzaine de lignes de photomultiplicateurs en cours d'installation au large de Toulon, servira de prototype pour un grand projet européen de détecteur kilométrique au fond de la Méditerranée. Au-delà de ces détecteurs pionniers, qui nous réserveront certainement des surprises, comme toujours avec les neutrinos, les physiciens imaginent d'utiliser la radio ou les ondes sonores pour détecter les neutrinos les plus énergiques venus des tréfonds de l'Univers.

7. Les neutrinos du big bang

Nous nous sommes éloignés de notre planète en observant « notre étoile », le Soleil, nous avons franchi les frontières de la galaxie, nous avons remonté l'espace (et le temps) dans le monde extragalactique et les neutrinos sont toujours là. Poursuivons notre voyage vers les origines, le fameux big bang. Les neutrinos y jouent-ils un rôle ?
L'histoire thermique de l'Univers présent commence il y a environ 13 milliards d'années par ce qu'on appelle aujourd'hui le big bang. Son origine reste aujourd'hui encore très spéculative car les lois de la physique ne s'appliquent plus vraiment dans les conditions de température et de densité extrêmes de la singularité initiale. Il y a probablement eu très tôt (vers 10-43 s) une période d'inflation (brusque augmentation de l'espace en quelques 10-40 s), suivie d'une période continue de refroidissement et d'expansion.

Lorsque le temps s'écoule, le fluide cosmique (appelé encore la soupe primordiale) se refroidit en raison de l'expansion et la température diminue très rapidement. Les forces qui régissent le comportement de la matière vont se singulariser l'une après l'autre, en commençant par l'interaction gravitationnelle, bientôt suivie par l'interaction forte. La soupe contient alors des quarks et des leptons. Il y a en particulier des électrons, des photons, et les trois espèces de neutrinos, qui s'annihilent joyeusement avec leurs antiparticules, en se transformant les uns dans les autres. Bien vite cependant l'interaction faible devient beaucoup plus faible que l'interaction électromagnétique et les neutrinos s'annihilent beaucoup moins souvent. Il y a aussi dans la soupe quelques quarks qui vont commencer à former les premiers protons et les premiers neutrons. Lorsque l'Univers continue de refroidir, les neutrinos deviennent si dilués qu'ils ne peuvent plus s'annihiler. Il ne s'est passé qu'une seconde depuis l'explosion primordiale (ou ce qu'on qualifie comme tel), la température est de 10 milliards de degrés et nous voilà en présence des premiers fossiles connus de l'Univers, condamnés à errer à jamais dans l'espace : les neutrinos du big bang. L'histoire continue et le refroidissement se poursuit inexorablement. Le découplage des photons correspond au moment où les électrons se combinent aux premiers noyaux (principalement au plus simple d'entre eux, le proton) pour former les atomes, électriquement neutres. L'Univers est alors âgé de 1 million d'années et la température est de 3000 K. Les photons fossiles vont continuer de se refroidir jusqu'à atteindre la valeur de 3K, température à laquelle ils ont été découverts par Penzias et Wilson en 1965. Les neutrinos eux se sont refroidis un peu plus ; leur température est de 2K, correspondant à une énergie de l'ordre du milli-électron-volt (meV).
Des quantités fabuleuses de neutrinos ont été produites, puisqu'on estime aujourd'hui leur nombre à 300 par cm3 dans tout l'Univers, toutes espèces confondues. Malheureusement, nous n'avons pas réussi à les observer et leur détection est extrêmement difficile, en particulier en raison de leur énergie ridiculement faible. Une telle quantité de neutrinos ne peut laisser indifférent. Ils pourraient être une contribution importante de la matière noire de l'Univers. Las ! Leur masse est trop faible (voir chapitre suivant) pour qu'ils puissent jouer un rôle important à cet égard. On estime aujourd'hui leur contribution quelques pour mille de la densité critique[2], ce qui est malgré tout autant que la masse visible de toutes les étoiles et galaxies. Mais leur rôle en cosmologie n'est pas limité pour autant. Ils interviennent tout d'abord dans la formation des structures de l'Univers, galaxies et amas de galaxies. L'effet est le suivant : tant que les neutrinos sont relativistes (et cette notion dépend de leur masse), ils voyagent librement des régions denses vers les régions moins denses et vont donc contribuer plus ou moins rapidement à la densité locale, définissant des échelles de structures plus ou moins grandes. L'analyse de ce qu'on appelle les grandes structures, avec des sondages profonds de l'Univers, permet aujourd'hui de contraindre la masse des neutrinos à moins de 0,5 eV, mieux que les mesures directes. Ensuite, les neutrinos, en particulier les ne sont indispensables à la nucléosynthèse primordiale ; ils sont nécessaires pour transformer les neutrons en protons et vice-versa à l'aide de plusieurs réactions : ne n « p e- ; p « n e+ ; n ® p e- . Sans ces réactions, nous resterions paralysés par le nombre de protons et de neutrons présents à l'origine, et nous n'aurions pas eu ce formidable réservoir d'hydrogène qui est la source d'énergie de départ de toutes les étoiles qui veulent vivre longtemps. La mesure de l'hélium primordial dans l'Univers a ainsi permis de contraindre le nombre de familles de neutrinos à une valeur de 3, la même que les expériences auprès du LEP.

8. En guise de conclusion.

Les neutrinos sont au cSur d'un processus dialectique fécond entre la physique des particules, l'astrophysique et la cosmologie, entre la théorie et l'expérience. Les progrès considérables de ces dernières années dans notre compréhension des neutrinos sont dûs principalement à l'observation de phénomènes astrophysiques où ils jouent un rôle-clé ; en retour, ils ont solutionné quelques vieilles énigmes. Quel bilan peut-on tirer ? Que nous réserve l'avenir ?

L'analyse simultanée des résultats des expériences de neutrinos solaires et de neutrinos atmosphériques (complétée avec les expériences auprès des réacteurs nucléaires comme Chooz ou KamLAND) donne accès aux paramètres de l'oscillation entre les trois espèces de neutrinos. Concernant la masse, les deux paramètres sont des différences de masses au carré Dm2, et pas la valeur absolue, et on obtient 2,3 10-3 eV2 et 8 10-5 eV2. On peut illustrer la petitesse des masses de neutrino correspondantes à l'aide de quelques hypothèses, et notamment celle d'une hiérarchie des masses de neutrinos analogue à celle des leptons chargés. On estime alors la masse du neutrino le plus lourd, le nt, à 0,05 eV, soit 10 millions de fois plus petite que celle de l'électron ; celle du nm à 0,008 eV, celle du ne encore moins. Cette même analyse nous informe également sur les angles de mélange. Elle dit : a) l'oscillation à la fréquence déterminée par les neutrinos atmosphériques (fonction de leur énergie et la longueur parcourue) est maximale et le nm se transforme intégralement en nt ; l'oscillation à la fréquence déterminée par les neutrinos solaires est grande mais pas maximale et le ne se transforme assez souvent en nm ou nt ; c) le troisième angle de mélange est encore inconnu et l'expérience auprès du réacteur de Chooz a permis de mettre une limite supérieure. Une nouvelle collaboration internationale, Double Chooz, se met en place pour traquer ce dernier paramètre, simultanément avec des expériences auprès des accélérateurs.
Il est une propriété des neutrinos dont nous n'avons pas parlé. Le neutrino pourrait être sa propre antiparticule ? Pour étudier cette possibilité, passionnante sur le plan théorique, des expériences dites de « double désintégration b sans émission de neutrinos » se construisent à travers le monde. Une belle expérience, NEMO3, fonctionne actuellement dans le laboratoire souterrain de Modane à la recherche de ces trop rares événements. En cas de découverte, le résultat donnerait simultanément une information précieuse sur la masse des ne.

En résumé, nous pouvons dire que les neutrinos sont des messagers incontournables de phénomènes fondamentaux dans l'Univers. Au-delà de sa masse, qu'avons-nous appris ? Tout d'abord le Soleil fonctionne comme prévu, sa source d'énergie étant la réaction nucléaire de fusion entre deux protons. Ensuite la mort des étoiles massives en supernova émet des quantités phénoménales de neutrinos, et ils sont probablement acteurs de l'explosion. Les neutrinos sont les plus vieux fossiles de l'Univers, mais contribuent marginalement à la matière noire. L'astronomie neutrino à haute énergie, prometteuse, en est encore à ses balbutiements.
Les neutrinos nous ont gâtés ces dernières années. Ils nous réservent encore bien des surprises. Il suffit d'être curieux et ... patient.



[1] Les physiciens expriment l'énergie en électronvolts (eV), un électronvolt valant 1,6 10-19 joule. La masse est exprimée en eV/c2 et souvent par simplification en eV lorsque l'on prend la convention c=1. Une masse de 1 eV correspond à environ 10-33 g.
[2] La densité de l'Univers s'exprime en fonction de la densité critique. Si la densité est inférieure, l'Univers est ouvert ; si elle est supérieure, il est fermé et son volume est fini. Les mesures des paramètres cosmologiques laissent à penser aujourd'hui que la densité de l'Univers est exactement égale à la densité critique.

 

  VIDEO       CANAL  U         LIEN

 
 
 
  LA PHYSIQUE EN CHAMPS MAGNÉTIQUE INTENSE
 

 

 

 

 

 

 

LA PHYSIQUE EN CHAMPS MAGNÉTIQUE INTENSE


Le champ magnétique semble toujours un peu mystérieux, pourtant les phénomènes magnétiques sont connus depuis presque trois mille ans et ont trouvé des applications partout dans notre vie quotidienne. Le but de cet exposé est à la fois d'expliquer la physique du champ magnétique et de démontrer l'importance des champs magnétiques intenses dans la recherche. La conférence débutera par un bref résumé de la physique des champs magnétiques, à la fois de façon historique et fondamentale. Ensuite, je discuterai trois grands domaines de la physique ou le champ magnétique intervient La manipulation magnétique concerne tous les phénomènes qui génèrent des forces mécaniques sur des objets. L'aimant permanent avec lequel on colle des feuilles sur la porte du frigo, l'électromoteur, la séparation magnétique et la lévitation magnétique sont des exemples parmi tant d'autres. Ces phénomènes ont trouvés beaucoup d'applications, mais sont aussi utilisés comme outils dans la recherche. Le champ magnétique est une perturbation universelle et précise qui permet de sonder la matière et de déterminer beaucoup de paramètres physiques et chimiques. L'exemple le plus connu est l'imagerie médicale par résonance magnétique nucléaire mais il existe beaucoup d'autres sondes basées sur le champ magnétique. Les champs magnétiques intenses peuvent induire des nouveaux états de la matière, en particulier en combinaison avec des basses températures. Dans la physique des solides, plusieurs états exotiques ont été observés, comme des quasi-particules dans les gaz électroniques bidimensionnels, des condensats de Bose-Einstein dans des cristaux et la supraconductivité induite par le champ magnétique.

Texte de la 596 e conférence de l'Université de tous les savoirs prononcée le 18 juillet 2005
Par Geert Rikken: « Physique en champ magnétique intense »




Introduction
Dans cette conférence je vais vous parlez des champs magnétique intenses comme outil de recherche en physique. Vous pourrez voir que d'autres domaines s'en servent également. Je vais commencer avec par une petite introduction historique qui tracera un bref aperçu des lois fondamentales et des techniques pour générer les champs magnétiques intenses. Puis je présenterai trois grandes catégories dans lesquelles on peut classer l'utilisation des champs magnétiques intenses. D'abord il y a la manipulation magnétique ou des forces mécaniques font bouger et s'orienter des objets. Dans la deuxième catégorie on utilise un champ magnétique pour sonder l'état de la matière, c'est-à-dire l'état où elle serait en l'absence du champ magnétique. Puis, dans la troisième catégorie, le champ magnétique crée un nouvel état de la matière qui n'existe pas sans champ magnétique.
Dans la dernière catégorie, il n'y a pas trop d'applications quotidiennes quand on parle des champs très intenses. Pour la manipulation magnétique, il y a beaucoup plus d'application que vous connaissez sans doute, parce que la plupart se rencontrent dans la vie quotidienne. De l'autre coté, en termes d'intensité, c'est la dernière catégorie qui demande les champs les plus élevés et c'est là dessus que les laboratoires de recherche des champs intenses travaillent le plus.


Historique
Le champ magnétique a fasciné les gens depuis prés de 3000 ans. Les anciens chinois le connaissaient déjà et les Romains discutaient déjà l'origine du mot. On trouve deux versions dont l'une est proposée par Lucrétius faisait descendre le mot du nom de la région Magnésie qui se situe en Grèce, et où l'on trouve des aimants permanents constitués essentiellement d'oxyde de fer aimanté. Euclide racontait l'histoire d'un berger, Magnès, qui aurait découvert le phénomène parce que les clous dans ses bottes étaient attirés par certaines pierres. C'est ainsi que l'on aurait donné son nom au phénomène.
Au Moyen Age il y a eu beaucoup d'histoires autour du magnétisme, et les gens ont cru qu'il était médicinal, ou même diabolique. Il faut attendre 1600 pour voir le premier traité scientifique sur le magnétisme. Il est l'Suvre de William Gilbert, le médecin de la Reine d'Angleterre Elizabeth. C'est à cette période que l'électricité a commencé à faire son apparition. Jusqu'en 1820 on considérait que les deux étaient complètement différents, l'un n'ayant rien à faire avec l'autre. C'est le danois Christian Oersted qui a démontré expérimentalement, et par pur hasard, que les deux sont intimement liés. Alors qu'il effectuait une expérience en électricité sur une table se trouvait à proximité sur une autre table une boussole pour une expérience de magnétisme. Il constata que la boussole bougeait quand il faisait passer un courant électrique sur la première table. C'était la preuve que le courant créait un champ magnétique. Une dizaine d'années plus tard Faraday démontra à l'inverse qu'un champ magnétique variable pouvait créer un champ électrique. Tous ces phénomènes ont finalement été résumés par Maxwell dans une forme mathématique qui lie le champ magnétique, le champ électrique, le courant et les charges. Il en donna ainsi une description homogène et cohérente qui s'est avéré correcte jusqu'aujourd'hui.
Depuis, de nombreuses recherches ont été menées dans le domaine des champs magnétiques comme le montre la liste des prix Nobel liés aux résultats obtenus en champ magnétique ou autour de ce domaine (Cf. figure 1). Parmi ces prix certains ont été décernés en physique, d'autres en chimie et en médecine, certains pour des découvertes de phénomènes fondamentaux et d'autres également pour de l'instrumentation développé autour des champs magnétiques, comme par exemple le cyclotron ou le spectromètre de masse qui sont tous les deux basés sur le champs magnétique.

figure 1


Les lois fondamentales
Souvent des gens me demandent « qu'est-ce qu'un champ magnétique ? », et je n'ai pas vraiment de réponse satisfaisante. Une réponse brève et simple est que c'est une manifestation du champ électromagnétique. Il faut simplement accepter de considérer que l'électromagnétisme est une des quatre interactions fondamentales de l'univers et qu'il n'est pas possible de le réduire à des choses encore plus élémentaires. Une autre définition assez utile du champ magnétique est que c'est une influence qui entoure une charge électrique qui bouge.
En électricité, l'objet élémentaire est la charge électrique, en magnétisme les choses ne sont pas si simples. Il n'existe pas une charge magnétique, l'objet élémentaire est le dipôle magnétique qu'on peut s'imaginer comme un courant circulaire. Le moment magnétique correspondant est le rayon fois la vitesse fois la charge et ce moment crée un champ magnétique autour de lui.
Les lois fondamentales classiques du champ magnétique sont assez simples.
D'abord, il y a la force de Lorentz qui dit qu'une charge qui bouge dans un champ subit une force perpendiculaire à la vitesse et au champ. Dans un champ magnétique homogène, un électron fait donc un mouvement circulaire, qui s'appelle le mouvement cyclotron, caractérisé par le rayon cyclotron et la fréquence cyclotron. Deuxièmement, un champ magnétique induit un moment magnétique dans n'importe quelle matière, c'est-à-dire également dans celle qu'on appelle non-magnétique. Si le moment induit s'oppose au champ, on parle de diamagnétisme, si c'est l'opposé, on parle de paramagnétisme. Finalement, l'énergie d'un dipôle dans un champ est le produit scalaire du moment et du champ, qui fait qu'un dipôle préfère être parallèle au champ. Cette énergie s'appelle l'énergie de Zeeman.
Dans la recherche moderne, les champs magnétiques sont souvent appliqués à des systèmes quantiques, dans la physique des solides ou la physique atomique. Dans ces systèmes, les lois quantiques sont dominantes. Le premier phénomène quantique surprenant, lié au champ magnétique est que les particules comme les électrons ou les protons ont un moment magnétique intrinsèque, qu'on appelle le spin. Pour employer une image simple, il faut imaginer que ces particules chargées tournent autour d'un axe. La mécanique quantique dit que le spin des électrons ne peut avoir que deux valeurs, up et down. Il n'existe aucune explication classique pour ce phénomène qui a été découvert expérimentalement sans aucune prévision théorique. Dans la mécanique quantique, il existe aussi un mouvement cyclotron, mais plus compliqué et bien sur quantifié. Le rayon cyclotron, quantifié, est proportionnel à la longueur magnétique, qui correspond pour un champ d'un Tesla à 25 nanomètres, ce qui fait que les champs magnétiques trouvent aujourd'hui beaucoup d'emploi dans les nanosciences. L'énergie cyclotron est quantifiée, et proportionnelle à la fréquence cyclotron. On appelle ces niveaux d'énergie les niveaux de Landau. Le dernier aspect quantique un peu bizarre du champ magnétique est que le champ lui-même devient quantifié, et n'est plus un paramètre continu. Le quanta de flux magnétique est donné par des constantes fondamentales et correspond au champ magnétique qui traverse la surface d'une orbite cyclotron fondamentale d'un électron. L'intensité du champ correspond maintenant à la concentration des quantum de flux.
Cela nous amène au dernier aspect quantique de la physique en champ magnétique. La mécanique quantique connaît deux grandes familles de particules. D'un coté, il y a la famille des fermions, qui consiste en particules qui ont un spin non entier, très souvent ½, et qui ont comme particularité de ne pas pouvoir se partager un état à une énergie donné. Les électrons et les protons en sont des exemples. D'un autre coté, il y a la famille des bosons, qui consiste en particules qui ont un spin entier, et qui ont comme particularité qu'il peuvent se partager un état à un énergie donné. Les photons et certains atomes sont des exemples de bosons. La différence entre bosons et fermions devient importante quand on met beaucoup de particules ensembles. Les fermions ne veulent pas être tous à la même énergie et beaucoup d'entre eux sont donc forcés d'occuper des états à plus hautes énergies. A une température égale à zéro, le niveau de Fermi sépare les états vides des états remplis. Pour les bosons, les choses sont complètement différentes. A une température inégale à zéro, les bosons occupent une gamme d'énergie à cause des excitations thermiques. Mais si on baisse suffisamment la température, il peuvent tous se partager l'état de la plus basse énergie et ainsi créer un état cohérent. Cette transition s'appelle la condensation de Bose-Einstein, et fournit l'explication de la superfluidité de hélium liquide et de la supraconductivité ( Cf. figure 2).

figure 2

La supraconductivité est un phénomène qui a une relation à la fois difficile et fructueuse avec le champ magnétique, comme on le verra après. Dans certains cristaux se crée une attraction entre les électrons, malgré la répulsion Coulombienne, qui est le résultat de la déformation du cristal par les électrons. Deux électrons peuvent ainsi former une paire, appelé paire de Cooper, dans laquelle ils ont leurs moments cinétiques et leurs spins opposés. Cette nouvelle entité, la paire de Cooper, a donc un spin totale égal à zéro et est un boson. A une température suffisamment basse, toutes les paires peuvent condenser dans un état quantique cohérent. Cet état, observé pour la première fois par Kamerlingh Onnes en 1911, a deux propriétés remarquables : la résistivité électrique égale à zéro, d'où le nom supraconductivité, et le champ magnétique expulsé de l'intérieur du cristal, ce que l'on appelle l'effet Meissner. Cet effet existe jusqu'à une valeur critique du champ. Les champs plus intenses détruisent la supraconductivité parce que le deux spins de la paire de Cooper veulent tous les deux s'aligner avec le champ, annihilant ainsi la paire de Cooper et la supraconductivité.


La pratique des champs intenses
Les ordres de grandeur des champs magnétiques qu'on rencontre sont très divers. Autour de nos cerveaux on trouve des champs extrêmement faibles, liés aux activités cérébrales, et utilisés pour étudier ces dernières. Dans l'espace intra stellaire on trouve des champs faibles dont personne ne connaît l'origine. Le champ le plus connu est bien sur celle de la Terre qui fait aligner nos boussoles. Les aimants permanents ont un champ entre 0,1 et 1 Tesla. Des champs plus intenses sont générés par des électro-aimants, qui peuvent aller jusqu'à 1000 Tesla. La Nature a trouvé des moyens plus efficaces, et sur certaines étoiles, appelés les magnétars, les astronomes ont observés des champs d'un milliard de Tesla.
Dans ce qui suit je ne parlerai plus des champs faibles, en dessous d'un Tesla, pour me concentrer sur les champs intenses, crées par des électro-aimants ( Cf. figure 3).

figure 3

La seule méthode de créer un champ magnétique intense est de faire circuler un courant électrique très fort dans un solénoïde. Il y a deux problèmes à résoudre.
D'abord il y a le réchauffement du conducteur à cause du courant électrique. Pour éviter ce réchauffement, on peut utiliser un fil supraconducteur à basse température, qui n'a aucune résistivité électrique. Cette approche est limitée par les champs magnétiques critiques qui détruisent la supraconductivité. L'alternative consiste à refroidir le conducteur pour enlever la chaleur générée par la dissipation électrique.
Le second problème est la force de Lorentz. Le courant et le champ magnétique qu'ils génèrent ensembles créent une force de Lorentz qui va radialement vers l'extérieur, comme si le champ créait une pression magnétique à l'intérieur qui fait exploser le solénoïde quand elle devient trop forte ( Cf. figure 4). Pour remédier à ce problème, les électro-aimants sont construits avec des conducteurs ultra forts, ou avec un renfort externe.

figure 4

Les champs magnétiques intenses statiques jusqu'à quelques Tesla sont généré avec des fils en cuivre sur un noyau en fer, le plus fort de ce type étant l'aimant de Bellevue, construit au début du 20me siècle, qui a atteint 7 Tesla. Des champs atteignant jusqu'à 22 Tesla peuvent être générés avec des fils supraconducteurs refroidis avec de l'hélium liquide. Pour aller encore plus haut, la seule méthode consiste à utiliser du cuivre comme conducteur, en prenant soin de baisser la température par refroidissement à l'eau. Des puissances électriques jusqu'à 20 MW, refroidies avec 300 litres d'eau froide par seconde, permettent de générer jusqu'à 33 Tesla. En combinant les deux dernières techniques, on construit des aimant hybrides, qui ont généré jusqu'à 45 Tesla.
Pour aller plus haut en champ, on doit se contenter des champs transitoires, avec des durées en dessous d'une seconde. A Toulouse on produit des champs jusqu'à 60 Tesla avec des bobines monolithiques, faites d'un fil ultra fort et d'un renfort externe. Avec deux bobines concentriques on peut mieux répartir les contraintes mécaniques et atteindre jusqu'à 77 Tesla, comme l'a démontré récemment une collaboration européenne basée à Toulouse. Si on veut aller encore plus haut il faut accepter que la bobine soit détruite pendant le tir. Les bobines « monospire » sont constituées d'une seule spire en cuivre, qui explose radialement vers l'extérieur pendant un tir, laissant l'expérience au centre de la bobine intact. De cette façon on peut créer jusqu'à 300 Tesla. Les champs les plus intenses sont générés par la compression de flux ; le champ créé par une petite bobine est compressé par un cylindre en cuivre qui à son tour est comprimé par une explosion. Des champs jusqu'à 2000 Tesla ont été obtenus, mais l'expérience a été complètement détruite par l'explosion ( Cf. figure 5).

figure 5





Applications des champs intenses ; manipulation magnétique
Après cette partie technique, passons maintenant aux applications des champs.
La première catégorie d'application est la manipulation magnétique. Ce qui est très connue c'est bien sur l'orientation magnétique, comme, par exemple, dans le cas d'une boussole. On connaît un peu moins la séparation magnétique qui permet d'enlever des composant magnétique d'un mélange, par exemple les ordures ménagères. Assez actuel, avec l'arrivé d'ITER en France, est le confinement magnétique ou l'on peut confiner des particules chargés dans une volume sans qu'ils touchent le parois. Dans les tokamaks, comme ITER, un plasma ultra chaud est ainsi confiné. Toutes ces applications, ainsi que d'autres, comme la réfrigération magnétique ou le frein magnétique, impliquent des champs assez modestes, de quelques Tesla.
Ce qui est plus intéressant en termes de champs intenses est la lévitation magnétique. Non seulement cela demande des champs plus forts mais en outre il semble exister un problème fondamental pour ce phénomène. Il y a un vieux théorème, appelé le théorème d'Earnshaw, qui dit qu'il n'est pas possible d'atteindre une lévitation stable de charges ou d'aimants dans un champ magnétique statique. Si vous avez jamais essayé de prendre deux aimants permanents et d'en faire léviter un au dessus de l'autre, vous savez que c'est effectivement impossible. Il existe deux façons de contourner le théorème d'Earnshaw. La première est la lévitation dynamique, la deuxième la lévitation diamagnétique. Commençons avec la lévitation dynamique. Si le théorème d'Earnshaw interdit la lévitation stable, la stabilité nécessaire à conditions que l'on puisse activement réguler la lévitation. Par exemple on peut avoir une attraction entre un aimant permanent et un électro-aimant. Dès qu'ils se rapprochent trop, on réduit le courant dans l'électro-aimant pour qu'ils s'éloignent. Dès qu'ils s'éloignent trop, on augmente le courant etc. Il faut donc un système électronique de rétroaction pour arriver à une lévitation quasi stable. Ce principe a été implémenté dans le train à lévitation allemand TransRapid, ce qui lui permet d'avancer, sans friction avec les rails, à des vitesses allant jusqu'à 500 km/h.
Avec la lévitation diamagnétique on se sert d'une autre astuce pour contourner le théorème d'Earnshaw ; le diamagnétisme. Le diamagnétisme, ou le matériau repousse le champ magnétique, est un phénomène purement quantique, qui n'est pas couvert par le théorème d'Earnshaw. Dans un champ magnétique inhomogène, le champ exerce une force sur le matériau diamagnétique qui peut compenser la force gravitationnelle, permettant ainsi de faire léviter l'objet. Pour de l'eau, il faut un gradient magnétique d'à peu près 1000 T2/m pour que la lévitation ait lieu, valeur que l'on peut obtenir grâce à des électro-aimants performants. Par exemple, des êtres vivants, qui sont constitués principalement d'eau, peuvent être lévités ainsi en simulant l'apesanteur, une méthode bien sur moins chers que celle qui consiste à les envoyer dans une station spatiale. On peut aussi utiliser la lévitation diamagnétique comme outil de recherche pour étudier par exemple les interactions entre des gouttes d'eau, qui montrent des collisions élastiques sans fusion. On peut observer la lévitation diamagnétique à son extrême en faisant léviter un aimant permanent au dessus d'un supraconducteur, l'effet Meissner du supraconducteur représentant le diamagnétisme total ( Cf. figure 6).

figure 6


Applications des champs intenses ; sonder la matière
La deuxième catégorie des applications des champs intenses concerne le champ magnétique utilisé comme outil pour sonder la matière et déterminer ses propriétés, y compris des propriétés non-magnétiques. La première est l'effet Hall, qui est une conséquence de la force de Lorentz et qui fait qu'un courant qui passe perpendiculairement à un champ, crée un champ électrique perpendiculaire à ce courant et à ce champ. Cet effet permet de déterminer le signe de large des porteurs et leur concentration. La deuxième application dans cette catégorie est la résonance magnétique. Comme je l'ai expliqué avant, un moment magnétique quantique peut avoir deux valeurs, spin up et spin down, et ces deux états sont séparés par l'énergie de Zeeman. Si on irradie ce moment avec de la radiation électromagnétique, dont la fréquence correspond exactement à cette énergie, cette radiation peut être absorbé, le spin sera tourné du down vers le up et on parle alors de résonance. Ce principe peut être appliqué à plusieurs types de moments magnétiques. Pour les spins nucléaires, on parle de résonance magnétique nucléaire (RMN) et les fréquences nécessaires sont entre 10 et 1000 MHz. Si on l'applique aux spins des électrons, on parle de résonance paramagnétique des électrons (RPE) et les fréquences sont typiquement mille fois plus hautes, entre 10 et 1000 GHz. On peut aussi l'appliquer aux moments magnétiques orbitaux, comme le mouvement cyclotron des électrons (on parle de résonance cyclotron, dans le domaine de fréquences terahertz) ou des ions. Ces ions on peut les créer en ionisant des molécules et ainsi on peut déterminer la masse des molécules avec une très haute précision en mesurant la fréquence de résonance avec une haute précision. Dans ce qui va suivre je souhaite montrer pourquoi la RMN et sa dérivé, l'IRM (imagerie par résonance magnétique), sont tellement puissantes et utiles.
L'essentiel est que la RMN sonde le champ magnétique local d'un spin nucléaire. Si vous imaginez par exemple une molécule de benzène avec un champ perpendiculaire à l'anneaux des atomes de carbones, le moment magnétique induit dans les électrons de la molécule crée son propre champ magnétique qui est superposé au champ externe et qui fait que les protons dans le noyau des atomes d'hydrogène qui sont à l'extérieur de cet anneaux, voient un champ local légèrement différent ( Cf. figure 7). Leur fréquence de résonance sera donc un peu différente que la valeur pour un proton libre et cette différence est une empreinte pour l'environnement chimique de ces protons. En mesurant les différentes fréquences de résonances des protons dans une molécule organique, on peut déduire l'environnement chimique de chaque type de proton et ainsi reconstruire la structure de la molécule. Aujourd'hui la RMN est une des méthodes d'analyse les plus performantes en chimie organique. Des champs magnétiques très intenses sont nécessaires pour analyser les solides par RMN, parce que les raies de résonance sont beaucoup plus larges.

figure 7

Vous connaissez probablement tous quelqu'un qui a subit un examen d'imagerie par résonance magnétique, qui est une application récente de la RMN. Dans l'IRM on utilise toujours la RMN pour sonder le champ local, mais maintenant à une échelle macroscopique quand on applique un champ magnétique avec un gradient. La position le long du gradient se traduit dans une fréquence de résonance, et l'intensité de l'absorption à cette fréquence se traduit dans la concentration des noyaux à cette position dans le gradient. En faisant ces mesures avec des gradients en trois directions, un ordinateur peut reconstruire un plan tri-dimensionnel de la concentration de ces noyaux, qui peut alors être interprété par un médecin.
La troisième catégorie des sondes magnétiques de la matière est constituée des oscillations quantiques. Pour des fermions, les variations de l'énergie de Landau et du rayon du cyclotron avec le champ magnétiques font que le niveau de Fermi, et donc toutes les propriétés électroniques, vont varier périodiquement avec 1/B. Il y a plusieurs manifestations de ces variations, appelés oscillations quantiques. La plus connue est l'oscillation de l'aimantation du système appelée l'effet de Haas van Alphen. On peut aussi l'observer dans la résistivité électrique appelée effet Shubnikov de Haas. Avec ces oscillations, on peut déterminer la masse effective des électrons, leur temps de diffusion et leur surface de Fermi, la surface séparant les états vides des états remplis, en mesurant les oscillations en fonction de l'angle entre le champ et les axes du cristal.


Applications des champs intenses ; créer des nouveaux états
Le troisième grand groupe d'application des champs magnétiques intenses est la création des nouveaux états de la matière condensée et je voudrais vous présenter trois catégories.
Dans les gaz bidimensionnels des électrons, les champs intenses créent les effets Hall quantique intégrale et fractionnaire, les deux découvertes couronnés avec un prix Nobel.
Le gaz bidimensionnel existe à l'interface entre deux couches dans certains dispositifs semi-conducteurs et comme pour tous les conducteurs il a un effet Hall que j'ai décrit avant. La grande surprise, observée par von Klitzing en 1980, était qu'on n'observe pas la prédiction classique, c'est-à-dire un effet Hall linéaire en champ magnétiques, mais des plateaux quantifié dans la résistance de Hall, et des zéros dans la résistance longitudinale. L'explication de l'effet Hall quantique intégrale vient des impuretés dans le système. Ces impuretés font que les niveaux de Landau sont élargis et que les états loin du centre du niveau sont localisés. Tant que le niveau de Fermi se trouve dans ces états localisés, la résistance de Hall est donnée par le facteur de remplissage, c'est-à-dire, le nombre de niveaux de Landau en dessous du niveau de Fermi (et donc constant), et la résistance longitudinale est zéro parce que les porteurs mobiles n'ont pas d'états vides proches disponibles. Comme l'effet Hall quantique dépend des impuretés, il doit disparaître si on réussit à fabriquer des systèmes plus propres, ce qui a été observé. Mais en même temps un autre effet Hall quantique inattendu se manifestait. L'effet Hall quantique fractionnaire phénoménologiquement ressemble beaucoup à l'effet Hall quantique intégrale, mais cette fois ci, les plateaux et les zéros se trouvent à des facteurs de remplissage donnés par des fractions. L'explication de l'effet Hall quantique fractionnaire, donnée par Laughlin, et récompensée par un prix Nobel en 1998, est que les interactions entre les électrons deviennent dominantes et qu'une nouvelle entité se forme, constitué d'un électron avec deux quantum de flux magnétique et qu'on appelle un fermion composite. Dans cette description, l'effet Hall quantique fractionnaire des électrons devient l'effet Hall quantique intégrale des fermions composites.
La deuxième catégorie concerne la supraconductivité exotique. Depuis la découverte de la supraconductivité en 1911, la température critique (la température en dessous laquelle la supraconductivité existe) a monté doucement avec les découvertes de nouveaux matériaux. Un grand saut fut fait en 1986 avec la découverte d'une nouvelle famille de supraconducteurs ; les cuprates. Ils sont composés de couches d'oxyde de cuivre ou la conduction électrique a lieu, séparés par des couches d'autres atomes, qui servent aussi pour injecter de la charge dans les couches d'oxydes de cuivre. Les structures cristallines sont assez compliquées et les diagrammes de phase de ces composés sont très riches, en particulier en fonction du dopage, c'est-à-dire du nombre d'électrons ou de trous par atome de cuivre, introduit par les autres atomes. On y trouve des phases isolantes, supraconductrices, anti-ferromagnétiques et métalliques. Le mécanisme de la supraconductivité dans les cuprates n'est pas bien connu, et aussi l'état normal des cuprates au dessus de la température critique est mal compris et on ne sait par exemple pas s'il est isolant ou métallique. L'approche normale pour discriminer entre un isolant et un métal est de refroidir le système, et de mesurer sa résistivité électrique. Pour un isolant, cette résistivité doit diverger tandis que pour un métal il devient constant. Pour les cuprates, cette approche n'est pas possible parce que la supraconductivité intervient. La solution est d'appliquer un champ magnétique intense pour supprimer la supraconductivité. Sous ces conditions, on peut mesurer la résistivité de l'état normal jusqu'à de basses températures. Récemment on a ainsi observé dans des échantillons très purs d'YBaCuO que l'état normal est métallique.
Je vous ai expliqué qu'un champ intense tue la supraconductivité. Paradoxalement, le contraire existe aussi, de la supraconductivité induit par le champ magnétique ! C'est le cas dans certains conducteurs organiques qui contiennent des anions paramagnétiques. Les électrons de conduction sentent le champ externe et le champ d'échange des ions et les deux sont opposés. Pour une certaine gamme de champs externes, les deux champs se compensent à peu près, les électrons sentent donc très peu de champ total et la supraconductivité peut exister. Ce phénomène s'appelle l'effet Jaccarino-Peter.
La dernière catégorie où le champ magnétique crée des nouveaux états, fait partie du magnétisme quantique. Aujourd'hui, les chimistes savent synthétiser des nouveaux cristaux très purs des oxydes des métaux de transition. Les interactions entre les charges, les moments magnétiques orbitaux, les spins et les phonons donnent une grande richesse à ces systèmes, avec beaucoup de phases différentes en fonction de la température et du dopage. Que se passe-t-il si on ajoute encore une composante, le champ magnétique ? Un champ magnétique lui aussi peut induire une transition de phase, comme la température ou la pression. Cela devient clair si on regarde un système de deux électrons avec spin ½. En général ils s'accouplent anti-parallèlement pour donner une paire avec spin zéro, l'état singlet. L'état parallèle avec le spin égal à un, appelé l'état triplet, a une énergie plus haute. Mais à partir d'un certain champ magnétique externe, à cause de l'effet Zeeman, l'état avec spin -1 a une énergie plus basse que l'état avec spin égal à zéro et le système change d'état. La combinaison des oxydes de métaux de transition avec la transition de phase magnétique a récemment donnée quelques résultats remarquables. Le premier exemple est la condensation de Bose-Einstein des triplons dans le pourpre de Han. C'est un système des couches anisotropes de dimères des ions paramagnétiques de cuivre. Le résultat des interactions entre tous les ions est que l'état fondamental à champ zéro est non magnétique. L'application d'un champ magnétique intense fait croiser l'état triplet à l'état singlet. De leur mélange, une nouvelle entité sort : le triplon. A cause de leur spin entier, les triplons sont des bosons et il peuvent condenser à basse température dans un état cohérent : la condensation Bose-Einstein. Cette transition de phase magnétique est visible dans la chaleur spécifique. Avec des mesures de la chaleur spécifique en fonction de la température et du champ, on peut trouver le diagramme de phase et identifier le domaine du condensât des triplons.
Le deuxième exemple est aussi un système de couches d'ions de cuivre : le SrCu2(BO3)2. Dans ce système, des plateaux d'aimantation ont été observés. Récemment, des mesures de RMN à très basses températures et dans un champ très intense ont démontré que sur ces plateaux, le système a une superstructure magnétique très compliqué qui n'existe pas ailleurs.

C'est avec ce dernier exemple que je termine mon exposé. J'espère avoir pu vous montrer que la physique en champ magnétique intense est à la fois utile, puissante et fascinante. Je tiens à remercier tous mes collègues pour les discussions et pour m'avoir fourni des images.

 

  VIDEO       CANAL  U         LIEN

 
 
 
  SUIVRE LES RÉACTIONS ENTRE LES ATOMES EN LES PHOTOGRAPHIANT AVEC DES LASERS
 

 

 

 

 

 

 

SUIVRE LES RÉACTIONS ENTRE LES ATOMES EN LES PHOTOGRAPHIANT AVEC DES LASERS

"Les progrès de l'optique ont conduit à des avancées significatives dans la connaissance du monde du vivant. Le développement des lasers impulsionnels n'a pas échappé à cette règle. Il a permis de passer de l'ère du biologiste-observateur à l'ère du biologiste-acteur en lui permettant à la fois de synchroniser des réactions biochimiques et de les observer en temps réel, y compris in situ. Ce progrès indéniable a néanmoins eu un coût. En effet, à cette occasion le biologiste est (presque) devenu aveugle, son spectre d'intervention et d'analyse étant brutalement réduit à celui autorisé par la technologie des lasers, c'est à dire à quelques longueurs d'onde bien spécifiques. Depuis peu, nous assistons à la fin de cette époque obscure. Le laser femtoseconde est devenu "" accordable "" des RX à l'infrarouge lointain. Il est aussi devenu exportable des laboratoires spécialisés en physique et technologie des lasers. Dans le même temps, la maîtrise des outils de biologie moléculaire et l'explosion des biotechnologies qui en a résulté, ont autorisé une modification à volonté des propriétés - y compris optiques - du milieu vivant. Une imagerie et une spectroscopie fonctionnelles cellulaire et moléculaire sont ainsi en train de se mettre en place. L'exposé présentera à travers quelques exemples, la nature des enjeux scientifiques et industriels associés à l'approche "" perturbative "" du fonctionnement des structures moléculaires et en particulier dans le domaine de la biologie. "

Texte de la 211e conférence de l’Université de tous les savoirs donnée le 29 juillet 2000.
La vie des molécules biologiques en temps réel : Laser et dynamique des protéines
par Jean-Louis Martin
En aval des recherches autour des génomes, alors que le catalogue des possibles géniques et protéiques est en voie d’achèvement, nous sommes entrés dans l’ère fonctionnelle qui doit nous conduire à comprendre comment toutes les molécules répertoriées interviennent pour « faire la vie ». Le profit qui sera fait de cette masse d’informations, dépend de notre capacité à intégrer ces données moléculaires dans des schémas fonctionnels sous-tendant la constitution et l’activité des cellules voire des organes et des organismes.
Cette intégration va dépendre de domaines de recherche très variés, différents de ceux qui traditionnellement ont fait progresser la biologie des systèmes intégrés.
Au niveau cellulaire, l’approche fonctionnelle est déjà très avancée, en partie parce qu’elle s’appuie sur des compétences, des technologies et des concepts, largement communs à ceux développés par la génétique et la biologie moléculaire. Elle est toutefois, à ce jour, encore loin d’aboutir à une mise en cohérence du rôle fonctionnel des différents acteurs dont elle identifie le rôle au sein de la cellule : récepteurs, canaux ioniques, messagers, second messagers… Les progrès dans ce domaine vont être intimement liés à notre capacité à développer des outils autorisant à la fois un suivi in situ des différents acteurs, et une manipulation à l’échelle de la molécule.
Les développements technologiques spectaculaires dans le domaine des lasers impulsionnels a déjà permis le développement d’une nouvelle microscopie en trois dimensions : la microscopie confocale non linéaire. Associée à la construction de protéines chimères fluorescentes, cet outil a déjà permis de progresser significativement dans la localisation d’une cible protéique ou dans l’identification de voies de trafic intracellulaire.
Cependant, le décryptage in situ et in vivo du rôle fonctionnel des différents acteurs, en particulier protéique, ou plus encore, la compréhension des mécanismes sous-jacents, constituent des défis que peu d’équipes dans le monde ont relevés à ce jour. Il s’agit ici d’associer des techniques permettant de donner un sens à une cascade d’évènements qui s’échelonnent sur des échelles de temps allant de la centaine de femtoseconde1 à plusieurs milliers de secondes.
Le fonctionnement des protéines en temps réel
Le fonctionnement des macromolécules biologiques – protéines, acides nucléiques – est intimement lié à leur capacité à modifier leurs configurations spatiales lors de leur interaction avec des entités spécifiques de l’environnement, y compris avec d’autres macromolécules. Le passage d’une configuration à une autre requiert en général de faibles variations d’énergie, ce qui autorise une grande sensibilité aux variations des paramètres de l’environnement, associée à une dynamique interne des macromolécules biologiques s’exprimant sur un vaste domaine temporel.
Dans une première approche, on peut considérer qu’une vitesse de réaction biologique est la résultante du « produit » de deux termes: une dynamique intrinsèque des atomes et une probabilité de transition électronique. C’est en général ce dernier facteur de probabilité qui limite la vitesse d’une réaction. Une réaction biochimique est généralement lente non pas comme conséquence d’évènements intrinsèquement lents, mais comme le résultat d’une faible probabilité avec laquelle certains de ces évènements moléculaires peuvent se produire.
Plus précisément, une réaction biologique qui implique, par exemple, une rupture ou une formation de liaison, est tributaire de deux classes d’évènement : d’une part un déplacement relatif des noyaux des atomes et d’autre part une redistribution d’électrons parmi différentes orbitales. Ces deux catégories d’évènements s’expriment sur des échelles de temps qui leur sont propres et qui dépendent de la structure électronique et des masses atomiques des éléments constituant la molécule. Ainsi la dynamique des atomes autour de leur position d’équilibre est, en première approximation, celle d’oscillateurs harmoniques faits de masses ponctuelles couplées par des forces de rappels. Dans le cas des macromolécules biologiques, les milliers d’atomes que comporte le système évoluent sur une hyper-surface d’énergie dont la dimension est déterminée par le nombre de degrés de liberté de l’ensemble du complexe.
Le « travail » que doit effectuer une protéine est de nature très variée : catalyse dans le cas des enzymes, transduction de signal dans le cas de récepteurs, transfert de charges de site à site, transport de substances … mais il existe une caractéristique commune dans le fonctionnement de ces protéines : la sélection de chemins réactionnels spécifiques au sein de cette surface de potentiel. À l’évidence le système biologique n’explore pas l’ensemble de l’espace conformationnel : le coût entropique serait fatal à la réaction… et à l’organisme qui l’héberge.
L’identification de ce chemin réactionnel au sein de l’édifice constitue l’objectif essentiel des expériences de femto-biologie.
L’approche expérimentale : produire un séisme moléculaire et le suivre par stroboscopie laser femtoseconde
Dans une protéine, qui comporte des milliers d’atomes, l’identification des mouvements participant à la réaction moléculaire n’est pas chose aisée.
Comment réussir à caractériser la dynamique conduisant à une conformation intermédiaire qui est elle-même à la fois très fugace et peu probable ?
La cinétique de ces mouvements est directement déterminée par les modes de vibration de la protéine. On peut donc s’attendre à des mouvements dans les domaines femtoseconde et picoseconde2. Pour espérer avoir quelques succès dans cette investigation, il est par ailleurs impératif d’utiliser un système moléculaire accessible à la fois à l’expérimentation et à la simulation, la signature spectrale de la dynamique des protéines n’apportant que des informations indirectes. De plus, la réaction étudiée doit pouvoir être induite de manière « synchrone » pour un ensemble de molécules. Il est donc nécessaire de perturber de manière physiologique un ensemble moléculaire dans une échelle de temps plus courte que celle des mouvements internes les plus rapides, donc avec une impulsion femtoseconde.
Cette approche « percussionnelle » est commune à la plupart des domaines de recherche utilisant des impulsions femtosecondes. La biologie ne se distingue sur ce point, que dans l’adaptation de la perturbation optique pour en faire une perturbation physiologique. Le problème est naturellement résolu dans le cas des photorécepteurs pour lesquels le photon est « l’entrée » naturelle du système. Ceci explique les nombreux travaux en photosynthèse : transfert d’électron dans les centres réactionnels bactériens, transfert d’énergie au sein d’antennes collectrices de lumière dans les bactéries, mais aussi les études transferts de charges au sein d’enzyme de réparation de l’ADN ou responsable de la synchronisation des rythmes biologiques avec la lumière solaire, ainsi que les travaux sur les premières étapes de la vision dans la rhodopsine.
Il existe par ailleurs des situations favorables où la protéine comporte un cofacteur optiquement actif qui peut servir de déclencheur interne d’une réaction: c’est la cas des hémoprotéines comme l’hémoglobine que l’on trouve dans les globules rouges ou les enzymes impliquées dans la respiration des cellules comme la cytochrome oxydase. Dans ces hémoprotéines il est possible de rompre la liaison du ligand (oxygène, NO ou CO) avec son site d’ancrage dans la moléculen par une impulsion lumineuse femtoseconde.On se rapproche ici des conditions physiologiques, la transition optique permettant de placer le site actif de l’hémoprotéine dans un état instable entrainant la rupture de la liaison site actif-ligand en moins de 50 femtosecondes. Cette méthode aboutit à la synchronisation de l’ensemble des réactions d’un grand nombre de molécules. Il est alors possible de suivre leur comportement pendant la réaction et d’identifier les changements de conformation lors du passage des cols énergétiques. On peut faire une analogie sportive : en suivant l’évolution de la vitesse d’un « peloton » de coureurs cyclistes lors d’une étape du tour de France, on peut retracer le profil de cols et de vallées de l’étape, à condition que les coureurs partent au même instant. Pour un « peloton » de molécules, c’est le Laser femtoseconde qui joue le rôle du « starter » de l’étape.
Le paysage moléculaire dans les premiers instants d’une réaction : la propagation d’un séisme moléculaire
Dans les premiers instants qui suivent la perturbation (dissociation de l’oxygène de l’hème, par exemple), les premiers évènements moléculaires resteront localisés à l’environnement proche du site actif. À une discrimination temporelle dans le domaine femtoseconde, correspond donc une discrimination spatiale au sein de la molécule. Il devient ainsi possible de suivre la propagation du changement de conformation au sein de la molécule. Pour donner un ordre de grandeur, celui-ci s’effectue en effet en première approximation à la vitesse d’une onde acoustique ( environ 1200m/s) qui, traduite à l’échelle de la molécule, est 1200x10-12 soit 12 Å par picoseconde. En 100 fs la perturbation initiale est donc essentiellement localisée au site actif. Nous sommes au tout début du séisme moléculaire. En augmentant progressivement le retard de l’impulsion analyse par rapport à l’impulsion dissociation, il est possible de visualiser les chemins de changement conformationnel de la protéine et d’identifier les mouvements associés au fonctionnement de la macromolécule.
Ce simple calcul montre que la spectroscopie femtoseconde se distingue de manière fondamentale des techniques à résolution temporelle plus faible: il ne s’agit plus d’ obtenir des constantes de réaction avec une meilleur précision, mais l’intérêt majeure des « outils femtosecondes » provient du fait que pour la première fois il est possible de décomposer les évènements à l’origine de ces réactions ou induits par la réaction.
Cette discrimination spatiale associée à une résolution temporelle femtoseconde a un autre intérêt qui est de « simplifier » un système complexe sans avoir à utiliser une approche réductionniste (par coupure chimique) qui peut conduire le biophysicien moléculaire à étudier un sous-ensemble d’un complexe moléculaire dont les propriétés n’auront que peu de choses à voir avec la fonction biologique de l’ensemble.
La compréhension d’un automate moléculaire
Dès le début des années 80, l’approche percussionnelle dans le régime femtoseconde a été développée dans le domaine de la dynamique fonctionnelle des hémoprotéines et en particulier pour l’étude de l’hémoglobine. Cette protéine qui comporte quatre sites de fixation de l’oxygène, les hèmes, est capable d’auto-réguler sa réactivité à l’oxygène : c’est une régulation dite « allostérique ». La régulation allostérique de l’hémoglobine se traduit par le fait que la dissociation ou la liaison d’une molécule d’oxygène entraine une modification d’un facteur 300 de l’affinité des autres hèmes pour l’oxygène. La structure de l’hémoglobine est connue à une résolution atomique à la fois dans l’état ligandé (ou oxyhémoglobine) et dans l’état déligandé (désoxyhémoglobine). De ces travaux on sait que l’hémoglobine possède deux structures stables qui lui confèrent soit une haute affinité (état R) soit une basse affinité (état T) pour l’oxygène. Il s’agissait de déterminer le mécanisme, qui partant de la rupture d’une simple liaison chimique entre oxygène et fer induit un changement conformationel de l’ensemble du tétramère conduisant à distance à une modulation importante de l’affinité des autres sites de liaison.
Le débat de l’époque concernant la transition allostérique dans l’hémoglobine n’avait pas encore décidé du choix entre cause et conséquence au sein de l’édifice moléculaire. Nous connaissions les deux structures à l’équilibre avec une résolution atomique, grâce aux travaux de Max Perutz. Il était connu, même si cela n’était pas encore unanimement admis, que la dissociation de l’oxygène de l’hème entrainait « à terme » un changement conformationnel de ce dernier par déplacement de l’atome de fer en dehors du plan des pyrroles. Deux modèles s’opposaient: ce déplacement était-il la cause ou la conséquence du changement conformationnel impliquant la structure tertiaire et quaternaire de l’hémoglobine ? Dans la première hypothèse, cet évènement était crucial puisque le déclencheur de la communication hème-hème au sein de l’hémoglobine, c’est à dire le processus qui traduisait une perturbation très locale ( rupture d’une liaison chimique en un « basculement » de la structure globale vers un autre état). En discriminant temporellement les évènements consécutifs à la rupture de la liaison ligand-fer, il a été montré que le premier évènement est le déplacement du fer en dehors du plan de l’hème en 300 femtosecondes. Cet événement ultra-rapide constitue une étape cruciale dans la réaction de l’hémoglobine avec l’oxygène. Il contribue à donner à l’hémoglobine les propriétés d’un transporteur d’oxygène en autorisant une communication d’un site de fixation de l’oxygène à un autre. Un événement excessivement fugace et à l’échelle nanoscopique a donc retentissement au niveau des grandes régulations physiologiques : ici l’oxygénation des tissus.
À ce jour, l’essentiel du scénario consécutif à cet événement initial, qui conduit à la communication hème-hème, reste à découvrir. Pour cela il est nécessaire de faire appel à des outils permettant de suivre la propagation de ce « séisme initial » au sein de l’édifice et d’identifier ainsi les mouvements atomiques contribuant au chemin réactionnel. Des nouveaux outils restent à découvrir, certains sont en cours de développement : diffraction RX femtoseconde, spectroscopie infra-rouge dans le domaine THz sont probablement les outils adaptés.
La catalyse enzymatique : la caractérisation des états de transition
Dans son commentaire sur le prix Nobel en « femtochimie », l’éditeur de Nature3 écrit dans le dernier paragraphe : « It seems inevitable that ultrafast change in biological systems will receivre increasing attention ».
Sur quoi se fonde une telle certitude ?
Pour une part, sur une réflexion qui date d’un demi-siècle : celle de Linus Pauling qui était essentiellement de nature théorique. Pauling a proposé que le rôle des enzymes est d’augmenter la probabilité d’obtenir un état conformationnel à haute énergie très fugace ou, en d’autres termes, de stabiliser l’état de transition c’est-à-dire l’état conformationnel conduisant à la catalyse. En d’autres termes, il s’agit d’optimiser l’allure du « peloton » au sommet du Tourmalet. Dans les enzymes comme pour les coureurs, c’est à cet endroit que l’avenir de la réaction se joue, et c’est ici que les enzymes interviennent !
Le préalable à la compréhension du fonctionnement des enzymes est donc la caractérisation des états de transition. Une démonstration expérimentale indirecte a été la production d’anticorps catalytiques- ou abzymes- par Lerner et coll. dans le début des années 80. En effet, suivant le raisonnement de Pauling, les anti-corps « reconnaissent » leur cible épitopique dans leur état fondamental ( c’est à dire au minimum de la surface de potentiel, dans la vallée énergétique) alors que les enzymes reconnaissent leur cible, le substrat, dans son état de transition, au col énergétique. Les anticorps deviendont catalytiques si, produits en réponse à la présence d’une molécule mimant l’état de transition d’un substrat, ils sont mis en présence de ce dernier... : ça marche... plus ou moins bien, mais ceci est une autre histoire.
La caractérisation de cet état de transition est donc un préalable à la compréhension des mécanismes de catalyse mais aussi à la conception d’effecteurs modifiant la réactivité. Dans une protéine, qui comporte des milliers d’atomes, l’identification des mouvements participant à la réaction moléculaire n’est pas chose aisée, l’interprétation des spectres ne pouvant plus être directe, comme dans le cas des molécules diatomiques. La cinétique de ces mouvements est directement déterminée par les modes de vibration de la protéine. On peut donc, ici aussi, s’attendre à des mouvements dans le domaine femtoseconde.
Il existe une classe d’enzymes pour laquelle la structure de l’état de transition est connue grace à des approches théoriques : ce sont les protéases dont on sait qu’elles favorisent la configuration tétrahédrique du carbone de la liaison peptidique.Cette connaissance de l’état de transition a autorisé une approche rationnelle dans la conception de molécules « candidat-médicament »: les inhibiteurs de protéase. Il n’est donc pas surprenant qu’à ce jour, les seuls médicaments sur le marché -et non des moindres- issus d’une démarche scientifique véritablement rationnelle soient des inhibiteurs de protéases ou de peptidases : inhibiteurs de l’enzyme de conversion (IEC), inhibiteurs de protéase du virus HIV, base de « la tri-thérapie ».
En donnant l’espoir de photographier les états de transition, la femto-biologie ouvre la perspective d’une démarche rationnelle dans la conception d’inhibiteurs spécifiques. Avant qu’une telle possibilité ne soit offerte, il reste néanmoins à surmonter de sérieuses difficultés: le développement d’une méthode plus directe de visulisation des conformations, en particulier par diffraction RX femtoseconde, mais aussi la mise au point de méthodes de synchronisation à l’échelle femtoseconde de réactions enzymatiques au sein d’un cristal.
Filmer les molécules à l’échelle femtoseconde a permis de mettre en évidence un comportement inattendu d’enzymes de la respiration : l’utilisation de mouvements de balancier des atomes au profit d’une grande efficacité de réaction
La vie de tous les organismes aérobies – dont nous sommes – dépendent d’une classe d’enzyme : les oxydases et plus particulièrement pour les eucaryotes, de cytochromes oxydases. Cette enzyme est la seule capable de transférer des électrons à l’oxygène en s’auto-oxydant de manière réversible. Elle est responsable de la consommation de 90 % de l’oxygène de la biosphère.
Un dysfonctionnement de cette enzyme a un effet délétère sur la cellule, en particulier par production du très toxique radical hydroxyle °OH. Au delà d’un certain seuil de production, les systèmes de détoxification sont débordés. Le stress oxydatif qui en résulte peut se traduire par diverses pathologies. On retrouve une telle situation en période post-ischémique dans l’infarctus du myocarde, mais aussi dans des maladies neurodégénératives ou lors du vieillissement.
Cette enzyme catalyse la réduction de l’oxygène en eau à partir d’équivalents réducteur cédés par le cytochrome c soluble. Cette réduction à quatre électrons est couplée à la translocation de quatre protons à travers la membrane mitochondriale. L’oxygène et ses intermédiaires restent liés à un hème (l’hème a3) dans un site très spécifique. Ce site comprend, outre l’heme a3, un atome de cuivre, le CuB. Cet atome joue un rôle important dans le contrôle de l’accès des ligands vers ce site ou vers le milieu. Des ligands diatomiques (O2, NO, CO) peuvent établir des liaisons soit avec le Fer de l’hème a3, soit avec le CuB, mais le site actif parait trop encombré pour accommoder deux ligands.
Des études récentes en dynamique femtoseconde ont permis d’élucider le mécanisme de transfert de ligand (monoxyde de carbone (CO)), de l’hème a3 vers le CuB. Le CO est une molécule de transduction du signal produite en faible quantité par l’organisme, qui inhibe la cytochrome c oxidase par formation d’un complexe heme a3-CO stable. En suivant cette réaction par spectroscopie femtoseconde, il a été possible de mettre en évidence un mécanisme très efficace, et en toute sécurité, de transfert d’une molécule dangereuse pour la vie cellulaire. L’enzyme libère la molécule de CO d’un premier site en lui donnant une impulsion qui oriente sa trajectoire vers le site suivant en la protégeant de collisions avec l’environnement.
Dans ce dernier exemple l’enzyme a atteint un degré de sophistication supplémentaire : outre le franchissement du col énergétique de façon optimale, l’enzyme évite la diffusion d’une molécule dangereuse pour la survie cellulaire, tout en l’utilisant comme messager très efficace !
Vers le décloisonnement des disciplines
Le cinema moléculaire n’en est qu’à ses débuts. Il est essentiellement muet. La filmothèque est à peine embryonnaire, le nombre de plan-séquences ne permet pas encore de révéler un véritable scénario. L’essentiel est donc à venir.
Reconstruire le film des évènements conduisant à la vie cellulaire, les intégrés dans des schémas fonctionnels, va donc constituer l’objectif des prochaines décennies.
Cette intégration va dépendre de domaines de recherche très variés, différents de ceux qui traditionnellement ont fait progresser la biologie de la cellule ou des organes. Le transfert des outils de la physique, et au-delà, l’invention de nouveaux outils, y compris moléculaires, l’émergence de nouveaux concepts, va nécessiter le développement de synergies entre acteurs évoluant jusqu’ici dans des sphères disjointes : biologistes cellulaire et moléculaire, physiciens, chimistes, bioinformaticiens… Dans ce cadre il sera utile de créer les conditions permettant de rassembler en un seul site, l’ensemble des compétences.
1 Femtoseconde : le milliardième de millionième de seconde.
2 Picoseconde : millioniène de millionième de seconde = 1000 femtosecondes.
3 Vol 401,p. 626,14 octobre 1999.

 

  VIDEO       CANAL  U         LIEN

 
 
 
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 ] - Suivante
SARL ORION, Création sites internet Martigues, Bouches du Rhone, Provence, Hébergement, référencement, maintenance. 0ri0n
Site réalisé par ORION, création et gestion sites internet.


Google
Accueil - Initiation musicale - Instruments - Solfège - Harmonie - Instruments - Musiques Traditionnelles - Pratique d'un instrument - Nous contacter - Liens - Mentions légales /confidentialité

Initiation musicale Toulon

-

Cours de guitare Toulon

-

Initiation à la musique Toulon

-

Cours de musique Toulon

-

initiation piano Toulon

-

initiation saxophone Toulon

-
initiation flute Toulon
-

initiation guitare Toulon