ecole de musique piano
     
menu
 
 
 
 
 
 

LE MONDE QUANTIQUE AU TRAVAIL : L'OPTOÉLECTRONIQUE

 

 

 

 

 

 

 

LE MONDE QUANTIQUE AU TRAVAIL : L'OPTOÉLECTRONIQUE

L'optoélectronique est une discipline scientifique et technologique qui a trait la réalisation et l'étude de composants mettant en jeu l'interaction entre la lumière et les électrons dans la matière. Ces composants, qui permettent de transformer la lumière en courant électrique et réciproquement, sont des instruments privilégiés pour comprendre le nature de la lumière et des électrons. Il est donc peu étonnant que ce soit le tout premier composant opto-électronique (la cellule photoélectrique) qui soit à l'origine de la découverte d'Albert Einstein de la dualité onde-corpuscule. Dans cette Conférence, nous décrirons comment ce concept fondateur de la Physique Quantique a permis de comprendre les propriétés électroniques et optiques de la matière. Nous décrirons comment ces propriétés quantiques sont mises en oeuvre dans les quelques briques de base conceptuelles et technologiques à partir desquelles tous les composants optoélectroniques peuvent être élaborés et compris. Nous décrirons enfin quelques exemples de ces composants optoélectroniques qui ont changé profondément notre vie quotidienne : - les détecteurs quantiques (caméscopes, cellules solaires, infrarouge…) - les diodes électroluminescentes (affichage, éclairage, zapettes, …) - les diodes laser (réseaux de télécommunication, lecteurs de CD-DVD, internet, …) Nous explorerons finalement quelques nouvelles frontières de cette discipline, qui est un des domaines les plus actifs et des plus dynamiques de la Physique à l'heure actuelle.

Transcription* de la 590e conférence de l’Université de tous les savoirs prononcée le 12 juillet 2005
Le monde quantique au quotidien : l’optoélectronique
Par Emmanuel Rosencher
Cet exposé propose de vous montrer comment la mécanique quantique, domaine abstrait, sophistiqué, voire ésotérique pour certains, est à la base de révolutions technologiques qui ont transformé notre quotidien. Nous montrerons tout d’abord comment la physique quantique est née de l’étude d’un composant optoélectronique (définissons l’optoélectronique comme étant l’étude de l’interaction qui a lieu entre la lumière et les électrons dans les solides). Nous montrerons ensuite comment la mécanique quantique a rendu la monnaie de sa pièce à l’optoélectronique en lui fournissant des briques de bases conceptuelles extrêmement puissantes, à partir desquelles un certains nombres de composants comme les détecteurs quantiques ou les émetteurs de lumière ont été réalisés. Nous présenterons enfin les défis actuels que l’optoélectronique tente de relever.
Là où tout commence : l’effet photoélectrique
Tout commence en 1887. Rudolph Hertz, célèbre pour la découverte des ondes Hertziennes, va découvrir l’effet photoélectrique, aidé de son assistant Philipp von Lenard. Cet effet va révolutionner notre compréhension de la lumière comme de la matière, bref, notre vision du monde. L’expérience qu’ils ont réalisée était pourtant on ne peut plus simple : deux plaques métalliques sont placées dans le vide. On applique à ces plaques une différence de potentiel. Le courant qui circule dans le système est mesuré. Comme les plaques métalliques sont placées dans le vide, les électrons n’ont pas de support pour passer d’une électrode à l’autre, et donc aucun courant ne peut circuler dans le système. Hertz décide alors d’illuminer une des plaques avec de la lumière rouge, il s’aperçoit que rien ne change. Par le hasard de l’expérience, il éclaire alors la plaque avec de la lumière bleue, et s’aperçoit cette fois qu’un courant commence à circuler. Il est important de noter que, même avec une grande intensité de lumière rouge, aucun courant ne circule, alors qu’une faible lumière bleue fait circuler le courant. Les deux savants concluent leur expérience par la phrase suivante, qui deviendra une des pierres fondatrices de la physique quantique : « il semble y avoir un rapport entre l’énergie des électrons émis et la fréquence de la lumière excitatrice. »

A la même époque, un autre grand savant, Max Planck, travaille sur un sujet totalement différent, à savoir le « spectre du corps noir » (voir figure 1): en d’autres termes, il étudie la lumière émise par des corps chauffés. Le fer, par exemple, une fois chauffé devient rouge. A plus haute température, il vire au jaune, puis au blanc. Max Planck étudie donc le fait que tous les corps chauffés vont avoir un comportement commun : à une température donnée, ils rayonneront principalement une certaine longueur d’onde. Par exemple, notre corps à 37°C émet des ondes à 10 μm (lumière infrarouge non visible). En revanche, à 5000°C (température correspondant à la surface du soleil), le maximum se déplace, le corps émet autour de 500 nm (jaune). Cette correspondance entre la température du corps noir et la nature de la lumière émise par ce corps va littéralement rendre fou toute une génération de physiciens qui n’arrivent pas à expliquer ce phénomène. Max Planck, au début du XXème siècle, déclarera à la société allemande de physique qu’il peut rendre compte de ce comportement. Pour cela, il doit supposer que la lumière arrive en paquets d’énergie et que chaque paquet d’énergie est proportionnel à la fréquence de la lumière, c’est-à-dire que l’énergie de chaque grain de lumière est le produit de la fréquence de cette onde par une constante, ridiculement petite
* transcription réalisée par Fabien Lienhart
(environ 6.10-34 J.s). S’il est persuadé d’avoir fait une grande découverte, Max Planck n’a pour autant pas la moindre idée de ce que sont ces « quanta » d’énergie qu’il a introduits dans
son calcul.
314
10000 1000 100 10 1
1000K
1 10
Longueur d'onde (μm)
300 K
313
Hertz
Emissivité (W/m2/μm)
figure 1
Spectre du corps noir (le fer chauffé de la photo émet des longueurs d’onde réparties sur la courbe bleue, la courbe rouge est émise par un humain qui n’a pas de fièvre)
Pendant ce temps, à la société Anglaise de physique, Lord Kelvin fait son discours inaugural, où il déclare que toute la physique est constituée, la récente théorie ondulatoire de Maxwell rendant très bien compte du comportement de la lumière. Il ne reste plus que quelques phénomènes incompris, d’un intérêt secondaire. Parmi ces phénomènes incompris figurent évidemment le spectre du corps noir, et l’effet se produisant dans la cellule photoélectrique. Albert Einstein va réaliser le tour de force de montrer que ces deux phénomènes ont une même origine, origine qu’il baptisera la dualité onde-corpuscule. L’hypothèse révolutionnaire d’Einstein est de dire que la lumière, considérée jusqu’alors comme une onde, est également une particule. A la fois onde et particule, la lumière véhicule ainsi une quantité d’énergie bien précise.

Le raisonnement d’Einstein se comprend bien sur un diagramme d’énergie, où est représentée l’énergie des électrons en fonction de leur position (voir figure 2). Pour être arraché du métal, un électron doit recevoir l’énergie qui lui permet d’échapper à l’attraction du métal. Cette énergie est appelée potentiel d’ionisation. Les électrons sont donc piégés dans le métal, et il leur faut franchir ce potentiel d’ionisation pour le quitter. L’hypothèse d’Einstein consiste à dire que la lumière est constituée de particules et que chaque particule a une énergie valant h.f, où h est la constante établie par Max Planck, et f la fréquence de la lumière. Si cette énergie h.f est inférieure au potentiel d’ionisation (comme c’est le cas pour la lumière rouge), aussi puissant que soit le faisceau de lumière, nous n’arracherons pas le moindre électron au métal. En revanche, si la lumière est bleue, la longueur d’onde est plus courte, ce qui correspond à une fréquence f plus grande, donc une énergie plus grande, les électrons vont alors acquérir l’énergie suffisante pour quitter le métal et aller dans le vide. Cette théorie permet donc d’expliquer le phénomène jusqu’alors incompris observé par Hertz et Leenard.
* transcription réalisée par Fabien Lienhart
Énergie des électrons
métal
h f h f’
vide
∆E
W= potentiel qui retient les électrons dans
le métal
figure 2 Diagramme d'énergie d'Einstein
Einstein ne se contente pas de cette explication, il propose une expérience permettant de vérifier son hypothèse. Si on mesure l’excès d’énergie des photons (représenté ∆E sur la figure 2), c’est-à-dire si on mesure l’énergie des électrons une fois qu’ils ont été arrachés par la lumière, on doit pouvoir en déduire la valeur de la constante de Planck h.
La théorie d’Einstein est accueillie à l’époque avec fort peu d’enthousiasme. La physique semblait jusqu’alors bien comprise, la lumière était une onde, et on rendait compte de l’écrasante majorité des phénomènes observés. Et Einstein vient tout bouleverser ! De nombreux scientifiques vont donc tenter de montrer que sa théorie est fausse. Notamment Millikan, qui va passer 12 années de sa vie à tester la prédiction d’Einstein. Millikan reconnaîtra finalement son erreur : son expérience montrera bien que l’énergie en excès dans les électrons est proportionnelle à la fréquence de la lumière excitatrice, et le coefficient de proportionnalité est bien la constante de Planck h.
Einstein venait d’unifier deux phénomènes qu’a priori rien n’apparentait : la lumière émise par un corps chauffé, et l’excès d’énergie d’un électron émis dans le vide. Ce lien existe, et c’est la physique quantique.
On peut donc relier la longueur d’onde de la lumière à son énergie (voir figure 3). Ainsi, le soleil qui rayonne principalement dans le jaune, c’est-à-dire à des longueurs d’onde d’environ 500 nm émet des photons de 2 eV (électron-volt). Le corps humain à 37°C rayonne une onde à 10 μm, ce qui correspond à des photons d’énergie 0,1eV. Rappelons qu’un électron-volt correspond à l’énergie d’un électron dans un potentiel électrique de 1V.
* transcription réalisée par Fabien Lienhart
Énergie (eV)
Longueur d’onde
X

UV

infrarouge
100
10 1 0,1 0,01
10 nm
100 nm
1 μm
10 μm 100 μm
figure 3
Correspondance entre longueur d'onde de la lumière et énergie du photon
Les briques de base
Comme nous l’avons mentionné en introduction, la physique entre alors dans un cercle vertueux : la technologie (par la cellule photoélectrique) fournit à la physique un nouveau concept fondamental, la physique quantique va en retour développer des outils conceptuels extrêmement puissants qui vont permettre le développement des composants optoélectroniques que nous allons étudier.

Les Semi-conducteurs
Avant d’entrer dans ce cercle vertueux, un concept manque encore à la physique quantique. Il va être proposé par le français Louis de Broglie en 1925. Ce dernier fait le raisonnement suivant : Einstein vient de montrer que la lumière, qui est une onde, se comporte comme une particule. Que donnerait le raisonnement inverse? Autrement dit, pourquoi la matière (les atomes, les électrons, tout objet ayant une masse) ne se comporterait-elle pas également comme une onde ? De Broglie va montrer qu’on peut associer à l’énergie d’une particule matérielle une longueur d’onde. Il montre notamment que, plus la particule a une énergie élevée, plus sa longueur d’onde est faible. La correspondance entre énergie et longueur d’onde pour la matière différera cependant de celle pour les photons, car les photons n’ont pas de masse.
Partant de cette hypothèse, Wigner, Seitz et Bloch se demandent ce que devient cette longueur d’onde lorsque l’électron est dans la matière, où il est soumis à un potentiel d’environ 5V. Leur calcul leur montre que sa longueur d’onde est alors d’environ 5 angströms (1 angström valant 10-10 mètres)... ce qui correspond à peu près à la distance entre atomes dans la matière.
* transcription réalisée par Fabien Lienhart
Cristal
Energie
figure 4
Comportement d'une onde électronique dans la matière et naissance de la structure de bandes
La physique quantique va alors donner une compréhension nouvelle et profonde du comportement des électrons dans la matière. Rappelons que la matière peut souvent être représentée par un cristal, c’est-à-dire un arrangement périodique d’atomes, distant de quelques angströms. Imaginons qu’une onde électronique (c’est-à-dire un électron) essaie de traverser le cristal. Si la longueur d’onde vaut 20 angströms, elle est très grande par rapport au maillage du cristal, et elle ne va donc pas interagir avec le cristal. Cette longueur d’onde va donc pouvoir circuler, on dira qu’elle est permise, et par conséquent l’énergie qui lui correspond est elle aussi permise (onde rouge sur la figure 4). Il y aura un très grand nombre de longueur d’ondes permises, auxquelles correspondront des bandes d’énergies permises. En revanche, si la longueur d’onde de l’électron est de l’ordre de 5 angströms (onde bleue sur la figure 4), c’est-à-dire de la distance être atomes, l’électron va alors résonner avec la structure du cristal, et l’onde ne va pas pouvoir pénétrer dans la matière. L’onde électronique est alors interdite dans la matière, et l’énergie qui lui correspond est également interdite dans la matière. Ainsi on voit apparaître, pour décrire les électrons dans la matière, une description en termes de bandes permises et de bandes interdites. Nous appellerons la bande permise de plus basse énergie (sur la figure 5) la bande de valence, et la bande permise au-dessus d’elle la bande de conduction.
A partir de cette structure de bandes, Pauli va montrer que les atomes peuplent d’abord les états de plus basse énergie. Ils vont ainsi remplir complètement la bande de valence, et laisser la bande de conduction vide. Il montre alors que dans une telle configuration les électrons ne peuvent pas conduire l’électricité.
* transcription réalisée par Fabien Lienhart
Bande d’énergies interdites
énergie
Bande de conduction
Bande d’énergies interdites
Bande de valence
figure 5
Les électrons de la bande de valence, comme les pièces d'un jeu de taquin
Pour illustrer ses propos, comparons la matière à un jeu de taquin (figure 5). Rappelons que le taquin est un puzzle fait de pièces carrées et où ne manque qu’une pièce. C’est l’absence d’une pièce qui permet de déplacer les pièces présentes. Pour Pauli, une bande de valence pleine d’électrons, est comme un taquin qui n’aurait pas de trous : aucun élément ne peut bouger, car toutes les cases sont occupées. C’est pourquoi beaucoup de matériaux, notamment les semi-conducteurs (qui, comme leur nom l’indique sont de mauvais conducteurs), ne peuvent pas conduire le courant, leur bande de valence étant trop pleine. Pour conduire l’électricité, il va être nécessaire de prendre des électrons de la bande de valence, et de les envoyer dans la bande de conduction. Alors les rares électrons dans la bande de conduction auront tout l’espace nécessaire pour bouger, ils conduiront aisément le courant. De plus, ces électrons auront laissé de la place dans la bande de valence, ce qui revient, dans notre image, à enlever une pièce au taquin. Les électrons pourront alors bouger, mal, mais ils pourront bouger. Ce déplacement des électrons dans la bande de valence peut être réinterprété : on peut considérer qu’un électron se déplace pour occuper une place vacante, puis qu’un autre électron va occuper la nouvelle place vacante, et ainsi de suite... ou on peut considérer que nous sommes en présence d’un trou (une absence d’électron) qui se déplace dans le sens opposé au mouvement des électrons ! Cette interprétation nous indique alors que, dans la bande de valence, ce ne sont pas les électrons qui vont bouger, ce sont les « absences d’électrons », c’est-à-dire des trous, qui sont, de fait, de charge positive.

Wigner, Pauli et Seitz venaient de résoudre une énigme qui datait du temps de Faraday (1791- 1867), où l’on avait observé des charges positives se déplaçant dans la matière sans avoir idée de ce que c’était. Il s’agit en fait des trous se déplaçant dans la bande de valence. Pour la
* transcription réalisée par Fabien Lienhart
suite, nous nous intéresserons donc aux électrons se trouvant dans la bande de conduction, et aux trous de la bande de valence.
Comment envoyer ces électrons de la bande de valence vers la bande de conduction ? En utilisant le photon ! Le photon va percuter un électron de la bande de valence et créer une paire électron-trou, c’est-à-dire qu’il va laisser un trou dans la bande de valence et placer un électron dans la bande de conduction. Il s’agit d’un phénomène d’absorption car au cours de ce processus, le photon disparaît. Il a été transformé en paire électron-trou.

Evidemment le mécanisme inverse est possible : si on arrive à créer par un autre moyen une paire électron-trou, l’électron va quitter la bande de conduction pour se recombiner avec le trou dans la bande de valence, et émettre un photon. La longueur d’onde du photon émis correspondra à l’énergie de la bande interdite (energy gap en anglais). Il y a donc une correspondance fondamentale entre la couleur du photon émis et l’énergie de la bande interdite.
Energie du gap en eV
Distance inter-atomique en
figure 6
Gap d’énergie et distance inter-atomiques des principaux semi-conducteurs
La figure 6 montre l’énergie de la bande interdite pour différents matériaux. On constate que certains matériaux se retrouvent sur la même colonne, c’est-à-dire qu’ils ont la même distance inter-atomique. C’est le cas par exemple de l’Arséniure de Gallium (GaAs) et de l’Aluminure d’Arsenic (AlAs). Etant des « jumeaux cristallographiques », il sera aisé de les mélanger, les faire croître l’un sur l’autre. En revanche, ils ont des bandes d’énergie interdite très différente. A partir de ce graphique, on peut donc conclure quel semi-conducteur conviendra à la lumière que l’on veut produire. Ainsi, la lumière rouge sera émise par le Phosphure de Gallium (GaP). Pour aller dans l’infrarouge lointain, un mélange entre CdTe et HgTe est cette fois préconisé.
Le dopage et la jonction P-N
* transcription réalisée par Fabien Lienhart
UV
Visible
Infrarouge proche
Infrarouge lointain
Nous venons de présenter la première brique de l’optoélectronique, à savoir l’énergie de la bande interdite. La deuxième brique qui va nous permettre de réaliser des composants optoélectroniques va être le dopage. Comme nous l’avons dit précédemment, un semi- conducteur, si on n’y ajoute pas des électrons, conduit aussi bien qu’un bout de bois (c’est-à- dire plutôt mal !). Pour peupler la bande de valence, nous allons utiliser le dopage.

Nous nous intéresserons aux éléments des colonnes III, IV et V de la classification périodique des éléments de Mendeleïev (une partie en est représentée figure 7). Le numéro de la colonne correspond au nombre d’électrons se trouvant sur la dernière couche électronique. Ainsi les éléments de la colonne IV, dits tétravalents, comme le Carbone et le Silicium, possèdent IV électrons sur leur dernière couche. Dans la colonne III (éléments trivalents), nous trouverons le Bore, et dans la colonne V (éléments pentavalents) se trouve le Phosphore.
Si Siδ+ Si Si B- Si
Si Si Si
Dopage p
Mendeleïev
Si Si
Si P+ Si Si
Dopage n
Si
Si Si
B
C
Si
P
* transcription réalisée par Fabien Lienhart
III
IV
V
figure 7
Dopage de type P et dopage de type N
Regardons ce qui se passe si on introduit un élément pentavalent dans un cristal de Silicium. On peut dire que le Phosphore, tel l’adolescent dans une cour d’école, veut à tout prix ressembler aux copains. Ainsi, le Phosphore va imiter le Silicium et construire des liaisons électroniques avec 4 voisins. Il va donc laisser un électron tout seul. Cet électron va aller peupler la bande de conduction. C’est ce qu’on appelle le dopage de type N. Le Phosphore joue le rôle de Donneur d’électrons.
Le raisonnement est le même pour des éléments trivalents comme le Bore. Ce dernier va mimer le comportement du Silicium en créant 4 liaisons électroniques. Pour cela, il va emprunter un électron à la structure de Silicium, consommant ainsi un électron dans la bande de valence. Il crée donc un trou dans la bande de valence. Le dopage est dit de type P. Le Bore joue le rôle d’Accepteur d’électrons.
Le dopage n’est pas un processus aisé à réaliser. A l’heure actuelle, nous n’avons toujours pas trouvé le moyen de doper efficacement certains semi-conducteurs (c’est le cas du diamant par exemple). Pour le Silicium (Si) et l’Arséniure de Gallium (GaAs), le dopage est en revanche bien maîtrisé.
On va alors pouvoir réaliser des jonctions P-N (figure 8). Il s’agit en fait de juxtaposer un matériau dopé P avec un matériau dopé N. Dans la zone dopée N, le Phosphore a placé de nombreux électrons dans la bande de conduction. La zone dopée P quant à elle possède de nombreux trous dans la bande de valence. Nous sommes ainsi en présence d‘électrons et de trous qui se « regardent en chiens de faïence ». Ils vont donc se recombiner. Ainsi, à l’interface, les paires électrons trous vont disparaître, et laisser seules des charges négatives
dans la zone dopée P, et des charges positives dans la zone dopée N. Ces charges fixes (qui correspondant en fait aux atomes dopants ionisés) vont créer un champ électrique. Cette jonction P-N sera au cœur de très nombreux composants optoélectroniques.
P
N
figure 8
Jonction P-N: les électrons de la zone N se recombinent avec les trous de la zone P, laissant des charges nues dans une zone baptisée zone de charge d'espace. Les charges fixes induisent un champ électrique.
Le Puits Quantique
Dernière brique de l’optoélectronique que nous présenterons : le puits quantique. Ce dernier peut être considéré comme le fruit du progrès technologique. Dans les années 70-80, les ingénieurs étudient l’Ultra-Vide, c’est-à-dire les gaz à très basse pression (10-13 atmosphère). Comme il s’agit d’un milieu extrêmement pur, bien vite on se rend compte, que cela reproduit les conditions primordiales dans lesquelles les matériaux ont été créés. Dans un tel milieu, on va alors pouvoir « jouer au bon dieu » et empiler des couches d’atomes, créer des structures artificielles qui n’existent pas dans la nature.
Typiquement, il va être possible de réaliser des sandwichs de matériaux, où par exemple de l’Arséniure de Gallium (GaAs) serait pris entre deux tranches d’un matériau qui lui ressemble, AlGaAs (nous avons vu précédemment que AlAs et GaAs sont miscibles). Sur la photo (figure 9), issue d’un microscope électronique nous permettant d’observer les atomes, on voit que ces matériaux n’ont aucun problème à croître l’un sur l’autre. La couche de GaAs ne mesure que 20 angströms.
* transcription réalisée par Fabien Lienhart

Champ électrique
AlGaAs     GaAs     AlGaAs
2 1
figure 9
Puits quantique. En haut, sa composition. Au milieu une photo au microscope électronique d’une telle structure. En bas, diagramme d’énergie du puits quantique, la forme des oscillations de l’électron a également été représentée
Examinons le comportement de l’électron dans un tel milieu. Le GaAs a plus tendance à attirer les électrons que AlGaAs. L’électron se trouve piégé dans un puits de potentiel. C’est alors qu’intervient la mécanique quantique, réinterprétant le puits de potentiel en « puits quantique ». L’électron est une onde, une onde prisonnière entre deux murs (les barrières de potentiel formées par l’ AlGaAs). L’électron ne va avoir que certains modes d’oscillation autorisés, comme l’air dans un tuyau d’orgue qui ne va émettre que des sons de hauteur bien définie.
Techniquement, il nous est possible de créer à peu près n’importe quel type de potentiel, puisqu’on est capable de contrôler l’empilement des atomes. Par exemple, plus on élargit le puits quantique, plus il y a de modes d’oscillation possibles pour l’électron, et plus il y a de niveaux d’énergies accessibles à l’électron. On peut ainsi synthétiser la répartition de niveau d’énergies que l’on souhaite.
Nous avons à présent un bon nombre d’outils de base que nous a fournis la mécanique quantique : la structure de bandes, le dopage et la jonction P-N qui en découle, et pour finir, le puits quantique. Nous allons à présent voir comment ces concepts entrent en jeu dans les composants optoélectroniques.
* transcription réalisée par Fabien Lienhart
La détection quantique
Le principe de la photo-détection quantique (utilisé dans tous les appareils photo numérique) est extrêmement simple : il s’agit, à l’aide d’un photon, de faire transiter l’électron entre un niveau de base, où il ne conduit pas l’électricité, et un niveau excité où il va la conduire. Le semi-conducteur pur peut par exemple faire office de photo-détecteur quantique (figure 10): à l’état de base, il ne conduit pas le courant, mais un photon peut créer, par effet photoélectrique, une paire électron-trou et placer un électron dans la bande de conduction, permettant le transport du courant.
BC
BV
BC
Transition inter-sousbande figure 10
Transition interbande
Deux mécanismes de détection quantique. A gauche, on utilise la structure de bande d'un semi-conducteur. A
droite, un puits quantique.
Un puits quantique peut également réaliser cette fonction (figure 10): les électrons se trouvent piégés dans le puits quantiques, car la barrière d’AlGaAs les empêche de sortir, mais par absorption d’un photon, les électrons vont avoir l’énergie leur permettant de sortir du piège et donc de conduire le courant.
L’effet Photovoltaïque
Le détecteur quantique le plus répandu est la cellule photovoltaïque. Elle est constituée d’une jonction P-N. Imaginons que des photons éclairent la structure. Dans la zone ionisée (appelée zone de charge d’espace), ils vont alors créer des paires électron-trou. Mais cette région possédant un champ électrique du fait des charges fixes, les électrons vont être attirés par le Phosphore, les trous par le Bore, ce qui va générer un courant électrique.

* transcription réalisée par Fabien Lienhart
figure 11
Cellule photovoltaïque. En haut, la jonction P-N reçoit des photons qui créent des paires électron-trou. En bas, diagramme d'énergie montrant les électrons de la bande de conduction tombant dans la zone N, et les trous de la bande de valence remontant dans la zone P.
On peut représenter ce mécanisme sur un diagramme d’énergie (figure 11). Le champ électrique présent au niveau de la jonction P-N provoque une courbure de la bande de valence et de la bande de conduction. Le photon va créer une paire électron-trou. L’électron va glisser le long de la pente de la bande de conduction, et se retrouver dans la zone dopée N, tandis que le trou, tel une bulle dans un verre de champagne, va remonter la bande de valence et se retrouver dans la zone dopée P.
Les caméras CCD
Techniquement, il existe des technologies pour synthétiser ces minuscules détecteurs par millions en une seule fois. Ces détecteurs ont changé notre vie quotidienne. En effet, au cœur de tous les appareils photo et caméscopes numériques se trouve une matrice CCD (charge coupled devices). Il ne s’agit pas exactement de jonctions P-N, mais d’une myriade de transistors MOS. Néanmoins les concepts physiques mis en jeu sont tout à fait analogues. Il s’agit d’une couche semi-conductrice de Silicium séparée d’une couche métallique par une couche isolante d’oxyde. Lorsqu’un photon arrive dans la zone courbée du diagramme de bande (c’est là encore, la zone de charge d’espace), une paire électron-trou est créée, les électrons vont s’accumuler à l’interface entre le semi-conducteur et l’isolant, il vont alors pouvoir être « évacués » par les transistors qui vont récupérer les « tas d’électrons » et se les donner, comme des pompiers se passant des bacs d’eau (d’où leur nom). Les matrices CCD actuelles ont des caractéristiques vertigineuses, contenant aisément 10 millions de pixels mesurant chacun 6 μm x 6 μm.
* transcription réalisée par Fabien Lienhart
Paquet d’électrons photocréés
Métal Oxide Silicium
figure 12
Matrice CCD. A gauche, diagramme d'énergie d'un transistor MOS (Métal Oxide Silicium). A droite, photo d'une matrice CCD
Les détecteurs infrarouges
Un deuxième type de détecteurs très importants sont les détecteurs infrarouge, notamment ceux détectant les longueurs d’onde comprises entre 3 et 5 μm, et entre 8 et 12 μm. Comme nous l’avons mentionné au début, le corps humain à 37°C rayonne énormément de lumière, sur toute une gamme de longueurs d’onde (représentée en bleu sur la figure 13), centrée autour de 10 μm. Mais l’atmosphère ne laisse pas passer toutes les longueurs d’onde (la courbe rouge représente la transmission de l’atmosphère). Et justement entre 3 et 5 μm, et entre 8 et 12 μm, elle a une « fenêtre de transparence ». En particulier, à plus haute altitude, un avion peut voir à plusieurs centaines de kilomètres dans la bande 8-12 μm. Un autre intérêt de détecter cette gamme de longueur d’onde est qu’elle correspond à l’absorption de certains explosifs qui seraient alors détectables.
1.0 0.8 0.6 0.4 0.2 0.0
2 4 6 8 10 Longueur d'onde (μm)
12
figure 13
Spectre de transmission de l'atmosphère (courbe rouge), et spectre d'émission du corps humain, c'est-à-dire d'un corps noir à 37°C (courbe bleue)
Comment réaliser ces détecteurs autour de 5 et de 10 μm (c’est-à-dire ayant un gap d’énergie de 0,1 à 0,2 eV)? La figure 6 nous indique que le couple CdTe (Tellure de Mercure) - HgTe (Tellure de Cadmium) est un bon candidat. Notons au passage que la France, grâce
* transcription réalisée par Fabien Lienhart
Transmission
notamment aux laboratoires du CEA et de l’ONERA) est leader mondial dans ce domaine. Avec de tels détecteurs, il devient possible de voir des avions furtifs, indétectables par radar. Des applications existent aussi dans le domaine médical, où ces capteurs permettent de déceler certaines variations locales de température sur une simple image. Il est également possible de détecter le niveau de pétrole à l’intérieur d’un conteneur, l’inertie thermique du pétrole différant de celle de l’air.
Mauvaise vascularisation d’une main Niveau de carburant Image d’un avion furtif en infrarouge figure 14
Exemples d'images prises par des détecteurs infrarouges (source : www.x20.org)
Les cellules solaires
Dernier type de détecteur que nous examinerons : les cellules solaires, qui transforment la lumière en électricité. Le matériau roi (parce que le moins cher) dans ce domaine est le Silicium. Malheureusement son rendement quantique n’est pas bon (15%), c’est-à-dire que le Silicium absorbe très bien le rayonnement à 1 eV, tandis que le soleil émet essentiellement entre 2 à 3 eV. Des recherches sont actuellement menées afin de développer des matériaux absorbant plus efficacement dans ces gammes d’énergie. Ces recherches sont extrêmement importantes pour les nouvelles sources d’énergie.

Les émetteurs de lumière
Diodes électroluminescentes
On se rappelle qu’en se recombinant, les paires électron-trous créent un photon. Réaliser un émetteur de lumière est donc possible à partir d’un puits quantique (figure 15). Ce dernier confine les électrons. Prenons, comme précédemment, le cas d’un puits quantique de GaAs « sandwiché » entre deux domaines d’AlGaAs. Cette fois, nous dopons N l’AlGaAs se trouvant d’un côté du puits, et P l’AlGaAs se trouvant de l’autre côté. Si on fait passer du courant dans cette structure, les électrons de la zone dopée N vont tomber dans le puits quantique, les trous de la zone dopée P vont monter dans le puits de la zone de valence. Une fois dans le puits quantique, électrons et trous vont se recombiner et émettre un photon. Ce composant est appelé Diode Electroluminescente (LED). Ce n’est ni plus ni moins qu’un photo-détecteur dans lequel on a forcé le courant à passer.
* transcription réalisée par Fabien Lienhart
AlGaAs N     GaAs     AlGaAs P


figure 15
Diagramme d'énergie d'une diode électroluminescente. Trous de la zone P et électrons de la zone N vont être piégés dans le puits quantique et se recombiner en émettant de la lumière
Les LED remplissent, elles aussi notre quotidien. Elles ont un énorme avantage sur d’autres type d’éclairage : le processus de création de photon d’une LED est extrêmement efficace. En effet, dans une LED chaque électron donne un photon. Ainsi avec un courant d’un ampère, on obtient une puissance lumineuse d’environ un Watt, alors qu’une ampoule ne donnera que 0,1W pour le même courant. L’utilisation plus répandue des LED pour l’éclairage aura un impact extrêmement important pour les économies d’énergie et l’environnement. A l’heure actuelle, elles sont utilisées dans nos télécommandes, les panneaux d’affichages, les feux de signalisation.
Depuis quelques temps les diodes rouges, orange et vertes existent. La diode bleue, plus récemment apparue a connue une histoire insolite. En 1974, des ingénieurs se penchent sur le problème de la réalisation d’une telle diode, et trouvent qu’un matériau possède le gap d’énergie adéquat (3-4 eV) : le Nitrure de Gallium (GaN). Ils vont alors chercher à le doper... pendant 10 ans... sans succès. En 1984, un grand théoricien soutient, démonstration à l’appui, qu’il n’est théoriquement pas possible de doper un tel semi-conducteur. Toutes les équipes arrêtent alors progressivement leurs recherches sur le sujet... toutes, sauf une. Celle du Dr. Nakamura (qui sans doute n’avait pas lu l’article de l’éminent théoricien) de la société Japonaise Nichia. En 1993, il trouve que le Magnésium (Mg) dope le Nitrure de Gallium ! Dix ans après, sa découverte a révolutionné le marché de l’optoélectronique. En effet, avec les autres couleurs de LED, il est à présent possible de réaliser d’immenses écrans publicitaires...
Diodes lasers
Etudions à présent l’émission stimulée. Nous avons vu que le semi-conducteur pouvait absorber un photon, qu’il pouvait également en émettre s’il possède un électron dans sa bande de conduction. En 1917, Albert Einstein s’aperçoit qu’il manque un mécanisme dans cette description de l’interaction entre la lumière et la matière. Par une démarche purement théorique, il va découvrir un nouveau phénomène : l’émission stimulée (figure 16).
Dans l’émission stimulée, l’électron est dans l’état excité. Arrive alors un photon, qui va stimuler la désexcitation de l’électron. Cette désexcitation va naturellement s’accompagner de
* transcription réalisée par Fabien Lienhart
l’émission d’un autre photon, dit photon stimulé. Si on se trouve dans un matériau où beaucoup d’électrons sont excités, un photon va alors pouvoir donner 2, puis 4, puis 8 ... photons ! Ce phénomène est appelé l’amplification optique.

Absorption Émission Émission spontanée stimulée
figure 16
Diagramme des mécanismes d'absorption, d'émission spontanée, et d'émission stimulée
Il est alors possible de réaliser un LASER. Pour cela, il suffit de placer deux miroirs aux extrémités de l’amplificateur optique. La lumière va être amplifiée lors d’un premier passage, une partie va être émise en dehors de la cavité, l’autre partie va être réfléchie et refaire un passage dans le milieu amplificateur. La même chose se produit sur le deuxième miroir. Si après un tour on a plus d’énergie qu’au départ, nous sommes face à un phénomène d’avalanche où le nombre de photons créés va croître très rapidement. Le système se met à osciller, c’est l’oscillation LASER.
John von Neumann, l’inventeur de l’ordinateur, prévoit que les semi-conducteurs devraient permettre de réaliser des lasers. En effet en partant d’un puits quantique et en y plaçant beaucoup d’électrons et de trous, nous allons obtenir notre milieu amplificateur. En plaçant des miroirs aux extrémités du puits quantique, on obtient alors un laser (figure 17). Le laser à semi-conducteur sera découvert 50 ans après, et par 3 laboratoires différents (General Electric, IBM et Bell Labs) en l’espace de 10 heures !
n
p
figure 17
Schéma d'une diode laser. Le milieu à gain est constitué par la jonction P-N. A ses extrémités des miroirs forment la cavité, et laissent sortir un faisceau laser unidirectionnel
L’intérêt du laser à semi-conducteur est qu’on peut concentrer toute la puissance lumineuse sur un fin pinceau lumineux. Là encore, les applications sont nombreuses : pointeurs, lecteur de CD, télécommunications... Revenons un instant sur l’importance des matériaux émettant dans le bleu (le Nitrure de Gallium). Le laser bleu va en effet avoir des retombées importantes dans le domaine des disques lasers. Le principe du lecteur de disque est d’envoyer un laser sur la surface du disque qui réfléchit (ou non) la lumière, lumière qui est alors lue par un
* transcription réalisée par Fabien Lienhart
détecteur quantique. La surface du disque est criblée de trous stockant les bits d’information. Il se trouve que la dimension minimale d’un faisceau laser correspond à la longueur d’onde qu’il émet. Ainsi la tâche d’un laser rouge est de 0,8 μm, tandis que celle d’un faisceau bleu est de 0,4 μm. On pourra donc lire 4 fois plus d’information avec un laser bleu Les diodes bleues vont donc progressivement (et rapidement) remplacer les diodes rouges des lecteurs de disques.
La lumière d’un laser va également pouvoir être envoyée à l’intérieur d’une fibre optique, qui est une structure guidant la lumière au cœur d’un guide en verre (silice) de 4 μm de diamètre. La fibre optique permet alors de transporter énormément d’information extrêmement rapidement. A l’heure actuelle, les fibres optiques permettent d’envoyer en un dixième de seconde tout le contenu de l’Encyclopedia Universalis à 3000 km ! Cette révolution technologique, fruit de l’optoélectronique, est à la base du succès d’Internet.
Les nouvelles frontières
L’optoélectronique est un des domaines scientifiques les plus effervescents à l’heure actuelle, et de nombreuses technologies encore balbutiantes semblent très prometteuses dans un proche future : il s’agit par exemple des cristaux photoniques, des oscillateurs paramétriques optiques, de la nano-optique,... Nous nous intéresserons ici aux nouvelles longueurs d’ondes ainsi qu’au domaine des attosecondes.

Les ondes Térahertz
L’optoélectronique investit aujourd’hui de nouvelles longueurs d’onde, et ne se cantonne plus au domaine du visible et de l’infrarouge. Ces ondes appartiennent à la famille des ondes électromagnétiques (figure 18), qui renferme également, les ondes radio, les ondes radars et micro-ondes,... Entre les ondes radio et les ondes optiques, se trouve le domaine des ondes dites Térahertz (THz), qui jusqu’à peu ne disposaient pas de sources efficaces. L’optoélectronique développe actuellement de nouvelles sources lasers dans ce domaine, resté pendant longtemps une terra incognita.
Radio et hyperfréquences
Optique
100 THz 3 μm 0.4 eV
HF VHF UHF P L S C X Ku K Ka W     THz     LWIR SWIR NIR     UV
10 MHz 30 m
40 neV
100 MHz 3 m
0.4 μeV
1 GHz 30 cm 4 μeV
10 GHz
3 cm
40 μeV
100 GHz
3 mm
0.4 meV
1 THz 300 μm 4 meV
10 THz 30 μm 40 meV
1 PHz 300 nm 4 eV
figure 18
Le spectre des ondes électromagnétiques
De telles sources permettront de développer de nouveaux systèmes de sécurité, car ils permettront notamment de voir à travers les vêtements. En effet, même au travers de matériaux opaques, les photons pénètrent, sur une longueur de quelques longueurs d’onde. Dans le cas des ondes Térahertz, la longueur d’onde est de 300 μm, le photon va pénétrer un matériau opaque sur plusieurs millimètres ! L’onde Térahertz pourra ainsi traverser les vêtements. La figure 19 montre comment un couteau caché par un journal a pu être détecté par de l’imagerie Térahertz.
* transcription réalisée par Fabien Lienhart
figure 19
Image d'une scène dans le visible (à gauche) et dans les Térahertz (à droite). La grande longueur d'onde des ondes Térahertz permet de traverser les vêtements et les journaux.
(Jefferson Lab : www.jlab.org)
Les attosecondes
Une autre percée réalisée par l’optoélectronique concerne l’étude des temps très courts. Le domaine des attosecondes est désormais accessible à l’expérience. Une attoseconde ne représente que 0,000 000 000 000 000 001 seconde (10-18 seconde)! Il y a autant d’attosecondes dans une seconde que de secondes écoulées depuis la création de l’univers. Pour créer des impulsions aussi courtes, il faut des ondes ayant des fréquences très élevées. L’impulsion la plus courte qu’on puisse faire avec une onde consistera à ne prendre qu’une seule oscillation de l’onde. L’optoélectronique nous propose des techniques qui permettent de ne découper qu’une seule oscillation du champ électromagnétique. Si on prend de la lumière visible (de fréquence 1015 Hz), on est capable de découper une tranche de 10-15 seconde (une femtoseconde). On peut aujourd’hui aller encore plus loin, et atteindre le domaine des attosecondes.

La figure 20 montre en fonction du temps les plus petites durées atteignables par l’électronique et par l’optoélectronique. L’électronique, ayant des fréquences limitées à quelques gigahertz (GHz) est actuellement limitée, tandis que l’optique, avec des photons aux fréquences bien plus élevées permet de sonder des durées bien plus faibles.
* transcription réalisée par Fabien Lienhart
10–6 10–9
10–12 10–15
Electronique     Optoélectronique

1960
Evolution des plus petites durées mesurables par l'électronique et l'optoélectronique dans les 40 dernières
1970
1980 Année
1990
2000
figure 20 années
L’électron met environ 150 attosecondes pour « faire le tour » de l’atome d’Hydrogène. Nous devrions donc avoir d’ici peu les techniques permettant d’observer ce mouvement ! On retrouve le cercle vertueux que nous avions évoqué au début : la science fondamentale a fourni des technologies, et ces technologies, en retour, fournissent aux sciences fondamentales des possibilités d’observer de nouveaux domaines du savoir et de la connaissance de l’univers.


* transcription réalisée par Fabien Lienhart

 

 VIDEO       CANAL  U         LIEN 

 
 
 
 

LES NEUTRINOS, DES PARTICULES SURPRENANTES

 

 

 

 

 

 

 

LES NEUTRINOS, DES PARTICULES SURPRENANTES

Les neutrinos sont des particules élémentaires intéragissant très peu avec la matière. Depuis 70 ans ils jouent un rôle prépondérant en physique des particules. Les progrès de ces dernières années ont été époustouflants, sinon surprenants. Nous savons désormais que les neutrinos sont massifs! Je reprendrai pas à pas l'épopée des neutrinos pour dévoiler comment plusieurs générations de physiciens ont révélé les secrets de ces particules fantomatiques, et utilisé les neutrinos pour sonder à la fois l'infiniment petit et l'infiniment grand. J'insisterai sur les développements expérimentaux récents et je discuterai finalement des recherches actuelles.

Les neutrinos, des particules surprenantes !
par Thierry Lasserre
Qu'est-ce qu'un neutrino ?
Tout comme l'électron, le neutrino est une particule élémentaire, c'est à dire un constituant de la matière qui ne nous apparaît pas aujourd'hui comme composé d'éléments encore plus petits. On le désigne par la lettre grecque n. Dans la nomenclature des physiciens des particules, il appartient à la catégorie des leptons qui comprend aussi l'électron, le muon, et le tau. Les deux derniers sont des cousins de l'électron, mais respectivement 200 fois et 3500 fois plus massifs. Les leptons sont organisés en trois familles associées: électronique, muonique, et tauique. Nous verrons qu'il existe trois types de neutrinos (on parle souvent de trois saveurs). A chaque lepton correspond un anti-lepton, de même masse, mais de charge électrique opposée. Les leptons possèdent un spin[1] ½, ils appartiennent donc à la catégorie plus générale des fermions (du nom d'Enrico Fermi).
Selon le modèle standard de la physique des particules (MSPP), la masse des neutrinos est nulle. Toutefois, nous verrons qu'une série d'expériences a démontré qu'elle est différente de zéro, encore que très petite par rapport à celles des autres leptons (au moins 250 000 fois plus faible). C'est une découverte fondamentale très récente qui va sans doute faire évoluer le MSPP dans les prochaines années.
A l'échelle du noyau atomique, les neutrinos interagissent uniquement par l'intermédiaire de l'interaction faible car ils sont insensibles aux interactions forte et électromagnétique. En effet, ils ne portent ni de charge de couleur, ni de charge électrique. En conséquence, la probabilité d'interaction d'un neutrino avec la matière est extrêmement faible : un neutrino issu d'une désintégration radioactive traverse, en moyenne, une épaisseur de plomb d'une année-lumière (dix mille milliards de kilomètres) avant d'interagir !

Découverte des neutrinos
Au début du XXe siècle, la radioactivité à peine découverte était soigneusement étudiée au sein des laboratoires. Les désintégrations de type b (bêta) étaient déjà identifiées comme responsables de la transmutation d'un noyau atomique en un autre élément voisin dans la classification de Mendeleïev. Lors d'un processus b, le noyau radioactif émet un électron (ou rayon b) et change sa charge électrique d'une unité, en transformant un proton en neutron ou vice versa. Un exemple familier est celui du tritium 3H, l'isotope le plus lourd de l'hydrogène (1 proton et 2 neutrons), qui se désintègre en hélium 3He (2 protons et 1 neutron) et émet un électron.

Les expérimentateurs de l'époque entreprirent de mesurer précisément l'énergie de l'électron émis, afin de mieux comprendre la structure des noyaux atomiques. D'après les lois de conservation de l'énergie et de l'impulsion[2], ils savaient prédire le partage d'énergie qui devait s'opérer uniquement entre l'électron et le noyau de recul. L'électron devait en principe toujours emporter la même quantité d'énergie. A la grande stupéfaction de tous, James Chadwick montra en 1914 que tel n'est pas le cas : les électrons ont un spectre continu en énergie, entre zéro et l'énergie attendue dans le cas d'une réaction à deux corps ! Cela pouvait signifier qu'une partie de l'énergie s'évanouissait dans les processus b ...
En 1930 le physicien Wolfgang Pauli se risqua à sauver la loi sacro-sainte de la conservation de l'énergie en proposant, selon ses propres termes, « un remède désespéré ». Il invoqua l'existence d'une nouvelle particule partageant l'énergie du processus b avec l'électron et le noyau. Afin de s'ajuster aux données expérimentales, cette nouvelle particule devait être électriquement neutre, de spin demi entier, et de masse inférieure à celle de l'électron. Cette particule, fut nommée plus tard neutrino, littéralement « petit neutre », par Fermi. Une fois créé, le neutrino s'échappait de la zone de détection à une vitesse très proche de celle de la lumière, et laissait croire, si on l'ignorait dans le bilan de la réaction, que la loi de conservation de l'énergie était violée. Peu de temps après, le génial Fermi formula une théorie mathématique des désintégrations b qui rendait parfaitement compte de tous les résultats expérimentaux. Il introduisit la notion de force faible (en comparaison à la force électromagnétique) qui transforme un proton en un neutron, en créant simultanément un électron et un anti-neutrino. Aussitôt, Hans Bethe et Rudolf Peierls suggérèrent une réaction permise par la théorie de Fermi pour détecter indirectement l'insaisissable : la capture d'un neutrino (ou anti-neutrino) par un noyau et l'émission simultanée d'un électron (ou anti-électron). Malheureusement la petitesse de la force faible semblait réduire leurs espoirs à néant ...
En 1951, les physiciens de Los Alamos Fred Reines et Clyde Cowan, qui travaillaient alors sur les essais nucléaires américains, songèrent utiliser la bouffée considérable de neutrinos électroniques émise dans la furie d'une explosion atomique[3] afin de détecter une poignée de neutrinos. La réaction la plus prometteuse était la désintégration b inverse, anti-ne + p à e+ + n, ou p est le noyau d'hydrogène (proton), e+ l'anti-électron (ou positron), et n le neutron ( figure 1). Ils usèrent de la technique des liquides scintillants, découverts quelques années auparavant. De tels liquides aromatiques servent à la fois de cible puisqu'ils contiennent énormément de protons et de milieu de détection car ils permettent de « matérialiser » les traces que laissent le positron et le neutron[4]. En effet, un bref flash de lumière visible (quelques nanosecondes) est émis chaque fois qu'une particule chargée ou un rayon gamma traverse le milieu. Cette lumière, dont l'intensité est proportionnelle à l'énergie des particules incidentes, est ensuite collectée par des capteurs ultrasensibles aux photons visibles, appelés tubes photomultiplicateurs (TPM). Les flashs lumineux sont alors convertis en signaux électriques et enregistrés pour l'analyse.
Après de longues réflexions, la faisabilité d'une telle expérience, à 20 mètres d'une explosion atomique, était en question, et les deux confrères se tournèrent vers une autre source de neutrinos plus facile à apprivoiser. Les réacteurs nucléaires fonctionnent sur le principe de la fission d'un mélange judicieux de noyaux dits fissiles, principalement l'uranium 235 et le plutonium 239. Baignés par un flux de neutrons dans le cœur d'un réacteur, ces noyaux se scindent en deux morceaux (ils fissionnent) tout en libérant de l'énergie, et quelques neutrons qui entretiennent la réaction ( Figure 12). L'inconvénient de la fission est que presque tous les fragments émis et les autres produits de réaction sont radioactifs, et se désintègrent jusqu'à atteindre une configuration stable[5]. Or, chaque désintégration radioactive b engendre un neutrino électronique (ou un anti-neutrino).
Les réacteurs sont ainsi des sources copieuses, cependant mille fois moins intense qu'une explosion nucléaire de 20 kilotonnes (à l'époque). En 1956, après plusieurs années d'efforts, Reines et Cowan installèrent un détecteur de 4 200 litres de liquide scintillant, et d'eau contenant une faible quantité de cadmium pour favoriser la détection des neutrons ( Figure 2), près du réacteur nucléaire de Savannah River, en Caroline du sud. Après quelques mois de prise de données ils identifièrent les interactions des anti-neutrinos électroniques. Le signal était 5 fois plus faible quand le réacteur était à l'arrêt pour maintenance. Après tous les tests de rigueur, la découverte fut annoncée par télégramme à Pauli en juin 1956. Reines obtint le prix Nobel de physique en 1995 (Cowan étant malheureusement décédé en 1974). Notons qu'au cours de cette expérience, Reines et Cowan mesurèrent aussi la probabilité d'interaction des neutrinos, grandeur couramment appelée section efficace, en conformité avec la prédiction de la théorie de Fermi.

Figure 1
Principe de détection des anti-ne dans l'expérience de Reines et Cowan. Un anti-ne interagit sur un noyau d'hydrogène de l'eau. Il y a production instantanée d'un positron et d'un neutron. Le positron s'annihile avec un électron du milieu, et deux photons gammas sont émis ; ces derniers sont détectés par leurs interactions dans le scintillateur liquide. Le neutron commence par ralentir par collisions, puis il est capturé par un noyau de Cadmium ; cette capture est suivie par l'émission de photons gammas qui sont détectés dans le scintillateur liquide.
Trois neutrinos
Dès les années 50 on savait qu'un muon se désintègre en un électron et deux neutrinos : m+ à e+ + n + n. On en suspectait qu'un neutrino était associé à l'électron (celui de Reines et Cowan) et l'autre au muon. En 1963, Léon Lederman, Mel Schwartz, et Jack Steinberger, réalisèrent une expérience ingénieuse à Brookhaven (Etats-Unis) pour déterminer si ces deux neutrinos sont identiques ou distincts.

Figure 2
Principe de l'expérience de mise en évidence du neutrino muoniques.
Ils utilisèrent un accélérateur de protons de 30 GeV[6] comme source de neutrinos. Un faisceau de protons dirigé sur une cible de béryllium produit une myriade de pions[7] par l'intermédiaire de l'interaction forte. Les pions chargés se désintègrent en muons et en neutrinos par interaction faible. Les muons se désintègrent à leur tour comme expliqué ci-dessus. Derrière une zone de désintégration, les expérimentateurs ajoutent un écran de terre ou de métal d'une dizaine de mètres d'épaisseur pour éliminer les particules indésirables. Grâce à leur formidable pouvoir de pénétration seuls les neutrinos jaillissent en sortie. L'expérience était agencée de telle sorte que la majorité de neutrinos arrivant en zone de détection provenait de la désintégration des pions. Le détecteur (une chambre à étincelles), placé à quelques dizaines de mètres, était adapté pour discriminer un électron d'un muon. En effet, un muon se matérialise par une longue trace continue, alors qu'un électron, deux cent fois plus léger, dessine une trajectoire plus erratique. L'expérience mit en évidence beaucoup plus des traces de type muonique que de traces de type électronique. Le neutrino produit lors de la désintégration d'un pion (positif) ne peut se transformer qu'en muon, mais pas en électron : p+ à m+ + nm. Si le neutrino électronique était identique au neutrino muonique on aurait découvert presque autant de traces de chaque saveur. Il existe donc un neutrino spécifiquement associé au muon, noté nm. Lederman, Schwartz, et Steinberger furent gratifiés du prix Nobel de physique en 1988 pour cette découverte.
Ce résultat permit non seulement de mettre en évidence une deuxième saveur de neutrino, mais en plus de démontrer l'existence de deux familles bien distinctes de leptons. Dans le MSPP il est d'usage d'associer un nombre quantique spécifique à chaque famille, appelé nombre leptonique électronique, muonique, ou tauique. Nous verrons par la suite que ce nombre leptonique, introduit de façon ad hoc dans le MSPP, n'est en fait pas toujours conservé.
Trois familles seulement existent dans le modèle standard, sans que l'on sache pourquoi. Le tableau serait donc incomplet si je ne mentionnais pas le neutrino tauique, noté nt, qui fut observé directement seulement en l'an 2000.

Les neutrinos dans le modèle standard
Au sein du MSPP, on regroupe les leptons selon les couples (e, ne), (m, nm), et (t, nt), qui définissent le secteur des leptons. Dans cet exposé, je passerai volontairement sous silence les subtilités relatives au spin et à la projection du spin du neutrino le long de sa trajectoire (même si celles-ci jouent un rôle capital dans l'interaction faible). Les interactions entre particules sont maintenant bien comprises, et dans le MSPP deux fermions interagissent en échangeant un boson[8]. L'interaction faible se modélise par les échanges d'un trio de bosons W+, W-, Z0. Contrairement au photon de masse nulle, ces trois bosons sont entre 80 et 100 fois plus lourds que le proton ! C'est ce qui explique la très faible portée de l'interaction faible.

Prenons maintenant l'exemple concret de la désintégration bêta ( Figure 3). La réaction n à p + e- + anti-ne est en fait la transformation d'un quark de type « down » ( d) du neutron en un quark de type « up » ( u) et un boson W-, qui se désintègre à son tour en une paire (e-, anti-ne). Le neutron composé de trois quarks ( u,d,d) devient le trio de quarks ( u,u,d), qui n'est autre qu'un proton. Les interactions qui font intervenir les W sont appelées « courant chargés », car ils transforment le neutrino en son lepton associé (ou inversement) en modifiant la charge électrique d'une unité. Les interactions impliquant le boson Z0 sont désignées « courants neutres » car elles laissent inchangés les deux fermions qui interagissent. Ces dernières sont plus subtiles et elles ont seulement été découvertes en 1973, au CERN, en utilisant un faisceau de neutrinos muoniques et une chambre à bulles en guise de détecteur. Enfin, en 1989, l'étude de la durée de vie du Z0 au collisionneur électron-positron du CERN (le LEP) a montré qu'il n'y a que trois saveurs de neutrinos légers se couplant avec la matière.

Figure 3
Désintégration b (de type -) du Brome 80 en Krypton 80, dans le cadre de la théorie de Fermi (à gauche), et la même réaction dans le cadre du MSPP (à droite). Dans les deux cas la réaction fondamentale est la conversion d'un quark (d) en un quark (u) avec émission d'un électron et d'un anti-ne.

Les sources de neutrinos
Fort heureusement pour les physiciens des particules, les sources de neutrinos sont diverses et variées. On distingue les sources naturelles et les sources artificielles. Il est tout aussi important d'identifier la saveur des neutrinos qui naissent de ces fontaines de particules, et de comprendre les mécanismes de production. J'ai déjà évoqué les explosions de bombes à fission et les réacteurs nucléaires qui émettent des anti-ne. Les accélérateurs de particules actuels permettent essentiellement de produire des nm ou anti-nm. Le corps humain contient 20 milligrammes de l'isotope 40 du potassium (émetteur b) : chaque jour, 400 millions de neutrinos s'échappent de nos os à une vitesse proche de celle de la lumière ! L'atmosphère est le siège de réactions produisant nm et ne et leurs antiparticules. Le soleil émet uniquement des ne. Certaines explosions d'étoiles (supernovae de type II) produisent une quantité astronomique de neutrinos des trois saveurs et de leurs antiparticules. Les noyaux actifs de galaxie où siègent de gigantesques trous noirs en font probablement de même. Enfin, un rayonnement fossile de neutrinos et d'anti-neutrinos des trois saveurs baigne l'univers depuis les premières secondes qui suivirent le Big-Bang.
Voyons maintenant comment certaines de ces sources sont exploitées pour percer les mystères de ces surprenants neutrinos.

Les neutrinos solaires : la fin d'une énigme
Le Soleil, plus massif et plus brillant que la majorité des étoiles, est au milieu de son cycle de vie. Il puise son énergie de la réaction de fusion de deux protons conduisant à la conversion de l'hydrogène en hélium en son cœur, en émettant deux ne: 4p + 2e- à 4He + 2ne + 27 MeV. Il est ainsi le siège d'un cycle compliqué de réactions, dont certaines produisent des ne ( Figure 4). Les principaux sont les neutrinos dits primordiaux de faible énergie, encore dénommés neutrinos « pp » (ne(pp), E

 

   VIDEO     canal U       LIEN  

 
 
 
 

LES NEUTRINOS DANS L'UNIVERS

 

 

 

 

 

 

 

LES NEUTRINOS DANS L'UNIVERS

Notre corps humain contient environ 20 millions de neutrinos issus du big bang, émet quelques milliers de neutrinos liés à sa radioactivité naturelle. Traversé en permanence par 65 milliards de neutrinos par cm2 par seconde venus du Soleil, il a été irradié le 23 février 1987 par quelques milliards de neutrinos émis il y a 150000 ans par l'explosion d'une supernova dans le Grand Nuage de Magellan. Les neutrinos sont également produits dans l'interaction des rayons cosmiques dans l'atmosphère ou dans les noyaux actifs de galaxies… Quelle est donc cette particule présente en abondance dans tout l'Univers où elle joue un rôle-clé ? Inventé par W.Pauli en 1930 pour résoudre le problème du spectre en énergie des électrons dans la désintégration b, le neutrino fut découvert par F.Reines et C.Cowan en 1956, auprès du réacteur nucléaire de Savannah River (Caroline du Sud). Il n'a plus depuis quitté le devant de la scène, que ce soit chez les physiciens des particules, les astrophysiciens ou les cosmologistes. Cette particule élémentaire, sans charge électrique, n'est soumise qu'à l'interaction faible, ce qui lui permet de traverser des quantités de matière importantes sans interagir. En 1938, H.Bethe imaginait que des réactions nucléaires de fusion étaient au coeur de la production d'énergie des étoiles, en premier lieu le Soleil. Dans les années 60, les astrophysiciens se lancent dans la construction de modèles solaires et des expérimentateurs dans la construction de détecteurs pour les piéger. Il a fallu attendre 2002 pour comprendre que le déficit de neutrinos solaires observé (le célèbre "problème des neutrinos solaires") était dû à un phénomène lié à la mécanique quantique, appelé l'oscillation des neutrinos. La mise en évidence de cette oscillation a apporté la preuve décisive que les neutrinos avaient une masse non nulle. Nous ferons le point sur cette particule fascinante après les découvertes récentes.

Texte de la 581 e conférence de l'Université de tous les savoirs prononcée le 24 juin
2005
Par Daniel Vignaud: « Les neutrinos dans l'Univers »
Introduction
Notre corps humain contient environ 20 millions de neutrinos issus du big bang et émet chaque seconde quelques milliers de neutrinos liés à sa radioactivité naturelle. Traversé en permanence par 65 milliards de neutrinos par cm2 par seconde venus du Soleil et quelques millions d'antineutrinos cm2 par seconde venus de la Terre, il a été irradié le 23 février 1987 par quelques milliards de neutrinos émis il y a 150000 ans par l'explosion d'une supernova dans le Grand Nuage de Magellan. Les neutrinos sont également produits dans l'interaction des rayons cosmiques dans l'atmosphère ou dans les noyaux actifs de galaxies... Quelle est donc cette particule présente en abondance dans tout l'Univers où elle joue un rôle-clé ?

Inventé par W. Pauli en 1930 pour résoudre le problème du spectre en énergie des électrons dans la désintégration b, le neutrino fut découvert par F. Reines et C. Cowan en 1956, auprès du réacteur nucléaire de Savannah River (Caroline du Sud). Il n'a plus depuis quitté le devant de la scène, que ce soit chez les physiciens des particules, les astrophysiciens ou les cosmologistes. Cette particule élémentaire, sans charge électrique, n'est soumise qu'à l'interaction faible, ce qui lui permet de traverser des quantités de matière importantes sans interagir.

En 1938, H. Bethe imaginait que des réactions nucléaires de fusion étaient au cSur de la production d'énergie des étoiles, en premier lieu le Soleil. Dans les années 60, les astrophysiciens se lancent dans la conception de modèles solaires et des expérimentateurs dans la construction de détecteurs pour les piéger. Il a fallu attendre 2002 pour comprendre avec certitude que le déficit de neutrinos solaires observé (le célèbre « problème des neutrinos solaires ») était dû à un phénomène lié à la mécanique quantique, appelé l'oscillation des neutrinos. La mise en évidence de cette oscillation a apporté la preuve décisive que les neutrinos avaient une masse non nulle.

Nous ferons le point sur cette particule fascinante après les découvertes récentes.


1. Le neutrino, particule élémentaire

Le neutrino est né en 1930 pour répondre à un problème expérimental non résolu. A la fin des années 20, période charnière en physique s'il en est, les physiciens s'interrogent sur une difficulté liée à la désintégration b des noyaux radioactifs. L'énergie de l'électron émis devrait avoir une valeur unique et non la forme d'un spectre étendu comme il est observé. Niels Bohr va alors jusqu'à proposer de manière iconoclaste que l'énergie n'est pas conservée dans un tel processus. En décembre 1930, Wolfgang Pauli, dans une lettre restée célèbre « Chers messieurs et dames radioactifs ... », émet l'hypothèse qu'une particule inconnue emporte une partie de l'énergie pour rétablir l'équilibre. Il n'est pas trop sûr de son idée, pourtant géniale, et il faudra plusieurs mois pour qu'il l'élabore plus officiellement. Le déclic a lieu à Rome à l'automne 1933. Enrico Fermi, qui a baptisé la particule « neutrino » (le petit neutre), l'incorpore à la théorie de l'interaction faible qu'il construit magistralement.
Le neutrino restera longtemps à l'état de particule « virtuelle ». Plusieurs physiciens, et non des moindres comme Hans Bethe, écriront même qu'il est quasiment impossible de le mettre en évidence, tant est faible sa probabilité d'interaction. Il faudra attendre d'avoir des sources de neutrinos suffisamment puissantes.
Le neutrino sera découvert en 1956 par Frederick Reines et Clyde Cowan, auprès du réacteur de Savannah River (Caroline du Sud), après une première tentative en 1953. Il s'agit en réalité de l'antineutrino émis dans la fission de l'uranium. Lorsque cet antineutrino interagit avec un proton de la cible, il émet un positron (antiparticule de l'électron) et un neutron. La détection simultanée de ces deux particules est la signature non ambiguë de l'interaction de l'antineutrino. Ces neutrinos associés avec un électron sont appelés neutrinos électroniques ne.
En 1962 une équipe de physiciens mettra en évidence un deuxième type de neutrinos, le neutrino-muon nm, auprès de l'accélérateur du Brookhaven National Laboratory. Les nm sont issus de la désintégration des mésons p (ou pions) en association avec un muon m, le m étant un lepton plus lourd que l'électron. A la suite de la découverte d'un troisième lepton encore plus lourd, le tau t, en 1978, il était clair qu'il y avait un troisième type de neutrinos associé, le nt. Celui-ci ne sera découvert qu'en 2000.
Combien y a-t-il d'espèces de neutrinos ? La réponse est venue du collisionneur électron-positron du CERN, le LEP, en 1990. En mesurant avec précision la largeur de désintégration du boson Z, proportionnelle au nombre d'espèces, les physiciens ont déterminé qu'il n'y en avait que trois. Ces trois neutrinos et les trois leptons chargés qui leur sont associés sont les briques leptoniques de la matière, soumises à l'interaction faible. Les 6 quarks sont les briques hadroniques de la matière, soumises à l'interaction forte. Ils sont regroupés en trois doublets dont l'association aux 3 doublets leptoniques est fondamentale au modèle standard de la physique des particules. Toutes les particules chargées sont en outre soumises à l'interaction électromagnétique, dont l'intensité est intermédiaire entre la force faible et la force forte. Les neutrinos, sans charge électrique, ne sont soumis qu'à l'interaction faible : ils interagissent environ mille milliards de fois moins que l'électron, qui lui-même interagit environ cent fois moins qu'un proton. Quid de leur masse ? Attendons la suite.

2. L'oscillation des neutrinos

Dans le modèle standard dit « minimal » de la physique des particules, les neutrinos n'ont pas de masse. C'est à priori surprenant car toutes les autres briques de matière (quarks, électrons, muons, ...) en ont une. Les tentatives de mesurer directement cette masse sont restées vaines. Les physiciens les plus ingénieux n'ont pu mettre que des limites supérieures sur leur valeur. Et cette limite supérieure est bien inférieure à la masse des leptons chargés associés. Par exemple celle sur la masse du ne est 1 eV [1] alors que la masse de l'électron est de 511000 eV (et celle du proton un milliard d'eV). Si les mesures directes ne donnent rien pour l'instant, il faut faire appel à la ruse, en l'occurrence une propriété liée à la mécanique quantique.
La mécanique quantique nous dit que les neutrinos que l'on observe, les ne, nm ou nt ne coïncident pas nécessairement avec ce qu'on appelle les états propres de masse mais peuvent en être des superpositions. Si les neutrinos ont une masse, le calcul montre alors que lorsqu'ils se déplacent, ils peuvent se transformer (plus ou moins totalement) d'une espèce dans une autre. Le phénomène est périodique en fonction de la distance L parcourue entre la source et le détecteur et a pris le nom d'oscillation. La longueur d'oscillation est proportionnelle à l'énergie et inversement proportionnelle à la différence des carrés des masses des deux neutrinos considérés. Comme nous avons 3 familles de neutrinos, les paramètres de l'oscillation sont 3 angles de mélange qi et deux différences des carrés des masses Dm2ij. La mise en évidence de l'oscillation serait donc une preuve directe que les neutrinos sont massifs.
Si nous voulons illustrer de manière simple le mécanisme d'oscillation et ses conséquences, donnons une couleur à chaque espèce de neutrinos, par exemple bleu pour le ne, rouge pour le nm et vert pour le nt. Supposons une source de neutrinos bleus et un détecteur de neutrinos sensible uniquement aux neutrinos rouges. Si le détecteur ne compte rien, c'est qu'il n'y a pas eu d'oscillation ; si le détecteur compte toujours du rouge, c'est que l'oscillation est maximale ; si le détecteur compte parfois du rouge c'est que le mélange est partiel.
La question de la masse des neutrinos est fondamentale pour ouvrir la porte du modèle standard vers de nouvelles théories plus complètes. Comme nous allons le voir, le mécanisme d'oscillation va prouver non seulement que les neutrinos ont une masse, mais également qu'il est la clé de plusieurs énigmes astrophysiques.

3. Les neutrinos solaires

Depuis les années 20, on pressent que la source d'énergie du Soleil (et des étoiles) est d'origine nucléaire. Les neutrinos nous en ont apporté la preuve directe, à la suite de quarante années excitantes d'échanges passionnés entre les astrophysiciens qui construisent des modèles du Soleil, les expérimentateurs qui inventent et mettent en Suvre des détecteurs de plus en plus gros et de plus en plus sensibles, les théoriciens qui affinent notre compréhension du comportement des neutrinos.
Le Soleil est une gigantesque boule de gaz, essentiellement de l'hydrogène et de l'hélium. Au centre, la température est suffisamment élevée (15 millions de degrés) pour initier des réactions nucléaires de fusion entre deux protons (deux noyaux d'hydrogène). Cette fusion produit un noyau de deutérium, un positron et un ne. Il s'ensuit un cycle compliqué de réactions nucléaires où l'hydrogène va se transformer en hélium en libérant une minuscule quantité d'énergie (10-12W). Lorsque l'on connaît l'énergie produite par le Soleil (1360 W par m2 sur Terre), on calcule que l'on est bombardé en permanence par 65 milliards de neutrinos solaires par cm2 par seconde.
L'histoire commence en 1964 par des discussions entre deux scientifiques que rien ne destinait à collaborer. L'astrophysicien John Bahcall fait les premiers calculs du flux et du spectre en énergie des neutrinos solaires. Raymond Davis, un chimiste, reprend une de ses idées antérieures de détecter les ne avec du chlore grâce à la réaction ne + 37Cl ® e- + 37Ar qui fait intervenir un des isotopes du chlore. Cette méthode radiochimique nécessite de construire un détecteur contenant 600 tonnes de tétrachlorure de carbone C2Cl4, de le placer profondément sous terre dans la mine d'or de Homestake (Dakota du Sud), d'extraire régulièrement les atomes d'argon radioactif (37Ar) et de compter leur désintégration, témoignage direct du passage des neutrinos solaires. L'expérience est difficile car malgré le flux important de neutrinos qui traverse le détecteur, un par jour seulement transmute le chlore en argon. Les premiers résultats, en 1968, montreront que Davis compte trois fois moins d'argon que prévu. C'est le début de ce que l'on a appelé le problème ou l'énigme des neutrinos solaires.
Les astrophysiciens ont raffiné leurs modèles ; plusieurs équipes, dont des françaises, ont brillamment contribué à mieux connaître le fonctionnement du Soleil. L'expérience chlore a continué pendant 30 ans, perfectionnant sa méthode, traquant les inefficacités. D'autres expériences se sont construites : Kamiokande au Japon, à partir de 1986 avec 3000 tonnes d'eau ; les expériences gallium (GALLEX au laboratoire souterrain du Gran Sasso, Italie, et SAGE au laboratoire souterrain de Baksan, Caucase), à partir de 1990 rassemblant près de 100 tonnes de ce précieux métal ; SuperKamiokande au Japon à partir de 1996 et ses 50000 tonnes d'eau. Rien à faire : le flux mesuré est toujours resté inférieur au flux calculé, après toutes les vérifications expérimentales et les progrès théoriques.
Parallèlement, les physiciens des particules, dans leur tentative d'inclure les neutrinos dans leur modèle standard, étudiaient sérieusement cette possibilité que les neutrinos puissent osciller d'une espèce dans une autre. Ils mettaient en évidence un effet nouveau d'amplification possible de l'oscillation dans la matière du Soleil. A la fin des années 90, il était séduisant de penser que les neutrinos solaires n'avaient pas disparu, mais que les ne s'étaient transformés en nm ou nt (hypothèse confortée par la mise en évidence de l'oscillation des nm atmosphériques en 1998 comme nous le verrons dans le chapitre suivant). En effet, tous les détecteurs n'étaient sensibles qu'à ces ne et pas aux nm ou nt. Mais il manquait la preuve ! C'est alors que le détecteur SNO (Sudbury Neutrino Observatory) entre en scène. Utilisant une cible de 2000 tonnes d'eau lourde placée à 2000 m sous terre dans une mine de nickel au Canada, SNO a pu observer non seulement les interactions des ne (ne d ® e- p p) en mesurant l'électron, mais également les interactions de toutes les espèces (n d ® n p n) en mesurant le neutron. En juin 2001, les physiciens de SNO ont pu annoncer que les ne n'avaient pas vraiment disparu, mais qu'ils s'étaient transformés par le mécanisme d'oscillation. Ils montraient également que le flux total de neutrinos solaires était bien égal à celui calculé par les modèles. Ils continuent d'affiner leurs mesures, mais l'essentiel est là, fabuleux épilogue d'une belle histoire scientifique. Nous savons aujourd'hui que les neutrinos solaires se transforment en grande partie (mais pas totalement) en nm ou nt, sans savoir dans quel type en particulier.

4. Les neutrinos atmosphériques.

L'atmosphère est bombardée en permanence par le rayonnement cosmique, constitué pour l'essentiel de protons ou de noyaux plus lourds. Lorsque ces particules arrivent dans les hautes couches de l'atmosphère, elles interagissent avec l'air en produisant des pions. Ceux-ci vont se désintégrer en émettant un muon m et un neutrino nm. Après un parcours variable, le muon lui-même se désintègre en un électron, un antineutrino électronique et un nm. Un bilan rapide donne au niveau du sol deux fois plus de nm que de ne si on oublie la distinction particule-antiparticule, sans importance au premier ordre. Des modèles phénoménologiques calculent toutes les caractéristiques des neutrinos (nature, énergie, direction,...) avec la précision requise.
La mesure des neutrinos atmosphériques est intéressante en soi, mais n'était pas prioritaire pour les physiciens, car la source de ces neutrinos n'a que peu d'intérêt astrophysique. Ils y sont venus lorsqu'ils ont construit au début des années 80 des détecteurs pour observer la désintégration du proton, processus fondamental prédit par les théories de grande unification (fort heureusement avec une durée de vie supérieure à 1032 ans qui nous laisse le temps d'y penser). En effet, les interactions des neutrinos atmosphériques dans le détecteur constituaient un bruit de fond incontournable pour le signal attendu pour la mort du proton.
Le proton s'accrochant à la vie plus que prévu, les physiciens se sont concentrés sur les neutrinos atmosphériques, en essayant de comptabiliser séparément les ne des nm. Les premières expériences (Fréjus au laboratoire souterrain de Modane, Kamiokande au Japon, IMB dans l'Ohio) donnaient des résultats contradictoires. Avec quelques poignées d'événements, certaines observaient un rapport entre les deux types de neutrinos conforme aux prédictions, d'autres observaient un peu moins de nm que prévu. La difficulté de séparer les interactions des deux types de neutrinos (un électron dans un cas, un muon dans l'autre) et la faible statistique rendaient la communauté sceptique.
SuperKamiokande, dont nous avons déjà parlé pour les neutrinos solaires, arrive au printemps 1996. 50000 tonnes d'eau ultra-pure sont observées par plus de 10000 photomultiplicateurs, comme autant d'yeux. Ceux-ci sont sensibles à la lumière Tcherenkov émise dans l'ultra-violet par le passage des particules chargées. L'électron et le muon ont un comportement légèrement différent. Le muon produit un bel anneau de lumière, l'électron un anneau plus flou, plus large. En deux ans, la collaboration SuperKamiokande accumule plusieurs milliers d'interactions de neutrinos et raffine la séparation des deux types. En juin 1998, elle annonce qu'il y a bien un déficit de nm mais que les ne sont au rendez-vous avec le nombre attendu. Elle précise que le déficit de nm est associé à ceux venus des antipodes, c'est-à-dire ceux qui ont traversé la terre en parcourant une distance de plusieurs milliers de km. Comme nous avons appris que l'oscillation dépendait de la distance parcourue, l'interprétation en termes d'oscillation s'imposait naturellement. Depuis, tous les artefacts ont été traqués, les données se sont accumulées, et nous avons maintenant la certitude que non seulement les nm oscillent, mais qu'ils se transforment intégralement en nt.

5. Les neutrinos de supernova

Nous avons vu que les neutrinos étaient les témoins directs de la vie du Soleil : 8 minutes après avoir été produits au cSur de l'étoile, ces messagers nous informent que l'astre qui conditionne la vie sur Terre est en parfaite santé ; il est en plein âge mûr et a encore plus de 4 milliards d'années devant lui. Mais les neutrinos peuvent être également les messagers de la mort des étoiles lorsqu'elles explosent à la fin de leur vie, phénomène que l'on appelle supernova.
Le Grand Nuage de Magellan est une petite galaxie voisine de la Voie Lactée, notre Galaxie, à 150000 années-lumière, visible depuis l'hémisphère sud. A la fin de février 1987, un événement astronomique n'est pas passé inaperçu : nous avons reçu sur Terre le faire-part de décès d'une étoile de ce Nuage, Sanduleak -69°202, il y a justement 150000 ans. Et le message a été transmis par la lumière ... et par les neutrinos.
Dans la nuit du 23 au 24 février 1987, à l'observatoire chilien de Las Campanas, un astronome canadien et son assistant chilien observent par hasard une nouvelle étoile brillante dans le Grand Nuage de Magellan, une étoile qui va être visible pendant quelques dizaines de jour sans télescope. C'est la première supernova de l'année 1987 et elle sera baptisée SN1987A. Il y a des siècles qu'une supernova n'a pas été observée à l'Sil nu. Assez proche de la Terre (tout est relatif), elle n'intéresse pas que les astronomes. Depuis les années 40, on sait que les explosions de certaines supernovas sont des sources de neutrinos. Il devient urgent de le vérifier. Par chance, il y a deux ou trois détecteurs de neutrinos en fonctionnement, en particulier celui de Kamiokande au Japon, qui vient d'entrer en service il y a quelques semaines. Dès l'annonce du télégramme, les japonais se précipitent sur les données accumulées dans les dernières heures. Bienheureuse surprise lorsqu'ils découvrent que, le 23 février à 7h35 en temps universel, une dizaine de signaux caractéristiques se détachent du ronronnement du détecteur (qu'ils appellent le bruit de fond). Le phénomène a duré une poignée de secondes. Une dizaine de neutrinos voyageant depuis 150000 ans se sont laissés piéger par le détecteur souterrain. Mission accomplie pour ces témoins directs de la mort d'une étoile.

Les étoiles ne peuvent vivre qu'en consommant des quantités considérables de carburant. Plus elles sont massives, plus elles en consomment et moins elles vivent longtemps : le carburant s'épuise plus vite car la température centrale de l'étoile est plus élevée. L'histoire commence toujours par la transformation de l'hydrogène en hélium, comme dans le Soleil. Mais ensuite le cycle de réactions nucléaires fait intervenir le carbone, l'oxygène, le néon, puis le silicium, et enfin le fer, le noyau le plus stable. La structure de l'étoile est alors comparable à celle d'un oignon, avec les éléments les plus lourds au centre. Lorsque le cSur de fer a atteint une masse de 1,4 fois celle du Soleil, appelée masse de Chandrasekhar, il s'effondre violemment sur lui-même. La température monte brutalement, mais aucune réaction nucléaire ne peut plus avoir lieu car il n'y a plus de combustible approprié. La densité devient extrême. Les nombreux photons vont alors provoquer la photodésintégration du fer qui va retourner à l'état initial de protons et de neutrons. C'est alors que les électrons se font capturer par les protons dans une réaction (e- p ® n ne) qui est source de neutrinos, les premiers témoins de la mort de l'étoile. Des réactions d'annihilation entre les électrons et les positrons produisent des paires neutrino-antineutrino et ces malheureux restent quelques instants prisonniers tellement la densité est élevée. Soudain, alors que la partie centrale du cSur ne fait plus qu'une vingtaine de km de diamètre, elle se durcit brutalement et provoque le rebond des couches externes, qui tombent en chute libre, créant une formidable onde de choc. L'implosion, jusque là cachée aux yeux extérieurs se transforme en une gigantesque déflagration dévastatrice qui va se propager à travers les pelures de l'oignon. Les couches externes sont alors balayées vers l'extérieur. Au moment de l'explosion, l'étoile qui meurt devient brillante comme mille soleils et les neutrinos libérés se propagent dans tout l'espace.

Dans la réalité, les choses sont un peu plus complexes et les physiciens qui modélisent n'ont pas réussi à faire exploser l'étoile : l'énergie rejetée violemment vers l'extérieur ne serait pas suffisante pour traverser toutes les couches externes qui n'arrêtent pas de tomber vers le centre. Et pourtant l'étoile explose puisqu'on en voit le feu d'artifice. Les physiciens ont alors pensé que les neutrinos pourraient jouer un rôle dans cette explosion en venant à la rescousse de la déflagration. La situation s'améliore, mais l'explosion n'est pas assurée. S'il y a encore du travail, on pense aujourd'hui que les neutrinos sont bien des acteurs indispensables à l'explosion.
Une grande partie de l'énergie gravitationnelle de l'étoile se transforme en neutrinos de toutes les espèces et le nombre produit lors de l'explosion est fabuleux. Environ 1058 de ces particules ont été émises dans toutes les directions. 500 millions de milliards ont traversé le détecteur Kamiokande en moins de 10 secondes et une dizaine a laissé un signal.
Depuis 1987, d'autres détecteurs plus gros, plus performants ont été construits ou sont en projet. La veille est longue. La Nature ne nous a pas encore récompensé d'une nouvelle explosion. Mais nous sommes sûrs que les neutrinos messagers de la mort des étoiles sont déjà en route vers nous. A quand le prochain signal ? Dans un jour, dans un an ou dans dix ans ? Sachons être patients.

6. Les neutrinos extragalactiques

L'Univers est le siège de phénomènes particulièrement violents. Nous venons d'en voir un exemple avec les supernovas, mais il existe des astres dont la violence est permanente. Et si là encore les neutrinos pouvaient compléter les informations que nous donne la lumière reçue dans les télescopes, des ondes radio aux photons gamma en passant par la lumière visible.
Parmi les sources de lumière particulièrement intenses se trouvent les quasars. Il s'agit de trous noirs très massifs, en général au cSur d'une galaxie (on les appelle aussi noyaux actifs de galaxie), qui brillent à eux tout seuls beaucoup plus que le reste de la galaxie. Le trou noir attire la matière avant de l'engloutir, ce qui fournit une fabuleuse source d'énergie gravitationnelle (un ogre comme 3C273, à plus d'un milliard d'années-lumière de nous, se nourrit chaque année de l'équivalent de plusieurs soleils). Cette matière a la forme d'un disque, appelé disque d'accrétion. Perpendiculairement à ce disque, deux puissants jets de particules relativistes sont émis à des distances de plusieurs centaines de milliers d'années-lumière. Dans ces jets, il y a bien sûr des électrons, qui émettent en particulier des rayons gamma très énergiques, du keV au TeV, que l'on observe tous les jours avec les satellites comme INTEGRAL ou les détecteurs au sol comme HESS, en Namibie. Mais il y a aussi probablement des protons. Et ces protons, dans leurs interactions avec la matière environnante, vont produire des pions (rappelons nous les neutrinos atmosphériques) qui vont se désintégrer en gammas s'ils sont neutres ou en muons et neutrinos s'ils sont chargés. Pour nous aider à comprendre le fonctionnement de ces quasars ou d'autres objets astrophysiques comme les pulsars binaires ou les sursauts gamma, il est important de mesurer le flux de neutrinos qu'ils émettent.

Les neutrinos offrent bien des avantages : comme ils interagissent très faiblement, ils peuvent traverser des quantités importantes de matière alors que même les gammas peuvent être absorbés sur des distances cosmologiques ; comme ils n'ont pas de charge, ils ne sont pas déviés par les champs magnétiques galactiques ou intergalactique des régions traversées. Mais il n'y a pas que des avantages. L'inconvénient majeur est bien sûr leur minuscule probabilité d'interaction, même si celle-ci augmente proportionnellement à leur énergie. En outre, les flux prédits par les modèles, si importants soient-ils, sont des milliards de fois inférieurs à celui des neutrinos solaires. La tâche est herculéenne.
Depuis une trentaine d'années, des projets de détecter ces neutrinos venus de l'enfer des quasars ou des sursauts gamma sont à l'étude. Depuis une dizaine d'années, plusieurs sont en construction, que ce soit dans la glace du pôle sud (AMANDA) ou au fond de la Méditerranée (ANTARES). Le principe est toujours le même. Il faut s'affranchir des bruits de fond parasites en s'installant à quelques milliers de mètres de profondeur. Mais même à 2 ou 3 mille mètres, les neutrinos atmosphériques sont le signal dominant (de la même façon qu'on ne voit pas les étoiles durant le jour car la lumière du Soleil est beaucoup plus forte). L'astuce consiste à observer les neutrinos venus des antipodes et qui ont traversé la Terre, utilisée comme filtre au rayonnement parasite. AMANDA observe ainsi l'hémisphère nord du ciel et ANTARES plutôt l'hémisphère sud. Les prédictions, malgré leurs incertitudes, annoncent toutes que ces détecteurs doivent avoir des tailles gigantesques, de l'ordre du km3. Les neutrinos interagissent dans l'eau, la glace ou la roche au voisinage ou à l'intérieur du détecteur ; ils émettent alors un muon (s'il s'agit d'un nm, ou un électron s'il s'agit d'un ne) qui va parcourir plusieurs dizaines ou centaines de mètres à une énergie de plusieurs TeV (1015 eV). Ce muon garde la mémoire de la direction du neutrino incident à ces énergies élevées. Il émet du rayonnement Tcherenkov (cf. SuperKamiokande) observé par des centaines de photomultiplicateurs déployés sur des lignes verticales au fond de la mer ou de la glace.
AMANDA a montré que son détecteur fonctionnait bien, malgré les difficultés de l'implantation au pôle sud ; les physiciens déploient aujourd'hui ICECUBE, au rythme des courts étés antarctiques. ANTARES, une douzaine de lignes de photomultiplicateurs en cours d'installation au large de Toulon, servira de prototype pour un grand projet européen de détecteur kilométrique au fond de la Méditerranée. Au-delà de ces détecteurs pionniers, qui nous réserveront certainement des surprises, comme toujours avec les neutrinos, les physiciens imaginent d'utiliser la radio ou les ondes sonores pour détecter les neutrinos les plus énergiques venus des tréfonds de l'Univers.

7. Les neutrinos du big bang

Nous nous sommes éloignés de notre planète en observant « notre étoile », le Soleil, nous avons franchi les frontières de la galaxie, nous avons remonté l'espace (et le temps) dans le monde extragalactique et les neutrinos sont toujours là. Poursuivons notre voyage vers les origines, le fameux big bang. Les neutrinos y jouent-ils un rôle ?
L'histoire thermique de l'Univers présent commence il y a environ 13 milliards d'années par ce qu'on appelle aujourd'hui le big bang. Son origine reste aujourd'hui encore très spéculative car les lois de la physique ne s'appliquent plus vraiment dans les conditions de température et de densité extrêmes de la singularité initiale. Il y a probablement eu très tôt (vers 10-43 s) une période d'inflation (brusque augmentation de l'espace en quelques 10-40 s), suivie d'une période continue de refroidissement et d'expansion.

Lorsque le temps s'écoule, le fluide cosmique (appelé encore la soupe primordiale) se refroidit en raison de l'expansion et la température diminue très rapidement. Les forces qui régissent le comportement de la matière vont se singulariser l'une après l'autre, en commençant par l'interaction gravitationnelle, bientôt suivie par l'interaction forte. La soupe contient alors des quarks et des leptons. Il y a en particulier des électrons, des photons, et les trois espèces de neutrinos, qui s'annihilent joyeusement avec leurs antiparticules, en se transformant les uns dans les autres. Bien vite cependant l'interaction faible devient beaucoup plus faible que l'interaction électromagnétique et les neutrinos s'annihilent beaucoup moins souvent. Il y a aussi dans la soupe quelques quarks qui vont commencer à former les premiers protons et les premiers neutrons. Lorsque l'Univers continue de refroidir, les neutrinos deviennent si dilués qu'ils ne peuvent plus s'annihiler. Il ne s'est passé qu'une seconde depuis l'explosion primordiale (ou ce qu'on qualifie comme tel), la température est de 10 milliards de degrés et nous voilà en présence des premiers fossiles connus de l'Univers, condamnés à errer à jamais dans l'espace : les neutrinos du big bang. L'histoire continue et le refroidissement se poursuit inexorablement. Le découplage des photons correspond au moment où les électrons se combinent aux premiers noyaux (principalement au plus simple d'entre eux, le proton) pour former les atomes, électriquement neutres. L'Univers est alors âgé de 1 million d'années et la température est de 3000 K. Les photons fossiles vont continuer de se refroidir jusqu'à atteindre la valeur de 3K, température à laquelle ils ont été découverts par Penzias et Wilson en 1965. Les neutrinos eux se sont refroidis un peu plus ; leur température est de 2K, correspondant à une énergie de l'ordre du milli-électron-volt (meV).
Des quantités fabuleuses de neutrinos ont été produites, puisqu'on estime aujourd'hui leur nombre à 300 par cm3 dans tout l'Univers, toutes espèces confondues. Malheureusement, nous n'avons pas réussi à les observer et leur détection est extrêmement difficile, en particulier en raison de leur énergie ridiculement faible. Une telle quantité de neutrinos ne peut laisser indifférent. Ils pourraient être une contribution importante de la matière noire de l'Univers. Las ! Leur masse est trop faible (voir chapitre suivant) pour qu'ils puissent jouer un rôle important à cet égard. On estime aujourd'hui leur contribution quelques pour mille de la densité critique[2], ce qui est malgré tout autant que la masse visible de toutes les étoiles et galaxies. Mais leur rôle en cosmologie n'est pas limité pour autant. Ils interviennent tout d'abord dans la formation des structures de l'Univers, galaxies et amas de galaxies. L'effet est le suivant : tant que les neutrinos sont relativistes (et cette notion dépend de leur masse), ils voyagent librement des régions denses vers les régions moins denses et vont donc contribuer plus ou moins rapidement à la densité locale, définissant des échelles de structures plus ou moins grandes. L'analyse de ce qu'on appelle les grandes structures, avec des sondages profonds de l'Univers, permet aujourd'hui de contraindre la masse des neutrinos à moins de 0,5 eV, mieux que les mesures directes. Ensuite, les neutrinos, en particulier les ne sont indispensables à la nucléosynthèse primordiale ; ils sont nécessaires pour transformer les neutrons en protons et vice-versa à l'aide de plusieurs réactions : ne n « p e- ; p « n e+ ; n ® p e- . Sans ces réactions, nous resterions paralysés par le nombre de protons et de neutrons présents à l'origine, et nous n'aurions pas eu ce formidable réservoir d'hydrogène qui est la source d'énergie de départ de toutes les étoiles qui veulent vivre longtemps. La mesure de l'hélium primordial dans l'Univers a ainsi permis de contraindre le nombre de familles de neutrinos à une valeur de 3, la même que les expériences auprès du LEP.

8. En guise de conclusion.

Les neutrinos sont au cSur d'un processus dialectique fécond entre la physique des particules, l'astrophysique et la cosmologie, entre la théorie et l'expérience. Les progrès considérables de ces dernières années dans notre compréhension des neutrinos sont dûs principalement à l'observation de phénomènes astrophysiques où ils jouent un rôle-clé ; en retour, ils ont solutionné quelques vieilles énigmes. Quel bilan peut-on tirer ? Que nous réserve l'avenir ?

L'analyse simultanée des résultats des expériences de neutrinos solaires et de neutrinos atmosphériques (complétée avec les expériences auprès des réacteurs nucléaires comme Chooz ou KamLAND) donne accès aux paramètres de l'oscillation entre les trois espèces de neutrinos. Concernant la masse, les deux paramètres sont des différences de masses au carré Dm2, et pas la valeur absolue, et on obtient 2,3 10-3 eV2 et 8 10-5 eV2. On peut illustrer la petitesse des masses de neutrino correspondantes à l'aide de quelques hypothèses, et notamment celle d'une hiérarchie des masses de neutrinos analogue à celle des leptons chargés. On estime alors la masse du neutrino le plus lourd, le nt, à 0,05 eV, soit 10 millions de fois plus petite que celle de l'électron ; celle du nm à 0,008 eV, celle du ne encore moins. Cette même analyse nous informe également sur les angles de mélange. Elle dit : a) l'oscillation à la fréquence déterminée par les neutrinos atmosphériques (fonction de leur énergie et la longueur parcourue) est maximale et le nm se transforme intégralement en nt ; l'oscillation à la fréquence déterminée par les neutrinos solaires est grande mais pas maximale et le ne se transforme assez souvent en nm ou nt ; c) le troisième angle de mélange est encore inconnu et l'expérience auprès du réacteur de Chooz a permis de mettre une limite supérieure. Une nouvelle collaboration internationale, Double Chooz, se met en place pour traquer ce dernier paramètre, simultanément avec des expériences auprès des accélérateurs.
Il est une propriété des neutrinos dont nous n'avons pas parlé. Le neutrino pourrait être sa propre antiparticule ? Pour étudier cette possibilité, passionnante sur le plan théorique, des expériences dites de « double désintégration b sans émission de neutrinos » se construisent à travers le monde. Une belle expérience, NEMO3, fonctionne actuellement dans le laboratoire souterrain de Modane à la recherche de ces trop rares événements. En cas de découverte, le résultat donnerait simultanément une information précieuse sur la masse des ne.

En résumé, nous pouvons dire que les neutrinos sont des messagers incontournables de phénomènes fondamentaux dans l'Univers. Au-delà de sa masse, qu'avons-nous appris ? Tout d'abord le Soleil fonctionne comme prévu, sa source d'énergie étant la réaction nucléaire de fusion entre deux protons. Ensuite la mort des étoiles massives en supernova émet des quantités phénoménales de neutrinos, et ils sont probablement acteurs de l'explosion. Les neutrinos sont les plus vieux fossiles de l'Univers, mais contribuent marginalement à la matière noire. L'astronomie neutrino à haute énergie, prometteuse, en est encore à ses balbutiements.
Les neutrinos nous ont gâtés ces dernières années. Ils nous réservent encore bien des surprises. Il suffit d'être curieux et ... patient.



[1] Les physiciens expriment l'énergie en électronvolts (eV), un électronvolt valant 1,6 10-19 joule. La masse est exprimée en eV/c2 et souvent par simplification en eV lorsque l'on prend la convention c=1. Une masse de 1 eV correspond à environ 10-33 g.
[2] La densité de l'Univers s'exprime en fonction de la densité critique. Si la densité est inférieure, l'Univers est ouvert ; si elle est supérieure, il est fermé et son volume est fini. Les mesures des paramètres cosmologiques laissent à penser aujourd'hui que la densité de l'Univers est exactement égale à la densité critique.

 

  VIDEO       CANAL  U         LIEN

 
 
 
 

LA PHYSIQUE EN CHAMPS MAGNÉTIQUE INTENSE

 

 

 

 

 

 

 

LA PHYSIQUE EN CHAMPS MAGNÉTIQUE INTENSE


Le champ magnétique semble toujours un peu mystérieux, pourtant les phénomènes magnétiques sont connus depuis presque trois mille ans et ont trouvé des applications partout dans notre vie quotidienne. Le but de cet exposé est à la fois d'expliquer la physique du champ magnétique et de démontrer l'importance des champs magnétiques intenses dans la recherche. La conférence débutera par un bref résumé de la physique des champs magnétiques, à la fois de façon historique et fondamentale. Ensuite, je discuterai trois grands domaines de la physique ou le champ magnétique intervient La manipulation magnétique concerne tous les phénomènes qui génèrent des forces mécaniques sur des objets. L'aimant permanent avec lequel on colle des feuilles sur la porte du frigo, l'électromoteur, la séparation magnétique et la lévitation magnétique sont des exemples parmi tant d'autres. Ces phénomènes ont trouvés beaucoup d'applications, mais sont aussi utilisés comme outils dans la recherche. Le champ magnétique est une perturbation universelle et précise qui permet de sonder la matière et de déterminer beaucoup de paramètres physiques et chimiques. L'exemple le plus connu est l'imagerie médicale par résonance magnétique nucléaire mais il existe beaucoup d'autres sondes basées sur le champ magnétique. Les champs magnétiques intenses peuvent induire des nouveaux états de la matière, en particulier en combinaison avec des basses températures. Dans la physique des solides, plusieurs états exotiques ont été observés, comme des quasi-particules dans les gaz électroniques bidimensionnels, des condensats de Bose-Einstein dans des cristaux et la supraconductivité induite par le champ magnétique.

Texte de la 596 e conférence de l'Université de tous les savoirs prononcée le 18 juillet 2005
Par Geert Rikken: « Physique en champ magnétique intense »




Introduction
Dans cette conférence je vais vous parlez des champs magnétique intenses comme outil de recherche en physique. Vous pourrez voir que d'autres domaines s'en servent également. Je vais commencer avec par une petite introduction historique qui tracera un bref aperçu des lois fondamentales et des techniques pour générer les champs magnétiques intenses. Puis je présenterai trois grandes catégories dans lesquelles on peut classer l'utilisation des champs magnétiques intenses. D'abord il y a la manipulation magnétique ou des forces mécaniques font bouger et s'orienter des objets. Dans la deuxième catégorie on utilise un champ magnétique pour sonder l'état de la matière, c'est-à-dire l'état où elle serait en l'absence du champ magnétique. Puis, dans la troisième catégorie, le champ magnétique crée un nouvel état de la matière qui n'existe pas sans champ magnétique.
Dans la dernière catégorie, il n'y a pas trop d'applications quotidiennes quand on parle des champs très intenses. Pour la manipulation magnétique, il y a beaucoup plus d'application que vous connaissez sans doute, parce que la plupart se rencontrent dans la vie quotidienne. De l'autre coté, en termes d'intensité, c'est la dernière catégorie qui demande les champs les plus élevés et c'est là dessus que les laboratoires de recherche des champs intenses travaillent le plus.


Historique
Le champ magnétique a fasciné les gens depuis prés de 3000 ans. Les anciens chinois le connaissaient déjà et les Romains discutaient déjà l'origine du mot. On trouve deux versions dont l'une est proposée par Lucrétius faisait descendre le mot du nom de la région Magnésie qui se situe en Grèce, et où l'on trouve des aimants permanents constitués essentiellement d'oxyde de fer aimanté. Euclide racontait l'histoire d'un berger, Magnès, qui aurait découvert le phénomène parce que les clous dans ses bottes étaient attirés par certaines pierres. C'est ainsi que l'on aurait donné son nom au phénomène.
Au Moyen Age il y a eu beaucoup d'histoires autour du magnétisme, et les gens ont cru qu'il était médicinal, ou même diabolique. Il faut attendre 1600 pour voir le premier traité scientifique sur le magnétisme. Il est l'Suvre de William Gilbert, le médecin de la Reine d'Angleterre Elizabeth. C'est à cette période que l'électricité a commencé à faire son apparition. Jusqu'en 1820 on considérait que les deux étaient complètement différents, l'un n'ayant rien à faire avec l'autre. C'est le danois Christian Oersted qui a démontré expérimentalement, et par pur hasard, que les deux sont intimement liés. Alors qu'il effectuait une expérience en électricité sur une table se trouvait à proximité sur une autre table une boussole pour une expérience de magnétisme. Il constata que la boussole bougeait quand il faisait passer un courant électrique sur la première table. C'était la preuve que le courant créait un champ magnétique. Une dizaine d'années plus tard Faraday démontra à l'inverse qu'un champ magnétique variable pouvait créer un champ électrique. Tous ces phénomènes ont finalement été résumés par Maxwell dans une forme mathématique qui lie le champ magnétique, le champ électrique, le courant et les charges. Il en donna ainsi une description homogène et cohérente qui s'est avéré correcte jusqu'aujourd'hui.
Depuis, de nombreuses recherches ont été menées dans le domaine des champs magnétiques comme le montre la liste des prix Nobel liés aux résultats obtenus en champ magnétique ou autour de ce domaine (Cf. figure 1). Parmi ces prix certains ont été décernés en physique, d'autres en chimie et en médecine, certains pour des découvertes de phénomènes fondamentaux et d'autres également pour de l'instrumentation développé autour des champs magnétiques, comme par exemple le cyclotron ou le spectromètre de masse qui sont tous les deux basés sur le champs magnétique.

figure 1


Les lois fondamentales
Souvent des gens me demandent « qu'est-ce qu'un champ magnétique ? », et je n'ai pas vraiment de réponse satisfaisante. Une réponse brève et simple est que c'est une manifestation du champ électromagnétique. Il faut simplement accepter de considérer que l'électromagnétisme est une des quatre interactions fondamentales de l'univers et qu'il n'est pas possible de le réduire à des choses encore plus élémentaires. Une autre définition assez utile du champ magnétique est que c'est une influence qui entoure une charge électrique qui bouge.
En électricité, l'objet élémentaire est la charge électrique, en magnétisme les choses ne sont pas si simples. Il n'existe pas une charge magnétique, l'objet élémentaire est le dipôle magnétique qu'on peut s'imaginer comme un courant circulaire. Le moment magnétique correspondant est le rayon fois la vitesse fois la charge et ce moment crée un champ magnétique autour de lui.
Les lois fondamentales classiques du champ magnétique sont assez simples.
D'abord, il y a la force de Lorentz qui dit qu'une charge qui bouge dans un champ subit une force perpendiculaire à la vitesse et au champ. Dans un champ magnétique homogène, un électron fait donc un mouvement circulaire, qui s'appelle le mouvement cyclotron, caractérisé par le rayon cyclotron et la fréquence cyclotron. Deuxièmement, un champ magnétique induit un moment magnétique dans n'importe quelle matière, c'est-à-dire également dans celle qu'on appelle non-magnétique. Si le moment induit s'oppose au champ, on parle de diamagnétisme, si c'est l'opposé, on parle de paramagnétisme. Finalement, l'énergie d'un dipôle dans un champ est le produit scalaire du moment et du champ, qui fait qu'un dipôle préfère être parallèle au champ. Cette énergie s'appelle l'énergie de Zeeman.
Dans la recherche moderne, les champs magnétiques sont souvent appliqués à des systèmes quantiques, dans la physique des solides ou la physique atomique. Dans ces systèmes, les lois quantiques sont dominantes. Le premier phénomène quantique surprenant, lié au champ magnétique est que les particules comme les électrons ou les protons ont un moment magnétique intrinsèque, qu'on appelle le spin. Pour employer une image simple, il faut imaginer que ces particules chargées tournent autour d'un axe. La mécanique quantique dit que le spin des électrons ne peut avoir que deux valeurs, up et down. Il n'existe aucune explication classique pour ce phénomène qui a été découvert expérimentalement sans aucune prévision théorique. Dans la mécanique quantique, il existe aussi un mouvement cyclotron, mais plus compliqué et bien sur quantifié. Le rayon cyclotron, quantifié, est proportionnel à la longueur magnétique, qui correspond pour un champ d'un Tesla à 25 nanomètres, ce qui fait que les champs magnétiques trouvent aujourd'hui beaucoup d'emploi dans les nanosciences. L'énergie cyclotron est quantifiée, et proportionnelle à la fréquence cyclotron. On appelle ces niveaux d'énergie les niveaux de Landau. Le dernier aspect quantique un peu bizarre du champ magnétique est que le champ lui-même devient quantifié, et n'est plus un paramètre continu. Le quanta de flux magnétique est donné par des constantes fondamentales et correspond au champ magnétique qui traverse la surface d'une orbite cyclotron fondamentale d'un électron. L'intensité du champ correspond maintenant à la concentration des quantum de flux.
Cela nous amène au dernier aspect quantique de la physique en champ magnétique. La mécanique quantique connaît deux grandes familles de particules. D'un coté, il y a la famille des fermions, qui consiste en particules qui ont un spin non entier, très souvent ½, et qui ont comme particularité de ne pas pouvoir se partager un état à une énergie donné. Les électrons et les protons en sont des exemples. D'un autre coté, il y a la famille des bosons, qui consiste en particules qui ont un spin entier, et qui ont comme particularité qu'il peuvent se partager un état à un énergie donné. Les photons et certains atomes sont des exemples de bosons. La différence entre bosons et fermions devient importante quand on met beaucoup de particules ensembles. Les fermions ne veulent pas être tous à la même énergie et beaucoup d'entre eux sont donc forcés d'occuper des états à plus hautes énergies. A une température égale à zéro, le niveau de Fermi sépare les états vides des états remplis. Pour les bosons, les choses sont complètement différentes. A une température inégale à zéro, les bosons occupent une gamme d'énergie à cause des excitations thermiques. Mais si on baisse suffisamment la température, il peuvent tous se partager l'état de la plus basse énergie et ainsi créer un état cohérent. Cette transition s'appelle la condensation de Bose-Einstein, et fournit l'explication de la superfluidité de hélium liquide et de la supraconductivité ( Cf. figure 2).

figure 2

La supraconductivité est un phénomène qui a une relation à la fois difficile et fructueuse avec le champ magnétique, comme on le verra après. Dans certains cristaux se crée une attraction entre les électrons, malgré la répulsion Coulombienne, qui est le résultat de la déformation du cristal par les électrons. Deux électrons peuvent ainsi former une paire, appelé paire de Cooper, dans laquelle ils ont leurs moments cinétiques et leurs spins opposés. Cette nouvelle entité, la paire de Cooper, a donc un spin totale égal à zéro et est un boson. A une température suffisamment basse, toutes les paires peuvent condenser dans un état quantique cohérent. Cet état, observé pour la première fois par Kamerlingh Onnes en 1911, a deux propriétés remarquables : la résistivité électrique égale à zéro, d'où le nom supraconductivité, et le champ magnétique expulsé de l'intérieur du cristal, ce que l'on appelle l'effet Meissner. Cet effet existe jusqu'à une valeur critique du champ. Les champs plus intenses détruisent la supraconductivité parce que le deux spins de la paire de Cooper veulent tous les deux s'aligner avec le champ, annihilant ainsi la paire de Cooper et la supraconductivité.


La pratique des champs intenses
Les ordres de grandeur des champs magnétiques qu'on rencontre sont très divers. Autour de nos cerveaux on trouve des champs extrêmement faibles, liés aux activités cérébrales, et utilisés pour étudier ces dernières. Dans l'espace intra stellaire on trouve des champs faibles dont personne ne connaît l'origine. Le champ le plus connu est bien sur celle de la Terre qui fait aligner nos boussoles. Les aimants permanents ont un champ entre 0,1 et 1 Tesla. Des champs plus intenses sont générés par des électro-aimants, qui peuvent aller jusqu'à 1000 Tesla. La Nature a trouvé des moyens plus efficaces, et sur certaines étoiles, appelés les magnétars, les astronomes ont observés des champs d'un milliard de Tesla.
Dans ce qui suit je ne parlerai plus des champs faibles, en dessous d'un Tesla, pour me concentrer sur les champs intenses, crées par des électro-aimants ( Cf. figure 3).

figure 3

La seule méthode de créer un champ magnétique intense est de faire circuler un courant électrique très fort dans un solénoïde. Il y a deux problèmes à résoudre.
D'abord il y a le réchauffement du conducteur à cause du courant électrique. Pour éviter ce réchauffement, on peut utiliser un fil supraconducteur à basse température, qui n'a aucune résistivité électrique. Cette approche est limitée par les champs magnétiques critiques qui détruisent la supraconductivité. L'alternative consiste à refroidir le conducteur pour enlever la chaleur générée par la dissipation électrique.
Le second problème est la force de Lorentz. Le courant et le champ magnétique qu'ils génèrent ensembles créent une force de Lorentz qui va radialement vers l'extérieur, comme si le champ créait une pression magnétique à l'intérieur qui fait exploser le solénoïde quand elle devient trop forte ( Cf. figure 4). Pour remédier à ce problème, les électro-aimants sont construits avec des conducteurs ultra forts, ou avec un renfort externe.

figure 4

Les champs magnétiques intenses statiques jusqu'à quelques Tesla sont généré avec des fils en cuivre sur un noyau en fer, le plus fort de ce type étant l'aimant de Bellevue, construit au début du 20me siècle, qui a atteint 7 Tesla. Des champs atteignant jusqu'à 22 Tesla peuvent être générés avec des fils supraconducteurs refroidis avec de l'hélium liquide. Pour aller encore plus haut, la seule méthode consiste à utiliser du cuivre comme conducteur, en prenant soin de baisser la température par refroidissement à l'eau. Des puissances électriques jusqu'à 20 MW, refroidies avec 300 litres d'eau froide par seconde, permettent de générer jusqu'à 33 Tesla. En combinant les deux dernières techniques, on construit des aimant hybrides, qui ont généré jusqu'à 45 Tesla.
Pour aller plus haut en champ, on doit se contenter des champs transitoires, avec des durées en dessous d'une seconde. A Toulouse on produit des champs jusqu'à 60 Tesla avec des bobines monolithiques, faites d'un fil ultra fort et d'un renfort externe. Avec deux bobines concentriques on peut mieux répartir les contraintes mécaniques et atteindre jusqu'à 77 Tesla, comme l'a démontré récemment une collaboration européenne basée à Toulouse. Si on veut aller encore plus haut il faut accepter que la bobine soit détruite pendant le tir. Les bobines « monospire » sont constituées d'une seule spire en cuivre, qui explose radialement vers l'extérieur pendant un tir, laissant l'expérience au centre de la bobine intact. De cette façon on peut créer jusqu'à 300 Tesla. Les champs les plus intenses sont générés par la compression de flux ; le champ créé par une petite bobine est compressé par un cylindre en cuivre qui à son tour est comprimé par une explosion. Des champs jusqu'à 2000 Tesla ont été obtenus, mais l'expérience a été complètement détruite par l'explosion ( Cf. figure 5).

figure 5





Applications des champs intenses ; manipulation magnétique
Après cette partie technique, passons maintenant aux applications des champs.
La première catégorie d'application est la manipulation magnétique. Ce qui est très connue c'est bien sur l'orientation magnétique, comme, par exemple, dans le cas d'une boussole. On connaît un peu moins la séparation magnétique qui permet d'enlever des composant magnétique d'un mélange, par exemple les ordures ménagères. Assez actuel, avec l'arrivé d'ITER en France, est le confinement magnétique ou l'on peut confiner des particules chargés dans une volume sans qu'ils touchent le parois. Dans les tokamaks, comme ITER, un plasma ultra chaud est ainsi confiné. Toutes ces applications, ainsi que d'autres, comme la réfrigération magnétique ou le frein magnétique, impliquent des champs assez modestes, de quelques Tesla.
Ce qui est plus intéressant en termes de champs intenses est la lévitation magnétique. Non seulement cela demande des champs plus forts mais en outre il semble exister un problème fondamental pour ce phénomène. Il y a un vieux théorème, appelé le théorème d'Earnshaw, qui dit qu'il n'est pas possible d'atteindre une lévitation stable de charges ou d'aimants dans un champ magnétique statique. Si vous avez jamais essayé de prendre deux aimants permanents et d'en faire léviter un au dessus de l'autre, vous savez que c'est effectivement impossible. Il existe deux façons de contourner le théorème d'Earnshaw. La première est la lévitation dynamique, la deuxième la lévitation diamagnétique. Commençons avec la lévitation dynamique. Si le théorème d'Earnshaw interdit la lévitation stable, la stabilité nécessaire à conditions que l'on puisse activement réguler la lévitation. Par exemple on peut avoir une attraction entre un aimant permanent et un électro-aimant. Dès qu'ils se rapprochent trop, on réduit le courant dans l'électro-aimant pour qu'ils s'éloignent. Dès qu'ils s'éloignent trop, on augmente le courant etc. Il faut donc un système électronique de rétroaction pour arriver à une lévitation quasi stable. Ce principe a été implémenté dans le train à lévitation allemand TransRapid, ce qui lui permet d'avancer, sans friction avec les rails, à des vitesses allant jusqu'à 500 km/h.
Avec la lévitation diamagnétique on se sert d'une autre astuce pour contourner le théorème d'Earnshaw ; le diamagnétisme. Le diamagnétisme, ou le matériau repousse le champ magnétique, est un phénomène purement quantique, qui n'est pas couvert par le théorème d'Earnshaw. Dans un champ magnétique inhomogène, le champ exerce une force sur le matériau diamagnétique qui peut compenser la force gravitationnelle, permettant ainsi de faire léviter l'objet. Pour de l'eau, il faut un gradient magnétique d'à peu près 1000 T2/m pour que la lévitation ait lieu, valeur que l'on peut obtenir grâce à des électro-aimants performants. Par exemple, des êtres vivants, qui sont constitués principalement d'eau, peuvent être lévités ainsi en simulant l'apesanteur, une méthode bien sur moins chers que celle qui consiste à les envoyer dans une station spatiale. On peut aussi utiliser la lévitation diamagnétique comme outil de recherche pour étudier par exemple les interactions entre des gouttes d'eau, qui montrent des collisions élastiques sans fusion. On peut observer la lévitation diamagnétique à son extrême en faisant léviter un aimant permanent au dessus d'un supraconducteur, l'effet Meissner du supraconducteur représentant le diamagnétisme total ( Cf. figure 6).

figure 6


Applications des champs intenses ; sonder la matière
La deuxième catégorie des applications des champs intenses concerne le champ magnétique utilisé comme outil pour sonder la matière et déterminer ses propriétés, y compris des propriétés non-magnétiques. La première est l'effet Hall, qui est une conséquence de la force de Lorentz et qui fait qu'un courant qui passe perpendiculairement à un champ, crée un champ électrique perpendiculaire à ce courant et à ce champ. Cet effet permet de déterminer le signe de large des porteurs et leur concentration. La deuxième application dans cette catégorie est la résonance magnétique. Comme je l'ai expliqué avant, un moment magnétique quantique peut avoir deux valeurs, spin up et spin down, et ces deux états sont séparés par l'énergie de Zeeman. Si on irradie ce moment avec de la radiation électromagnétique, dont la fréquence correspond exactement à cette énergie, cette radiation peut être absorbé, le spin sera tourné du down vers le up et on parle alors de résonance. Ce principe peut être appliqué à plusieurs types de moments magnétiques. Pour les spins nucléaires, on parle de résonance magnétique nucléaire (RMN) et les fréquences nécessaires sont entre 10 et 1000 MHz. Si on l'applique aux spins des électrons, on parle de résonance paramagnétique des électrons (RPE) et les fréquences sont typiquement mille fois plus hautes, entre 10 et 1000 GHz. On peut aussi l'appliquer aux moments magnétiques orbitaux, comme le mouvement cyclotron des électrons (on parle de résonance cyclotron, dans le domaine de fréquences terahertz) ou des ions. Ces ions on peut les créer en ionisant des molécules et ainsi on peut déterminer la masse des molécules avec une très haute précision en mesurant la fréquence de résonance avec une haute précision. Dans ce qui va suivre je souhaite montrer pourquoi la RMN et sa dérivé, l'IRM (imagerie par résonance magnétique), sont tellement puissantes et utiles.
L'essentiel est que la RMN sonde le champ magnétique local d'un spin nucléaire. Si vous imaginez par exemple une molécule de benzène avec un champ perpendiculaire à l'anneaux des atomes de carbones, le moment magnétique induit dans les électrons de la molécule crée son propre champ magnétique qui est superposé au champ externe et qui fait que les protons dans le noyau des atomes d'hydrogène qui sont à l'extérieur de cet anneaux, voient un champ local légèrement différent ( Cf. figure 7). Leur fréquence de résonance sera donc un peu différente que la valeur pour un proton libre et cette différence est une empreinte pour l'environnement chimique de ces protons. En mesurant les différentes fréquences de résonances des protons dans une molécule organique, on peut déduire l'environnement chimique de chaque type de proton et ainsi reconstruire la structure de la molécule. Aujourd'hui la RMN est une des méthodes d'analyse les plus performantes en chimie organique. Des champs magnétiques très intenses sont nécessaires pour analyser les solides par RMN, parce que les raies de résonance sont beaucoup plus larges.

figure 7

Vous connaissez probablement tous quelqu'un qui a subit un examen d'imagerie par résonance magnétique, qui est une application récente de la RMN. Dans l'IRM on utilise toujours la RMN pour sonder le champ local, mais maintenant à une échelle macroscopique quand on applique un champ magnétique avec un gradient. La position le long du gradient se traduit dans une fréquence de résonance, et l'intensité de l'absorption à cette fréquence se traduit dans la concentration des noyaux à cette position dans le gradient. En faisant ces mesures avec des gradients en trois directions, un ordinateur peut reconstruire un plan tri-dimensionnel de la concentration de ces noyaux, qui peut alors être interprété par un médecin.
La troisième catégorie des sondes magnétiques de la matière est constituée des oscillations quantiques. Pour des fermions, les variations de l'énergie de Landau et du rayon du cyclotron avec le champ magnétiques font que le niveau de Fermi, et donc toutes les propriétés électroniques, vont varier périodiquement avec 1/B. Il y a plusieurs manifestations de ces variations, appelés oscillations quantiques. La plus connue est l'oscillation de l'aimantation du système appelée l'effet de Haas van Alphen. On peut aussi l'observer dans la résistivité électrique appelée effet Shubnikov de Haas. Avec ces oscillations, on peut déterminer la masse effective des électrons, leur temps de diffusion et leur surface de Fermi, la surface séparant les états vides des états remplis, en mesurant les oscillations en fonction de l'angle entre le champ et les axes du cristal.


Applications des champs intenses ; créer des nouveaux états
Le troisième grand groupe d'application des champs magnétiques intenses est la création des nouveaux états de la matière condensée et je voudrais vous présenter trois catégories.
Dans les gaz bidimensionnels des électrons, les champs intenses créent les effets Hall quantique intégrale et fractionnaire, les deux découvertes couronnés avec un prix Nobel.
Le gaz bidimensionnel existe à l'interface entre deux couches dans certains dispositifs semi-conducteurs et comme pour tous les conducteurs il a un effet Hall que j'ai décrit avant. La grande surprise, observée par von Klitzing en 1980, était qu'on n'observe pas la prédiction classique, c'est-à-dire un effet Hall linéaire en champ magnétiques, mais des plateaux quantifié dans la résistance de Hall, et des zéros dans la résistance longitudinale. L'explication de l'effet Hall quantique intégrale vient des impuretés dans le système. Ces impuretés font que les niveaux de Landau sont élargis et que les états loin du centre du niveau sont localisés. Tant que le niveau de Fermi se trouve dans ces états localisés, la résistance de Hall est donnée par le facteur de remplissage, c'est-à-dire, le nombre de niveaux de Landau en dessous du niveau de Fermi (et donc constant), et la résistance longitudinale est zéro parce que les porteurs mobiles n'ont pas d'états vides proches disponibles. Comme l'effet Hall quantique dépend des impuretés, il doit disparaître si on réussit à fabriquer des systèmes plus propres, ce qui a été observé. Mais en même temps un autre effet Hall quantique inattendu se manifestait. L'effet Hall quantique fractionnaire phénoménologiquement ressemble beaucoup à l'effet Hall quantique intégrale, mais cette fois ci, les plateaux et les zéros se trouvent à des facteurs de remplissage donnés par des fractions. L'explication de l'effet Hall quantique fractionnaire, donnée par Laughlin, et récompensée par un prix Nobel en 1998, est que les interactions entre les électrons deviennent dominantes et qu'une nouvelle entité se forme, constitué d'un électron avec deux quantum de flux magnétique et qu'on appelle un fermion composite. Dans cette description, l'effet Hall quantique fractionnaire des électrons devient l'effet Hall quantique intégrale des fermions composites.
La deuxième catégorie concerne la supraconductivité exotique. Depuis la découverte de la supraconductivité en 1911, la température critique (la température en dessous laquelle la supraconductivité existe) a monté doucement avec les découvertes de nouveaux matériaux. Un grand saut fut fait en 1986 avec la découverte d'une nouvelle famille de supraconducteurs ; les cuprates. Ils sont composés de couches d'oxyde de cuivre ou la conduction électrique a lieu, séparés par des couches d'autres atomes, qui servent aussi pour injecter de la charge dans les couches d'oxydes de cuivre. Les structures cristallines sont assez compliquées et les diagrammes de phase de ces composés sont très riches, en particulier en fonction du dopage, c'est-à-dire du nombre d'électrons ou de trous par atome de cuivre, introduit par les autres atomes. On y trouve des phases isolantes, supraconductrices, anti-ferromagnétiques et métalliques. Le mécanisme de la supraconductivité dans les cuprates n'est pas bien connu, et aussi l'état normal des cuprates au dessus de la température critique est mal compris et on ne sait par exemple pas s'il est isolant ou métallique. L'approche normale pour discriminer entre un isolant et un métal est de refroidir le système, et de mesurer sa résistivité électrique. Pour un isolant, cette résistivité doit diverger tandis que pour un métal il devient constant. Pour les cuprates, cette approche n'est pas possible parce que la supraconductivité intervient. La solution est d'appliquer un champ magnétique intense pour supprimer la supraconductivité. Sous ces conditions, on peut mesurer la résistivité de l'état normal jusqu'à de basses températures. Récemment on a ainsi observé dans des échantillons très purs d'YBaCuO que l'état normal est métallique.
Je vous ai expliqué qu'un champ intense tue la supraconductivité. Paradoxalement, le contraire existe aussi, de la supraconductivité induit par le champ magnétique ! C'est le cas dans certains conducteurs organiques qui contiennent des anions paramagnétiques. Les électrons de conduction sentent le champ externe et le champ d'échange des ions et les deux sont opposés. Pour une certaine gamme de champs externes, les deux champs se compensent à peu près, les électrons sentent donc très peu de champ total et la supraconductivité peut exister. Ce phénomène s'appelle l'effet Jaccarino-Peter.
La dernière catégorie où le champ magnétique crée des nouveaux états, fait partie du magnétisme quantique. Aujourd'hui, les chimistes savent synthétiser des nouveaux cristaux très purs des oxydes des métaux de transition. Les interactions entre les charges, les moments magnétiques orbitaux, les spins et les phonons donnent une grande richesse à ces systèmes, avec beaucoup de phases différentes en fonction de la température et du dopage. Que se passe-t-il si on ajoute encore une composante, le champ magnétique ? Un champ magnétique lui aussi peut induire une transition de phase, comme la température ou la pression. Cela devient clair si on regarde un système de deux électrons avec spin ½. En général ils s'accouplent anti-parallèlement pour donner une paire avec spin zéro, l'état singlet. L'état parallèle avec le spin égal à un, appelé l'état triplet, a une énergie plus haute. Mais à partir d'un certain champ magnétique externe, à cause de l'effet Zeeman, l'état avec spin -1 a une énergie plus basse que l'état avec spin égal à zéro et le système change d'état. La combinaison des oxydes de métaux de transition avec la transition de phase magnétique a récemment donnée quelques résultats remarquables. Le premier exemple est la condensation de Bose-Einstein des triplons dans le pourpre de Han. C'est un système des couches anisotropes de dimères des ions paramagnétiques de cuivre. Le résultat des interactions entre tous les ions est que l'état fondamental à champ zéro est non magnétique. L'application d'un champ magnétique intense fait croiser l'état triplet à l'état singlet. De leur mélange, une nouvelle entité sort : le triplon. A cause de leur spin entier, les triplons sont des bosons et il peuvent condenser à basse température dans un état cohérent : la condensation Bose-Einstein. Cette transition de phase magnétique est visible dans la chaleur spécifique. Avec des mesures de la chaleur spécifique en fonction de la température et du champ, on peut trouver le diagramme de phase et identifier le domaine du condensât des triplons.
Le deuxième exemple est aussi un système de couches d'ions de cuivre : le SrCu2(BO3)2. Dans ce système, des plateaux d'aimantation ont été observés. Récemment, des mesures de RMN à très basses températures et dans un champ très intense ont démontré que sur ces plateaux, le système a une superstructure magnétique très compliqué qui n'existe pas ailleurs.

C'est avec ce dernier exemple que je termine mon exposé. J'espère avoir pu vous montrer que la physique en champ magnétique intense est à la fois utile, puissante et fascinante. Je tiens à remercier tous mes collègues pour les discussions et pour m'avoir fourni des images.

 

  VIDEO       CANAL  U         LIEN

 
 
 
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 ] Précédente - Suivante
SARL ORION, Création sites internet Martigues, Bouches du Rhone, Provence, Hébergement, référencement, maintenance. 0ri0n
Site réalisé par ORION, création et gestion sites internet.


Google
Accueil - Initiation musicale - Instruments - Solfège - Harmonie - Instruments - Musiques Traditionnelles - Pratique d'un instrument - Nous contacter - Liens - Mentions légales /confidentialité

Initiation musicale Toulon

-

Cours de guitare Toulon

-

Initiation à la musique Toulon

-

Cours de musique Toulon

-

initiation piano Toulon

-

initiation saxophone Toulon

-
initiation flute Toulon
-

initiation guitare Toulon