|
|
|
|
 |
|
DES ARBORESCENCES MAGNÉTIQUES |
|
|
|
|
|
Des arborescences magnétiques
Cécile Michaut dans mensuel 374
daté avril 2004 - Réservé aux abonnés du site
Les supraconducteurs n'aiment pas les champs magnétiques. C'est même l'un des principaux obstacles à l'utilisation pratique de ces matériaux d'où la résistance électrique est absente. Ainsi, dans le diborure de magnésium, un supraconducteur découvert récemment, le magné-tisme provoque la formation d'étranges arbres.
Le flux magnétique pénètre la surface, s'infiltre, puis s'enfonce soudainement comme dans un craquement, éclatant en multiples embranchements. En quelques fractions de seconde, il envahit une grande partie du film.
Les supraconducteurs conduisent le courant électrique sans dissipation au-dessous d'une température critique, mais ils ont un talon d'Achille : si l'on tente de faire circuler un courant électrique très intense dans un supraconducteur, comme l'absence de résistance semble pouvoir le permettre, on crée du même coup un champ magnétique si intense qu'il détruit la supraconductivité. C'est ce phénomène qui empêcha Heike Kamerlingh Onnes, découvreur de la supraconductivité en 1911 dans son laboratoire de Leyde, aux Pays-Bas, d'en tirer la moindre application pratique, malgré tous ses efforts.
Tant que le courant électrique est faible, le champ magnétique induit en vertu des lois de l'électromagnétisme reste peu intense, et il est littéralement « expulsé » hors du matériau. Mais lorsque l'intensité du champ magnétique augmente, il finit inéluctablement par pénétrer dans le matériau.
Certains supraconducteurs, dits de type II, résistent mieux que les autres à cette pénétration : le champ magnétique les traverse, certes, mais seulement dans des zones bien délimitées, des tubes circulaires microscopiques à travers lesquels le flux magnétique est quantifié. Autour de chacun de ces tubes circule un courant électrique qui se comporte comme l'eau dans un tourbillon, d'où le nom de vortex tourbillon en anglais donné à ces structures. L'existence de ces vortex a été proposée en 1957 par le Russe Alexei Abrikosov, qui vient d'être récompensé pour cette théorie en 2003, par le prix Nobel de physique [1].
Dans la plupart des matériaux, en présence d'un champ magnétique, des vortex se forment à des intervalles réguliers. S'ils restent immobiles lorsque l'on fait circuler un courant électrique, leur rôle est bénéfique : ils canalisent le champ magnétique, l'empêchant d'envahir tout l'échantillon et de détruire la supraconductivité. En revanche, s'ils se déplacent avec le courant, ils dissipent de l'énergie : le matériau devient résistant. Pour résoudre cette difficulté, ainsi que préserver la supraconductivité, les physiciens ont imaginé de fixer ces vortex dans le matériau, généralement en incorporant des défauts, qui jouent le rôle d'ancrage pour ces minuscules tourbillons. Cependant, certains supraconducteurs de type II présentent un comportement original, et problématique. C'est le cas par exemple du diborure de magnésium, dont les propriétés supraconductrices au-dessous de 39 kelvins ont été découvertes en 2001 [2]. Dans un film de quelques dixièmes de micromètre d'épaisseur de ce matériau, le flux magnétique forme des motifs arborescents qui sont baptisés dendrites, étrangement semblables aux fissures d'une vitre brisée. Lorsque des dendrites se forments, cela perturbe le passage du courant électrique supraconducteur.
Un phénomène très stable
Pour lutter contre ce phénomène et améliorer les propriétés de ces films supraconducteurs, il faut d'abord comprendre comment et pourquoi ces dendrites se forment. C'est la tâche à laquelle s'est attelé Tom H. Johansen, de l'université d'Oslo, en Norvège, à l'aide d'une technique de mesure magnéto-optique, dans laquelle la lumière transmise dépend du champ magnétique local. Pour simplifier la situation, il a placé ses films de diborure de magnésium dans un champ magnétique créé de l'extérieur, orienté perpendiculairement à leur surface. Et, faute de pouvoir observer la formation même des dendrites lors de l'apparition du champ magnétique, dans la mesure où elle est trop rapide, il a examiné leur forme finale.
Premier résultat : plus le champ magnétique est intense, plus le flux magnétique pénètre vers l'intérieur du film, formant de plus en plus de dendrites. Elles sont très stables. Une fois formées, elles ne bougent plus. Si l'on augmente l'intensité du champ, de nouvelles dendrites se développent, celles existantes restant inchangées. De plus, lorsque le champ magnétique externe est coupé, elles subsistent très longtemps, piégeant une aimantation rémanente. Il faut réchauffer l'échantillon au-dessus de sa température critique pour pouvoir éliminer ces dendrites.
Tom H. Johansen et son équipe ont aussi remarqué que la forme des dendrites dépend de la température. Vers 3 ou 4 kelvins, les dendrites sont fines et linéaires. Plus l'échantillon est chaud, plus les dendrites sont nombreuses et ramifiées. Enfin, au-dessus de 10 kelvins, elles disparaissent : on retrouve alors des vortex bien espacés.
Dans certains supraconducteurs de type II, par exemple ceux de la famille des cuprates, qui sont supraconducteurs jusqu'à des températures de plus de 100 kelvins, les vortex se forment préférentiellement à la périphérie du film. Il en apparaît au milieu du film seulement quand le champ magnétique devient très intense, et il faut appliquer des champs magnétiques colossaux pour détruire toute trace de supraconductivité. Dans le diborure de magnésium, au contraire, des milliers de vortex interagissent les uns avec les autres et s'assemblent pour former les dendrites qui pénètrent vers le centre de l'échantillon. « La croissance des dendrites ressemble à la percolation de l'eau à travers un système poreux, observe Alexandre Bouzdine, professeur de physique de l'université Bordeaux-1. Le motif formé est difficile à décrire : les milliers de vortex qui composent les dendrites interagissent entre eux, avec les défauts du matériau et avec le champ magnétique. »
Le rôle clé de la chaleur
« Il n'existe aucun modèle quantitatif permettant d'expliquer comment les dendrites se forment dans le matériau et pourquoi elles existent dans certains supraconducteurs et non dans d'autres », note Tom H. Johansen. Quelques observations permettent cependant d'y voir plus clair. « La croissance des dendrites n'est pas exclusivement liée aux défauts des matériaux, explique le physicien. En effet, lorsque l'on effectue deux fois la même expérience sur le même échantillon, les dendrites ne sont pas identiques. » Il n'y a donc pas un chemin préférentiel pour les vortex dans le matériau. En revanche, le point de départ des dendrites sur le bord de l'échantillon est souvent identique. Il s'agit probablement de défauts du supraconducteur, qui servent d'initiateurs pour leur croissance.
L'équipe de Tom H. Johansen a effectué des simulations afin de mieux comprendre l'instant fugace pendant lequel les dendrites se forment dans le film supraconducteur. Les vortex se forment d'abord à la périphérie du film mince, et ne s'immobilisent pas immédiatement. « L'idée centrale est que lorsqu'un vortex se déplace dans le supraconducteur, il dissipe de la chaleur. Celle-ci tend à décoincer les vortex placés près de sa trajectoire, entraînant un déplacement en chaîne d'un grand nombre d'entre eux. De fait, nos simulations montrent un tel comportement. Elles reproduisent également l'aspect linéaire des dendrites à basse température et leur tendance à multiplier les branches lorsque la température augmente. »
Puisque l'échauffement semble jouer un rôle clé dans la croissance des dendrites, Tom H. Johansen et ses collègues ont eu l'idée de jouer sur ce paramètre pour modifier le comportement du supraconducteur. Ils ont tout simplement disposé sur ce dernier une feuille d'aluminium, qui conduit bien la chaleur. Les résultats sont immédiats : sur la moitié du supraconducteur recouvert par l'aluminium, les dendrites ne se forment que sous un champ magnétique bien plus élevé que dans l'autre moitié test sans aluminium, et elles sont beaucoup plus petites. Pouvait-on imaginer plus simple méthode pour améliorer l'imperméabilité magnétique des films supraconducteurs ?
Un modèle quantitatif à inventer
D'autres physiciens doutent cependant que l'effet de la feuille d'aluminium soit d'évacuer la chaleur. En effet, des recherches récentes ont montré que, durant les quelques millisecondes pendant lesquelles les dendrites se forment, leur vitesse de croissance était proche de 100 kilomètres par seconde. Or, on ne connaît pas le mécanisme de transfert de chaleur à une telle vitesse. Selon une autre hypothèse, on envisage qu'au sein de l'aluminium, qui est un bon conducteur électrique, le déplacement rapide des vortex créerait des courants électriques qui modifieraient localement le champ magnétique et s'opposeraient à ces mouvements.
Les recherches n'en sont qu'à leurs débuts. « Notre modèle de la formation des dendrites reste très qualitatif, cons-tate Tom H. Johansen. Un bon modèle devrait être capable de déterminer les différents paramètres permettant l'existence des dendrites, ainsi que leur vitesse, leur taille, etc. On en est loin ! »
La découverte fortuite de la supraconductivité du diborure de magnésium, en 2001, avait échauffé les esprits des physiciens : peu coûteux et facile à fabriquer, ce supraconducteur à la température critique relativement élevée semblait promis rapidement à des applications pratiques. Ils ont déchanté rapidement de ce point de vue, notamment à cause des faibles densités de courant que peut supporter le matériau sans que sa supraconductivité disparaisse : ses applications resteront probablement limitées à quelques niches. Toutefois, et l'exemple des dendrites magnétiques le montre, les études du diborure de magnésium ont permis de découvrir des phénomènes nouveaux d'un point de vue fondamental. Après les avoir observées sur le diborure de magnésium, Tom H. Johansen et son équipe ont recherché des dendrites dans des films d'autres supraconducteurs. Or, ils en ont trouvé. Par exemple dans le nitrure de niobium, ou dans un alliage niobium-étain, dans lequel elles ressemblent à de superbes cristaux de glace.
C. M.
[1] Alexandre Bouzdine, « L'héritage de Lev Landau », La Recherche, janvier 2004, p. 63.
[2] D. Roditchev, J. Klein et W. Sacks, « Le premier supraconducteur double », La Recherche, novembre 2003, p. 40.
DOCUMENT la recherche.fr LIEN |
|
|
|
|
 |
|
L'UNIVERS ÉTRANGE DU FROID : À LA LIMITE DU ZÉRO ABSOLU |
|
|
|
|
|
Texte de la 228e conférence de l'Université de tous les savoirs donnée le 15 août 2000.
L'Univers étrange du froid : à la limite du zéro absolu
par Henri Godfrin
Température et intuition...
Qu'est-ce que le froid ? Nous avons tous une réponse à cette question, car nos sens nous permettent de déceler avec une précision remarquable de très faibles différences de température. Nous avons pris l'habitude d'utiliser des thermomètres, soigneusement gradués en degrés Celsius aussi bien vers les températures positives que vers les négatives. Bien que ceux-ci ne couvrent qu'une petite gamme, par exemple de -20 à +40°C, tout nous pousse à croire que l'on peut prolonger indéfiniment les graduations vers des températures infinies dans les deux sens. Pourtant, s'il est vrai que l'on peut chauffer un corps sans limitation en lui apportant une énergie aussi importante qu'il sera nécessaire, la Physique nous montre que la descente vers les basses températures bute contre un obstacle infranchissable : le Zéro Absolu.
Le premier qui semble avoir posé clairement la question de l'existence d'une limite inférieure à l'échelle de températures est un physicien français, Guillaume Amontons (1663-1705). Expérimentateur de génie, il arrive à une conclusion stupéfiante : la pression des gaz devient nulle à une température qu'il estime à une valeur correspondant à -240 de nos degrés Celsius. Une précision remarquable pour l'époque !
Ce n'est qu'au XIXe siècle que se dégagent les grandes lignes de la science de la chaleur, la Thermodynamique. Ses lois, appelés « principes », sont déduites de l'expérience. La Thermodynamique apporte aussi sa contribution au problème des très basses températures : Carnot, dans son ouvrage Réflexions sur la puissance motrice du feu et des machines propres à développer cette puissance publié en 1824, introduit la notion de température absolue T. Le zéro de cette échelle de température, le Zéro Absolu, est associé à l'efficacité maximale des machines thermiques : 100 % si la source froide est à T=0.
Température absolue et entropie
Les physiciens utilisent aujourd'hui l'échelle de températures absolues proposée en 1848 par William Thomson (Lord Kelvin). Celle-ci est définie par le Zéro Absolu (T=0) et la valeur 273,16 degrés attribuée au point triple de l'eau, la température unique où coexistent la glace, l'eau et sa vapeur, qui correspond à t=0,01 °C. Un degré de la nouvelle échelle (degré Kelvin) est identique à un degré Celsius, mais l'origine des deux échelles est décalée de 273,15 degrés : la température en Kelvins (T) s'exprime donc simplement en fonction de la température en degrés Celsius (t) par la formule T(K)=t(°C)+273,15.
Par ailleurs, la description des échanges de chaleur fait intervenir une nouvelle grandeur physique, introduite par Clausius en 1850 : l'entropie. Elle caractérise l'état de la matière ; fournir de la chaleur à un corps revient à augmenter son entropie. La Thermodynamique nous propose aussi le principe de l'entropie maximum : l'entropie d'un système isolé ne peut que croître ou rester constante, ce qui définit l'évolution d'un système physique hors équilibre ; on introduit ainsi une distinction entre les deux sens du temps : contrairement aux Lois de la Mécanique, passé et futur ne sont plus symétriques !
Cependant, la Physique Thermique ne fournit qu'une description macroscopique : nous sommes bien loin des « atomes » imaginés Démocrite...
Température et jeux de hasard : l'apport de la Statistique
Pourtant, grâce aux travaux de R. Clausius, J. Maxwell et L. Boltzmann, la Théorie Cinétique des gaz se met progressivement en place. Elle explique les propriétés des gaz par le mouvement désordonné de « molécules » : la pression exercée par un gaz sur un récipient est due aux très nombreuses collisions de ces molécules avec les parois. La température devient une mesure de l'énergie moyenne des molécules.
Le sort d'une molécule individuelle ne présente pas d'intérêt, lorsque l'on cherche à décrire les propriétés macroscopiques d'un corps. La Physique Statistique, développée dans l'incrédulité générale par L. Boltzmann, réussira l'exploit d'associer le comportement macroscopique d'un corps aux propriétés microscopiques sous-jacentes. Un exemple éclatant est l'obtention de l'équation d'état du gaz parfait, PV=NRT.
L'un des acquis fondamentaux de la Physique Statistique est la compréhension de l'origine de l'entropie. Du fait de la présence d'un grand nombre de molécules pouvant occuper un grand nombre d'états, il existe un très grand nombre de configurations possibles pour le système dans son ensemble, d'autant plus important que l'énergie totale à distribuer entre les molécules est élevée. Ce nombre de configurations est calculable par l'analyse combinatoire ; il est tellement grand que l'on est forcé de considérer son logarithme ! L'entropie est donc une mesure de la quantité d'états microscopiques accessibles au système : plus familièrement nous dirons qu'elle mesure le désordre !
La révolution de la Mécanique Quantique
L'avènement de la Mécanique Quantique, développée par M. Planck, N. Bohr, W. Heisenberg, P.A.M. Dirac et bien d'autres, allait permettre un nouveau progrès de la Physique Thermique, tout en s'appuyant fortement sur celle-ci. La Matière n'existe que dans des états « quantifiés », caractérisés par un nombre entier appelé nombre quantique, et par conséquent séparés en énergie. Ces états quantiques, similaires à ceux de l'électron autour d'un atome, fournissent l'outil idéal pour effectuer des calculs statistiques. En fait, ce que nous observons résulte d'une moyenne sur un nombre inimaginable de configurations (« états » ) microscopiques. La température est une grandeur associée au « peuplement » de ces états quantiques par les molécules. La probabilité de trouver une molécule dans un état d'énergie E est donnée par le facteur de Boltzmann exp[-E/kBT] : plus la température T est élevée, plus on aura des chances de trouver une molécule dans un état d'énergie E élevée. La constante de Boltzmann kB permet de comparer une température T à une énergie caractéristique du problème. Par exemple, la fusion d'un corps a lieu lorsque kBT est de l'ordre de E0, énergie de liaison des atomes de ce corps. À chaque domaine d'énergie est associé un domaine de température.
La Mécanique Quantique apporte un nouvel éclairage au problème du Zéro Absolu. En effet, parmi tous les états quantiques, il en existe un qui nous intéresse au plus haut degré : c'est l'état de plus basse énergie, appelé « état fondamental ». À ce stade, la matière ne peut plus céder d'énergie : il n'existe aucun état d'énergie inférieure ! Ce qui ne signifie aucunement que son énergie soit nulle. Les molécules continuent d'être animées de mouvement : il subsiste une énergie dite « de point zéro », que l'on peut associer au principe d'incertitude de Heisenberg de la Mécanique Quantique.
Zéro Absolu et excitations élémentaires
Le Zéro Absolu de température correspond donc à la situation où la Matière est dans l'état fondamental. Mais il n'y a plus aucun désordre quand il ne reste qu'un choix possible. Contrairement à ce que l'on pensait encore au début du siècle, ce n'est pas l'énergie qui devient nulle au Zéro Absolu, mais l'entropie.
La Physique des basses températures est ainsi, d'une certaine manière, la Physique de l'ordre. Elle permet également de comprendre toute la riche panoplie des effets thermiques. En effet, si l'on laisse de côté le cas un peu scolaire du gaz parfait, nous sommes immédiatement confrontés au problème complexe des atomes en interaction. Considérons par exemple le cas d'un corps solide simple. Le mouvement des atomes consiste en de petites oscillations autour de leur position d'équilibre. Mathématiquement, le problème est équivalent à celui d'une collection de pendules, ou « oscillateurs harmoniques ». Mais l'énergie de ces pendules est quantifiée ! A température nulle, ils seront soumis à une vibration de point zéro d'origine quantique. Quand on chauffe le système, on augmente le degré de vibration des atomes. En proposant un modèle des solides décrivant leurs propriétés thermiques au moyen d'une collection d'oscillateurs harmoniques quantifiés indépendants, Einstein faisait faire à la Physique un énorme progrès : pour la première fois on comprenait l'origine quantique de la décroissance de la capacité calorifique des corps à basse température. Cette grandeur, qui correspond à la quantité de chaleur que l'on doit fournir à un corps pour élever sa température d'un degré, nous renseigne sur l'énergie des états quantiques de la Matière. Elle doit tendre vers zéro à basse température, tout comme l'entropie, et c'est bien ce que l'on observe expérimentalement.
La Matière à basse température
Le modèle d'Einstein s'applique à des oscillateurs indépendants, alors que dans un très grand nombre de corps solides les vibrations des atomes sont fortement couplées. Tout se passe comme si les atomes étaient des petites masses reliées les unes aux autres par des « ressorts », ceux-ci symbolisant les forces atomiques. Debye a pu monter que des ondes sonores quantifiées, les « phonons », constituent les « excitations élémentaires » d'un solide.
Les propriétés électroniques de la matière sont également un domaine de recherches très fructueuses. L'un des effets les plus spectaculaires est l'apparition de la supraconductivité dans certains métaux[1]. À basse température, en effet, les électrons peuvent former des paires (paires de Cooper) et « condenser dans un état macroscopique cohérent » : tous les électrons de conduction du métal se comportent « en bloc », comme une molécule géante. Les impuretés et les défauts du métal qui donnaient lieu à une résistance électrique dans l'état « normal » ne peuvent plus arrêter cet « objet quantique » géant que sont devenus les électrons supraconducteurs : le courant circule sans dissipation. On a pu montrer que le courant piégé dans un anneau supraconducteur continuait de tourner sans faiblir pendant des années !
Les électrons d'un métal ou d'un semi-conducteur peuvent présenter bien d'autres propriétés très surprenantes à basse température comme, par exemple, l' Effet Hall Quantique Entier et l' Effet Hall Quantique Fractionnaire, la Transition Métal-Isolant, ou le Blocage de Coulomb.
Le froid est également intéressant pour étudier les phénomènes magnétiques. Ceux-ci sont dus à l'existence d'un « spin » associé à l'électron, c'est-à-dire une rotation de l'électron sur lui-même. De ce fait, l'électron se comporte comme un petit aimant élémentaire, qui aura tendance à s'aligner comme une boussole suivant un champ magnétique. Le désordre imposé par la température s'oppose à cet alignement. On voit alors évoluer les propriétés magnétiques des corps en fonction de la température et du champ magnétique. Au Zéro Absolu, les « spins » s'organisent pour former différentes structures magnétiques ordonnées : ferromagnétique, anti-ferromagnétique, hélicoïdale, etc.
Le domaine de prédilection des basses températures est l'étude des deux isotopes de l'hélium : 4He et 3He. L'4He est dépourvu de spin, et rentre de ce fait dans la catégorie des « bosons », regroupant toutes les particules de la Nature ayant un spin entier (0,1,2, etc.). L'3He, par contre, a un spin 1/2, et fait partie des « fermions ». La Mécanique Quantique est à nouveau mise à contribution lorsque l'on tente de décrire les propriétés d'une collection de ces atomes, réalisée en pratique par l'hélium liquide. En effet, l'état fondamental des bosons est obtenu en plaçant tous les atomes dans le même état quantique ; pour l'4He, on obtient un état macroscopique cohérent similaire à la supraconductivité des paires de Cooper électroniques. On observe la superfluidité de l'4He liquide en dessous de T=2.17 Kelvins : il s écoule alors sans aucun signe de frottement ou de viscosité, remontant même le long des parois du récipient qui le contient !
L'3He se comporte de manière très différente. Les fermions, en effet, ne peuvent se retrouver dans le même état (cette interdiction quantique reçoit le nom de « principe d'exclusion de Pauli »). Les nombreux atomes que comporte un volume donné d'3He liquide sont donc nécessairement dans des états quantiques différents ; si des atomes réussissent à se caser dans des états de basse énergie, les autres sont réduits à occuper des niveaux de plus en plus énergétiques : les états sont ainsi occupés jusqu'au « niveau de Fermi ». Cette physique se retrouve dans les métaux, car les électrons sont également des fermions. C'est pour cela que les études effectuées sur l'3He liquide ont permis de mieux comprendre la physique des métaux.
Il serait injuste de ne pas citer ici l'un des plus beaux effets de la physique des basses températures : la superfluidité de l'3He, observée par D.D. Osheroff, R.C. Richardson et D. Lee, Prix Nobel de Physique. Tout comme les électrons, les atomes d'3He forment des paires de Cooper qui condensent pour donner lieu à l'état superfluide. Les études conduites sur ce système ont permis de comprendre les propriétés observées 20 ans plus tard dans les « supraconducteurs à haute température critique ». D'autres analogies ont été développées, peut-être plus surprenantes comme, par exemple la description de la formation de cordes cosmiques dans l'Univers primordial à partir d'expériences réalisées dans l'3He superfluide à ultra-basse température. En fait, l'ordre de la matière de l'Univers après le big-bang est décrit par des symétries similaires à celles de l'3He superfluide !
Les fluides cryogéniques
Si l'hélium joue un rôle important pour la physique des basses températures, il en est de même en ce qui concerne la technologie qui lui est associée : la Cryogénie. Des réservoirs contenant de l'4He liquide sont présents dans tous les laboratoires de basses températures. Pourtant, la liquéfaction de l'hélium est relativement récente. Auparavant, des pionniers avaient ouvert la voie : Cailletet et Pictet, en liquéfiant l'oxygène (1877), Cailletet en obtenant de l'azote liquide la même année ; puis James Dewar, en 1898, en réussissant la liquéfaction de l'hydrogène. Finalement, en 1906 Heike Kammerlingh Onnes réussit à obtenir de l'hélium (4He) liquide, dont il observera la superfluidité.
Actuellement, l'azote liquide et l'hélium liquide constituent la source de froid préférée des cryogénistes. L'azote liquide, sous la pression atmosphérique, est en équilibre avec sa vapeur à une température de 77 Kelvins. Le liquide se manipule facilement, même si des précautions doivent être prises pour éviter les « brûlures cryogéniques ». Afin de limiter son évaporation, on le stocke dans des conteneurs isolés thermiquement à partir desquels il est transféré dans les dispositifs que l'on souhaite refroidir : vases d'azote liquide destinés à des expériences, pièges cryogéniques, etc. Parfois, le stockage cryogénique n'est motivé que par le gain de place, le liquide étant plus dense que le gaz.
Le stockage et la manipulation de l'hélium posent des problèmes plus sévères. En effet, l'hélium liquide n'est qu'à 4.2 Kelvins (en équilibre avec sa vapeur, sous la pression atmosphérique). De plus, sa chaleur latente d'évaporation est très faible, ce qui conduit à l'utilisation de vases très bien isolés thermiquement. Les vases de Dewar, du nom de leur inventeur, sont constitués d'une double enceinte sous vide. Les parois du vase sont réalisées avec des matériaux conduisant très mal la chaleur. Grâce aux progrès de la Cryogénie, on réussit actuellement à limiter l'évaporation des conteneurs d'hélium à quelques litres par mois.
Réfrigération au-dessous de 1 K
Kammerlingh Onnes ne s'était pas contenté des 4.2 Kelvins correspondant à la température de l'hélium liquide sous la pression atmosphérique. En utilisant des pompes très puissantes, il avait rapidement obtenu des températures de l'ordre de 0.8 Kelvins. À basse pression, en effet, l'équilibre liquide-gaz se trouve décalé vers les basses températures. Malheureusement, la pression décroît exponentiellement à basse température, et à ce stade même les pompes les plus puissantes ne réussiront à arracher au liquide que très peu d'atomes. Le processus de réfrigération par pompage de l'4He s'essouffle au voisinage de 1 Kelvin !
Les appareils de réfrigération (cryostats) utilisés dans les laboratoires comportent un vase de Dewar extérieur contenant de l'azote liquide (77 K) servant de première garde thermique et, à l'intérieur, un deuxième vase de Dewar contenant de l'hélium liquide (4,2 K). Au sein de l'hélium liquide se trouve un récipient étanche, sous vide, appelé « calorimètre ». C'est dans ce dernier, grâce à l'isolation thermique procurée par le vide et des écrans contre le rayonnement thermique, que l'on va pouvoir atteindre des températures encore plus basses. Pour refroidir un échantillon placé dans le calorimètre, on utilise une petite boîte « à 1 K », dans laquelle on laisse entrer par un tube capillaire un petit filet d'hélium liquide à partir du « bain » (c'est-à-dire du vase de Dewar contenant l'hélium). Un tuyau de grand diamètre permet de pomper efficacement cette boîte pour atteindre environ 1,4 K.
L'3He, particulièrement cher, peut être mis en Suvre grâce à une technique similaire. Le cryostat décrit ci-dessus permet en effet d'atteindre une température suffisamment basse pour condenser, sous une faible pression, de l'3He gazeux. Celui-ci est apporté dans le cryostat (circuit d'injection) par un tube capillaire passant dans l'hélium du « bain », puis rentrant dans le calorimètre où il est mis en contact thermique avec la boîte à 1 K afin de le condenser. L'3He devenu liquide est introduit dans un petit récipient où il est pompé. Ces « cryostats à 3He » opèrent « en mode continu » : en effet, le gaz pompé est réintroduit par le circuit d'injection, complétant le cycle. On atteint avec ces machines une température de l'ordre de 0,3 Kelvins !
La course vers le zéro absolu devait-elle s'arrêter là ? Il ne restait plus de candidats : l'hélium avait eu l'honneur d'être le dernier élément à subir la liquéfaction !
H. London proposa alors une idée séduisante : la dilution de 3He dans 4He liquide. Les premiers prototypes de réfrigérateurs à dilution atteignirent une température de 0,22 K, apportant la preuve que le principe fonctionnait. Plusieurs laboratoires, notamment à La Jolla et à Grenoble, ont développé des méthodes permettant de d'obtenir en mode continu des températures de l'ordre de 2 milliKelvins.
Si l'on ne connaît pas aujourd'hui d'autre méthode permettant de refroidir en continu, il existe un moyen d'atteindre de manière transitoire des températures encore plus basses. Le principe, énoncé par W.F. Giauque en 1926, est fondé sur les propriétés des substances paramagnétiques. En appliquant un champ élevé on peut aimanter les corps en question, ce qui produit un dégagement de chaleur, associé à la réduction de l'entropie : le système est « ordonné » par le champ. On isole ensuite le système en le découplant de son environnement au moyen d'un « interrupteur thermique ». L'entropie du système isolé reste constante si l'on procède à une réduction très lente du champ magnétique : il n'y a pas d'apport de chaleur, mais uniquement un « travail magnétique ». Cette « désaimantation adiabatique » permet de préserver le degré d'ordre des spins ; en réduisant progressivement le champ magnétique, l'agent extérieur qui avait induit cet ordre, on obtient donc une diminution de la température.
On peut atteindre des températures très inférieures à 1 milliKelvin en utilisant les spins nucléaires de certains atomes. Des fils de cuivre constituant l'étage à désaimantation nucléaire sont d'abord refroidis à moins de 10 milliKelvins au moyen d'un réfrigérateur à dilution sous un champ magnétique élevé (8 Teslas). On isole le système puis on le désaimante lentement. Cette méthode (« désaimantation adiabatique nucléaire ») permet d'atteindre des températures extrêmement basses : les spins nucléaires peuvent être refroidis à des nanoKelvins !
Les vibrations atomiques (« phonons ») et les électrons, par contre, resteront plus chauds, car le couplage thermique devient très faible à basse température et les entrées de chaleur parasites sont inévitables. Les difficultés deviennent rapidement très importantes lorsque l'on souhaite refroidir un échantillon à ultra-basse température ; par exemple, l'3He superfluide a été étudié à une centaine de microKelvins à Lancaster et à Grenoble en utilisant les dispositifs les plus performants.
Des méthodes très différentes, issues de l'optique et mettant en Suvre des lasers, ont permis récemment de refroidir à des températures de l'ordre des nanoKelvins des gaz très dilués d'atomes de Césium ou de Rubidium. Ce tour de force a montré de nombreux phénomènes analogues à ceux que nous avons évoqués pour l'hélium, comme la condensation de Bose, la cohérence quantique, la formation de tourbillons quantifiés, etc. Ce nouveau domaine de recherches est très riche et en fort développement[2].
Thermométrie à basse température
La mesure de la température est une entreprise délicate, car il n'existe aucun thermomètre susceptible de fournir la température absolue T dans toute la gamme de températures ! On a donc mis au point une série de dispositifs thermométriques. Ceux-ci sont appelés « primaires » lorsqu'ils fournissent la température à partir de grandeurs mesurées indépendamment. C'est le cas du thermomètre à gaz, malheureusement limité à des températures supérieures à 10 K, de certains thermomètres magnétiques permettant d'effectuer des cycles thermodynamiques entre deux températures, et des thermomètres à bruit Johnson, où la température est déduite du bruit électrique sur une résistance. Les thermomètres secondaires, par contre, doivent être étalonnés par rapport à des thermomètres primaires. Dans certains cas, il est possible d'établir des « tables » de propriétés mesurées permettant de reproduire facilement l'échelle thermométrique officielle. C'est le cas de la tension de vapeur de l'3He et l'4He : la mesure de la pression d'équilibre liquide-vapeur permet de déterminer la température aux alentours de 1 Kelvin à partir des valeurs tabulées. L'Echelle Internationale de Températures reconnue actuellement, ITS90, ne défint la température que jusqu'à 0,65 K. En octobre 2000 le Comité International des Poids et Mesures a adopté une échelle provisoire pour les bases températures, définie par la courbe de fusion de l'3He (PLTS2000). Elle couvre la gamme de températures allant de 0,9 milliKelvins à 1 Kelvin.
Applications des basses températures
Les techniques cryogéniques permettent d'obtenir des gaz très purs. De ce fait, l'activité industrielle dans le domaine des gaz liquéfiés est très importante, notamment en France. Elle concerne le gaz naturel, l'azote, l'oxygène, l'hydrogène, l'hélium, etc. Les fluides cryogéniques sont utilisés dans de nombreux secteurs : électronique, métallurgie, chimie, espace, etc. Par exemple, le combustible des fusées Ariane 5 est constitué d'oxygène et d'hydrogène liquides, et la fabrication de composants semi-conducteurs, comme les microprocesseurs de nos ordinateurs, exige l'utilisation d'azote très pur obtenu par évaporation du liquide.
Des applications médicales de pointe ont vu le jour récemment. Les scanners RMN utilisent le champ magnétique produit par des bobines supraconductrices placées dans un vase de Dewar contenant de l'hélium liquide. La cryopréservation d'organes ou de cellules (sang, sperme, etc...) fait intervenir de l'azote liquide et des réservoirs de stockage cryogénique. On utilise également l'azote liquide dans le domaine de la cryochirurgie.
Les grands instruments scientifiques comptent parmi les utilisateurs du froid. Le futur accélérateur de particules du CERN, le LHC, sera équipé d'aimants supraconducteurs situés dans de l'4He superfluide, sur un périmètre de 27 kilomètres. De nombreux laboratoires ont installé des aimants supraconducteurs destinés à fournir des champs très intenses. On les retrouve dans les installations d'expérimentation sur les plasmas (Tore Supra, par exemple), dont on espère obtenir une source d'énergie pour l'avenir.
A basse température, un très faible apport de chaleur provoque une augmentation de température perceptible, d'où l'idée d'utiliser les techniques cryogéniques pour détecter des particules cosmiques. Plusieurs instruments dits « bolométriques » existent actuellement dans les laboratoires d'Astrophysique.
Les propriétés quantiques de la matière permettent de concevoir de nouveaux étalons de grandeurs fondamentales ou appliquées : c'est le cas du Volt ou de l'Ohm, définis par l'effet Josephson et l'effet Hall Quantique et réalisés par des dispositifs à très basse température.
Les dispositifs électrotechniques supraconducteurs sont susceptibles d'autoriser un gain d'énergie important par rapport aux systèmes classiques. Dans le domaine de la forte puissance, transformateurs, alternateurs et limiteurs de courant sont progressivement installés sur les réseaux électriques. D'autre part, les applications dans le domaine des télécommunications se sont rapidement développées depuis quelques années, en particulier au niveau des filtres très sélectifs pour les téléphones mobiles, réalisés au moyen de supraconducteurs à « haute température critique » maintenus à la température de l'azote liquide.
D autres applications ont pour motivation la très grande sensibilité et le faible bruit électrique de certains dispositifs fonctionnant à basse température, comme les amplificateurs cryogéniques. Les SQUIDs, instruments révolutionnaires, constituent les magnétomètres les plus sensibles existant actuellement ; ils sont capables de mesurer des tensions de l'ordre du picoVolt !
Les circuits électroniques atteignent des tailles nanométriques, et de ce fait ils sont particulièrement sensibles aux perturbations thermiques. Les nano-objets actuellement étudiés dans les laboratoires au voisinage du Zéro Absolu de température sont la source de nombreuses découvertes fondamentales sur lesquelles se bâtit la technologie de demain.
Bibliographie
Livres
- Mendelssohn (K.), La recherche du Zéro Absolu, Hachette, 1966.
- Conte (R. R.), Éléments de Cryogénie, Masson, 1970.
- Pobell (F.), Matter and Methods at Low Temperatures, Springer,1996.
- Tilley (D. R.) and Tilley (J.), Superfluidity and Superconductivity, Institute of Physics Publishing, IOP London, 1996.
- La Science au Présent (recueil), Ed. Encyclopaedia Universalis, Godfrin (H.), « Vers le Zéro Absolu ».
Articles de revues
- Balibar (S.), « L'Hélium, un liquide exemplaire », La Recherche 256, Juillet-Août 1993.
- Pobell (F.), « La quête du Zéro Absolu », La Recherche 200, Juin 1988.
- Lounasmaa (O.), « Towards the Absolute Zero », Physics Today, p. 32, Déc. 1979.
- Balibar (S.), « Aux frontières du Zéro Absolu », La Recherche 157, Juillet-Août 1984.
- Bäuerle (C.), Bunkov (Y.), Fisher (S. N.), Godfrin (H.) et Pickett (G. R.), « L'Univers dans une éprouvette », La Recherche 291, 1996.
[1] Voir à ce sujet les 220e et 223e conférences de l'Université de tous les savoirs données respectivement par E. Brézin et S. Balibar.
[2] Voir à ce sujet la 217e conférence de l'Université de tous les savoirs donnée par Claude Cohen-Tannoudji.
DOCUMENT canal-u.tv LIEN |
|
|
|
|
 |
|
ONDES |
|
|
|
|
|
onde
Modification de l'état physique d'un milieu matériel ou immatériel, qui se propage à la suite d'une action locale avec une vitesse finie, déterminée par les caractéristiques des milieux traversés.
Les techniques de télécommunication – radio, télévision, téléphone – nous ont rendu familière la présence des ondes. Avant de donner lieu à des utilisations de cette importance, les phénomènes ondulatoires ont progressivement occupé une place de plus en plus grande en physique. Ils ont révélé leur présence dans les domaines les plus divers, au point d'apparaître comme intimement liés, d'une certaine façon, à la constitution de la nature en ses aspects fondamentaux. Si l'onde sonore s'explique en termes mécanistes par les mouvements des particules dont l'air est constitué, il n'y a rien de tel, par exemple, pour les ondes hertziennes. Leur analyse mathématique n'en revêt que plus d'importance. Avec la mécanique ondulatoire, on est même tenté de dire qu'il ne s'agit plus que de mathématiques.
1. Les différents types d’ondes
1.1. Les ondes mécaniques progressives
1.1.1. Les vagues
Un objet – une simple goutte – qui tombe sur la surface d'une eau calme y produit des ondulations. Ce train d'ondes est constitué de quelques cercles qui, issus de la source du phénomène, vont en s'agrandissant et qui finissent par s'affaiblir. Si un corps flotte immobile, les ondes, en l'atteignant, ne le déplacent pas à la surface de l'eau dans le sens de leur mouvement. Elles l'agitent verticalement, tout comme le feraient les vagues de la mer. « Onde » vient d'ailleurs de unda, qui désigne l'eau de la mer, avec les mouvements qui s'y peuvent voir. Les rides circulaires à la surface de l’eau se propageant dans deux directions sont qualifiées d’ondes mécaniques progressives à deux dimensions.
1.1.2. Les cordes
Une autre manière de produire un phénomène semblable consiste à déployer une corde, sans nécessairement attacher l'une de ses extrémités, et à secouer l'autre assez vigoureusement. Chaque secousse engendre une déformation que l'on voit se propager le long de la corde. En faisant se succéder les secousses, on obtient un train d'ondes. Ces ondes se propageant dans une seule direction sont qualifiées d’ondes mécaniques progressives à une dimension.
1.1.3. Les ondes sonores ou acoustiques
C'est un phénomène analogue qui a servi à expliquer la nature physique du son et à étudier en finesse ses propriétés. La corde de lyre que l'on pince vibre rapidement. Ses vibrations se transmettent à l'air, s'éloignant dans toutes les directions. Les ondes acoustiques se propageant dans trois directions sont qualifiées d’ondes mécaniques progressives à trois dimensions. Une oreille, placée n'importe où autour, reçoit des ondes (→ audition). Les vibrations sont communiquées par l'air au tympan. La source peut être n'importe quelle membrane susceptible de vibrer : la peau d'un tambour, mais aussi les cordes vocales.
En vibrant, la membrane pousse l'air tout proche ; les particules d'air déplacées poussent à leur tour leurs voisines et ainsi de suite. Si l'on pouvait voir un petit corps flotter dans cet air, on observerait toutefois que l'agitation très rapide qu'il subit sur place ne se fait pas comme celle d'un bouchon sur l'eau. Ce dernier oscille verticalement, tandis que les ondes s'éloignent horizontalement de leur source : de telles ondes sont dites transversales. Dans le cas de l'air, l'objet est agité dans la direction même du mouvement des ondes : celles-ci sont dites longitudinales.
1.2. Les ondes mécaniques stationnaires
Les ondes des trois genres mentionnés auparavant peuvent donner lieu à des phénomènes stationnaires. Si un caillou tombe dans l'eau d'un bassin, les ondes se réfléchissent sur le bord. De même, si l'on secoue sans cesse le bout d'une corde qui est fixée à l'autre extrémité et légèrement tendue, les ondes repartent de cette extrémité. Certains points de la corde peuvent ne pas bouger du tout, alors que tout s'agite autour d'eux, parce que le mouvement qui y est créé par les ondes allant dans un sens est constamment contrarié par celui qu'y induisent les ondes allant dans l'autre sens. Les points pour lesquels l'oscillation est maximale sont appelés les ventres ; ceux pour lesquels elle est nulle, les nœuds.
Semblablement, si deux pointes vibrent ensemble à la surface d'un liquide, les deux trains d'ondes ainsi entretenus laissent immobiles des points de cette surface formant des lignes entières, des hyperboles très précisément. C'est le phénomène des interférences, difficile à observer sans un éclairage adapté.
1.3. La lumière et les ondes électromagnétiques
1.3.1. La nature ondulatoire de la lumière
Thomas Young (1773-1829) montra que des interférences peuvent s'observer aussi en optique : une lumière monochromatique passant par deux fentes parallèles donne sur un écran une alternance de franges brillantes et de franges sombres. L'apparition de ces dernières ne s'expliquerait pas si la lumière était constituée de corpuscules en mouvement, comme Isaac Newton (1642-1727) en avait fait admettre l'idée.
Augustin Fresnel (1788-1827) montra que, au contraire, si la lumière est de nature ondulatoire, les interférences s'expliquent jusque dans leurs aspects quantitatifs. Ainsi s'installa l'idée que l'espace est rempli par un milieu imperceptible, l'éther, dont les vibrations constituent la lumière, tout comme les vibrations de l'air et d'autres milieux matériels constituent le son. La découverte du phénomène de polarisation par Étienne Malus (1775-1812) contraria rapidement l'idée qu'il s'agissait, comme dans le cas du son, d'ondes longitudinales.
Un autre phénomène bien connu, la diffraction, s'explique mieux dans une théorie ondulatoire que dans une théorie corpusculaire de la lumière. On l'obtient en faisant passer de la lumière par un trou que l'on rétrécit. Le pinceau de lumière commence par s'affiner mais, à partir d'une certaine petitesse du trou, au lieu de continuer de se rétrécir, le pinceau se disperse.
1.3.2. Les ondes électromagnétiques
Un demi-siècle plus tard, James Maxwell (1831-1879) ayant réduit l'électricité et le magnétisme à quelques formules, il apparut par le calcul que la propagation des actions électromagnétiques devait prendre la forme d'ondes. Heinrich Hertz (1857-1894) les produisit et les étudia expérimentalement. Transversales elles aussi, elles se déplacent à une vitesse qui se trouve être celle de la lumière. Ainsi s'achemina-t-on vers la conclusion que la lumière n'est elle-même qu'une onde électromagnétique, occupant une modeste place dans la gamme des cas possibles. Si l'on préfère, ces ondes constituent une lumière généralement invisible, c'est-à-dire insensible à l'œil, à l'exception d'une petite partie. L'éther que l'on cherchait à mieux connaître n'était plus le siège des seules ondes lumineuses, mais celui des ondes électromagnétiques en général. Les diverses propriétés qu'il se devait de posséder étaient si difficiles à accorder entre elles qu'il constituait une grande énigme. On a fini par renoncer à cette notion.
On accepte l'idée qu'il puisse y avoir de telles ondes sans qu'elles soient les ondulations d'un milieu. On sait seulement que ce sont des charges électriques en mouvement qui les produisent.
Pour en savoir plus, voir l'article ondes électromagnétiques [santé].
1.3.3. La dualité onde-corpuscule
Albert Einstein (1879-1955), l'année même où il proposa la théorie de la relativité restreinte (1905), donna une explication de l'effet photoélectrique. Elle consistait à revenir à la conception corpusculaire de la lumière, sans renoncer pour autant à son aspect ondulatoire. Plus généralement, l'onde électromagnétique s'est vu associer un flux de photons, association purement mathématique et qui rendait encore plus intenable l'hypothèse d'un éther. Louis de Broglie (1892-1987), en l'inversant, étendit l'idée à toutes les particules : à chacune on associe une onde. L'expérience a confirmé la justesse de cette hypothèse : il fut établi qu'un faisceau d'électrons est susceptible de donner lieu au phénomène de diffraction.
La mécanique quantique prend désormais pour objets des quantons, qui se comportent comme des corpuscules dans certains contextes expérimentaux et comme des ondes dans d'autres. La fonction d'onde de la particule, obtenue par la résolution de l'équation de Schrödinger, sert à calculer les caractéristiques de son mouvement, mais en termes de probabilité seulement. On ne peut pas annoncer qu'à tel instant la particule sera en tel point, comme on le fait en mécanique classique. On peut seulement calculer avec quelle probabilité elle se trouvera dans telle portion d'espace.
2. Caractéristiques physico-mathématiques des ondes
2.1. Généralités
Un mécanisme de production et de propagation des ondes peut être détaillé dans le cas de la surface d'un liquide ou dans celui du son, parce que l'on peut analyser le comportement d'un milieu – le liquide, l'air – en termes mécanistes. Il n'en va plus de même pour les ondes électromagnétiques, et encore moins pour celles de la mécanique ondulatoire, puisqu'il n'y a plus de milieu connu dans ces cas-ci. Une étude générale des ondes doit donc se rabattre sur la description mathématique de la propagation.
→ mécanique.
Il convient de remarquer que, lorsqu'une description mécaniste est possible, elle n'explique pas la toute première apparence. Une onde, qu'il s'agisse d'une vague ou de la déformation d'une corde, se présente spontanément comme quelque chose qui se déplace. C'est ce déplacement qui est désigné par le terme « propagation ». Il ne se présente pas comme le déplacement d'un objet (navire avançant sur l'eau ou anneau coulissant sur une corde). Le phénomène offre le spectacle de quelque chose qui se meut et ne se meut pas à la fois.
Le mécanisme de la production de la perturbation à la source, et de sa transmission par le milieu, explique qu'un corps flottant ainsi que l'eau qui l'entoure montent et descendent alternativement. Il n'explique pas complètement l'illusion que constitue le déplacement de la vague. On peut dire néanmoins que c'est le déplacement transversal de l'eau qui se décale dans la direction de propagation.
2.2. Grandeurs caractéristiques
Lorsqu'aucun milieu n'est le siège de la propagation, on peut néanmoins concevoir qu'il y ait, attachée à chaque point de l'espace, une certaine grandeur qui soit l'analogue de l'altitude de la surface de l'eau. En prenant pour niveau de référence celui de la surface liquide au repos par exemple, le phénomène de l'ondulation peut être décrit mathématiquement en donnant, pour chacun des points de la surface, son altitude en fonction du temps. Pour une onde d'une autre nature, le rôle joué précédemment par l'altitude peut l'être par la valeur d'un champ, électrique ou magnétique.
De façon plus générale, en se plaçant en un point P de l'espace, a (t) désignera la valeur, à l'instant t, de la grandeur qui varie.
2.2.1. Période et fréquence
On se place dans l'hypothèse d'une onde entretenue et périodique : en P, la grandeur oscille sans cesse et elle reprend toujours la même valeur au bout d'un même temps T, appelé la période de l'onde. Autrement dit, quel que soit l'instant t,
a (t + T) = a (t)
On appelle alors fréquence de l'onde le nombre d'oscillations complètes que P effectue pendant une unité de temps. La fréquence f (aussi notée N, ou encore ν) est reliée à la période par
f = 1 / T
Si l'on adopte la seconde comme unité de temps, la fréquence s'exprime en hertz, de symbole Hz (ou cycles par seconde).
2.2.2. Longueur d'onde
La longueur d'onde λ est la distance parcourue par l'onde pendant le temps T. Si V est la vitesse de propagation, supposée constante, on a
λ = VT
soit encore
λ = V / f
C'est ainsi que, dans un cas comme celui de la lumière, où la vitesse de propagation est connue (près de 300 000 km.s−1 dans le vide), la détermination expérimentale d'une longueur d'onde permet de trouver la fréquence correspondante.
2.3. Les ondes sinusoïdales
Une situation particulière de grande importance est celle des ondes sinusoïdales, pour lesquelles
a (t) = A (sin ω t + ϕ)
L'importance des ondes sinusoïdales tient à ce qu'elles fournissent un modèle mathématique satisfaisant pour nombre de phénomènes. C'est le cas pour les ondes électromagnétiques en particulier, où se rencontre une complication par rapport aux situations envisagées jusqu'à présent : il n'y a pas, en un point, une grandeur a qui varie sinusoïdalement, mais deux, le champ électrique et le champ magnétique, vecteurs orthogonaux entre eux ainsi qu'à la direction de propagation (le rayon lumineux).
Une autre raison de l'intérêt porté aux ondes sinusoïdales est que l'on sait, depuis les travaux mathématiques de Joseph Fourier (1768-1830), que pour toute fonction périodique, on peut envisager une décomposition sous la forme d'une somme de fonctions sinusoïdales. La connaissance de ces dernières fournit donc la clef de l'analyse d'un phénomène périodique quelconque.
Lorsque t varie, a (t) varie perpétuellement entre − A et A.
• Amplitude. La constante positive A est l'amplitude de l'onde au point P.
• Phase. L'expression ω t + ϕ est appelée la phase ; ϕ est la phase à l'origine, c'est-à-dire la valeur de la phase à l'instant 0.
• Pulsation. Le coefficient ω est la pulsation ; il est lié à la période par T = 2 π / ω et à la fréquence par ω = 2πf ; il s'exprime en radians par seconde (rad / s ou rad.s−1).
La valeur de ϕ est propre au point P où l'on se place. Pour un point P′ autre, la phase à l'origine a une valeur ϕ′, alors que ω et A sont les mêmes partout. Mais si l'on prend pour P′ un point situé à une distance de P égale à la longueur d'onde λ, ϕ′ = ϕ + 2π, de sorte que la grandeur a prend à tout instant la même valeur en P et en P′. On dit que ces points vibrent en phase.
2.4. Aspects énergétiques
Le déplacement d'une onde est en un sens une illusion. Le point de vue énergétique permet au physicien de donner une certaine consistance à ce déplacement. À la source S, on fournit une énergie essentiellement cinétique aux parties de la corde qu'on y agite, celle du mouvement transversal. Cette énergie se transmet de proche en proche. Lorsque l'agitation atteint les parties les plus proches de l'extrémité S′, on peut l'utiliser pour mettre un objet en mouvement, ou pour obtenir d'autres sortes d'effets. Au total, il y a eu transfert progressif d'énergie de la source à l'extrémité. La quantité d'énergie qui se propage est, pourrait-on dire, un pseudo-objet qui s'éloigne de la source. Dans une perspective de communication, on préfère dire qu'un signal est émis en S et propagé jusqu'en S′.
Pour ce qui est de la mécanique quantique, la prise en compte de l'énergie est à la base même de l'association entre l'onde et la particule. Si ν et E sont respectivement la fréquence de la première et l'énergie dont la seconde est porteuse,
E = hν
(relation de Planck-Einstein, où h est la constante de Planck).
De manière analogue, si λ et p sont respectivement la longueur d'onde et la quantité de mouvement,
p = h / λ (relation de de Broglie)
3. Le spectre des ondes électromagnétiques
La première application pratique des ondes électromagnétiques a été la télégraphie sans fil, bientôt rebaptisée radiophonie (→ radiocommunication). La télévision devait suivre. Le radar, quant à lui, n'est rien d'autre que l'utilisation de la propriété qu'ont les ondes électromagnétiques, à l'instar de la lumière, de se réfléchir sur un obstacle. Le fonctionnement s'apparente étroitement à celui de l'écho sonore.
Chacune de ces applications fait appel à un certain domaine des ondes caractérisé par ses longueurs d'onde extrêmes (ou, ce qui revient au même, par ses fréquences-limites). Les cas évoqués ci-dessus sont des exemples d'ondes hertziennes. On désigne ainsi celles dont la longueur d'onde s'étend entre le centimètre et quelques kilomètres. La lumière visible correspond à la bande qui va de 0,4 à 0,8 micromètre. Entre celle-ci et les précédentes se situe le domaine de l'infrarouge. Au-delà, on passe dans l'ultraviolet, puis, entre 3 nanomètres et 0,01 nanomètre, aux rayons X. Enfin viennent les rayons gamma (γ) et le rayonnement cosmique. Les derniers cités, ayant la plus petite longueur d'onde, ont la fréquence la plus élevée. Conformément à la relation E = hν, ce sont leurs photons qui sont porteurs de l'énergie la plus grande. De fait, ultraviolet, rayons X et rayons γ sont connus pour le danger qu'ils représentent pour les organismes vivants, plus grand même pour les derniers que pour les premiers.
→ ondes électromagnétiques [santé].
Mais c'est aussi par l'analyse de la diffraction qu'un cristal impose aux rayons X que l'on a pu y étudier de manière précise, à partir de 1912, l'arrangement des atomes (→ cristallographie).
Pour en savoir plus, voir l'article spectre.
DOCUMENT larousse.fr LIEN
|
|
|
|
|
 |
|
LE MONDE QUANTIQUE AU TRAVAIL : L'OPTOÉLECTRONIQUE |
|
|
|
|
|
Transcription* de la 590e conférence de l'Université de tous les savoirs prononcée le 12 juillet 2005
Le monde quantique au quotidien : l'optoélectronique
Par Emmanuel Rosencher
Cet exposé propose de vous montrer comment la mécanique quantique, domaine abstrait, sophistiqué, voire ésotérique pour certains, est à la base de révolutions technologiques qui ont transformé notre quotidien. Nous montrerons tout d'abord comment la physique quantique est née de l'étude d'un composant optoélectronique (définissons l'optoélectronique comme étant l'étude de l'interaction qui a lieu entre la lumière et les électrons dans les solides). Nous montrerons ensuite comment la mécanique quantique a rendu la monnaie de sa pièce à l'optoélectronique en lui fournissant des briques de bases conceptuelles extrêmement puissantes, à partir desquelles un certains nombres de composants comme les détecteurs quantiques ou les émetteurs de lumière ont été réalisés. Nous présenterons enfin les défis actuels que l'optoélectronique tente de relever.
Là où tout commence : l'effet photoélectrique
Tout commence en 1887. Rudolph Hertz, célèbre pour la découverte des ondes Hertziennes, va découvrir l'effet photoélectrique, aidé de son assistant Philipp von Lenard. Cet effet va révolutionner notre compréhension de la lumière comme de la matière, bref, notre vision du monde. L'expérience qu'ils ont réalisée était pourtant on ne peut plus simple : deux plaques métalliques sont placées dans le vide. On applique à ces plaques une différence de potentiel. Le courant qui circule dans le système est mesuré. Comme les plaques métalliques sont placées dans le vide, les électrons n'ont pas de support pour passer d'une électrode à l'autre, et donc aucun courant ne peut circuler dans le système. Hertz décide alors d'illuminer une des plaques avec de la lumière rouge, il s'aperçoit que rien ne change. Par le hasard de l'expérience, il éclaire alors la plaque avec de la lumière bleue, et s'aperçoit cette fois qu'un courant commence à circuler. Il est important de noter que, même avec une grande intensité de lumière rouge, aucun courant ne circule, alors qu'une faible lumière bleue fait circuler le courant. Les deux savants concluent leur expérience par la phrase suivante, qui deviendra une des pierres fondatrices de la physique quantique : « il semble y avoir un rapport entre l'énergie des électrons émis et la fréquence de la lumière excitatrice. »
A la même époque, un autre grand savant, Max Planck, travaille sur un sujet totalement différent, à savoir le « spectre du corps noir » ( voir Figure 1): en d'autres termes, il étudie la lumière émise par des corps chauffés. Le fer, par exemple, une fois chauffé devient rouge. A plus haute température, il vire au jaune, puis au blanc. Max Planck étudie donc le fait que tous les corps chauffés vont avoir un comportement commun : à une température donnée, ils rayonneront principalement une certaine longueur d'onde. Par exemple, notre corps à 37°C émet des ondes à 10 mm (lumière infrarouge non visible). En revanche, à 5000°C (température correspondant à la surface du soleil), le maximum se déplace, le corps émet autour de 500 nm (jaune). Cette correspondance entre la température du corps noir et la nature de la lumière émise par ce corps va littéralement rendre fou toute une génération de physiciens qui n'arrivent pas à expliquer ce phénomène. Max Planck, au début du XXème siècle, déclarera à la société allemande de physique qu'il peut rendre compte de ce comportement. Pour cela, il doit supposer que la lumière arrive en paquets d'énergie et que chaque paquet d'énergie est proportionnel à la fréquence de la lumière, c'est-à-dire que l'énergie de chaque grain de lumière est le produit de la fréquence de cette onde par une constante, ridiculement petite (environ 6.10-34 J.s). S'il est persuadé d'avoir fait une grande découverte, Max Planck n'a pour autant pas la moindre idée de ce que sont ces « quanta » d'énergie qu'il a introduits dans son calcul.
figure1
Spectre du corps noir (le fer chauffé de la photo émet des longueurs d'onde réparties sur la courbe bleue, la courbe rouge est émise par un humain qui n'a pas de fièvre)
Pendant ce temps, à la société Anglaise de physique, Lord Kelvin fait son discours inaugural, où il déclare que toute la physique est constituée, la récente théorie ondulatoire de Maxwell rendant très bien compte du comportement de la lumière. Il ne reste plus que quelques phénomènes incompris, d'un intérêt secondaire. Parmi ces phénomènes incompris figurent évidemment le spectre du corps noir, et l'effet se produisant dans la cellule photoélectrique.
Albert Einstein va réaliser le tour de force de montrer que ces deux phénomènes ont une même origine, origine qu'il baptisera la dualité onde-corpuscule. L'hypothèse révolutionnaire d'Einstein est de dire que la lumière, considérée jusqu'alors comme une onde, est également une particule. A la fois onde et particule, la lumière véhicule ainsi une quantité d'énergie bien précise.
Le raisonnement d'Einstein se comprend bien sur un diagramme d'énergie, où est représentée l'énergie des électrons en fonction de leur position ( voir Figure 2). Pour être arraché du métal, un électron doit recevoir l'énergie qui lui permet d'échapper à l'attraction du métal. Cette énergie est appelée potentiel d'ionisation. Les électrons sont donc piégés dans le métal, et il leur faut franchir ce potentiel d'ionisation pour le quitter. L'hypothèse d'Einstein consiste à dire que la lumière est constituée de particules et que chaque particule a une énergie valant h.f, où h est la constante établie par Max Planck, et f la fréquence de la lumière. Si cette énergie h.f est inférieure au potentiel d'ionisation (comme c'est le cas pour la lumière rouge), aussi puissant que soit le faisceau de lumière, nous n'arracherons pas le moindre électron au métal. En revanche, si la lumière est bleue, la longueur d'onde est plus courte, ce qui correspond à une fréquence f plus grande, donc une énergie plus grande, les électrons vont alors acquérir l'énergie suffisante pour quitter le métal et aller dans le vide. Cette théorie permet donc d'expliquer le phénomène jusqu'alors incompris observé par Hertz et Leenard.
figure2
Diagramme d'énergie d'Einstein
Einstein ne se contente pas de cette explication, il propose une expérience permettant de vérifier son hypothèse. Si on mesure l'excès d'énergie des photons (représenté DE sur la Figure 2), c'est-à-dire si on mesure l'énergie des électrons une fois qu'ils ont été arrachés par la lumière, on doit pouvoir en déduire la valeur de la constante de Planck h.
La théorie d'Einstein est accueillie à l'époque avec fort peu d'enthousiasme. La physique semblait jusqu'alors bien comprise, la lumière était une onde, et on rendait compte de l'écrasante majorité des phénomènes observés. Et Einstein vient tout bouleverser ! De nombreux scientifiques vont donc tenter de montrer que sa théorie est fausse. Notamment Millikan, qui va passer 12 années de sa vie à tester la prédiction d'Einstein. Millikan reconnaîtra finalement son erreur : son expérience montrera bien que l'énergie en excès dans les électrons est proportionnelle à la fréquence de la lumière excitatrice, et le coefficient de proportionnalité est bien la constante de Planck h.
Einstein venait d'unifier deux phénomènes qu'a priori rien n'apparentait : la lumière émise par un corps chauffé, et l'excès d'énergie d'un électron émis dans le vide. Ce lien existe, et c'est la physique quantique.
On peut donc relier la longueur d'onde de la lumière à son énergie ( voir Figure 3). Ainsi, le soleil qui rayonne principalement dans le jaune, c'est-à-dire à des longueurs d'onde d'environ 500 nm émet des photons de 2 eV (électron-volt). Le corps humain à 37°C rayonne une onde à 10 mm, ce qui correspond à des photons d'énergie 0,1eV. Rappelons qu'un électron-volt correspond à l'énergie d'un électron dans un potentiel électrique de 1V.
figure3
Correspondance entre longueur d'onde de la lumière et énergie du photon
Les briques de base
Comme nous l'avons mentionné en introduction, la physique entre alors dans un cercle vertueux : la technologie (par la cellule photoélectrique) fournit à la physique un nouveau concept fondamental, la physique quantique va en retour développer des outils conceptuels extrêmement puissants qui vont permettre le développement des composants optoélectroniques que nous allons étudier.
Les Semi-conducteurs
Avant d'entrer dans ce cercle vertueux, un concept manque encore à la physique quantique. Il va être proposé par le français Louis de Broglie en 1925. Ce dernier fait le raisonnement suivant : Einstein vient de montrer que la lumière, qui est une onde, se comporte comme une particule. Que donnerait le raisonnement inverse? Autrement dit, pourquoi la matière (les atomes, les électrons, tout objet ayant une masse) ne se comporterait-elle pas également comme une onde ? De Broglie va montrer qu'on peut associer à l'énergie d'une particule matérielle une longueur d'onde. Il montre notamment que, plus la particule a une énergie élevée, plus sa longueur d'onde est faible. La correspondance entre énergie et longueur d'onde pour la matière différera cependant de celle pour les photons, car les photons n'ont pas de masse.
Partant de cette hypothèse, Wigner, Seitz et Bloch se demandent ce que devient cette longueur d'onde lorsque l'électron est dans la matière, où il est soumis à un potentiel d'environ 5V. Leur calcul leur montre que sa longueur d'onde est alors d'environ 5 angströms (1 angström valant 10-10 mètres)... ce qui correspond à peu près à la distance entre atomes dans la matière.
figure4
Comportement d'une onde électronique dans la matière et naissance de la structure de bandes
La physique quantique va alors donner une compréhension nouvelle et profonde du comportement des électrons dans la matière. Rappelons que la matière peut souvent être représentée par un cristal, c'est-à-dire un arrangement périodique d'atomes, distant de quelques angströms. Imaginons qu'une onde électronique (c'est-à-dire un électron) essaie de traverser le cristal. Si la longueur d'onde vaut 20 angströms, elle est très grande par rapport au maillage du cristal, et elle ne va donc pas interagir avec le cristal. Cette longueur d'onde va donc pouvoir circuler, on dira qu'elle est permise, et par conséquent l'énergie qui lui correspond est elle aussi permise (onde rouge sur la Figure 4). Il y aura un très grand nombre de longueur d'ondes permises, auxquelles correspondront des bandes d'énergies permises. En revanche, si la longueur d'onde de l'électron est de l'ordre de 5 angströms (onde bleue sur la Figure 4), c'est-à-dire de la distance être atomes, l'électron va alors résonner avec la structure du cristal, et l'onde ne va pas pouvoir pénétrer dans la matière. L'onde électronique est alors interdite dans la matière, et l'énergie qui lui correspond est également interdite dans la matière. Ainsi on voit apparaître, pour décrire les électrons dans la matière, une description en termes de bandes permises et de bandes interdites. Nous appellerons la bande permise de plus basse énergie (sur la figure 5) la bande de valence, et la bande permise au-dessus d'elle la bande de conduction.
A partir de cette structure de bandes, Pauli va montrer que les atomes peuplent d'abord les états de plus basse énergie. Ils vont ainsi remplir complètement la bande de valence, et laisser la bande de conduction vide. Il montre alors que dans une telle configuration les électrons ne peuvent pas conduire l'électricité.
figure5
Les électrons de la bande de valence, comme les pièces d'un jeu de taquin
Pour illustrer ses propos, comparons la matière à un jeu de taquin ( Figure 5). Rappelons que le taquin est un puzzle fait de pièces carrées et où ne manque qu'une pièce. C'est l'absence d'une pièce qui permet de déplacer les pièces présentes. Pour Pauli, une bande de valence pleine d'électrons, est comme un taquin qui n'aurait pas de trous : aucun élément ne peut bouger, car toutes les cases sont occupées. C'est pourquoi beaucoup de matériaux, notamment les semi-conducteurs (qui, comme leur nom l'indique sont de mauvais conducteurs), ne peuvent pas conduire le courant, leur bande de valence étant trop pleine. Pour conduire l'électricité, il va être nécessaire de prendre des électrons de la bande de valence, et de les envoyer dans la bande de conduction. Alors les rares électrons dans la bande de conduction auront tout l'espace nécessaire pour bouger, ils conduiront aisément le courant. De plus, ces électrons auront laissé de la place dans la bande de valence, ce qui revient, dans notre image, à enlever une pièce au taquin. Les électrons pourront alors bouger, mal, mais ils pourront bouger. Ce déplacement des électrons dans la bande de valence peut être réinterprété : on peut considérer qu'un électron se déplace pour occuper une place vacante, puis qu'un autre électron va occuper la nouvelle place vacante, et ainsi de suite... ou on peut considérer que nous sommes en présence d'un trou (une absence d'électron) qui se déplace dans le sens opposé au mouvement des électrons ! Cette interprétation nous indique alors que, dans la bande de valence, ce ne sont pas les électrons qui vont bouger, ce sont les « absences d'électrons », c'est-à-dire des trous, qui sont, de fait, de charge positive.
Wigner, Pauli et Seitz venaient de résoudre une énigme qui datait du temps de Faraday (1791-1867), où l'on avait observé des charges positives se déplaçant dans la matière sans avoir idée de ce que c'était. Il s'agit en fait des trous se déplaçant dans la bande de valence. Pour la suite, nous nous intéresserons donc aux électrons se trouvant dans la bande de conduction, et aux trous de la bande de valence.
Comment envoyer ces électrons de la bande de valence vers la bande de conduction ? En utilisant le photon ! Le photon va percuter un électron de la bande de valence et créer une paire électron-trou, c'est-à-dire qu'il va laisser un trou dans la bande de valence et placer un électron dans la bande de conduction. Il s'agit d'un phénomène d'absorption car au cours de ce processus, le photon disparaît. Il a été transformé en paire électron-trou.
Evidemment le mécanisme inverse est possible : si on arrive à créer par un autre moyen une paire électron-trou, l'électron va quitter la bande de conduction pour se recombiner avec le trou dans la bande de valence, et émettre un photon. La longueur d'onde du photon émis correspondra à l'énergie de la bande interdite ( energy gap en anglais). Il y a donc une correspondance fondamentale entre la couleur du photon émis et l'énergie de la bande interdite.
figure6
Gap d'énergie et distance inter-atomiques des principaux semi-conducteurs
La Figure 6 montre l'énergie de la bande interdite pour différents matériaux. On constate que certains matériaux se retrouvent sur la même colonne, c'est-à-dire qu'ils ont la même distance inter-atomique. C'est le cas par exemple de l'Arséniure de Gallium (GaAs) et de l'Aluminure d'Arsenic (AlAs). Etant des « jumeaux cristallographiques », il sera aisé de les mélanger, les faire croître l'un sur l'autre. En revanche, ils ont des bandes d'énergie interdite très différente. A partir de ce graphique, on peut donc conclure quel semi-conducteur conviendra à la lumière que l'on veut produire. Ainsi, la lumière rouge sera émise par le Phosphure de Gallium (GaP). Pour aller dans l'infrarouge lointain, un mélange entre CdTe et HgTe est cette fois préconisé.
Le dopage et la jonction P-N
Nous venons de présenter la première brique de l'optoélectronique, à savoir l'énergie de la bande interdite. La deuxième brique qui va nous permettre de réaliser des composants optoélectroniques va être le dopage. Comme nous l'avons dit précédemment, un semi-conducteur, si on n'y ajoute pas des électrons, conduit aussi bien qu'un bout de bois (c'est-à-dire plutôt mal !). Pour peupler la bande de valence, nous allons utiliser le dopage.
Nous nous intéresserons aux éléments des colonnes III, IV et V de la classification périodique des éléments de Mendeleïev (une partie en est représentée Figure 7). Le numéro de la colonne correspond au nombre d'électrons se trouvant sur la dernière couche électronique. Ainsi les éléments de la colonne IV, dits tétravalents, comme le Carbone et le Silicium, possèdent IV électrons sur leur dernière couche. Dans la colonne III (éléments trivalents), nous trouverons le Bore, et dans la colonne V (éléments pentavalents) se trouve le Phosphore.
figure7
Dopage de type P et dopage de type N
Regardons ce qui se passe si on introduit un élément pentavalent dans un cristal de Silicium. On peut dire que le Phosphore, tel l'adolescent dans une cour d'école, veut à tout prix ressembler aux copains. Ainsi, le Phosphore va imiter le Silicium et construire des liaisons électroniques avec 4 voisins. Il va donc laisser un électron tout seul. Cet électron va aller peupler la bande de conduction. C'est ce qu'on appelle le dopage de type N. Le Phosphore joue le rôle de Donneur d'électrons.
Le raisonnement est le même pour des éléments trivalents comme le Bore. Ce dernier va mimer le comportement du Silicium en créant 4 liaisons électroniques. Pour cela, il va emprunter un électron à la structure de Silicium, consommant ainsi un électron dans la bande de valence. Il crée donc un trou dans la bande de valence. Le dopage est dit de type P. Le Bore joue le rôle d'Accepteur d'électrons.
Le dopage n'est pas un processus aisé à réaliser. A l'heure actuelle, nous n'avons toujours pas trouvé le moyen de doper efficacement certains semi-conducteurs (c'est le cas du diamant par exemple). Pour le Silicium (Si) et l'Arséniure de Gallium (GaAs), le dopage est en revanche bien maîtrisé.
On va alors pouvoir réaliser des jonctions P-N ( Figure 8). Il s'agit en fait de juxtaposer un matériau dopé P avec un matériau dopé N. Dans la zone dopée N, le Phosphore a placé de nombreux électrons dans la bande de conduction. La zone dopée P quant à elle possède de nombreux trous dans la bande de valence. Nous sommes ainsi en présence délectrons et de trous qui se « regardent en chiens de faïence ». Ils vont donc se recombiner. Ainsi, à l'interface, les paires électrons trous vont disparaître, et laisser seules des charges négatives dans la zone dopée P, et des charges positives dans la zone dopée N. Ces charges fixes (qui correspondant en fait aux atomes dopants ionisés) vont créer un champ électrique. Cette jonction P-N sera au cSur de très nombreux composants optoélectroniques.
figure8
Jonction P-N: les électrons de la zone N se recombinent avec les trous de la zone P, laissant des charges nues dans une zone baptisée zone de charge d'espace. Les charges fixes induisent un champ électrique.
Le Puits Quantique
Dernière brique de l'optoélectronique que nous présenterons : le puits quantique. Ce dernier peut être considéré comme le fruit du progrès technologique. Dans les années 70-80, les ingénieurs étudient l'Ultra-Vide, c'est-à-dire les gaz à très basse pression (10-13 atmosphère). Comme il s'agit d'un milieu extrêmement pur, bien vite on se rend compte, que cela reproduit les conditions primordiales dans lesquelles les matériaux ont été créés. Dans un tel milieu, on va alors pouvoir « jouer au bon dieu » et empiler des couches d'atomes, créer des structures artificielles qui n'existent pas dans la nature.
Typiquement, il va être possible de réaliser des sandwichs de matériaux, où par exemple de l'Arséniure de Gallium (GaAs) serait pris entre deux tranches d'un matériau qui lui ressemble, AlGaAs (nous avons vu précédemment que AlAs et GaAs sont miscibles). Sur la photo ( Figure 9), issue d'un microscope électronique nous permettant d'observer les atomes, on voit que ces matériaux n'ont aucun problème à croître l'un sur l'autre. La couche de GaAs ne mesure que 20 angströms.
figure9
Puits quantique. En haut, sa composition. Au milieu une photo au microscope électronique d'une telle structure. En bas, diagramme d'énergie du puits quantique, la forme des oscillations de l'électron a également été représentée
Examinons le comportement de l'électron dans un tel milieu. Le GaAs a plus tendance à attirer les électrons que AlGaAs. L'électron se trouve piégé dans un puits de potentiel. C'est alors qu'intervient la mécanique quantique, réinterprétant le puits de potentiel en « puits quantique ». L'électron est une onde, une onde prisonnière entre deux murs (les barrières de potentiel formées par l' AlGaAs). L'électron ne va avoir que certains modes d'oscillation autorisés, comme l'air dans un tuyau d'orgue qui ne va émettre que des sons de hauteur bien définie.
Techniquement, il nous est possible de créer à peu près n'importe quel type de potentiel, puisqu'on est capable de contrôler l'empilement des atomes. Par exemple, plus on élargit le puits quantique, plus il y a de modes d'oscillation possibles pour l'électron, et plus il y a de niveaux d'énergies accessibles à l'électron. On peut ainsi synthétiser la répartition de niveau d'énergies que l'on souhaite.
Nous avons à présent un bon nombre d'outils de base que nous a fournis la mécanique quantique : la structure de bandes, le dopage et la jonction P-N qui en découle, et pour finir, le puits quantique. Nous allons à présent voir comment ces concepts entrent en jeu dans les composants optoélectroniques.
La détection quantique
Le principe de la photo-détection quantique (utilisé dans tous les appareils photo numérique) est extrêmement simple : il s'agit, à l'aide d'un photon, de faire transiter l'électron entre un niveau de base, où il ne conduit pas l'électricité, et un niveau excité où il va la conduire. Le semi-conducteur pur peut par exemple faire office de photo-détecteur quantique ( Figure 10): à l'état de base, il ne conduit pas le courant, mais un photon peut créer, par effet photoélectrique, une paire électron-trou et placer un électron dans la bande de conduction, permettant le transport du courant.
figure10
Deux mécanismes de détection quantique. A gauche, on utilise la structure de bande d'un semi-conducteur. A droite, un puits quantique.
Un puits quantique peut également réaliser cette fonction ( Figure 10): les électrons se trouvent piégés dans le puits quantiques, car la barrière d'AlGaAs les empêche de sortir, mais par absorption d'un photon, les électrons vont avoir l'énergie leur permettant de sortir du piège et donc de conduire le courant.
L'effet Photovoltaïque
Le détecteur quantique le plus répandu est la cellule photovoltaïque. Elle est constituée d'une jonction P-N. Imaginons que des photons éclairent la structure. Dans la zone ionisée (appelée zone de charge d'espace), ils vont alors créer des paires électron-trou. Mais cette région possédant un champ électrique du fait des charges fixes, les électrons vont être attirés par le Phosphore, les trous par le Bore, ce qui va générer un courant électrique.
figure11
Cellule photovoltaïque. En haut, la jonction P-N reçoit des photons qui créent des paires électron-trou. En bas, diagramme d'énergie montrant les électrons de la bande de conduction tombant dans la zone N, et les trous de la bande de valence remontant dans la zone P.
On peut représenter ce mécanisme sur un diagramme d'énergie ( Figure 11). Le champ électrique présent au niveau de la jonction P-N provoque une courbure de la bande de valence et de la bande de conduction. Le photon va créer une paire électron-trou. L'électron va glisser le long de la pente de la bande de conduction, et se retrouver dans la zone dopée N, tandis que le trou, tel une bulle dans un verre de champagne, va remonter la bande de valence et se retrouver dans la zone dopée P.
Les caméras CCD
Techniquement, il existe des technologies pour synthétiser ces minuscules détecteurs par millions en une seule fois. Ces détecteurs ont changé notre vie quotidienne. En effet, au cSur de tous les appareils photo et caméscopes numériques se trouve une matrice CCD ( charge coupled devices). Il ne s'agit pas exactement de jonctions P-N, mais d'une myriade de transistors MOS. Néanmoins les concepts physiques mis en jeu sont tout à fait analogues. Il s'agit d'une couche semi-conductrice de Silicium séparée d'une couche métallique par une couche isolante d'oxyde. Lorsqu'un photon arrive dans la zone courbée du diagramme de bande (c'est là encore, la zone de charge d'espace), une paire électron-trou est créée, les électrons vont s'accumuler à l'interface entre le semi-conducteur et l'isolant, il vont alors pouvoir être « évacués » par les transistors qui vont récupérer les « tas d'électrons » et se les donner, comme des pompiers se passant des bacs d'eau (d'où leur nom). Les matrices CCD actuelles ont des caractéristiques vertigineuses, contenant aisément 10 millions de pixels mesurant chacun 6 mm x 6 mm.
figure12
Matrice CCD. A gauche, diagramme d'énergie d'un transistor MOS (Métal Oxide Silicium). A droite, photo d'une matrice CCD
Les détecteurs infrarouges
Un deuxième type de détecteurs très importants sont les détecteurs infrarouge, notamment ceux détectant les longueurs d'onde comprises entre 3 et 5 mm, et entre 8 et 12 mm. Comme nous l'avons mentionné au début, le corps humain à 37°C rayonne énormément de lumière, sur toute une gamme de longueurs d'onde (représentée en bleu sur la Figure 13), centrée autour de 10 mm. Mais l'atmosphère ne laisse pas passer toutes les longueurs d'onde (la courbe rouge représente la transmission de l'atmosphère). Et justement entre 3 et 5 mm, et entre 8 et 12 mm, elle a une « fenêtre de transparence ». En particulier, à plus haute altitude, un avion peut voir à plusieurs centaines de kilomètres dans la bande 8-12 mm. Un autre intérêt de détecter cette gamme de longueur d'onde est qu'elle correspond à l'absorption de certains explosifs qui seraient alors détectables.
figure13
Spectre de transmission de l'atmosphère (courbe rouge), et spectre d'émission du corps humain, c'est-à-dire d'un corps noir à 37°C (courbe bleue)
Comment réaliser ces détecteurs autour de 5 et de 10 mm (c'est-à-dire ayant un gap d'énergie de 0,1 à 0,2 eV)? La Figure 6 nous indique que le couple CdTe (Tellure de Mercure) - HgTe (Tellure de Cadmium) est un bon candidat. Notons au passage que la France, grâce notamment aux laboratoires du CEA et de l'ONERA) est leader mondial dans ce domaine. Avec de tels détecteurs, il devient possible de voir des avions furtifs, indétectables par radar. Des applications existent aussi dans le domaine médical, où ces capteurs permettent de déceler certaines variations locales de température sur une simple image. Il est également possible de détecter le niveau de pétrole à l'intérieur d'un conteneur, l'inertie thermique du pétrole différant de celle de l'air.
figure14
Exemples d'images prises par des détecteurs infrarouges (source : www.x20.org)
Les cellules solaires
Dernier type de détecteur que nous examinerons : les cellules solaires, qui transforment la lumière en électricité. Le matériau roi (parce que le moins cher) dans ce domaine est le Silicium. Malheureusement son rendement quantique n'est pas bon (15%), c'est-à-dire que le Silicium absorbe très bien le rayonnement à 1 eV, tandis que le soleil émet essentiellement entre 2 à 3 eV. Des recherches sont actuellement menées afin de développer des matériaux absorbant plus efficacement dans ces gammes d'énergie. Ces recherches sont extrêmement importantes pour les nouvelles sources d'énergie.
Les émetteurs de lumière
Diodes électroluminescentes
On se rappelle qu'en se recombinant, les paires électron-trous créent un photon. Réaliser un émetteur de lumière est donc possible à partir d'un puits quantique ( Figure 15). Ce dernier confine les électrons. Prenons, comme précédemment, le cas d'un puits quantique de GaAs « sandwiché » entre deux domaines d'AlGaAs. Cette fois, nous dopons N l'AlGaAs se trouvant d'un côté du puits, et P l'AlGaAs se trouvant de l'autre côté. Si on fait passer du courant dans cette structure, les électrons de la zone dopée N vont tomber dans le puits quantique, les trous de la zone dopée P vont monter dans le puits de la zone de valence. Une fois dans le puits quantique, électrons et trous vont se recombiner et émettre un photon. Ce composant est appelé Diode Electroluminescente (LED). Ce n'est ni plus ni moins qu'un photo-détecteur dans lequel on a forcé le courant à passer.
figure15
Diagramme d'énergie d'une diode électroluminescente. Trous de la zone P et électrons de la zone N vont être piégés dans le puits quantique et se recombiner en émettant de la lumière
Les LED remplissent, elles aussi notre quotidien. Elles ont un énorme avantage sur d'autres type d'éclairage : le processus de création de photon d'une LED est extrêmement efficace. En effet, dans une LED chaque électron donne un photon. Ainsi avec un courant d'un ampère, on obtient une puissance lumineuse d'environ un Watt, alors qu'une ampoule ne donnera que 0,1W pour le même courant. L'utilisation plus répandue des LED pour l'éclairage aura un impact extrêmement important pour les économies d'énergie et l'environnement. A l'heure actuelle, elles sont utilisées dans nos télécommandes, les panneaux d'affichages, les feux de signalisation.
Depuis quelques temps les diodes rouges, orange et vertes existent. La diode bleue, plus récemment apparue a connue une histoire insolite. En 1974, des ingénieurs se penchent sur le problème de la réalisation d'une telle diode, et trouvent qu'un matériau possède le gap d'énergie adéquat (3-4 eV) : le Nitrure de Gallium (GaN). Ils vont alors chercher à le doper... pendant 10 ans... sans succès. En 1984, un grand théoricien soutient, démonstration à l'appui, qu'il n'est théoriquement pas possible de doper un tel semi-conducteur. Toutes les équipes arrêtent alors progressivement leurs recherches sur le sujet... toutes, sauf une. Celle du Dr. Nakamura (qui sans doute n'avait pas lu l'article de l'éminent théoricien) de la société Japonaise Nichia. En 1993, il trouve que le Magnésium (Mg) dope le Nitrure de Gallium ! Dix ans après, sa découverte a révolutionné le marché de l'optoélectronique. En effet, avec les autres couleurs de LED, il est à présent possible de réaliser d'immenses écrans publicitaires...
Diodes lasers
Etudions à présent l'émission stimulée. Nous avons vu que le semi-conducteur pouvait absorber un photon, qu'il pouvait également en émettre s'il possède un électron dans sa bande de conduction. En 1917, Albert Einstein s'aperçoit qu'il manque un mécanisme dans cette description de l'interaction entre la lumière et la matière. Par une démarche purement théorique, il va découvrir un nouveau phénomène : l'émission stimulée ( Figure 16).
Dans l'émission stimulée, l'électron est dans l'état excité. Arrive alors un photon, qui va stimuler la désexcitation de l'électron. Cette désexcitation va naturellement s'accompagner de l'émission d'un autre photon, dit photon stimulé. Si on se trouve dans un matériau où beaucoup d'électrons sont excités, un photon va alors pouvoir donner 2, puis 4, puis 8 ... photons ! Ce phénomène est appelé l'amplification optique.
figure16
Diagramme des mécanismes d'absorption, d'émission spontanée, et d'émission stimulée
Il est alors possible de réaliser un LASER. Pour cela, il suffit de placer deux miroirs aux extrémités de l'amplificateur optique. La lumière va être amplifiée lors d'un premier passage, une partie va être émise en dehors de la cavité, l'autre partie va être réfléchie et refaire un passage dans le milieu amplificateur. La même chose se produit sur le deuxième miroir. Si après un tour on a plus d'énergie qu'au départ, nous sommes face à un phénomène d'avalanche où le nombre de photons créés va croître très rapidement. Le système se met à osciller, c'est l'oscillation LASER.
John von Neumann, l'inventeur de l'ordinateur, prévoit que les semi-conducteurs devraient permettre de réaliser des lasers. En effet en partant d'un puits quantique et en y plaçant beaucoup d'électrons et de trous, nous allons obtenir notre milieu amplificateur. En plaçant des miroirs aux extrémités du puits quantique, on obtient alors un laser ( Figure 17). Le laser à semi-conducteur sera découvert 50 ans après, et par 3 laboratoires différents (General Electric, IBM et Bell Labs) en l'espace de 10 heures !
figure17
Schéma d'une diode laser. Le milieu à gain est constitué par la jonction P-N. A ses extrémités des miroirs forment la cavité, et laissent sortir un faisceau laser unidirectionnel
L'intérêt du laser à semi-conducteur est qu'on peut concentrer toute la puissance lumineuse sur un fin pinceau lumineux. Là encore, les applications sont nombreuses : pointeurs, lecteur de CD, télécommunications... Revenons un instant sur l'importance des matériaux émettant dans le bleu (le Nitrure de Gallium). Le laser bleu va en effet avoir des retombées importantes dans le domaine des disques lasers. Le principe du lecteur de disque est d'envoyer un laser sur la surface du disque qui réfléchit (ou non) la lumière, lumière qui est alors lue par un détecteur quantique. La surface du disque est criblée de trous stockant les bits d'information. Il se trouve que la dimension minimale d'un faisceau laser correspond à la longueur d'onde qu'il émet. Ainsi la tâche d'un laser rouge est de 0,8 mm, tandis que celle d'un faisceau bleu est de 0,4 mm. On pourra donc lire 4 fois plus d'information avec un laser bleu Les diodes bleues vont donc progressivement (et rapidement) remplacer les diodes rouges des lecteurs de disques.
La lumière d'un laser va également pouvoir être envoyée à l'intérieur d'une fibre optique, qui est une structure guidant la lumière au cSur d'un guide en verre (silice) de 4 mm de diamètre. La fibre optique permet alors de transporter énormément d'information extrêmement rapidement. A l'heure actuelle, les fibres optiques permettent d'envoyer en un dixième de seconde tout le contenu de l'Encyclopedia Universalis à 3000 km ! Cette révolution technologique, fruit de l'optoélectronique, est à la base du succès d'Internet.
Les nouvelles frontières
L'optoélectronique est un des domaines scientifiques les plus effervescents à l'heure actuelle, et de nombreuses technologies encore balbutiantes semblent très prometteuses dans un proche future : il s'agit par exemple des cristaux photoniques, des oscillateurs paramétriques optiques, de la nano-optique,... Nous nous intéresserons ici aux nouvelles longueurs d'ondes ainsi qu'au domaine des attosecondes.
Les ondes Térahertz
L'optoélectronique investit aujourd'hui de nouvelles longueurs d'onde, et ne se cantonne plus au domaine du visible et de l'infrarouge. Ces ondes appartiennent à la famille des ondes électromagnétiques ( Figure 18), qui renferme également, les ondes radio, les ondes radars et micro-ondes,... Entre les ondes radio et les ondes optiques, se trouve le domaine des ondes dites Térahertz (THz), qui jusqu'à peu ne disposaient pas de sources efficaces. L'optoélectronique développe actuellement de nouvelles sources lasers dans ce domaine, resté pendant longtemps une terra incognita.
figure18
Le spectre des ondes électromagnétiques
De telles sources permettront de développer de nouveaux systèmes de sécurité, car ils permettront notamment de voir à travers les vêtements. En effet, même au travers de matériaux opaques, les photons pénètrent, sur une longueur de quelques longueurs d'onde. Dans le cas des ondes Térahertz, la longueur d'onde est de 300 mm, le photon va pénétrer un matériau opaque sur plusieurs millimètres ! L'onde Térahertz pourra ainsi traverser les vêtements. La Figure 19 montre comment un couteau caché par un journal a pu être détecté par de l'imagerie Térahertz.
figure19
Image d'une scène dans le visible (à gauche) et dans les Térahertz (à droite). La grande longueur d'onde des ondes Térahertz permet de traverser les vêtements et les journaux.
(Jefferson Lab : www.jlab.org)
Les attosecondes
Une autre percée réalisée par l'optoélectronique concerne l'étude des temps très courts. Le domaine des attosecondes est désormais accessible à l'expérience. Une attoseconde ne représente que 0,000 000 000 000 000 001 seconde (10-18 seconde)! Il y a autant d'attosecondes dans une seconde que de secondes écoulées depuis la création de l'univers.
Pour créer des impulsions aussi courtes, il faut des ondes ayant des fréquences très élevées. L'impulsion la plus courte qu'on puisse faire avec une onde consistera à ne prendre qu'une seule oscillation de l'onde. L'optoélectronique nous propose des techniques qui permettent de ne découper qu'une seule oscillation du champ électromagnétique. Si on prend de la lumière visible (de fréquence 1015 Hz), on est capable de découper une tranche de 10-15 seconde (une femtoseconde). On peut aujourd'hui aller encore plus loin, et atteindre le domaine des attosecondes.
La Figure 20 montre en fonction du temps les plus petites durées atteignables par l'électronique et par l'optoélectronique. L'électronique, ayant des fréquences limitées à quelques gigahertz (GHz) est actuellement limitée, tandis que l'optique, avec des photons aux fréquences bien plus élevées permet de sonder des durées bien plus faibles.
figure20
Evolution des plus petites durées mesurables par l'électronique et l'optoélectronique dans les 40 dernières années
L'électron met environ 150 attosecondes pour « faire le tour » de l'atome d'Hydrogène. Nous devrions donc avoir d'ici peu les techniques permettant d'observer ce mouvement ! On retrouve le cercle vertueux que nous avions évoqué au début : la science fondamentale a fourni des technologies, et ces technologies, en retour, fournissent aux sciences fondamentales des possibilités d'observer de nouveaux domaines du savoir et de la connaissance de l'univers.
DOCUMENT canal-u.tv LIEN |
|
|
|
|
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 ] Précédente - Suivante |
|
|
|
|
|
|