ecole de musique piano
     
menu
 
 
 
 
 
 

ATOME

 

 

 

 

 

 

 

atome
(latin atomus, du grec atomos, qu'on ne peut couper)

Consulter aussi dans le dictionnaire : atome
Cet article fait partie du dossier consacré à la matière.
Constituant fondamental de la matière dont les mouvements et les combinaisons rendent compte de l'essentiel des propriétés macroscopiques de celle-ci. (Un corps constitué d'atomes de même espèce est appelé corps simple ou élément chimique.)

PHYSIQUE ET CHIMIE

Le mot « atome » est aujourd'hui un paradoxe scientifique : en effet, les Grecs avaient désigné par ce terme, qui veut dire « indivisible », le plus petit élément, simple et stable, de la matière ; or on sait à présent qu’un atome est composé de particules plus petites : des électrons, des protons et des neutrons. Les protons et les neutrons, appelés nucléons, forment le noyau de l’atome et sont eux-mêmes composés de particules encore plus élémentaires : les quarks. La connaissance de cette structure ultime de la matière est à l’origine d’une révolution tant dans le domaine de la connaissance que dans celui des rapports entre les peuples (la fission de noyaux atomiques étant à la base des armes nucléaires).

1. Description d'un atome

Les atomes sont les plus petites parcelles d'un élément chimique qui puissent être conçues : ils sont constitués d'un noyau chargé positivement autour duquel gravitent des électrons chargés négativement, l'ensemble étant électriquement neutre.

Les ions dérivent des atomes par la perte ou par le gain d'un ou de plusieurs électrons : il existe des ions positifs (cations), qui résultent d'une perte d'électrons, et des ions négatifs (anions), qui résultent d'un gain d'électrons.

Les électrons ainsi impliqués sont situés à la partie la plus externe des atomes, qui est seule perturbée par un gain ou une perte d'électrons. Seuls ces électrons (électrons de valence) interviennent dans les réactions chimiques. Ces dernières se distinguent donc fondamentalement des phénomènes qui se produisent lors de l'explosion d'une bombe atomique, lesquels se situent au niveau du noyau. Les transformations intervenant au niveau nucléaire mettent en jeu une énergie (→  énergie nucléaire) un million de fois plus élevée que celle que libère une réaction chimique (→  énergie chimique).
En première approximation, on peut considérer qu'un atome occupe une partie de l'espace, de forme sphérique, d'un diamètre de quelques angströms (1 Å = 10−10 m).

1.1. La structure interne des atomes
L'étude de la structure interne des atomes a montré que tous, quel que soit l'élément qu'ils constituent, sont formés de trois espèces de particules élémentaires : les électrons, les protons et les neutrons.
Les électrons sont des particules légères de charge électrique négative, toutes identiques, qui se meuvent à grande vitesse dans le champ d'attraction du noyau chargé positivement.
D'un diamètre très petit par rapport à celui de l'atome, le noyau – dans lequel presque toute la masse est concentrée – est composé de particules appelées nucléons.


Les nucléons sont de deux espèces : les protons, possédant une charge électrique positive, égale en valeur absolue à la charge des électrons, et les neutrons, électriquement neutres.
Les propriétés d'un atome sont déterminées par le nombre d'électrons présents autour du noyau : ce nombre est égal au nombre Z de protons contenus dans ce noyau.
Les propriétés ne dépendent pas, pour l'essentiel, du nombre N de neutrons : les atomes d'un même élément peuvent contenir un nombre variable de neutrons. Les atomes d'un élément qui contiennent un nombre différent de neutrons constituent des isotopes de cet élément. En général, il existe plusieurs isotopes d'un même élément.

Z représente le nombre atomique ou numéro atomique de l'élément.


La somme Z + N = A est le nombre de masse du noyau.

Pour distinguer les isotopes d'un élément, on les désigne par leur symbole précédé des nombres A et Z qui lui sont propres : ainsi, 146C désigne l'isotope de carbone dont l'atome possède 14 nucléons (6 protons et 8 neutrons).

1.2. Quelques ordres de grandeurs
La masse de l'atome est de l'ordre de 10−26 kg. Un atome peut être assimilé à une sphère dont le rayon, variable d'un élément à l'autre, est de l'ordre de 10−10 m (soit 1 Å).
L'électron porte une charge élémentaire − e (e = 1,602 × 10−19 C), pour une masse m de 9,1093897 × 10−31 kg ou de 5,4 × 10−4 u en unité de masse atomique (1 u = 1,6605402 × 10−27 kg).
Il existe donc un rapport de 1 à 10 000 entre la masse de l'atome et celle de l'électron : dans un atome, la masse des électrons apparaît donc comme négligeable comparée à la masse du noyau.
La masse du proton est de 1,6726231 u (mp = 1,673 × 10−27 kg), et celle du neutron est de 1,6749286 u (mn = 1,675 × 10−27 kg).

Assimilé à une sphère, le volume du noyau est à peu près proportionnel au nombre de nucléons A : le rayon du noyau est, selon une formule empirique, proche de la racine cubique de A, r ≈ 1,41 × 10−15 × A1/3 m (de l'ordre de 10−15 m), ce qui correspond à 1 fm (femtomètre ou fermi).
Un facteur de 100 000 existe entre le rayon de l'atome et celui du noyau, et, si l'on néglige la masse des électrons, le noyau a une densité 10−15 fois plus élevée que celle de l'atome, ce qui correspond à une concentration énorme de matière. La même concentration appliquée à la masse totale de la Terre ramènerait notre planète à une sphère de 60 m de rayon.

1.3. Les atomes isolés
Les rares atomes isolés se rencontrent sous forme de gaz.
Les gaz rares (argon, hélium, krypton, néon, xénon) sont un exemple de la présence d'atomes isolés dans la nature : ils sont en très faible proportion dans l'air, où l'on trouve essentiellement de l'azote (78,084 %) et de l'oxygène (20,946 %) sous forme de molécules diatomiques (N2 et O2), du dioxyde de carbone et de la vapeur d'eau également sous forme de molécules.
Les gaz rares, qui ont été découverts par le chimiste britannique William Ramsay entre 1894 et 1898, ne représentent que 1 % du volume de l'air : argon 0,934 % ; hélium 0,52 × 10−3 % ; krypton 0,11 × 10−3 % ; néon 1,8 × 10−3 % ; xénon 8,7 × 10−6 %.
L'existence d'atomes libres de gaz rares résulte de leur configuration particulièrement stable : les ions se forment d'ailleurs à partir des atomes de telle sorte que, en général, la perte ou le gain d'électrons leur permette d'acquérir une configuration électronique d'atome de gaz rare.

1.4. Les atomes naturels et artificiels

Outre les éléments identifiés dans la nature, et leurs isotopes naturels, on connaît aujourd'hui des éléments plus lourds que l'uranium (le plus lourd des éléments existant à l'état naturel, répertorié avec le numéro atomique 92), et de nouveaux isotopes d'éléments qui existent, en revanche, à l'état artificiel.
Les atomes de ces éléments, ou de ces isotopes, sont fabriqués artificiellement en faisant intervenir des réactions nucléaires, qui consistent à bombarder, par des particules variées et animées d'une très grande vitesse, les noyaux des atomes d'éléments connus.
Ces réactions permettent d'accroître le nombre Z de protons du noyau (et on obtient des atomes plus lourds que ceux de l'élément bombardé) ou de modifier le nombre N de neutrons (et on obtient des isotopes nouveaux).

En règle générale, les éléments artificiels ainsi obtenus sont radioactifs : leurs noyaux se désintègrent rapidement, et leur durée de vie peut donc être très brève, ce qui explique leur absence dans les milieux naturels. Les atomes artificiels d'éléments plus lourds que l'uranium (appelés transuraniens ou éléments superlourds) sont obtenus à partir de noyaux naturels d'uranium ou de thorium. Le premier d'entre eux, dans la séquence des numéros atomiques, est le neptunium, qui porte le numéro Z = 93 ; puis le plutonium (Z = 94), synthétisé en 1940, etc. Le bombardement de l'uranium par des particules chargées et accélérées dans des cyclotrons a ainsi permis d'obtenir de nombreux éléments transuraniens. Les éléments artificiels ainsi fabriqués ont une durée de vie de plus en plus courte à mesure que leur numéro atomique est plus grand.

On peut également fabriquer des isotopes, le plus souvent radioactifs, d'éléments connus, en soumettant les atomes d'éléments naturels à un bombardement de particules accélérées ou à l'action des neutrons émis par une pile atomique. Ces isotopes sont utilisés soit en médecine, notamment pour le traitement du cancer (bombe au cobalt) ou pour réaliser des diagnostics (radio-iode), soit en analyse chimique pour identifier et doser des éléments présents en très petites quantités (de l'ordre de la partie par million), soit en mécanique pour radiographier des pièces de grandes dimensions.

2. Historique de la notion d'atome

La constitution de la matière a très tôt préoccupé les philosophes. L'atomisme, où l'atome est l'« essence de toutes choses », constituant ultime et indivisible de la matière, tel que le concevaient dans l'Antiquité des philosophes comme Empédocle, Leucippe et Démocrite, et tel qu'il fut repris par Épicure et Lucrèce, ne pouvait guère dépasser la vision mécaniste de particules se combinant pour former des corps, à la suite d'une légère et aléatoire modification de leur trajectoire dans le vide (c'est le phénomène du clinamen, chez Épicure). Les philosophes observaient surtout ce qui les entourait et tombait immédiatement sous leurs sens : d'où la suprématie du concept des quatre éléments (l'air, l'eau, la terre, le feu) énoncé par Homère, repris par Thalès et conforté par Aristote, et qui perdurera jusqu'au xviiie s. C'est la chimie qui, 2 500 ans environ après les philosophes grecs, établira la notion moderne d'atome.

2.1. Vingt-trois siècles de tâtonnements
L'alchimie est pratiquée dès la plus haute Antiquité dans les grandes civilisations orientales, notamment en Chine et en Inde, où elle est appelée « science des saveurs » ou « science des élixirs ». En Occident, elle fleurit dans le monde hellénistique et sera transmise par les Arabes au monde chrétien.

2.1.1. Au Moyen Âge
Au Moyen Âge les alchimistes classent les substances en fumées, esprits, eaux, huiles, laines, cristaux… Mais ils cherchent moins à identifier des corps différents qu'à découvrir la réalité « philosophale » fondamentale cachée derrière les apparences. États et propriétés physiques dominent ces classifications, et du ixe au xvie s. s'ajoutent trois autres éléments : le mercure pour l'état métallique et l'état liquide, le soufre pour la combustion et le sel pour la solubilité (ces éléments sont dits « philosophiques » pour ne pas les confondre avec les corps du même nom).
2.1.2. La théorie du phlogistique

Au xviie s. apparaît avec l'Allemand Georg Ernst Stahl la théorie du phlogistique : fluide miracle associé à tous les corps, il s'ajoute, se retranche, et permet d'expliquer le processus de combustion. Cependant, la chimie moderne est amorcée par le Français Jean Rey qui reconnaît, dès 1630, la conservation de la masse dans les transformations chimiques et le rôle de l'air dans les combustions. L'Irlandais Robert Boyle, dès 1661, fait la distinction entre mélanges et combinaisons chimiques.

2.1.3. La chimie devient une science

Au xviiie s., la chimie devient une véritable science avec le Britannique Joseph Priestley et le Français Antoine Laurent de Lavoisier qui imposent, par des méthodes dignes de la recherche actuelle, de nouvelles règles de nomenclature permettant de comprendre le processus des combinaisons chimiques. Lavoisier définit l'élément chimique, qui ne peut pas être décomposé en substances plus simples par la chaleur ou par une réaction chimique, ainsi que le composé, qui est la combinaison de deux éléments, ou plus, dans une proportion de poids déterminée.

2.2. L'approche de la connaissance actuelle de l'atome

2.2.1. La théorie atomique de Dalton

La première théorie moderne sur l'atome est énoncée, en 1808, par le Britannique John Dalton : tous les atomes d'un même corps simple, autrement dit d'un même élément, sont identiques, mais diffèrent des atomes d'autres éléments par leur dimension, leur poids et d'autres propriétés. Il donne d'ailleurs une liste de poids relatifs, par rapport à l'hydrogène, de quelques atomes (azote, carbone, oxygène, etc.).

2.2.2. Atome et tableau périodique des éléments

En 1869, le Russe Dimitri Ivanovitch Mendeleïev publie le premier tableau périodique des éléments classés en fonction de leur poids atomique. Il démontre que les propriétés chimiques des éléments sont des fonctions périodiques de leur « poids ». Pour cela, il est conduit, d'une part, à inverser certaines positions dans le classement (inversions qui s'avéreront, par la suite, en accord avec le fait que presque tous les éléments chimiques sont des mélanges de plusieurs isotopes) et, d'autre part, à laisser des cases vides correspondant, selon lui, à des éléments non encore découverts, mais dont il prévoit l'existence et les propriétés chimiques.

2.3. Découvertes des constituants de l'atome
Il faut attendre la fin du xixe s., avec les premières découvertes sur les constituants de l'atome, pour que la matière livre ses premiers secrets.

2.3.1. L'électron


.En 1891, l'Irlandais George Johnstone Stoney propose le nom d'électron pour désigner une particule qui porterait une charge électrique élémentaire négative. Mais c'est l'étude des rayons cathodiques par le Français Jean Perrin et par le Britannique Joseph John Thomson qui permet, en 1897, la découverte de l'électron, particule chargée négativement. J. Thomson mesure la charge e de l'électron par rapport à sa masse. La valeur de cette charge (− 1,6 × 10−19 C) est précisée, à 1 % près, en 1911, par l'Américain Robert Andrews Millikan.

2.3.2. La radioactivité et les nucléons

L'observation en 1896 par Henri Becquerel d'un rayonnement inconnu, les mystérieux « rayons uraniques », excite la curiosité de nombreux chercheurs. En effet, les sels d'uranium émettent un rayonnement capable de rendre l'air conducteur d'électricité, d'impressionner une plaque photographique, et qui est aussi pénétrant que les rayons X.
Les radioéléments

À partir de cette observation, Marie Curie commence, en 1898, ses recherches sur la pechblende (oxyde naturel d'uranium) ; son but est de quantifier le rayonnement émis en mesurant l'intensité du courant d'« ionisation » qui est établi dans l'air, sous son action. Elle montre que l'intensité de ce rayonnement est proportionnelle à la quantité d'uranium présent, et elle retrouve ce même phénomène avec l'étude du thorium. Elle propose d'appeler radioactivité cette propriété, et substances radioactives les corps émetteurs de ce rayonnement.
Puis, en collaboration avec Pierre Curie, elle découvre d'autres radioéléments beaucoup plus radioactifs que l'uranium : le polonium en juillet 1898 et le radium en décembre de la même année. Les sources de radium sont un million de fois plus radioactives que les sels d'uranium. Dès ce moment, les découvertes de nouveaux éléments radioactifs se succèdent ; ainsi, André Louis Debierne isole l'actinium en 1899.

Le rayonnement radioactif

L'étude du rayonnement radioactif, émetteur de particules, peut alors être entreprise. Les physiciens reconnaissent deux espèces de rayonnements, que le Britannique Ernest Rutherford désigne par les lettres grecques α et β – par la suite un troisième rayonnement, γ (→  rayons gamma), sera identifié –, qui se distinguent par leur aptitude à pénétrer la matière et par leur comportement sous l'action d'un champ magnétique ou électrique. En 1903, ses compatriotes W. Ramsay et F. Soddy montrent que le rayonnement α est formé de noyaux d'hélium, projetés à grande vitesse.

2.3.3. Le noyau

L'existence du noyau est démontrée en 1907 par Rutherford, qui a l'idée de bombarder la matière, afin de mieux comprendre sa nature, à l'aide de particules α utilisées comme de véritables projectiles. À cet effet, il réalise, dans un tube sous vide, un faisceau étroit de particules α émises par désintégration radioactive du polonium, et place sur son trajet une feuille d'or très mince. Il constate que la plupart des particules n'ont pas rencontré d'obstacles en traversant la feuille d'or, et que par conséquent la matière est pratiquement vide. Cependant, quelques particules sont fortement déviées, et le calcul montre qu'elles ne peuvent être repoussées que par des charges positives concentrées dans un très petit volume.

2.3.4. Le proton
Un des élèves de Rutherford, H. G. Jeffreys Moseley, détermine en 1913 le nombre de charges électriques unitaires et positives que contient l'atome (numéro atomique Z), tandis que son maître découvre, en 1919, la particule positive constitutive du noyau, qu'il nomme proton. Il pressent l'existence d'une particule semblable mais neutre.

2.3.5. Le neutron
En 1930, les Allemands Walter Bothe et Heinrich Becker observent, en bombardant des éléments légers (lithium, béryllium, bore) par des particules α, l'apparition d'un nouveau rayonnement encore plus pénétrant que les protons, qui n'est pas dévié par un champ électrique ou magnétique. C'est encore un élève de Rutherford, James Chadwick, qui en 1932 montre que ce rayonnement est constitué de particules de masse quasi identique à celle du proton, mais neutres, insensibles aux charges électriques, et donc très pénétrantes : les neutrons.

2.3.6. Mésons et quarks

Les particules élémentaires selon le modèle standard
Par la suite, on s'aperçoit que les nucléons (neutrons et protons) ne restent pas inertes dans le noyau : ils interagissent en échangeant des particules plus élémentaires, les mésons π (ou pions), découverts en 1947 par le Japonais Yukawa Hideki et le Britannique Cecil Frank Powell.
Dans les années 1960, l'Américain Murray Gell-Mann introduit l'hypothèse que les nucléons sont eux-mêmes composés de trois grains quasi ponctuels, les quarks, liés par des gluons. Avec l'avancée des constructions théoriques pour rendre compte des faits expérimentaux, le nombre des quarks a été porté à six. Ainsi, en moins d'un siècle, la notion de particule élémentaire est passée de la molécule à l'atome, puis au noyau, ensuite au nucléon puis au quark, et d’autres particules théoriques sont encore à l’étude dans les gigantesques accélérateurs.

3. La représentation de l'atome
Dès que la notion scientifique d'atome apparut, il s'avéra nécessaire de la symboliser pour parvenir à une meilleure compréhension des processus chimiques.

3.1. La représentation symbolique de l'atome

Bien que les termes d'atome et d'élément y soient parfois confondus avec celui de molécule, la première tentative de représentation de l'atome peut être attribuée à John Dalton, qui donne une table des « poids » des différents éléments connus : ces derniers sont représentés par des cercles dans lesquels des lettres, des points ou des traits caractérisent la nature de l'élément. À la même époque, en 1814, la première notation systématique des éléments par le Suédois Jöns Jacob Berzelius annonce la représentation qui sera retenue par la suite. Chaque élément chimique est représenté par un symbole : la première lettre du nom en latin suivi éventuellement d'une deuxième lettre pour distinguer des éléments ayant des initiales identiques. Ainsi, le fluor (F) se distingue du fer (Fe), du fermium (Fm), ou du francium (Fr).

3.2. La représentation spatiale ou la notion de modèle
Dès les premiers résultats expérimentaux, les physiciens entreprennent de proposer une représentation de l'atome capable d'intégrer dans un ensemble cohérent les observations fragmentaires. Ils vont ainsi élaborer un modèle qui rend compte à un instant donné de la totalité des informations recueillies et validées.
3.2.1. Le modèle planétaire

En 1901, Jean Perrin propose une représentation planétaire de l'atome où l'électron décrit une trajectoire circulaire autour du noyau. Reprise et mise en équation par le Danois Niels Bohr en 1913, cette interprétation va s'installer durablement dans les esprits, alors que dès 1927 de nouvelles découvertes la mettent en cause.

Ce modèle s'impose au début du xxe s., car il concilie des résultats provenant d'horizons divers. En effet, on a observé, dès 1850, que chaque gaz, quand il est excité par des décharges électriques, émet une lumière qui, en passant dans un spectroscope à prisme, donne un spectre d'émission différent. Même l'hydrogène, l'élément le plus simple, donne naissance à un spectre complexe.
À la suite des travaux du Suisse Johann Jakob Balmer, en 1885, sur le spectre d'émission de l'hydrogène, le Suédois Johannes Robert Rydberg a proposé une relation mathématique simple entre les longueurs d'onde λ des raies caractéristiques du spectre de l'hydrogène :
1/λ = RH (1/n12 − 1/n22).
• RH est une constante spectroscopique appelée constante de Rydberg (RH = 109 737,32 cm−1) ;
• 1/λ est l'inverse de la longueur d'onde, appelé nombre d'onde (exprimé en cm−1) ;
• n1 et n2 sont des nombres entiers tels que n2 > n1, une série de raies du spectre de l'hydrogène étant caractérisée par une valeur donnée de n1, et par des valeurs de n2 égales à n1 + 1, n1 + 2, n1 + 3.

En 1913, James Franck et l'Allemand Gustav Hertz démontrent qu'un atome ne peut absorber de l'énergie que par quantités discrètes (ΔE) : ce phénomène donne naissance à un spectre d'absorption. Réciproquement, une perte de ces quantités d'énergie (ΔE) engendre une radiation (→  rayonnement) dont la fréquence (ν) émise vérifie la relation avancée par un autre Allemand, Max Planck, pour définir un quantum d'énergie :
ν = ΔE/h
dans laquelle h est la constante de Planck (h = 6,626 × 10−34 J . s).
Ces propositions sont corroborées par le calcul qui mène à la valeur expérimentale de la constante de Rydberg.
Ainsi, il apparaît que l'ensemble des travaux menant à la quantification des niveaux d'énergie des électrons dans l'atome s'accorde avec le phénomène de discontinuité des spectres d'émission de l'atome d'hydrogène : c'est la raison de la faveur du modèle de Bohr.

Emplacement des électrons dans un atome
Selon ce modèle, les électrons se déplacent autour du noyau central sur des orbites analogues à celles que parcourent les planètes autour d'un astre. Au centre se trouve le noyau, chargé positivement, autour duquel gravitent les électrons négatifs ; la charge du noyau est égale à la valeur absolue de la somme des charges des électrons.
Ces électrons planétaires ne peuvent se situer que sur certaines orbites stables, associées chacune à un niveau d'énergie formant une suite discontinue, et correspondant aux différentes couches désignées par les lettres K, L, M, N, etc. On dit que l'énergie de l'atome est quantifiée.
La couche électronique K, la plus proche du noyau, peut au plus contenir deux électrons, et la couche L, huit électrons. Sous l'effet d'une excitation extérieure, l'électron peut passer d'une orbite à une autre, d'énergie supérieure. Mais il revient ensuite spontanément sur des orbites d'énergie inférieure. C'est alors qu'il rayonne de l'énergie.

3.2.2. Limites du modèle planétaire
En dépit du perfectionnement du modèle de Bohr, en 1928, par l'Allemand Arnold Sommerfeld, qui propose pour l'électron une trajectoire elliptique, une rotation sur lui-même (spin de l'électron) et la quantification étendue à l'espace pour tenter de rendre compte de la décomposition des raies spectrales émises quand on place l'atome dans un champ magnétique (effet Zeeman, du Néerlandais Pieter Zeeman), ce modèle avait des difficultés à interpréter les résultats obtenus pour les atomes à plusieurs électrons.
De plus, l'électron, qui rayonne de l'énergie, devait logiquement tomber sur le noyau.
Malgré le succès remporté par le modèle atomique de Bohr, il est très vite apparu impossible de développer une théorie générale pour tous les phénomènes atomiques en surimposant simplement aux principes de la mécanique classique ceux de la mécanique quantique.

3.2.3. Dualité onde-corpuscule

Vers 1900, Max Planck avait associé au caractère ondulatoire du rayonnement défini par une longueur d'onde λ un caractère corpusculaire sous forme de photons dont l'énergie E est liée à cette longueur d'onde λ par la relation (où c est la vitesse de la lumière) :
E = hν = hc/λ.

Le Français Louis de Broglie extrapole cette théorie des photons à toute particule, dans sa thèse en 1924, où il montre que les propriétés corpusculaires des électrons ont une contrepartie ondulatoire.
Dès 1927, les Américains Clinton Joseph Davisson et Lester Halbert Germer prouvent le bien-fondé de cette relation en réalisant la diffraction d'électrons par un cristal, démontrant ainsi le caractère ondulatoire des électrons (en 1978, on réalisera aussi la diffraction de l’antiparticule de l’électron nommée positon, découvert en 1932 par l'Américain Carl David Anderson).
Par ailleurs, en 1927, l'Allemand Werner Heisenberg traduit par une inégalité l'impossibilité de connaître simultanément deux paramètres pour une particule en mouvement (vitesse et position, par exemple). C'est le principe d'incertitude, incompatible avec le modèle de Bohr :
Δp × Δx > h
où Δp et Δx expriment respectivement les incertitudes sur les paramètres p (quantité de mouvement) et x (position).

3.3. L'atome en mécanique ondulatoire
Le caractère double de la matière, ondulatoire et corpusculaire, et le principe d'incertitude font abandonner le modèle de Bohr et sa représentation ponctuelle de l'électron parcourant une trajectoire. Une démarche neuve apparaît avec des modes de raisonnement et de calcul qui lui sont propres. La position, la vitesse et la direction du déplacement d'un électron ne pouvant être définies simultanément, on détermine la probabilité de sa présence dans un certain volume de l'espace situé autour du noyau, que l'on appelle orbitale ou nuage électronique. On lui associe une fonction complexe purement mathématique nommée fonction d'onde (Ψ), qui se calcule par la résolution d'une équation posée par l'Autrichien Erwin Schrödinger.

L'application de l'équation de Schrödinger à l'électron unique de l'atome d'hydrogène dans son état de plus faible énergie, appelé état fondamental, permet de retrouver les résultats expérimentaux déjà interprétés par le modèle planétaire. Mais elle intègre les états inhabituels, dits états excités, où les énergies sont plus élevées que dans le cas de l'état fondamental, et permet l'extension et la généralisation du modèle aux atomes autres que l'hydrogène : les électrons de ces derniers occupent, à l'état fondamental, des orbitales comparables à celles des états excités de l'atome d'hydrogène.

Pour rendre compte du comportement des atomes possédant un seul électron sous l'effet d'un champ magnétique ou d'un champ électrique, on a été amené à introduire la notion de spin, qui trouve sa formulation mathématique grâce au Britannique Paul Dirac (en première approximation par rapport à la mécanique classique, le spin traduit un mouvement propre de rotation de l'électron sur lui-même).
On déduit par ailleurs de la mécanique ondulatoire le principe dit d'exclusion de Pauli, selon lequel deux électrons d'un même atome ne peuvent pas être repérés par le même ensemble de nombres quantiques n, l, m, s.
Il apparaît en outre que les électrons sont généralement localisés plus particulièrement dans certaines directions de l'espace autour du noyau.

3.4. Paramètres caractéristiques des électrons dans l'atome

Emplacement des électrons dans un atome
La résolution mathématique de l'équation de Schrödinger impose des restrictions qui conduisent à l'introduction de nombres appelés nombres quantiques – n, l, m, s – devant satisfaire à certaines conditions ; l'énergie et la localisation spatiale des électrons gravitant autour du noyau sont déterminées par ces nombres .

3.4.1. Le nombre quantique principal
Le nombre quantique principal n est un entier strictement positif : il se nomme nombre quantique principal, car il quantifie l'énergie. On retrouve par la mécanique ondulatoire la même expression des différents niveaux d'énergie de l'atome d'hydrogène que celle obtenue dans le modèle de Bohr soit :
En = −13,6/n2 en eV (1 eV = 1,6 × 10−19 J)
avec n = 1, 2, 3…

Le nombre n détermine également le volume à l'intérieur duquel l'électron a le plus de chance de se trouver : quand n croît, le volume augmente. Les valeurs successives 1, 2, 3, etc. correspondent à l'ancienne notation des couches atomiques par les lettres K, L, M, etc.
Cependant, pour décrire une orbitale atomique, le nombre quantique principal n n'est pas suffisant, car si l'énergie fixe la taille de l'orbitale, elle ne donne pas la direction de l'espace où la probabilité de trouver l'électron est importante.

3.4.2. Le nombre quantique azimutal
Le nombre l est un entier positif, strictement inférieur à n, appelé nombre quantique azimutal, ou nombre quantique secondaire (par exemple, si n = 2 alors l = 0 ou 1) ; l quantifie le module du moment cinétique orbital.
De plus, l détermine la forme de l'orbitale dont les grands axes indiquent la direction où l'on a le plus de chance de trouver l'électron. Selon que l = 0, 1, 2, 3 ou 4, les différents types d'orbitales atomiques sont désignés respectivement par s, p, d, f ou g.
Ainsi, pour l = 0, la distribution électronique est symétrique autour du noyau et la probabilité de trouver l'électron est la même dans toutes les directions ; c'est le cas de l'hydrogène à l'état fondamental.
Si l = 1 ou 2 (orbitales p ou d), la fonction d'onde présente des « excroissances » dans des directions privilégiées de l'espace, justifiant l'orientation et les valeurs précises des angles de liaison des atomes entre eux dans les molécules.

3.4.3. Le nombre quantique magnétique
Le nombre m est un entier variant de − l à + l, prenant donc 2l + 1 valeurs : on l'appelle nombre quantique magnétique, car il quantifie la projection du moment cinétique sur un axe privilégié, celui selon lequel on applique un champ magnétique.
Ainsi, pour n = 2 :
• à l = 0 correspond m = 0 ;
• à l = 1 correspond m = − 1, 0, + 1,
m indique donc le nombre d'orbitales.
Pour l = 1 on a des orbitales p, où la probabilité de trouver l'électron est importante sur l'axe Oz pour m = 0, et suivant les axes Oy ou Ox pour m = − 1 ou + 1. À chaque type d'orbitale atomique (s, p) correspondent donc (2l + 1) orbitales atomiques, soit 1 de type s, 3 de type p, 5 de type d, 7 de type f, qui ont chacune une forme et une orientation bien particulières.
Ψn, l, m est la fonction d'onde qui exprime la forme de l'orbitale atomique occupée par un électron ; cette fonction au carré Ψ2n, l, m exprime la probabilité de présence de cet électron dans les différents domaines de l'espace.
(Ψn, l, m est une fonction des coordonnées de l'espace : x, y, z en coordonnées cartésiennes, ou r, θ, φ en coordonnées polaires.)

3.4.4. Le spin
Le quatrième nombre quantique est le spin s, qui prend deux valeurs opposées (+ 1/2 et − 1/2) pour chaque ensemble n, l, m.
Aucun électron d'un même atome n'a ses quatre nombres quantiques identiques à ceux d'un autre électron (principe d'exclusion). Pour une valeur n du nombre quantique principal le nombre maximum d'électrons est 2n2.
La résolution de l'équation de Schrödinger n'est rigoureuse que pour l'atome d'hydrogène. Elle s'étend toutefois aisément aux ions hydrogénoïdes, tels que He+ (un seul électron autour du noyau), et avec des approximations satisfaisantes elle s'applique aux atomes à plusieurs électrons.
Jusqu'à présent, l'hypothèse quantique, tout en se modifiant au fur et à mesure des nouvelles données, permet d'expliquer l'ensemble des connaissances.
À partir du nombre global d'électrons, et en jouant avec les valeurs que peuvent prendre entre eux les nombres quantiques, il est possible de construire la carte d'identité de chaque atome tout en respectant les règles qui, parfois sous des noms différents, ne sont qu'une même expression du fait que l'énergie la plus faible confère à l'édifice la stabilité la plus grande.

 

DOCUMENT   larousse.fr    LIEN

 
 
 
 

POURQUOI LA MATIÈRE CHANGE-T-ELLE D'ÉTAT : LA COMPÉTITION ENTRE ORDRE ET DÉSORDRE

 

 

 

 

 

 

 

POURQUOI LA MATIÈRE CHANGE-T-ELLE D'ÉTAT : LA COMPÉTITION ENTRE ORDRE ET DÉSORDRE


"Les changements d'état de la matière, sous l'effet d'une élévation ou d'un abaissement de température, sont des phénomènes bien familiers. De même, on connaît depuis longtemps des substances dont la structure ou encore les propriétés électriques ou magnétiques, se modifient de manière discontinue avec la température ; citons les études de Pierre Curie sur l'apparition ou la disparition de l'aimantation des oxydes de fer, ou encore celles qui concernent la supraconductivité.Or, si ces phénomènes sont bien quotidiens, ils n'en restent pas moins fort surprenants si l'on examine leur signification à l'échelle microscopique des atomes et molécules. La solidification d'un fluide se traduit, sous l'effet d'un minime abaissement de température, par la mise en un ordonnancement spatial régulier d'un grand nombre d'atomes, sans que rien ne soit venu modifier les forces qui régissent les interactions entre les constituants. Ces changements d'état sont dominés par des questions de symétrie : c'est ainsi que les forces entre atomes ne privilégient aucune direction particulière, et que pourtant, tant la cristallisation que l'apparition d'une aimantation par simple refroidissement, font apparaître des orientations bien déterminées. Le changement d'état est donc une brisure spontanée de symétrie : l'état du système est moins symétrique que les forces entre atomes constituants ne pouvaient le faire prévoir. Cette notion de symétrie brisée domine plusieurs branches de la physique de notre temps : au-delà des études de nouvelles phases de la matière évoquées ci-dessus, elle est présente dans la théorie moderne des interactions entre particules élémentaires, ou encore dans les modèles cosmologiques d'univers "" inflationnistes "" primitifs."

POURQUOI LA MATIÈRE CHANGE-T-ELLE D'ÉTAT : LA COMPÉTITION ENTRE ORDRE ET DÉSORDRE


Texte de la 220e conférence de l'Université de tous les savoirs donnée le 7 août 2000.
Symétries et symétries brisées : la compétition ordre-désordre et les changements d'état de la matière
par Édouard Brézin
Introduction
Le sentiment d'harmonie dégagé par les symétries des objets naturels ou fabriqués, a sans aucun doute accompagné l'homme depuis ses origines. Peut-être est-ce la quasi-identité des moitiés gauche et droite de nombreuses espèces vivantes qui a conduit à l'adoption de canons esthétiques, présents à l'évidence dans la vision des premiers architectes égyptiens et grecs. Plus près de nous les cinq polyèdres réguliers platoniciens, de par leur perfection et leur unicité, apparaissaient encore à Kepler comme le modèle indispensable régissant les distances au soleil des cinq planètes du système solaire connues en son temps (la découverte en 1781 d'une sixième planète, Uranus, ne laissait plus aucune place à ce rêve).
Mais ce n'est qu'à partir de la fin du siècle dernier que, dépassant ces considérations géométriques et esthétiques, la symétrie s'est imposée progressivement comme instrument de compréhension de l'univers, et finalement, avec la notion contemporaine de symétrie locale, comme le concept premier et unificateur permettant de comprendre l'organisation de la matière, les interactions entre constituants élémentaires (électromagnétisme et forces nucléaires), et même la cosmologie de notre univers en inflation issu du big-bang initial. Le rêve de Kepler s'est en quelques sorte enfin réalisé : la symétrie détermine le monde.
Le langage nous tend des pièges difficiles à éviter. C'est ainsi qu'à côté de symétrie-dissymétrie nous trouvons ordre et désordre qui leur sont étroitement associés. Mais que l'on y prenne garde, c'est à la symétrie qu'est associé le désordre, alors que l'ordre résulte de la symétrie brisée, qui n'est pas l'absence de symétrie, notion qu'il va donc nous falloir expliciter tout à l'heure.

Le dix-neuvième siècle
Deux pionniers de l'étude des symétries ont marqué le siècle dernier, Louis Pasteur et Pierre Curie. Ils nous laissé des concepts profonds, et des interrogations qui n'ont cessé de nous accompagner depuis lors.
Les expériences du jeune Pasteur visaient à préciser la propriété connue de certains cristaux, tel le quartz, qui font tourner le plan de polarisation de la lumière. En 1848 Pasteur, chimiste d'exception avant de devenir le biologiste génial que tout le monde connaît, cherchait à préciser le lien entre cette activité optique et la structure des cristaux ; il remarqua que les cristaux de paratartrate de sodium étaient un mélange de deux « énantiomères », c'est à dire de petits cristaux qui étaient tantôt identiques, tantôt identiques à l'image des précédents dans un miroir (de même qu'une main droite n'est pas identique à une main gauche, mais simplement à l'image de celle-ci dans un miroir). Il montrait alors que chacun de ces deux types de cristaux, avait des propriétés optiques opposées, signe d'une chiralité moléculaire (du grec kheir main). Mais la découverte de Pasteur allait beaucoup plus loin, puisqu'elle mettait en évidence une différence fondamentale entre la matière inerte et la matière vivante. En effet la synthèse des paratartrates en laboratoire produisait des mésotartrates optiquement inactifs, qui se révélèrent être toujours des mélanges en parts égales des deux énantiomères, alors que la vie est profondément asymétrique puisque les cristaux de paratartrate, issus des dépôts dans le vin, étaient exclusivement lévogyres. Depuis la biochimie n'a cessé de nous révéler que les molécules constitutives du vivant, ADN, protéines, etc., étaient asymétriques, avec une homochiralité universelle : ainsi toutes les hélices constitutives de l'ADN tournent toujours dans le même sens, chez tous les êtres vivants.
Comment expliquer une telle différence entre la biochimie et la chimie du monde inanimé ? C'est bien un mystère, car les processus physiques qui régissent la constitution des atomes et molécules ne distinguent pas la droite de la gauche : une réaction chimique et celle qui serait constituée par l'image ce cette dernière dans un miroir, ont des probabilités égales de se produire. Notons tout de même que, rompant avec une conception qui faisait de cette égalité un dogme, deux physiciens américains nés en Chine, T.-D. Lee et C.-N. Yang, formulèrent en 1956 l'hypothèse que les interactions nucléaires, responsables de la radioactivité bêta, n'étaient pas identiques à leur « image dans un miroir ». Cette non-conservation de la parité fut rapidement mise en évidence expérimentalement par la physicienne de l'université de Columbia Mme C.-S. Wu. Pour ne prendre qu'une image, cela signifie que nous avons bien la possibilité de faire connaître à des extra-terrestres (connaissant les lois de la nature !) ce que nous appelons la droite et la gauche. Cette légère asymétrie serait-elle suffisante pour expliquer cette surprenante homochiralité du vivant ? D'autres préfèrent imaginer que les fluctuations statistiques dans des populations d'énantiomères droits et gauches a priori égales, peuvent produire une inégalité accidentelle qui s'auto amplifie et conduit à l'homochiralité du vivant. (Pour ma part je crois que ce mécanisme ne saurait suffire, sans invoquer également le précédent). D'autres enfin, à la suite de J. Monod, voient dans cette homochiralité la preuve d'une origine unique commune à tous les êtres vivants. Il n'est pas question ici de trancher, mais on voit combien cette observation extraordinaire de Pasteur reste au cSur des préoccupations contemporaines sur l'origine de la vie.
C'est l'étude de la piézoélectricité du quartz, cette propriété aujourd'hui si abondamment utilisée, par exemple dans nos montres à quartz, mise en évidence en 1888 par les frères Curie, qui conduisit Pierre Curie à formuler un principe de symétrie profond et général. Réfléchissant en effet sur le lien entre la direction de la polarisation électrique du cristal et celle des contraintes mécaniques qui lui donnent naissance, Pierre Curie postula que « lorsque certaines causes produisent certains effets, les éléments de symétrie des causes doivent se retrouver dans les effets possibles ». Malgré son aspect très formel ce principe est d'utilisation parfaitement opératoire, tout spécialement en présence de champs électriques et magnétiques. C'est ainsi qu'il implique qu'il n'est pas possible de réaliser des synthèses chimiques « asymétriques », privilégiant l'un des composés, droit ou gauche, de molécules possédant une chiralité déterminée, sous le simple effet d'un champ magnétique.
Nous savons aujourd'hui que ce principe de Curie, pris au pied de la lettre, ne couvre pas le champ important des symétries brisées, et il est paradoxal de constater que l'une de ces premières brisures connues, celle de la transition paramagnétique-ferromagnétique, a été découverte également par P. Curie.
Physique statistique : énergie et entropie
Il nous faut donc venir au concept important de brisure spontanée de symétrie, et auparavant situer la compétition entre ordre et désordre qui régit l'organisation de la matière. Inscrite dans la thermodynamique, elle prit tout son sens lorsque Boltzmann et Gibbs établirent à la fin du siècle dernier les fondements de la physique statistique, science de la déduction des propriétés du monde macroscopique à partir des constituants élémentaires de la matière.
Examinons un processus simple et familier comme le gel d'un liquide. Le solide ainsi formé possède une structure régulière dans laquelle les atomes ou molécules constitutives se rangent au sommet d'un réseau spatial périodique. (Remarquons au passage le lien étonnant entre mathématiques et physique en ce domaine : les symétries sont exprimées mathématiquement à l'aide de la théorie des groupes, c'est-à-dire de la théorie des opérations qui laissent un objet inchangé. Cette théorie conduit à montrer qu'il n'existe que 230 structures périodiques possibles pour ces arrangements spatiaux des molécules, et les cristallographes ont bien identifié des structures solides réalisant chacune de ces 230 possibilités. Il faut également observer que la nature sait déjouer les théorèmes mathématiques puisque aucune des structures permises ne possède de symétrie d'ordre cinq : or, à la surprise générale, on découvrit en 1984 un « solide » possédant une telle symétrie interdite. Ces structures bien identifiées aujourd'hui et appelées quasi-cristaux sont en fait parfaitement apériodiques). Si l'on tente d'imaginer le comportement des molécules constituantes lors de la solidification, le gigantisme du nombre de molécules contenues dans le moindre grain de matière rend le processus tout à fait stupéfiant. Une minuscule goutte d'eau est constituée de plusieurs milliards de milliards de molécules. Un infime abaissement de température de l'eau en dessous de 0°C, produit donc la mise en ordre spatial d'un nombre colossal d'objets sans que rien ne soit venu modifier ni les molécules ni les forces mutuelles d'interaction qui régissent leur comportement. Projetons en marche arrière le film de la fin d'un défilé au moment où tous les soldats s'éparpillent, et représentons nous un défilé imaginaire avec de très nombreux milliards de participants et nous aurons une image microscopique de la solidification.
La transition solide-liquide est la manifestation de deux phénomènes antagonistes, qui mettent en jeu énergie et entropie. Dans cette matière macroscopique en effet, les configurations des molécules sont innombrables ; chacune d'entre elles est susceptible de se réaliser avec une petite probabilité, d'autant plus grande que son énergie est plus basse. À basse température, dans la phase solide donc, les configurations de basse énergie, très ordonnées spatialement pour autoriser les molécules à « profiter » de leur attraction réciproque, ont un poids dominant. En revanche à plus haute température, la multiplicité des configurations possibles conduit à rejeter les configurations ordonnées, à privilégier des configurations plus énergétiques, bien moins probables donc, mais si nombreuses que cette considération (identifiée par Boltzmann à l'entropie des thermodynamiciens) l'emporte. Comparons le liquide et le solide : le liquide est isotrope, aucune direction n'y est privilégiée. Il est également tout à fait homogène, identique en tous ses points. Le solide lui possède des axes cristallins privilégiés et des points qui servent de sommets au réseau périodique sur lequel sont venus se ranger les molécules. Il est donc, certes plus ordonné que le liquide, mais moins symétrique que lui puisque des opérations telles que des rotations ou des translations arbitraires qui ne changent rien au liquide, ne laissent pas le solide invariant. Cette brisure de symétrie, manifestée par l'ordre cristallin, est spontanée en ce sens qu'elle ne nécessite aucun agent extérieur, aucune interaction privilégiant des directions particulières.
Pour visualiser de manière plus intuitive une brisure spontanée de symétrie, on peut considérer le flambement d'une poutre sous l'effet d'une charge excessive. Même si la pression exercée coïncide bien avec l'axe de la poutre, celle-ci finira par flamber de manière asymétrique si la pression dépasse un certain seuil. On voit donc que cela implique de compléter quelque peu le principe de Curie : la symétrie d'un état particulier résultant d'une cause déterminée, peut avoir moins de symétrie que cette dernière. Seul l'ensemble des états possibles sous l'effet de cette cause a la symétrie des effets qui l'ont provoquée.
Un grand nombre des changements d'état de la matière résultent donc de ce phénomène de symétrie brisée. Les « aimants » permanents présentent une aimantation dans une direction spatiale bien déterminée qui disparaît au-delà d'une certaine température (celle-ci porte le nom de Curie qui avait découvert cette transition entre un état « ferromagnétique » aimanté et présentant une orientation, et un état « paramagnétique » désorienté et donc tout à fait isotrope). De nos jours la supraconductivité, la superfluidité, les phases des cristaux liquides, et bien d'autres changements d'états, n'ont cessé d'enrichir le catalogue des symétries spontanément brisées que présente l'organisation de la matière. Les défauts à l'ordre eux-mêmes (un solide, et toute structure ordonnée, possèdent des défauts) s'organisent d'une manière tout à fait caractéristique des symétries brisées présentes dans la structure.
La compréhension du mécanisme de la compétition ordre-désordre (ou énergie-entropie) mise en jeu dans ces transitions s'est étendue sur de nombreuses décennies. Après de longues années d'interrogations inconclusives, les travaux de 1940 du physicien R. Peierls, qui avait fui le nazisme en Angleterre, montraient que la formulation statistique de la physique qui doit tant à Boltzmann, contenait bien la possibilité, la nécessité même, de transition de phase par brisure spontanée de symétrie. À la même époque, l'étude systèmatique par L. Landau en Union Soviétique, des types de symétrie et de leurs brisures spontanées, mettait en quelques sorte fin au problème. Landau introduisait le concept fort important de paramètre d'ordre qui permet de caractériser la transition de phase et les phénomènes singuliers qui l'accompagnent. Dans la phase symétrique, c'est-à-dire désordonnée, ce paramètre est nul. En revanche dans la phase ordonnée, c'est-à-dire de symétrie brisée, il prend une valeur non nulle spontanément, i.e. en l'absence de tout sollicitation extérieure.
Mais le problème devait resurgir dans les années 60 par l'arrivée de moyens expérimentaux nouveaux, tels que les lasers ou la diffraction des neutrons, qui révélaient que la théorie développée par Landau, bien que souvent qualitativement en accord avec l'expérience, était en fait quantitativement erronée. Que l'on me permette de ne pas tenter d'exposer ici les travaux sur le groupe de renormalisation, qui permirent de résoudre ce problème (et bien d'autres à sa suite) et valurent à l'américain K. Wilson le prix Nobel de physique 1981.

Symétries du monde subnucléaire
Les concepts de symétrie, associée à des opérations qui laissent le système invariant, ont joué un rôle central dans les idées de la physique. Je me contenterai de citer, sans la développer ici, la contradiction entre les symétries galiléennes de la mécanique classique, et celles de Lorenz-Poincaré de l'électrodynamique de Maxwell. C'est elle qui conduisit Einstein à la relativité restreinte. Un peu plus tard Einstein, toujours guidé par le souci de décrire les lois de la physique de manière universelle, indépendante de l'état de mouvement des observateurs, aboutit par des considérations d'invariance, c'est-à-dire de symétrie, à la relativité générale, nouvelle théorie de la gravitation, base indispensable de la cosmologie contemporaine. Plus près de nous les quarks, éléments constitutifs de la matière « hadronique » (c'est-à-dire liée par des forces nucléaires fortes), ont été mis en évidence par les propriétés de symétrie présentées par la classification des particules élémentaires, une démarche qui rappelait l'élucidation de la structure des atomes à partir des régularités du tableau de Mendeleïev.
Mais je voudrais tenter de décrire ici les idées très importantes de symétrie locale (plus couramment appelées symétries de jauge, même si cette dénomination n'est pas très éclairante) qui ont permis de comprendre à la période contemporaine les interactions entre particules élémentaires (électromagnétiques ainsi que nucléaires faibles et fortes). La symétrie n'est plus cette fois une simple propriété de la structure, mais l'élément qui permet de fixer entièrement la dynamique des forces électromagnétiques et nucléaires.
En 1925 les travaux du physicien anglais P.A.M. Dirac établissaient une théorie de l'électron en interaction avec le rayonnement électromagnétique qui incorporait à la fois la nouvelle mécanique des quanta, la relativité et les équations de Maxwell de l'électromagnétisme. Le physicien-mathématicien H. Weyl réalisa que l'interaction entre les particules dotées d'une charge électrique et le rayonnement électromagnétique, telle qu'elle apparaissait dans la théorie de Dirac, résultait de manière unique d'une propriété de symétrie insoupçonnée. Renversant le raisonnement, cette symétrie de « jauge » est alors suffisante pour fixer la théorie de Maxwell-Dirac. Une explication précise demanderait un peu trop de formalisme. En quelques mots il faut savoir que les états d'une particule comme l'électron, sont décrits en mécanique quantique par une fonction d'onde qui est un nombre complexe en chaque point de l'espace-temps (on peut se représenter cela par un vecteur dans un plan associé à chaque point de l'espace-temps). La théorie ne change pas si on modifie cette phase de la même quantité pour tous les points de l'espace-temps (c'est-à-dire si on fait tourner tous ces vecteurs dans le plan du même angle). Cette première symétrie n'est pas tout à fait banale, puisqu'elle implique que la charge électrique est « conservée », c'est-à-dire que dans tout processus la charge finale est la même que la charge initiale.
Peut-on modifier cette phase indépendamment pour chaque point de l'espace-temps ? A priori la réponse est négative, c'est-à-dire qu'en l'absence de champ électromagnétique, cette opération n'est certainement pas une symétrie de la théorie. Mais Weyl comprit que le champ électromagnétique avait précisément pour fonction d'instituer cette propriété d'invariance locale. Le champ résultant de cette invariance postulée obéit aux équations de Maxwell, et il introduit manifestement des interactions de portée infinie puisqu'il autorise de changer indépendamment les phases en des points arbitrairement espacés. Ce champ est constitué en termes quantiques de photons comme l'avait compris Einstein, particules sans masse, puisque porteuses d'une symétrie s'étendant à des distances arbitraires infinies (la portée est proportionnelle à l'inverse de cette masse).
La généralisation de ces idées à des symétries plus complexes qu'une simple rotation de vecteurs dans un plan, fut l'Suvre de Yang et Mills en 1956. Y apparaissent d'autres champs de « jauge » que les photons, qui ne reçurent initialement guère d'attention car, pour les mêmes raisons, les particules associées étaient elles-aussi sans masse et donc les interactions médiées par ces champs de portée infinie. Les théoriciens en butte avec la compréhension des forces nucléaires, et en particulier les forces dites « faibles », responsables par exemple de la désintégration bêta de noyaux dotés d'un excès de neutrons, auraient volontiers adopter une théorie de Yang-Mills, mais la portée des forces nucléaires faibles ne dépassant guère quelques milliardièmes de milliardième de mètre, il paraissait impossible, absurde même, de vouloir les faire sortir d'une théorie dans laquelle la portée des interactions est arbitrairement grande. C'est la compréhension du mécanisme de symétrie brisée qui permit d'établir finalement cette théorie des interactions faibles, unifiée de surcroît avec la théorie de l'électromagnétisme (modèle de Weinberg-Salam et nombreux travaux dont ceux de T. Hooft et Veltman, prix Nobel 1999). On introduit, en plus des particules usuelles, un champ de matière supplémentaire, le « boson de Higgs » (toujours hypothétique et activement recherché expérimentalement). Dans une première phase symétrique, qui a peut-être existé pendant quelques infimes instants après le big-bang, le scénario de Yang-Mills avec tous ses champs de masse nulle était à l'Suvre, mais une brisure spontanée de symétrie, une transition de phase analogue à celle de la supraconductivité évoquée à propos de la matière macroscopique, faisait apparaître une nouvelle phase, celle de notre monde d'aujourd'hui, dans laquelle certains des champs de Yang-Mills devenaient massifs, comme il se devait pour être conforme aux observations. La découverte expérimentale des particules Z et W± au CERN dans les années soixante-dix, analogues aux photons dans leur rôle de porteurs d'une symétrie locale, mais massifs pour ne transmettre l'interaction que sur une courte portée, établissaient la validité de cette extraordinaire construction.

Transitions de phase et cosmologie : les modèles d'univers en inflation
Le scénario classique du « big-bang », univers en expansion adiabatique à partir d'une singularité initiale, a connu des succès multiples. Le plus notable est la prédiction, aujourd'hui abondamment confirmée, du rayonnement « fossile », abandonné à lui-même depuis des milliards d'années sans jamais interagir, dans lequel baigne l'univers. Mais diverses observations dont cette théorie devrait rendre compte, telles que la compréhension du rapport entre le nombre de particules massives et le nombre de photons observés aujourd'hui, ou encore la nécessité d'une courbure de l'univers excessivement faible dans les premiers instants du big-bang, ont conduit là aussi à invoquer un mécanisme de symétrie spontanément brisée à l'origine de notre univers. Ces modèles d'univers en inflation, proposés par l'américain A. Guth et le russe (de Stanford désormais) A. Linde, résolvent les problèmes mentionnés ci-dessus si l'on suppose que l'univers a connu une transition de phase avec une brusque augmentation d'entropie, dans laquelle notre espace-temps est apparu, un peu comme une bulle de vapeur dans un liquide à son point d'ébullition. Diverses variantes de cette idée sont aujourd'hui considérées, telle l'inflation chaotique qui suppose la formation d'une écume de bulles, sans connections causales mutuelles, évoluant chacune en différents types d'univers. Seule l'une d'entre elles serait devenu notre univers. La validation de ces divers scénarios repose sur leur capacité à reproduire les paramètres aujourd'hui observés de notre univers, et il est sans doute bien trop tôt pour conclure, mais les cosmologistes semblent très généralement devoir faire appel à une symétrie brisée pour modéliser l'évolution de l'univers.
Conclusion
Je suis conscient que ces quelques lignes doivent paraître souvent bien incompréhensibles. Je souhaiterais simplement que le lecteur qui m'aurait accompagné jusque-là, partage notre émerveillement devant un monde dont l'évolution et dont les forces en présence, sont presque exclusivement fixées par ses symétries et leurs brisures. Jamais un si petit nombre de principes n'avaient suffi à embrasser une telle diversité de situations. En définitive, à l'échelle des constituants élémentaires de la matière, seule la compréhension d'une théorie quantique de la gravitation échappe encore à cette construction.
Lectures complémentaires
Les actes du 4e colloque Physique et interrogations fondamentales, intitulé « Symétrie et brisure de symétrie » ont été publiés par EDP Sciences en 1999. Plusieurs contributions développent certains des thèmes évoqués ci-dessus.

 

VIDEO     canal U       LIEN

 
 
 
 

LES NANOSTRUCTURES SEMI-CONDUCTRICES

 

 

 

 

 

 

LES NANOSTRUCTURES SEMI-CONDUCTRICES

Lorsqu'un matériau semi-conducteur est structuré à l'échelle du nanomètre ses propriétés électroniques et optiques sont gouvernées par la mécanique quantique. Le puits quantique, formé par une couche mince semi-conductrice d'épaisseur nanométrique, est très communément employé depuis 20 ans pour fabriquer des composants très performants (diodes laser, transistors à gaz d'électrons bidimensionnel). De nombreuses études sont aujourd'hui consacrées aux boîtes quantiques semi-conductrices, nanostructures capables de confiner les électrons à l'échelle du nanomètre dans toutes les directions de l'espace. Après avoir présenté et comparé les principales stratégies permettant de fabriquer ces nano-objets, l'exposé s'attachera à montrer combien leurs propriétés sont originales. Une boîte quantique isolée se comporte par exemple à bien des égards comme un macro-atome artificiel ; cette propriété très intéressante permet de reproduire dans un système solide des expériences d'optique quantique jusque là réalisées avec des systèmes atomiques. Pour conclure, les perspectives d'application très prometteuses des boîtes quantiques dans des domaines aussi variés que l'optoélectronique, les communications quantiques, la micro/nanoélectronique ou la biologie seront brièvement présentées.

Texte de la 586 e conférence de l'Université de tous les savoirs prononcée le 8 juillet 2005
Par Jean-Michel Gérard * « Les nanostructures semiconductrices »

Au cours des vingt dernières années, les chercheurs ont appris à structurer la matière à l'échelle du nanomètre, en particulier pour les besoins de la microélectronique. Rappelons qu'un nanomètre, c'est un milliardième de mètre, c'est-à-dire cinquante mille fois plus petit que le diamètre d'un cheveu. On parle donc ici d'une échelle extrêmement petite, de l'ordre de quelques distances inter-atomiques au sein des molécules ou des corps solides. A l'échelle du nanomètre, les propriétés physiques sont très différentes de celles qui sont observables dans notre monde macroscopique et sont gouvernées, pour l'essentiel, par la mécanique quantique. Nous allons montrer ici qu'il est particulièrement intéressant de fabriquer des objets de taille nanométrique à partir de matériaux semi-conducteurs. Ces « nanostructures semiconductrices » nous ouvrent des perspectives d'application originales et importantes, grâce à leurs propriétés très particulières.
Nous utilisons tous au quotidien des composants nanométriques, souvent sans le savoir. A titre d'exemple, lorsque nous écoutons notre lecteur de disque compact, nous mettons en Suvre un laser semiconducteur « à puits quantique » pour lire l'information stockée sur le disque. Le cSur de ce composant est constitué par un empilement de couches semiconductrices, qui comporte notamment une couche très fine, le puits quantique, dont l'épaisseur est de l'ordre de 10 nanomètres. Ce composant a été développé il y a une vingtaine d'années et a aujourd'hui de très nombreuses applications.
Les semi-conducteurs constituent une famille de matériaux particulièrement commodes pour fabriquer des nano-structures et exploiter leurs propriétés originales. Après avoir rappelé en termes simples ce qu'est un semi-conducteur, je décrirai les effets quantiques de base attendus pour des structures semi-conductrices de taille nanométrique. Je présenterai ensuite les techniques de fabrication à cette échelle avant d'illustrer par quelques exemples les propriétés et applications des nanostructures semiconductrices.
Qu'est ce qu'un semiconducteur ?
Pour comprendre les propriétés électriques ou optiques des matériaux, il faut de façon générale connaître les états possibles pour les électrons dans le système considéré. Rappelons que ces états sont par exemple très différents pour un électron libre dans l'espace et pour un électron appartenant à un atome. Si l'électron est libre, il peut avoir n'importe quelle vitesse et par conséquent n'importe quelle énergie. S'il appartient à un atome isolé, son énergie ne peut au contraire prendre que certaines valeurs bien définies. Ceci résulte du fait que l'électron, attiré par le noyau atomique, est piégé au voisinage de celui-ci. Plus généralement, la mécanique quantique nous apprend que toute particule dont la position est confinée dans les trois dimensions de l'espace possède un ensemble discret d'énergies permises.
Considérons à présent la situation dans laquelle l'électron n'est plus dans un espace libre mais dans un solide, par exemple un morceau de fer ou un morceau de silicium. Dans ce cas, l'énergie de cet électron ne peut prendre que des valeurs comprises dans certains intervalles (ou « bandes ») d'énergie permise (voir la figure 1). Ceux-ci sont séparés par des « bandes interdites », plages d'énergie pour lesquels le système ne possède aucun état quantique permettant à l'électron d'avoir cette énergie. La connaissance de cette structure de bandes d'un matériau donné permet de définir si celui-ci est un métal ou un isolant. On connaît en effet le nombre d'électrons de ce solide et, d'après une loi physique connue sous le nom de principe de Pauli, on sait qu'on ne peut mettre dans un état quantique donné qu'un seul électron. Dans une « expérience de pensée », plaçons donc les électrons du solide à l'intérieur de ces bandes d'états disponibles. Pour cela, on remplit successivement les différents états, en commençant par ceux de plus basse énergie, jusqu'à ce que tous les électrons soient placés. Dans le cas d'un métal, ce processus s'arrête au milieu d'une bande d'états (voir figure 1). Un tel système électronique va pouvoir répondre très facilement à une sollicitation par une force extérieure, par exemple un champ électrique. En effet, les électrons qui occupent la bande partiellement remplie vont pouvoir se redistribuer aisément au sein de cette bande, puisqu'elle comprend à la fois des états occupés et des états vides très proches en énergie les uns des autres. Un tel solide sera un bon conducteur du courant, et est dit métallique. Supposons au contraire qu'on soit dans une situation pour laquelle les électrons remplissent parfaitement un certain nombre de bandes d'états, toutes les autres étant vides. Dans ce cas, il est beaucoup plus difficile de changer la configuration électronique du système, car il faut apporter une énergie importante pour faire passer un électron d'une bande d'états pleine à une bande d'états vide. Un tel solide, qui ne peut pas répondre à une sollicitation par un champ électrique, est un isolant. Plus précisément, on parlera de matériau semi-conducteur ou de matériau isolant, selon qu'il est possible ou non de rendre ce matériau partiellement conducteur en le fonctionnalisant, en suivant une méthode simple que nous allons décrire.
Nous avons vu que dans un isolant, les bandes d'états sont soit parfaitement remplies par les électrons, soit entièrement vides. On va pouvoir dès lors fonctionnaliser ce matériau en introduisant volontairement des impuretés, ce qu'on appelle « doper » le matériau. Imaginez, par exemple, que dans un cristal de silicium, vous remplaciez des atomes de silicium par des atomes de phosphore qui apportent chacun un électron en plus. Pour placer ces électrons excédentaires, il nous faut commencer à remplir une nouvelle bande, qu'on appelle bande de conduction. Puisqu'ils occupent une bande partiellement occupée, ces électrons vont pouvoir conduire le courant, et la conductibilité du matériau peut être ajustée très simplement en dosant le nombre d'électrons qu'on introduit. De la même façon, si vous insérez des impuretés qui apportent un électron en moins, la dernière bande d'état occupée, appelée bande de valence, ne sera pas complètement pleine. Elle comportera certains « trous », qui permettent ici encore au matériau de devenir conducteur. Le contrôle du dopage des semiconducteurs a constitué une étape clef pour le développement des diodes, des transistors et plus généralement pour l'essor de la microélectronique et de l'optoélectronique.
Figure 1 : Représentation schématique des états électroniques et de leur remplissage par les électrons du solide dans le cas d'un métal, d'un semiconducteur pur, et d'un semiconducteur dopé par des impuretés « donneuses d'électron ».
En considérant la figure 1 b), nous allons voir qu'un semi-conducteur non dopé présente des propriétés très spécifiques vis-à-vis de la lumière. La lumière et la matière interagissent par échange de quanta d'énergie comme l'a montré Einstein en 1905. Ces quantas (les « photons ») peuvent être vus comme des petits grains de lumière, qui ont une énergie hn, où h la constante de Planck et n la fréquence de l'onde lumineuse. Si ce quantum d'énergie hn est plus petit que la largeur de la bande interdite qui sépare la bande de valence de la bande de conduction, le principe de conservation d'énergie nous empêche de promouvoir un électron de la bande de valence à la bande de conduction. Le semi-conducteur ne peut absorber un tel photon, et est donc transparent pour un rayonnement lumineux de fréquence n. Par contre, si l'énergie hn est plus grande que la largeur de la bande d'énergie interdite, il devient possible de faire passer un électron de la bande de valence à la bande de conduction en absorbant un photon.
De plus, un semi-conducteur, peut être mis en Suvre pour émettre de la lumière de fréquence relativement bien définie. Imaginons que nous ayons placé par un moyen idoine, un certain nombre d'électrons dans la bande de conduction et un certain nombre de trous dans la bande de valence. Chaque électron pourra alors redescendre de la bande de conduction à la bande de valence en émettant un photon, avec une énergie voisine de la largeur de la bande interdite. En jouant sur la nature ou la composition du matériau semiconducteur, on peut ainsi ajuster la fréquence du rayonnement émis. Les matériaux les plus employés pour cette fonction sont le nitrure de gallium GaN, le phosphure d'indium InP, ou encore l'arséniure de gallium GaAs, tandis que le silicium, matériau roi de l'électronique, n'est pas un bon émetteur de lumière.
Le principal composant optoélectronique en termes de marché (loin devant la diode laser) est la diode électroluminescente. Ce composant très répandu est largement utilisé pour la visualisation (voyants lumineux, feux de signalisation routière, écrans plats extérieurs...) et de plus en plus pour l'éclairage. Nous reviendrons plus loin sur quelques avancées récentes importantes dans ce domaine.
On peut comprendre relativement simplement comment les diodes électroluminescentes et les diodes lasers émettent de la lumière lorsqu'on leur injecte un courant électrique (figure 2). Juxtaposons côte à côte deux morceaux de semi-conducteur dopés, l'un riche en électrons (SC « de type n ») et l'autre pauvre en électrons (SC « de type p »). Des électrons pourront alors passer de la bande de conduction du matériau de type n vers des états vides de valence du matériau de type p, passage qui s'accompagne de l'émission de photons. Afin d'entretenir ce phénomène, il faut bien entendu apporter des électrons au matériau de type n et en extraire du matériau de type p. Ceci est simplement réalisé en appliquant une tension électrique entre ces deux matériaux via des contacts métalliques.

Figure 2 : Principe de fonctionnement d'une diode électroluminescente (M = métal, SC = semi-conducteur). A droite, diodes électroluminescentes réalisées à partir du semiconducteur GaN (nitrure de gallium).
Afin d'accroître la fonctionnalité des matériaux semi-conducteurs, on peut aussi associer des semi-conducteurs de nature différente, présentant des largeurs de bande interdite différentes, de façon à réaliser une « hétérostructure » semiconductrice. Insérons par exemple une couche d'un matériau à petite bande interdite, P, au sein d'un semiconducteur G de plus grande bande interdite. Plaçons un électron dans la bande de conduction du matériau G. Lorsqu'il se déplace au sein de celui-ci, l'électron « voit » un univers essentiellement uniforme (tous les endroits se ressemblent dans un cristal, les atomes étant parfaitement bien ordonnés). A contrario, lorsqu'il arrive à l'interface entre les matériaux P et G, cet électron peut abaisser son énergie en passant de G à P, car il existe des états de conduction dans le matériau P à plus basse énergie que dans le matériau G. En quelque sorte, l'électron se comporte ici un peu comme une bille qui rencontrerait une marche d'escalier. Il était sur la marche du haut, il saute et tombe sur la marche du bas. On peut bien entendu décliner cette idée de très nombreuses façons, afin de structurer le profil de potentiel vu par l'électron. On va construire pour lui un paysage avec des collines et des vallées, dont le profil et la hauteur peuvent être dessinés quasiment à volonté en jouant avec la nature des matériaux.
Les nanostructures semiconductrices
Invention capitale, les hétérostructures semiconductrices ont déjà valu plusieurs prix Nobel à leurs inventeurs. Derniers en date, Z. Alferov et H. Kroemer se sont vus récompenser en 2000 pour avoir « développé des hétérostructures semiconductrices employées dans les domaines de l'électronique ultrarapide et de l'optoélectronique », selon les termes du comité Nobel. Les hétérostructures « quantiques » sont quant à elles apparues à la fin des années 70. Le principe reste ici le même, à ceci près qu'on va à présent structurer la matière à l'échelle du nanomètre de façon à voir apparaître des effets quantiques. Parmi les exemples les plus célèbres, on peut citer le super-réseau, qui est une sorte de millefeuille, constitué d'un empilement périodique G/P/G/P...de couches semiconductrices de grande bande interdite (G) et de petite bande interdite (P) de quelques nanomètres d'épaisseur. Les super-réseaux possèdent des propriétés de conduction électrique très particulières, dont la découverte a valu le prix Nobel 1973 à L. Esaki. On peut aussi jouer à confiner les électrons dans des nanostructures. L'exemple le plus simple, déjà cité, est le puits quantique G/P/G constitué par une couche mince P, d'épaisseur nanométrique, placée au sein d'un matériau G de plus grande bande interdite. Un électron de conduction, placé dans le puits quantique, est confiné selon une direction de l'espace, mais reste libre de se mouvoir dans les deux autres dimensions. On peut également fabriquer des fils quantiques ou des boîtes quantiques, pour lesquels l'électron est confiné selon deux dimensions ou trois dimensions. Dans le cas des boîtes quantiques, l'électron est confiné dans toutes les directions ; cette situation est tout à fait analogue au cas de l'électron piégé au voisinage du noyau dans un atome. On s'attend donc à retrouver, dans le cas des boîtes quantiques, un système présentant (comme l'atome) des états électroniques discrets, bien séparés en énergie.
Figure 3 : Représentation schématique d'un puits quantique (PQ), de fils quantiques (FQs) et de boîtes quantiques (BQs). Vue en coupe de puits quantiques de GaN dans AlN, obtenue par microscopie électronique à haute résolution (Remerciements à J.L. Rouvière et B. Daudin, CEA).
On sait réaliser des puits quantiques de bonne qualité depuis le début des années 80. A titre d'exemple, la figure 3 montre une vue en coupe d'un puits quantique de GaN au sein d'une couche de nitrure d'aluminium AlN, obtenue par microscopie électronique. Sur cette image, chaque ligne correspond à un plan d'atomes. On voit qu'en fait la structure est très proche de la perfection : d'une part, on passe de la couche de GaN à la couche d'AlN via un changement de composition abrupt à l'échelle atomique ; d'autre part, les interfaces sont presque parfaitement plates, à la présence près de quelques marches atomiques. Comment obtient-on en pratique un tel contrôle ? La perfection de ces objets résulte de la mise en Suvre d'une technique de déposition de films en couches minces, qui s'appelle l'épitaxie par jets moléculaires. Cette technique consiste à prendre un substrat, c'est-à-dire un cristal semi-conducteur sans défaut, sur lequel on va déposer l'hétérostructure désirée. Pour déposer une couche de nature donnée, par exemple en GaAs, on expose la surface du substrat à des flux d'atomes, ici de gallium et d'arsenic, évaporés à partir de cellules chauffées contenant des charges extrêmement pures de ces éléments. On ajuste la composition du matériau qu'on dépose en contrôlant les flux de ces différentes familles d'atomes, et les épaisseurs des couches déposées en jouant sur le temps de déposition. L'épitaxie par jets moléculaires se déroule dans une enceinte dans laquelle on réalise un vide résiduel extrêmement poussé (10-13 atmosphères !) de façon à éviter toute contamination par des atomes indésirables.

Les puits quantiques constituent un exemple simple de système dont les propriétés électroniques sont gouvernées par la mécanique quantique. Ces effets quantiques résultent du confinement de l'électron dans la couche « puits ». On sait depuis L. De Broglie qu'à toute particule on peut associer une onde, et que cette onde représente en fait la probabilité de présence de la particule dans l'espace. Toute onde confinée présente des fréquences de résonance particulière. Considérons par exemple la corde d'un violon ; elle a une longueur bien définie, est fixée à ses deux extrémités, et possède des fréquences de résonance spécifiques : la « note » qui lui est associée, ainsi que ses harmoniques, dont la fréquence est un multiple de celle de la note fondamentale. Il en est de même pour l'électron dans le puits quantique, dont l'onde associée va devoir s'adapter à la taille du puits. De façon analogue à la corde vibrante, dont la longueur est égale à un multiple de la demi longueur d'onde, la longueur d'onde de De Broglie l de l'électron est reliée à l'épaisseur L du puits par la relation L= n. l /2 où n est un nombre entier. De même que la longueur d'onde, l'énergie de l'électron (associée à son mouvement dans une direction perpendiculaire au plan du puits) ne peut prendre qu'un ensemble de valeurs discrètes données par l'expression suivante : . [1] Cette relation nous montre que l'électron a toujours une énergie cinétique minimale, donnée par E1, dont la valeur croît rapidement (comme 1/L2) lorsqu'on réduit la taille L du puits quantique. De même, la séparation énergétique entre les niveaux discrets de l'électron Em- En croît, elle aussi, comme 1/L2. L'étude expérimentale des puits quantiques par spectroscopie optique, par exemple l'étude de leurs propriétés d'absorption de la lumière, a parfaitement confirmé l'ensemble de ces prédictions. Les propriétés des puits quantiques ont été discutées plus en détail par E. Rosencher dans le cadre de ce cycle de conférences de l'UTLS, ainsi que leurs applications très variées en optoélectronique.
Nous allons nous intéresser plus spécifiquement dans la suite de cet exposé aux propriétés et applications des boîtes quantiques, qui ont fait l'objet de très nombreuses études au cours des dix dernières années. Initialement, ces nanostructures ont été principalement développées dans le but d'améliorer les propriétés des diodes laser. Pourquoi fabriquer des boîtes quantiques, et que s'attend t-on à gagner par rapport au laser à puits quantique ?
Ouvrons le boîtier de votre lecteur CD, et regardons à quoi ressemble la diode laser qu'il utilise pour lire le disque. Si on réalise une vue en coupe de ce composant, de façon à obtenir une image analogue à la figure 3, on verra qu'il est constitué par un empilement de couches semi-conductrices. L'une d'elles, de quelques centaines de nanomètres d'épaisseur, sert à guider le faisceau laser à l'intérieur du composant ; en son sein, on trouvera une ou quelques couches plus fines, formant des puits quantiques, qui vont amplifier cette onde laser s'ils sont excités par un courant électrique. Bien que les diodes laser soient des composants présentant des performances tout à fait remarquables, celles-ci sont cependant limitées par certaines lois fondamentales de la physique. Lorsqu'on met des électrons et des trous dans un puits quantique à la température T, l'énergie de ceux-ci n'est pas bien définie, mais distribuée sur une bande d'énergie de largeur typique kT, où k est la constante de Boltzmann. Le laser, quant à lui, fonctionne avec une fréquence d'émission n bien précise. On voit donc que la plupart des paires électron-trou injectées dans le puits, dont l'énergie est différente de hn, ne participent pas à l'émission laser. Ces paires peuvent cependant se recombiner, en émettant un photon par émission spontanée à une énergie différente de hn. Cette consommation d'électrons et de trous, inutiles pour le fonctionnement du laser, accroît la valeur du courant de seuil du laser, courant minimal qu'il faut lui injecter pour assurer son fonctionnement.
En 1982, Y. Arakawa et Y. Sakaki, de l'Université de Tokyo, ont proposé de réaliser des lasers à boîtes quantiques. L'idée sous-jacente était simple, conceptuellement du moins. Dans une boîte quantique, l'électron est confiné dans toutes les directions de l'espace, et ses états électroniques possibles sont discrets, comme pour un atome isolé. Si la boîte est assez petite, les états vont être très bien séparés en énergie comme on l'a vu auparavant, en discutant des effets de confinement. Supposons donc que cette séparation soit plus grande que l'énergie thermique kT (qui vaut 25 meV à température ambiante). Lorsqu'on injecte un électron dans la boîte quantique, celui-ci ne pourra occuper qu'un seul état, celui de plus basse énergie, car l'énergie thermique est insuffisante pour lui permettre d'occuper des états plus hauts en énergie. Il en est de même pour un trou, dans les états de valence de la boîte quantique. On espère donc, si les boîtes quantiques sont toutes identiques, que tous les électrons et les trous injectés vont travailler à la même énergie, ce qui devrait révolutionner les propriétés des lasers : on s'attend par exemple à ce que le courant de seuil soit réduit par un facteur 100 !

Cela étant dit, il faut que l'ensemble de boîtes quantiques satisfasse, pour atteindre cet objectif, un ensemble de conditions draconiennes. Tout d'abord, on veut que les états de la boîte quantique soient très bien séparés en énergie (à l'échelle de l'énergie thermique kT), de façon à ce que seul le premier état électronique de la boîte soit peuplé. Un calcul simple montre qu'alors la boîte quantique doit être plus petite que 15 nanomètres environ pour chacune de ses trois dimensions. Bien entendu, il faut aussi que les boîtes quantiques soient pratiquement identiques. En effet, la position des niveaux quantiques dans une boîte dépend de la taille de la boîte ; elle en dépend même très fortement pour un objet aussi petit, puisque l'énergie de confinement varie comme 1/L2, comme on l'a vu plus haut. On peut montrer facilement que la dispersion des tailles des boîtes quantiques doit être nettement plus petite que 15%. A notre échelle, une précision relative de 15% paraît quelque peu grossière, mais dans le cas présent, cela signifie que les boîtes quantiques doivent être fabriquées avec une précision absolue nettement meilleure que 2 nanomètres ! Enfin, il nous faut mettre en Suvre suffisamment de boîtes quantiques pour que le laser fonctionne effectivement, ce qui implique de fabriquer de l'ordre de un milliard à cent milliards de boîtes par centimètre carré. Chacune de ces trois contraintes, et a fortiori leur combinaison, paraissent extrêmement difficiles à remplir.
Comment fabriquer des boîtes quantiques ?
De nombreuses approches ont été explorées pour fabriquer des boîtes quantiques au cours des vingt dernières années. De façon imagée, on peut dire que la première à avoir fait l'objet d'un intérêt soutenu est celle du sculpteur. On part d'un puits quantique, qu'on cisèle au burin pour former un plot vertical, qui ne contient qu'une toute petite partie du puits. On forme de cette façon une boîte quantique pour laquelle l'électron est confiné suivant un axe vertical par la modulation de composition du semiconducteur (comme pour le puits quantique), et latéralement par les bords du plot. On sait fabriquer de tels objets en utilisant les outils de nanofabrication couramment employés en microélectronique, en particulier la lithographie électronique (qui permet de dessiner des motifs de taille nanométrique dans une résine à l'aide d'un faisceau d'électrons), et la gravure sèche assistée par plasma, qui permet de reproduire ce motif dans le semiconducteur. Bien qu'on ait réussi à fabriquer des boîtes quantiques par cette voie dès 1990, cette approche aujourd'hui abandonnée pose deux problèmes majeurs. D'une part, la lithographie électronique est une technique séquentielle ; il nous faut dessiner le motif désiré dans la résine boîte par boîte. Cette étape est donc fastidieuse et nécessairement coûteuse. D'autre part, on ne sait pas lithographier une résine organique à une échelle inférieure à 3 nanomètres environ. Cette approche n'est donc pas adaptée pour fabriquer un ensemble de boîtes quantiques avec le degré de précision requis pour faire un laser performant.
Fort heureusement, il s'est produit au début des années 90 deux miracles, de ceux dont la Nature a le secret. On a en effet alors découvert qu'il est possible d'obtenir des boîtes quantiques presque identiques très simplement, par auto-assemblage. Nous allons à présent présenter deux méthodes de fabrication de ce type, qui sont aujourd'hui très couramment employées.
La synthèse chimique de boîtes quantiques est assez proche de notre expérience quotidienne. Prenons une casserole d'eau salée, que nous laissons trop longtemps sur le feu. Au début, l'eau s'évapore progressivement, sans qu'on observe de changement particulier. A partir d'un certain moment, on verra cependant de tout petits cristaux de sel commencer à se déposer sur les bords de la casserole. L'eau salée a atteint sa concentration de saturation, ce qui conduit à la précipitation du sel excédentaire sous forme de petits cristaux solides. On peut faire à peu près la même chose à l'échelle nanométrique, avec des semi-conducteurs, par exemple avec le séléniure de cadmium CdSe. Dans la pratique, on prend un récipient dans lequel on met en solution de l'oxyde de cadmium dans un solvant organique. On injecte ensuite brutalement du sélénium dans la solution. Ce faisant, on dépasse le seuil de saturation pour CdSe et on déclenche la nucléation d'un très grand nombre de cristaux nanométriques de CdSe. A ce stade, les molécules de solvant viennent se fixer à la surface des nanocristaux, ce qui va ralentir leur croissance. Du fait de leur formation quasi-simultanée et de leur croissance lente, les nanocristaux conservent des tailles très voisines au cours du temps. Lorsqu'on arrête la croissance à un moment donné en cessant d'apporter du sélénium à la solution, on obtient un ensemble de nanocristaux dont la dispersion des tailles peut être de l'ordre de 5 %, ce qui est tout à fait remarquable pour des objets dont la taille n'est que de 3 nanomètres ! Cette merveilleuse homogénéité est illustrée par le cliché de microscopie électronique présenté sur la figure 4.
Figure 4 : A gauche, vue au microscope électronique d'un ensemble de nanocristaux de CdSe obtenus par synthèse chimique. La fluctuation relative de leur rayon R est de l'ordre de 5%. A droite, observation sous éclairage ultraviolet de flacons contenant des nanocristaux de CdSe dans un solvant: la couleur de la suspension colloïdale peut être ajustée dans tout le spectre visible en jouant sur la taille moyenne des nanocristaux. Remerciements à P. Reiss et J. Bleuse (CEA).
La seconde approche permet de fabriquer des boîtes quantiques par auto-assemblage en utilisant -comme pour les puits quantiques- l'épitaxie par jets moléculaires. Contrairement aux nanocristaux, ces boîtes quantiques vont pouvoir être intégrées facilement au sein d'un composant semi-conducteur, par exemple un laser. Pour présenter cette méthode, considérons une image d'une surface de GaAs sur laquelle on a déposé deux couches moléculaires (soit un demi-nanomètre en moyenne) d'InAs. Cette image, présentée figure 5, a été obtenue par microscopie à force atomique, une technique qui permet d'avoir une résolution à l'échelle atomique sur la topographie d'une surface. On constate ici la formation spontanée d'un ensemble dense d'îlots de taille nanométrique à la surface de l'échantillon. Ce mode de croissance tridimensionnel avec formation d'îlots est en fait observé pour un très grand nombre de couples de matériaux semi-conducteurs.
Pourquoi ce mode de croissance tridimensionnel est-il observé ici ? Lorsqu'on dépose par croissance épitaxiale un semiconducteur A sur un substrat S, on choisit en général deux matériaux pour lesquels la géométrie d'agencement des atomes et leurs distances mutuelles sont les mêmes. Les atomes déposés pour former la couche A adoptent alors de façon naturelle le même ordre cristallin que dans le substrat. (On rencontre une situation analogue lorsqu'on joue aux LegoTM : on peut facilement accrocher des pièces rouges sur un plan de pièces blanches). La croissance se fait alors couche atomique par couche atomique et permet de réaliser des puits quantiques. La situation est différente pour InAs et GaAs, qui ont une même structure cristalline, mais des distances inter-atomiques assez différentes (7% environ). (Une faible différence de distance entre plots d'accrochage suffit pour que les pièces de jeux de constructions différents soient incompatibles !). Pour déposer une couche d'InAs sur GaAs, il va falloir déformer la maille cristalline d'InAs, de façon à adapter la distance entre atomes voisins dans le plan de la couche au paramètre de maille du substrat. Une croissance couche par couche reste ainsi possible, mais la déformation élastique de la couche déposée a un coût en énergie important. Il y a deux solutions pour relaxer cette énergie élastique. La première repose sur la création de défauts cristallins, les dislocations. Une autre solution, adoptée par la Nature dans le cas d'InAs sur GaAs, réside dans la formation d'îlots tridimensionnels. Les atomes à la surface de l'îlot n'ayant pas d'atomes voisins, ils peuvent se « pousser de côté » pour donner plus de place aux autres. Cette morphologie particulière permet donc à la couche d'InAs contrainte de diminuer son énergie élastique.
Figure 5 : A gauche, vue au microscope à force atomique de la surface d'une couche fine d'InAs épitaxiée sur un substrat de GaAs ; les îlots d'InAs ont une hauteur moyenne de 5 nm et une largeur de 20 nm environ à leur base. A droite, vue en coupe d'un plan de boîtes quantiques d'InAs dans GaAs, obtenue par microscopie électronique. Remerciements à JM Moison et A Ponchet, CNRS.
Une fois qu'on a formé ces îlots nanométriques d'InAs, il suffit de déposer une nouvelle couche de GaAs en surface. On obtient alors des inclusions d'InAs, matériau de petite bande interdite, au milieu de GaAs, matériau de plus grande bande interdite, qui constituent de ce fait des boîtes quantiques. Ce procédé de fabrication collectif permet de réaliser en quelques secondes de l'ordre de 10 à 100 milliards de boîtes quantiques par centimètre carré. Il est de surcroît extrêmement propre, puisqu'il se déroule dans l'enceinte du bâti d'épitaxie par jet moléculaire. Quant aux fluctuations de taille, celles-ci ne dépassent pas 7 à 10% lorsque le procédé est optimisé, et sont donc d'amplitude suffisamment faible pour qu'on puisse exploiter ces boîtes quantiques dans des composants optoélectroniques.
Quelques propriétés optiques des nanocristaux et des boîtes quantiques
Considérons à présent les propriétés optiques de ces nano-objets. Nous allons voir que celles-ci présentent des signatures très claires d'effets quantiques. Observons tout d'abord la figure 4, qui présente une série de petites fioles contenant des nanocristaux en solution. Ceux-ci sont constitués du même semi-conducteur, le sélénium de cadmium CdSe. Cependant, on a laissé croître ces nano-cristaux plus ou moins longtemps d'un échantillon à l'autre, de sorte que le diamètre moyen varie graduellement de 3 nanomètres, pour la fiole de gauche à 5nm pour celle de droite. Cette variation de taille provoque un changement spectaculaire de la couleur des nano-cristaux. Cette couleur, qui est ici observée sous excitation par une lampe UV (on est donc en train d'observer l'émission des nano-cristaux), reflète l'énergie de bande interdite de ces boîtes quantiques. Parce qu'on confine fortement l'électron dans ces nano-objets, l'énergie des états électroniques, et donc la largeur de la bande interdite, sont très différentes de celle du semi-conducteur massif CdSe. En ce qui concerne les applications associées à cet effet, il faut mentionner qu'une technique très voisine est employée pour fabriquer des filtres colorés, très utilisés dans les laboratoires d'optique. Au lieu de réaliser la croissance des nanocristaux en solution, on peut en effet les faire précipiter au sein d'une matrice vitreuse, pendant que le verre est fondu. Ce procédé était déjà connu au XVIIème siècle par les artisans verriers de Murano.

Revenons à présent aux boîtes quantiques d'InAs dans GaAs obtenues par épitaxie. Lorsqu'on observe leur émission collective, on constate tout d'abord que sa distribution spectrale est centrée autour d'une énergie hn beaucoup plus grande que la bande interdite du semiconducteur massif InAs, et qui croît lorsque la taille moyenne des boîtes quantiques diminue. Ici encore, le confinement quantique des électrons et des trous entraîne une modification très marquée de la bande interdite du système et donc de ses propriétés d'émission. On constate par ailleurs que cette émission collective est distribuée sur une gamme spectrale très large, typiquement cent mille fois plus large que pour un atome ! D'où cela vient-il ? On se doute que les fluctuations de taille de boîte à boîte sont partiellement responsables de ce résultat. Pour confirmer cette hypothèse et connaître les propriétés intrinsèques des boîtes quantiques, il faut isoler et étudier une boîte quantique unique. Partant d'un plan de boîtes quantiques tel que celui de la figure 5, on va graver celui-ci de façon à définir des plots, dont la taille est de l'ordre de 100 nanomètres, et qui ne contiennent que quelques boîtes, voire une seule boîte. Lorsqu'on réalise cette expérience, on peut observer un spectre d'émission constitué de quelques raies spectrales très fines, qui correspondent chacune à une boîte quantique spécifique (voir la figure 6). Ce comportement, observé à basse température (T
Figure 6 : Spectre d'émission mesuré à basse température (10K) pour un ensemble de boîtes quantiques (à gauche) et pour une boîte quantique isolée, à droite. On notera que l'échelle des énergies est environ 100 fois plus petite pour le spectre de la boîte unique.
Lorsqu'on souhaite discuter les applications futures des boîtes quantiques, par exemple dans le domaine des lasers, il est bien entendu essentiel de considérer leurs propriétés optiques à température ambiante. Nous avons précédemment montré qu'à basse température, une boîte quantique émet, comme un atome, un rayonnement de très faible largeur spectrale. Malheureusement, on perd cette propriété très séduisante dès lors qu'on dépasse une température supérieure à une centaine de Kelvin typiquement. A température ambiante (300K), la raie d'émission observée pour une boîte unique est voisine de 10 milli-électrons volt (soit environ kT/2), ce qui est comparable à la largeur de raie observée pour un puits quantique. On est donc ici très loin de l'image de l'atome artificiel. Plus on élève la température, plus les vibrations des atomes constituant le cristal semiconducteur sont importantes. Ces vibrations cristallines viennent perturber le système électronique et de ce fait élargissent l'émission associée à une boîte unique. Ce résultat, qui n'a été découvert que relativement récemment, nous montre donc que l'image de l'atome artificiel isolé n'est pas du tout valide à haute température. Une boîte quantique est un système électronique localisé fortement couplé à son environnement. En sus de son importance conceptuelle, ce résultat nous invite à reconsidérer les applications initialement envisagées pour les boîtes quantiques.
Quelles applications pour les boîtes quantiques ?
L'observation de raies d'émission larges pour les boîtes quantiques isolées à 300K a sonné le glas du vieux rêve d'Arakawa et Sakaki : il ne sera pas possible d'obtenir un laser à boîte quantique 100 fois plus performant qu'un laser à puits quantique. L'idée de départ était d'avoir une raie d'émission très fine - pour un ensemble de boîtes quantiques très similaires- , qui permette de bien mieux utiliser les paires électron-trou injectées qu'avec un puits quantique. On voit ici que pour une raison tout à fait intrinsèque, ce couplage aux vibrations cristallines, la largeur de raie d'une boîte unique et donc a fortiori d'un plan de boîtes ne peut pas être beaucoup plus étroite que pour un puits quantique.
Très souvent, dans le monde de la recherche, lorsqu'un rêve s'écroule, dix autres naissent. C'est ici le cas. En s'attachant à étudier les propriétés spécifiques des boîtes quantiques, on leur trouve jour après jour de nombreuses opportunités d'application. Il ne saurait ici être question d'en faire une présentation exhaustive ; je n'en citerai donc que quelques unes, choisies pour leur valeur exemplaire.
Plusieurs équipes de recherche ont développé des lasers à boîtes quantiques émettant au voisinage de 1.3 µm - l'une des principales longueurs d'onde employées pour les télécommunications sur fibre optique -, lasers dont les propriétés sont beaucoup moins sensibles à la température celles des lasers à puits quantiques disponibles dans la même gamme spectrale (Cette propriété résulte de la densité d'états discrète des boîtes quantiques : faire passer un électron d'un état à un autre requiert un changement notable de son énergie). Bien que les lasers à boîtes quantiques soient un peu moins performants que les lasers à puits quantiques, leur faible sensibilité aux variations de température permet de simplifier le circuit électronique d'alimentation et de contrôle du laser, et de se dispenser de systèmes complexes de régulation en température. Cette simplification a, bien entendu, a un impact très fort en termes de coût de revient global des modules laser pour les télécommunications à 1.3 µm. Plusieurs start-ups exploitant cette opportunité ont vu le jour aux Etats-Unis, en Europe et au Japon.

C'est cependant dans un domaine différent des lasers, celui des diodes électroluminescentes, que les boîtes quantiques ont trouvé leur principal domaine d'application à ce jour. Les diodes électro-luminescentes (ou « DELs » pour light emitting diodes) représentent un marché colossal supérieur à 3 milliards d'euros par an, et de loin le plus gros marché des composants optoélectroniques. Ce composant très répandu autour de nous est employé pour des fonctions de visualisation et d'éclairage. Les écrans plats extérieurs en couleur, tel que celui que vous voyez sur la tour Montparnasse, reposent sur l'émission de dizaines de millions de DELs. Elles assurent également l'éclairage de l'écran de votre téléphone portable, du tableau de bord des véhicules automobiles récents, et sont présentes dans tous les feux de signalisation routière. Les DELs présentent en fait des avantages très importants par rapport aux lampes à incandescence. Elles consomment typiquement 10 fois moins d'énergie et sont « éternelles », en ce sens que leur durée de vie est 10 fois plus longue que la durée de vie du système dans lequel elles sont incorporées. On saisit très vite l'intérêt d'intégrer ces composants dans un système complexe tel qu'une voiture ; nul n'a envie de démonter un tableau de bord pour changer une simple ampoule ! Si on était capable de remplacer toutes les lampes à incandescence par des DELs blanches, on réduirait aussi très fortement la consommation énergétique associée à l'éclairage, et de plusieurs pour cents la consommation énergétique globale. Les enjeux associés à cette utilisation de plus en plus vaste des DELs sont donc considérables sur un plan économique mais aussi écologique.
Figure 7: Vue en coupe de la couche active d'une DEL bleue commerciale, constituée par une couche très fine d'alliage (InxGa1-x)N dans GaN. Cartographie de la composition chimique de l'alliage, obtenues par microscopie électronique. On observe un phénomène de démixtion et la formation d'inclusions de taille nanométriques très riches en indium (remerciements P. Bayle, CEA).
En 1995, ce domaine a connu une véritable révolution, avec la commercialisation par une société japonaise de DELs bleues et vertes très brillantes. Jusque là en effet, on ne savait produire efficacement de la lumière avec les DELs que dans le rouge ou l'orange. Un épais mystère était attaché au fonctionnement de ces nouvelles DELs. En effet, celles-ci sont réalisées à partir de nitrure de gallium GaN, pour lequel on ne dispose pas de substrat bien adapté à sa croissance épitaxiale. La croissance des DELs GaN est le plus souvent réalisée sur un substrat de saphir, dont le paramètre de maille cristalline est très différent de celui de GaN. De ce fait, la couche épitaxiée contient un très grand nombre de défauts, les dislocations, qui sont connus comme des « tueurs » de paires électron-trou. Celles-ci sont en effet capturées très efficacement par les dislocations, et se recombinent sur ce défaut en générant de la chaleur en lieu et place de photons. Pour les semiconducteurs usuels, on doit donc travailler avec un matériau absolument sans dislocations si on veut obtenir des DELs efficaces. L'analyse par microscopie électronique de la couche active des DELs bleues a donné la clef de ce mystère quelques années plus tard. On s'est alors rendu compte que cette couche active, qu'on croyait être un puits quantique d'alliage (InGa)N, est en fait un ensemble de boîtes quantiques. En cours de croissance, cet alliage présente en effet un phénomène de démixtion, avec formation d'agrégats de taille nanométriques riche en InN, qui constituent des boîtes quantiques (figure 7). Cette nanostructuration de la couche active a des conséquences très importantes. En effet, le piégeage des électrons et les trous dans les boîtes quantiques inhibe presque totalement leur diffusion vers les dislocations, et assure ainsi leur recombinaison radiative. Cette nanostructuration spontanée des couches d'(InGa)N a ainsi engendré un marché de plusieurs milliards d'euros par an !

Les boîtes quantiques offrent de nombreuses autres perspectives d'application, qui font actuellement l'objet d'études exploratoires. L'un des objectifs les plus séduisants est la réalisation d'une source de photons uniques, composant qui exploite l'émission d'une unique boîte quantique. Les composants considérés jusqu'ici, lasers ou DELs, fonctionnent avec des dizaines de milliards de boîtes. Travailler avec une seule boîte quantique nous permet de réaliser une fonction optoélectronique importante et originale, l'émission à la demande de photons un par un. Comme l'a expliqué Philippe Grangier dans une conférence récente de l'Université de Tous Les Savoirs, la disponibilité d'une telle source lumineuse est essentielle en vue d'une application future de la cryptographie quantique à grande échelle. Rappelons ici simplement que la cryptographie quantique propose des protocoles de communication originaux, qui s'appuient sur les lois de la mécanique quantique pour garantir une confidentialité absolue de l'information échangée. Un autre champ d'application des sources à photon unique pourrait être la métrologie. Si on est capable, à la demande, d'émettre une impulsion lumineuse contenant un et un seul photon, on pourrait aussi répéter l'opération 1 million de fois, et émettre précisément 1 million de photons. On pourrait donc utiliser cette source comme étalon de flux lumineux ou plus généralement d'énergie.

Comment préparer un photon unique ? C'est en fait relativement délicat. Un photon unique est un état quantique de la lumière, et il est absolument impossible de le générer par des moyens « classiques » par exemple à l'aide d'un laser, d'une DEL ou d'une lampe à incandescence. A titre d'exemple, lorsqu'un laser génère des impulsions lumineuses contenant en moyenne n photons, le nombre de photons présente en fait une fluctuation d'impulsion à impulsion égale à la racine de n. Pour émettre des photons un par un, il faut en fait utiliser un système quantique unique, tel qu'un atome unique. Isolons par la pensée un atome dans l'espace, et excitons le à l'aide d'un rayonnement lumineux dont la fréquence correspond à l'une de ses raies spectrales. L'absorption d'un photon par l'atome s'accompagne du passage d'un électron d'un état « b » bien défini vers un état « h » lui aussi bien défini, et d'énergie plus élevée. Dans cette nouvelle configuration électronique, l'atome ne peut plus absorber la lumière, puisque l'état « b » est vide. On voit par conséquent qu'un atome excité de cette façon ne peut stocker qu'une excitation élémentaire : lorsqu'on coupe le faisceau de pompage, il se désexcite en émettant un unique photon. En pratique, on sait piéger un atome unique dans l'espace par des méthodes optiques, mais pour une durée qui n'excède pas quelques secondes. Il est ici beaucoup plus commode d'employer une boîte quantique comme « atome artificiel » pour réaliser la même fonction. En collaboration avec des collègues du CNRS, nous avons proposé un protocole original, qui permet de générer des photons un par un à la demande à l'aide d'une boîte quantique. Celui-ci tire en fait parti de la forte interaction de Coulomb entre électrons et trous piégés dans une même boîte. La boîte quantique peut être excitée au choix à l'aide d'un faisceau optique ou à l'aide d'une impulsion électrique, ce qui ouvre la voie au développement de sources de photons uniques compactes et pratiques pour la cryptographie quantique. Plusieurs dizaines d'équipes dans le monde y travaillent aujourd'hui.
Je présenterai enfin un nouvel exemple d'application des nano-cristaux semiconducteurs. A la différence des boîtes quantiques obtenues par croissance sur un substrat, ceux-ci peuvent être dispersés dans différents milieux, en particulier liquides. Ils constituent aujourd'hui une classe de marqueurs fluorescents particulièrement intéressante pour la biologie. On sait aujourd'hui assurer la biocompatibilité de ces nano-objets, ainsi que leur solubilisation dans les liquides physiologiques, en les enrobant par exemple de silice. On sait aussi greffer sur leur surface du matériel biologique, par exemple une protéine ou un fragment d'ADN monobrin, afin de le fonctionnaliser. En cartographiant l'émission des nanocristaux dans l'espace, on peut voir où ce matériel biologique est allé se fixer à l'intérieur d'un organisme, éventuellement jusqu'à l'échelle intracellulaire. Bien qu'il existe des colorants organiques qui remplissent une fonction similaire, les nanocristaux présentent des atouts très importants. Tout d'abord, ils sont dix à cent fois plus stables dans le temps, ce qui permet de faire de longues expériences. Ensuite, le spectre de leur émission est moins large ; il est donc possible d'employer en parallèle des nanocristaux émettant dans des gammes de longueur d'onde différentes et d'obtenir simultanément des informations de nature différente. Enfin, leur biocompatibilité est bien supérieure à celle des colorants organiques, qui sont pour la plupart hautement toxiques.

En conclusion, je voudrais conclure cette présentation, en soulignant le caractère extrêmement vivant de ce domaine. Loin d'être figées, les techniques de nanofabrication font l'objet de nombreux développements, qui permettent par exemple de construire des systèmes quantiques plus complexes (« molécules artificielles » constituées d'un assemblage de boîtes quantiques, dopage par des atomes magnétiques, intégration de boîtes quantiques dans des microrésonateurs optiques...). Mois après mois, de nouveaux résultats viennent enrichir la palette des effets quantiques observables avec les nanostructures semi-conductrices et élargir leur champ d'application potentiel.
*CEA Grenoble, CEA/DRFMC/SP2M, 17 rue des Martyrs, 38054 Grenoble Cedex 9.
Adresse électronique : jean-michel.gerard@cea.fr
[1] Remarquons que l'électron reste libre de se mouvoir dans le plan du puits quantique ; l'énergie cinétique associée à ce mouvement peut prendre une valeur positive quelconque.

 

 VIDEO     canal U       LIEN

 
 
 
 

RADIOACTIVITÉ

 

 

 

 

 

 

 

radioactivité

Consulter aussi dans le dictionnaire : radioactivité
Propriété des nucléides instables de perdre spontanément de leur masse en émettant des particules ou des rayonnements électromagnétiques.


La découverte, presque par hasard, de la radioactivité par H. Becquerel en 1896 a entraîné une révolution dans la connaissance de la nature de la matière. Elle a montré que les noyaux atomiques ne sont pas tous stables : certains d'entre eux, dits « radioactifs », éjectent de minuscules projectiles sous forme de rayons pénétrants ; de plus, une telle émission change leur nature. On en a déduit que les éléments ne sont pas vraiment « élémentaires » et que les atomes sont composés d'« éléments » plus petits.


Nature et transformations des noyaux atomiques
Les radioactivités naturelles


Suite à la découverte du radium par P. et M. Curie en 1898, il est vite apparu qu'il existe trois sortes de radioactivité. À chacune d'elles correspond une transformation différente des noyaux. L'étude de la radioactivité et celle des rayonnements ont aussi largement contribué à comprendre la structure des noyaux. Ceux-ci ne sont pas des objets simples : ils sont composés de deux sortes de particules, les protons et les neutrons. La façon dont ceux-ci se combinent a conduit à la notion d'isotope, à l'étude des conditions de stabilité des noyaux et à la reconnaissance de deux sortes de forces s'y exerçant : l'interaction forte et l'interaction faible.

Les radioactivités artificielles


En bombardant des noyaux à l'aide de rayons α, I. et J. F. Joliot-Curie ont provoqué la formation de noyaux radioactifs nouveaux. C'est un moyen pour produire un grand nombre d'isotopes radioactifs. De manière analogue, on sait aujourd'hui projeter sur d'autres atomes des ions lourds accélérés à haute énergie. Il devient possible d'obtenir des combinaisons nucléaires nouvelles, le plus souvent très instables, dont certaines sont très différentes de tout ce qu'on peut observer dans les corps radioactifs naturels ou à l'aide de collisions par des particules. On a pu ainsi produire des formes de radioactivité atypiques, comme l'émission de noyaux de carbone.

Les principaux types de radioactivité
Les radioactivités se distinguent par la nature du rayonnement émis et par les modifications que cela induit dans le noyau émetteur. Un noyau est caractérisé par sa masse atomique A, égale au nombre de nucléons qu'il contient, et par son numéro atomique Z, égal au nombre de ses protons. La différence A − Z représente donc le nombre de ses neutrons ; pour le plutonium 244, par exemple, A = 244, Z = 94 ; il contient donc 150 neutrons.
Les transformations radioactives sont plus ou moins rapides. On appelle « période » ou « demi-vie » le temps nécessaire pour que la moitié des noyaux de l'élément considéré se soit désintégrée. Ce temps, qui semble indépendant de toute action extérieure, varie considérablement d'un noyau à un autre (de 10−12 s à 1017 années).
La radioactivité alpha
Les rayons α sont constitués de particules de masse égale à 4 fois la masse du proton et dont la charge électrique est le double de celle du proton : il s'agit de noyaux d'hélium. Toutes les particules issues d'une même espèce de noyaux radioactifs (en général de très gros noyaux) sont émises avec la même énergie. Cette émission provoque un changement de nature du noyau : le numéro atomique diminue de deux unités, la masse atomique, de quatre. Ainsi, lors de la désintégration α du plutonium 244, celui-ci se transforme en uranium 240, avec une demi-vie de 80 millions d'années :


La radioactivité bêta
Dans la radioactivité β, le noyau émet un électron au cours de la transformation d'un neutron en proton. La charge électrique et le numéro atomique du noyau augmentent d'une unité, mais la masse atomique demeure sensiblement inchangée, car la masse d'un électron est très faible. Il existe aussi une radioactivité β+ (bêta plus) où un positron est émis, ce qui fait décroître d'une unité le numéro atomique du noyau (par transformation d'un proton en neutron). Pour une désintégration β donnée, tous les électrons émis n'ont pas la même énergie. Celle-ci est répartie selon un spectre d'énergie, ce qui a suggéré à W. Pauli et E. Fermi qu'une autre particule, un neutrino ν (ou, plus exactement, un antineutrino
), est émise en même temps que l'électron. Cette hypothèse a permis l'établissement de la théorie de l'interaction faible, qui régit la désintégration β. Celle-ci résulte donc de la désintégration de neutrons du noyau en protons, électrons et antineutrinos. Ainsi, lors de la désintégration de l'uranium 240 en neptunium (Np), seul le numéro atomique est affecté :


La radioactivité gamma
Dans la radioactivité γ, le noyau émet un photon de haute énergie. La nature chimique de l'atome n'est pas modifiée : le noyau passe d'un état excité à un état dit « fondamental ». En général, le noyau excité a été, au préalable, produit par une désintégration α ou β, ou encore par une réaction nucléaire.


Les familles radioactives

Dans la nature ou dans les produits de réactions nucléaires, on rencontre plusieurs familles radioactives : un noyau lourd, en se désintégrant, produit un noyau lui-même radioactif qui en engendre un troisième, et ainsi de suite jusqu'à un noyau stable qui constitue le produit final de la série. Les noyaux ayant des demi-vies bien déterminées, la connaissance de ces familles fournit un outil de datation géochimique.


L'utilisation de la radioactivité
La radioactivité connaît de nombreuses applications scientifiques et techniques. En géochimie isotopique, par exemple, elle permet de dater des roches, par la mesure de l'abondance respective de couples « père-fils », ou des échantillons contenant de la matière organique récente, par la technique du carbone 14 (datation).
Mais la radioactivité présente aussi des dangers : elle peut détruire les molécules biologiques, entraînant chez les êtres vivants des conséquences néfastes voire fatales (anémies, cancers…) ou bénéfiques (traitement des cancers par cobaltothérapie ou curiethérapie, diagnostics). Les normes d'utilisation des corps radioactifs sont draconiennes et la plupart des pays se sont dotés d'un système de surveillance.


Aspects médicaux

Mesure de la radioactivité
L'activité d'une source de rayonnement est mesurée en becquerels (Bq). Cette unité, valable à l'échelle atomique (elle correspond à une désintégration par seconde), n'est pas adaptée à l'évaluation d'un risque pour l'homme. La quantité de rayonnements reçue par un organisme (dose absorbée) se mesure en grays (Gy). Mais l'effet de ces rayonnements sur un organisme dépend aussi de leurs caractéristiques : la notion d'équivalent de dose, mesurée en sieverts (Sv), permet à la fois de prendre en compte ces données quantitatives et qualitatives. Le gray et le sievert ont remplacé des unités plus anciennes comme le rad (100 rads = 1 gray) et le rem (100 rems = 1 sievert).
Les normes de protection contre les rayonnements ont pour but de limiter leurs risques et de les maintenir à un taux comparable à celui que comporte toute activité humaine. Elles doivent tenir compte du niveau de radioactivité naturelle de l'environnement. Ainsi, en France, le rayonnement cosmique (venant du ciel) et tellurique (venant du sol) correspond à une dose de 2,4 millisieverts par an. À titre d'exemple, l'accident de Tchernobyl d'avril 1986 a augmenté cette dose annuelle de 0,07 millisievert pour la population française (source O.N.U.), ce qui est inférieur à la dose reçue lors d'un cliché radiologique. Les directives Euratom du Conseil de l'Union européenne fixent la dose annuelle admissible pour le public à 1 millisievert pour les irradiations d'origine non naturelle (industries nucléaires, hors domaine médical) et à 20 millisieverts pour le personnel exposé dans un cadre professionnel.

Effets des rayonnements
Du fait de leur énergie, les rayonnements radioactifs sont susceptibles d'exercer une action néfaste sur l'organisme. Les rayons alpha et bêta sont peu pénétrants et ne sont dangereux que s'ils sont introduits, par exemple, par ingestion de produits alimentaires contaminés. Les rayons gamma, en revanche, pénètrent profondément et peuvent traverser les organes (irradiation).
Les effets des rayonnements sont de deux types : ceux qui affectent directement l'être vivant et ceux qui atteignent sa descendance. Tous ces effets varient selon la dose reçue, la durée de l'exposition et l'étendue de la région exposée au rayonnement. Les effets de doses importantes sont bien connus quand celles-ci sont reçues en une seule fois par le corps entier. À l'inverse, l'effet de petites doses est plus difficile à évaluer.

Les effets précoces surviennent dans les heures, les jours ou les semaines qui suivent l'exposition à de fortes doses. À partir d'une dose de 0,2 sievert, les premières atteintes des rayonnements portent sur les cellules sanguines, surtout les globules blancs (infections) et les plaquettes (hémorragies). De 1 à 2 sieverts, on observe une radiodermite (rougeur de la peau). De 3 à 5 sieverts apparaissent des troubles digestifs (nausées, vomissements). Pour des doses plus importantes viennent s'ajouter des brûlures étendues et des troubles nerveux (paralysies).
Les effets tardifs ne sont décelables que pour des doses au moins égales à 1 sievert et après un délai moyen de 4 ans pour les leucémies, de 10 ans pour les autres cancers. Si le risque de développer un cancer est accru, la survenue de celui-ci n'est pas inéluctable. Pour des doses plus faibles, comprises entre 0,1 et 1 sievert, les cancers provoqués par des rayonnements sont plus exceptionnels, survenant surtout chez des enfants dont la mère a été irradiée pendant la grossesse. L'autre conséquence de l'irradiation d'un fœtus est le risque de survenue d'une malformation. L'effet de doses inférieures à 0,1 sievert ne s'est pas révélé significatif, comparé à la fréquence naturelle des malformations chez l'homme. Des irradiations plus importantes peuvent amener à proposer une interruption de grossesse, et cela d'autant plus que la grossesse en est à son début. Un autre effet tardif des rayonnements est la survenue d'une cataracte (opacification du cristallin de l'œil) pour des doses locales supérieures à 1 sievert.

L'uranium appauvri, présent dans de nombreux produits chimiques et dans certains obus, est composé de l'isotope 238, le moins radioactif des 3 isotopes qui composent l'uranium naturel. Il pourrait s'accumuler dans les reins. Utilisé pendant le conflit du Kosovo (1999), il a été accusé d'être responsable de l'apparition de cancers ou de leucémies, ce qui n'est pas démontré.
Les effets sur la descendance ont été décrits chez certains animaux (mutations) ; en revanche, aucune modification transmissible des gènes n'a été observée dans la descendance des populations irradiées d'Hiroshima ou de Nagasaki.

Protection contre les rayonnements
Quatre grands principes doivent être observés dans la protection contre la radioactivité : s'éloigner autant que possible de la source radioactive ; réduire le temps de séjour à proximité ; utiliser des écrans de protection (en plomb ou en béton contre les rayonnements gamma) ; s'efforcer d'éviter toute absorption accidentelle. L'utilisation de sources radioactives fait l'objet de mesures légales et réglementaires très strictes.

 

DOCUMENT   larousse.fr    LIEN

 

 
 
 
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 ] Précédente - Suivante
SARL ORION, Création sites internet Martigues, Bouches du Rhone, Provence, Hébergement, référencement, maintenance. 0ri0n
Site réalisé par ORION, création et gestion sites internet.


Google
Accueil - Initiation musicale - Instruments - Solfège - Harmonie - Instruments - Musiques Traditionnelles - Pratique d'un instrument - Nous contacter - Liens - Mentions légales /confidentialité

Initiation musicale Toulon

-

Cours de guitare Toulon

-

Initiation à la musique Toulon

-

Cours de musique Toulon

-

initiation piano Toulon

-

initiation saxophone Toulon

-
initiation flute Toulon
-

initiation guitare Toulon