ecole de musique piano
     
menu
 
 
 
 
 
 

La course à la lumière lente

 

 

 

 

 

 

 

La course à la lumière lente

Franck Daninos dans mensuel 371
daté janvier 2004 -

Ralentir la lumière à quelques mètres par seconde semblait jusqu'à présent n'intéresser que les physiciens fondamentaux. La simplification considérable de ces expériences, dont un résultat témoigne en mars 2003, ouvre aujourd'hui des perspectives d'applications pratiques.

La vitesse de la lumière est l'une des constantes fondamentales de l'Univers. C'est la borne maximale sur laquelle bute irrémédiablement toute tentative d'accélération des particules élémentaires. Ce principe fondateur de la physique moderne, énoncé par Albert Einstein il y a bientôt cent ans dans le cadre de la théorie de la relativité restreinte, n'a jamais été remis en question : les ondes électromagnétiques se propagent dans le vide aux environs de 300 000 kilomètres par seconde.
En revanche, quand ces mêmes ondes traversent un autre milieu, leurs interactions avec la matière qui le constitue les ralentissent. Chaque milieu transparent est ainsi caractérisé par un « indice de réfraction », qui dépend du type d'atomes qui le composent, de leur arrangement et de la fréquence de la lumière considérée. Plus l'indice de réfraction est grand, plus la lumière est ralentie. Elle se propage toutefois à des vitesses encore phénoménales : 225 000 kilomètres par seconde dans l'eau, 200 000 kilomètres par seconde dans le verre ! Dans le diamant, qui affiche l'un des plus grands indices de réfraction, cette vitesse est encore de 125 000 kilomètres par seconde.
Pour certains physiciens, c'est encore trop. Depuis quelques années, ils se livrent en effet à une étonnante compétition : ralentir la lumière le plus possible, voire l'arrêter entièrement ! Leurs motivations ? Avant tout, faire progresser la physique fondamentale : maîtriser à ce point l'un des objets les plus évanescents de la nature nécessite une compréhension très fine des phénomènes mis en jeu. Un attrait pour la performance aussi : les physiciens, comme les sportifs, sont amateurs de records. Enfin, ils ne manquent jamais, dans leurs articles, d'évoquer d'éventuelles applications, en particulier dans le cadre d'ordinateurs optiques où les informations seraient transportées et stockées sous forme de photons plutôt que d'électrons. Mais les conditions dans lesquelles étaient réalisées jusqu'à présent ces expériences de ralentissement de la lumière, difficilement transposables à des appareils industriels, discréditaient quelque peu ce type de propositions : installations complexes, températures extrêmement basses, etc. Les choses ont changé en mars 2003 : Robert Boyd, de l'université de Rochester, a ralenti la lumière à la vitesse de 57 mètres par seconde dans un simple cristal de rubis et à température ambiante [1].

À la vitesse d'un coureur cycliste !
La course à la « lumière lente » a été médiatisée par Lene Vestergaard Hau, de l'université de Harvard. En 1999, elle stupéfiait le monde entier en ralentissant une impulsion lumineuse à seulement 17 mètres par seconde, soit environ 61 kilomètres à l'heure : moins vite qu'un coureur cycliste bien entraîné [2]. La comparaison, présentée en couverture de la revue Nature, est largement reprise par la presse internationale. Émues par le succès médiatique, d'autres équipes tentent alors de reproduire les expériences de Lene Hau, voire de faire mieux. Mais ce n'est pas si simple. La physicienne américaine ralentit en effet la lumière en lui faisant traverser un condensat de Bose-Einstein, gaz refroidi à quelques nanokelvins où les atomes sont indifférenciés. Ce type de milieu a été fabriqué pour la pre- mière fois seulement quatre ans auparavant, et son utilisation exige une maîtrise technique encore peu répandue.
Les records se succèdent
Forts de leur avance, Lene Hau et ses collaborateurs battent leur propre record en 2000, en atteignant moins de 0,5 mètre par seconde. Puis, en 2001, nouvelle perfor- mance : ils stoppent une impulsion lumineuse pendant quelques millisecondes, avant de la faire repartir [3]. Mais, déjà, ils ne sont plus seuls. Un autre groupe de l'université de Harvard, dirigé par Ron Walsworth, illustre le même phénomène presque simultanément. Surtout, l'expérience de Walsworth est plus simple que celle de Hau : le milieu « ralentisseur » de la lumière est une vapeur de rubidium, certes refroidie à 80 kelvins, mais nettement plus facile à fabriquer qu'un condensat de Bose-Einstein [4].
En 2002, suivant la même voie, une équipe du MIT et un laboratoire de l'US Air Force franchissent une nouvelle étape dans la simplification. Ils stoppent temporairement une impulsion lumineuse dans un solide : un alliage métallique refroidi à 5 kelvins [5]. Ralentir fortement la lumière ou l'arrêter n'est donc pas aussi difficile que les premières expériences le laissaient paraître. Les résultats obtenus par Robert Boyd l'ont confirmé : les basses températures ne sont même pas nécessaires. En fait, les principes physiques à la base de ces réalisations étaient connus depuis une trentaine d'années. Personne, simplement, n'avait pensé à les conjuguer dans cette perspective.
Le premier de ces principes repose sur la physique de la propagation des ondes dans les milieux matériels. Quelle que soit la qualité d'une source lumineuse, lorsqu'elle émet une impulsion courte, celle-ci est forcément constituée d'un ensemble d'ondes de fréquences légèrement différentes. Dans un milieu où l'indice de réfraction dépend de la fréquence, ces ondes se propagent à des vitesses différentes. Elles se superposent donc et interfèrent entre elles, recomposant une impulsion que l'on nomme aussi un « paquet d'ondes » et dont la vitesse de propagation est nommée « vitesse de groupe ». Or, des calculs de propagation d'ondes ­ historiquement établis par les physiciens Arnold Sommerfeld et Léon Brillouin au milieu du XXe siècle ­ montrent que cette vitesse de groupe devient très faible lorsque l'indice de réfraction varie très fortement en fonction de la fréquence. Conclusion : pour qui veut ralentir la lumière, il faut trouver une fréquence autour de laquelle la variation de l'indice est maximale.
Une telle fréquence existe dans la plupart des milieux : on l'appelle « fréquence de résonance », et elle correspond à l'absorption totale des ondes lumineuses par les atomes du milieu. Ainsi, la fréquence la plus favorable au ralentissement de la lumière est celle à laquelle la lumière... ne se propage pas ! Comment s'affranchir de cette difficulté ?
La réponse résidait dans une découverte de physique quantique tout à fait indépendante. Dans les années soixante-dix, Gerardo Alzetta, Adriano Gozzini et Gaspar Orriols, de l'université de Pise, remarquent que, si les fréquences d'un laser accordable correspondent aux transitions énergétiques très fines des atomes de sodium, ces derniers perdent leur capacité à absorber la lumière [6]. Ils nomment ce phénomène « piégeage cohérent de population ». Mais la lumière lente n'étant pas encore au goût du jour, ils ne réalisent pas le parti qu'ils pourraient tirer de leur découverte.

Le condensat, milieu idéal
C'est Steve Harris, de l'université Stanford, qui en a l'idée en 1990. Reprenant et améliorant les expériences des Italiens sur d'autres systèmes, il rebaptise le phénomène « transparence induite par électromagnétisme » TIE [7]. Pour cela, les matériaux doivent afficher la propriété quantique suivante : posséder deux fréquences de résonance assez éloignées. Deux voies d'excitation sont donc possibles. Les lois de la mécanique quantique disent que si deux voies coexistent pour conduire un système dans un même état énergétique, celles-ci interfèrent et, finalement, aucune excitation ne se produit. Avec un premier laser, les atomes sont conduits dans un état énergétique plus élevé. La lumière est absorbée. Un second laser illumine ensuite les atomes à la seconde fréquence de résonance. Résultat : le milieu devient transparent pour le premier laser lire encadré ci-dessus. Pour arrêter la lumière, il suffit d'éteindre progressivement le second laser. La lumière est alors entièrement stockée dans le milieu. Le rétablissement du second laser fait repartir cette lumière absorbée.
Ainsi, en 1995, dans une vapeur de plomb très dense, Harris parvient à diviser par un facteur 165 la vitesse de la lumière [8]. L'année 1995 est marquée par un autre événement, plus remarqué : la fabrication des premiers condensats de Bose-Einstein [9]. Lene Hau, bien que théoricienne, s'intéresse de près à ce nouvel état de la matière et, en quelques années, en acquiert la maîtrise expérimentale. Aussi, lorsqu'elle prend connaissance des travaux de Steve Harris, à la fin 1997 dans une conférence que celui-ci vient donner à Harvard sur la TIE, l'idée d'appliquer cette technique au condensat émerge assez naturellement. Serait-il possible de rendre transparent un condensat par TIE, s'interroge Lene Hau ? Cet état de la matière permettrait-il de réduire plus encore la vitesse de groupe, se demande Steve Harris avec un intérêt équivalent ? Les deux physiciens s'entendent alors pour une collaboration qui conduira, grâce à un condensat d'atomes de sodium, aux records déjà mentionnés.
À très basse température, les mouvements atomiques sont très faibles : les niveaux énergétiques du sodium sont donc tous quasi équivalents au regard d'une onde électromagnétique. C'est pour cela que la technique TIE est si efficace dans un condensat. Rapidement, d'autres systèmes aux fréquences de résonance mieux séparées ­ et donc moins sensibles aux mouvements atomiques ­ sont identifiés, ce qui a permis de s'émanciper des atomes froids pour ralentir la lumière.

Robert Boyd, quant à lui, a utilisé une technique légèrement différente. Lorsqu'il prend connaissance, en 1999, des résultats spectaculaires de Lene Hau et de Steve Harris, une expérience qu'il avait réalisée une vingtaine d'années auparavant dans le rubis lui revient en mémoire [10]. Un autre effet quantique, appelé « oscillation cohérente de population », peut amener un matériau à devenir transparent pour certaines fréquences. Le phénomène a été prédit pour la première fois dans les années soixante à l'occasion des premières études sur les rayonnements laser [11]. Boyd a alors l'idée d'utiliser ce phénomène décrit depuis de nombreuses années pour ralentir la lumière.
Le rubis est rouge car il absorbe les couleurs vertes et bleues qu'il reçoit. En l'éclairant avec un laser vert assez intense, on peut saturer les ions chrome qui lui donnent sa couleur rouge. Un second laser, dit « sonde » et de fréquence très proche, est ensuite émis dans le rubis. L'interaction des deux lasers créé une onde résultante qui, par des battements de forte amplitude, conduit les atomes à osciller à son rythme. L'une des conséquences est que le laser sonde n'est plus absorbé par le rubis, même s'il est de couleur verte. Il continue sa course mais à vitesse très réduite.
Ce dispositif conduira-t-il rapidement à des applications ? C'est bien sûr ce que laisse entendre Boyd dans le communiqué qui annonce sa découverte, où il ne se prive pas de railler les autres techniques : « Les condensats constituent la manière la plus compliquée de ralentir la lumière. Nous l'avons quant à nous réalisé de la manière la plus simple. Nous pouvons ralentir la lumière dans un espace qui correspond à celui d'un ordinateur, et le dispositif est extrêmement facile à fabriquer. » Ce que confirme Christoph Westbrook, de l'institut d'optique d'Orsay : « Les expériences de Boyd étonnent effectivement par leur simplicité. D'ailleurs, si un jour la lumière lente trouve le chemin des applications, ce seront probablement les siennes qui seront utilisées. » Mais sans doute fallait-il recourir d'abord à des méthodes complexes pour convaincre les physiciens qu'il est finalement assez banal d'aller plus vite que la lumière, puisque celle-ci peut aller aussi lentement qu'on le souhaite. F. D.

EN DEUX MOTS
En mars 1999, à Harvard, Lene Hau étonne le monde entier en ralentissant la lumière à 17 mètres par seconde dans un gaz d'atomes très froid. Depuis, plusieurs équipes se sont attaquées au même objectif, tout en essayant de simplifier les dispositifs expérimentaux : réchauffement du gaz, utilisation d'un milieu solide. En se fondant sur des principes physiques qui sont légèrement différents, un autre physicien américain, Robert Boyd, a marqué un point décisif en 2003 : il est parvenu à ralentir la lumière dans un solide et à température ambiante.

[1] R. Boyd et al., Phys. Rev. Lett., 90, 113903, 2003.
[2] L. Hau et al., Nature, 397, 594, 1999.
[3] C. Liu et al., Nature, 409, 490, 2001.
[4] D. Phillips et al., Phys. Rev. Lett., 86, 783, 2001.
[5] A. Turukhin et al., Phys. Rev. Lett., 88, 023602, 2002.
[6] G. Alzetta et al., Il Nuovo Cimento, 52 B, 209, 1979.
[7] S. Harris et al., Phys. Rev. Lett., 64, 1107, 1990.
[8] A. Kasapi et al., Phys. Rev. Lett., 74, 2447, 1995.
[9] Chris Westbook, Philippe Bouyer et Cécile Michaut, « Le laser à atomes », La Recherche, septembre 2003, p. 40.
[10] L. Hillman et al., Opt. Comm., 45, 416, 1983.
[11] S. Schwartz et al., Appl. Phys. Lett., 10, 4, 1967.

LA TRANSPARENCE INDUITE PAR ÉLECTROMAGNÉTISME
Pour produire de la lumière lente, le phénomène le plus couramment utilisé est celui de la transparence induite par électromagnétisme. Il s'agit de rendre transparent un milieu opaque, en l'éclairant aux longueurs d'onde proches de la résonance par des rayonnements laser. Pour ce faire, le milieu doit afficher une structure énergétique à trois niveaux, comme l'illustre le graphique ci-contre : A et B sont deux états énergétiques fonda- mentaux, qui caractérisent le système au repos ; C correspond à un niveau énergétique excité. Quand on éclaire le système avec un rayonnement correspondant à la transition énergétique A-C, les électrons passent du niveau A au niveau C. Le chemin B-C est également possible si l'on éclaire le système avec un rayonnement correspondant à la transition énergétique B-C. Quand on stimule simultanément les deux chemins, les transitions s'annulent par interférences destructives. Finalement, le système n'absorbe plus les ondes du premier laser, qui continuent leur course.

SAVOIR
Steve Harris,
Physics Today,
juillet 1997, p. 36.
Lene Vestergaard
Hau, Physics World,
septembre 2001, p. 35.
Robert Boyd,
Progress in Optics, 43,
499, 2002.

 

DOCUMENT      larecherche        LIEN

 
 
 
 

MOLÉCULE

 

 

 

 

 

 

 

molécule
(latin moles, masse, avec l'influence de corpuscule)

Cet article fait partie du dossier consacré à la matière.
Particule formée d'atomes et qui représente, pour un corps pur qui en est constitué, la plus petite quantité de matière pouvant exister à l'état libre.

La matière, au sens courant du terme, sous ses différents états est discontinue et formée par l'assemblage d'atome. Dans les conditions usuelles, toutefois, la matière n'est pas, à l'exception des gaz nobles, formée d'atomes isolés et indépendants. Le plus souvent, les atomes s'assemblent pour former des architectures plus volumineuses: les molécules.

1. Historique du concept de molécule
1.1. L'hypothèse d'Avogadro
La notion de molécule, comme entité distincte de celle de l’atome, fut suggérée la première fois en 1811 par l'Italien Amedeo Avogadro qui proposa l’hypothèse selon laquelle le nombre de molécules d'un gaz quelconque dans un volume donné est toujours le même, les gaz étant, dans les mêmes conditions de température et de pression.

Par ailleurs, le Français Louis Joseph Gay-Lussac avait montré expérimentalement en 1809 que les volumes mis en jeu dans les réactions chimiques entre les gaz sont dans des rapports simples. Par exemple, un volume de chlore réagit sur un volume égal d'hydrogène pour donner deux volumes de chlorure d'hydrogène (les trois gaz étant dans les mêmes conditions de température et de pression).
Si nous rapprochons cette constatation expérimentale de l'hypothèse d'Avogadro, nous avons :
1 volume de chlore + 1 volume d'hydrogène = 2 volumes de chlorure d'hydrogène
n molécules + n molécules = 2n molécules
Si de plus nous supposons, en accord avec l'analyse chimique, que le chlorure d'hydrogène correspond à la formule HCl, les 2n molécules de HCl contiennent 2n atomes H et 2n atomes Cl, donc chaque molécule de chlore et d'hydrogène contient deux atomes et la réaction entre le (di)chlore et le (di)hydrogène doit s'écrire :
H2 + Cl2 → 2 HCl (et non H + Cl → HCl).


Bien que reprise, peu de temps après (1814), par le Français André Marie Ampère, l'hypothèse d'Avogadro et la distinction atome-molécule qui en découle sont restées dans l'ombre, jusqu'aux travaux de l'Italien Stanislao Cannizzaro et des Français Auguste Laurent et Charles Gerhardt. La distinction entre atome et molécule conduisait en effet logiquement à considérer ces notions comme reflétant une réalité sous-jacente à celle qu'on peut observer. Cette conception, maintenant universellement adoptée, fut combattue avec vigueur par de nombreux scientifiques qui voyaient là, à tort, une hypothèse non fondée expérimentalement, donc à caractère quasi métaphysique. L’hypothèse d’Avogadro a ouvert la voie à la physique et la chimie modernes en permettant de comparer les masses relatives des molécules et, en définitive, de déterminer les masses atomiques relatives.

1.2. Le nombre d'Avogadro
C'est en hommage à Amedeo Avogadro que le nombre de molécules contenues dans une mole de gaz, soit 22,4 L de gaz (à 0 °C et sous 1 atm ; 1 atmosphère normale = 101 325 pascals ou 1,013 25 bar), nombre déterminé approximativement pour la première fois par l'Autrichien Johann Loschmidt en 1865, s'appelle nombre d'Avogadro. Sa valeur numérique actuellement reconnue est :
NA = 6,022 × 1023
.
2. Mole et masse molaire des molécules
La notion de mole est rendue indispensable par la petite taille des molécules. Elle est liée à la connaissance de leur formule chimique, qui renseigne sur la nature et le nombre de chacun des atomes constituant la molécule. La formule chimique d’une molécule permet ainsi de calculer la masse de celle-ci à partir de celle de ses atomes.
Grâce au choix judicieux de la mole, définie comme le nombre d'atomes de carbone contenus dans 12 g de carbone 12, la masse (en grammes) d'une mole d'un élément donné est égale au nombre de nucléons (protons et neutrons) contenus dans le noyau de l'atome.

       
Le noyau du carbone 12, par exemple, contient 12 nucléons ; la masse de 6,022 × 1023 atomes de carbone est de 12 g. Les données du tableau périodique des éléments permettent ainsi de connaître la masse d'une mole de molécules. Ainsi, une mole de méthanol de formule CH3OH a une masse de 32 g (12 + 4 + 16), une mole d'eau de formule H2O, une masse de 18 g (2 + 16), etc. Réciproquement, on dit que le méthanol a une masse molaire de 32 g·mol-1, ou que l’eau a une masse molaire de 18 g·mol-1, etc.
Dans le cas des gaz, le calcul est simplifié grâce à la loi d'Avogadro : « Des volumes égaux de différents gaz contiennent le même nombre de molécules. » Quand ces gaz sont dans les mêmes conditions de température et de pression (généralement 0 °C et 1 atm), 32 g d'oxygène (O2), 2 g d'hydrogène (H2) ou 44 g de dioxyde de carbone (CO2) occupent un volume identique de 22,4 L. La mole est donc le facteur qui établit un lien entre les caractéristiques microscopiques des molécules et des quantités (masses ou volumes) macroscopiques plus perceptibles.

3. Liaisons et stabilité des molécules
Les molécules résultent de la formation de liaisons covalentes entre les atomes qui les constituent. L'énergie des atomes liés dans une molécule est beaucoup plus faible que celle des atomes séparés ; la molécule est par conséquent le système le plus stable.

3.1. La liaison covalente

La nature de la liaison est restée longtemps mystérieuse. L'Américain Gilbert Lewis, le premier, proposa en 1916, sans justifications, un modèle qualificatif intéressant : les deux atomes d’hydrogène (H) mettent en commun leur unique électron pour former une paire d'électrons, qui est responsable de la cohésion de la molécule et dite, de ce fait, paire liante.
Ce type de liaison, que Lewis a appelé liaison covalente, permet à chacun des deux atomes H partageant les deux électrons d'acquérir la structure particulièrement stable de l'hélium.
De manière générale, dans une molécule, les atomes réalisent des liaisons covalentes de manière à acquérir une structure électronique stable en octet ou en duet (règle de l’octet et du duet). Une structure en duet implique deux électrons sur la couche électronique externe K ; une structure en octet implique huit électrons sur la couche externe L ou M. Ainsi, le carbone, de symbole C et de numéro atomique 6, a pour structure électronique (K)2 (L)4 et doit réaliser 4 liaisons covalentes pour compléter sa couche L (il est dit tétravalent).

3.2. Les liaisons intermoléculaires
Les molécules sont également soumises entre elles à des forces de liaison intermoléculaires, mais celles-ci sont beaucoup plus faibles que les liaisons covalentes (de l'ordre de quelques kilojoules par mole, contre plusieurs centaines de kilojoules par mole dans le cas de liaisons covalentes), ce qui entraîne des distances intermoléculaires plus grandes que les distances interatomiques dans la molécule. Les distances d'approche, à l'équilibre, entre atomes ou molécules sont en effet d'autant plus petites que les énergies d'attraction sont plus grandes.
Ces interactions existent entre les molécules d'un gaz (non parfait) et justifient la possibilité de liquéfaction puis de solidification d'un gaz quand la température s'abaisse. En effet, le refroidissement entraîne la diminution de l'agitation thermique des molécules, d'où la possibilité de formation d'états condensés, liquide et solide. L'absence par définition de forces intermoléculaires pour un gaz parfait rendrait impossible ce processus.

Inversement, la rupture thermique de ces liaisons intermoléculaires dans le cas d'un mélange de différentes molécules permet la séparation des divers constituants. Ainsi, l'azote, l'oxygène et l'argon sont obtenus industriellement par distillation de l'air liquide. Les énergies mises en jeu, bien que suffisantes pour séparer les constituants, ne permettent cependant pas de casser les molécules. Cela peut se produire à des températures plus élevées, par exemple lors du craquage des molécules d'hydrocarbures des pétroles et lors de la dissociation des molécules de dihydrogène (H2) ; à 5 000 K, sous 1 atm, 95 % des molécules H2 sont dissociées en atomes H. Les atomes, après avoir été séparés, peuvent perdre progressivement leurs électrons (ionisation), donnant naissance, à très hautes températures (plusieurs milliers de degrés), aux plasmas, où les atomes peuvent être totalement ionisés par la perte de tous leurs électrons.

4. La représentation des molécules

4.1. La représentation de Lewis
Dans la représentation de Lewis, chaque atome est représenté par son symbole ; un doublet liant est représenté par un segment entre les symboles des deux atomes liés ; un doublet non-liant est représenté par un segment placé à côté du symbole de l’atome auquel il appartient. Ainsi, les représentations de Lewis des molécules de dihydrogène (H2) et de l’eau (H2O) sont respectivement :

 


4.2. Les formules développées et semi-développées
Les formules développées et semi-développées d’une molécule sont une simplification de leur représentation de Lewis :
• formule développée : on ne représente plus les doublets non-liants des atomes ;
• formule semi-développée : on ne représente plus les liaisons engageant les atomes d’hydrogène. Par exemple, une molécule de méthanol CH4O pourra être représentée comme suit :


4.3. La formule topologique
Elle permet de représenter le plus simplement possible une molécule et est particulièrement utile pour représenter des molécules comportant un grand nombre de liaisons. Les règles d’écriture d’une formule topologique sont les suivantes :
• la chaîne carbonée est représentée par une ligne brisée où chaque segment représente une liaison. Les atomes de carbone et d’hydrogène ne sont pas représentés ;
• chaque sommet de la ligne brisée représente un atome de carbone ;
• les atomes autres que ceux de carbone et d’hydrogène sont représentés par leur symbole. On représente aussi les atomes d’hydrogène auxquels ceux-ci sont liés.
Par exemple, le pentan-1-ol de formule brute C5H12O a la formule topologique suivante :

5. La structure spatiale des molécules
Les liaisons covalentes, responsables de la cohésion des molécules, sont des liaisons fortes, saturées et dirigées. La notion de force se rapporte à l'énergie de liaison.
→ énergie chimique.

       
Par saturation, on entend que, par exemple, l’hydrogène (H) peut s'unir à l’azote (N) pour donner NH3 mais pas NH4 ; la justification électronique de la liaison covalente proposée par Lewis rend compte de cette propriété : l’azote, de numéro atomique 7, a pour structure électronique (K)2 (L)5 et doit donc réaliser 3 liaisons covalentes pour compléter sa couche L (il est dit trivalent), d’où le composé NH3.
Le mot directivité signifie que les liaisons covalentes, unissant un atome à d'autres dans une molécule, forment entre elles des angles définis, imposant ainsi une certaine forme à la molécule.
5.1. La méthode VSEPR

La méthode VSEPR (Valence Shell Electron Pair Repulsion ou « répulsion des doublets électroniques de la couche de valence ») également appelée règle de Gillespie-Nyholm, permet de prévoir l’orientation des liaisons entre les atomes d’une molécule. Cette méthode repose sur l’hypothèse très simplificatrice (qui ne correspond pas à la réalité) que tous les doublets, liants et non-liants de la couche de valence, se positionnent à la même distance du noyau et aussi loin que possible les uns des autres de manière à minimiser leur répulsion. Ainsi, selon leur nombre, les doublets électroniques occupent les sommets de diverses « figures de répulsion » inscrites dans une sphère :

Molécules
Méthode VSEPR
nombre de doublets :    2    3    4
figure de répulsion :    droite    triangle équilatéral    tétraèdre
angles des liaisons :    180°    60°    109,5°

   
Par exemple, les molécules H2O (eau), NH3 (ammoniac) et CH4 (méthane) ayant chacune autour de leur atome central quatre doublets électroniques (deux non-liants et deux liants pour H2O ; un non-liant et trois liants pour NH3 ; quatre liants pour CH4) s'inscrivent sensiblement dans un tétraèdre avec au centre les atomes O, N, C, les atomes H étant situés sur deux, trois et quatre sommets. Les angles de liaison sont donc voisins de 109,5° (104,5° pour H2O, 107° pour NH3 et 109,5° pour CH4).

5.2. La stéréochimie ou la géométrie des molécules

Benzène
En fait, bien avant la mise en évidence expérimentale de la structure des molécules, quelques chimistes avaient proposé – pour un but essentiellement mnémonique, c'est-à-dire pour représenter le mieux possible les propriétés physico-chimiques des molécules – des schémas tels que le tétraèdre pour CH4 (Achille Le Bel et Jacobus Henricus Van't Hoff) ou la forme cyclique du benzène C6H6 (August Kekulé).

Actuellement, des méthodes variées (techniques spectroscopiques, diffraction des rayons X ou des électrons, microscopie électronique) permettent de trouver la structure spatiale des molécules et, quelquefois, d'obtenir des courbes de niveau de densité électronique.
Les molécules peuvent former des chaînes, des cycles, des cages… Ces structures sont représentées par des schémas de Lewis ou, plus correctement, par des modèles moléculaires éclatés ou compacts (voir ci-dessous l’exemple de la molécule de méthane). Les modèles compacts donnent une image de la forme réelle des molécules et de l'encombrement des atomes (modélisés par des sphères) qui les constituent. Ces modèles moléculaires tridimensionnels sont très utilisés en stéréochimie.


Toutefois, en l’absence de modèles moléculaires, il est possible de représenter une molécule en 3 dimensions sur un support à deux dimensions (c’est-à-dire sur une feuille de papier ou sur un tableau noir) en utilisant la représentation de Cram. En effet, celle-ci fait apparaître les liaisons de la molécule en perspective les unes par rapport aux autres, afin de comprendre la structure dans l’espace de la molécule. Les liaisons entre les atomes sont représentées par convention de la façon suivante :
• liaison dans le plan de la feuille :

 
• liaison en avant du plan de la feuille :

 
• liaison en arrière du plan de la feuille :

Par exemple, le méthane de formule CH4 a la représentation de Cram suivante :


5.3. Les phénomènes d'isomérie

       
Notons que les structures des molécules peuvent justifier les phénomènes d'isomérie (la même formule brute correspondant à des composés différents). Par exemple, C4H8O2 peut être l'acide butanoïque ou un diol (isomérie de constitution). Les molécules ne sont généralement pas rigides. Avec la vibration des atomes autour de leur position d'équilibre ou la rotation de groupes d'atomes autour d'un axe de liaison (phénomènes qui se produisent toujours, sauf à 0 K), certaines molécules peuvent changer rapidement de structure. Ainsi, la molécule d'ammoniac s'inverse très rapidement, comme un parapluie par fort vent, avec une fréquence de 23,79 GHz. C'est un exemple de molécule « flexible ».

 

 DOCUMENT   larousse.fr    LIEN

 
 
 
 

NANOSCIENCES

 

 

 

 

 

 

 

Paris, 28 juin 2016


Première pierre du Centre de nanosciences et de nanotechnologies

Le Centre de nanosciences et de nanotechnologies (C2N, CNRS/Université Paris-Sud), créé au 1er juin 2016, regroupe deux laboratoires franciliens leaders dans leur domaine : le Laboratoire de photonique et de nanostructures (CNRS) et l'Institut d'électronique fondamentale (CNRS/Université Paris-Sud). La première pierre de ce nouveau laboratoire a été posée le mardi 28 juin 2016 sur le campus de l'université Paris-Saclay, en présence de Thierry Mandon secrétaire d'État chargé de l'Enseignement supérieur et de la Recherche. Cette nouvelle structure, qui hébergera la plus grande centrale de nanotechnologie francilienne du réseau national Renatech1, se place dans une perspective ambitieuse : constituer, en France, un laboratoire phare de niveau mondial pour la recherche en nanosciences et en nanotechnologies. Le C2N, avec son bâtiment de 18 000 m², représente le plus grand projet immobilier du CNRS depuis 1973. Conduit conjointement par le CNRS et l'université Paris-Sud depuis 2009, ce projet s'inscrit dans l'opération d'intérêt national Paris-Saclay portée par l'Etablissement public d'aménagement Paris-Saclay.
L'implantation du Centre de nanosciences et de nanotechnologies (C2N) au cœur du plateau de Saclay, dans le quartier de l'école Polytechnique, a été initiée dans le cadre du plan Campus en 2009. Elle permet de renforcer la dynamique de l'écosystème scientifique des nanosciences et nanotechnologies en Ile-de-France.

Le C2N mène ses recherches dans de nombreux domaines innovants dont la science des matériaux, la nanophotonique2, la nanoélectronique3, les nanobiotechnologies et les microsystèmes, ainsi que dans ceux des nanotechnologies (voir des exemples de travaux de recherche en fin de texte). Structuré en quatre départements scientifiques, le C2N aborde des recherches à la fois fondamentales et appliquées. Il représentera le pôle de référence en matière de nanosciences et nanotechnologies de l'université Paris-Saclay. Plus largement, à l'échelle européenne, il constituera l'un des plus grands centre académique de nanophotonique et, avec les acteurs locaux, l'un des plus grands consortiums en spintronique. Le C2N participe donc au rayonnement de la communauté à l'international. Ainsi l'université Paris-Sud vient d'être reconnue 42e établissement mondial en science des matériaux par le dernier classement de Shanghai en ingénierie (juin 2016).

Au cœur du projet du C2N, la salle blanche (2800 m²) de la centrale de technologie sera la plus grande plateforme de ce type à l'échelle nationale. Elle constituera le pôle francilien du réseau national des grandes centrales académiques Renatech, réseau d'infrastructures et de moyens lourds en micro et nanotechnologie. Cette centrale sera ouverte à l'ensemble des acteurs académiques et industriels du domaine des nanosciences et des nanotechnologies afin qu'ils puissent y développer leurs technologies. Un espace sera ainsi réservé à l'accueil d'entreprises, notamment des start-up et des PME, pour des développements technologiques spécifiques. La formation à la recherche sera également au centre des priorités du C2N, avec notamment la mise en place d'une salle blanche d'entraînement, en conditions réelles, réservée à la formation pratique d'étudiants, stagiaires, ingénieurs et chercheurs désireux d'apprendre.

Ce projet immobilier d'environ 92 millions d'euros a été financé à hauteur de 71 millions d'euros par le Programme d'investissements d'avenir, 12,7 millions d'euros par le CNRS, qui contribuera également au déménagement des deux laboratoires et au raccordement des équipements à hauteur de 4,3 millions d'euros. Le foncier s'élevant à 4,32 millions d'euros a été acquis par le CNRS en 2014. La conception du bâtiment a été confiée au groupement ARTELIA (structure ingénierie et bureau d'étude) et à l'atelier d'architecture Michel Rémon et le chantier à Bouygues Ouvrages Publics, Engie Axima, GER2I, Engie Ineo et Eurovia.

Les travaux ont débuté en novembre 2015 et se termineront à l'automne 2017. Les 18 000 m² du bâtiment, regroupant les laboratoires expérimentaux (3400 m²), les bureaux (2900 m²) et la salle blanche (2800 m²), accueilleront fin 2017 entre 410 et 470 personnes, réparties entre personnels permanents (chercheurs et enseignant-chercheurs, ingénieurs, techniciens et administratifs) et non permanents (doctorants, post doctorants, étudiants, techniciens stagiaires, visiteurs, etc.).


Quelques exemples de résultats obtenus au LPN et à l'IEF :
Des LED flexibles à nanofils : une nouvelle avancée pour les écrans pliables
Une nouvelle source de lumière quantique
Diagnostic médical : un test nanobiophotonique pour détecter des micro-ARNs
Des nanolasers couplés pour approcher le régime quantique de la brisure spontanée de symétrie

Film :
Film CNRS Images sur le LPN : Nouvelles techniques de lithographie.

Site internet du C2N : http://www.c2n.universite-paris-saclay.fr

Télécharger le communiqué :



Notes :
1 Consulter le site web
2 La nanophotonique est l'étude de la lumière et de ses interactions avec la matière à des échelles nanométriques.
3 La nanoélectronique fait référence à l'utilisation des nanotechnologies dans la conception des composants électroniques.


 DOCUMENT       cnrs        LIEN 

 
 
 
 

À la rencontre des rayons cosmiques

 

 

 

 

 

 

 

À la rencontre des rayons cosmiques
Marie-Christine de La Souchère dans mensuel 455
daté septembre 2011 -

Avant d'investir le champ de l'astrophysique, le rayonnement cosmique a suscité d'intenses polémiques au sein de la communauté scientifique. Au coeur des débats : la nature de cet étrange phénomène découvert il y a un siècle à peine.
E n gravissant les escaliers de la tour Eiffel par une froide journée de mars 1910, le prêtre jésuite Theodor Wulf n'imaginait pas qu'il inciterait des générations de physiciens à se tourner vers le ciel. Wulf, qui enseignait la physique à l'université de Valkenburg, aux Pays-Bas, était simplement venu mesurer la conductivité électrique de l'air à l'aide d'un électroscope de sa fabrication. Plus précisément, il voulait vérifier que l'air était moins ionisé, donc moins conducteur, au sommet de la tour qu'au niveau du sol.

La mesure de la conductivité de l'air était à cette époque la méthode d'étude privilégiée de la radioactivité, dont la découverte et l'étude avaient valu le prix Nobel de physique en 1903 à Henri Becquerel, Marie et Pierre Curie. Les rayonnements émis par les substances radioactives ionisent en effet l'air, augmentant ainsi sa conductivité. Mais diverses expériences, pourtant menées loin de toute source radioactive et en atmosphère non orageuse, avaient mis en évidence l'existence d'une ionisation résiduelle de l'air. Les scientifiques l'avaient attribuée à une radioactivité issue de l'intérieur du globe.
Les effets de ce rayonnement d'origine tellurique devaient donc s'atténuer rapidement avec l'altitude. Or, contre toute attente, l'électromètre que Wulf emporta au sommet de la tour, à 300 mètres d'altitude, indiqua que l'air y était à peine moins conducteur qu'au niveau du sol. Le rayonnement incriminé gardait donc sensiblement la même intensité.
Intrigué, le physicien autrichien Victor Hess n'y alla pas par quatre chemins. Pour vérifier les dires de son collègue, il se lança dans une série de neuf ascensions en ballon, de 1911 à 1913. Vers 2 000 mètres d'altitude, l'ionisation était du même ordre qu'au sol. Elle augmentait ensuite de manière régulière, jusqu'à doubler vers 5 000 mètres, altitude maximale atteinte par l'aéronef. Hess en conclut que la seule manière d'interpréter de tels résultats était d'admettre l'existence d'un rayonnement « très pénétrant, de nature inconnue, venant principalement du haut et très probablement d'origine extraterrestre ».

Mobilisation internationale
La Première Guerre mondiale arrêta ces recherches. Mais dans les années qui suivirent, les physiciens traquèrent ce rayonnement d'altitude, que le physicien américain Robert Millikan, directeur à l'Institut technologique de Californie, à Pasadena, avait qualifié de « cosmique ». Les sites haut perchés, tels l'observatoire du pic du Midi, dans les Pyrénées, ou celui du Jungfraujoch, dans les Alpes suisses, avaient la faveur des expérimentateurs et drainaient des chercheurs de toutes nationalités.
Quant à la nature des rayons cosmiques, deux thèses s'affrontaient. Millikan, vétéran de la physique des particules, célèbre pour sa mesure de la charge de l'électron, soutenait qu'il s'agissait d'ondes électromagnétiques de très haute fréquence, mille fois supérieure à celle des rayons X. Ces ondes étaient associées à des grains de lumière de forte énergie : les photons gamma. Arthur Compton, de l'université de Chicago, penchait lui pour des particules chargées, protons ou électrons.

Comment trancher entre les deux hypothèses ? Des particules chargées sont déviées en présence d'un champ magnétique, contrairement aux photons. Si les rayons cosmiques possédaient une charge électrique, ils devaient subir l'action du champ magnétique terrestre, propre à les piéger et à les drainer vers les hautes latitudes selon les calculs de l'abbé belge Georges Lemaître.
En 1928, le physicien néerlandais Jacob Clay avait sillonné les mers entre Amsterdam et Java, effectuant une série de mesures qui, toutes, montraient une diminution du flux cosmique près de l'équateur. Compton lui emboîta le pas en 1930, recueillant les indications de 69 stations, situées entre 68° de latitude Nord et 46° de latitude Sud. Ses résultats confortaient ceux de Clay et accréditaient l'hypothèse de particules chargées.
Cette hypothèse ne satisfaisait guère Millikan, qui avait fait des photons gamma le fer de lance de sa théorie de la création continue, complaisamment étalée dans les colonnes du New York Times. À l'en croire, les photons gamma étaient les « cris d'atomes nouveau-nés », émis chaque fois que des atomes d'hydrogène s'assemblaient dans les nuages interstellaires pour former des noyaux plus lourds : hélium, azote, oxygène... Et Millikan d'effectuer ses propres mesures. Mais, trop sûr de lui, persuadé de l'inexistence de l'« effet latitude », le physicien mit systématiquement sur le compte de la pollution ambiante ou de défaillances expérimentales les résultats contraires à son intuition.

Lutte de Nobel
Le ton commença à monter entre Millikan et Compton, tous deux lauréats du prix Nobel de physique et également soucieux de leur image. Millikan voulait bien admettre que les rayons cosmiques renfermaient quelques particules chargées. Mais celles-ci, affirmait-il, n'étaient que le fruit de l'interaction des photons gamma avec la matière environnante.
La querelle atteignit son paroxysme lors de la réunion de l'Association américaine pour l'avancement des sciences, à Atlantic City, dans le New Jersey, fin décembre 1932. À l'issue du séminaire, désavoué par ses pairs pour sa mauvaise foi et son arrogance, Millikan refusa de serrer la main du correspondant du New York Times, qui, le 31 décembre, fit sa une des discussions.
Compton sortait vainqueur de la confrontation, mais le plus dur restait à faire : identifier les fameuses particules. Les calculs du Norvégien Carl Störmer, dont s'était inspiré Lemaître pour expliquer l'effet de latitude, prévoyaient une asymétrie Est-Ouest dans le flux cosmique. Ne pouvaient atteindre certains points du globe que les particules arrivant à l'intérieur d'un cône, ouvert vers l'ouest pour les charges positives et vers l'est pour les charges négatives.

Persuadé qu'il s'agissait d'électrons, le physicien italien Bruno Rossi essayait, dès 1930, de détecter une éventuelle anisotropie du rayonnement, depuis l'observatoire de Florence. Sans grand succès, la latitude y étant trop élevée, et l'altitude trop faible. Rossi s'apprêtait à poursuivre ses recherches dans les montagnes d'Afrique lorsque d'autres tâches le forcèrent à surseoir à l'expédition. Quand enfin il fut disponible, ce fut pour découvrir que deux équipes l'avaient devancé, dont celle de Compton. Les mesures, effectuées à Mexico, montraient une augmentation du flux de particules en direction de l'ouest, plaidant en faveur d'une majorité de charges positives. Des protons vraisemblablement.
Mais pas exclusivement. Vers la même époque, Millikan avait confié à l'un de ses anciens élèves, Carl Anderson, le soin d'étudier les rayons cosmiques à l'aide d'un dispositif nouveau : la chambre à brouillard, enceinte magnétique remplie d'air humide. Les particules chargées y laissaient des traces analogues aux traînées de condensation des avions. Les premiers clichés, réalisés fin 1931, montrèrent la trace d'une particule positive qui ne pouvait être un proton car sa masse était trop faible.
On aurait dit un électron, mais celui-ci, de charge négative, aurait été dévié dans l'autre sens. À moins que, la force magnétique s'inversant avec le sens du mouvement, l'électron n'ait traversé l'enceinte de bas en haut et non de haut en bas. Millikan rejeta l'hypothèse au motif que les rayons cosmiques venaient du ciel.

Pour trancher, Anderson introduisit un écran de plomb au milieu de la chambre. Il distinguait ainsi les particules selon qu'elles venaient du haut ou du bas. Les clichés confirmèrent que l'on avait affaire à des électrons positifs, les futurs positons, antiparticules des électrons. Cette expérience signait la première mise en évidence d'antimatière, dont l'existence avait été prédite par les calculs du physicien britannique Paul Dirac. En récompense, Anderson, âgé de 31 ans seulement, partagea le prix Nobel de physique de 1936 avec Victor Hess, pionnier du rayonnement cosmique.
Quatre ans après la découverte du positon, Anderson récidivait. Avec l'un de ses étudiants, Seth Neddermeyer, il constatait l'existence d'une nouvelle composante cosmique, dite dure, capable de traverser plusieurs centimètres de plomb. Anderson et Neddermeyer baptisèrent les particules observées « mésotrons » car leur masse était intermédiaire entre celle de l'électron et du proton. On les connaît à présent sous le nom de muons, et ils constituent de l'ordre de 75 % du rayonnement cosmique au niveau de la mer.
En 1947, à leur tour, deux chercheurs de l'université de Bristol, Cecil Powell et Giuseppe Occhialini, mettaient en évidence, au pic du Midi, les mésons pi ou « pions ». Leur désintégration en vol produit des muons et des neutrinos, minuscules entités neutres capables de traverser la Terre de part en part sans être interceptées. Les mésons K ou « kaons » et les hypérons suivirent en 1949.

Pluie de particules
Comment expliquer l'existence d'une telle diversité de particules ? Les observations par ballon stratosphérique au début des années 1950 ont confirmé la formation à haute altitude de grandes gerbes de rayons cosmiques, dont les retombées avaient été détectées au sol par Rossi dès 1933, puis par le Français Pierre Auger en 1938, grâce à des compteurs Geiger écartés de plusieurs dizaines de mètres. Ces pluies de particules sont créées par un rayonnement primaire fait majoritairement de protons de haute énergie. Les protons percutent les atomes d'azote et d'oxygène de l'air, donnant naissance à de nouvelles particules. Par collisions et désintégrations en cascade, celles-ci en engendrent des nuées d'autres : mésons et muons, électrons et positons, neutrons et neutrinos...
Avec le développement des accélérateurs et des collisionneurs de particules, les physiciens ont déserté les observatoires, laissant aux astronomes le soin de découvrir l'origine du rayonnement primaire et les mécanismes qui président à son émission et à l'accélération des charges électriques. Ondes de choc de supernovae, champs magnétiques d'étoiles à neutrons, noyaux actifs de galaxies, les pistes sont multiples... En attendant, plus d'un siècle après sa découverte, le rayonnement cosmique conserve toujours une part d'ombre.

 

DOCUMENT   larecherche.fr    LIEN

 
 
 
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 ] Précédente - Suivante
SARL ORION, Création sites internet Martigues, Bouches du Rhone, Provence, Hébergement, référencement, maintenance. 0ri0n
Site réalisé par ORION, création et gestion sites internet.


Google
Accueil - Initiation musicale - Instruments - Solfège - Harmonie - Instruments - Musiques Traditionnelles - Pratique d'un instrument - Nous contacter - Liens - Mentions légales /confidentialité

Initiation musicale Toulon

-

Cours de guitare Toulon

-

Initiation à la musique Toulon

-

Cours de musique Toulon

-

initiation piano Toulon

-

initiation saxophone Toulon

-
initiation flute Toulon
-

initiation guitare Toulon