ecole de musique piano
     
menu
 
 
 
 
 
 

SOURCES D'ÉNERGIE

 

 

 

 

 

 

 

sources d'énergie

Ensemble des matières premières ou des phénomènes naturels utilisés pour la production d'énergie.

GÉOGRAPHIE

L'énergie a des sources et des formes variées, donc sa mesure globale nécessite des conversions. L'équivalence calorifique de 1 t de pétrole (tep) se situe à 1,5 t pour la houille, à près de 4 t pour le lignite, à 1 100 m3 pour le gaz naturel, à 4 500 kWh pour l'électricité primaire. La production mondiale s'élevait à 500 Mtep vers 1900, environ 1 500 Mtep à la veille de la Seconde Guerre mondiale, s'accroissant rapidement après celle-ci, jusqu'en 1974 (6 000 Mtep). La progression s'est ralentie, avec l'extension de la crise, et la production se situe à 8 000 Mtep en 1994. Le charbon (houille et, accessoirement, lignite) a été longtemps prépondérant, et représente encore 75 % de la production énergétique mondiale en 1937. Il a été supplanté dans les années 1960 par le pétrole : 48 % de la production totale en 1973. La part du pétrole (encore dominant) a diminué depuis : environ 40 % aujourd'hui, celle du charbon s'est un peu redressée : 27 % en 1973, 29 % actuellement. Le poids du gaz naturel continue à s'accroître lentement : il satisfait aujourd'hui plus de 20 % des besoins énergétiques. La part de l'électricité primaire s'est récemment fortement accrue (6 % en 1970, environ 10 % maintenant), essentiellement grâce à l'essor du nucléaire.
Une grande partie de la production provient d'un petit nombre de pays ou régions. En tête, viennent les États-Unis (18 %) dont le poids relatif a diminué, comme celui du Moyen-Orient pétrolier (18 % de la production mondiale en 1973, à peine 12 % aujourd'hui, apport devenu inférieur à celui, croissant, de la Chine). L'ensemble de l'Europe occidentale fournit moins de 12 % de la production mondiale dont elle consomme en revanche le sixième. La Russie est le dernier grand producteur (charbon et surtout hydrocarbures). Les États-Unis et le Japon sont aussi de gros importateurs d'énergie. Le Moyen-Orient demeure la principale région exportatrice (450 Mtep) mais les livraisons russes (pétrole aussi, mais également gaz naturel) demeurent importantes.

TECHNIQUE

L’énergie se manifeste par la production de chaleur, de travail ou de rayonnement. Depuis qu’il a domestiqué le feu, l’homme utilise des matières premières (bois, puis charbon, pétrole, uranium, etc.) et des phénomènes naturels (vent, rayonnement solaire, marées, etc.) pour en tirer de l’énergie. Mise en jeu dans l’ensemble des activités humaines contemporaines, cette énergie extraite du milieu naturel pose actuellement deux problèmes fondamentaux : celui de l’épuisement de ses sources principales et celui de l’impact croissant de la consommation humaine sur l’environnement.

Les différentes formes d’énergie
L’énergie est disponible dans la nature sous différentes formes, qui sont convertibles. On l’utilise sous forme mécanique (liée au mouvement : énergie cinétique, énergie potentielle), thermique (chaleur), électrique (engendrée par des différences de charges électriques), chimique (stockée sous la forme de liaisons chimiques, exploitée par les êtres vivants lors de la respiration et des fermentations, ou par combustion dans les moteurs thermiques), nucléaire (libérée par fission ou fusion de noyaux d’atomes) ou lumineuse (rayonnement).
On peut extraire l’énergie par combustion, du bois, du charbon, du pétrole ou du gaz. Ainsi, un moteur à explosion transforme par combustion l'énergie chimique de l'essence, tirée du pétrole, en chaleur, puis cette chaleur en mouvement.

Les sources d’énergie
On distingue deux types de sources d’énergie :

– le premier rassemble des matières premières, d’une part les combustibles fossiles, provenant de la sédimentation et de la fossilisation de plantes, d’animaux et de micro-organismes (charbon, pétrole, gaz) et, d’autre part, l’uranium et toute autre matière première à la base de la production d’énergie nucléaire ;

– le second est celui des énergies dites « renouvelables », principalement des phénomènes naturels (rayonnement solaire, vent, géothermie, énergies hydraulique et marémotrice), mais aussi des matières premières comme le bois et, plus généralement, la biomasse (matière vivante, principalement végétale).

Les matières premières fossiles et des sources d’énergie nucléaire comme l’uranium se trouvent stockées dans le sous-sol en quantités importantes, mais limitées. Leurs réserves ne se reconstituent pas à mesure qu’on les exploite, à la différence de celles de la biomasse, source d’énergie « renouvelable » car en constante régénération. Les autres énergies renouvelables, issues de phénomènes naturels comme le vent et l’ensoleillement, apparaissent inépuisables à l’échelle des civilisations humaines. Ainsi, le problème de l’épuisement des ressources ne se pose que pour les énergies fossiles, actuellement largement dominantes.

La consommation d’énergie

Depuis le xixe siècle, l’accélération de la croissance démographique de l’humanité et le développement industriel se traduisent par une formidable progression de la production et de la consommation d’énergie fossile. Or, cette augmentation de la demande et de l’utilisation provoque une crise sans précédent. Aux problèmes de la gestion des ressources et de l’approvisionnement énergétique s’ajoutent ceux de l’impact de la consommation mondiale sur l’environnement et le climat.

En constante augmentation, la consommation mondiale d’énergie s’accélère sous l’effet de la mutation économique des grands pays asiatiques, notamment la Chine et l’Inde, tandis que les pays d’Europe et d’Amérique du Nord demeurent les plus gros consommateurs. La consommation mondiale annuelle d’énergie primaire, de l’ordre de 11 milliards de tonnes d’équivalent pétrole (tep) en 2007, s'accroît d'un peu plus de 2 % par an . Le pétrole vient en tête, avec 35 % de la fourniture, devant le charbon, 28 %, le gaz naturel , 20 %, l'hydroélectricité et les énergies renouvelables, 11 %, le nucléaire, 5 %.

Énergie et environnement

Les énergies fossiles sont des énergies polluantes. La combustion du charbon, du pétrole et, dans une moindre mesure, du gaz naturel, libère dans l’environnement des substances toxiques, polluantes, et des gaz à effet de serre, notamment du gaz carbonique (ou dioxyde de carbone) et du méthane. Parmi les sources d’énergies renouvelables, le bois et les biocarburants libèrent les mêmes types de substances lors de leur combustion.

L’énergie nucléaire représente une alternative aux autres énergies fossiles, tout en assurant une certaine indépendance énergétique à des pays pauvres en ressources pétrolières, tels que la France. Toutefois, la production d’énergie dans les centrales nucléaires n’est pas sans risques (catastrophe de Tchernobyl en 1986). En outre, le combustible nucléaire n’est qu’en partie recyclable : les déchets radioactifs doivent être isolés pour limiter la contamination de l’environnement.
Si elles représentent un modèle d’énergies « propres », les énergies renouvelables d’origine solaire, éolienne, hydraulique, géothermique ou marémotrice, sont encore marginales à l’échelle des consommations nationales. Toutefois, quelques pays, comme la Finlande, atteignent un niveau important de production avec les énergies renouvelables, qui représentent plus du quart de leur production totale d’énergie finale.

Par ailleurs, l’exploitation des énergies renouvelables n’est pas sans effet sur l’environnement (construction d’infrastructures comme les barrages, fabrication des matériaux, mise en œuvre entraînant des nuisances…), bien qu’elles soient beaucoup moins polluantes que les énergies fossiles. Les pays et les institutions internationales déterminent les normes à respecter pour toute installation énergétique.

Les choix énergétiques

L’épuisement des ressources d’énergies fossiles, qui semble inévitable au cours du xxie siècle, rend nécessaire le développement d’autres formes d’énergie, mais aussi la maîtrise de la consommation à l’échelle mondiale. L’usage massif du pétrole et du charbon provoque le rejet dans l’environnement de nombreuses substances polluantes, notamment du CO2 (dioxyde de carbone, ou gaz carbonique), l’un des principaux responsables de l’accroissement de l’effet de serre.

La prise de conscience du problème au niveau international s’est manifestée lors du Sommet de la Terre, à Rio, en 1992. Elle a permis la mise au point d’une Convention sur les changements climatiques et a abouti à la signature du protocole de Kyoto, pour la réduction par les pays industrialisés des émissions de gaz à effet de serre entre 2008 et 2012, par rapport à celles de 1990. Entré en vigueur en 2005, le protocole de Kyoto a été ratifié par 175 États (2007), mais pas par les États-Unis, plus gros émetteurs de CO2 avec la Chine (pays qui a ratifié le protocole et dont les taux par habitant demeurent bien inférieurs à ceux des États-Unis). Toutefois, le 44e président américain, Barack Obama, a annoncé au lendemain de son élection en novembre 2008, un changement radical d'attitude des États-Unis face au réchauffement climatique, après huit ans de déni de l'administration Bush ; il s'est notamment engagé à faire revenir les émissions de gaz à effet de serre à leur niveau de 1990 d'ici 2020.
De leur côté, en 2007, les États membres de l’Union européenne se sont fixé l’objectif global de 20 % d’énergies renouvelables à l’horizon 2020, parallèlement à une réduction de 20 % des gaz à effet de serre.

À l’échelle mondiale, l’hydroélectricité est la première énergie renouvelable : elle représente les neuf dixièmes de toutes les énergies renouvelables. Toutefois la biomasse (biocarburants), l’énergie éolienne et l’énergie solaire ont un fort potentiel de développement.
En France, en 2006, 78,1 % de la production totale d’électricité était d’origine nucléaire, 10,4 % provenaient des centrales thermiques, 11,1 % de l'hydraulique et 0,4 % de l’éolien et du solaire.

 

   DOCUMENT   larousse.fr    LIEN

 
 
 
 

INFORMATIQUE Le principe d'un langage de programmation

 







LANGAGE  INFORMATIQUE




PLAN
            *         LANGAGE
            *         INFORMATIQUE
            *         Le principe d'un langage de programmation
            *         Les niveaux de langage
            *         Les langages d'assemblage
            *         Les langages évolués
            *         Les langages algorithmiques/déclaratifs/objets
            *         Quelques langages algorithmiques classiques
            *         Le langage déclaratif ou descriptif
            *         La programmation « orientée objets »
            *         Le parallélisme

Cet article fait partie du dossier consacré à l'informatique.
Ensemble de caractères, de symboles et de règles qui permettent de les assembler, utilisé pour donner des instructions à un ordinateur.


INFORMATIQUE
Le principe d'un langage de programmation
Comme les « langages naturels » (le français, l'anglais…), les langages de programmation sont des systèmes d'expression et de communication. Mais les « phrases » utilisées par ces langages, appelées programmes, forment des textes destinés à être compris par des ordinateurs. Cependant, les langages utilisés pour communiquer avec les ordinateurs ne sont pas tous considérés comme des langages de programmation. Il s'agit seulement des langages qui, théoriquement, sont suffisamment universels pour exprimer tous les traitements possibles (algorithmes) qu'un ordinateur peut effectuer. Ne sont pas considérés comme des langages de programmation, les langages d'interrogation de bases de données, et plus généralement les langages dits « de quatrième génération » (L4G en abrégé) – langages SQL (Structured Query Language) et Java – qui permettent de réaliser de façon conviviale des applications particulières.
On peut considérer qu'un programme est un texte dépourvu de toute ambiguïté et qui doit être écrit en respectant scrupuleusement les « règles de grammaire » du langage.

Les niveaux de langage
Un programme est constitué d'instructions destinées à être exécutées par la machine. Seules les instructions qu'une machine, ou plus précisément le processeur de l'ordinateur, est capable d'interpréter directement sont celles d'un langage de nature binaire (les programmes sont des combinaisons de nombres binaires 0 et 1). Ce langage est appelé « langage machine ». C'est le langage de plus « bas niveau ». Sur les premiers ordinateurs, c'était le seul moyen d'écrire un programme. Mais, très vite est apparue la nécessité d'utiliser des langages de programmation plus évolués, de plus « haut niveau », c'est-à-dire plus proches de l'esprit humain, et cela pour deux raisons : la première raison est qu'écrire un programme en langage machine est une tâche extrêmement minutieuse et fastidieuse, ce qui entraîne un risque d'erreurs très élevé ; la deuxième raison est que chaque processeur a son propre langage machine, ce qui empêche de transporter le même programme d'un matériel à un autre.
Un programme écrit dans un langage de plus haut niveau que le langage machine ne peut pas être exécuté directement par l'ordinateur. Il doit être préalablement traduit en langage machine. Cette traduction est effectuée automatiquement par l'ordinateur lui-même. C'est un programme appelé « traducteur » qui effectue ce travail.

Les langages d'assemblage
Un premier niveau de langage au-dessus du langage machine a commencé à être utilisé dans les années 1950. Il s'agit du langage d'assemblage qui, en gros, remplace des suites de 0 et de 1 par des notations symboliques. La traduction d'un tel langage s'appelle l'assemblage. Mais ce genre de langage dépend encore de la famille d'ordinateurs pour laquelle il a été développé. De plus, il reste peu facile à lire et à comprendre et il ne convient donc pas pour écrire de gros programmes fiables.

Les langages évolués
On appelle « langages évolués » les langages de haut niveau qui non seulement sont indépendants de toute machine mais aussi sont plus faciles à lire et à comprendre parce qu'ils regroupent en une seule instruction de haut niveau des suites d'opérations élémentaires de bas niveau, par exemple additionner deux variables numériques sans se préoccuper des détails de transfert entre mémoire centrale et registres du processeur. Il y a essentiellement deux sortes de programmes traducteurs pour ce genre de langage : les compilateurs et les interpréteurs.
Le programme en langage évolué qui doit être traduit est appelé programme source. Un interpréteur traduit les instructions du programme source l'une après l'autre et les exécute au fur et à mesure. Le compilateur traduit la totalité du programme source en produisant une nouvelle version exécutable. Comme un programme est en général destiné à être exécuté de nombreuses fois, l'avantage de la compilation est que cette traduction est faite une fois pour toutes et sollicite beaucoup moins le processeur. Mais l'interprétation peut aussi avoir des avantages : d'une part, il est plus facile de produire un interpréteur qu'un compilateur et d'autre part, l'interprétation rend plus aisée la mise en place des méthodes d'aide à la mise au point des programmes.

Les langages algorithmiques/déclaratifs/objets
L'évolution des langages décrite précédemment a conduit à des langages de haut niveau qui restent liés à un style de programmation dit algorithmique ou encore impératif ou procédural. Tout se passe comme si on programmait dans le langage machine d'une machine virtuelle de très haut niveau. Par exemple, la notion de variable est une abstraction de la notion de case mémoire et l'instruction d'affectation décrit l'action fondamentale qui consiste à modifier la valeur d'une variable. De façon générale, un programme décrit une suite d'actions que la machine doit effectuer.

Quelques langages algorithmiques classiques
Parmi les langages algorithmiques classiques, on peut citer en particulier FORTRAN apparu dès 1954 et encore utilisé pour la programmation de calculs scientifiques, COBOL (1959) utilisé pour des applications de gestion, BASIC (1964). Le langage Pascal (1969) a marqué une étape dans la structuration rigoureuse des programmes et est encore largement utilisé pour l'enseignement de la programmation. Le langage Ada est particulièrement adapté à la production de très gros programmes vus comme des assemblages de « composants logiciels ». Le langage C est aussi largement utilisé, en liaison avec l'essor du système d'exploitation Unix.

Le langage déclaratif ou descriptif
Au style de programmation algorithmique, largement dominant, on peut opposer un style de programmation dit déclaratif ou encore descriptif, qui cherche à atteindre un niveau encore plus haut. Un programme est alors vu comme la définition de fonctions (on parle alors de « programmation fonctionnelle ») ou de relations (on parle alors de « programmation logique »). Le langage LISP (1959) peut être considéré comme un précurseur des langages fonctionnels. Parmi les langages fonctionnels, on peut aussi citer les différents dialectes actuels du langage ML. La famille des langages de programmation logique est composée principalement de PROLOG (1973) et de ses successeurs. Les langages fonctionnels ou logiques sont surtout utilisés pour certaines applications relevant de ce qu'on appelle « l'intelligence artificielle ».

La programmation « orientée objets »
Le style de programmation « orientée objets » constitue une autre avancée importante dans l'évolution des langages de programmation et connaît actuellement un essor considérable. L'idée fondamentale est de permettre au mieux la conception et la réutilisation de composants logiciels et, pour cela, de structurer les programmes en fonction des objets qu'ils manipulent. On peut citer en particulier Smalltalk, Eiffel, mais le langage orienté objets le plus utilisé est certainement C++, extension du langage C. Ada 95 se veut aussi une extension de Ada adaptée à la programmation objets. Le langage Java, dont la vogue actuelle est liée à des applications au World Wide Web (Internet) est aussi un langage orienté objets. Il présente l'immense avantage d'être portable, c'est-à-dire qu'un programme écrit en Java peut fonctionner sur des machines de constructeurs différents et sous plusieurs systèmes d'exploitation sans aucune modification.
Les programmes Java sont soit interprétés soit compilés. Les versions interprétées sollicitent beaucoup l'unité centrale de l'ordinateur et cela peut avoir des conséquences fâcheuses pour les temps de réponse des applications interactives.

Le parallélisme
Citons aussi, sans entrer dans les détails, le parallélisme, c'est-à-dire les techniques qui permettent d'accroître les performances d'un système grâce à l'utilisation simultanée de plusieurs processeurs. Des problèmes difficiles se posent pour exprimer le parallélisme dans des langages de programmation et pour compiler ces langages. Le langage HPF (High Performance FORTRAN ) est un exemple récent de tentative pour résoudre ces difficultés.

 

 DOCUMENT   larousse.fr    LIEN

 
 
 
 

ATOME

 

 

 

 

 

 

 

atome
(latin atomus, du grec atomos, qu'on ne peut couper)

Consulter aussi dans le dictionnaire : atome
Cet article fait partie du dossier consacré à la matière.
Constituant fondamental de la matière dont les mouvements et les combinaisons rendent compte de l'essentiel des propriétés macroscopiques de celle-ci. (Un corps constitué d'atomes de même espèce est appelé corps simple ou élément chimique.)

PHYSIQUE ET CHIMIE

Le mot « atome » est aujourd'hui un paradoxe scientifique : en effet, les Grecs avaient désigné par ce terme, qui veut dire « indivisible », le plus petit élément, simple et stable, de la matière ; or on sait à présent qu’un atome est composé de particules plus petites : des électrons, des protons et des neutrons. Les protons et les neutrons, appelés nucléons, forment le noyau de l’atome et sont eux-mêmes composés de particules encore plus élémentaires : les quarks. La connaissance de cette structure ultime de la matière est à l’origine d’une révolution tant dans le domaine de la connaissance que dans celui des rapports entre les peuples (la fission de noyaux atomiques étant à la base des armes nucléaires).

1. Description d'un atome

Les atomes sont les plus petites parcelles d'un élément chimique qui puissent être conçues : ils sont constitués d'un noyau chargé positivement autour duquel gravitent des électrons chargés négativement, l'ensemble étant électriquement neutre.

Les ions dérivent des atomes par la perte ou par le gain d'un ou de plusieurs électrons : il existe des ions positifs (cations), qui résultent d'une perte d'électrons, et des ions négatifs (anions), qui résultent d'un gain d'électrons.

Les électrons ainsi impliqués sont situés à la partie la plus externe des atomes, qui est seule perturbée par un gain ou une perte d'électrons. Seuls ces électrons (électrons de valence) interviennent dans les réactions chimiques. Ces dernières se distinguent donc fondamentalement des phénomènes qui se produisent lors de l'explosion d'une bombe atomique, lesquels se situent au niveau du noyau. Les transformations intervenant au niveau nucléaire mettent en jeu une énergie (→  énergie nucléaire) un million de fois plus élevée que celle que libère une réaction chimique (→  énergie chimique).
En première approximation, on peut considérer qu'un atome occupe une partie de l'espace, de forme sphérique, d'un diamètre de quelques angströms (1 Å = 10−10 m).

1.1. La structure interne des atomes
L'étude de la structure interne des atomes a montré que tous, quel que soit l'élément qu'ils constituent, sont formés de trois espèces de particules élémentaires : les électrons, les protons et les neutrons.
Les électrons sont des particules légères de charge électrique négative, toutes identiques, qui se meuvent à grande vitesse dans le champ d'attraction du noyau chargé positivement.
D'un diamètre très petit par rapport à celui de l'atome, le noyau – dans lequel presque toute la masse est concentrée – est composé de particules appelées nucléons.


Les nucléons sont de deux espèces : les protons, possédant une charge électrique positive, égale en valeur absolue à la charge des électrons, et les neutrons, électriquement neutres.
Les propriétés d'un atome sont déterminées par le nombre d'électrons présents autour du noyau : ce nombre est égal au nombre Z de protons contenus dans ce noyau.
Les propriétés ne dépendent pas, pour l'essentiel, du nombre N de neutrons : les atomes d'un même élément peuvent contenir un nombre variable de neutrons. Les atomes d'un élément qui contiennent un nombre différent de neutrons constituent des isotopes de cet élément. En général, il existe plusieurs isotopes d'un même élément.

Z représente le nombre atomique ou numéro atomique de l'élément.


La somme Z + N = A est le nombre de masse du noyau.

Pour distinguer les isotopes d'un élément, on les désigne par leur symbole précédé des nombres A et Z qui lui sont propres : ainsi, 146C désigne l'isotope de carbone dont l'atome possède 14 nucléons (6 protons et 8 neutrons).

1.2. Quelques ordres de grandeurs
La masse de l'atome est de l'ordre de 10−26 kg. Un atome peut être assimilé à une sphère dont le rayon, variable d'un élément à l'autre, est de l'ordre de 10−10 m (soit 1 Å).
L'électron porte une charge élémentaire − e (e = 1,602 × 10−19 C), pour une masse m de 9,1093897 × 10−31 kg ou de 5,4 × 10−4 u en unité de masse atomique (1 u = 1,6605402 × 10−27 kg).
Il existe donc un rapport de 1 à 10 000 entre la masse de l'atome et celle de l'électron : dans un atome, la masse des électrons apparaît donc comme négligeable comparée à la masse du noyau.
La masse du proton est de 1,6726231 u (mp = 1,673 × 10−27 kg), et celle du neutron est de 1,6749286 u (mn = 1,675 × 10−27 kg).

Assimilé à une sphère, le volume du noyau est à peu près proportionnel au nombre de nucléons A : le rayon du noyau est, selon une formule empirique, proche de la racine cubique de A, r ≈ 1,41 × 10−15 × A1/3 m (de l'ordre de 10−15 m), ce qui correspond à 1 fm (femtomètre ou fermi).
Un facteur de 100 000 existe entre le rayon de l'atome et celui du noyau, et, si l'on néglige la masse des électrons, le noyau a une densité 10−15 fois plus élevée que celle de l'atome, ce qui correspond à une concentration énorme de matière. La même concentration appliquée à la masse totale de la Terre ramènerait notre planète à une sphère de 60 m de rayon.

1.3. Les atomes isolés
Les rares atomes isolés se rencontrent sous forme de gaz.
Les gaz rares (argon, hélium, krypton, néon, xénon) sont un exemple de la présence d'atomes isolés dans la nature : ils sont en très faible proportion dans l'air, où l'on trouve essentiellement de l'azote (78,084 %) et de l'oxygène (20,946 %) sous forme de molécules diatomiques (N2 et O2), du dioxyde de carbone et de la vapeur d'eau également sous forme de molécules.
Les gaz rares, qui ont été découverts par le chimiste britannique William Ramsay entre 1894 et 1898, ne représentent que 1 % du volume de l'air : argon 0,934 % ; hélium 0,52 × 10−3 % ; krypton 0,11 × 10−3 % ; néon 1,8 × 10−3 % ; xénon 8,7 × 10−6 %.
L'existence d'atomes libres de gaz rares résulte de leur configuration particulièrement stable : les ions se forment d'ailleurs à partir des atomes de telle sorte que, en général, la perte ou le gain d'électrons leur permette d'acquérir une configuration électronique d'atome de gaz rare.

1.4. Les atomes naturels et artificiels

Outre les éléments identifiés dans la nature, et leurs isotopes naturels, on connaît aujourd'hui des éléments plus lourds que l'uranium (le plus lourd des éléments existant à l'état naturel, répertorié avec le numéro atomique 92), et de nouveaux isotopes d'éléments qui existent, en revanche, à l'état artificiel.
Les atomes de ces éléments, ou de ces isotopes, sont fabriqués artificiellement en faisant intervenir des réactions nucléaires, qui consistent à bombarder, par des particules variées et animées d'une très grande vitesse, les noyaux des atomes d'éléments connus.
Ces réactions permettent d'accroître le nombre Z de protons du noyau (et on obtient des atomes plus lourds que ceux de l'élément bombardé) ou de modifier le nombre N de neutrons (et on obtient des isotopes nouveaux).

En règle générale, les éléments artificiels ainsi obtenus sont radioactifs : leurs noyaux se désintègrent rapidement, et leur durée de vie peut donc être très brève, ce qui explique leur absence dans les milieux naturels. Les atomes artificiels d'éléments plus lourds que l'uranium (appelés transuraniens ou éléments superlourds) sont obtenus à partir de noyaux naturels d'uranium ou de thorium. Le premier d'entre eux, dans la séquence des numéros atomiques, est le neptunium, qui porte le numéro Z = 93 ; puis le plutonium (Z = 94), synthétisé en 1940, etc. Le bombardement de l'uranium par des particules chargées et accélérées dans des cyclotrons a ainsi permis d'obtenir de nombreux éléments transuraniens. Les éléments artificiels ainsi fabriqués ont une durée de vie de plus en plus courte à mesure que leur numéro atomique est plus grand.

On peut également fabriquer des isotopes, le plus souvent radioactifs, d'éléments connus, en soumettant les atomes d'éléments naturels à un bombardement de particules accélérées ou à l'action des neutrons émis par une pile atomique. Ces isotopes sont utilisés soit en médecine, notamment pour le traitement du cancer (bombe au cobalt) ou pour réaliser des diagnostics (radio-iode), soit en analyse chimique pour identifier et doser des éléments présents en très petites quantités (de l'ordre de la partie par million), soit en mécanique pour radiographier des pièces de grandes dimensions.

2. Historique de la notion d'atome

La constitution de la matière a très tôt préoccupé les philosophes. L'atomisme, où l'atome est l'« essence de toutes choses », constituant ultime et indivisible de la matière, tel que le concevaient dans l'Antiquité des philosophes comme Empédocle, Leucippe et Démocrite, et tel qu'il fut repris par Épicure et Lucrèce, ne pouvait guère dépasser la vision mécaniste de particules se combinant pour former des corps, à la suite d'une légère et aléatoire modification de leur trajectoire dans le vide (c'est le phénomène du clinamen, chez Épicure). Les philosophes observaient surtout ce qui les entourait et tombait immédiatement sous leurs sens : d'où la suprématie du concept des quatre éléments (l'air, l'eau, la terre, le feu) énoncé par Homère, repris par Thalès et conforté par Aristote, et qui perdurera jusqu'au xviiie s. C'est la chimie qui, 2 500 ans environ après les philosophes grecs, établira la notion moderne d'atome.

2.1. Vingt-trois siècles de tâtonnements
L'alchimie est pratiquée dès la plus haute Antiquité dans les grandes civilisations orientales, notamment en Chine et en Inde, où elle est appelée « science des saveurs » ou « science des élixirs ». En Occident, elle fleurit dans le monde hellénistique et sera transmise par les Arabes au monde chrétien.

2.1.1. Au Moyen Âge
Au Moyen Âge les alchimistes classent les substances en fumées, esprits, eaux, huiles, laines, cristaux… Mais ils cherchent moins à identifier des corps différents qu'à découvrir la réalité « philosophale » fondamentale cachée derrière les apparences. États et propriétés physiques dominent ces classifications, et du ixe au xvie s. s'ajoutent trois autres éléments : le mercure pour l'état métallique et l'état liquide, le soufre pour la combustion et le sel pour la solubilité (ces éléments sont dits « philosophiques » pour ne pas les confondre avec les corps du même nom).
2.1.2. La théorie du phlogistique

Au xviie s. apparaît avec l'Allemand Georg Ernst Stahl la théorie du phlogistique : fluide miracle associé à tous les corps, il s'ajoute, se retranche, et permet d'expliquer le processus de combustion. Cependant, la chimie moderne est amorcée par le Français Jean Rey qui reconnaît, dès 1630, la conservation de la masse dans les transformations chimiques et le rôle de l'air dans les combustions. L'Irlandais Robert Boyle, dès 1661, fait la distinction entre mélanges et combinaisons chimiques.

2.1.3. La chimie devient une science

Au xviiie s., la chimie devient une véritable science avec le Britannique Joseph Priestley et le Français Antoine Laurent de Lavoisier qui imposent, par des méthodes dignes de la recherche actuelle, de nouvelles règles de nomenclature permettant de comprendre le processus des combinaisons chimiques. Lavoisier définit l'élément chimique, qui ne peut pas être décomposé en substances plus simples par la chaleur ou par une réaction chimique, ainsi que le composé, qui est la combinaison de deux éléments, ou plus, dans une proportion de poids déterminée.

2.2. L'approche de la connaissance actuelle de l'atome

2.2.1. La théorie atomique de Dalton

La première théorie moderne sur l'atome est énoncée, en 1808, par le Britannique John Dalton : tous les atomes d'un même corps simple, autrement dit d'un même élément, sont identiques, mais diffèrent des atomes d'autres éléments par leur dimension, leur poids et d'autres propriétés. Il donne d'ailleurs une liste de poids relatifs, par rapport à l'hydrogène, de quelques atomes (azote, carbone, oxygène, etc.).

2.2.2. Atome et tableau périodique des éléments

En 1869, le Russe Dimitri Ivanovitch Mendeleïev publie le premier tableau périodique des éléments classés en fonction de leur poids atomique. Il démontre que les propriétés chimiques des éléments sont des fonctions périodiques de leur « poids ». Pour cela, il est conduit, d'une part, à inverser certaines positions dans le classement (inversions qui s'avéreront, par la suite, en accord avec le fait que presque tous les éléments chimiques sont des mélanges de plusieurs isotopes) et, d'autre part, à laisser des cases vides correspondant, selon lui, à des éléments non encore découverts, mais dont il prévoit l'existence et les propriétés chimiques.

2.3. Découvertes des constituants de l'atome
Il faut attendre la fin du xixe s., avec les premières découvertes sur les constituants de l'atome, pour que la matière livre ses premiers secrets.

2.3.1. L'électron


.En 1891, l'Irlandais George Johnstone Stoney propose le nom d'électron pour désigner une particule qui porterait une charge électrique élémentaire négative. Mais c'est l'étude des rayons cathodiques par le Français Jean Perrin et par le Britannique Joseph John Thomson qui permet, en 1897, la découverte de l'électron, particule chargée négativement. J. Thomson mesure la charge e de l'électron par rapport à sa masse. La valeur de cette charge (− 1,6 × 10−19 C) est précisée, à 1 % près, en 1911, par l'Américain Robert Andrews Millikan.

2.3.2. La radioactivité et les nucléons

L'observation en 1896 par Henri Becquerel d'un rayonnement inconnu, les mystérieux « rayons uraniques », excite la curiosité de nombreux chercheurs. En effet, les sels d'uranium émettent un rayonnement capable de rendre l'air conducteur d'électricité, d'impressionner une plaque photographique, et qui est aussi pénétrant que les rayons X.
Les radioéléments

À partir de cette observation, Marie Curie commence, en 1898, ses recherches sur la pechblende (oxyde naturel d'uranium) ; son but est de quantifier le rayonnement émis en mesurant l'intensité du courant d'« ionisation » qui est établi dans l'air, sous son action. Elle montre que l'intensité de ce rayonnement est proportionnelle à la quantité d'uranium présent, et elle retrouve ce même phénomène avec l'étude du thorium. Elle propose d'appeler radioactivité cette propriété, et substances radioactives les corps émetteurs de ce rayonnement.
Puis, en collaboration avec Pierre Curie, elle découvre d'autres radioéléments beaucoup plus radioactifs que l'uranium : le polonium en juillet 1898 et le radium en décembre de la même année. Les sources de radium sont un million de fois plus radioactives que les sels d'uranium. Dès ce moment, les découvertes de nouveaux éléments radioactifs se succèdent ; ainsi, André Louis Debierne isole l'actinium en 1899.

Le rayonnement radioactif

L'étude du rayonnement radioactif, émetteur de particules, peut alors être entreprise. Les physiciens reconnaissent deux espèces de rayonnements, que le Britannique Ernest Rutherford désigne par les lettres grecques α et β – par la suite un troisième rayonnement, γ (→  rayons gamma), sera identifié –, qui se distinguent par leur aptitude à pénétrer la matière et par leur comportement sous l'action d'un champ magnétique ou électrique. En 1903, ses compatriotes W. Ramsay et F. Soddy montrent que le rayonnement α est formé de noyaux d'hélium, projetés à grande vitesse.

2.3.3. Le noyau

L'existence du noyau est démontrée en 1907 par Rutherford, qui a l'idée de bombarder la matière, afin de mieux comprendre sa nature, à l'aide de particules α utilisées comme de véritables projectiles. À cet effet, il réalise, dans un tube sous vide, un faisceau étroit de particules α émises par désintégration radioactive du polonium, et place sur son trajet une feuille d'or très mince. Il constate que la plupart des particules n'ont pas rencontré d'obstacles en traversant la feuille d'or, et que par conséquent la matière est pratiquement vide. Cependant, quelques particules sont fortement déviées, et le calcul montre qu'elles ne peuvent être repoussées que par des charges positives concentrées dans un très petit volume.

2.3.4. Le proton
Un des élèves de Rutherford, H. G. Jeffreys Moseley, détermine en 1913 le nombre de charges électriques unitaires et positives que contient l'atome (numéro atomique Z), tandis que son maître découvre, en 1919, la particule positive constitutive du noyau, qu'il nomme proton. Il pressent l'existence d'une particule semblable mais neutre.

2.3.5. Le neutron
En 1930, les Allemands Walter Bothe et Heinrich Becker observent, en bombardant des éléments légers (lithium, béryllium, bore) par des particules α, l'apparition d'un nouveau rayonnement encore plus pénétrant que les protons, qui n'est pas dévié par un champ électrique ou magnétique. C'est encore un élève de Rutherford, James Chadwick, qui en 1932 montre que ce rayonnement est constitué de particules de masse quasi identique à celle du proton, mais neutres, insensibles aux charges électriques, et donc très pénétrantes : les neutrons.

2.3.6. Mésons et quarks

Les particules élémentaires selon le modèle standard
Par la suite, on s'aperçoit que les nucléons (neutrons et protons) ne restent pas inertes dans le noyau : ils interagissent en échangeant des particules plus élémentaires, les mésons π (ou pions), découverts en 1947 par le Japonais Yukawa Hideki et le Britannique Cecil Frank Powell.
Dans les années 1960, l'Américain Murray Gell-Mann introduit l'hypothèse que les nucléons sont eux-mêmes composés de trois grains quasi ponctuels, les quarks, liés par des gluons. Avec l'avancée des constructions théoriques pour rendre compte des faits expérimentaux, le nombre des quarks a été porté à six. Ainsi, en moins d'un siècle, la notion de particule élémentaire est passée de la molécule à l'atome, puis au noyau, ensuite au nucléon puis au quark, et d’autres particules théoriques sont encore à l’étude dans les gigantesques accélérateurs.

3. La représentation de l'atome
Dès que la notion scientifique d'atome apparut, il s'avéra nécessaire de la symboliser pour parvenir à une meilleure compréhension des processus chimiques.

3.1. La représentation symbolique de l'atome

Bien que les termes d'atome et d'élément y soient parfois confondus avec celui de molécule, la première tentative de représentation de l'atome peut être attribuée à John Dalton, qui donne une table des « poids » des différents éléments connus : ces derniers sont représentés par des cercles dans lesquels des lettres, des points ou des traits caractérisent la nature de l'élément. À la même époque, en 1814, la première notation systématique des éléments par le Suédois Jöns Jacob Berzelius annonce la représentation qui sera retenue par la suite. Chaque élément chimique est représenté par un symbole : la première lettre du nom en latin suivi éventuellement d'une deuxième lettre pour distinguer des éléments ayant des initiales identiques. Ainsi, le fluor (F) se distingue du fer (Fe), du fermium (Fm), ou du francium (Fr).

3.2. La représentation spatiale ou la notion de modèle
Dès les premiers résultats expérimentaux, les physiciens entreprennent de proposer une représentation de l'atome capable d'intégrer dans un ensemble cohérent les observations fragmentaires. Ils vont ainsi élaborer un modèle qui rend compte à un instant donné de la totalité des informations recueillies et validées.
3.2.1. Le modèle planétaire

En 1901, Jean Perrin propose une représentation planétaire de l'atome où l'électron décrit une trajectoire circulaire autour du noyau. Reprise et mise en équation par le Danois Niels Bohr en 1913, cette interprétation va s'installer durablement dans les esprits, alors que dès 1927 de nouvelles découvertes la mettent en cause.

Ce modèle s'impose au début du xxe s., car il concilie des résultats provenant d'horizons divers. En effet, on a observé, dès 1850, que chaque gaz, quand il est excité par des décharges électriques, émet une lumière qui, en passant dans un spectroscope à prisme, donne un spectre d'émission différent. Même l'hydrogène, l'élément le plus simple, donne naissance à un spectre complexe.
À la suite des travaux du Suisse Johann Jakob Balmer, en 1885, sur le spectre d'émission de l'hydrogène, le Suédois Johannes Robert Rydberg a proposé une relation mathématique simple entre les longueurs d'onde λ des raies caractéristiques du spectre de l'hydrogène :
1/λ = RH (1/n12 − 1/n22).
• RH est une constante spectroscopique appelée constante de Rydberg (RH = 109 737,32 cm−1) ;
• 1/λ est l'inverse de la longueur d'onde, appelé nombre d'onde (exprimé en cm−1) ;
• n1 et n2 sont des nombres entiers tels que n2 > n1, une série de raies du spectre de l'hydrogène étant caractérisée par une valeur donnée de n1, et par des valeurs de n2 égales à n1 + 1, n1 + 2, n1 + 3.

En 1913, James Franck et l'Allemand Gustav Hertz démontrent qu'un atome ne peut absorber de l'énergie que par quantités discrètes (ΔE) : ce phénomène donne naissance à un spectre d'absorption. Réciproquement, une perte de ces quantités d'énergie (ΔE) engendre une radiation (→  rayonnement) dont la fréquence (ν) émise vérifie la relation avancée par un autre Allemand, Max Planck, pour définir un quantum d'énergie :
ν = ΔE/h
dans laquelle h est la constante de Planck (h = 6,626 × 10−34 J . s).
Ces propositions sont corroborées par le calcul qui mène à la valeur expérimentale de la constante de Rydberg.
Ainsi, il apparaît que l'ensemble des travaux menant à la quantification des niveaux d'énergie des électrons dans l'atome s'accorde avec le phénomène de discontinuité des spectres d'émission de l'atome d'hydrogène : c'est la raison de la faveur du modèle de Bohr.

Emplacement des électrons dans un atome
Selon ce modèle, les électrons se déplacent autour du noyau central sur des orbites analogues à celles que parcourent les planètes autour d'un astre. Au centre se trouve le noyau, chargé positivement, autour duquel gravitent les électrons négatifs ; la charge du noyau est égale à la valeur absolue de la somme des charges des électrons.
Ces électrons planétaires ne peuvent se situer que sur certaines orbites stables, associées chacune à un niveau d'énergie formant une suite discontinue, et correspondant aux différentes couches désignées par les lettres K, L, M, N, etc. On dit que l'énergie de l'atome est quantifiée.
La couche électronique K, la plus proche du noyau, peut au plus contenir deux électrons, et la couche L, huit électrons. Sous l'effet d'une excitation extérieure, l'électron peut passer d'une orbite à une autre, d'énergie supérieure. Mais il revient ensuite spontanément sur des orbites d'énergie inférieure. C'est alors qu'il rayonne de l'énergie.

3.2.2. Limites du modèle planétaire
En dépit du perfectionnement du modèle de Bohr, en 1928, par l'Allemand Arnold Sommerfeld, qui propose pour l'électron une trajectoire elliptique, une rotation sur lui-même (spin de l'électron) et la quantification étendue à l'espace pour tenter de rendre compte de la décomposition des raies spectrales émises quand on place l'atome dans un champ magnétique (effet Zeeman, du Néerlandais Pieter Zeeman), ce modèle avait des difficultés à interpréter les résultats obtenus pour les atomes à plusieurs électrons.
De plus, l'électron, qui rayonne de l'énergie, devait logiquement tomber sur le noyau.
Malgré le succès remporté par le modèle atomique de Bohr, il est très vite apparu impossible de développer une théorie générale pour tous les phénomènes atomiques en surimposant simplement aux principes de la mécanique classique ceux de la mécanique quantique.

3.2.3. Dualité onde-corpuscule

Vers 1900, Max Planck avait associé au caractère ondulatoire du rayonnement défini par une longueur d'onde λ un caractère corpusculaire sous forme de photons dont l'énergie E est liée à cette longueur d'onde λ par la relation (où c est la vitesse de la lumière) :
E = hν = hc/λ.

Le Français Louis de Broglie extrapole cette théorie des photons à toute particule, dans sa thèse en 1924, où il montre que les propriétés corpusculaires des électrons ont une contrepartie ondulatoire.
Dès 1927, les Américains Clinton Joseph Davisson et Lester Halbert Germer prouvent le bien-fondé de cette relation en réalisant la diffraction d'électrons par un cristal, démontrant ainsi le caractère ondulatoire des électrons (en 1978, on réalisera aussi la diffraction de l’antiparticule de l’électron nommée positon, découvert en 1932 par l'Américain Carl David Anderson).
Par ailleurs, en 1927, l'Allemand Werner Heisenberg traduit par une inégalité l'impossibilité de connaître simultanément deux paramètres pour une particule en mouvement (vitesse et position, par exemple). C'est le principe d'incertitude, incompatible avec le modèle de Bohr :
Δp × Δx > h
où Δp et Δx expriment respectivement les incertitudes sur les paramètres p (quantité de mouvement) et x (position).

3.3. L'atome en mécanique ondulatoire
Le caractère double de la matière, ondulatoire et corpusculaire, et le principe d'incertitude font abandonner le modèle de Bohr et sa représentation ponctuelle de l'électron parcourant une trajectoire. Une démarche neuve apparaît avec des modes de raisonnement et de calcul qui lui sont propres. La position, la vitesse et la direction du déplacement d'un électron ne pouvant être définies simultanément, on détermine la probabilité de sa présence dans un certain volume de l'espace situé autour du noyau, que l'on appelle orbitale ou nuage électronique. On lui associe une fonction complexe purement mathématique nommée fonction d'onde (Ψ), qui se calcule par la résolution d'une équation posée par l'Autrichien Erwin Schrödinger.

L'application de l'équation de Schrödinger à l'électron unique de l'atome d'hydrogène dans son état de plus faible énergie, appelé état fondamental, permet de retrouver les résultats expérimentaux déjà interprétés par le modèle planétaire. Mais elle intègre les états inhabituels, dits états excités, où les énergies sont plus élevées que dans le cas de l'état fondamental, et permet l'extension et la généralisation du modèle aux atomes autres que l'hydrogène : les électrons de ces derniers occupent, à l'état fondamental, des orbitales comparables à celles des états excités de l'atome d'hydrogène.

Pour rendre compte du comportement des atomes possédant un seul électron sous l'effet d'un champ magnétique ou d'un champ électrique, on a été amené à introduire la notion de spin, qui trouve sa formulation mathématique grâce au Britannique Paul Dirac (en première approximation par rapport à la mécanique classique, le spin traduit un mouvement propre de rotation de l'électron sur lui-même).
On déduit par ailleurs de la mécanique ondulatoire le principe dit d'exclusion de Pauli, selon lequel deux électrons d'un même atome ne peuvent pas être repérés par le même ensemble de nombres quantiques n, l, m, s.
Il apparaît en outre que les électrons sont généralement localisés plus particulièrement dans certaines directions de l'espace autour du noyau.

3.4. Paramètres caractéristiques des électrons dans l'atome

Emplacement des électrons dans un atome
La résolution mathématique de l'équation de Schrödinger impose des restrictions qui conduisent à l'introduction de nombres appelés nombres quantiques – n, l, m, s – devant satisfaire à certaines conditions ; l'énergie et la localisation spatiale des électrons gravitant autour du noyau sont déterminées par ces nombres .

3.4.1. Le nombre quantique principal
Le nombre quantique principal n est un entier strictement positif : il se nomme nombre quantique principal, car il quantifie l'énergie. On retrouve par la mécanique ondulatoire la même expression des différents niveaux d'énergie de l'atome d'hydrogène que celle obtenue dans le modèle de Bohr soit :
En = −13,6/n2 en eV (1 eV = 1,6 × 10−19 J)
avec n = 1, 2, 3…

Le nombre n détermine également le volume à l'intérieur duquel l'électron a le plus de chance de se trouver : quand n croît, le volume augmente. Les valeurs successives 1, 2, 3, etc. correspondent à l'ancienne notation des couches atomiques par les lettres K, L, M, etc.
Cependant, pour décrire une orbitale atomique, le nombre quantique principal n n'est pas suffisant, car si l'énergie fixe la taille de l'orbitale, elle ne donne pas la direction de l'espace où la probabilité de trouver l'électron est importante.

3.4.2. Le nombre quantique azimutal
Le nombre l est un entier positif, strictement inférieur à n, appelé nombre quantique azimutal, ou nombre quantique secondaire (par exemple, si n = 2 alors l = 0 ou 1) ; l quantifie le module du moment cinétique orbital.
De plus, l détermine la forme de l'orbitale dont les grands axes indiquent la direction où l'on a le plus de chance de trouver l'électron. Selon que l = 0, 1, 2, 3 ou 4, les différents types d'orbitales atomiques sont désignés respectivement par s, p, d, f ou g.
Ainsi, pour l = 0, la distribution électronique est symétrique autour du noyau et la probabilité de trouver l'électron est la même dans toutes les directions ; c'est le cas de l'hydrogène à l'état fondamental.
Si l = 1 ou 2 (orbitales p ou d), la fonction d'onde présente des « excroissances » dans des directions privilégiées de l'espace, justifiant l'orientation et les valeurs précises des angles de liaison des atomes entre eux dans les molécules.

3.4.3. Le nombre quantique magnétique
Le nombre m est un entier variant de − l à + l, prenant donc 2l + 1 valeurs : on l'appelle nombre quantique magnétique, car il quantifie la projection du moment cinétique sur un axe privilégié, celui selon lequel on applique un champ magnétique.
Ainsi, pour n = 2 :
• à l = 0 correspond m = 0 ;
• à l = 1 correspond m = − 1, 0, + 1,
m indique donc le nombre d'orbitales.
Pour l = 1 on a des orbitales p, où la probabilité de trouver l'électron est importante sur l'axe Oz pour m = 0, et suivant les axes Oy ou Ox pour m = − 1 ou + 1. À chaque type d'orbitale atomique (s, p) correspondent donc (2l + 1) orbitales atomiques, soit 1 de type s, 3 de type p, 5 de type d, 7 de type f, qui ont chacune une forme et une orientation bien particulières.
Ψn, l, m est la fonction d'onde qui exprime la forme de l'orbitale atomique occupée par un électron ; cette fonction au carré Ψ2n, l, m exprime la probabilité de présence de cet électron dans les différents domaines de l'espace.
(Ψn, l, m est une fonction des coordonnées de l'espace : x, y, z en coordonnées cartésiennes, ou r, θ, φ en coordonnées polaires.)

3.4.4. Le spin
Le quatrième nombre quantique est le spin s, qui prend deux valeurs opposées (+ 1/2 et − 1/2) pour chaque ensemble n, l, m.
Aucun électron d'un même atome n'a ses quatre nombres quantiques identiques à ceux d'un autre électron (principe d'exclusion). Pour une valeur n du nombre quantique principal le nombre maximum d'électrons est 2n2.
La résolution de l'équation de Schrödinger n'est rigoureuse que pour l'atome d'hydrogène. Elle s'étend toutefois aisément aux ions hydrogénoïdes, tels que He+ (un seul électron autour du noyau), et avec des approximations satisfaisantes elle s'applique aux atomes à plusieurs électrons.
Jusqu'à présent, l'hypothèse quantique, tout en se modifiant au fur et à mesure des nouvelles données, permet d'expliquer l'ensemble des connaissances.
À partir du nombre global d'électrons, et en jouant avec les valeurs que peuvent prendre entre eux les nombres quantiques, il est possible de construire la carte d'identité de chaque atome tout en respectant les règles qui, parfois sous des noms différents, ne sont qu'une même expression du fait que l'énergie la plus faible confère à l'édifice la stabilité la plus grande.

 

DOCUMENT   larousse.fr    LIEN

 
 
 
 

POURQUOI LA MATIÈRE CHANGE-T-ELLE D'ÉTAT : LA COMPÉTITION ENTRE ORDRE ET DÉSORDRE

 

 

 

 

 

 

 

POURQUOI LA MATIÈRE CHANGE-T-ELLE D'ÉTAT : LA COMPÉTITION ENTRE ORDRE ET DÉSORDRE


"Les changements d'état de la matière, sous l'effet d'une élévation ou d'un abaissement de température, sont des phénomènes bien familiers. De même, on connaît depuis longtemps des substances dont la structure ou encore les propriétés électriques ou magnétiques, se modifient de manière discontinue avec la température ; citons les études de Pierre Curie sur l'apparition ou la disparition de l'aimantation des oxydes de fer, ou encore celles qui concernent la supraconductivité.Or, si ces phénomènes sont bien quotidiens, ils n'en restent pas moins fort surprenants si l'on examine leur signification à l'échelle microscopique des atomes et molécules. La solidification d'un fluide se traduit, sous l'effet d'un minime abaissement de température, par la mise en un ordonnancement spatial régulier d'un grand nombre d'atomes, sans que rien ne soit venu modifier les forces qui régissent les interactions entre les constituants. Ces changements d'état sont dominés par des questions de symétrie : c'est ainsi que les forces entre atomes ne privilégient aucune direction particulière, et que pourtant, tant la cristallisation que l'apparition d'une aimantation par simple refroidissement, font apparaître des orientations bien déterminées. Le changement d'état est donc une brisure spontanée de symétrie : l'état du système est moins symétrique que les forces entre atomes constituants ne pouvaient le faire prévoir. Cette notion de symétrie brisée domine plusieurs branches de la physique de notre temps : au-delà des études de nouvelles phases de la matière évoquées ci-dessus, elle est présente dans la théorie moderne des interactions entre particules élémentaires, ou encore dans les modèles cosmologiques d'univers "" inflationnistes "" primitifs."

POURQUOI LA MATIÈRE CHANGE-T-ELLE D'ÉTAT : LA COMPÉTITION ENTRE ORDRE ET DÉSORDRE


Texte de la 220e conférence de l'Université de tous les savoirs donnée le 7 août 2000.
Symétries et symétries brisées : la compétition ordre-désordre et les changements d'état de la matière
par Édouard Brézin
Introduction
Le sentiment d'harmonie dégagé par les symétries des objets naturels ou fabriqués, a sans aucun doute accompagné l'homme depuis ses origines. Peut-être est-ce la quasi-identité des moitiés gauche et droite de nombreuses espèces vivantes qui a conduit à l'adoption de canons esthétiques, présents à l'évidence dans la vision des premiers architectes égyptiens et grecs. Plus près de nous les cinq polyèdres réguliers platoniciens, de par leur perfection et leur unicité, apparaissaient encore à Kepler comme le modèle indispensable régissant les distances au soleil des cinq planètes du système solaire connues en son temps (la découverte en 1781 d'une sixième planète, Uranus, ne laissait plus aucune place à ce rêve).
Mais ce n'est qu'à partir de la fin du siècle dernier que, dépassant ces considérations géométriques et esthétiques, la symétrie s'est imposée progressivement comme instrument de compréhension de l'univers, et finalement, avec la notion contemporaine de symétrie locale, comme le concept premier et unificateur permettant de comprendre l'organisation de la matière, les interactions entre constituants élémentaires (électromagnétisme et forces nucléaires), et même la cosmologie de notre univers en inflation issu du big-bang initial. Le rêve de Kepler s'est en quelques sorte enfin réalisé : la symétrie détermine le monde.
Le langage nous tend des pièges difficiles à éviter. C'est ainsi qu'à côté de symétrie-dissymétrie nous trouvons ordre et désordre qui leur sont étroitement associés. Mais que l'on y prenne garde, c'est à la symétrie qu'est associé le désordre, alors que l'ordre résulte de la symétrie brisée, qui n'est pas l'absence de symétrie, notion qu'il va donc nous falloir expliciter tout à l'heure.

Le dix-neuvième siècle
Deux pionniers de l'étude des symétries ont marqué le siècle dernier, Louis Pasteur et Pierre Curie. Ils nous laissé des concepts profonds, et des interrogations qui n'ont cessé de nous accompagner depuis lors.
Les expériences du jeune Pasteur visaient à préciser la propriété connue de certains cristaux, tel le quartz, qui font tourner le plan de polarisation de la lumière. En 1848 Pasteur, chimiste d'exception avant de devenir le biologiste génial que tout le monde connaît, cherchait à préciser le lien entre cette activité optique et la structure des cristaux ; il remarqua que les cristaux de paratartrate de sodium étaient un mélange de deux « énantiomères », c'est à dire de petits cristaux qui étaient tantôt identiques, tantôt identiques à l'image des précédents dans un miroir (de même qu'une main droite n'est pas identique à une main gauche, mais simplement à l'image de celle-ci dans un miroir). Il montrait alors que chacun de ces deux types de cristaux, avait des propriétés optiques opposées, signe d'une chiralité moléculaire (du grec kheir main). Mais la découverte de Pasteur allait beaucoup plus loin, puisqu'elle mettait en évidence une différence fondamentale entre la matière inerte et la matière vivante. En effet la synthèse des paratartrates en laboratoire produisait des mésotartrates optiquement inactifs, qui se révélèrent être toujours des mélanges en parts égales des deux énantiomères, alors que la vie est profondément asymétrique puisque les cristaux de paratartrate, issus des dépôts dans le vin, étaient exclusivement lévogyres. Depuis la biochimie n'a cessé de nous révéler que les molécules constitutives du vivant, ADN, protéines, etc., étaient asymétriques, avec une homochiralité universelle : ainsi toutes les hélices constitutives de l'ADN tournent toujours dans le même sens, chez tous les êtres vivants.
Comment expliquer une telle différence entre la biochimie et la chimie du monde inanimé ? C'est bien un mystère, car les processus physiques qui régissent la constitution des atomes et molécules ne distinguent pas la droite de la gauche : une réaction chimique et celle qui serait constituée par l'image ce cette dernière dans un miroir, ont des probabilités égales de se produire. Notons tout de même que, rompant avec une conception qui faisait de cette égalité un dogme, deux physiciens américains nés en Chine, T.-D. Lee et C.-N. Yang, formulèrent en 1956 l'hypothèse que les interactions nucléaires, responsables de la radioactivité bêta, n'étaient pas identiques à leur « image dans un miroir ». Cette non-conservation de la parité fut rapidement mise en évidence expérimentalement par la physicienne de l'université de Columbia Mme C.-S. Wu. Pour ne prendre qu'une image, cela signifie que nous avons bien la possibilité de faire connaître à des extra-terrestres (connaissant les lois de la nature !) ce que nous appelons la droite et la gauche. Cette légère asymétrie serait-elle suffisante pour expliquer cette surprenante homochiralité du vivant ? D'autres préfèrent imaginer que les fluctuations statistiques dans des populations d'énantiomères droits et gauches a priori égales, peuvent produire une inégalité accidentelle qui s'auto amplifie et conduit à l'homochiralité du vivant. (Pour ma part je crois que ce mécanisme ne saurait suffire, sans invoquer également le précédent). D'autres enfin, à la suite de J. Monod, voient dans cette homochiralité la preuve d'une origine unique commune à tous les êtres vivants. Il n'est pas question ici de trancher, mais on voit combien cette observation extraordinaire de Pasteur reste au cSur des préoccupations contemporaines sur l'origine de la vie.
C'est l'étude de la piézoélectricité du quartz, cette propriété aujourd'hui si abondamment utilisée, par exemple dans nos montres à quartz, mise en évidence en 1888 par les frères Curie, qui conduisit Pierre Curie à formuler un principe de symétrie profond et général. Réfléchissant en effet sur le lien entre la direction de la polarisation électrique du cristal et celle des contraintes mécaniques qui lui donnent naissance, Pierre Curie postula que « lorsque certaines causes produisent certains effets, les éléments de symétrie des causes doivent se retrouver dans les effets possibles ». Malgré son aspect très formel ce principe est d'utilisation parfaitement opératoire, tout spécialement en présence de champs électriques et magnétiques. C'est ainsi qu'il implique qu'il n'est pas possible de réaliser des synthèses chimiques « asymétriques », privilégiant l'un des composés, droit ou gauche, de molécules possédant une chiralité déterminée, sous le simple effet d'un champ magnétique.
Nous savons aujourd'hui que ce principe de Curie, pris au pied de la lettre, ne couvre pas le champ important des symétries brisées, et il est paradoxal de constater que l'une de ces premières brisures connues, celle de la transition paramagnétique-ferromagnétique, a été découverte également par P. Curie.
Physique statistique : énergie et entropie
Il nous faut donc venir au concept important de brisure spontanée de symétrie, et auparavant situer la compétition entre ordre et désordre qui régit l'organisation de la matière. Inscrite dans la thermodynamique, elle prit tout son sens lorsque Boltzmann et Gibbs établirent à la fin du siècle dernier les fondements de la physique statistique, science de la déduction des propriétés du monde macroscopique à partir des constituants élémentaires de la matière.
Examinons un processus simple et familier comme le gel d'un liquide. Le solide ainsi formé possède une structure régulière dans laquelle les atomes ou molécules constitutives se rangent au sommet d'un réseau spatial périodique. (Remarquons au passage le lien étonnant entre mathématiques et physique en ce domaine : les symétries sont exprimées mathématiquement à l'aide de la théorie des groupes, c'est-à-dire de la théorie des opérations qui laissent un objet inchangé. Cette théorie conduit à montrer qu'il n'existe que 230 structures périodiques possibles pour ces arrangements spatiaux des molécules, et les cristallographes ont bien identifié des structures solides réalisant chacune de ces 230 possibilités. Il faut également observer que la nature sait déjouer les théorèmes mathématiques puisque aucune des structures permises ne possède de symétrie d'ordre cinq : or, à la surprise générale, on découvrit en 1984 un « solide » possédant une telle symétrie interdite. Ces structures bien identifiées aujourd'hui et appelées quasi-cristaux sont en fait parfaitement apériodiques). Si l'on tente d'imaginer le comportement des molécules constituantes lors de la solidification, le gigantisme du nombre de molécules contenues dans le moindre grain de matière rend le processus tout à fait stupéfiant. Une minuscule goutte d'eau est constituée de plusieurs milliards de milliards de molécules. Un infime abaissement de température de l'eau en dessous de 0°C, produit donc la mise en ordre spatial d'un nombre colossal d'objets sans que rien ne soit venu modifier ni les molécules ni les forces mutuelles d'interaction qui régissent leur comportement. Projetons en marche arrière le film de la fin d'un défilé au moment où tous les soldats s'éparpillent, et représentons nous un défilé imaginaire avec de très nombreux milliards de participants et nous aurons une image microscopique de la solidification.
La transition solide-liquide est la manifestation de deux phénomènes antagonistes, qui mettent en jeu énergie et entropie. Dans cette matière macroscopique en effet, les configurations des molécules sont innombrables ; chacune d'entre elles est susceptible de se réaliser avec une petite probabilité, d'autant plus grande que son énergie est plus basse. À basse température, dans la phase solide donc, les configurations de basse énergie, très ordonnées spatialement pour autoriser les molécules à « profiter » de leur attraction réciproque, ont un poids dominant. En revanche à plus haute température, la multiplicité des configurations possibles conduit à rejeter les configurations ordonnées, à privilégier des configurations plus énergétiques, bien moins probables donc, mais si nombreuses que cette considération (identifiée par Boltzmann à l'entropie des thermodynamiciens) l'emporte. Comparons le liquide et le solide : le liquide est isotrope, aucune direction n'y est privilégiée. Il est également tout à fait homogène, identique en tous ses points. Le solide lui possède des axes cristallins privilégiés et des points qui servent de sommets au réseau périodique sur lequel sont venus se ranger les molécules. Il est donc, certes plus ordonné que le liquide, mais moins symétrique que lui puisque des opérations telles que des rotations ou des translations arbitraires qui ne changent rien au liquide, ne laissent pas le solide invariant. Cette brisure de symétrie, manifestée par l'ordre cristallin, est spontanée en ce sens qu'elle ne nécessite aucun agent extérieur, aucune interaction privilégiant des directions particulières.
Pour visualiser de manière plus intuitive une brisure spontanée de symétrie, on peut considérer le flambement d'une poutre sous l'effet d'une charge excessive. Même si la pression exercée coïncide bien avec l'axe de la poutre, celle-ci finira par flamber de manière asymétrique si la pression dépasse un certain seuil. On voit donc que cela implique de compléter quelque peu le principe de Curie : la symétrie d'un état particulier résultant d'une cause déterminée, peut avoir moins de symétrie que cette dernière. Seul l'ensemble des états possibles sous l'effet de cette cause a la symétrie des effets qui l'ont provoquée.
Un grand nombre des changements d'état de la matière résultent donc de ce phénomène de symétrie brisée. Les « aimants » permanents présentent une aimantation dans une direction spatiale bien déterminée qui disparaît au-delà d'une certaine température (celle-ci porte le nom de Curie qui avait découvert cette transition entre un état « ferromagnétique » aimanté et présentant une orientation, et un état « paramagnétique » désorienté et donc tout à fait isotrope). De nos jours la supraconductivité, la superfluidité, les phases des cristaux liquides, et bien d'autres changements d'états, n'ont cessé d'enrichir le catalogue des symétries spontanément brisées que présente l'organisation de la matière. Les défauts à l'ordre eux-mêmes (un solide, et toute structure ordonnée, possèdent des défauts) s'organisent d'une manière tout à fait caractéristique des symétries brisées présentes dans la structure.
La compréhension du mécanisme de la compétition ordre-désordre (ou énergie-entropie) mise en jeu dans ces transitions s'est étendue sur de nombreuses décennies. Après de longues années d'interrogations inconclusives, les travaux de 1940 du physicien R. Peierls, qui avait fui le nazisme en Angleterre, montraient que la formulation statistique de la physique qui doit tant à Boltzmann, contenait bien la possibilité, la nécessité même, de transition de phase par brisure spontanée de symétrie. À la même époque, l'étude systèmatique par L. Landau en Union Soviétique, des types de symétrie et de leurs brisures spontanées, mettait en quelques sorte fin au problème. Landau introduisait le concept fort important de paramètre d'ordre qui permet de caractériser la transition de phase et les phénomènes singuliers qui l'accompagnent. Dans la phase symétrique, c'est-à-dire désordonnée, ce paramètre est nul. En revanche dans la phase ordonnée, c'est-à-dire de symétrie brisée, il prend une valeur non nulle spontanément, i.e. en l'absence de tout sollicitation extérieure.
Mais le problème devait resurgir dans les années 60 par l'arrivée de moyens expérimentaux nouveaux, tels que les lasers ou la diffraction des neutrons, qui révélaient que la théorie développée par Landau, bien que souvent qualitativement en accord avec l'expérience, était en fait quantitativement erronée. Que l'on me permette de ne pas tenter d'exposer ici les travaux sur le groupe de renormalisation, qui permirent de résoudre ce problème (et bien d'autres à sa suite) et valurent à l'américain K. Wilson le prix Nobel de physique 1981.

Symétries du monde subnucléaire
Les concepts de symétrie, associée à des opérations qui laissent le système invariant, ont joué un rôle central dans les idées de la physique. Je me contenterai de citer, sans la développer ici, la contradiction entre les symétries galiléennes de la mécanique classique, et celles de Lorenz-Poincaré de l'électrodynamique de Maxwell. C'est elle qui conduisit Einstein à la relativité restreinte. Un peu plus tard Einstein, toujours guidé par le souci de décrire les lois de la physique de manière universelle, indépendante de l'état de mouvement des observateurs, aboutit par des considérations d'invariance, c'est-à-dire de symétrie, à la relativité générale, nouvelle théorie de la gravitation, base indispensable de la cosmologie contemporaine. Plus près de nous les quarks, éléments constitutifs de la matière « hadronique » (c'est-à-dire liée par des forces nucléaires fortes), ont été mis en évidence par les propriétés de symétrie présentées par la classification des particules élémentaires, une démarche qui rappelait l'élucidation de la structure des atomes à partir des régularités du tableau de Mendeleïev.
Mais je voudrais tenter de décrire ici les idées très importantes de symétrie locale (plus couramment appelées symétries de jauge, même si cette dénomination n'est pas très éclairante) qui ont permis de comprendre à la période contemporaine les interactions entre particules élémentaires (électromagnétiques ainsi que nucléaires faibles et fortes). La symétrie n'est plus cette fois une simple propriété de la structure, mais l'élément qui permet de fixer entièrement la dynamique des forces électromagnétiques et nucléaires.
En 1925 les travaux du physicien anglais P.A.M. Dirac établissaient une théorie de l'électron en interaction avec le rayonnement électromagnétique qui incorporait à la fois la nouvelle mécanique des quanta, la relativité et les équations de Maxwell de l'électromagnétisme. Le physicien-mathématicien H. Weyl réalisa que l'interaction entre les particules dotées d'une charge électrique et le rayonnement électromagnétique, telle qu'elle apparaissait dans la théorie de Dirac, résultait de manière unique d'une propriété de symétrie insoupçonnée. Renversant le raisonnement, cette symétrie de « jauge » est alors suffisante pour fixer la théorie de Maxwell-Dirac. Une explication précise demanderait un peu trop de formalisme. En quelques mots il faut savoir que les états d'une particule comme l'électron, sont décrits en mécanique quantique par une fonction d'onde qui est un nombre complexe en chaque point de l'espace-temps (on peut se représenter cela par un vecteur dans un plan associé à chaque point de l'espace-temps). La théorie ne change pas si on modifie cette phase de la même quantité pour tous les points de l'espace-temps (c'est-à-dire si on fait tourner tous ces vecteurs dans le plan du même angle). Cette première symétrie n'est pas tout à fait banale, puisqu'elle implique que la charge électrique est « conservée », c'est-à-dire que dans tout processus la charge finale est la même que la charge initiale.
Peut-on modifier cette phase indépendamment pour chaque point de l'espace-temps ? A priori la réponse est négative, c'est-à-dire qu'en l'absence de champ électromagnétique, cette opération n'est certainement pas une symétrie de la théorie. Mais Weyl comprit que le champ électromagnétique avait précisément pour fonction d'instituer cette propriété d'invariance locale. Le champ résultant de cette invariance postulée obéit aux équations de Maxwell, et il introduit manifestement des interactions de portée infinie puisqu'il autorise de changer indépendamment les phases en des points arbitrairement espacés. Ce champ est constitué en termes quantiques de photons comme l'avait compris Einstein, particules sans masse, puisque porteuses d'une symétrie s'étendant à des distances arbitraires infinies (la portée est proportionnelle à l'inverse de cette masse).
La généralisation de ces idées à des symétries plus complexes qu'une simple rotation de vecteurs dans un plan, fut l'Suvre de Yang et Mills en 1956. Y apparaissent d'autres champs de « jauge » que les photons, qui ne reçurent initialement guère d'attention car, pour les mêmes raisons, les particules associées étaient elles-aussi sans masse et donc les interactions médiées par ces champs de portée infinie. Les théoriciens en butte avec la compréhension des forces nucléaires, et en particulier les forces dites « faibles », responsables par exemple de la désintégration bêta de noyaux dotés d'un excès de neutrons, auraient volontiers adopter une théorie de Yang-Mills, mais la portée des forces nucléaires faibles ne dépassant guère quelques milliardièmes de milliardième de mètre, il paraissait impossible, absurde même, de vouloir les faire sortir d'une théorie dans laquelle la portée des interactions est arbitrairement grande. C'est la compréhension du mécanisme de symétrie brisée qui permit d'établir finalement cette théorie des interactions faibles, unifiée de surcroît avec la théorie de l'électromagnétisme (modèle de Weinberg-Salam et nombreux travaux dont ceux de T. Hooft et Veltman, prix Nobel 1999). On introduit, en plus des particules usuelles, un champ de matière supplémentaire, le « boson de Higgs » (toujours hypothétique et activement recherché expérimentalement). Dans une première phase symétrique, qui a peut-être existé pendant quelques infimes instants après le big-bang, le scénario de Yang-Mills avec tous ses champs de masse nulle était à l'Suvre, mais une brisure spontanée de symétrie, une transition de phase analogue à celle de la supraconductivité évoquée à propos de la matière macroscopique, faisait apparaître une nouvelle phase, celle de notre monde d'aujourd'hui, dans laquelle certains des champs de Yang-Mills devenaient massifs, comme il se devait pour être conforme aux observations. La découverte expérimentale des particules Z et W± au CERN dans les années soixante-dix, analogues aux photons dans leur rôle de porteurs d'une symétrie locale, mais massifs pour ne transmettre l'interaction que sur une courte portée, établissaient la validité de cette extraordinaire construction.

Transitions de phase et cosmologie : les modèles d'univers en inflation
Le scénario classique du « big-bang », univers en expansion adiabatique à partir d'une singularité initiale, a connu des succès multiples. Le plus notable est la prédiction, aujourd'hui abondamment confirmée, du rayonnement « fossile », abandonné à lui-même depuis des milliards d'années sans jamais interagir, dans lequel baigne l'univers. Mais diverses observations dont cette théorie devrait rendre compte, telles que la compréhension du rapport entre le nombre de particules massives et le nombre de photons observés aujourd'hui, ou encore la nécessité d'une courbure de l'univers excessivement faible dans les premiers instants du big-bang, ont conduit là aussi à invoquer un mécanisme de symétrie spontanément brisée à l'origine de notre univers. Ces modèles d'univers en inflation, proposés par l'américain A. Guth et le russe (de Stanford désormais) A. Linde, résolvent les problèmes mentionnés ci-dessus si l'on suppose que l'univers a connu une transition de phase avec une brusque augmentation d'entropie, dans laquelle notre espace-temps est apparu, un peu comme une bulle de vapeur dans un liquide à son point d'ébullition. Diverses variantes de cette idée sont aujourd'hui considérées, telle l'inflation chaotique qui suppose la formation d'une écume de bulles, sans connections causales mutuelles, évoluant chacune en différents types d'univers. Seule l'une d'entre elles serait devenu notre univers. La validation de ces divers scénarios repose sur leur capacité à reproduire les paramètres aujourd'hui observés de notre univers, et il est sans doute bien trop tôt pour conclure, mais les cosmologistes semblent très généralement devoir faire appel à une symétrie brisée pour modéliser l'évolution de l'univers.
Conclusion
Je suis conscient que ces quelques lignes doivent paraître souvent bien incompréhensibles. Je souhaiterais simplement que le lecteur qui m'aurait accompagné jusque-là, partage notre émerveillement devant un monde dont l'évolution et dont les forces en présence, sont presque exclusivement fixées par ses symétries et leurs brisures. Jamais un si petit nombre de principes n'avaient suffi à embrasser une telle diversité de situations. En définitive, à l'échelle des constituants élémentaires de la matière, seule la compréhension d'une théorie quantique de la gravitation échappe encore à cette construction.
Lectures complémentaires
Les actes du 4e colloque Physique et interrogations fondamentales, intitulé « Symétrie et brisure de symétrie » ont été publiés par EDP Sciences en 1999. Plusieurs contributions développent certains des thèmes évoqués ci-dessus.

 

VIDEO     canal U       LIEN

 
 
 
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 ] Précédente - Suivante
SARL ORION, Création sites internet Martigues, Bouches du Rhone, Provence, Hébergement, référencement, maintenance. 0ri0n
Site réalisé par ORION, création et gestion sites internet.


Google
Accueil - Initiation musicale - Instruments - Solfège - Harmonie - Instruments - Musiques Traditionnelles - Pratique d'un instrument - Nous contacter - Liens - Mentions légales /confidentialité

Initiation musicale Toulon

-

Cours de guitare Toulon

-

Initiation à la musique Toulon

-

Cours de musique Toulon

-

initiation piano Toulon

-

initiation saxophone Toulon

-
initiation flute Toulon
-

initiation guitare Toulon