ecole de musique piano
     
menu
 
 
 
 
 
 

Les 4 interactions fondamentales

 


 

 

 

 

 

Les 4 interactions fondamentales

Publié le 28 juillet 2022
 
Quatre interactions fondamentales régissent l’Univers : l’interaction électromagnétique, l’interaction faible, l’interaction nucléaire forte et l’interaction gravitationnelle. Les interactions électromagnétiques forte et faible sont décrites par le modèle standard de la physique des particules, qui est en cohérence avec la physique quantique, tandis que l’interaction gravitationnelle est actuellement décrite par la théorie de la relativité générale. Quelles sont les propriétés de chacune de ces interactions ? Quel est leur impact sur notre quotidien ? Quels sont les enjeux de la recherche sur les interactions fondamentales ?

L’INTERACTION ÉLECTROMAGNÉTIQUE (FORCE ÉLECTROMAGNÉTIQUE)

L’interaction électromagnétique régit tous les phénomènes électriques et magnétiques. Elle peut être attractive ou répulsive : par exemple, deux pôles d’aimants de même signe (« nord » ou « sud ») vont se repousser alors que deux pôles d’aimants de signe opposé vont s’attirer.
Cette interaction est liée à l’existence de charges électriques et est notamment responsable de la cohésion des atomes en liant les électrons (charge électrique négative) attirés par le noyau de l’atome (charge électrique positive).
Le photon est la particule élémentaire associée à l’interaction électromagnétique. Il est de charge électrique nulle et sans masse, ce qui fait que cette interaction a une portée infinie.
J.C. Maxwell écrit, vers 1864, la théorie de l’électromagnétisme qui explique l’existence d’ondes électromagnétiques (ondes radio, infra-rouge, lumière, ultra-violet, rayons X et gamma). Leur importance n’est plus à démontrer. Dans la seconde moitié du XXe siècle, cette théorie a été reformulée grâce notamment aux travaux du physicien Feynman sous la forme de l’électrodynamique quantique pour y introduire les concepts quantiques de façon cohérente et qui décrit l’interaction comme un échange de photons.

L’INTERACTION FAIBLE (FORCE FAIBLE)
L’interaction faible est la seule qui agit sur toutes les particules, excepté sur les bosons. Responsable de la radioactivité Bêta, elle est donc à l’origine de la désintégration de certains noyaux radioactifs.
Le rayonnement Bêta est un rayonnement émis par certains noyaux radioactifs qui se désintègrent par l'interaction faible. Le rayonnement β+ (β-) est constitué de positons (électrons) et se manifeste lorsqu’un proton (neutron) se transforme en neutron (proton). Un neutrino (antineutrino) électronique est également émis. Ce rayonnement est peu pénétrant : un écran de quelques mètres d'air ou une simple feuille d'aluminium suffisent pour l’arrêter.
Les particules élémentaires associées à l’interaction faible sont le boson neutre (le Z0) et les deux bosons chargés (les W+ et W−). Ils ont tous une masse non nulle (plus de 80 fois plus massifs qu’un proton), ce qui fait que l’interaction faible agit à courte portée (portée subatomique de l’ordre de 10-17 m).


La datation au carbone 14 est possible grâce à l’interaction faible. Le carbone 14 est un isotope radioactif du carbone qui se transforme en azote 14 par désintégration Bêta moins. Sa période radioactive, temps au bout duquel la moitié de ses atomes s’est désintégrée, est de 5 730 ans. La technique du carbone 14 permet de dater des objets de quelques centaines d’années à 50 000 ans environ.

Le neutrino
Le neutrino, particule élémentaire du modèle standard, n’est sensible qu’à l’interaction faible. Le neutrino est un lepton du modèle standard de la physique pouvant prendre trois formes (ou saveurs) : le neutrino électronique, muonique et tauique. Les neutrinos n'ont pas de charge électrique et ont une masse très faible dont on connaît seulement une borne supérieure. Ils se transforment périodiquement les uns en les autres selon un processus appelé "oscillation des neutrinos". N'étant sensibles qu'à l'interaction faible, les neutrinos n'interagissent que très peu avec la matière si bien que pour absorber 50 % d'un flux de neutrinos, il faudrait lui opposer un mur de plomb d'une année-lumière d'épaisseur. >> En savoir plus sur les neutrinos

Vidéo
Le modèle standard
<div class="reponse warning"> <p>Pour accéder à toutes les fonctionnalités de ce site, vous devez activer JavaScript. Voici les <a href="http://www.enable-javascript.com/fr/">instructions pour activer JavaScript dans votre navigateur Web</a>.</p> </div>


L’INTERACTION NUCLÉAIRE FORTE OU INTERACTION FORTE (FORCE FORTE)

L’interaction forte permet la cohésion du noyau de l’atome. Elle agit à courte portée au sein du proton et du neutron. Elle confine les quarks, particules élémentaires qui composent les protons et neutrons, en couples "quark−antiquark" (mésons), ou dans des triplets de quarks (un ou deux autres (anti) quarks) (baryons). Cette interaction se fait par l'échange de bosons appelés "gluons".
Le gluonest la particule élémentaire liée à l’interaction forte. La charge associée à cette interaction est la "charge de couleur". Lors de l'échange d'un gluon entre deux quarks, ils intervertissent leurs couleurs. L’interaction entre deux quarks est attractive et d’autant plus intense que ceux-ci sont distants l’un de l’autre, et est quasi nulle à très courte distance.
La réaction primordiale de fusion de deux protons en deutéron (un isotope naturel de l’hydrogène dont le noyau contient un proton et un neutron) est un processus dû à l’interaction faible dont le taux gouverne la lente combustion des étoiles. C’est ensuite l’interaction forte qui est à l’œuvre dans les chaînes de réactions nucléaires qui suivent et qui produisent d’autres noyaux.
Cette interaction est notamment responsable des réactions nucléaires qui ont lieu au sein du Soleil.

 réaction de fusion nucléaire

Les quarks portent une charge de couleur qui est à l’interaction forte ce que la charge électrique est pour la force électromagnétique. Un quark peut avoir trois couleurs, appelées par convention rouge, bleu et vert. Un antiquark a l’une des « anticouleurs » correspondantes : antirouge, antibleu et antivert.
Les quarks forment des particules composites « blanches », c’est-à-dire sans charge de couleur. Il y a deux manières de former ces hadrons : soit en combinant un quark et un antiquark dont la couleur et l’anticouleur s’annulent (par exemple rouge et antirouge) ; on parle alors de « méson ». Soit en associant trois quarks porteurs chacun d’une couleur différente ; de telles particules sont appelées « baryons » – par exemple le proton et le neutron.

L'INTERACTION GRAVITATIONNELLE (FORCE GRAVITATIONNELLE)
Dans la vision de la loi de la gravitation universelle de Newton, l’interaction gravitationnelle est celle qui agit entre des corps massifs. La force est attractive. La pesanteur et les mouvements des astres sont dus à la gravitation.

Dans le cadre de la relativité générale, la gravitation n’est pas une force mais une manifestation de la courbure de l’espace-temps. La gravitation ne fait pas partie du modèle standard, elle est décrite par la relativité générale. Elle se définit par la déformation de l’espace-temps.


La gravitation est la plus faible des quatre interactions fondamentales. Elle s'exerce à distance et de façon attractive entre les différentes masses. Sa portée est infinie.


La première théorie la décrivant efficacement est celle de Newton en 1687. Pesanteur, mouvements planétaires, structure des galaxies sont expliqués par la gravitation. En 1915, elle est remplacée par la théorie de la relativité générale d’Einstein qui sert de cadre à la description de l’Univers entier et où les masses déforment l’espace-temps au lieu d’y exercer des forces à distance.
Vidéo
Les principes clefs de la physique - #1 principe de relativité
<div class="reponse warning"> <p>Pour accéder à toutes les fonctionnalités de ce site, vous devez activer JavaScript. Voici les <a href="http://www.enable-javascript.com/fr/">instructions pour activer JavaScript dans votre navigateur Web</a>.</p> </div>


A ce jour, on ne sait pas décrire l’interaction gravitationnelle par la mécanique quantique, et on ne lui connaît aucun boson médiateur. Au niveau théorique, la gravitation pose problème car on ne sait pas la décrire à l’aide du formalisme de la «  théorie quantique des champs  », utilisé avec succès pour les trois autres interactions. L’hypothétique graviton serait la particule médiatrice de la gravitation dans une description quantique de cette interaction.

PORTÉE DE L'INTERACTION ENTRE DEUX CORPS
La masse du boson vecteur (ou médiateur) va définir la portée de l’interaction. Imaginez deux particules en interaction comme deux personnes se lançant une balle, représentant le boson vecteur : plus la balle est légère, plus ils peuvent la lancer loin. Par analogie, plus le boson vecteur est léger, plus la portée de l’interaction est grande.
*         Force forte - Particules médiatrices (boson vecteurs) : gluons ; Domine dans :  noyau atomique
*         Force électromagnétique - Particules médiatrices (boson vecteurs) : photons - Domine dans : électrons entourant le noyau
*         Force faible - Particules médiatrices (bosons vecteurs) : Boson Z0, W+, W- - Domine dans : Désintégration radioactive bêta
*         Gravitation - Particules médiatrices (bosons vecteurs) : Graviton ? (pas encore observé) - Domine dans : Astres .

LA THEORIE DU TOUT : VERS L’UNIFICATION DES INTERACTIONS FONDAMENTALES ?
L’objectif des recherches est de trouver une théorie qui expliquerait simultanément les quatre interactions fondamentales.
L’unification des quatre interactions fondamentales fait partie des axes de recherche principaux de la physique des particules. Une première étape a été franchie il y a une trentaine d’années avec l’unification de l’interaction faible et de la force électromagnétique dans un même cadre : l’interaction électrofaible. Celle-ci se manifeste à haute énergie – environ 100 GeV. La suite logique de ce processus est d’y ajouter l’interaction forte. Mais, si convergence il y a, elle ne devrait se manifester qu’à des échelles d’énergie encore bien plus élevées (1015 ou 1016 GeV), totalement hors de portée des expériences actuelles. L’étape ultime, l’ajout de la gravité à ce formalisme, est encore plus éloignée et se heurte à des problèmes mathématiques non résolus pour le moment.
La théorie des cordes et la théorie de la gravitation quantique à boucles sont les deux cadres théoriques les plus étudiés aujourd’hui.
Les théories de dimensions supplémentaires, dont la théorie des cordes, ont été initialement proposées pour résoudre le problème de l’extrême faiblesse de la gravité. L’une des réponses serait que seule une petite fraction de la force gravitationnelle n’est perceptible, le reste agissant dans une ou plusieurs autres dimensions. Ces dimensions, imperceptibles, seraient courbées et non plates comme les quatre connues de l’espace et du temps.
Les cordes seraient des petits brins d’énergie en vibration qui seraient reliées dans plusieurs « branes » (des cordes qui se seraient étirées et transformées en grandes surfaces).  Les branes seraient comme des barrières entre plusieurs dimensions, jusqu’à 10, mais ces dimensions supplémentaires nous sont invisibles.
Toute la physique fondamentale serait unifiée, c’est-à-dire la mécanique quantique avec la relativité générale.
La gravité quantique à boucles a pour but de quantifier la gravitation. Elle a notamment pour conséquences que le temps et l’espace ne sont plus continus, mais deviennent eux-mêmes quantifiés (il existe des intervalles de temps et d’espace indivisibles). La gravité quantique à boucles cherche à combiner la relativité générale et la mécanique quantique directement, sans rien y ajouter.
Cependant, à ce jour, aucune théorie unique ne peut expliquer de façon cohérente toutes les interactions.

Notions clés
*         Interactions fondamentales et particules élémentaires : chacune des trois interactions fondamentales décrites par le modèle standard, à savoir l’interaction électromagnétique, l’interaction faible et l’interaction nucléaire forte - est associée à une ou plusieurs particule(s) élémentaire(s), les bosons. Ainsi, l’interaction forte est véhiculée par les gluons ; le photon transmet l’interaction électromagnétique tandis que les trois autres bosons sont responsables de l’interaction faible.
*         Spectre électromagnétique : le spectre du rayonnement électromagnétique s’étend des ondes radio aux rayons gamma en passant par les micro-ondes, l’infrarouge, la lumière visible, l’ultraviolet et les rayons X. Ce sont tous des rayonnements électromagnétiques qui ne différent que par la fréquence de l’onde. Pour en savoir plus, consulter L'essentiel sur les ondes électromagnétiques.
*         Le graviton est une particule hypothétique de la famille des bosons, médiateur de l'interaction gravitationnelle. Il s'agirait d'une particule de masse nulle, de charge électrique nulle et de spin égal à 2
.

 

 DOCUMENT     cea         LIEN
 

 
 
 
 

PHYSIQUE ET MATHÉMATIQUES

 

 

 

 

 

 

 

PHYSIQUE ET MATHÉMATIQUES

Réalisation : 16 juin 2005 - Mise en ligne : 16 juin 2005
*         document 1 document 2 document 3
*         niveau 1 niveau 2 niveau 3

Descriptif
La physique et les mathématiques sont étroitement mêlées depuis toujours. Tantôt c'est la première qui conduit à développer les mathématiques impliquées par les lois de la nature, tantôt des structures mathématiques élaborées sans référence au monde extérieur se trouvent être précisément adaptées à la description de phénomènes découverts pourtant postérieurement. C'est là l'efficacité déraisonnable des mathématiques dans les sciences de la nature dont parlait Eugène Wigner. Jamais les interactions entre physique et mathématiques n'ont été plus intenses qu'à notre époque, jamais la description des phénomènes naturels n'a requis des mathématiques aussi savantes qu'aujourd'hui. Pourtant il est important de comprendre la différence de nature entre ces deux disciplines. La physique n'établit pas de théorèmes ; jusqu'à présent elle se contente de modèles dont les capacités à prédire, et la comparaison avec l'expérience établissent la validité, avec une économie dans la description et une précision parfois confondantes. Néanmoins nous savons que tous les modèles dont nous disposons actuellement, toutes les lois, ne sont que des descriptions "effectives" comme l'on dit aujourd'hui, c'est-à-dire adaptées aux échelles de temps, de distance, d'énergie avec lesquelles nous observons, mais dont nous savons de manière interne, avant même que des phénomènes nouveaux les aient invalidées, qu'elles sont inaptes à aller beaucoup plus loin. Y aura t-il une description définitive qui, tel un théorème, s'appliquerait sans limitations? Ce rêve d'une théorie ultime, où la physique rejoindrait les mathématiques, caressé par certains, laisse beaucoup d'autres sceptiques ; quoiqu'il en soit la question ne sera certainement pas tranchée rapidement.


Documents pédagogiques

Transcription* de la 573e conférence de lUniversité de tous les savoirs prononcée le 16 juin 2005

Par Edouard Brezin: « Physique et Mathématiques »


Je remercie tout d'abord l'UTLS d'avoir donné la parole aux physiciens car 2005 est l'année mondiale de la physique. Cette célébration est justifiée par le centième anniversaire de la publication d'articles d'Albert Einstein qui, dans trois domaines différents, ont changé complètement notre vision du monde. C'est aussi l'occasion pour les scientifiques français de présenter la science vivante, et de nous demander ce que ferait peut-être Einstein s'il était parmi nous aujourd'hui.

Physique et mathématiques : des histoires étroitement mêlées

Sans vouloir entièrement la retracer commençons par évoquer quelques étapes de cette route où physique et mathématiques se sont croisées, suivies, ignorées, rejointes, avant d'en arriver à la période contemporaine où se posent des questions qu'il n'y a pas très longtemps, personne ne pouvait formuler.

Longtemps mathématiques et sciences de la Nature ont été si étroitement mêlées que la différence nétait sans doute pas réellement explicitée. Que l'on se souvienne que géométrie veut dire littéralement « mesure de la Terre », et que les mathématiques furent formulées pendant très longtemps pour décrire des objets suggérés par le monde qui nous entoure.

En voici quelques exemples.

Pythagore et la diagonale du carré

Commençons avec Pythagore, astronome mathématicien, qui fut le premier à démontrer le théorème qui porte son nom, le théorème de Pythagore (que les Babyloniens connaissaient). Pythagore considère un carré de côté 1 : il a démontré que la longueur de sa diagonale valait (racine carrée de 2). Mais à cette époque, seuls les rapports de deux nombres entiers, les fractions, sont considérés comme des nombres. Pythagore cherche alors à exprimer (racine carrée de 2) comme un de ces nombres et, comme il est fin mathématicien, il démontre que (racine carrée de 2) ne peut pas s'écrire comme un rapport de deux nombres entiers. Le carré existe, sa diagonale existe, mais ce nombre semble ne pas exister ! C'est un sentiment inconcevable de contradiction entre la Nature et les mathématiques qui apparaît, alors que pour Pythagore elles sont parties d'un même tout.

Archimède et les volumes

Archimède était un génie absolument extraordinaire. Il a fait graver sur sa tombe une sphère et un cylindre. Fin mathématicien, il avait réussi à calculer des volumes, comme celui de la sphère, par exemple, ou encore celui donné par l'intersection de deux cylindres ( Cf. figure 1). La méthode qu'il avait introduite est une méthode intellectuellement très semblable à celle qui mettra vingt siècles à aboutir avec Newton et Leibniz, le calcul intégral. En effet pour calculer ces volumes, Archimède coupait en tranches comme on apprend à la faire lorsque l'on fait du calcul différentiel.


figure 1


Néanmoins, comme vous le savez, son génie de physicien n'était pas moins grand. Lhistoire est fort célèbre : le roi de Syracuse avait commandé une couronne en or massif mais il soupçonnait le bijoutier de l'avoir trompé. Il demanda alors à Archimède de déterminer si la couronne était bien en or massif. Après une réflexion très profonde Archimède comprit la nature de la force exercée par un liquide sur un corps immergé et répondit ainsi à la question du roi.

Galilée, père fondateur de la physique

Avançons de presque deux mille ans. Pourquoi aller si vite et passer ainsi deux mille ans de sciences ? Chacun est libre de son opinion. Je crois tout de même que le dogmatisme des églises y est pour quelque chose. Les ennuis de Galilée avec les églises sont célèbres même si l'issue en est moins dramatique que pour Giordano Bruno.

Nous sommes au XVIème siècle et Galilée écrit cette phrase célébrissime :

« La philosophie est écrite dans ce grand livre qui se tient constamment ouvert devant les yeux, je veux dire l'Univers. Mais elle ne peut se saisir si tout d'abord on ne se saisit point de la langue et si on ignore les caractères dans laquelle elle est écrite. Cette philosophie, elle est écrite en langue mathématique. Ses caractères sont des triangles, des cercles et autres figures géométriques, sans le moyen desquelles il est impossible de saisir humainement quelque parole, et sans lesquelles on ne fait qu'erre vainement dans un labyrinthe obscur. »

C'est un texte remarquable, toujours aussi pertinent de nos jours.

Newton et le calcul différentiel

La méthode de Newton est une des méthodes d'interaction de la physique et des mathématiques. Newton comprend la loi de la dynamique - la célèbre loi de Newton - qui dit que la force est égale à la masse qui multiplie l'accélération. Et à partir de ce moment-là on rentre déjà dans un paysage assez abstrait, assez difficile mathématiquement car l'accélération c'est la variation de la vitesse, la vitesse étant elle-même la variation de la position. La force, elle, est donnée en fonction de la position. On se trouve en présence d'un problème mathématique où la deuxième variation - que les mathématiciens appellent la « dérivée seconde » - de la position est donnée en fonction de la position. Pour arriver à résoudre cela, Newton invente le calcul différentiel et intégral. Et ayant compris que la force d'attraction gravitationnelle est inversement proportionnelle au carré de la distance, Newton retrouve les lois sur le mouvement des planètes que Kepler avait établies par l'observation.

La déduction des lois de Kepler est bien un théorème de mathématiques, et ces mathématiques ne sont ni très simples, ni intuitives. En d'autres termes, il faut distinguer, dans les problèmes, ce qui est mathématique et ce qui est physique. Ce qui est physique, c'est pourquoi la force est la masse multipliée par l'accélération (Descartes croyait que c'était la masse fois la vitesse), c'est comprendre pourquoi la force d'attraction est inversement proportionnelle au carré de la distance entre deux corps massifs, et pas au cube ou à la puissance 2,1. En revanche, admettant ces deux hypothèses, démontrer les lois de Kepler ce sont réellement des mathématiques. Et c'est ce que Newton a fait. C'était un très grand scientifique.

Fourier et la chaleur

Un autre exemple très extraordinaire des croisements entre physique et mathématiques vient avec Joseph Fourier au XIXème siècle. Dans un article sur la théorie analytique de la chaleur dans les Comptes Rendus de l'Académie des Sciences en 1822, Fourier s'interroge : lorsque l'on a deux corps en contact, l'un étant plus chaud que l'autre, comment écrire le flux de chaleur du corps chaud vers le corps froid ? Il construit sa théorie et il aboutit à une équation aux dérivées partielles qu'il faut résoudre. Et dans cet article où il introduit la notion de flux de chaleur, Fourier introduit aussi ce qu'on appelle dans le monde entier la transformation de Fourier. C'est l'un des instruments les plus puissants des mathématiques et de la physique.

Avec Newton et Fourier ce sont donc des problèmes de physique bien posés qui ont conduit à développer des outils mathématiques nouveaux, voire révolutionnaires. Mais, comme on va le voir, cela ne se passe pas toujours ainsi.

Gauss l'universel

Il faut aussi mentionner Gauss, mathématicien éminent, surnommé souvent le « Prince des mathématiques ». La physique lui doit un traité de mécanique céleste, le développement d'un magnétomètre et une des lois de l'électromagnétisme porte son nom. Ainsi, à cette époque, un esprit universel comme Gauss s'intéresse aussi bien aux deux disciplines.

La physique au XXème siècle

Mais si l'on se rapproche de la période contemporaine, il est frappant que la physique du XXème siècle a souvent fait appel à des mathématiques qui avaient été développées antérieurement, pour leur seule beauté et richesse intrinsèques. Cette beauté des mathématiques, leur logique interne, conduit les mathématiciens dans leurs recherches. Deux exemples où les mathématiques nécessaires à la physique lont précédée sont fournis par la relativité générale et la mécanique quantique.

La relativité générale d'Einstein

Le travail de Bernhard Riemann, grand mathématicien mort hélas jeune, précède celui d'Einstein sur la relativité générale, Il a eu l'idée de définir la géométrie de l'espace par une métrique, c'est-à-dire par lexpression de la distance entre deux points voisins. Ceci permet de définir toutes sortes de géométries. Des géométries simples, comme la géométrie euclidienne, mais également bien d'autres. C'est un outil considérable et cest exactement celui dont a besoin Einstein. Il comprend que la présence de matière change la géométrie de l'espace-temps et qu'en retour cette géométrie détermine les trajectoires des objets massifs et de la lumière. Ce sont les masses qui déforment la géométrie, et la géométrie déformée définit les trajectoires de tous les objets célestes. Cette théorie s'appelle la relativité générale. Einstein va passer beaucoup de temps, avec son ami Besso, pour comprendre les travaux de Riemann afin de s'en servir dans sa théorie.

La mécanique quantique

Heisenberg et les matrices

La mécanique quantique a deux sources indépendantes. L'une a été développée par Werner Heisenberg qui comprit que la mesure d'une quantité physique modifiait inéluctablement l'état d'un système. Si on mesure une des ses propriétés, inéluctablement on modifie létat du système. Heisenberg montre que si on mesure d'abord la position puis la vitesse d'un corps en mouvement, ou bien si lon mesure d'abord sa vitesse puis sa position, on ne trouve pas les mêmes résultats. Les résultats des mesures dépendent donc de l'ordre dans lequel on les fait. C'est une structure mathématique compliquée et Heisenberg ne sait pas très bien comment aborder cette question. Mais il était bon mathématicien et il connaissait des travaux du XIXème siècle qui avaient défini ce qu'on appelle des matrices, c'est-à-dire des objets qui décrivent des opérations sur un espace. Si on veut décrire par exemple les rotations d'un dé, selon qu'on le fait tourner d'abord autour de l'axe vertical puis autour d'un axe horizontal ou bien que l'on choisisse l'ordre inverse, le dé n'est pas dans la même position. Tous ceux qui ont un jour joué avec un Rubik's cube savent bien que les rotations ne commutent pas entre elles mais dépendent de l'ordre dans lequel on les fait. Heisenberg utilise là des mathématiques préexistantes, qui avaient été développées abstraitement, mais dont il se rend compte qu'elles sont indispensables à sa description de la mesure.

De Broglie, Schrödinger et les fonctions d'onde

L'autre source de la mécanique quantique est due à de Broglie et à Schrödinger. Ce dernier comprend profondément ce que disait de Broglie, de la dualité onde-particule. Erwin Schrödinger, Autrichien, qui avait fuit le nazisme pour aller à Dublin, (contrairement à Heisenberg qui a travaillé sur la bombe allemande, heureusement sans succès) comprend que si une particule est en même temps une onde, sa propagation doit être décrite par une équation d'onde qui décrit les variations spatiales et temporelles de cette onde. Il comprend quelle est cette équation, mais le formalisme devient extrêmement abstrait : l'état d'un système physique est un vecteur d'un espace abstrait, qu'avait introduit au début du XXème siècle le grand mathématicien David Hilbert, espace infini, avec une structure complexe[1]. On voit que, chacune des deux sources de la mécanique quantique (qui se révèleront in fine équivalentes) on fait appel à des mathématiques abstraites, inventées en suivant la logique propre des mathématiques et qui néanmoins sont indispensables pour décrire la physique.

La déraisonnable efficacité des mathématiques

Ceci conduit un physicien, Eugène Wigner, prix Nobel pour ses travaux de physique nucléaire, qui a beaucoup contribué à la physique théorique du XXème siècle, à écrire un article en 1960 intitulé « de la déraisonnable efficacité des mathématiques dans les sciences de la Nature ». C'est en gros une rationalisation de ce que je viens de dire. Wigner s'émerveille de voir que des structures qui paraissaient complètement éthérées, sans rapport initial avec le monde actuel, bien quelles ne soient pas issues d'une réflexion sur le monde ou la Nature, se trouvent néanmoins avoir leur place, et ô combien, dans la description du monde.

La complexité croissante des mathématiques

Le dernier portrait que je vais évoquer est celui d'un des grands héros de la physique théorique du XXème siècle Richard Feynman. Lors d'une conférence publique il déclara :

« Chacune de nos lois s'énonce sous forme mathématique et en des termes souvent complexes et abstraits. La loi de gravitation telle que Newton l'énonça n'utilise que des mathématiques assez simples mais au fur et à mesure que nous avançons, les énoncés deviennent de plus en plus complexes. Pourquoi ? Je n'en ai pas la moindre idée. Le drame de cette conférence c'est justement que je dois vous faire comprendre qu'on ne peut sérieusement expliquer la beauté des lois de la Nature et surtout de la faire ressentir à des gens qui n'ont aucune connaissance profonde des mathématiques. »

La période contemporaine

La période contemporaine est caractérisée par des interactions constantes entre physique et mathématiques, dans beaucoup de directions différentes dont voici, sans soucis d'exhaustivité, quelques exemples.

Les systèmes dynamiques et le chaos

L'étude des systèmes dynamiques doit beaucoup à Henri Poincaré, mathématicien français né à Nancy à la fin du XIXème siècle et qui a travaillé au début du XXème, grand mathématicien et grand physicien également. Un système dynamique est un système dont on veut suivre l'évolution temporelle régie par des équations d'évolution parfaitement définies et déterministes. Il n'y a aucun hasard dans un système dynamique, tout y est bien connu. Comme le mouvement des planètes dont les équations sont connues, des molécules d'un fluide, de l'atmosphère... La figure 2 montre l'évolution d'un système dynamique en deux dimensions pendant un petit intervalle de temps. Le point de coordonnées (x,y) est transformé par la formule en le point (x',y'). Pour avoir l'évolution temporelle du système, on applique la formule, toujours la même, un grand nombre de fois et on suit la trajectoire du point à chaque étape.



figure 2


C'est un système dynamique des plus simples mais les trajectoires sont déjà très complexes et on voit apparaître ce qu'on appelle des attracteurs étranges. La mécanique des fluides est un exemple de domaine où la complexité des comportements possibles est très grande.

Poincaré fut sans doute le premier à poser la question de la stabilité du système solaire. Le système solaire, même réduit à la Terre, à la Lune et au Soleil, est un système compliqué. Pendant longtemps on a cru que les comportements complexes, comme la turbulence d'un fluide, étaient dus à la complexité du système, à cause du très grand nombre de molécules constituantes. Mais l'étude de petits modèles apparemment simples comme celui qu'avait introduits Édouard Lorenz, un météorologue, ou Hénon un astrophysicien niçois, montra la complexité que l'on pouvait atteindre dans de très petits systèmes. En 1971 les physiciens-mathématiciens Ruelle (qui travaille toujours à Bures-sur-Yvette) et Takens démontraient que de très petits systèmes étaient presque toujours chaotiques sauf si on choisit un système très approprié. Le terme « chaos » désigne la sensibilité extrême aux conditions initiales. Cette sensibilité fait diverger les trajectoires de deux points, initialement très proches. On l'appelle souvent l'effet papillon.

Un astrophysicien de l'Université de Paris VII, Jacques Laskar, spécialiste des mouvements planétaires, a étudié les mouvements du système solaire en utilisant des méthodes nouvelles faisant appel à la puissance des moyens de calcul contemporains. Voici ses commentaires :

« Cette méthode a permis de démontrer que le mouvement des planètes et en particulier les planètes inférieures, Mercure, Vénus, la Terre et Mars avaient un temps caractéristique de l'ordre de cinq millions d'années. Cela signifie que si l'on a deux solutions initialement proches, leurs trajectoires vont s'éloigner non pas linéairement mais de façon exponentielle. Ainsi, si l'on a une incertitude de quinze mètres sur la position actuelle de la Terre, au bout de dix millions d'années nous aurons une erreur de cent cinquante mètres, en soit cette valeur est dérisoire, l'éphéméride ne pourrait prétendre avoir une telle précision. Mais si on prolonge les calculs sur cent millions d'années on aura une incertitude de cent cinquante millions de kilomètres, c'est la dimension du système solaire. Ce qui signifie que nous ne pourrons absolument plus situer au bout de cent millions d'années, la position de la Terre dans le système solaire. Nous sommes dans l'impossibilité de calculer cette position aujourd'hui, mais nous le serons également dans mille ans ou dans un million d'années. Ce n'est pas une question de limitation de nos connaissances ou de nos calculs. Quinze mètres représentent en fait la perturbation engendrée par le passage d'un astéroïde. Si nous désirons garder une telle précision à long terme il faudrait inclure dans notre modèle tous les objets engendrant des perturbations de l'ordre de quinze mètres, autant dire des centaines de milliers de corps qui peuplent le système solaire, astéroïdes, comètes, satellites gardiens et fragments de toutes sortes. Si l'on veut aller encore plus loin passer d'une précision de quinze mètres à quinze microns, au lieu d'avoir une erreur de cinquante millions de kilomètres au bout de cent millions d'années, on aura cent cinquante millions de kilomètres au bout de cent soixante millions d'années. Cela n'aura pas changé grand-chose. Et nous avons donc vraiment une limite pratique aux capacités à prévoir l'avenir des mouvements du système solaire. »

Voilà une chose que l'on ne savait pas au temps de Poincaré et que la mécanique céleste a récemment permis de comprendre.

La physique statistique

Un autre grand domaine de fertilisation, croisé entre mathématiques et physique est la physique statistique. Depuis la fin du XIXème siècle et les travaux de Maxwell, de Boltzmann, inventeurs de cette science, on sait qu'il est illusoire, voire inutile, pour décrire la matière, d'en suivre tous les degrés de liberté. Si on considère un morceau de métal, par exemple, on sintéresse à savoir s'il est conducteur ou isolant, si sa température augmente vite ou lentement lorsqu'on le chauffe, pourquoi il est noir ou rouge... On n'a pas besoin de savoir, contrairement au problème des trajectoires des planètes, quelle est la position des milliards de milliards de molécules qui le constituent. Dailleurs à supposer que l'on puisse le faire - ce qui n'est pas le cas - il serait bien difficile dy lire la réponse aux questions que nous posions.

Une méthode probabiliste

La méthode « ordinaire », celle que lon met en Suvre pour les systèmes planétaires, est donc inopérante pour la description de la matière. La méthode qui a permis, grâce à Maxwell et Boltzmann et bien d'autres à leur suite, de comprendre la matière, est une méthode a priori paradoxale : c'est une méthode statistique qui utilise des concepts probabilistes, cest-à-dire modélisent le hasard. Si lon joue à la roulette une seule fois, le fait de savoir qu'il y a trente-six résultats possibles ne fournit aucune aide pour gagner. Mais le propriétaire du casino, qui enregistre des milliers de paris, peut utiliser des outils statistiques, telle la loi des grands nombres, pour prédire avec une certitude quasi-complète non pas un résultat ponctuel, mais ce que sera l'ensemble des résultats. C'est là le miracle de la physique statistique qui utilise le gigantisme du nombre datomes, pour utiliser le hasard et néanmoins prédire de manière en pratique certaine.

L'énergie et le désordre

La mécanique statistique, c'est donc l'utilisation des probabilités pour relier la matière macroscopique à ses atomes. Il y a des cas singuliers où la matière change complètement d'état, par exemple l'eau qui devient vapeur lorsqu'on la chauffe, ou qui gèle si on la refroidit. Dans ce dernier exemple, le refroidissement ne change rien aux molécules d'eau individuelles, il ne change pas non plus l'interaction entre les molécules d'eau qui est complètement indépendante de la température. La notion de température bien que familière, est en réalité assez subtile : la température pour les physiciens, c'est le paramètre qui arbitre entre deux tendances opposées de la matière : au zéro absolu tout système se range dans létat bien ordonné dont l'énergie est la plus basse possible, mais lorsque la température augmente le désordre (ou entropie) contrarie cette tendance à la régularité et finit par lemporter. Quand de l'eau juste au-dessus de zéro degré Celsius passe juste en dessous de cette température, des milliards de molécules d'eau, complètement désordonnées dans le liquide, s'ordonnent spontanément. Elles forment un réseau cristallin, invisible mais bien réel. Ces comportements singuliers, les transitions de phase, ont longtemps posé problème et il y a eu au cours des dernières années de nombreux échanges entre mathématiques et physique à ce sujet.

Illustration : le modèle d'Ising

Pour illustrer ces phénomènes de transition, il existe un modèle décole, un prototype qui se révèle en fait très universel dans sa portée, appelé le modèle d'Ising. On le représente sous forme d'un damier de carrés pouvant être dans un état blanc ou noir. L'énergie de deux carrés voisins est grande lorsqu'ils sont de couleurs différentes et faible lorsqu'ils sont de même couleur. Diminuer l'énergie revient ainsi à uniformiser la couleur du damier ; le désordre se traduit par un mélange aléatoire des deux couleurs. Selon la température la minimisation de lénergie qui ordonne les carrés, ou lentropie qui les distribue au hasard vont dominer. À haute température le système évolue rapidement, les carrés changent fréquemment de couleur, mais les couleurs restent mélangées : c'est le désordre qui l'emporte. En revanche à basse température, le système évolue plus lentement, de grandes régions de même couleur apparaissent et si on attend assez longtemps, une couleur va dominer très largement l'autre : c'est l'énergie qui l'emporte. La transition de phase a lieu à la température où énergie et désordre s'équilibrent ( Cf. figure 3).



figure 3

Chaque carré peut être rouge ou bleu. Deux carrés voisins de même couleur « sattirent ».

Ce modèle paraît très simple, mais le résoudre a été un tour de force technique d'un grand physicien-mathématicien qui s'appelait Lars Onsager. Cela a été aussi l'ouverture vers une interaction entre physique et mathématiques qui s'appelle la théorie des systèmes intégrables et qui est très active aujourd'hui.

Autres domaines contemporains

Un dernier exemple de systèmes qui appartient à la même nature de question sont les systèmes auto-similaires, qu'on appelle aussi systèmes fractals. Ce système ( Cf. figure 4) est simple, il est auto-similaire c'est-à-dire que l'on retrouve les mêmes structures à toutes les échelles vers l'infiniment petit. Les propriétés de celui qui est ici montré (la diffusion limitée par lagrégation) ne sont pas encore comprises aujourd'hui malgré beaucoup d'années d'efforts de mathématiciens aussi bien que de physiciens. Ceci constitue un exemple de problème, lié à des phénomènes de croissance cristalline et de systèmes en évolution, que l'on se pose aujourd'hui.



figure 4

Les interactions fondamentales

Venons-en maintenant aux quatre interactions fondamentales l'électromagnétisme, les forces nucléaires faibles ou fortes et les forces gravitationnelles. Tous les phénomènes de la Nature sont régis par ces interactions, on n'a encore jamais vu de contre-exemple.

L'électromagnétisme

L'électromagnétisme illustre bien l'état de nos connaissances et les questions qui se posent à l'interaction entre physique et mathématiques. Il faudra pour cela quelques formules dont le sens n'est pas important, mais qui permettent de cerner la problématique. Concentrons-nous sur un problème particulier celui du facteur gyromagnétique de l'électron. L'électron est une petite particule constitutive des atomes, chargée négativement. Un atome est constitué d'électrons et d'un tout petit noyau au centre. On sait grâce à la mécanique quantique, depuis les années 1920, que l'électron possède une caractéristique nommée spin (une sorte de flèche interne). Ce spin donne à un électron, comme à un aimant, un moment magnétique (c'est-à-dire un pôle nord et un pôle sud), et ce moment magnétique µ est proportionnel au spin S :

µ = g (e/2m) S

Ici apparaissent la charge e et la masse m de l'électron. Si l'électron était un objet classique (en omettant relativité et mécanique quantique), le nombre g vaudrait exactement 1. Les expériences donnent g=2,0023193043737. (C'est une des mesures expérimentales les plus précises ayant jamais été faites avec douze chiffres significatifs.) Que dit la théorie pour ce facteur g ? La théorie quantique non relativiste donne g=1, erreur de 100 %. Dirac, physicien anglais des années 1920-1930, a développé une théorie relativiste de l'électron en 1928 et il a trouvé g=2, ce qui est presque exact. Mais les physiciens se demandaient si on peut faire mieux et comprendre la petite différence entre g et 2. La réponse est oui. La technique employée s'appelle la théorie quantique des champs, plus précisément lélectrodynamique quantique. Dans la théorie de Dirac, l'électron obéit à la mécanique quantique, mais le champ électromagnétique dans lequel est plongé l'électron, lui, est classique. Or il possède lui aussi des fluctuations quantiques. La théorie qui a été développée procède par approximations successives en se servant d'un nombre qu'on appelle la constante de structure fine et qui est vaut

alpha=e²/(2 pi h c)

(e est la charge de l'électron, c la vitesse de la lumière h la constante de Planck) soit environ 0,007. Partons de la valeur de Dirac g=2. La première approximation rajoute 0,007 divisé par pi. Un grand physicien, Schwinger, a été récompensé par le prix Nobel pour ce calcul. Il a partagé ce prix avec Feynman et Tomonaga pour avoir montré que ce calcul pouvait se poursuivre de manière systématique, même si les calculs sont longs et difficiles. Quand on inclut cette première correction au résultat de Dirac, on n'est plus très loin de l'expérience ; au fur et à mesure que l'on calcule les autres termes on se rapproche du résultat expérimental. L'accord entre théorie et expérience est confondant. C'est le plus grand accord jamais observé entre une théorie et une expérience.

Les chiffres 0,656 et 2,362 sont les valeurs numériques d'expressions très compliquées où intervient la fonction zeta de Riemann :



C'est pire encore pour le suivant qui a été calculé en 1996. En conclusion, cette théorie est d'une grande complexité mathématique, mais elle marche merveilleusement.

La renormalisation et ses limites

Malgré tout, de nombreuses questions se sont vite posées sur la validité du procédé d'approximations successives que jai décrit. Ce procédé part d'un résultat approché, puis on ajoute une première perturbation puis une perturbation encore plus petite. Mais finalement le résultat est satisfaisant.

Valse des paramètres

Cette méthode par approximations successives a posé des questions, difficiles et abstraites, de deux ordres. La méthode, qui a fait le succès de ce calcul, repose sur un concept qui porte le nom de « renormalisation ». Dans la théorie telle qu'ils l'avaient développée, Feynman, Schwinger et dautres ont rencontré des objets mathématiques dépourvus de toute signification : des intégrales divergentes, des objets totalement infinis ; pour régler ce problème ils ont introduit arbitrairement une toute petite longueur en-deçà de laquelle on sinterdit de pénétrer. Les quantités physiquement mesurables, comme par exemple la charge de l'électron ou sa masse, ne sont alors plus égales à celles introduites dans le modèle initial, mais sont remplacés par les paramètres que l'on mesure physiquement. On montre alors que lon peut saffranchir de lintroduction de la petite longueur initiale. C'est-à-dire qu'a priori l'électromagnétisme est capable de décrire les phénomènes astronomiques jusqu'aux plus courtes distances et on n'a pas besoin de longueur fondamentale. Ce processus magnifique, que certains continuent de regarder comme un tour de passe-passe génial, est à l'origine du prix Nobel de Feynman, Schwinger et Tomonaga.

Les approximations successives

On s'est aussi inquiété du schéma d'approximations successives, en se demandant s'il était bien défini ou en d'autres termes si lorsque l'on poursuit et que lon inclut successivement les termes suivants,, les valeurs obtenues sont toujours plus précises. Les mathématiciens diraient alors qu'un tel processus est convergent. Cette question a longtemps été discutée, mais un physicien anglais (travaillant aux Etats-Unis), Freeman Dyson, a donné des arguments qui montraient que la précision était vraisemblablement limitée et que si on continuait à calculer la série, les termes que l'on allait ajouter n'amélioreraient pas le résultat et finiraient même par le détériorer complètement. Cela n'a aucune influence pratique car quelques termes suffisent amplement, mais cela a posé une question conceptuelle. Le succès de cette méthode repose réalité sur le fait naturel que ce nombre alpha est petit. Pour des raisons, qui pour linstant nont pas reçu dexplication, on constate quil vaut 0,007297... S'il valait 0,1 ou 1 le processus employé ne marcherait pas.

La limite de l'électromagnétisme

Ce caractère a priori non contrôlé a poussé plusieurs mathématiciens à chercher une autre approche pour s'affranchir de ce processus d'approximations successives. Ils ont donc tenté de transformer cette description de l'électromagnétisme quantique en un théorème. C'est-à-dire montrer, avant même de calculer, que cette théorie était apte à décrire tous les phénomènes électromagnétiques depuis les plus grandes distances jusqu'aux plus petites, celles que l'on explore aujourd'hui avec les microscopes les plus puissants : les accélérateurs de particules (comme ceux du CERN) dont la résolution atteint quelques milliardièmes de milliardièmes de mètre (10^(-18) m).

La question posée était celle-ci : est-ce que la renormalisation est une construction ad hoc limitée ou est-elle un théorème[2] - au sens des mathématiques ? La physique a donné une réponse très paradoxale, tout à fait surprenante a priori et qui ne s'est imposée qu'après beaucoup de résistances. Jusqu'à présent les constructions que nous avons connues partaient de la physique à notre échelle pour descendre par approximations successives vers l'élémentaire. On avait ainsi la matière, puis ses molécules, les atomes, les noyaux et enfin les quarks. Mais le succès de cette électrodynamique venait de l'hypothèse que l'on pouvait descendre dans l'infiniment petit sans limite. Or quand bien même on ne sait pas distinguer expérimentalement des distances plus petites que 10^(-18) m, le milliardième de milliardième de mètre, Planck avait compris au début du XXème siècle qu'il existe une limitation à cette description : à des distances inférieures à 10^(-35) m (0,00000000000000000000000000000001 m) c'est-à-dire environ cent milliards de milliards (10^20) fois plus petite que le noyau d'un atome, il y a une longueur en dessous de laquelle la physique reste inconnue à cause de notre incapacité actuelle à réconcilier les deux percées majeures du XXème siècle : la mécanique quantique et la relativité.

Une théorie effective

Cette limitation à très courte distance a conduit à inverser le schéma de pensée et à rejeter l'idée d'aller toujours vers le plus petit. Mais alors peut-on, à partir d'une physique inconnue à très courte distance, comprendre ce qui se passe aux échelles plus grandes ? Et la réponse est venue du groupe de renormalisation, une approche qui a montré deux choses surprenantes l'une comme l'autre.

Quelle que soit la physique à courte distance - qui est inconnue, c'est la théorie de l'électromagnétisme telle que nous la connaissons qui s'applique. Elle est donc valable non pas parce qu'elle n'a pas de limitation vers l'infiniment petit comme on le croyait auparavant, mais précisément parce qu'elle est engendrée aux échelles de nos expériences qui sont grandes au regard des échelles inconnues. On dit alors que la théorie est effective.

On sait aujourd'hui qu'aux distances les plus courtes elle ne serait pas cohérente aussi petite que soit la valeur de alpha. L'électromagnétisme est donc une théorie effective, satisfaisante, mais qui porte sa propre mort. La situation est une peu différente des situations qui se sont présentées auparavant en physique. La théorie de Newton n'est pas fausse, mais elle est limitée : lorsque les vitesses se rapprochent de celle de la lumière ou lorsque les phénomènes en jeu sont des phénomènes de petites distances où il y a des effets quantiques et la théorie de Newton ne s'applique pas. Ce n'est pas pour cela qu'elle est fausse ; elle n'a pas de contradiction interne. La théorie de la relativité, qui signerait la limite fatale pour la théorie de Newton, n'est pas contenue dans cette dernière. La théorie de l'électromagnétisme ne s'applique pas au delà d'une limite connue et ce qu'il y a au-delà est inconnu.

Les forces nucléaires

Face à tout cela, au cours de la période contemporaine on a cherché à reproduire le succès de l'électromagnétisme, et cela a fonctionné pour en physique nucléaire pour les interactions nucléaires faibles et fortes. Avec l'électromagnétisme elles constituent ce qui est appelé le modèle standard, qui donne de très bons résultats mais qui comme l'électromagnétisme est une théorie effective. Il faut donc en venir à la dernière force, la gravitation.

Le cas particulier de la gravitation

À l'échelle classique, non quantique, la gravitation s'applique aux phénomènes astronomiques. Sa version moderne, la théorie de la relativité générale d'Einstein a été très importante. Elle a donné le jour à la cosmologie et à un Univers avec une histoire, car avant Einstein on pensait que l'Univers était immuable, on sait maintenant qu'il évolue.

La gravitation est une force extrêmement ténue. Nous la ressentons lorsquelle met en jeu des masses astronomiques. Cest ainsi quun électron et un proton s'attirent parce qu'ils ont des charges opposées et aussi parce qu'ils ont des masses. Le rapport de la force d'attraction due aux masses, l'attraction gravitationnelle, à la force d'attraction due aux charges est 10^(-40). La gravitation est 10^(40) fois plus petite. Elle est donc extraordinairement faible. Néanmoins nous savons que la gravitation met en jeu, aux très courtes distances, des phénomènes quantiques et leur prise en compte ne semble pas pouvoir résulter dune théorie quantique des champs, comme cest le cas pour les trois autres interactions.

La théorie des cordes

Un autre modèle s'est fait jour, appelé la théorie des cordes. Dans cette théorie l'espace est décrit non plus par des points mais par de petites cordes qui vibrent et dont toutes nos particules ne seraient que des états d'excitation. Elle est apte a priori à décrire toutes les interactions connues, mais il faut avouer quelle n'a pour l'instant permis de prédire aucun phénomène observable. Beaucoup de physiciens dans le monde y travaillent parce que cela leur semble être la seule porte ouverte face à léchec de la théorie des champs.

Imaginons que cette théorie fonctionne, quelles en seraient les conséquences ? Les calculs seraient peut-être difficiles comme ceux déjà évoqués, mais néanmoins toutes les forces de la Nature seraient connues. Est-ce qu'un jour notre description de la nature sera comme un théorème ? Est-ce que la physique sera devenue un théorème ?

Ces questions n'ont rien de scientifique aujourd'hui. Certains pensent queffectivement, cette théorie, baptisée « théorie du tout » achèvera notre description du monde comme le ferait un théorème. Il ne resterait alors que des difficultés dus à la complexité des calculs. D'autres pensent que lorsque cela sera compris il y aura encore de nouvelles questions que nous sommes tout à fait incapables de formuler aujourdhui, et que ce questionnement ne s'arrêtera jamais.

Une des questions fondamentales posée aux théoriciens des cordes porte sur le nombre alpha=0,007... Ce nombre est important parce qu'il détermine la taille des atomes, la façon d'être de notre monde. C'est un nombre absolument essentiel pour notre monde. A-t-il cette valeur pour des raisons accidentelles ? Pourrait-il en avoir d'autres ? N'existe-t-il qu'une seule solution aux équations que contemplent aujourd'hui les théoriciens ou alors des Univers de toutes natures sont-ils possibles ? Nous serions dans notre Univers tel quil est pour des raisons « accidentelles ». Sont-elles réellement accidentelles ou manquerait-il un principe ? Voilà des questions qui sont d'allure philosophique mais qui sont posées réellement aux théoriciens d'aujourd'hui et vous voyez là comment les interrogations des mathématiques et de la physique se rejoignent. Jamais l'interaction entre mathématiques et physique n'a été aussi riche et aussi stimulante qu'en ces questions que je viens d'évoquer.

[1] Complexe signifie ici que la structure fait intervenir les nombres complexes des mathématiciens pour lequel il faut introduire un nombre qui serait la racine carrée de -1 et qui généralise la notion de nombre
[2] Un théorème est une assertion toujours vraie lorsque les hypothèses le sont .

 

  VIDEO       CANAL  U         LIEN

 
 
 
 

Nanomatériaux

 

 

 

 

 

 

 

Nanomatériaux


Construire des nanomatériaux aux propriétés nouvelles pour l’énergie, les transports et d’autres applications de la vie quotidienne est un enjeu stratégique.

Publié le 1 juillet 2012

L’observation des matériaux au microscope fait apparaître leur composition, leur structure, granulaire ou fibreuse, et leurs défauts. Elle révèle, par exemple, que les alliages métalliques sont constitués d’agrégats de grains de taille micrométrique.

INFLUENCE DE LA STRUCTURE
La structure détermine les propriétés optiques, mécaniques, électriques, magnétiques, thermiques… des matériaux. En faisant coïncider l’échelle d’homogénéité des matériaux avec l’échelle d’action de phénomènes physiques, on peut modifier certaines de leurs caractéristiques. Ainsi, un verre millistructuré est transparent mais pas superhydrophobe, tandis qu’un verre microstructuré est opaque mais toujours pas superhydrophobe. Seul un verre nanostructuré est transparent et superhydrophobe.
Les nanomatériaux sont donc volontairement façonnés à cette échelle : ils sont constitués d’éléments nanométriques qui vont leur conférer la propriété recherchée. Ils peuvent se présenter sous forme de nanopoudre ou comprennent des nanoparticules intégrées dans une matrice ordinaire (on parle alors de matériaux composites).
En diminuant la taille des grains, on obtient des matériaux plus légers et ayant de meilleures propriétés mécaniques, par exemple plus résistants. Les matériaux obtenus sont plus malléables car les grains glissent plus facilement les uns par rapport aux autres.

Les polymères sont transparents : ce sont les nanocristaux dispersés dans le polymère qui sont fluorescents sous lampe UV. © Artechnique/CEA

Plus un objet est petit, plus sa surface externe est importante par rapport à son volume. Les objets nanométriques sont caractérisés par un nombre d’atomes en surface identique au nombre d’atomes en volume. Les phénomènes de surface jouent donc un rôle désormais prédominant. Le monde naturel l’illustre bien : ainsi, un insecte peut marcher sur l’eau mais, grossi 500 fois jusqu’à la taille d’un éléphant, il n’en serait plus capable.
De plus, ce qui se passe à l’interface entre chaque élément constitutif est aussi très important. Plus il y a d’éléments, plus la surface d’échange augmente. Celle des objets nanométriques est par conséquent immense. Il est ainsi possible de modifier les propriétés d’un matériau en le façonnant à cette échelle. Par exemple, le cuivre formé de nanocristaux est trois fois plus résistant mécaniquement qu’en microcristaux. Une poussière de nanotubes « en vrac » a une immense surface d’échange avec son environnement : plusieurs centaines de mètres carrés par gramme. Cela permet notamment d’augmenter l’efficacité des catalyseurs de l’industrie chimique ou des pots d’échappements pour le même volume de matière.
Certains matériaux réémettent de la lumière visible quand ils sont éclairés : c’est le phénomène de photoluminescence. Sous des rayons ultraviolets, la couleur émise par des nanocristaux de séléniure de cadmium change en fonction de leur dimension, passant du bleu pour des grains de 2 nm au vert pour 3 nm, puis au rouge pour 5 nm. Dotés de cette propriété, les nanocristaux de semi-conducteurs, souvent appelés quantum dots, peuvent être utilisés dans le marquage moléculaire ou encore comme marqueurs d’objets précieux et de produits commerciaux.
On peut ainsi utiliser la réactivité ou les propriétés de certaines nanoparticules pour obtenir des surfaces fonctionnalisées : vitres autonettoyantes, miroirs antibuée, revêtements antibactériens et/ou fongicides… Pour cela, il faut déposer une couche de ces nanoparticules à la surface d’un objet en matériau ordinaire avec des procédés comme le sol-gel ou le dépôt en phase vapeur.

La nature inspiratrice
Le gecko, petit animal qui ressemble à un lézard, a la propriété étonnante de courir au plafond ! En examinant de très près la surface de ses pattes, on a découvert qu’elle est constituée d’un tapis de fibres très serrées qui lui donne cette superadhérence. Des chercheurs sont en train d’en copier la structure pour reproduire cet effet de nano-velcro…
La feuille de lotus, quant à elle, présente une propriété étonnante : elle est superhydrophobe. L’étude nanométrique de sa surface met en évidence une nanostructure qui fait glisser les gouttes, et permet de comprendre comment et pourquoi, même plongée dans l’eau, elle paraît toujours sèche. L’intérêt de cette recherche est de pouvoir fabriquer des verres hydrophobes qui pourraient équiper les véhicules et la lunetterie.
Les objets nanométriques « naturels » sont depuis toujours présents dans notre environnement. Les grains d’argent des émulsions photographiques, la poudre à base d’encre de Chine, les colorants des verres (de certaines cathédrales par exemple) contiennent des nanoparticules. Mais les objets dérivant des nanotechnologies ne sont fabriqués que depuis quelques années. Aujourd’hui, plus de 350 produits grand public sont commercialisés pour lesquels le constructeur mentionne au moins un élément dérivé des nanotechnologies. Parmi eux, on compte des cosmétiques, des systèmes électroniques et des produits ménagers et sportifs.
Pour beaucoup d’applications, des nanoparticules aux propriétés déterminées sont incluses dans une matrice, créant ainsi un matériau composite fonctionnel. Tout, ou presque, est envisageable : béton ultraléger, résistant et auto-cicatrisant, film de polyéthylène antibactérien (en incluant des nanoparticules d’argent) et imperméable aux rayons UV (grâce à des nanoparticules de dioxyde de titane), crèmes solaires incorporant, elles aussi, des nanograins de dioxyde de titane pour l’absorption des UV dangereux pour la peau, céramiques nanorenforcées rendues bio­compatibles, matières plastiques à base de polymères rendues conductrices, ininflammables ou plus résistantes…

DES NANOS AU SERVICE DE L'ÉNERGIE
L’apport des nanomatériaux et des matériaux nanostructurés est stratégique dans le domaine de l’énergie nucléaire du futur, en particulier dans les projets liés aux réacteurs de « Génération IV ».

En effet, qu'il s'agisse des nouveaux alliages métalliques renforcés par une dispersion très fine d’oxyde (aciers ODS) ou de composites à matrices céramiques (CMC), les performances de ces matériaux reposent sur leur nanostructuration. Elles permettent par exemple aux premiers de renforcer leur résistance lors de leur utilisation en environnement sévère ; aux seconds de présenter une conductivité thermique élevée. Le développement pour le nucléaire de ces matériaux nanostructurés permettra la diffusion de connaissances, de savoir-faire technologique et d’innovation dans d’autres secteurs industriels.
Les nouvelles technologies de l’énergie intègrent aussi ces recherches.
Premier exemple : les cellules photovoltaïques. Les dispositifs actuels en silicium cristallin convertissent au maximum 16 à 18 % de la puissance du Soleil en énergie électrique, mais la fabrication des cellules est coûteuse, complexe, et exige de grandes précautions. Les nanotechnologistes élaborent des structures photosensibles flexibles, à partir de plastiques conducteurs, actuellement en phase de test.

L’apport des nanomatériaux et des matériaux nanostructurés est stratégique dans le domaine de l’énergie nucléaire du futur.

Pour les piles à combustible, le polymère des membranes a été rendu plus résistant mécaniquement, chimiquement et thermiquement. Les particules de platine, qui jouent le rôle de catalyseur, ont été remplacées par des nanoparticules, permettant ainsi d’économiser du métal précieux.
Le champ des possibles est immense. À l’évidence, des secteurs comme l’aéronautique et l’aérospatial, toujours à la recherche de matériaux légers et ultra-performants, seront de gros utilisateurs. Les moyens de transport terrestres, maritimes et aériens seront plus légers, emporteront plus de charge utile tout en consommant moins d’énergie et donc en polluant moins. L’industrie textile connaîtra aussi sans doute des bouleversements : de nombreux scientifiques travaillent déjà sur des tissus « intelligents ».

 

  DOCUMENT     cea         LIEN

 
 
 
 

La cryptographie et la communication quantiques

 


 

 

 

 

 

La cryptographie et la communication quantiques

Publié le 12 février 2021
       
La sécurisation des données intervient à chaque instant dans de très nombreux domaines de la vie privée ou publique et représente un enjeu stratégique pour les entreprises, les grands groupes industriels, les banques ou encore l’État. Les protocoles utilisés aujourd’hui pour le chiffrement et le déchiffrement des messages utilisent des codes mathématiques de plus en plus complexes avec des clefs publiques de plus en plus longues, à mesure qu’augmente la puissance des ordinateurs (classiques) capables de les casser. L’avènement possible de l’ordinateur quantique impose de recourir à d’autres méthodes. Des algorithmes quantiques, implémentés sur un tel ordinateur, mettraient en effet aisément à mal les protocoles classiques.
LA PROMESSE DE L’INVIOLABILITÉ DES COMMUNICATIONS

La cryptographie quantique, qui repose sur la transmission de qubits générés aléatoirement, assure l’inviolabilité des échanges en toutes circonstances. Ces qubits constituent des clefs, qui sont ensuite utilisées dans des protocoles de chiffrement classiques. Dans la mesure où il est impossible de cloner une information quantique sans qu’elle soit détruite, ou de mesurer un état quantique sans le modifier, la lecture de l’information par un intrus serait immédiatement détectée par les destinataires du message.

Pour envoyer des qubits sur de grandes distances, le support privilégié est le photon, qui autorise l’encodage de l’information sur des variables observables telles que la polarisation de la lumière.


La rencontre, à la fin des années 1980, de l'optique quantique et de l'optique non-linéaire a permis le développement de nouvelles sources de photons uniques et intriqués, compactes, efficaces et simples d'utilisation. D’autres techniques ont également vu le jour, autorisant la fabrication et l’exploitation d’émetteurs artificiels, tels que les boîtes quantiques semi-conductrices ou les centres colorés dans les cristaux de diamant.

Zoom sur la boîte quantique
Une boîte quantique est constituée d'une inclusion nanométrique d'un matériau semi-conducteur dans un autre semi-conducteur. Maintenue à des températures cryogéniques (1-50 K), elle se comporte comme un atome artificiel, à la différence qu'elle est beaucoup plus facilement maîtrisable, en permettant l'émission très pure de photons uniques.

VERS DES RÉSEAUX QUANTIQUES À FORT DÉBIT ET À GRANDE ÉCHELLE
Ces technologies, déjà relativement mûres, donnent lieu à des systèmes développés et commercialisés par quelques petites entreprises, comme la compagnie suisse ID-Quantique. Leurs solutions permettent déjà de transmettre des messages, mais pas d’encoder des communications à grande échelle, car le débit de transmission de qubits sécurisés reste encore faible. Par ailleurs, en l’absence de relais et de répéteurs sécurisés, leur système ne peut aujourd’hui fonctionner que sur des distances limitées à quelques centaines de kilomètres.
Dans les laboratoires, l’heure est donc à la construction de véritables réseaux quantiques, permettant de générer, véhiculer, stocker et synchroniser l'information quantique entre sites distants, au même titre que ce qui se fait quotidiennement dans nos réseaux classiques. C’est à ce prix que la communication quantique pourra prendre véritablement son essor.


QUELLES RECHERCHES SUR LA COMMUNICATION QUANTIQUE ?
Afin d’augmenter les débits, la portée et la sécurité des liens de communication quantique, les recherches actuelles se tournent également vers les dernières innovations technologiques en photonique et en micro-électronique.
Des équipes travaillent ainsi à concevoir les relais et répéteurs qui manquent aux systèmes actuels, afin de téléporter ou stocker des états intriqués photoniques en deux endroits distants, puis de synchroniser la réémission des photons.
En parallèle, une nouvelle voie pour une communication quantique intercontinentale s’est ouverte en 2017, lorsqu’une source embarquée sur un satellite chinois a permis de distribuer des photons intriqués entre deux stations sol, séparées par une distance record de 1 200 km. L’augmentation drastique de la portée des réseaux quantiques pourrait en effet passer par l’interconnexion entre les technologies qui relèvent des liens satellitaires et des liens fibre optique.
De nouvelles idées d’hybridation émergent sans cesse : certaines visent à introduire la cryptographie quantique dans les systèmes télécoms existants, d’autres envisagent des solutions post-quantiques à base de cryptographie classique actuellement non attaquables par l’ordinateur quantique.

VERS LA CRYPTOGRAPHIE POST-QUANTIQUE
La cryptographie quantique a néanmoins une limite : puisqu’elle nécessite une liaison optique et ne peut s’opérer via des liaisons radio. C’est pourquoi les chercheurs travaillent déjà sur un autre type de cryptographie, la cryptographie post-quantique dont l’objectif est de développer des systèmes sans liaison physique, capables de résister aux algorithmes quantiques tels que l’algorithme de Shor et de protéger les communications des ordinateurs dits classiques.
Cette cryptographie s’appuie sur des outils classiques qui tournent sur des machines classiques. Seulement, pour résister à un attaquant doté d’un ordinateur quantique, ces cryptosystèmes post-quantiques doivent reposer sur des problèmes mathématiques qui échappent aux ordinateurs quantiques et notamment à l'algorithme de Shor.

Zoom sur l'algorithme de Shor
L’algorithme de Shor, qui doit son nom à son concepteur Peter Shor, est un algorithme quantique probabiliste. Il ouvre la voie à la factorisation de très grands nombres en un temps record. Or, la plupart des protocoles de cryptographie classique, comme ceux utilisés pour assurer la confidentialité d'une carte bancaire, reposent sur la complexité de cette factorisation. Beaucoup de systèmes cryptographiques deviendraient vulnérables si l'algorithme de Shor était un jour implémenté dans un calculateur quantique.
En savoir plus sur l'algorithme de Shor (à 05:14) :


Ces techniques, connues depuis les années 1990, sont principalement à base de réseaux euclidiens (fondés sur des objets géométriques) ou de codes correcteurs d’erreurs (technique de codage basée sur la redondance). Elles donnent néanmoins lieu à des cryptosystèmes dont le paramétrage est plus délicat, car mettant en jeu plusieurs paramètres interdépendants (comme la dimension du réseau ou la taille des coefficients). C’est ce qui fait toute la complexité de la cryptographie post-quantique, qui pourrait prochainement devenir le standard de la cryptographie des ordinateurs classiques.
Pour assurer la transition entre la cryptographie actuelle et post-quantique, une cryptographie hybride devrait se développer, composée de deux couches de chiffrement, l’une classique et l’autre post-quantique.
La cryptographie post-quantique fait actuellement l’objet de nombreuses recherches. Ces dernières portent entre autres sur :
*         le chiffrement homomorphe, une technique de cryptographie fondée sur les réseaux euclidiens et permettant de calculer dans le domaine chiffré,
*         l’implémentation de ces techniques dans des objets à faible puissance de calcul et des systèmes embarqués,
*         mais aussi sur la résistance aux attaques physiques pendant les phases de manipulation de la clé privée.

 

 DOCUMENT     cea         LIEN
 

 
 
 
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 ] - Suivante
SARL ORION, Création sites internet Martigues, Bouches du Rhone, Provence, Hébergement, référencement, maintenance. 0ri0n
Site réalisé par ORION, création et gestion sites internet.


Google
Accueil - Initiation musicale - Instruments - Solfège - Harmonie - Instruments - Musiques Traditionnelles - Pratique d'un instrument - Nous contacter - Liens - Mentions légales /confidentialité

Initiation musicale Toulon

-

Cours de guitare Toulon

-

Initiation à la musique Toulon

-

Cours de musique Toulon

-

initiation piano Toulon

-

initiation saxophone Toulon

-
initiation flute Toulon
-

initiation guitare Toulon