QU'EST-CE QU'UNE PARTICULE ?
 

 

 

 

 

 

 

QU'EST-CE QU'UNE PARTICULE ? (LES INTERACTIONS DES PARTICULES)


En principe, une particule élémentaire est un constituant de la matière (électron par exemple) ou du rayonnement (photon) qui n'est composé d'aucun autre constituant plus élémentaire. Une particule que l'on croit élémentaire peut par la suite se révéler composée, le premier exemple rencontrée ayant été l'atome, qui a fait mentir son nom dès le début du XXe siècle. Nous décrirons d'abord l'état présent des connaissances, résultat des quarante dernières années de poursuite de l'ultime dans la structure intime de la matière, de l'espace et du temps, qui ont bouleverse notre vision de l'infiniment petit. Puis, nous essaierons de conduire l'auditeur dans un paysage conceptuel d'une richesse extraordinaire qui nous a permis d'entrevoir un peuple d'êtres mathématiques - déconcertants outils permettant d'appréhender des réalités inattendues - et dans lequel de nombreuses régions restent inexplorées, où se cachent sans doute des explications sur la naissance même de notre univers.

Texte de la 208e conférence de l’Université de tous les savoirs donnée le 27 juillet 2000.Qu'est-ce qu'une particule élémentaire?par André NeveuIntroduction De façon extrêmement pragmatique, une particule élémentaire est un constituant de la matière (ou du rayonnement) qui ne nous apparaît pas comme lui-même composé d'éléments encore plus élémentaires. Ce statut, composé ou élémentaire, est à prendre à un instant donné, et à revoir éventuellement avec l'affinement des procédés d'investigation. Mais il y a plus profond dans cet énoncé : chaque étape de l'investigation s'accompagne d'une interprétation, d'une recherche d'explication sur la manière dont ces particules interagissent pour former des entités composées à propriétés nouvelles, c'est à dire d'une construction théorique qui s'appuie sur des mathématiques de plus en plus abstraites, et qui, au cours de ce siècle, a contribué à plusieurs reprises au développement de celles-ci. Le long de cette quête d'une construction théorique cohérente, des problèmes peuvent apparaître, qui conduisent à la prédiction de particules ou d'interactions non encore découvertes, et ce va et vient entre théorie et expérience également raffinées où chacune interpelle l'autre, n'est pas le moins fascinant des aspects de cette quête de l'ultime. Aspect qui se retrouve d'ailleurs dans bien d'autres domaines de la physique. C'est là qu'est la vie de la recherche, plus que dans la construction achevée : les faits nous interpellent et à notre tour nous les interpellons. Où en sommes-nous aujourd'hui ? Une brève descente dans l'infiniment petit Comme chacun sait, la chimie et la biologie sont basées sur le jeu presque infini de molécules constituées d'atomes. Comme l'étymologie l'indique, on a cru ceux-ci élémentaires, et, effectivement, pour la chimie et la biologie, on parle toujours à juste titre d'éléments chimiques, oxygène, hydrogène, carbone, etc. L'ordre de grandeur de la dimension d'un atome est le dix milliardième de mètre. Depuis le début du siècle, on sait que chaque atome est formé d'électrons autour d'un noyau, cent mille fois plus petit que l'atome. Le noyau est lui-même constitué de protons et de neutrons liés entre eux par des forces de liaison nucléaires mille à dix mille fois plus grandes que les forces électrostatiques qui lient les électrons au noyau. Alors que les électrons restent à ce jour élémentaires, on a découvert il y a quarante ans environ que les protons et les neutrons eux-mêmes sont composés de quarks liés entre eux par des forces encore plus grandes, et nommées interactions fortes à ce titre (en fait, elles sont tellement fortes qu'il est impossible d'observer un quark isolé). Au cours de cette quête des cinquante dernières années, à l'aide principalement des grands accélérateurs comme ceux du CERN, on a découvert d'autres particules, neutrinos par exemples et des espèces d'électrons lourds (muon et lepton τ), et diverses espèces de quarks, la plupart de durée de vie extrêmement courte, leur laissant, même à la vitesse de la lumière, à peine le temps de faire une trace de quelques millimètres dans les appareils de détection, et aussi les antiparticules correspondantes. quarksuctgluonsdsb interactions fortesleptonsneutrinosυeυμυτW+ γ Z0 W-chargéseμτ interactions électrofaiblesgravitontrois « générations » de matièrevecteurs de forces Figure 1 Les particules élémentaires actuellement connues. À gauche les trois générations de fermions (quarks et leptons). Chaque quark existe en trois « couleurs », « vert », « rouge » et « bleu ». Chaque lepton chargé (électron e , muon μ et tau τ ) est accompagné d'un neutrino. À droite les vecteurs de forces : gluons, photon γ , bosons W et Z , graviton. La figure 1 présente l'ensemble des particules actuellement connues et considérées comme élémentaires, quarks et leptons, et des vecteurs de forces (voir plus bas) entre eux. Alors que les leptons s'observent isolément, les quarks n'apparaissent qu'en combinaisons « non colorées » : par exemple, le proton est formé de trois quarks (deux u et un d), un de chaque « couleur », (laquelle n'a rien à voir avec la couleur au sens usuel) « vert », « bleu », « rouge », pour que l'ensemble soit « non coloré ». D'autres particules, pions π et kaons K par exemple, sont constituées d'un quark et d'un antiquark, etc., tout cela de façon assez analogue à la formation de molécules en chimie à partir d'atomes. Pour avoir une idée de toute la richesse de combinaisons possibles et en même temps de la complexité et du gigantisme des appareils utilisés pour les détecter, je vous invite vivement à visiter le site du CERN, http ://www.cern.ch. Figure 2 Un événement observé aux anneaux de collision électrons-positrons du LEP. La figure 2 est un piètre exemple en noir et blanc de ce qu'on peut trouver en splendides couleurs sur ce site, une donnée expérimentale presque brute sortie du grand détecteur Aleph au collisionneur électrons-positrons LEP : les faisceaux d'électrons et positrons arrivent perpendiculairement à la figure, de l'avant et de l'arrière, au point d'interaction IP, où ils ont formé un boson Z de durée de vie extrêmement courte, qui s'est désintégré en une paire quark-antiquark, rapidement suivis de la création d'autres paires qui se sont réarrangées pour donner les traces visibles issues de IP et d'autres invisibles, car électriquement neutres, mais éventuellement détectables au moment de leur désintégration en particules chargées (pion, kaons et électrons en l'occurrence). En mesurant les longueurs des traces et les énergies des produits de désintégration et leur nature, on parvient à remonter aux propriétés des quarks produits au point IP et des mésons qu'ils ont formés. Cette figure, par son existence même, est un exemple de va et vient théorie-expérience : il faut avoir une idée très précise du genre d'événement que l'on cherche, et d'une interprétation possible, car il s'agit vraiment de chercher une aiguille dans une meule de foin : il y a un très grand nombre d'événements sans intérêt, que les ordinateurs qui pilotent l'expérience doivent rejeter avec fiabilité. Il est intéressant de noter que plusieurs membres de la figure 1 ont été prédits par cohérence de la théorie (voir plus bas), les quarks c, b, t, et le neutrino du τ, détecté pour la première fois il y a quinze jours, et, dans une certaine mesure, les bosons W et Z. Comme l'appellation des trois « couleurs », les noms de beaucoup de ces particules relèvent de la facétie d'étudiants ! Après la liste des particules, il nous faut parler de leurs interactions, car si elles n'interagissent pas entre elles, et finalement avec un détecteur, nous ne les connaîtrions pas ! En même temps que leurs interactions, c'est à dire leur comportement, nous aimerions comprendre comment on en a prédit certaines par cohérence de la théorie, mais aussi la raison de leur nombre, des caractéristiques de chacune, bref le pourquoi de tout (une ambition qui est fortement tempérée par l'indispensable humilité devant les faits) ! Dans le prochain paragraphe, nous tenterons cette explication. Comprendre Symétries et dynamique : la théorie quantique des champs Ici, les choses deviennent plus difficiles. Vous savez que les électrons tournent autour du noyau parce qu'ils sont négatifs et le noyau positif, et qu'il y a une attraction électrostatique entre les deux. Cette notion de force (d'attraction en l'occurrence) à distance n'est pas un concept compatible avec la relativité restreinte : une force instantanée, par exemple d'attraction électrostatique entre une charge positive et une charge négative, instantanée pour un observateur donné, ne le serait pas pour un autre en mouvement par rapport au premier. Pour les forces électrostatiques ou magnétiques par exemple, il faut remplacer la notion de force par celle d'échange de photons suivant le diagramme de la figure 3a. Ce diagramme décrit l'interaction entre deux électrons par l'intermédiaire d'un photon. Il peut aussi bien décrire les forces électrostatiques entre deux électrons d'un atome que l'émission d'un photon par un électron de la figure que vous êtes en train de regarder suivi de son absorption par un électron d'une molécule de rhodopsine dans votre rétine, qu'il amène ainsi dans un état excité, excitation ensuite transmise au cerveau. On remplace ainsi la force électromagnétique à distance par une émission et absorption de photons, chacune ponctuelle. Entre ces émissions et absorptions, photons et électrons se déplacent en ligne droite (le caractère ondulé de la ligne de photon n'est là que pour la distinguer des lignes d'électrons. On dit que le photon est le vecteur de la force électromagnétique. Les autres vecteurs de force sur la figure 3 sont les gluons g, vecteurs des interactions fortes entre les quarks, les bosons W et Z, vecteurs des interactions « faibles » responsables de la radioactivité β, et le graviton, responsable de la plus ancienne des forces connues, celle qui nous retient sur la Terre. Remarquons que l'on peut faire subir à la figure 3a une rotation de 90 degrés. Elle représente alors la formation d'un photon par une paire électron-antiélectron (ou positron), suivie par la désintégration de ce photon en une autre paire. Si on remplace le photon par un boson Z, et que celui-ci se désintègre en quark-antiquark plutôt qu'électron-positron, on obtient exactement le processus fondamental qui a engendré l'événement de la figure 2. Figure 3 Diagrammes de Feynman 3a : diffusion de deux électrons par échange d'un photon. 3b : création d'une paire électron-positron. 3c : une correction au processus 3a. La figure 3b décrit un autre processus, où le photon se désintègre en une paire électron-positron. En redéfinissant les lignes, une figure identique décrit la désintégration β du neutron par la transformation d'un quark d en quark u avec émission d'un boson W qui se désintègre en une paire électron-antineutrino. Si les « diagrammes de Feynman » de la figure 3 (du nom de leur inventeur) sont très évocateurs de ce qui se passe dans la réalité (la figure 2), il est extrêmement important de souligner qu'ils ne sont pas qu'une description heuristique des processus élémentaires d'interactions entre particules. Ils fournissent aussi des règles pour calculer ces processus avec une précision en principe presque arbitraire si on inclut un nombre suffisant de diagrammes (par exemple, le diagramme de la figure 3c est une correction à celui de la figure 3a, dans laquelle il y a une étape intermédiaire avec une paire électron-positron, qui modifie légèrement les propriétés de l'absorption, par la ligne de droite, du photon qui avait été émis par la ligne de gauche). Ces règles sont celles de la théorie quantique des champs, un cadre conceptuel et opérationnel combinant la mécanique quantique et la relativité restreinte qu'il a fallu environ 40 ans pour construire, une des difficultés principales ayant été de donner un sens aux diagrammes du genre de la figure 3c. En même temps que la dynamique des particules, cette théorie donne des contraintes sur celles qui peuvent exister, ou plutôt des prédictions d'existence sur d'autres non encore découvertes, étant données celles qu'on connaît déjà. Ce fut le cas des quarks c, b et t, et du neutrino du τ. Elle implique aussi l'existence des antiparticules pour les quarks et leptons (les vecteurs de force sont leurs propres antiparticules). Un des guides dans cette construction a été la cohérence, mais aussi l'unification par des symétries, de plus en plus grandes au fur et à mesure de la découverte de particules avec des propriétés nouvelles, et on a trouvé que cohérence et unification allaient ensemble. Avoir un principe de symétrie est puissant, car il limite et parfois détermine entièrement les choix des particules et leurs interactions, mais aussi, une fois qu'on en connaît certaines, d'autres sont déterminées. Cela permet ainsi d'appréhender avec efficacité toute cette faune. Par exemple, la symétrie entre électron et neutrino, ou entre les quarks u et d conduit à la prédiction des bosons W, mais alors on s'aperçoit immédiatement qu'en même temps il faut introduire le Z ou le photon ou les deux, et en même temps aussi leurs interactions sont déterminées. De même, le gluon et la force forte sont la conséquence d'une symétrie entre les trois « couleurs » de quarks. Ces symétries sont des rotations dans un espace interne, notion que nous allons à présent essayer d'expliciter avec une image simple en utilisant un Rubik’s cube. Un Rubik’s cube peut subir des rotations d'ensemble, que nous pouvons appeler transformations externes, et des transformations internes qui changent la configuration des couleurs de ses 9×6=54 facettes. Il faut imaginer qu'un électron ou un quark sont comme une configuration du cube, et que les symétries de la théorie sont les transformations internes qui font passer d'une configuration du cube à une autre. En fait, comme en chaque point de l'espace-temps il peut y avoir n'importe quelle particule, il faut imaginer qu'en chaque point de l'espace-temps il y a l'analogue d'un tel Rubik cube, espace « interne » des configurations de particules. Bien plus, on peut exiger que la théorie soit symétrique par rapport à l'application de transformations du cube différentes, indépendantes les unes des autres, en chaque point. On constate alors qu'on doit naturellement introduire des objets qui absorbent en quelque sorte le changement de la description de l'espace interne quand on passe d'un point à son voisin. Ces objets sont précisément les vecteurs des forces. De plus, les détails de la propagation, de l'émission et de l'absorption de ces particules vecteurs de forces sont prédits de façon à peu près unique. Il est facile d'imaginer que tout ceci fait intervenir une structure mathématique à la fois très complexe et très riche, malheureusement impossible à décrire dans le cadre de cette conférence. Un dernier ingrédient de la construction est la notion de brisure spontanée de symétrie. Car certaines des symétries dont il vient d'être question sont exactes (par exemple celle entre les « couleurs » des quarks), d'autres ne sont qu'approchées : par exemple, un électron et son neutrino n'ont pas la même masse. Dans le phénomène de brisure spontanée de symétrie, on part d'une théorie et d'équations symétriques, mais leurs solutions stables ne sont pas nécessairement symétriques chacune séparément, la symétrie faisant seulement passer d'une solution à une autre. Ainsi dans l'analogue classique d'une bille au fond d'une bouteille de Bordeaux : le problème de l'état d'équilibre de la bille au fond est symétrique par rotation, mais la position effectivement choisie par la bille ne l'est pas. Il y a une infinité de positions d'équilibre possibles, la symétrie par rotation du problème faisant seulement passer de l'une à une autre. La brisure de symétrie permet de comprendre le fait que les leptons chargés par exemple n'aient pas la même masse que leurs neutrinos associés, ou que le photon soit de masse nulle, alors que le W et le Z sont très lourds. L'ensemble de la construction trop brièvement décrite dans ce chapitre a valu le prix Nobel 1999 à Gerhardt 't Hooft et Martinus Veltman, qui en avaient été les principaux artisans dans les années 1970. À l'issue de tout ce travail, on a obtenu ce que l'on appelle le Modèle Standard. C'est l'aboutissement actuel d'unifications successives des forces, commencées par Maxwell au siècle dernier entre électricité et magnétisme (électromagnétisme) qui à présent incluent les interactions faibles : on parle des forces électrofaibles pour englober le photon et les bosons W et Z[1] . Le Modèle Standard prédit l'existence d'une particule, la seule non encore observée dans le modèle, le boson de Higgs, et comment celui-ci donne leur masse à toutes les particules par le mécanisme de brisure de symétrie. Ce dernier acteur manquant encore à l'appel fait l'objet d'une recherche intense, à laquelle le prochain accélérateur du CERN, le LHC, est dédiée. S'il décrit qualitativement et quantitativement pratiquement toutes les particules observées et leurs interactions (le « comment »), le Modèle Standard laisse sans réponse beaucoup de questions « pourquoi ». Par exemple pourquoi y a-t-il trois générations (les colonnes verticales dans la figure 1) ? Pourquoi la force électrofaible comprend-elle quatre vecteurs de force (il pourrait y en avoir plus) ? Par ailleurs toutes les masses et constantes de couplage des particules sont des paramètres libres du modèle. Il y en a une vingtaine en tout, ce qui est beaucoup : on aimerait avoir des principes qui relient ces données actuellement disconnectées. Peut-on unifier plus : y a-t-il une symétrie reliant les quarks aux leptons ? De plus, des considérations plus élaborées permettent d'affirmer que dans des domaines d'énergie non encore atteints par les accélérateurs, le modèle devient inopérant : il est incomplet, même pour la description des phénomènes pour lesquels il a été construit. Plus profondément, il laisse de côté la gravitation. La satisfaction béate ne règne donc pas encore, et nous allons dans le chapitre suivant présenter les spéculations actuelles permettant peut-être d'aller au delà. Au delà du Modèle Standard Grande unification, supersymétrie et supercordes La gravitation universelle introduite par Newton a été transformée par Einstein en la relativité générale, une théorie d'une grande beauté formelle et remarquablement prédictive pour l'ensemble des phénomènes cosmologiques. Mais il est connu depuis la naissance de la mécanique quantique que la relativité générale est incompatible avec celle-ci : quand on tente de la couler dans le moule de la théorie quantique des champs, en faisant du graviton le vecteur de la force de gravitation universelle, on s'aperçoit que les diagrammes de Feynman du type de la figure 3c où on remplace les photons par des gravitons sont irrémédiablement infinis : ceci est dû au fait que lorsqu'on somme sur toutes les énergies des états intermédiaires électron-positron possibles, les états d'énergie très grande finissent par donner une contribution arbitrairement grande, entraînant l'impossibilité de donner un sens à la gravitation quantique. La relativité générale doit être considérée comme une théorie effective seulement utilisable à basse énergie. Trouver une théorie cohérente qui reproduise la relativité générale à basse énergie s'est révélé un problème particulièrement coriace, et un premier ensemble de solutions possibles (ce qui ne veut pas dire que la réalité est parmi elles !) est apparu de manière totalement inattendue vers le milieu des années 1970 avec les théories de cordes. Dans cette construction, on généralise la notion de particule ponctuelle, élémentaire, qui nous avait guidés jusqu'à présent à celle d'un objet étendu, une corde très fine, ou plutôt un caoutchouc, qui se propage dans l'espace en vibrant. Un tel objet avait été introduit vers la fin des années soixante pour décrire certaines propriétés des collisions de protons et autres particules à interactions fortes. Il se trouve qu'il y a là un très joli problème de mécanique classique qu'Einstein lui-même aurait pu résoudre dès 1905, s'il s'était douté qu'il était soluble ! De même qu'une particule élémentaire ponctuelle, en se propageant en ligne droite à vitesse constante minimise la longueur de la courbe d'espace-temps qui est sa trajectoire, la description de la propagation et des modes de vibration d'une de ces cordes revient à minimiser la surface d'espace-temps qu'elle décrit (l'analogue d'une bulle de savon, qui est une surface minimale !), ce qui peut être effectué exactement. Le nom de corde leur a été donné par suite de l'exacte correspondance des modes de vibration de ces objets avec ceux d'une corde de piano. Quand on quantifie ces vibrations à la façon dont on quantifie tout autre système mécanique classique, chaque mode de vibration donne tout un ensemble de particules, et on sait calculer exactement les masses de ces particules. C'est là que les surprises commencent ! On découvre tout d'abord que la quantification n'est possible que si la dimension de l'espace-temps est non point quatre, mais 26 ou 10 ! Ceci n'est pas nécessairement un défaut rédhibitoire : les directions (encore inobservées ?) supplémentaires peuvent être de très petite dimension, et être donc encore passées inaperçues. On découvre simultanément que les particules les plus légères sont de masse nulle et que parmi elles il y a toujours un candidat ayant exactement les mêmes propriétés que le graviton à basse énergie. De plus, quand on donne la possibilité aux cordes de se couper ou, pour deux, de réarranger leur brins au cours d'une collision, on obtient une théorie dans laquelle on peut calculer des diagrammes de Feynman tout à fait analogue à ceux de la figure 3, où les lignes décrivent la propagation de cordes libres. Cette théorie présente la propriété d'être convergente, ce qui donne donc le premier exemple, et le seul connu jusqu'à présent, d'une théorie cohérente incluant la gravitation. Les modes d'excitation de la corde donnent un spectre de particules d'une grande richesse. La plupart sont très massives, et dans cette perspective d'unification avec la gravitation, inobservables pour toujours : si on voulait les produire dans un accélérateur construit avec les technologies actuelles, celui-ci devrait avoir la taille de la galaxie ! Seules celles de masse nulle, et leurs couplages entre elles, sont observables, et devraient inclure celles du tableau de la figure 1. Remarquons ici un étrange renversement par rapport au paradigme de l'introduction sur l'« élémentarité » des particules « élémentaires » : elles deviennent infiniment composées en quelque sorte, par tous les points de la corde, qui devient l'objet « élémentaire » ! Au cours de l'investigation de cette dynamique de la corde au début des années 1970, on a été amené à introduire une notion toute nouvelle, celle de supersymétrie, une symétrie qui relie les particules du genre quarks et leptons (fermions) de la figure 1 aux vecteurs de force. En effet, la corde la plus simple ne contient pas de fermion dans son spectre. Les fermions ont été obtenus en rajoutant des degrés de liberté supplémentaires, analogues à une infinité de petits moments magnétiques (spins) le long de la corde. La compatibilité avec la relativité restreinte a alors imposé l'introduction d'une symétrie entre les modes d'oscillation de ces spins et ceux de la position de la corde. Cette symétrie est d'un genre tout à fait nouveau : alors qu'une symétrie par rotation par exemple est caractérisée par les angles de la rotation, qui sont des nombres réels ordinaires, cette nouvelle symétrie fait intervenir des nombres aux propriétés de multiplication très différentes : deux de ces nombres, a et b disons, donnent un certain résultat dans la multiplication a×b, et le résultat opposé dans la multiplication b×a : a×b= b×a. On dit que de tels nombres sont anticommutants. À cause de cette propriété nouvelle, et de son effet inattendu d'unifier particules et forces, on a appelé cette symétrie supersymétrie, et supercordes les théories de cordes ayant cette (super)symétrie. A posteriori, l'introduction de tels nombres quand on parle de fermions est naturelle : les fermions (l'électron en est un), satisfont au principe d'exclusion de Pauli, qui est que la probabilité est nulle d'en trouver deux dans le même état. Or la probabilité d'événements composés indépendants est le produit des probabilités de chaque événement : tirer un double un par exemple avec deux dés a la probabilité 1/36, qui est le carré de 1/6. Si les probabilités (plus précisément les amplitudes de probabilité) pour les fermions sont des nombres anticommutants, alors, immédiatement, leurs carrés sont nuls, et le principe de Pauli est trivialement satisfait ! Les extraordinaires propriétés des théories des champs supersymétriques et des supercordes ont été une motivation puissante pour les mathématiciens d'étudier de façon exhaustive les structures faisant intervenir de tels nombres anticommutants. Un exemple où on voit des mathématiques pures sortir en quelque sorte du réel. De nombreux problèmes subsistent. En voici quelques uns : - L'extension et la forme des six dimensions excédentaires : quel degré d'arbitraire y a-t-il dedans (pour l'instant, il semble trop grand) ? Un principe dynamique à découvrir permet-il de répondre à cette question ? Ces dimensions excédentaires ont-elles des conséquences observables avec les techniques expérimentales actuelles ? - La limite de basse énergie des cordes ne contient que des particules de masse strictement nulle et personne ne sait comment incorporer les masses des particules de la figure 1 (ou la brisure de symétrie qui les engendre) sans détruire la plupart des agréables propriétés de cohérence interne de la théorie. Une des caractéristiques des supercordes est d'englober toutes les particules de masse nulle dans un seul et même multiplet de supersymétrie, toutes étant reliées entre elles par (super)symétrie. En particulier donc, quarks et leptons, ce qui signifie qu'il doit exister un vecteur de force faisant passer d'un quark à un lepton, et donc que le proton doit pouvoir se désintégrer en leptons (positron et neutrinos par exemple) comme la symétrie de la force électrofaible implique l'existence du boson W et la désintégration du neutron. Or, le proton est excessivement stable : on ne connaît expérimentalement qu'une limite inférieure, très élevée, pour sa durée de vie. La brisure de cette symétrie quark-lepton doit donc être très grande, bien supérieure à celle de la symétrie électrofaible. L'origine d'une telle hiérarchie de brisures des symétries, si elle existe, est totalement inconnue. - Doit-on s'attendre à ce qu'il faille d'abord placer les cordes dans un cadre plus vaste qui permettrait à la fois de mieux les comprendre et de répondre à certaines de ces questions ? Nul ne sait. En attendant, toutes les questions passionnantes et probablement solubles dans le cadre actuel n'ont pas encore été résolues. Entre autres, les cordes contiennent une réponse à la question de la nature de la singularité présente au centre d'un trou noir, objet dont personne ne doute vraiment de l'existence, en particulier au centre de nombreuses galaxies. Également quelle a été la nature de la singularité initiale au moment du Big Bang, là où la densité d'énergie était tellement grande qu'elle engendrait des fluctuations quantiques de l'espace, et donc où celui-ci, et le temps, n'avaient pas l'interprétation que nous leur donnons usuellement d'une simple arène (éventuellement dynamique) dans laquelle les autres phénomènes prennent place. Toutes ces questions contiennent des enjeux conceptuels suffisamment profonds sur notre compréhension ultime de la matière, de l'espace et du temps pour justifier l'intérêt des talents qui s'investissent dedans. Mais ces physiciens sont handicapés par l'absence de données expérimentales qui guideraient la recherche. Le mécanisme de va et vient expérience-théorie mentionné dans l'introduction ne fonctionne plus : le Modèle Standard rend trop bien compte des phénomènes observés et observables pour que l'on puisse espérer raisonnablement que l'expérience nous guide efficacement dans le proche avenir. Mais à part des surprises dans le domaine (comme par exemple la découverte expérimentale de la supersymétrie), peut-être des percées viendront de façon complètement imprévue d'autres domaines de la physique, ou des mathématiques. Ce ne serait pas la première fois. Quelle que soit la direction d'où viennent ces progrès, il y a fort à parier que notre vision de la particule élémentaire en sera une fois de plus bouleversée.
[1] Voir la 212e conférence de l’Université de tous les savoirs donnée par D. Treille.

 

 VIDEO       CANAL  U         LIEN

 
 
 
  ÉLÉMENT
 


 

 

 

 

 

élément

Cet article fait partie du dossier consacré à la matière.
Entité chimique fondamentale commune aux diverses variétés d'un même corps simple ainsi qu'aux combinaisons de ce corps simple avec d'autres corps.

CHIMIE

1. Historique de la notion d'élément
1.1. Les conceptions anciennes
Il est aisé de constater que les corps sont faits de matières différentes, le bois, le fer, etc. Une fois acquis qu'une matière peut être constituée de plusieurs substances – le bronze est obtenu par le mélange du cuivre et de l'étain –, il était naturel de s'interroger sur la composition de toute matière. La diversité des propriétés des substances oriente vers l'idée qu'elles sont constituées, selon différentes combinaisons, d'un petit nombre de substances élémentaires. Ce sont les qualités de ces éléments qui expliqueraient celles des matières composées.

De là naquit, parmi différentes théories, celle des quatre éléments, attribuée à Empédocle d'Agrigente (ve s. avant J.-C.), qui a joui d'une grande faveur jusqu'au xviiie s. : la terre, le feu, l'air et l'eau sont les noms couramment donnés à ces éléments. Aristote (ive s. avant J.-C.) perfectionna cette conception en leur attribuant des qualités, comme le chaud et l'humide. La quintessence était un cinquième élément, plus subtil, exemple parmi d'autres de ce qu'une spéculation sans frein n'a pas manqué de produire. L'alchimie, dans sa visée de connaissance et de maîtrise de la matière, y participa largement.


1.2. Du xviie s. à Mendeleïev

Au xviie s. la chimie, encore peu distincte de l'alchimie, commença à devenir plus scientifique : la connaissance devenait celle de la société des savants, et non plus le secret de quelques uns ; et l'usage de l'expérimentation commençait à relever d'une attitude plus méthodique. On en observe un effet dans la nouvelle définition des éléments que proposa Robert Boyle (1627-1691) : on doit désigner par ce mot les matières qui, à l'expérience, résistent à toute tentative de décomposition. Cette nouvelle conception allait s'imposer petit à petit contre l'ancienne, jusqu'à triompher à l'époque de Lavoisier. Cette notion expérimentale d'élément avait comme faiblesse d'être relative aux possibilités techniques d'analyse du moment. Tel corps qui a résisté à toutes les tentatives de décomposition peut, analysé selon une méthode nouvelle, révéler une structure composée.

Au cours du xixe s., les chimistes identifièrent quelques dizaines d'éléments. La quête chimique étant devenue attentive à la mesure des quantités, des « poids » notamment, des rapports simples apparurent dans les résultats, et la théorie atomique fut remise en chantier pour les expliquer. On associa aux éléments divers types d'atomes, différant les uns des autres, pour le moins, par leurs masses. En les classant par « poids atomique » croissant, Dimitri Mendeleïev (1834-1907) observa que certaines propriétés revenaient périodiquement. Il put ainsi classer les 63 éléments connus en un tableau rectangulaire. Certaines cases restant vides, Mendeleïev put prédire l'existence des éléments correspondants ainsi que leurs propriétés, et l'expérience lui donna bientôt raison.

1.3. La conception moderne

Au début du xxe s., lorsque l'on a commencé à connaître la structure de l'atome – un noyau autour duquel gravitent des électrons –, il est devenu possible de redéfinir la notion d'élément. On appelle ainsi, depuis, un type d'atome : il est caractérisé par son numéro atomique Z, qui est le nombre des protons présents dans son noyau. C'est aussi celui des électrons, tant qu'il n'y a pas ionisation.

Pour un même numéro atomique, le nombre des neutrons peut subir quelques variations : par exemple, le chlore (Z = 17) en a 20 dans un cas sur quatre et 18 dans les trois autres. Comme le chlore, tout élément peut donc présenter des isotopes, dont les propriétés chimiques sont semblables puisqu'elles sont liées, pour l'essentiel, à la structure électronique.
Un élément n'est pas nécessairement un corps, en ce sens que l'on ne le trouve pas toujours tel quel dans la nature. Dans les conditions ordinaires, par exemple, il n'y a pas de gaz dont les corpuscules seraient les atomes d'oxygène (O). Celui que l'on désigne traditionnellement par ce nom est appelé dioxygène par les chimistes ; ses molécules sont faites de deux atomes (O2). L'ozone (O3), quoique constitué du même élément O, est un autre corps simple.

2. La dénomination des éléments
Chaque élément est donc exprimé par un symbole et un numéro d'ordre, le numéro atomique (symbole Z).
Le premier élément a pour symbole H et pour numéro atomique Z = 1. On l'appelle hydrogène. Le deuxième a pour symbole He et pour numéro atomique Z = 2. On l'appelle hélium. Et ainsi de suite.
Les noms des éléments sont d'origine très variée : inconnue pour certains, qui sont en usage depuis la nuit des temps, elle est pour d'autres liée aux circonstances de leur découverte ou aux caractéristiques de l'élément. L'hydrogène doit son nom au fait qu'il « engendre l'eau » (par combustion), le phosphore au fait qu'il « apporte la lumière », le chlore à sa couleur d'un « vert jaunâtre » : les trois noms ont été construits sur les racines grecques correspondantes. Les chimistes ont aussi créé des noms à partir de mots d'origine latine : rubidium signifie « rouge » ; l'iridium a été baptisé par référence à la variété des couleurs obtenues par sa dissolution dans les acides…
L'hélium a été découvert dans le spectre de la lumière solaire : son nom vient du mot grec désignant le Soleil. Le hafnium a été ainsi nommé par Coster et Hevesy en 1923 : ce nom, qui vient de Hafnia (ancienne appellation latine de Copenhague) a été définitivement adopté, après des dénominations très variées (norium en 1845, jargonium en 1869, nigrium puis celtium en 1911) dues aux longues vicissitudes qui ont accompagné sa découverte.
Le rhénium (Rhin) a été nommé ainsi par ses inventeurs, trois Allemands travaillant dans le laboratoire Nernst en 1925. En 1830, Nils Sefström appela vanadium un élément qu'il venait de découvrir, en l'honneur de la déesse scandinave de l'Amour, Vanadis.

Plus récemment, les noms de mendélévium, nobélium et lawrencium ont été donnés aux éléments 101, 102 et 103 en hommage à leurs découvreurs. À partir de l'élément 104, la communauté scientifique internationale a décidé d'attribuer désormais à tout élément un nom systématique, construit avec le suffixe « -ium » sur les racines des trois mots latins signifiant les trois chiffres de son numéro atomique, conformément au tableau suivant, et un symbole construit avec les initiales des trois racines concernées. Par exemple :
104 – unnilquadium – Unq
105 – unnilpentium – Unp
118 – ununoctium – Uuo
Mais ces noms systématiques sont ensuite remplacés par des noms moins « anonymes », après la confirmation de la découverte des éléments correspondants et entente entre leurs découvreurs et la communauté scientifique internationale. Ainsi, l'Union internationale de chimie pure et appliquée (IUPAC) a finalement attribué le nom de rutherfordium à l’élément 104, dubnium au 105, seaborgium au 106, bohrium au 107, hassium au 108, meitnerium au 109, darmstadtium au 110, roentgenium au 111, copernicium au 112, flérovium au 114 et livermorium au 116. Ces deux derniers éléments font directement référence au lieu de leur découverte : le Lawrence Livermore National Laboratory (États-Unis) et le Flerov Laboratory of Nuclear Reactions (Russie). En 2016, les éléments 113, 115, 117 et 18 ont été officiellement baptisés respectivement nihonium (Nh, de nihon, Japon), moscovium (Mc, de Moscou, capitale russe), tennessine (Ts, de Tennesse, État américain) et oganesson (Og, du n. de Y. Oganessian, physicien nucléaire russe).

3. La classification périodique des éléments
3.1. Une case, un élément

La classification périodique des éléments se présente sous la forme d'un tableau qui recense tous les éléments connus. Chacun d'entre eux y occupe une case et est désigné par son symbole, accompagné de deux nombres. Le plus petit, toujours entier, est le numéro atomique Z (correspondant au nombre de protons) ; il augmente d'unité en unité, à partir de 1.
L'autre est la masse molaire atomique M, appelée aussi masse molaire ou masse atomique. Cette dernière appellation reprend et corrige l'ancienne expression de « poids » atomique. Elle a cependant l'inconvénient de paraître désigner la masse de l'atome considéré, ce qui n'est pas le cas. Cette grandeur est la masse d'une mole de l'atome en question, autrement dit la masse de 6,02 × 1023 atomes de l'élément considéré (6,02 × 1023 étant le nombre d’Avogadro) ; elle s'exprime en grammes par mole (g.mol−1).
Pour en savoir plus, voir l'article mole.
La valeur de cette masse est souvent proche d'un entier, au point que les tableaux simplifiés donnent presque exclusivement des entiers. Ainsi l'hélium, de numéro atomique 2, a-t-il pour masse molaire 4,0026 g.mol−1, ce que l'on arrondit à 4. Cet entier A, le nombre de masse, correspond en fait au nombre de nucléons, c'est-à-dire le nombre de protons et de neutrons composant le noyau atomique. Puisque Z = 2, l'atome d'hélium comporte deux électrons ainsi que deux protons. Puisque A = 4, le nombre des neutrons est N = A − Z = 2.
Les masses molaires éloignées d'une valeur entière sont liées à la présence non négligeable d'un isotope. Ainsi, dans le cas du chlore (Z = 17), l'isotope 35 (18 neutrons) se rencontrant trois fois plus que l'isotope 37 (20 neutrons), on prend 35,5 comme masse molaire moyenne de l'élément chlore. En conséquence, la masse molaire moléculaire du dichlore (Cl2) a pour valeur 71.

3.2. Lignes et colonnes
Les différentes lignes du tableau périodique correspondent au remplissage des différentes couches électroniques des atomes. La première couche, la plus proche du noyau, ne peut recevoir que deux électrons. C'est pourquoi la première ligne ne comporte que deux cases : H et He. La deuxième couche peut recevoir huit électrons : dans la deuxième ligne, le numéro atomique va de 3 à 10 ; etc.
Chaque colonne, par conséquent, correspond à la façon dont est occupée la dernière couche électronique de chaque atome. Dans la première colonne figurent les éléments pour lesquels la couche la plus externe comporte un unique électron. L'hydrogène (H), en tête, n'en a qu'un en tout ; le lithium (Li), en dessous, en a 3 (= 2 + 1) ; le sodium (Na, pour natrium), sur la troisième ligne, possède 11 électrons (= 2 + 8 + 1) etc.
C'est ce nombre des électrons de la couche externe (également appelée couche de valence) qui détermine les propriétés chimiques des corps, expliquant que les différents éléments d'une même colonne présentent des propriétés commune. La première colonne est celle des métaux alcalins (lithium, sodium, etc.) ; la dernière colonne est celle des gaz rares, ou inertes (hélium, néon, argon, etc.), l'avant-dernière étant celle des halogènes (fluor, chlore, etc.).
Le principe de remplissage des lignes du tableau qui vient d'être esquissé n'est pas respecté partout. Les irrégularités de sa constitution tiennent au fait que le remplissage des couches électroniques suit, dans certains domaines, des règles un peu plus compliquées. On notera, en particulier, la famille des actinides, où figure l'uranium (U), de numéro atomique 92. Tous les éléments qui viennent après sont les transuraniens : ils n'existent pas dans la nature, ils ont été produits artificiellement.

4. Les éléments radioactifs et leurs transmutations
La physique nucléaire, contrairement à la chimie, prend en compte des réactions dans lesquelles des noyaux atomiques se transforment. On peut donc y voir de véritables transmutations d'éléments.
Le concept de nucléide (ou nuclide) qui a cours dans cette branche de la physique n'est autre que celui de type de noyau, défini par les nombres Z et A. Autrement dit, le cortège électronique n'est pas pris en considération.

4.1. Radioactivité et stabilité des éléments
Le phénomène de la radioactivité peut prendre différentes formes. Des noyaux de plutonium 244, par exemple (94 protons et 150 neutrons), émettent une particule, constituée de deux protons et de deux neutrons. Cette dernière est donc en fait un atome d'hélium complètement ionisé He2+ ou, si l'on préfère, un noyau d'hélium. Le noyau émetteur n'ayant plus que 92 protons, le plutonium est devenu uranium, sous la forme de l'uranium 240.
En se désintégrant, le noyau « père » donne un noyau « fils » qui peut à son tour être radioactif. De proche en proche on aboutit in fine à un nucléide stable.
La radioactivité est un phénomène naturel qui affecte surtout les gros noyaux (uranium, radium, polonium…), mais pas uniquement. La désintégration du carbone 14 obéissant à une loi connue, la présence de cet isotope permet la datation des fossiles. La radioactivité artificielle consiste à modifier un noyau lourd en le bombardant avec un projectile, qui peut être une particule, de façon à produire un nouveau noyau qui soit radioactif.

4.2. Production et utilisations énergétiques des éléments transuraniens
Les transuraniens sont des éléments radioactifs. On les obtient artificiellement et leur durée de vie peut être très brève. Parmi ceux déjà produits, celui qui a le plus grand numéro atomique est l'élément 116, qui a été obtenu en 2000 et dénommé Livermorium (Lv) en 2012. Ses 176 neutrons le rendent proche d'un îlot de stabilité, prévu par la théorie, qui serait atteint avec 184 neutrons.

La fission nucléaire consiste à casser des noyaux lourds, d'uranium par exemple, dans le but de produire une grande quantité d'énergie, que ce soit de façon brutale (bombe atomique) ou de façon contrôlée (électronucléaire) ; dans cette réaction, l'uranium disparaît en donnant deux autres éléments.
Pour en savoir plus, voir l'article centrale nucléaire.

La fusion nucléaire vise au même but, mais par l'opération inverse : un noyau de deutérium (ou hydrogène 2) et un de tritium (ou hydrogène 3) fusionnent pour donner un atome d'hélium. Cette réaction est provoquée lors de l'explosion d'une bombe thermonucléaire (ou bombe H) ; mais c'est elle aussi qui assure naturellement la production énergétique du Soleil. La réaction de fusion contrôlée constitue un enjeu énergétique, économique et environnemental de premier plan, c’est pourquoi elle est au cœur du projet ITER (International Thermonuclear Experimental Reactor), dont l’objectif est la construction d’un prototype de réacteur à fusion thermonucléaire contrôlée permettant de valider cette option comme source d’électricité. Dans le cas de la fission comme dans celui de la fusion, le dégagement d'énergie est corrélatif d'une diminution de la masse totale, conformément à la théorie de la relativité.

BIOLOGIE
Dans tous les organismes vivants, on admet l'existence constante de 27 corps simples : 11 non-métaux (carbone, hydrogène, oxygène, azote, soufre, phosphore, chlore, fluor, brome, iode, bore), 2 semi-métaux (silicium, arsenic) et 14 métaux (calcium, sodium, potassium, magnésium, fer, zinc, cuivre, nickel, cobalt, manganèse, aluminium, plomb, titane, étain). Les 11 éléments les plus abondants sont dits plastiques. Les autres sont des oligoéléments.

 

  DOCUMENT   larousse.fr    LIEN

 
 
 
  PHYSIQUE ET SCIENCES DU GLOBE
 

 

 

 

 

 

 

PHYSIQUE ET SCIENCES DU GLOBE


La Terre est une planète vivante dont l'intérieur garde de nombreux secrets. Comment voir sous la surface ? Les ondes sismiques sont les seules ondes qui se propagent jusqu'au centre de la Terre. Elles permettent de réaliser des images des structures profondes. En utilisant des méthodes qui se rapprochent de celles de l'imagerie médicale, ces images permettent d'explorer des problèmes fondamentaux de la physique de la Terre comme la convection dans le manteau, qui conditionne les grands traits de la géologie de la surface, ou l'existence du champ magnétique. Dans la plupart des cas les analyses des sismologues s'appuient sur des ondes dont ils peuvent décrire précisément le trajet et dont ils connaissent bien la source. Ces ondes ne sont qu'une faible partie du signal enregistré en continu par les stations sismologiques modernes. La physique de la diffusion multiple offre des possibilités nouvelles pour exploiter ces masses importantes de données. En particulier, le bruit, cette agitation permanente de la surface du sol qui trouve principalement son origine dans les couplages avec les océans, peut être utilisé en l'absence de séisme pour déduire les sismogrammes qui seraient observés si un séisme se produisait exactement à une des stations d'enregistrement. Une nouvelle imagerie passive émerge qui permettra d'affiner nos images de l'intérieur de la Terre et donc d'y mieux cerner les processus physiques à l'origine du monde qui nous entoure.

Transcription[1]revue et corrigée par l'auteurde la 591ème conférencede l'Universitéde tous les savoirs prononcée le 13 juillet 2005
La physique des ondes sismiques.
ParMichel Campillo

Le but de cet exposé est de mettre en évidence un certain nombre de problèmes physiques qui se posent pour la compréhension de la Terre solide. La sismologie y joue un rôle important, car les ondes sismiques, qui sont des ondes élastiques, sont les seules capables de pénétrer profondément à l'intérieur de notre planète, nous permettant de réaliser des images de couches internes, à la manière de l'imagerie médicale bien connue de tous.
Cette présentation va se faire en deux parties ; un premier temps sera consacré à la présentation de la sismologie moderne et des problèmes que rencontrent les géophysiciens, physiciens et géologues qui travaillent sur la structure interne de la Terre. Puis nous verrons des notions de physique mésoscopique et leurs utilisations en sismologie pour obtenir des nouvelles images de l'intérieur de la Terre.


Le sismogramme

Le sismogramme est à la base de tout le travail du sismologue. Depuis quelques années nous pouvons enregistrer le mouvement du sol de manière continue. On mesure le déplacement du sol en fonction du temps, qui consiste en général en une agitation permanente que l'on nomme le bruit sismique ou microsismique' jusqu'à ce qu'un séisme se produise et engendre les ondes élastiques qui nous permettront d'étudier la Terre. Ces ondes sont celles qui sont ressenties par l'homme lors des grands séismes mais que les appareils de mesure peuvent détecter avec des amplitudes qui sont bien inférieures à ce que nous sommes capables de percevoir. Les instruments modernes sont suffisamment sensibles pour que nous puissions mesurer très précisément les temps d'arrivées des ondes aux stations. C'est essentiellement cette information qui est utilisée pour faire des images de la structure interne de la Terre car, comme nous le verrons, nous connaissons aujourd'hui les trajets parcourus en profondeur par les différentes ondes qui sont observées. La première partie de l'exposé va leur être consacrée. Mais nous pouvons aussi étudier le bruit sismique, c'est-à-dire le signal qui ne peut être associé à un trajet particulier que ce soit celui qui suit un tremblement de terre (la coda) ou celui qui est du à l'agitation permanente de la surface de la Terre sous l'effet de l'atmosphère et des océans.
Mais avant de se lancer dans l'interprétation des sismogrammes, il faut rappeler ce qu'est un sismomètre. Il s'agit d'un pendule, c'est à dire une masse qui est maintenue en équilibre par un système de ressort, et lorsque le sol bouge, par le principe d'inertie on mesure le mouvement relatif de la masse et du sol. Cette idée a été mise en Suvre dès le 19ème siècle. Les capteurs actuels nous permettent de faire des mesures très précises du champ de déplacement, ceci grâce à leur petite taille en comparaison de la longueur d'onde des ondes sismiques.
Malgré leurs efforts, les sismologues ne connaissent peut-être pas très bien la Terre, ils ne connaissent pas bien non plus les tremblements de Terre d'ailleurs, mais armés de ces instruments, ils connaissent très bien les mouvements du sol et font des mesures quasi exactes du champ de déplacement. Ceci concerne des ondes avec des périodes allant de plusieurs centaines de secondes jusqu'à un centième de seconde, c'est-à-dire 100 Hz. On enregistre donc des ondes dans une gamme de fréquence très variable, mais aussi avec des amplitudes variables. En effet on mesure avec la même exactitude le bruit sismique, bien au dessous de notre seuil de perception et les mouvements du sol lors de grands tremblements de Terre destructeurs. Sur un exemple de sismogramme suivant un séisme on peut noter des arrivées individualisées d'énergie. Parlons maintenant de l'interprétation de ces sismogrammes en commençant par présenter les différents types d'ondes.
Les ondes sismiques
La première onde que l'on observe est l'onde P, c'est l'onde qui se propage le plus vite dans la Terre, à des vitesses de l'ordre de 5 ou 6 km/sec à quelques kilomètres sous nos pieds. C'est une onde de compression comparable aux ondes acoustiques que l'on produit dans l'air.
Puis arrivent les ondes S, elles sont un peu plus lentes que les ondes P, de l'ordre de 3,5 km/s à quelques kilomètres de profondeur, et ne provoquent pas une compression de la roche mais un cisaillement. Il n'existe pas d'équivalent à ces ondes dans les fluides.
Tous les séismes génèrent ces deux grands types d'onde, qui vont se propager dans la Terre profonde et qu'on appelle donc « ondes de volume ». Pour les décrire facilement, on peut les associer à des rayons lumineux se propageant à l'intérieur de la Terre. On peut alors leur appliquer la loi de Descartes et les principes de la réflexion et la réfraction de la lumière.
Mais toutes nos observations sont réalisées à la surface de la Terre ; et à la surface d'un corps élastique il existe un troisième type d'ondes. C'est l'onde de Rayleigh, qui est spécifique des corps élastiques et dont l'existence est confinée près de la surface. Ces ondes dites de surface, produisent des mouvements qui ressemblent à ceux engendrés par la houle sur la mer, c'est-à-dire qu'un point de la surface de Terre décrit une ellipse lors du passage de l'onde. Ces ondes de surface se propagent à des vitesses plus faibles et forment l'arrivée tardive de grande amplitude sur notre exemple de sismogramme. Les sismogrammes nous permettent donc d'observer des ondes de volume qui pénètrent l'intérieur de la Terre et dont on peut suivre les trajets comme des rayons lumineux et des ondes de surface qui elles, sont confinées près de la surface. Mais il faut être prudent lorsque l'on parle d'ondes superficielles car avec des périodes de 300 secondes, elles pénètrent quand même jusqu'à plusieurs centaines de km de profondeur. Cependant elles se propagent toujours parallèlement à la surface de la Terre et on les différencie bien de la catégorie des ondes de volume. Les ondes de surface jouent un rôle très important en sismologie car une part importante de l'énergie produite par les séismes superficiels est transmise sous cette forme.

Modèle global
Le fait que l'on dispose aujourd'hui d'une très grande collection de sismogrammes fait suite à un effort international considérable sur un réseau de stations sismiques qui couvre la quasi-totalité de la planète. Ce qui est le plus important, c'est que depuis à peu près un siècle, l'échange de données est organisé au niveau international. Les chercheurs de différents pays se sont transmis leurs informations, et à partir de ces données cumulées globales on a pu dévoiler la structure interne de la Terre. Par exemple la France y contribue par ses stations locales et par le réseau Geoscope qui s'étend à l'échelle globale.
Dès la mise en place des premiers réseaux à la fin du 19ème siècle, les chercheurs ont commencé à accumuler des observations de temps d'arrivées qu'ils ont reportés sur des diagrammes en fonction de la distance épicentrale. L'accumulation de ces observations individuelles a permis de décrire des courbes continues qui seront associées à des trajets spécifiques. La première grande découverte a été faite dès 1906 par un sismologue britannique, Oldham, qui à partir de ces observations a découvert l'existence d'une zone d'ombre dont il a déduit la présence d'un corps interne dont les propriétés provoquent une forte réfraction des ondes sismiques. Oldham a ainsi démontré l'existence d'un noyau plus lent, et il a pu calculer son rayon. C'était le premier élément qui allait permettre de construire progressivement un modèle complet de Terre. Aujourd'hui bien sûr le modèle s'est raffiné et de nombreux trajets ont été identifiés et nommés suivant une codification rationnelle. On dispose d'un modèle global moyen pour lequel on peut évaluer les temps de parcours de nombreuses arrivées correspondant à des trajets bien identifiés. Les différentes couches constituant la Terre sont reconnues et leurs propriétés moyennes précisément évaluées. En termes de temps de parcours des ondes, les différences entre ce modèle et la structure réelle sont très faibles. Ce modèle moyen est très important car il fait le lien entre les sismogrammes et les structures internes de la Terre.
Ce diagramme a été construit à partir des ondes que l'on peut identifier directement, mais quand se produit un séisme extrêmement fort, comme le séisme de Sumatra récemment, la Terre vibre globalement. Bien sur, les ondes de volume vont se propager dans la Terre, les ondes P par exemple mettent 20 minutes pour aller d'un point à son antipode. Toutes les ondes dont nous avons parlé vont interférer entre elles et donner lieu à une résonance globale. La Terre se met à vibrer comme une cloche. On appelle ces vibrations les modes propres de la Terre. Dans les signaux produits, on peut identifier tout un ensemble de fréquences discrètes, chacune correspondant à un mode propre de vibrations qui a pu être identifié. D'une manière similaire à ce que nous avons vu pour les ondes de volume, ces collections d'observations contribuent à construire un modèle global. Par exemple, il existe des modes que l'on appelle toroïdaux; ce sont des modes de torsion. En effet, si on imagine que l'on fait tourner l'hémisphère sud dans un sens et l'hémisphère nord dans l'autre sens, puis on lâche, la Terre va se mettre à osciller de part et d'autre de l'équateur. Ce mode possède une fréquence particulière, et donc lorsque l'on voit un pic d'amplitude à cette fréquence on identifie aussitôt le mode de torsion.

Cependant, on sait depuis longtemps que les pics de fréquences de résonance sont constitués d'une série de contributions de fréquences très proches. Mais ces multiplets sont très difficiles à analyser avec des données sismologiques classiques. Cependant, les sismologues ont de nouveaux appareils de mesure à leur disposition, et notamment les gravimètres absolus. C'est un appareil complexe qui permet de faire des mesures d'accélération du sol d'une précision de 10-12 fois l'accélération de pesanteur. Après le séisme de Sumatra, le premier séisme géant' depuis la mise en place de ses appareils, on dispose de données d'une précision nouvelle pour étudier la structure de la Terre, mais aussi sur la source du séisme.
Donc lorsque l'on regroupe toutes ces données, que ce soit les courbes distance épicentrale/temps de trajet, les diagrammes amplitude/fréquence (résonance simple et multiplets), on obtient un modèle de Terre globale sur les grandes lignes duquel tous les chercheurs sont d'accord, bien sûr dans le détail il y a des différences d'appréciation.
A la surface de la Terre, on a une croûte soit océanique, quelques km d'épaisseur, soit continentale, d'une quarantaine de km d'épaisseur en moyenne. Puis en dessous on a une grande zone que l'on appelle le manteau, cette zone se divise en deux : le manteau supérieur et le manteau inférieur. Le manteau est globalement composé d'un matériau solide possédant à peu près la même composition partout, la subdivision du manteau est liée à un changement de phase des cristaux et notamment de l'olivine. Près de la surface les pressions ne sont pas très fortes puis lorsque l'on va en profondeur la pression augmente, les réseaux cristallins se réorganisent, provoquant un changement de vitesse de propagation des ondes. C'est l'étude de la réfraction/réflexion des ondes qui nous a permis d'identifier cette transition entre manteau inférieur et manteau supérieur. En allant en profondeur on traverse donc une couche solide, (croûte + manteau), puis on va rencontrer l'interface manteau/noyau (imagée par Oldham en 1906). L'étude des ondes sismiques, une fois de plus, nous a permis de déterminer l'état du noyau externe. Les ondes S ne se propageant pas dans le noyau externe, on en a déduit que ce dernier était composé de métal liquide. Puis vers la fin des années 1930, une sismologue danoise Mme Lehman, a découvert le noyau interne, que l'on nomme aussi la « graine ». La graine est la partie solide du noyau, qui s'est formée par cristallisation du noyau externe lors du refroidissement de la Terre.

Ce modèle simple de Terre pose de nombreux problèmes physiques :
- Une des données observables sur Terre est le champ magnétique, et ce champ magnétique est un des mystères de la géophysique. On sait aujourd'hui qu'il trouve sa source dans le noyau liquide, mais on ne sait pas le reproduire dans un laboratoire, que ce soit par des méthodes analogiques (crée un champ magnétique dans une sphère et qui reste stable) ou par des méthodes numériques. Ce champ magnétique possède un certain nombre de particularités, par exemple, il confirme la présence d'un noyau liquide en mouvement puis on sait qu'au cours des temps géologiques le champ magnétique a déjà changé de sens plusieurs fois. D'ailleurs ce sont ces changements de polarité du champ magnétique qui ont été les premiers arguments de la tectonique des plaques, en effet au niveau des rides océaniques lorsque les roches se cristallisent elles enregistrent le champ magnétique. Or les paléomagnéticiens ont vu une alternance de polarités, ce qui confirmait l'idée de la création progressive des plaques sur les rides, enregistrant les alternances de polarité, puis l'expansion des fonds océaniques.
- Une autre découverte faite sur le noyau est qu'il change aussi très vite. En effet on possède des séries de données depuis le 17ème siècle, et on a remarqué qu'en l'espace de quelques siècles la structure du champ magnétique terrestre a beaucoup changé. Pour la géophysique interne c'est une découverte assez exceptionnelle, en effet les échelles de temps en géologie sont souvent très grandes, bien au-delà de la durée de nos vies ; alors qu'à l'intérieur du noyau il y a des mouvements de fluide avec une vitesse de l'ordre du km/an.

Le but de la sismologie est d'arriver un jour à mesurer ces mouvements en cours dans le noyau, ce n'est pas encore le cas pour l'instant. Mais des résultats ont été obtenus, en effet on a remarqué que les ondes qui se sont propagées dans la graine en passant par l'axe de rotation, qui est proche de l'axe du champ magnétique, n'ont pas la même vitesse que les ondes qui ont traversées la graine par le plan équatorial, il semble qu'il y ait là une signature sismologique du champ magnétique.
- Les mystères ne concernent pas uniquement le noyau. Le manteau est un solide, mais un solide qui convecte, c'est-à-dire que sur des temps très longs, le million d'années, le manteau se comporte comme un fluide très visqueux avec des vitesses qui cette fois sont de l'ordre du cm/an. L'évidence de cette convection en surface est la tectonique des plaques, en effet les matériaux froids (les plaques océaniques anciennes) ont tendance à plonger dans le manteau, tirant sur le reste de la plaque, il se forme alors des rides océaniques où le matériau chaud remonte des profondeurs et vient cristalliser en surface.
L'apport de la sismologie provient cette fois de l'image tomographique que l'on peut obtenir du manteau, en effet les ondes ne se propagent pas de la même façon dans un matériau froid que dans un matériel chaud. Lorsque les ondes traversent un matériel chaud leur vitesse diminue, et inversement. En surface on s'aperçoit que les océans jeunes sont plutôt chauds, alors que les plaques continentales anciennes sont plus froides. Mais le plus intéressant vient lorsque l'on regarde plus en profondeur, le manteau devient homogène : le contraste de vitesse diminue. Les images obtenues ne correspondent pas aux modèles anciens de la tectonique des plaques dans lesquels on avait de grandes cellules de convection qui prenaient tout le manteau, qui étaient régulièrement espacées. On a donc du développer de nouveaux modèles numériques pour prendre en compte ces nouvelles observations, ces modèles sont beaucoup plus compliqués avec des plaques qui plongent et des panaches de manteau chaud qui remontent dans une répartition complexe. Les géologues ont découvert des traces en surface de ces panaches, ils seraient associés aux zones dites de point chaud. Un exemple est le panache qui a créé la région volcanique du Décan en Inde. Les plaques se sont déplacées et le panache toujours actif a créé les volcans des Maldives, et aujourd'hui ce même panache se situerait sous l'île de la réunion.
La sismologie peut nous aider à comprendre comment se font les échanges thermiques à l'intérieur de la Terre, pour cela il nous faudrait arriver à imager ces panaches. On commence à le faire, par exemple sous l'Islande. L'origine du point chaud se trouve à plusieurs centaines de km de profondeur, ce qui est cohérent avec l'existence d'un panache mantellique. Un autre exemple est la zone des Afars où une anomalie thermique profonde a pu être décelée.
Alors pourquoi a-t-on du mal à imager l'intérieur de la Terre ?
Cela vient du fait que pour faire cette imagerie on utilise les ondes produites lors des grands tremblements de Terre et, heureusement pour l'homme, ces phénomènes sont rares, et on dispose donc d'assez peu de données pour imager les couches profondes.
De plus, l'utilisation des tremblements de Terre pose un autre problème, si on étudie les séismes de magnitude supérieure à 5 de ces vingt dernières années, on s'aperçoit qu'ils se situent tous aux mêmes endroits : au niveau des grandes frontières de plaques. La couverture spatiale de la planète est imparfaite, il y a des endroits sur Terre où malgré les efforts d'instrumentalisation, on n'enregistra jamais de gros séismes.
Ensuite, on est aussi limité par des soucis techniques, en effet il est facile d'installer des stations sur terre mais installer des stations dans les grands fonds océaniques est extrêmement difficile et coûteux. Donc pour le moment, hormis sur les îles il y a très peu de sites de mesures, donc c'est un des enjeux de la sismologie instrumentale dans le futur.
Les grands séismes nous ont permis, grâce à l'étude des ondes de volume et de surface, d'obtenir un modèle global de la Terre ; mais on enregistre d'autres ondes et notamment du bruit sismique. Après un grand séisme, on enregistre un long signal tardif dans lequel on ne peut identifier d'arrivées correspondant à des trajets individuels. C'est ce que l'on appelle la « coda ». On enregistre aussi une agitation permanente de la surface, dont l'origine n'est pas totalement connue et que l'on nomme le bruit sismique. Quel est l'intérêt d'étudier ces ondes ? Tout simplement, pour l'instant on a représenté la Terre de manière globale comme un milieu simple fait de couches homogènes sur lequel les chercheurs pouvaient se mettre d'accord ; mais en réalité la Terre est bien plus complexe que cela.
En effet, il suffit de regarder le paysage, les cartes de géologie pour s'apercevoir que la Terre est un objet complexe à différentes échelles avec des failles, des blocs de matière différenciés, etc. Il nous faut donc trouver une autre approche que la théorie des rais utilisée précédemment. On va donc se tourner vers la physique. Au cours de ces dix dernières années les physiciens ont beaucoup étudié les milieux complexes, et va appliquer les mêmes approches.
Je vais illustrer mes propos par un exemple simple : un milieu contenant des impuretés, des petites zones avec des vitesses différentes. Si on place une source dans ce milieu, au début on va voir notre front d'onde qui se propage simplement, puis cette onde va se diffracter dans toutes les directions, le champ d'onde va devenir de plus en plus complexe, jusqu'à être un champ diffus. Ce phénomène de champ diffus se rencontre aussi en optique ; les jours de grand beau temps, on voit les rayons du soleil et les ombres que projettent les objets sur le sol. Les jours de brouillard, les gouttelettes d'eau vont jouer le rôle de diffracteurs, la vision devient diffuse, on ne voit plus d'où viennent les ondes lumineuses avec précision et par exemple on ne voit plus d'ombre.
Sur nos sismogrammes, on voit au début les ondes directes, puis des ondes qui se sont réfléchies sur des interfaces dont on peut encore identifier le parcours, c'est ce que l'on nomme la diffraction simple. Puis les ondes suivent des chemins de plus en plus complexes. Par exemple si un tremblement de Terre se produit à 30 km d'un récepteur, ce récepteur enregistrera des ondes qui ont parcouru 1000 km et suivant des trajets très complexes après avoir subi des diffractions multiples.

Les outils de la physique
Pour étudier ce champ diffus, on utilise des outils de la physique, qui ont été développés pour l'étude des ondes électromagnétiques, notamment le principe d'équipartition. Pour l'illustrer, considérons une onde plane qui va se propager dans une direction définie, puis lorsqu'elle va rencontrer un diffracteur, elle va engendrer des ondes planes dans plusieurs directions qui vont à leur tour se diffracter. Si on attend assez longtemps, on rentre dans un état d'équilibre où toutes les ondes planes, dans toutes les directions, vont être présentes de la même façon. Toutes les directions sont statistiquement représentées de la même façon : c'est l'équipartition. Comment peut-on être sûr que cet équilibre existe dans la Terre ? En théorie il existe un coefficient universel de proportionnalité entre l'énergie des ondes P et celles des ondes S quand l'équipartition dans un corps élastique est atteinte. En pratique, on a pu vérifier que, quelque soit le tremblement de Terre que l'on considère, quelque soit la distance épicentrale, si l'on attend assez longtemps, le rapport d'énergie se stabilise pour une valeur prédite théoriquement pour les ondes diffuses.
Je ne vais pas vous présenter les autres outils de la physique que l'on peut utiliser pour étudier ce champ diffus, mais juste vous montrer que les ondes en régime diffus gardent leurs propriétés ondulatoires, en particulier leurs phases. On rentre dans un régime dit mésoscopique, c'est-à-dire pour nous que l'on peut décrire l'évolution de l'énergie par un processus de diffusion macroscopique alors que simultanément des propriétés microscopiques des ondes élémentaires sont observables. Un exemple de propriété microscopique est la propriété de réciprocité que vérifient les équations d'onde, c'est-à-dire que si on intervertit la position du récepteur et de la source, on obtient le même signal, en faisant attention à la polarisation. Quel est l'intérêt de cette propriété pour l'étude du champ diffus ? Un signal diffus est composé dun grand nombre d'ondes avec des trajets compliqués. Si on considère une de ces ondes en particulier, le principe de réciprocité doit s'appliquer et indique que le trajet entre le premier et dernier diffracteur parcouru en sens inverse doit exister. Cependant quand la source et le récepteur sont en des points éloignés les 2 ondes n'arrivent pas en même temps et elles contribuent au champ diffus de manière dite incohérente. Sauf dans un cas : lorsque la source et le récepteur se situent au même point. L'onde et sa réciproque vont alors emprunter exactement le même trajet complet et donc elles vont interférer de manière constructive. Cela implique que près de la source, on, observera une zone dans laquelle l'intensité des ondes sera plus forte, et ce même bien après que les ondes directes sont propagées au loin.. Il est possible de réaliser des expériences simples pour illustrer ce principe. Je vais vous en présenter une. On a installé une ligne de capteurs au dessus d'un milieu très diffractant, ici un volcan en Auvergne actif encore il y a quelques dizaines de milliers d'années, et que on tape sur le sol avec une masse. On enregistre les ondes et on voit arriver en premier les ondes directes puis plus tard la coda.Si on trace l'énergie présente dans le début de la coda en fonction de la distance source/récepteur, on s'aperçoit que l'énergie est répartie de manière à peu près constante, ce qui est ce que l'on attend intuitivement. En revanche si on laisse encore le temps s'écouler et que l'on refait le même tracé, alors on voit apparaître un pic d'énergie d'amplitude relative 2 au niveau de la source comme le principe de la réciprocité le prédit C'est la rétrodiffusion cohérente, appelée aussi localisation faible'. Donc, dans la nature, malgré les phénomènes d'absorption et de diffraction multiples, nos enregistrements conservent des propriétés fondamentales des équations d'onde dont on va tirer profit pour utiliser les champs diffus.

La corrélation
On a vu que les champs diffus conservaient l'information transportée par les ondes qui les composent. On va donc essayer de voir comment extraire cette information. Peut-on directement retrouver les composantes de nos sismogrammes, c'est à dire des signaux correspondant à des trajets physiques dans la Terre, sans avoir à passer par la mise en Suvre de sources, ni à faire de lourds calculs numériques ? Avec d'autres mots, peut-on reconstruire des sismogrammes entre 2 points sans utiliser de source mais en tirant partie des propriétés des champs diffus enregistrés à ces 2 points ? La fonction de corrélation va permettre d'atteindre ce résultat. La valeur de la fonction de corrélation au temps t est obtenue, et consiste à décaler un signal de t puis a multiplier les 2 signaux et enfin à calculer la somme du résultat. Par exemple, si on enregistre le passage d'une onde à deux endroits différents, les deux sismogrammes seront identiques mais décalés d'un certain temps dt. Si maintenant on corrèle ces deux signaux, tant que les signaux ne seront pas en phase la multiplication de nos deux signaux vaudra zéro, puis lorsque l'on aura décalé le deuxième signal de dt, les signaux seront l'un en face de l'autre, et la fonction de corrélation sera maximale. On peut donc grâce à la fonction de corrélation connaître la différence de temps de parcours entre deux stations. Si on fait cette expérience avec une série de sources qui entourent les 2 stations on peut remarquer que la somme des corrélations correspond essentiellement aux contributions des sources qui sont alignées avec les stations et donne donc exactement le temps de parcours. C'est un exemple d'application du théorème de la phase stationnaire. On peut tester cette approche sur des données réelles. On considère plusieurs enregistrements de séismes à différentes stations et on corrèle les codas entre elles. Si on représente la fonction de corrélation on peut voir qu'elle a beaucoup de similitude avec la réponse du milieu à une source à une des stations. On peut identifier et suivre l'onde de Rayleigh jusqu'à plus de 200 km de distance. Cela signifie, que lorsque l'on étudie les ondes diffuses à des stations distantes de 200 km de l'épicentre, et même si on a l'impression qu'elles sont rendues aléatoires, en réalité elles sont corrélées, et la fonction de corrélation contient la réponse impulsionnelle du milieu.
Ce principe s'appuie sur, le théorème de la fluctuation-dissipation. Il faut supposer que la Terre est soumise à une fluctuation aléatoire la corrélation de ces fluctuations à 2 points donne la réponse déterministe entre ces 2 points. Dans notre cas, le traitement de données à réaliser est un peu compliqué : il faut sélectionner des trajets et vérifier que l'on se situe en champ diffus. Cependant, si on revient à la source de ce théorème, il a été écrit pour le bruit thermique. Or en sismologie, on a vu que les jours sans tremblement de Terre, on enregistre aussi du bruit. Cela suggère d'essayer d'utiliser cette agitation permanente de la surface de la Terre. Cette agitation est principalement contrôlée par les interactions entre les océans et la Terre solide. La première de ces interactions ce sont les vagues et la houle sur les côtes. Une autre indication de l'interaction océan/Terre solide est l'aspect variable du bruit sismique, en effet lorsqu'une dépression se forme sur l'océan et se rapproche des côtes on voit le bruit sismique augmenter énormément. Le bruit sismique a donc une origine océanique, même si on ne comprend pas très bien les mécanismes de couplage pour beaucoup de gammes de fréquence.
Prenons un exemple en Californie où l'on a sélectionné un séisme qui s'est produit juste sous une station. On a enregistré pendant un an le bruit sismique à cette station et à une deuxième qui avait enregistré le séisme. On a ainsi pu comparer la corrélation moyenne dans le bruit et le sismogramme directement produit par le séisme et constater leur similitude avec en particulier une parfaire identité des ondes de Rayleigh. C'est le fait que, considéré sur une période de temps longue, le bruit soit aléatoire qui permet de reconstruire le signal car on se rapproche alors des propriétés fondamentales requises pour appliquer notre théorème. Paradoxalement, c'est exactement ce même argument qui a poussé les sismologues a ne pas utiliser ces signaux dans le passé.
En Californie, un réseau de 70 stations sismiques de très bonne qualité distantes d'une trentaine de km a été installé. En utilisant les enregistrements continus du bruit, on a pu calculer la réponse impulsionnelle du milieu entre chaque couple de capteur. Cela a permis d'obtenir un grand nombre de trajets qui servent de base à une tomographie avec une très bonne résolution. En utilisant des ondes d'une période centrale de 7,5 sec, on peut imager la croûte superficielle de la Californie, et comparer nos résultats avec les cartes géologiques de la région. Les résultats obtenus sont en très bon accord avec nos connaissances de cette région. Plus intéressant bien sûr, on peut, en changeant de gamme de fréquence, cartographier des zones plus profondes, comme la croûte moyenne. On peut ainsi identifier les racines profondes des structures géologiques majeures et déterminer précisément leurs extensions.

Exemple sur la lune
Pour conclure, on peut se demander si le bruit que nous observons a des caractéristiques très spécifiques qui permettent à cette technique de fonctionner sur la Terre. Pour répondre à cette question on va s'intéresser à la Lune. En effet, durant la mission Appolo 17 en 1976, un petit réseau de capteurs a été installé pour étudier les couches superficielles de la Lune. Le bruit lunaire a été enregistré en continu dans de bonnes conditions. On a donc pu utiliser ce bruit lunaire pour faire des corrélations entre les différents capteurs et voir là aussi émerger la réponse élastique entre les capteurs.

On enregistre du bruit sismique sur la lune, mais quelle en est l'origine sans atmosphère ni océan ? Les très fortes variations de température entre le jour et la nuit sont à l'origine d'effets de dilatation et de fissuration très marqués qui produisent un bruit' dont la périodicité est clairement visible sur les enregistrements. On a donc une structure du bruit très différente de celle de la Terre, et malgré tout on peut utiliser les principes vus précédemment qui paraissent donc très robustes. Ceci est très intéressant pour l'exploration à long terme des planètes, car ces méthodes passives ne nécessitent pas de transporter de source.
[1] Transcription réalisée par Soline Hallier

 

 VIDEO     canal U       LIEN

 
 
 
  PHYSIQUE ET SCIENCES DU GLOBE
 

 

 

 

 

 

 

PHYSIQUE ET SCIENCES DU GLOBE


La Terre est une planète vivante dont l'intérieur garde de nombreux secrets. Comment voir sous la surface ? Les ondes sismiques sont les seules ondes qui se propagent jusqu'au centre de la Terre. Elles permettent de réaliser des images des structures profondes. En utilisant des méthodes qui se rapprochent de celles de l'imagerie médicale, ces images permettent d'explorer des problèmes fondamentaux de la physique de la Terre comme la convection dans le manteau, qui conditionne les grands traits de la géologie de la surface, ou l'existence du champ magnétique. Dans la plupart des cas les analyses des sismologues s'appuient sur des ondes dont ils peuvent décrire précisément le trajet et dont ils connaissent bien la source. Ces ondes ne sont qu'une faible partie du signal enregistré en continu par les stations sismologiques modernes. La physique de la diffusion multiple offre des possibilités nouvelles pour exploiter ces masses importantes de données. En particulier, le bruit, cette agitation permanente de la surface du sol qui trouve principalement son origine dans les couplages avec les océans, peut être utilisé en l'absence de séisme pour déduire les sismogrammes qui seraient observés si un séisme se produisait exactement à une des stations d'enregistrement. Une nouvelle imagerie passive émerge qui permettra d'affiner nos images de l'intérieur de la Terre et donc d'y mieux cerner les processus physiques à l'origine du monde qui nous entoure.

Transcription[1]revue et corrigée par l'auteurde la 591ème conférencede l'Universitéde tous les savoirs prononcée le 13 juillet 2005
La physique des ondes sismiques.
ParMichel Campillo
Le but de cet exposé est de mettre en évidence un certain nombre de problèmes physiques qui se posent pour la compréhension de la Terre solide. La sismologie y joue un rôle important, car les ondes sismiques, qui sont des ondes élastiques, sont les seules capables de pénétrer profondément à l'intérieur de notre planète, nous permettant de réaliser des images de couches internes, à la manière de l'imagerie médicale bien connue de tous.
Cette présentation va se faire en deux parties ; un premier temps sera consacré à la présentation de la sismologie moderne et des problèmes que rencontrent les géophysiciens, physiciens et géologues qui travaillent sur la structure interne de la Terre. Puis nous verrons des notions de physique mésoscopique et leurs utilisations en sismologie pour obtenir des nouvelles images de l'intérieur de la Terre.


Le sismogramme

Le sismogramme est à la base de tout le travail du sismologue. Depuis quelques années nous pouvons enregistrer le mouvement du sol de manière continue. On mesure le déplacement du sol en fonction du temps, qui consiste en général en une agitation permanente que l'on nomme le bruit sismique ou microsismique' jusqu'à ce qu'un séisme se produise et engendre les ondes élastiques qui nous permettront d'étudier la Terre. Ces ondes sont celles qui sont ressenties par l'homme lors des grands séismes mais que les appareils de mesure peuvent détecter avec des amplitudes qui sont bien inférieures à ce que nous sommes capables de percevoir. Les instruments modernes sont suffisamment sensibles pour que nous puissions mesurer très précisément les temps d'arrivées des ondes aux stations. C'est essentiellement cette information qui est utilisée pour faire des images de la structure interne de la Terre car, comme nous le verrons, nous connaissons aujourd'hui les trajets parcourus en profondeur par les différentes ondes qui sont observées. La première partie de l'exposé va leur être consacrée. Mais nous pouvons aussi étudier le bruit sismique, c'est-à-dire le signal qui ne peut être associé à un trajet particulier que ce soit celui qui suit un tremblement de terre (la coda) ou celui qui est du à l'agitation permanente de la surface de la Terre sous l'effet de l'atmosphère et des océans.
Mais avant de se lancer dans l'interprétation des sismogrammes, il faut rappeler ce qu'est un sismomètre. Il s'agit d'un pendule, c'est à dire une masse qui est maintenue en équilibre par un système de ressort, et lorsque le sol bouge, par le principe d'inertie on mesure le mouvement relatif de la masse et du sol. Cette idée a été mise en Suvre dès le 19ème siècle. Les capteurs actuels nous permettent de faire des mesures très précises du champ de déplacement, ceci grâce à leur petite taille en comparaison de la longueur d'onde des ondes sismiques.
Malgré leurs efforts, les sismologues ne connaissent peut-être pas très bien la Terre, ils ne connaissent pas bien non plus les tremblements de Terre d'ailleurs, mais armés de ces instruments, ils connaissent très bien les mouvements du sol et font des mesures quasi exactes du champ de déplacement. Ceci concerne des ondes avec des périodes allant de plusieurs centaines de secondes jusqu'à un centième de seconde, c'est-à-dire 100 Hz. On enregistre donc des ondes dans une gamme de fréquence très variable, mais aussi avec des amplitudes variables. En effet on mesure avec la même exactitude le bruit sismique, bien au dessous de notre seuil de perception et les mouvements du sol lors de grands tremblements de Terre destructeurs. Sur un exemple de sismogramme suivant un séisme on peut noter des arrivées individualisées d'énergie. Parlons maintenant de l'interprétation de ces sismogrammes en commençant par présenter les différents types d'ondes.

Les ondes sismiques
La première onde que l'on observe est l'onde P, c'est l'onde qui se propage le plus vite dans la Terre, à des vitesses de l'ordre de 5 ou 6 km/sec à quelques kilomètres sous nos pieds. C'est une onde de compression comparable aux ondes acoustiques que l'on produit dans l'air.
Puis arrivent les ondes S, elles sont un peu plus lentes que les ondes P, de l'ordre de 3,5 km/s à quelques kilomètres de profondeur, et ne provoquent pas une compression de la roche mais un cisaillement. Il n'existe pas d'équivalent à ces ondes dans les fluides.
Tous les séismes génèrent ces deux grands types d'onde, qui vont se propager dans la Terre profonde et qu'on appelle donc « ondes de volume ». Pour les décrire facilement, on peut les associer à des rayons lumineux se propageant à l'intérieur de la Terre. On peut alors leur appliquer la loi de Descartes et les principes de la réflexion et la réfraction de la lumière.
Mais toutes nos observations sont réalisées à la surface de la Terre ; et à la surface d'un corps élastique il existe un troisième type d'ondes. C'est l'onde de Rayleigh, qui est spécifique des corps élastiques et dont l'existence est confinée près de la surface. Ces ondes dites de surface, produisent des mouvements qui ressemblent à ceux engendrés par la houle sur la mer, c'est-à-dire qu'un point de la surface de Terre décrit une ellipse lors du passage de l'onde. Ces ondes de surface se propagent à des vitesses plus faibles et forment l'arrivée tardive de grande amplitude sur notre exemple de sismogramme. Les sismogrammes nous permettent donc d'observer des ondes de volume qui pénètrent l'intérieur de la Terre et dont on peut suivre les trajets comme des rayons lumineux et des ondes de surface qui elles, sont confinées près de la surface. Mais il faut être prudent lorsque l'on parle d'ondes superficielles car avec des périodes de 300 secondes, elles pénètrent quand même jusqu'à plusieurs centaines de km de profondeur. Cependant elles se propagent toujours parallèlement à la surface de la Terre et on les différencie bien de la catégorie des ondes de volume. Les ondes de surface jouent un rôle très important en sismologie car une part importante de l'énergie produite par les séismes superficiels est transmise sous cette forme.

Modèle global
Le fait que l'on dispose aujourd'hui d'une très grande collection de sismogrammes fait suite à un effort international considérable sur un réseau de stations sismiques qui couvre la quasi-totalité de la planète. Ce qui est le plus important, c'est que depuis à peu près un siècle, l'échange de données est organisé au niveau international. Les chercheurs de différents pays se sont transmis leurs informations, et à partir de ces données cumulées globales on a pu dévoiler la structure interne de la Terre. Par exemple la France y contribue par ses stations locales et par le réseau Geoscope qui s'étend à l'échelle globale.
Dès la mise en place des premiers réseaux à la fin du 19ème siècle, les chercheurs ont commencé à accumuler des observations de temps d'arrivées qu'ils ont reportés sur des diagrammes en fonction de la distance épicentrale. L'accumulation de ces observations individuelles a permis de décrire des courbes continues qui seront associées à des trajets spécifiques. La première grande découverte a été faite dès 1906 par un sismologue britannique, Oldham, qui à partir de ces observations a découvert l'existence d'une zone d'ombre dont il a déduit la présence d'un corps interne dont les propriétés provoquent une forte réfraction des ondes sismiques. Oldham a ainsi démontré l'existence d'un noyau plus lent, et il a pu calculer son rayon. C'était le premier élément qui allait permettre de construire progressivement un modèle complet de Terre. Aujourd'hui bien sûr le modèle s'est raffiné et de nombreux trajets ont été identifiés et nommés suivant une codification rationnelle. On dispose d'un modèle global moyen pour lequel on peut évaluer les temps de parcours de nombreuses arrivées correspondant à des trajets bien identifiés. Les différentes couches constituant la Terre sont reconnues et leurs propriétés moyennes précisément évaluées. En termes de temps de parcours des ondes, les différences entre ce modèle et la structure réelle sont très faibles. Ce modèle moyen est très important car il fait le lien entre les sismogrammes et les structures internes de la Terre.
Ce diagramme a été construit à partir des ondes que l'on peut identifier directement, mais quand se produit un séisme extrêmement fort, comme le séisme de Sumatra récemment, la Terre vibre globalement. Bien sur, les ondes de volume vont se propager dans la Terre, les ondes P par exemple mettent 20 minutes pour aller d'un point à son antipode. Toutes les ondes dont nous avons parlé vont interférer entre elles et donner lieu à une résonance globale. La Terre se met à vibrer comme une cloche. On appelle ces vibrations les modes propres de la Terre. Dans les signaux produits, on peut identifier tout un ensemble de fréquences discrètes, chacune correspondant à un mode propre de vibrations qui a pu être identifié. D'une manière similaire à ce que nous avons vu pour les ondes de volume, ces collections d'observations contribuent à construire un modèle global. Par exemple, il existe des modes que l'on appelle toroïdaux; ce sont des modes de torsion. En effet, si on imagine que l'on fait tourner l'hémisphère sud dans un sens et l'hémisphère nord dans l'autre sens, puis on lâche, la Terre va se mettre à osciller de part et d'autre de l'équateur. Ce mode possède une fréquence particulière, et donc lorsque l'on voit un pic d'amplitude à cette fréquence on identifie aussitôt le mode de torsion.
Cependant, on sait depuis longtemps que les pics de fréquences de résonance sont constitués d'une série de contributions de fréquences très proches. Mais ces multiplets sont très difficiles à analyser avec des données sismologiques classiques. Cependant, les sismologues ont de nouveaux appareils de mesure à leur disposition, et notamment les gravimètres absolus. C'est un appareil complexe qui permet de faire des mesures d'accélération du sol d'une précision de 10-12 fois l'accélération de pesanteur. Après le séisme de Sumatra, le premier séisme géant' depuis la mise en place de ses appareils, on dispose de données d'une précision nouvelle pour étudier la structure de la Terre, mais aussi sur la source du séisme.

Donc lorsque l'on regroupe toutes ces données, que ce soit les courbes distance épicentrale/temps de trajet, les diagrammes amplitude/fréquence (résonance simple et multiplets), on obtient un modèle de Terre globale sur les grandes lignes duquel tous les chercheurs sont d'accord, bien sûr dans le détail il y a des différences d'appréciation.
A la surface de la Terre, on a une croûte soit océanique, quelques km d'épaisseur, soit continentale, d'une quarantaine de km d'épaisseur en moyenne. Puis en dessous on a une grande zone que l'on appelle le manteau, cette zone se divise en deux : le manteau supérieur et le manteau inférieur. Le manteau est globalement composé d'un matériau solide possédant à peu près la même composition partout, la subdivision du manteau est liée à un changement de phase des cristaux et notamment de l'olivine. Près de la surface les pressions ne sont pas très fortes puis lorsque l'on va en profondeur la pression augmente, les réseaux cristallins se réorganisent, provoquant un changement de vitesse de propagation des ondes. C'est l'étude de la réfraction/réflexion des ondes qui nous a permis d'identifier cette transition entre manteau inférieur et manteau supérieur. En allant en profondeur on traverse donc une couche solide, (croûte + manteau), puis on va rencontrer l'interface manteau/noyau (imagée par Oldham en 1906). L'étude des ondes sismiques, une fois de plus, nous a permis de déterminer l'état du noyau externe. Les ondes S ne se propageant pas dans le noyau externe, on en a déduit que ce dernier était composé de métal liquide. Puis vers la fin des années 1930, une sismologue danoise Mme Lehman, a découvert le noyau interne, que l'on nomme aussi la « graine ». La graine est la partie solide du noyau, qui s'est formée par cristallisation du noyau externe lors du refroidissement de la Terre.
Ce modèle simple de Terre pose de nombreux problèmes physiques :
- Une des données observables sur Terre est le champ magnétique, et ce champ magnétique est un des mystères de la géophysique. On sait aujourd'hui qu'il trouve sa source dans le noyau liquide, mais on ne sait pas le reproduire dans un laboratoire, que ce soit par des méthodes analogiques (crée un champ magnétique dans une sphère et qui reste stable) ou par des méthodes numériques. Ce champ magnétique possède un certain nombre de particularités, par exemple, il confirme la présence d'un noyau liquide en mouvement puis on sait qu'au cours des temps géologiques le champ magnétique a déjà changé de sens plusieurs fois. D'ailleurs ce sont ces changements de polarité du champ magnétique qui ont été les premiers arguments de la tectonique des plaques, en effet au niveau des rides océaniques lorsque les roches se cristallisent elles enregistrent le champ magnétique. Or les paléomagnéticiens ont vu une alternance de polarités, ce qui confirmait l'idée de la création progressive des plaques sur les rides, enregistrant les alternances de polarité, puis l'expansion des fonds océaniques.
- Une autre découverte faite sur le noyau est qu'il change aussi très vite. En effet on possède des séries de données depuis le 17ème siècle, et on a remarqué qu'en l'espace de quelques siècles la structure du champ magnétique terrestre a beaucoup changé. Pour la géophysique interne c'est une découverte assez exceptionnelle, en effet les échelles de temps en géologie sont souvent très grandes, bien au-delà de la durée de nos vies ; alors qu'à l'intérieur du noyau il y a des mouvements de fluide avec une vitesse de l'ordre du km/an.

Le but de la sismologie est d'arriver un jour à mesurer ces mouvements en cours dans le noyau, ce n'est pas encore le cas pour l'instant. Mais des résultats ont été obtenus, en effet on a remarqué que les ondes qui se sont propagées dans la graine en passant par l'axe de rotation, qui est proche de l'axe du champ magnétique, n'ont pas la même vitesse que les ondes qui ont traversées la graine par le plan équatorial, il semble qu'il y ait là une signature sismologique du champ magnétique.
- Les mystères ne concernent pas uniquement le noyau. Le manteau est un solide, mais un solide qui convecte, c'est-à-dire que sur des temps très longs, le million d'années, le manteau se comporte comme un fluide très visqueux avec des vitesses qui cette fois sont de l'ordre du cm/an. L'évidence de cette convection en surface est la tectonique des plaques, en effet les matériaux froids (les plaques océaniques anciennes) ont tendance à plonger dans le manteau, tirant sur le reste de la plaque, il se forme alors des rides océaniques où le matériau chaud remonte des profondeurs et vient cristalliser en surface.
L'apport de la sismologie provient cette fois de l'image tomographique que l'on peut obtenir du manteau, en effet les ondes ne se propagent pas de la même façon dans un matériau froid que dans un matériel chaud. Lorsque les ondes traversent un matériel chaud leur vitesse diminue, et inversement. En surface on s'aperçoit que les océans jeunes sont plutôt chauds, alors que les plaques continentales anciennes sont plus froides. Mais le plus intéressant vient lorsque l'on regarde plus en profondeur, le manteau devient homogène : le contraste de vitesse diminue. Les images obtenues ne correspondent pas aux modèles anciens de la tectonique des plaques dans lesquels on avait de grandes cellules de convection qui prenaient tout le manteau, qui étaient régulièrement espacées. On a donc du développer de nouveaux modèles numériques pour prendre en compte ces nouvelles observations, ces modèles sont beaucoup plus compliqués avec des plaques qui plongent et des panaches de manteau chaud qui remontent dans une répartition complexe. Les géologues ont découvert des traces en surface de ces panaches, ils seraient associés aux zones dites de point chaud. Un exemple est le panache qui a créé la région volcanique du Décan en Inde. Les plaques se sont déplacées et le panache toujours actif a créé les volcans des Maldives, et aujourd'hui ce même panache se situerait sous l'île de la réunion.
La sismologie peut nous aider à comprendre comment se font les échanges thermiques à l'intérieur de la Terre, pour cela il nous faudrait arriver à imager ces panaches. On commence à le faire, par exemple sous l'Islande. L'origine du point chaud se trouve à plusieurs centaines de km de profondeur, ce qui est cohérent avec l'existence d'un panache mantellique. Un autre exemple est la zone des Afars où une anomalie thermique profonde a pu être décelée.
Alors pourquoi a-t-on du mal à imager l'intérieur de la Terre ?
Cela vient du fait que pour faire cette imagerie on utilise les ondes produites lors des grands tremblements de Terre et, heureusement pour l'homme, ces phénomènes sont rares, et on dispose donc d'assez peu de données pour imager les couches profondes.
De plus, l'utilisation des tremblements de Terre pose un autre problème, si on étudie les séismes de magnitude supérieure à 5 de ces vingt dernières années, on s'aperçoit qu'ils se situent tous aux mêmes endroits : au niveau des grandes frontières de plaques. La couverture spatiale de la planète est imparfaite, il y a des endroits sur Terre où malgré les efforts d'instrumentalisation, on n'enregistra jamais de gros séismes.
Ensuite, on est aussi limité par des soucis techniques, en effet il est facile d'installer des stations sur terre mais installer des stations dans les grands fonds océaniques est extrêmement difficile et coûteux. Donc pour le moment, hormis sur les îles il y a très peu de sites de mesures, donc c'est un des enjeux de la sismologie instrumentale dans le futur.
Les grands séismes nous ont permis, grâce à l'étude des ondes de volume et de surface, d'obtenir un modèle global de la Terre ; mais on enregistre d'autres ondes et notamment du bruit sismique. Après un grand séisme, on enregistre un long signal tardif dans lequel on ne peut identifier d'arrivées correspondant à des trajets individuels. C'est ce que l'on appelle la « coda ». On enregistre aussi une agitation permanente de la surface, dont l'origine n'est pas totalement connue et que l'on nomme le bruit sismique. Quel est l'intérêt d'étudier ces ondes ? Tout simplement, pour l'instant on a représenté la Terre de manière globale comme un milieu simple fait de couches homogènes sur lequel les chercheurs pouvaient se mettre d'accord ; mais en réalité la Terre est bien plus complexe que cela.
En effet, il suffit de regarder le paysage, les cartes de géologie pour s'apercevoir que la Terre est un objet complexe à différentes échelles avec des failles, des blocs de matière différenciés, etc. Il nous faut donc trouver une autre approche que la théorie des rais utilisée précédemment. On va donc se tourner vers la physique. Au cours de ces dix dernières années les physiciens ont beaucoup étudié les milieux complexes, et va appliquer les mêmes approches.
Je vais illustrer mes propos par un exemple simple : un milieu contenant des impuretés, des petites zones avec des vitesses différentes. Si on place une source dans ce milieu, au début on va voir notre front d'onde qui se propage simplement, puis cette onde va se diffracter dans toutes les directions, le champ d'onde va devenir de plus en plus complexe, jusqu'à être un champ diffus. Ce phénomène de champ diffus se rencontre aussi en optique ; les jours de grand beau temps, on voit les rayons du soleil et les ombres que projettent les objets sur le sol. Les jours de brouillard, les gouttelettes d'eau vont jouer le rôle de diffracteurs, la vision devient diffuse, on ne voit plus d'où viennent les ondes lumineuses avec précision et par exemple on ne voit plus d'ombre.
Sur nos sismogrammes, on voit au début les ondes directes, puis des ondes qui se sont réfléchies sur des interfaces dont on peut encore identifier le parcours, c'est ce que l'on nomme la diffraction simple. Puis les ondes suivent des chemins de plus en plus complexes. Par exemple si un tremblement de Terre se produit à 30 km d'un récepteur, ce récepteur enregistrera des ondes qui ont parcouru 1000 km et suivant des trajets très complexes après avoir subi des diffractions multiples.

Les outils de la physique
Pour étudier ce champ diffus, on utilise des outils de la physique, qui ont été développés pour l'étude des ondes électromagnétiques, notamment le principe d'équipartition. Pour l'illustrer, considérons une onde plane qui va se propager dans une direction définie, puis lorsqu'elle va rencontrer un diffracteur, elle va engendrer des ondes planes dans plusieurs directions qui vont à leur tour se diffracter. Si on attend assez longtemps, on rentre dans un état d'équilibre où toutes les ondes planes, dans toutes les directions, vont être présentes de la même façon. Toutes les directions sont statistiquement représentées de la même façon : c'est l'équipartition. Comment peut-on être sûr que cet équilibre existe dans la Terre ? En théorie il existe un coefficient universel de proportionnalité entre l'énergie des ondes P et celles des ondes S quand l'équipartition dans un corps élastique est atteinte. En pratique, on a pu vérifier que, quelque soit le tremblement de Terre que l'on considère, quelque soit la distance épicentrale, si l'on attend assez longtemps, le rapport d'énergie se stabilise pour une valeur prédite théoriquement pour les ondes diffuses.
Je ne vais pas vous présenter les autres outils de la physique que l'on peut utiliser pour étudier ce champ diffus, mais juste vous montrer que les ondes en régime diffus gardent leurs propriétés ondulatoires, en particulier leurs phases. On rentre dans un régime dit mésoscopique, c'est-à-dire pour nous que l'on peut décrire l'évolution de l'énergie par un processus de diffusion macroscopique alors que simultanément des propriétés microscopiques des ondes élémentaires sont observables. Un exemple de propriété microscopique est la propriété de réciprocité que vérifient les équations d'onde, c'est-à-dire que si on intervertit la position du récepteur et de la source, on obtient le même signal, en faisant attention à la polarisation. Quel est l'intérêt de cette propriété pour l'étude du champ diffus ? Un signal diffus est composé dun grand nombre d'ondes avec des trajets compliqués. Si on considère une de ces ondes en particulier, le principe de réciprocité doit s'appliquer et indique que le trajet entre le premier et dernier diffracteur parcouru en sens inverse doit exister. Cependant quand la source et le récepteur sont en des points éloignés les 2 ondes n'arrivent pas en même temps et elles contribuent au champ diffus de manière dite incohérente. Sauf dans un cas : lorsque la source et le récepteur se situent au même point. L'onde et sa réciproque vont alors emprunter exactement le même trajet complet et donc elles vont interférer de manière constructive. Cela implique que près de la source, on, observera une zone dans laquelle l'intensité des ondes sera plus forte, et ce même bien après que les ondes directes sont propagées au loin.. Il est possible de réaliser des expériences simples pour illustrer ce principe. Je vais vous en présenter une. On a installé une ligne de capteurs au dessus d'un milieu très diffractant, ici un volcan en Auvergne actif encore il y a quelques dizaines de milliers d'années, et que on tape sur le sol avec une masse. On enregistre les ondes et on voit arriver en premier les ondes directes puis plus tard la coda.Si on trace l'énergie présente dans le début de la coda en fonction de la distance source/récepteur, on s'aperçoit que l'énergie est répartie de manière à peu près constante, ce qui est ce que l'on attend intuitivement. En revanche si on laisse encore le temps s'écouler et que l'on refait le même tracé, alors on voit apparaître un pic d'énergie d'amplitude relative 2 au niveau de la source comme le principe de la réciprocité le prédit C'est la rétrodiffusion cohérente, appelée aussi localisation faible'. Donc, dans la nature, malgré les phénomènes d'absorption et de diffraction multiples, nos enregistrements conservent des propriétés fondamentales des équations d'onde dont on va tirer profit pour utiliser les champs diffus.

La corrélation
On a vu que les champs diffus conservaient l'information transportée par les ondes qui les composent. On va donc essayer de voir comment extraire cette information. Peut-on directement retrouver les composantes de nos sismogrammes, c'est à dire des signaux correspondant à des trajets physiques dans la Terre, sans avoir à passer par la mise en Suvre de sources, ni à faire de lourds calculs numériques ? Avec d'autres mots, peut-on reconstruire des sismogrammes entre 2 points sans utiliser de source mais en tirant partie des propriétés des champs diffus enregistrés à ces 2 points ? La fonction de corrélation va permettre d'atteindre ce résultat. La valeur de la fonction de corrélation au temps t est obtenue, et consiste à décaler un signal de t puis a multiplier les 2 signaux et enfin à calculer la somme du résultat. Par exemple, si on enregistre le passage d'une onde à deux endroits différents, les deux sismogrammes seront identiques mais décalés d'un certain temps dt. Si maintenant on corrèle ces deux signaux, tant que les signaux ne seront pas en phase la multiplication de nos deux signaux vaudra zéro, puis lorsque l'on aura décalé le deuxième signal de dt, les signaux seront l'un en face de l'autre, et la fonction de corrélation sera maximale. On peut donc grâce à la fonction de corrélation connaître la différence de temps de parcours entre deux stations. Si on fait cette expérience avec une série de sources qui entourent les 2 stations on peut remarquer que la somme des corrélations correspond essentiellement aux contributions des sources qui sont alignées avec les stations et donne donc exactement le temps de parcours. C'est un exemple d'application du théorème de la phase stationnaire. On peut tester cette approche sur des données réelles. On considère plusieurs enregistrements de séismes à différentes stations et on corrèle les codas entre elles. Si on représente la fonction de corrélation on peut voir qu'elle a beaucoup de similitude avec la réponse du milieu à une source à une des stations. On peut identifier et suivre l'onde de Rayleigh jusqu'à plus de 200 km de distance. Cela signifie, que lorsque l'on étudie les ondes diffuses à des stations distantes de 200 km de l'épicentre, et même si on a l'impression qu'elles sont rendues aléatoires, en réalité elles sont corrélées, et la fonction de corrélation contient la réponse impulsionnelle du milieu.

Ce principe s'appuie sur, le théorème de la fluctuation-dissipation. Il faut supposer que la Terre est soumise à une fluctuation aléatoire la corrélation de ces fluctuations à 2 points donne la réponse déterministe entre ces 2 points. Dans notre cas, le traitement de données à réaliser est un peu compliqué : il faut sélectionner des trajets et vérifier que l'on se situe en champ diffus. Cependant, si on revient à la source de ce théorème, il a été écrit pour le bruit thermique. Or en sismologie, on a vu que les jours sans tremblement de Terre, on enregistre aussi du bruit. Cela suggère d'essayer d'utiliser cette agitation permanente de la surface de la Terre. Cette agitation est principalement contrôlée par les interactions entre les océans et la Terre solide. La première de ces interactions ce sont les vagues et la houle sur les côtes. Une autre indication de l'interaction océan/Terre solide est l'aspect variable du bruit sismique, en effet lorsqu'une dépression se forme sur l'océan et se rapproche des côtes on voit le bruit sismique augmenter énormément. Le bruit sismique a donc une origine océanique, même si on ne comprend pas très bien les mécanismes de couplage pour beaucoup de gammes de fréquence.
Prenons un exemple en Californie où l'on a sélectionné un séisme qui s'est produit juste sous une station. On a enregistré pendant un an le bruit sismique à cette station et à une deuxième qui avait enregistré le séisme. On a ainsi pu comparer la corrélation moyenne dans le bruit et le sismogramme directement produit par le séisme et constater leur similitude avec en particulier une parfaire identité des ondes de Rayleigh. C'est le fait que, considéré sur une période de temps longue, le bruit soit aléatoire qui permet de reconstruire le signal car on se rapproche alors des propriétés fondamentales requises pour appliquer notre théorème. Paradoxalement, c'est exactement ce même argument qui a poussé les sismologues a ne pas utiliser ces signaux dans le passé.
En Californie, un réseau de 70 stations sismiques de très bonne qualité distantes d'une trentaine de km a été installé. En utilisant les enregistrements continus du bruit, on a pu calculer la réponse impulsionnelle du milieu entre chaque couple de capteur. Cela a permis d'obtenir un grand nombre de trajets qui servent de base à une tomographie avec une très bonne résolution. En utilisant des ondes d'une période centrale de 7,5 sec, on peut imager la croûte superficielle de la Californie, et comparer nos résultats avec les cartes géologiques de la région. Les résultats obtenus sont en très bon accord avec nos connaissances de cette région. Plus intéressant bien sûr, on peut, en changeant de gamme de fréquence, cartographier des zones plus profondes, comme la croûte moyenne. On peut ainsi identifier les racines profondes des structures géologiques majeures et déterminer précisément leurs extensions.

Exemple sur la lune
Pour conclure, on peut se demander si le bruit que nous observons a des caractéristiques très spécifiques qui permettent à cette technique de fonctionner sur la Terre. Pour répondre à cette question on va s'intéresser à la Lune. En effet, durant la mission Appolo 17 en 1976, un petit réseau de capteurs a été installé pour étudier les couches superficielles de la Lune. Le bruit lunaire a été enregistré en continu dans de bonnes conditions. On a donc pu utiliser ce bruit lunaire pour faire des corrélations entre les différents capteurs et voir là aussi émerger la réponse élastique entre les capteurs.
On enregistre du bruit sismique sur la lune, mais quelle en est l'origine sans atmosphère ni océan ? Les très fortes variations de température entre le jour et la nuit sont à l'origine d'effets de dilatation et de fissuration très marqués qui produisent un bruit' dont la périodicité est clairement visible sur les enregistrements. On a donc une structure du bruit très différente de celle de la Terre, et malgré tout on peut utiliser les principes vus précédemment qui paraissent donc très robustes. Ceci est très intéressant pour l'exploration à long terme des planètes, car ces méthodes passives ne nécessitent pas de transporter de source.
[1] Transcription réalisée par Soline Hallier


   VIDEO       CANAL  U         LIEN

 
 
 
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 ] - Suivante
SARL ORION, Création sites internet Martigues, Bouches du Rhone, Provence, Hébergement, référencement, maintenance. 0ri0n
Site réalisé par ORION, création et gestion sites internet.


Google
Accueil - Initiation musicale - Instruments - Solfège - Harmonie - Instruments - Musiques Traditionnelles - Pratique d'un instrument - Nous contacter - Liens - Mentions légales /confidentialité

Initiation musicale Toulon

-

Cours de guitare Toulon

-

Initiation à la musique Toulon

-

Cours de musique Toulon

-

initiation piano Toulon

-

initiation saxophone Toulon

-
initiation flute Toulon
-

initiation guitare Toulon