ecole de musique piano
     
menu
 
 
 
 
 
 

REGARD VERS LE FUTUR

 

Un regard vers le futur
  Luciano Maiani


Le sujet de cet exposé concerne la relation profonde liant la structure de la matière (les particules élémentaires) et les phénomènes à grande échelle se déroulant dans lunivers. Lidée même de ce lien a été lune des idées les plus fructueuses de notre passé moderne et il est surprenant de la retrouver clairement exprimée par les philosophes anciens et les artistes. Nous, humains, denviron 200cm, nous plaçons entre la terre (un million de fois plus grande), le soleil, la galaxie, les amas de galaxies, le fond cosmique. Ce dernier est lhorizon le plus lointain que nous puissions voir : il se trouve à 10 milliards dannées lumière, cest à dire 1028cm. Dautres choses se trouvent derrière ce ciel, mais ne sont détectables quavec des télescopes sensibles à dautres particules que les photons. De lautre coté de léchelle se trouvent latome -10-8cm, soit environ un Angstrom- le noyau -100 000 fois plus petit- et enfin les particules élémentaires, qui sont produites par des accélérateurs de particules puissants, comme le LHC en construction au CERN (Centre Européen de la Recherche Nucléaire), où ont été découverts les bosons W et Z0 qui sont les particules médiatrices des interactions faibles. Après les particules élémentaires se trouve le domaine des frontières, 10-17cm. Cependant, les phénomènes qui ont accompagné les fluctuations primordiales des premiers instants de lunivers se trouvent encore au delà de ce domaine.
Un premier exemple : lénergie du soleil
La question très simple de lorigine de lénergie du soleil permet immédiatement dappréhender les relations entre phénomènes à très petite et très grande échelle. La question sest posée à la fin du XIXème siècle. A cette époque la seule solution envisageable est la contraction gravitationnelle, au cours de laquelle lénergie potentielle est convertie en agitation thermique, c'est-à-dire en chaleur. Lord Kelvin a fait des calculs mathématiques et conclu à une durée de vie très courte du soleil de lordre de 10 ou 100 millions dannées. Au même moment, Darwin pouvait déjà conclure, sur la base de lobservation des structures biologiques et géologiques, que la Terre avait plus dun milliard dannées. Nous savons maintenant que la résolution de ce paradoxe se trouve dans le domaine de linfiniment petit : ce sont les réactions nucléaires avec la fusion des protons en hélium avec production de particules (2 positrons, 2 neutrinos et de lénergie) qui ont beaucoup plus dénergie. Ce processus permet au soleil davoir une vie qui se mesure en milliards dannées, et donc la vie sur terre. La chaleur de la Terre provient, quant à elle aussi, en partie de la radioactivité de la croûte terrestre. Cest donc la connaissance de phénomènes physiques microscopiques qui a apporté la solution à un problème macroscopique. Dès les années 1930, un modèle complet du fonctionnement des planètes et des étoiles élaboré par Hans Bethe est disponible. Elle établit un lien solide entre les données expérimentales obtenues précédemment (la mise en évidence des neutrinos) et le fonctionnement des étoiles. Contrairement à lexemple du siècle précédent, cest la connaissance de la chaleur produite par le soleil, et la découverte quil y avait moins de neutrinos quattendus qui a permis de réaliser que les neutrinos changent de nature pendant le voyage et a permis détablir le phénomène doscillations des neutrinos. Aujourdhui la nouvelle frontière de ce domaine de la physique est représentée par les faisceaux de neutrinos à longue portée. Un de ces appareils a été construit au CERN, en Suisse et Gran Sasso près de Rome. Il sagit dun très long tunnel, à lentrée duquel un faisceau produit des protons, qui passent par un tuyau de désintégration. Les particules produites voyagent ensuite dans le vide, avant dêtre toutes filtrées, à part les neutrinos. Ces particules sont ensuite détectées à larrivée, ce qui permet de mesurer les changements quelles ont subis au cours de leur voyage.
La connexion cosmique
Les relations entre les particules élémentaires et la structure de lunivers ont commencé à être élucidées à partir de la deuxième moitié du XXème siècle. A cette époque on sest aperçu que les collisions produites par les rayons cosmiques produisaient des molécules qui nétaient pas dans la chaîne de division de la matière, en unités toujours plus petites. Cétaient des muons. Pour comprendre leur rôle dans la nature, des accélérateurs ont été construits pour les recréer en laboratoire. Cest à cette occasion que lEurope a fondé un laboratoire international : le CERN, qui se trouve aujourdhui à lavant-garde de la recherche en physique des particules. Cela a permis une découverte extraordinaire : les particules que lon considérait comme élémentaires il y a cinquante ans se sont révélés être composés de quarks, particules élémentaires dont il existe six types différents. Le proton et le neutron sont chacun composés de trois quarks, le premier de deux quarks appelés up et dun appelé down, et le second composé inversement de deux quarks down et dun up. Toutes les autres particules sensibles aux forces nucléaires sont constituées par ce type de particules. Par exemple la particule responsable des interactions fortes entre protons et neutrons, le pion, est composée dun quark et dun antiquark. En vingt ans, on a compris quil existait très peu de forces :
- La force de gravité, transmise par une particule non encore observée, le graviton
- La force électromagnétique, transmise par le photon
- La force nucléaire (ou interactions fortes) transmise par les gluons, que lon ne peut pas observer à létat libre
- Les interactions faibles, transmises par les bosons W et Z0
- Une autre force mystérieuse, mal connue, dont on pense quelle est responsable des masses des particules, transmise par le boson de Higgs.
Cette théorie, appelée le modèle standard, développée dans les années 1970, permet de décrire des phénomènes physiques jusquà léchelle de masse du boson W, c'est-à-dire 10-17cm.
Au même moment de la découverte du muon se produisait un développement dramatique de la cosmologie. Hubble avait découvert que les galaxies séloignent de nous avec une vitesse proportionnelle à leur distance par une constante, dénommée H, constante de Hubble. En 1948 Gamow et Herman proposent la théorie du Big Bang, c'est-à-dire une origine de lunivers commençant il y a environ 10 milliards dannées par une grande explosion. Cette théorie a été confirmée en 1964 par Wilson qui a pu observer ce qui restait de cette boule de feu primordiale : la radiation du fond cosmique. Cette origine de lunivers lie naturellement les événements micro et macroscopiques. Les accélérateurs de particules sont donc pour nous des machines à remonter le temps qui reproduisent les conditions des premiers instants de lunivers. 300 000 ans après cette naissance se sont formés les atomes. Trois minutes après le big bang se forment les noyaux légers, 1/100 000ème de seconde après lorigine, les quarks et les gluons se condensent en hadrons. Le modèle standard nous permet de remonter jusquà un dix milliardième de seconde après le Big Bang. Cela fait partie des conquêtes extraordinaires de la physique moderne.
La forme de lespace
La courbure de lespace est liée à la matière. Lidée dEinstein, de la relativité générale, est que la géométrie de lespace nest pas donnée à priori mais dépend de la quantité dénergie quil y a dedans. La gravité nest rien dautre que la courbure de lespace-temps. Si on relie cela à lexpansion de lunivers, cela amène à lunivers de Friedman et Lemaitre, qui prédit que lévolution et la géométrie de lunivers sont déterminées par la densité de lénergie par rapport à la constante de la gravitation et à la constante de Hubble, constante nommée W. Celle-ci détermine le futur de lunivers, va-t-il sétendre pour toujours, ou, si la gravité gagne, va-t-il se rétracter. Depuis trente ans, on a des raisons de penser que W=1. Des collaborations (COBE, Boomerang, WMAP) ont permis détablir la « carte thermique » de la surface doù proviennent les photons du fond cosmique. Cette carte permet de regarder sil y a des fluctuations dans une direction particulière, qui seraient les germes de ce quest aujourdhui la structure de lunivers. Les premiers résultats ont été donnés en 1992 par Hubble, puis dernièrement en 2003 par WMAP, ce qui a finalement permis dobtenir une carte assez précise. Deux résultats importants sont à noter :
- ces fluctuations sont minimes : pour développer les structures daujourdhui, elles doivent être la trace des fluctuations beaucoup plus étendues dun type de matière que lon abordera plus loin : la matière sombre
- les fluctuations ont une ampleur angulaire denviron 1°, soit le diamètre angulaire de la Lune. Cela permet, puisque nous connaissons la longueur absolue de la fluctuation et la distance à laquelle elle se trouve, de calculer langle en degré dans lespace euclidien. Le résultat obtenu démontre que lunivers est plat et quil ne sétend ni ne se rétracte.
Les particules qui nous manquent
Ces résultats sont aussi un indicateur des particules dont nous navons pas encore démontré expérimentalement lexistence. La première dentre elles est le boson de Higgs, dont lexistence a été postulée pour justifier que les particules ont une masse. La masse est linteraction des particules avec un champ qui est partout dans lespace, et qui distingue les particules (les bosons W et Z acquièrent des masses alors que le photon nen acquiert pas). Lorsque des collisions se produisent, des fluctuations de masse se produisent, et cest cette oscillation qui correspond à une nouvelle particule, le boson de Higgs. Le monde scientifique est à sa recherche car il est nécessaire pour accorder la théorie avec ce qui est observé. Il donne une autre vision du vide qui peut expliquer de nouveaux phénomènes dans la Cosmologie. En 2002, on a cru avoir vu le boson de Higgs, mais lexpérience na pas été reproductible. Il faut donc attendre larrivée du LHC pour éclaircir la question. Le fait quil nait pas encore été découvert jusquà maintenant ne signifie pas quil nexiste pas, mais peut être simplement que nous navons pas les moyens physiques de le produire.
La deuxième particule manquante est liée au concept de supersymétrie liant les particules de spin différent, nécessaire à lunification des différentes forces. Cependant, la supersymétrie ne lie pas des particules que nous connaissons déjà, mais les particules déjà connues à de nouvelles particules de masse très élevée que nous ne voyons pas encore dans nos accélérateurs, qui ont reçu des noms très poétiques (photinos, Higgsinos, zinos,&). La plus légère de ces particules est un excellent candidat pour constituer la matière obscure.
La matière obscure
Lobservation de lunivers révèle que la matière que lon ne voit pas a une place beaucoup plus importante que la matière que lon voit. W est divisible en unités, ce qui nous donne la composition de la matière de lunivers. Le plus surprenant est que la matière ordinaire que nous connaissons ne représente que 5% du total de lénergie de lunivers ! Le reste se partage entre 25% de matière et 70% dénergie du vide. Nous ne sommes donc non seulement pas au centre de lunivers, mais en plus, nous ne sommes pas fait de la matière la plus courante. La question se pose de savoir quelle est la nature de cette matière, et de cette énergie. Les observations astronomiques, si elles nous renseignent sur la distribution de la Matière Obscure dans lunivers, ne nous donnent pas lidentité physique de ses composants.
Le grand collisionneur du CERN (LHC)
Les particules de la supersymétrie sont des candidats idéaux pour être les constituants de la matière obscure froide. La seule manière de lidentifier est de la reproduire en laboratoire. Nous allons donc chercher dans le monde microscopique lexplication de phénomènes à léchelle de lunivers. Pour produire ces particules supersymétriques, si elles existent, le Large Hadron Collider est en construction au CERN. Il entrera en fonction en 2007, et sera constitué par un tunnel de 27 kilomètres, qui comprendra dénormes aimants capables daccélérer les protons et de les garder en orbite. Dans les collisions du LHC seront produites des quantités de particules extraordinaires, et il faudra chercher dans cette soupe la signature du boson de Higgs, ce qui devrait être possible avec la puissance de calcul adéquate ; Il se produira en effet 40 millions de collisions par seconde au centre de chacun des quatre détecteurs, ce qui représentera cent à mille méga octets par seconde à stocker sur un disque magnétique. Si ces données étaient stockées sur des DVD, le total produit en une année serait de 15 millions de disques, soit une pile de 20km de hauteur ! Cette technologie est en train dêtre mise en place.
La gravité quantique
Comment accorder la théorie de la gravité avec la mécanique quantique ? Cette harmonisation demande un changement conceptuel très important dans la façon de voir les particules élémentaires : cest la théorie des cordes. On imagine que les particules sont chacune des vibrations différentes sur une sorte de corde microscopique, la supercorde. Cette théorie a été développée par un certain nombre de personnes (Veneziano, Schwartz, Ramond, et beaucoup dautres). Cette théorie nest pas cohérente dans un espace à quatre dimensions ! La cohérence mathématique du modèle entraîne lexistence dune dizaine de dimensions supplémentaires recourbées sur elles-mêmes. Comment est-il possible que nous vivions dans un espace dont nous nappréhendons pas toutes les dimensions ? Cette question a été abordée depuis longtemps : nous savons depuis Einstein (1905) que nous vivons dans un espace à quatre dimensions (la quatrième dimension étant le temps). Théodore Kaluza en 1919 avait aussi montré quune théorie unifiée de la gravité et de lélectromagnétisme pouvait être réalisée si lespace admettait une cinquième dimension. Klein (1925) a aussi considéré les particules pouvant habiter dans la cinquième dimension. Cette cinquième dimension a donc pris le nom de Kaluza-Klein. Lidée est quune dimension supplémentaire recourbée sur elle-même ne laisse pas rentrer les ondes et les particules présentant respectivement des longueurs donde et des faibles énergies. Une onde peut en effet saccorder avec une dimension seulement si cette dernière est un multiple de la première. Une onde présentant une longueur donde plus grande que le rayon de la dimension ne pourra pas y entrer. Selon la mécanique quantique, qui associe une onde à chaque particule, la longueur de nos atomes est beaucoup trop importante pour que lon puisse pénétrer dans ces dimensions supplémentaires si elles existent.
Les phénomènes se déroulent à un niveau beaucoup plus microscopique, ce quillustre la phrase de Richard Feynman « Un chat ne peut pas disparaître à Pasadena et réapparaître en Sicile, ce serait un exemple de conservation globale du nombre de chats, ce nest pas la façon dont les chats sont conservés ». Cest effectivement impossible à un objet macroscopique comme un chat, mais ce serait possible pour une particule. Le démontrer expérimentalement
reviendrait à démontrer lexistence de dimensions supplémentaires. Nous savons maintenant quil doit y avoir dautres dimensions dans lespace, mais quelle est leur dimension ? Existe-t-il des particules ayant une longueur donde leur permettant de rentrer dans ces dimensions supplémentaires, et donc de disparaître et de réapparaître ? Ce sujet a connu un développement fulgurant ces dernières années. Les théories des supercordes développées montrent en effet que les particules que nous connaissons (quarks, leptons et bosons de jauge) sont confinées sur une membrane localisée à la surface de la dimension supplémentaire. Nous nentrons ainsi pas dans la cinquième dimension, non pas à cause de nos longueurs donde, mais parce que nous sommes liés à une surface à quatre dimensions. Dans cette théorie, les gravitons ne sont pas soumis au même phénomène et peuvent se propager partout, ce qui leur donne des propriétés extraordinaires. Ainsi, lorsquil se produit une collision positron/graviton, sept gravitons peuvent être produits et entrer dans la cinquième dimension. La probabilité dobtenir ce phénomène si la dimension saccorde à lénergie de cette particule est assez grande. On a cherché dans les données expérimentales si lon pouvait voir la signature dune disparition dénergie, qui résulterait dune interaction positron/graviton produisant des photons, et des gravitons disparaissant. Une déviation est alors attendue, qui nest pas observée expérimentalement. On peut objecter que lénergie est trop petite, et le LHC devrait permettre de résoudre ce problème.
Un regard vers le futur
Dans le domaine de la physique des particules, le LHC est naturellement attendu avec impatience. Quels sont les projets suivants ? Beaucoup de discussions ont été engagées sur la construction dun collisionneur linéaire électron/positron, qui permettrait de voir le boson de Higgs. Dans le futur proche, deux devraient être construits (projet DESY en Allemagne et le Next Linear Collider aux USA). Dans un avenir plus lointain, la formation dun collisionneur possédant plusieurs fois lénergie du LHC, soit linéaire électron/positron, ou le Very Large Hadron Collider de Fermilab qui devrait avoir une circonférence de plus de deux cents kilomètres. Mais la physique des particules ne se fait pas seulement autour des accélérateurs et des collisionneurs, mais aussi dans les laboratoires sous marins et souterrains. Les théories prévoyant lunification des forces entre elles et de la matière prédisent une instabilité du proton que lon na pas encore observé expérimentalement.
Dans le domaine de la cosmologie, le défi est maintenant de voir au delà du fond cosmique : c'est-à-dire de voir ce qui sest passé entre le Big Bang et la formation des atomes, 300 000 ans après. Les photons ne peuvent nous donner aucune information. Des télescopes à neutrinos sont donc en construction ou déjà construits (Amanda au Pole Sud pour étudier si des neutrinos traversent la Terre, Antarès Nemo dans la Méditerranée qui est en projet). Ces laboratoires vont remplacer les laboratoires souterrains, et il est imaginable davoir ainsi des laboratoires qui vont surveiller 1km3 de matière pour voir si quelques protons se désintègrent, ou si des neutrinos traversent cette matière. Il existe aussi des détecteurs dondes gravitationnelles (LIGO aux USA, avec des bras de cinq millions de kilomètres de long ou VIRGO, collaboration franco-italienne à Pise, qui permettent détudier sil y a une déformation de la figure de diffraction). Le projet du futur est de placer un tel détecteur en orbite autour du soleil. Il existe déjà un laboratoire souterrain, le Superkamiokande, contenant un énorme bassin équipé de photo-multiplicateurs.
La réconciliation de la théorie de la gravitation avec la théorie de la mécanique quantique nous a déjà réservé de grandes surprises (les théories des cordes) et pose encore des problèmes. Le premier défi est de démontrer lexistence des supersymétries et des dimensions supplémentaires. Le phénomène de Higgs nous donne une vision du vide totalement différente de celle observée dans la mécanique quantique. Si lon compare lénergie du vide mesurée à celle prédite par ces théories, en supposant que la matière obscure est bien composée des particules de supersymétrie, on obtient un résultat soixante fois plus petit ! Il y a donc certainement beaucoup de choses que nous ne comprenons pas encore, et beaucoup de choses à découvrir. Les phénomènes que je viens dévoquer, les interactions entre physique des particules et cosmologie, proviennent de modèles assez récents mais qui ont déjà donné beaucoup de résultats. Ce domaine particulier a reçu un nom : il sagit de la physique des astro-particules. Loutil essentiel à venir est le LHC pour éclaircir le Higgs et la matière obscure. Nous attendons encore beaucoup de surprises de la réconciliation de la mécanique quantique avec la théorie de la relativité générale, dont le test crucial sera la compréhension de lénergie obscure.

 

VIDEO           CANAL  U            LIEN

 

(si la video n'est pas accéssible,tapez le titre dans le moteur de recherche de CANAL U.)

 
 
 
 

CÉRAMIQUE

 

Paris, 23 mars 2014


Un matériau innovant inspiré de la nacre dix fois plus tenace qu'une céramique classique


Les céramiques, qu'elles soient traditionnelles ou de haute technologie, présentent toutes un défaut : leur fragilité. Ce côté cassant pourrait bientôt disparaître : une équipe de chercheurs, menée par le Laboratoire de synthèse et fonctionnalisation des céramiques (CNRS/Saint-Gobain), en collaboration avec le Laboratoire de géologie de Lyon : Terre, planètes et environnement (CNRS/ENS de Lyon/Université Claude Bernard Lyon 1) et le laboratoire Matériaux : ingénierie et science (CNRS/INSA Lyon/Université Claude Bernard Lyon 1) vient de présenter un nouveau matériau céramique inspiré de la nacre des ormeaux, petits mollusques marins à coquille unique. Ce matériau, près de dix fois plus tenace qu'une céramique classique, est issu d'un procédé de fabrication innovant qui passe par une étape de congélation. Cette méthode semble compatible avec une industrialisation à échelle plus importante, à priori sans surcoût notable par rapport à celles déjà employées. Conservant ses propriétés à des températures d'au moins 600°C, cette nacre artificielle pourrait trouver une foule d'applications dans l'industrie et permettre d'alléger ou de réduire en taille des éléments céramiques des moteurs ou des dispositifs de génération d'énergie. Ces travaux sont publiés le 23 mars 2014 sur le site internet de la revue Nature Materials.
La ténacité, capacité d'un matériau à résister à la rupture en présence d'une fissure, est considérée comme le talon d'Achille des céramiques. Pour pallier leur fragilité intrinsèque, celles-ci sont parfois combinées à d'autres matériaux plus tenaces, métalliques ou polymères. L'adjonction de tels matériaux s'accompagne généralement de limitations plus ou moins sévères. Par exemple, les polymères ne résistent pas à des températures supérieures à 300°C, ce qui limite leur utilisation dans les moteurs ou les fours.

Dans la nature, il existe un matériau proche de la céramique qui est extrêmement tenace : la nacre qui recouvre la coquille des ormeaux et autres bivalves. La nacre est composée à 95 % d'un matériau intrinsèquement fragile, le carbonate de calcium (l'aragonite). Pourtant, sa ténacité est forte. La nacre peut être vue comme un empilement de briques de petite taille, soudées entre elles par un mortier composé de protéines. Sa ténacité tient à sa structure complexe et hiérarchique. La propagation de fissures dans ce type d'architecture est rendue difficile par le chemin tortueux que celles-ci doivent parcourir pour se propager. C'est cette structure qui a inspiré les chercheurs.

Comme ingrédient de base, l'équipe du Laboratoire de synthèse et fonctionnalisation des céramiques (CNRS/Saint-Gobain) a pris une poudre céramique courante, l'alumine, qui se présente sous la forme de plaquettes microscopiques. Pour obtenir la structure lamellée de la nacre, ils ont mis cette poudre en suspension dans de l'eau. Cette suspension colloïdale (1) a été refroidie de manière à obtenir une croissance contrôlée de cristaux de glace. Ceci conduit à un auto-assemblage de l'alumine sous forme d'un empilement de plaquettes. Finalement, le matériau final a été obtenu grâce à une étape de densification à haute température.

Cette nacre artificielle est dix fois plus tenace qu'une céramique classique composée d'alumine. Ceci est dû au fait qu'une fissure, pour se propager, doit contourner une à une les « briques » d'alumine. Ce chemin en zigzag l'empêche de traverser facilement le volume du matériau.

L'un des avantages du procédé est qu'il n'est pas exclusif à l'alumine. N'importe quelle poudre céramique, pour peu qu'elle se présente sous la forme de plaquettes, peut subir le même processus d'auto-assemblage. De plus, l'industrialisation de ce procédé ne devrait pas présenter de difficultés. L'obtention de pièces composées avec ce matériau bio-inspiré ne devrait pas entraîner de grands surcoûts. Sa forte ténacité pour une densité équivalente pourrait permettre de fabriquer des pièces plus petites et légères. Il pourrait devenir un matériau de choix pour les applications soumises à des contraintes sévères dans des domaines allant de l'énergie au blindage.

 

DOCUMENT             CNRS                LIEN

 
 
 
 

CALOTTE POLAIRE

 

Paris, 1er septembre 2013


Le paradoxe de la formation de la calotte polaire résolu
Le début de la dernière période glaciaire s'est caractérisé dans l'hémisphère Nord par une forte accumulation de neige aux hautes latitudes et la formation d'une immense calotte polaire. Ceci constituait un paradoxe pour les climatologues. En effet, les chutes de neige sont toujours associées à une forte humidité et à des températures relativement modérées. Une équipe française coordonnée par María-Fernanda Sánchez-Goñi, chercheur à l'EPHE1 travaillant au laboratoire « Environnements et paléoenvironnements océaniques et continentaux » (CNRS/Universités Bordeaux 1 & IV)2 vient de résoudre ce paradoxe. En analysant des carottes de sédiments datant d'il y a 80 000 à 70 000 ans, les chercheurs ont montré qu'au cours de cette période, la température des eaux du golfe de Gascogne est restée relativement élevée tandis que celle du continent européen a décru progressivement. Transportée vers le Nord par les vents, l'humidité dégagée par ce contraste thermique aurait provoqué les chutes de neiges qui ont formé la calotte glaciaire. Ces travaux sont publiés sur le site de Nature Geoscience le 1er septembre 2013.
Au cours des deux derniers millions d'années, la Terre a connu de longues périodes glaciaires séparées par de courtes périodes plus chaudes, les interglaciaires. Cette succession est causée par les changements d'insolation engendrés par des variations cycliques de la distance entre la Terre et le Soleil et par l'inclinaison et la direction de l'axe de notre planète par rapport à notre étoile. La dernière période glaciaire, qui a pris fin il y a 12 000 ans, a commencé il y a entre 80 000 et 70 000 ans. Cette époque est marquée par une variabilité climatique millénaire : elle s'exprime par de courtes périodes de refroidissement alternant avec des améliorations climatiques de moins en moins accentuées au fur et à mesure de l'entrée en glaciation.

Il y a 70 000 ans, suite à une réduction de l'insolation, le niveau de la mer a baissé de 80 mètres. Ceci montre qu'il y a eu une forte accumulation de neige aux hautes latitudes à l'origine de la calotte autour du pôle Nord. Or, les températures froides sont généralement associées à un temps sec et des précipitations rares. Pour qu'il y ait des chutes de neige, le temps doit être humide et la température modérément basse. Dans ces conditions, comment expliquer une accumulation de neige au pôle ?

Pour répondre à cette question, les chercheurs ont analysé des carottes de sédiments marins prélevées au large de la Galice (Espagne) et du golfe de Gascogne contenant du pollen et des foraminifères, des organismes marins microscopiques dotés d'un squelette calcaire. Les grains de pollen sont d'excellents indicateurs de la végétation et de la température du continent, tandis que les foraminifères renseignent sur la température de l'océan.

Les scientifiques ont ainsi pu reconstituer l'évolution de la végétation recouvrant la façade atlantique et celle des températures de l'océan Atlantique. Ils ont observé un étonnant découplage entre la température du golfe de Gascogne et celle du continent européen. Lorsque les températures étaient très froides sur le continent, l'océan est resté chaud, en particulier lors des périodes de refroidissement intense qui ont eu lieu lors de l'entrée en glaciation. Ce découplage correspond aux périodes où le Gulf Stream, puissant courant marin qui transporte vers le Nord les eaux chaudes du golfe du Mexique, est dirigé vers le golfe de Gascogne par des débâcles modérées d'icebergs provenant du Nord du continent américain. C'est ce contraste de température entre le golfe de Gascogne et le continent adjacent qui a dégagé une forte humidité : portée par les vents vers le pôle Nord, celle-ci aurait, selon les chercheurs, provoqué les importantes chutes de neige à l'origine de la calotte polaire.

 

DOCUMENT                 CNRS               LIEN

 
 
 
 

GRAPHÈNE CONDUCTEUR...

 

Paris, 5 février 2014


Des rubans de graphène hautement conducteurs à température ambiante


Des rubans de graphène où les électrons se déplacent librement, telle est la prouesse réalisée par une équipe internationale comprenant des chercheurs du CNRS, de l'Université de Lorraine et du synchrotron SOLEIL en France1, du Georgia Institute of Technology et du Oak Ridge National Laboratory aux Etats-Unis, de l'Université Leibniz en Allemagne. Après avoir imaginé une façon nouvelle et originale de synthétiser ces rubans, les scientifiques ont mis en évidence leur conductivité électrique exceptionnelle à température ambiante. Ces nanorubans ouvrent des perspectives prometteuses pour l'électronique de pointe. Ces travaux sont publiés le 5 février 2014 sur le site de la revue Nature.
Le graphène est un matériau constitué d'une seule couche d'atomes de carbone au potentiel exceptionnel. En effet, une feuille de graphène s'avère près d'un million de fois plus fine qu'un cheveu, plus résistante à la rupture que l'acier, tout en étant très légère. Physiquement, elle se présente sous la forme alvéolée d'un treillis en nid d'abeille. En empilant des feuilles de graphène, on obtient le graphite (le matériau gris constituant les mines de crayons). Le graphène est en outre doté d'une très bonne conductivité électrique : les électrons s'y déplacent jusqu'à 200 fois plus vite à température ambiante que dans le silicium. Son énorme potentiel en électronique explique pourquoi il est étudié sous toutes les coutures.

Une collaboration de physiciens franco-américains s'intéresse depuis le début des années 2000 à ses propriétés électroniques. Leur principal objectif est de concevoir un matériau de très grande mobilité électronique à température ambiante. Les chercheurs ont démontré il y a quelques années que les nanotubes de carbone, l'une des formes de graphène les plus connues, peut transporter le courant électrique de manière balistique, c'est-à-dire sans atténuation au sein du matériau. Mais les nanotubes de carbone s'avèrent complexes à fabriquer et à insérer en très grand nombre sur une puce électronique. C'est pourquoi les chercheurs se sont tournés vers une autre forme de graphène : des rubans « plats ». Les similitudes de structure électronique entre nanotubes de carbone et rubans de graphène laissaient présager des propriétés de conduction analogues.

Les chercheurs ont choisi de synthétiser ce graphène à une dimension à partir d'un cristal facilement disponible dans le commerce, le carbure de silicium. Grâce à un procédé ingénieux, ils ont réussi à obtenir des rubans de graphène d'une très grande qualité structurale, formés d'un « feuillet » de carbone très étroit, de 40 nm de large. La prouesse a été de conserver des bords de ruban très organisés. Il s'agit d'un élément primordial car un ruban de graphène aux bords rugueux ne permet pas une bonne propagation électronique. Pour avoir des rubans réguliers même au bord, l'astuce a été de creuser des tranchées de profondeur nanométrique dans le carbure de silicium puis de fabriquer directement les rubans de graphène à partir des plans verticaux de ces tranchées.

Pour les scientifiques, le résultat a été au-delà de leur espérance. En effet, quand ils ont caractérisé les rubans de graphène ainsi conçus, ceux-ci se sont révélés conducteurs balistiques à température ambiante : une fois dans le matériau, les électrons s'y déplacent de manière libre sans subir de collision. Les rubans se comportent donc comme des « guides d'onde ». La mobilité des charges dans ces matériaux atteint plus de un million de cm2/V.s. Leur mobilité électrique serait ainsi 1000 fois plus importante que celle des semi-conducteurs en silicium (mobilité inférieure à 1700 cm2/V.s) utilisés notamment dans les processeurs et mémoires d'ordinateurs. Il s'agit des premiers rubans de graphène dotés d'une telle conductivité à température ambiante.

Autre spécificité : ces rubans peuvent être produits facilement et en grande quantité tout en conservant les mêmes propriétés. Ce qui rend leur utilisation à grande échelle possible. De par leur exceptionnelle conductivité électronique à température ambiante, ces nouveaux rubans de graphène pourraient permettre de nombreuses applications en nanoélectronique de pointe.

 

DOCUMENT             CNRS                 LIEN

 
 
 
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 ] Précédente - Suivante
SARL ORION, Création sites internet Martigues, Bouches du Rhone, Provence, Hébergement, référencement, maintenance. 0ri0n
Site réalisé par ORION, création et gestion sites internet.


Google
Accueil - Initiation musicale - Instruments - Solfège - Harmonie - Instruments - Musiques Traditionnelles - Pratique d'un instrument - Nous contacter - Liens - Mentions légales /confidentialité

Initiation musicale Toulon

-

Cours de guitare Toulon

-

Initiation à la musique Toulon

-

Cours de musique Toulon

-

initiation piano Toulon

-

initiation saxophone Toulon

-
initiation flute Toulon
-

initiation guitare Toulon