|
|
|
|
 |
|
LE PREMIER ORDINATEUR ... |
|
|
|
|
|
Le premier ordinateur copiait le cerveau humain
autre - par PHILIPPE BRETON dans mensuel n°290 daté septembre 1996 à la page 80 (2658 mots) | Gratuit
La naissance de l'ordinateur est classiquement datée de 1946, avec l'apparition de l'ENIAC. Mais celui-ci, fonctionnant sur le principe du boulier, n'était en fait que le dernier des calculateurs. La primauté devrait plutôt être accordée au Mark 1, dont l'architecture tranche radicalement avec la lignée de ses prédécesseurs. De plus, cette machine fut conçue comme une copie du cerveau humain - ou de la représentation qu'on s'en faisait alors : pour les fondateurs de l'informatique, dont le principal est John von Neumann, la structuration logique de la pensée pouvait être reproduite en dehors du cerveau.
Dans quelles circonstances, dans quel environnement intellectuel et surtout avec quelle intention l'ordinateur a-t-il été conçu ? Pour répondre à ces questions, il faut revenir à l'événement lui-même : quelle est la machine qui peut prétendre au titre de premier ordinateur ?
En célébrant en février 1996 le cinquantenaire de la naissance de l'ENIAC, on a accordé la primauté à ce calculateur électronique mis en chantier à l'université d'Aberdeen Etats-Unis dès 1943. Mais d'autres voient dans le Mark 1, conçu à l'université de Manchester par une équipe à laquelle participait le mathématicien anglais Alan Turing, le premier dispositif de calcul et de traitement de l'information. Il fut élaboré d'après les plans rédigés en juin 1945 par John von Neumann, professeur à l'université de Princeton. Ces plans décrivaient une machine aux principes révolutionnaires, bien différente de l'ENIAC.
Pour trancher ce débat, dont l'intérêt dépasse largement un simple problème de datation, il faut savoir ce qui fait la spécificité de cette nouvelle machine.
Si l'on a présenté l'ENIAC comme le premier ordinateur, cela est dû à deux facteurs. Le premier est l'importante publicité que lui a donné la presse américaine dans l'immédiat après-guerre. On a présenté au public américain une machine dont la caractéristique principale était son extraordinaire rapidité de calcul. Les esprits furent frappés par l'annonce qu'elle mettait moins de temps à calculer la trajectoire d'un obus que celui-ci pour parvenir à sa cible. Cette médiatisation intense a laissé des traces, au point que les médias d'aujourd'hui, plus fidèles sans doute à l'histoire de l'information publiée qu'à celle des techniques, ont fait de l'année 1996 le cinquantenaire de l'invention de l'ordinateur.
Le deuxième facteur tient à ce que l'ENIAC serait le premier « calculateur électronique » , c'est-à-dire la première machine à avoir utilisé le déplacement canalisé des électrons, sous la forme des « tubes à vide » * hérités de la radioélectricité, et qui servirent de première étape sur le chemin menant aux transistors. Certes, l'Américain John Atanasoff avait déjà recouru, dès 1939, à cette technologie, en concevant avec Clifford Berry l'ABC Atanasoff Berry Computer , qui comptait 270 tubes à vide. L'ABC, conçue pour résoudre des équations différentielles, des équations linéaires et des tables de tir, n'était cependant pas programmable. L'ENIAC ne l'était pas davantage, mais fut la première machine à utiliser les tubes à vide sur une grande échelle plus de 17 000. L'engin des ingénieurs d'Aberdeen peut donc être considéré comme le premier calculateur électronique véritablement opérationnel, distinct d'un dispositif expérimental.
S'agit-il pour autant d'un ordinateur ? Si l'on prend comme critères le fait qu'il est électronique et qu'il calcule plus rapidement que tous les dispositifs connus jusque-là, la réponse est oui. Mais ces deux critères sont-ils suffisants pour caractériser la rupture technique que constituent les ordinateurs modernes, que l'on a d'ailleurs longtemps appelés « machines de type von Neumann » ?
L'analyse détaillée du principe de fonctionnement de l'ENIAC et de son organisation logique interne permet de constater que le changement proposé par John von Neumann en juin 1945 et qui ne fut pas mis en oeuvre sur la première version de l'ENIAC ne constitue pas une simple amélioration, mais un véritable changement de nature, à la fois dans la manière de faire des calculs et par l'ajout de la capacité à traiter de l'information, ce que l'ENIAC, simple machine à calculer, ne faisait pas.
Le fossé entre les deux conceptions marque un changement de paradigme. On pourrait même soutenir que l'ENIAC est le dernier représentant d'une lignée dépassée, celle des calculateurs, alors que la machine imaginée par von Neumann inaugure une nouvelle lignée, l'ordinateur, appelée au succès que l'on sait. Que l'ENIAC utilise une technologie électronique ne change rien à l'affaire. Ni qu'il ait fallu attendre juin 1948, notamment en raison de la diminution des crédits militaires dans l'immédiat après-guerre, pour réaliser le premier prototype de la nouvelle machine, le Mark 1, travail effectué par une équipe anglaise conduite par Max Newman à l'université de Manchester. Incidemment, le Mark 1 ne doit pas être confondu avec son quasi-homonyme, le Harvard Mark 1 , produit en 1943 par l'équipe du professeur Howard H. Aiken et qui n'était qu'un calculateur électromécanique, sans mémoire ni électronique.
La seule nuance qu'il faut apporter à ce raisonnement, qui exclut l'ENIAC de la lignée des ordinateurs, tient à ce que quelques mois après l'inauguration du Mark 1, en septembre 1948, von Neumann et Herman Goldstine, après avoir « bricolé » l'ENIAC, en rapprochèrent le principe de fonctionnement de celui de l'ordinateur, sans toutefois en changer véritablement la structure interne. Si donc il fallait à tout prix rechercher la date du cinquantenaire de l'invention de l'ordinateur, celle-ci serait plus proche de 1998 que de 1996...
Quelle différence y a-t-il à l'époque entre un calculateur ordinaire de type ENIAC et la nouvelle machine de von Neumann ? D'une part les deux machines n'ont pas, et de loin, la même structure logique interne. D'autre part, alors que les ingénieurs voulaient simplement construire une machine à calculer plus performante, Turing, von Neumann et d'autres, veulent réaliser une réplique du cerveau humain. Leur démarche heuristique est largement guidée par cette analogie.
L'ENIAC Electronic numerator integrator analyser and computer fut mis en chantier à la Moore School de l'université de Pennsylvanie, par J. Prosper Eckert et John W. Mauchly, dès juin 1943, dans le cadre d'un financement de l'armée américaine. Elle sera inaugurée le 15 février 1946. Sa grande originalité est bien l'usage massif de tubes à vide, 17 468 précisément - trait qui lui servira de vitrine auprès du grand public. Mais l'ENIAC fonctionne sur le principe ancien du boulier. Il peut paraître surprenant d'établir une telle comparaison ; il y a pourtant une incontestable continuité sur le plan du principe technique entre les machines à calculer depuis l'antique boulier, même s'il s'est croisé avec la mécanique à partir de la machine de Pascal, avant de s'appliquer, plus tard, à l'univers de l'électromécanique, puis à celui de l'électronique. La technologie utilisée change au cours du temps et se coule en quelque sorte dans les systèmes techniques qu'elle traverse. Dans l'ENIAC, l'unité de calcul, nommée « accumulateur » , est ainsi constituée de plusieurs rangées de dix tubes électroniques disposées en anneaux : un premier anneau de dix pour les unités, un deuxième anneau pour les dizaines, un troisième pour les centaines, et ainsi de suite. Si, par exemple, on introduit le chiffre 7, le septième tube du premier anneau s'allume. Si l'on ajoute le chiffre 6, la machine part du septième tube, allume le premier tube des dizaines et le troisième des unités, ce qui produit le chiffre 13. De même, conformément au principe du boulier, il faut introduire les demandes d'opérations une à une, puisque la machine n'a pas d'autres mémoires que celles nécessaires au stockage des résultats d'opérations en cours.
Ce décalage entre les technologies utilisées et le principe d'organisation de la machine sauta aux yeux de von Neumann lorsqu'il rendit visite à l'équipe de la Moore School, en septembre 1944, sur l'invitation d'un de ses membres, Herman Goldstine, qu'il avait rencontré par hasard sur un quai de gare. Eckert et Mauchly prévoyaient que le mathématicien porterait son attention à l'architecture interne de la machine plutôt qu'à de stricts problèmes de mise au point. C'est effectivement ce qu'il fit. Une collaboration s'établit alors pour plusieurs mois, dans le cadre d'un nouveau contrat avec l'armée. Elle aboutit à la rédaction en commun d'un texte décrivant une machine de structure radicalement différente : l'EDVAC Electronic discrete variable computer 1 comportant trois innovations majeures, qui caractérisent toujours l'ordinateur moderne : - elle est dotée d'une vaste mémoire, qui ne conserve pas seulement les données sur lesquelles vont s'effectuer les calculs mais aussi les instructions dont elle a besoin pour opérer. Jusque-là, les calculateurs n'avaient qu'une très faible mémoire et on devait leur fournir les données les unes après les autres ; - cette mémoire comporte un « programme enregistré ». Au lieu d'indiquer à la machine ce qu'elle doit faire au fur et à mesure, on stocke dans la mémoire de la machine un ensemble d'instructions le programme. Ces instructions sont de plus rangées « physiquement » dans la machine sous la même forme que les données; - une unité de commande interne a pour mission d'organiser l'ensemble du travail que la machine effectue, ainsi que les échanges de données avec l'extérieur. La gestion des opérations est ainsi transférée à la machine, sous la forme d'un programme spécifique.
Une autre originalité de la machine de von Neumann est qu'elle traite le calcul comme de l'information. Contrairement au point de vue commun selon lequel l'ordinateur « calcule de l'information » , un ordinateur effectue des opérations logiques : les opérations de calcul numérique y sont dès l'origine traduites et traitées sous la forme d'un petit nombre d'opérations logiques binaires. Dans ce sens, l'ordinateur se caractérise comme une machine à traiter logiquement de l'information dont la première application a été de « simuler le calcul » . Le grand intérêt de la nouvelle machine est d'ailleurs là : la simulation du calcul est plus rapide et plus performante que le calcul lui-même.
Von Neumann suit ici les développements opérés dès 1936 par le jeune mathématicien anglais Alan Turing. Celui-ci est à l'origine de l'idée de programmation moderne : dans sa thèse publiée en 1936, il décrit la « machine de Turing », dispositif mathématique simple permettant de résoudre tous les problèmes calculables. Turing, qui voulait lui aussi « construire un cerveau » , pensait que celui-ci fonctionnait par « changements d'états » et avait donc imaginé une programmation pas à pas des problèmes à résoudre. L'impulsion de Turing a été ici décisive. Comme l'a signalé un de ses biographes, Andrew Hodges, « pour notre mathématicien, quoi que fasse un cerveau, il le fait en fonction de sa structuration logique et non parce qu'il se trouve à l'intérieur d'un crâne humain... Sa structure logique devait être parfaitement reproductible dans un autre milieu 2. » Dans cette optique, von Neumann considère que le raisonnement humain est le résultat d'un traitement d'information au niveau neuronal et que celui qui comprendrait les modalités de ce traitement serait à même de construire un cerveau artificiel comparable en tout point au cerveau humain. Cette analogie s'inscrit dans le courant de pensée ouvert en 1942 par le mathématicien américain Norbert Wiener et connu sous le nom de « cybernétique3 », qui va d'ailleurs en faire l'un de ses chevaux de bataille.
Ainsi, à chaque point crucial de son texte sur les « plans de l'EDVAC », von Neumann se réfère directement au fonctionnement du cerveau humain qui lui sert à l'évidence de modèle. Cette analogie, ignorée des historiens des techniques, est pourtant capitale pour comprendre la genèse de l'ordinateur. Les « plans de l'EDVAC » témoignent du fait que le choix de l'architecture de la machine, des tubes à vide électroniques et d'un fonctionnement « pas à pas » est déterminé par la volonté de construire un « cerveau » le plus proche possible du cerveau humain. Le choix du langage binaire, par exemple, découle tout naturellement, pour le mathématicien de Princeton, de l'idée alors courante que les neurones humains fonctionnent selon le principe du tout ou rien. De même, l'architecture de la nouvelle machine se présente comme une reproduction de la cartographie logique du cerveau - du moins de la représentation que von Neumann s'en faisait, comprenant donc une unité de calcul, des unités d'entrée-sortie, une unité de contrôle logique et une vaste mémoire comme dans le cerveau humain. Von Neumann est enfin persuadé que les tubes à vide peuvent constituer un strict équivalent des neurones humains. Il semble d'ailleurs qu'il se soit rapproché de l'équipe de l'ENIAC parce que ceux-ci maîtrisaient la technologie des tubes à vide.
Von Neumann nous propose, à travers l'ordinateur, les plans du cerveau tel qu'il les voit à partir d'un vaste mélange de croyances, d'introspection et de connaissances diverses. Obsédé par l'idée de construire ce qu'il appelait, selon l'un de ses biographes, Steve Heims4, une « extension de lui-même », le mathématicien courait en effet les congrès de psychologie et de neurophysiologie, avide de connaissances sur ce continent en grande partie inconnu, le cerveau. Comme le rapporte sa femme Klara, « Johnny et ses collaborateurs essayèrent d'imiter certaines des opérations du cerveau humain. C'est cet aspect qui l'amena à étudier la neurologie, à chercher des collaborateurs dans le domaine de la neurologie et de la psychiatrie, à fréquenter de nombreuses réunions sur ces sujets, et enfin à donner des conférences sur les possibilités de reproduire un modèle très simplifié du cerveau vivant5 ». Son invention serait ainsi le produit d'un mouvement d'« extrospection », sorte d'introspection à l'envers, consistant en une projection dans l'architecture de la matière des savoirs et des croyances qu'il possédait sur le cerveau.
Le plus étonnant, peut-être, est que les connaissances concernant le cerveau sur lesquelles von Neumann s'appuyait étaient assez floues, et, pour tout dire, très intuitives. Cela n'empêcha pas la machine qu'il construisit sur cette base de fonctionner. Nous touchons probablement là un des mystères de l'esprit humain qui fait qu'à partir de données fausses, incomplètes ou largement partielles, il est malgré tout possible de mettre au point un dispositif opérationnel. Il reste à savoir si celui-ci peut véritablement être comparé à un cerveau humain.
L'invention de l'ordinateur sera en tout cas présentée au public au moyen de cette analogie, comme si cette dernière était découverte après coup, alors qu'elle est première dans l'esprit de von Neumann, de Turing ou de Wiener. Ainsi, dans le premier texte qui annonce au public français, le 28 décembre 1948, l'existence d'une machine à traiter universellement l'information, le physicien français par ailleurs père dominicain Dominique Dubarle soutient que l'analogie entre le cerveau et l'ordinateur « n'est même pas seulement organique, elle est aussi fonctionnelle et quasi mentale : les machines ont pour ainsi dire comme leurs réflexes, leurs troubles nerveux, leur logique, leur psychologie et même leur psychopathologie. Un claquage de circuit se traduit par un résultat erroné, des erreurs dans les circuits de contrôle peuvent désorganiser tout le fonctionnement d'un organisme partiel de calcul, des failles dans le programme peuvent retentir sous forme d'une véritable folie de la part de la machine, s'emportant alors dans un travail absurde jusqu'à ce qu'on y remédie. On devine quelles perspectives de pareils faits peuvent ouvrir à ceux qui étudient d'une part le fonctionnement du système nerveux, d'autre part les possibilités de réaliser des machines à exécuter les tâches de la pensée6 . » De nombreux textes du courant cybernétique, très productif dans les années 1950 et 1960, s'inspireront de cette comparaison, alors très à la mode, comme on le constate dans les actes du colloque international consacré par le CNRS en janvier 1951 au thème « Les machines à calculer et la pensée humaine7 ». Dans ce sens, on pourrait dire, forçant à peine le trait, que l'informatique découle de l'intelligence artificielle plutôt que l'inverse, même si, formellement, celle-ci ne naît qu'à la fin des années 1950.
La cybernétique et l'intelligence artificielle reprendront ainsi à leur compte le projet de construire une machine reproduisant le comportement humain qui, bien au-delà du XXe siècle, a nourri les espoirs des contemporains de l'ingénieur français Jacques de Vaucanson, promoteur au XVIIIe siècle d'un « homme artificiel » oudes magiciens mystiques qui, dès l'Antiquité, souhaitaient construire une créature « à l'image de l'homme ». Dans ce sens l'ordinateur moderne est autant le produit d'une ancienne tradition qu'une formidable innovation technique.
Par PHILIPPE BRETON
DOCUMENT larecherche.fr LIEN |
|
|
|
|
 |
|
LES PARTICULES ÉLÉMENTAIRES |
|
|
|
|
|
Les particules élémentaires
back to basic - dans mensuel n°306 daté février 1998 à la page 92 (3073 mots) | Gratuit
La quête de l'élémentaire occupe philosophes et hommes de science depuis plus de... vingt-cinq siècles ! Leucippe de Milet est le premier, en Occident, à définir l'atome comme la particule la plus élémentaire. Insécables car très petits, durs et incompressibles, les atomes de Leucippe, puis ceux de Démocrite, diffèrent par leur forme, leur arrangement et sont animés d'un mouvement continu, éternel et désordonné. Ils composent toutes choses, y compris l'âme. Epicure leur rajoutera une autre propriété, une sorte de pesanteur. Leur mouvement est, selon lui, régulier et dirigé vers le bas mais peut se trouver légèrement dévié. Cette théorie atomiste sera vivement combattue au Moyen Age par la tradition aristotélicienne qui préfère une vision du monde en quatre qualités primordiales le chaud, le froid, l'humide et le sec et une substance particulière omniprésente, l' aither . En Occident, la théorie atomiste gagne du terrain au cours des siècles. La publication en 1913 de l'ouvrage Les Atomes par Jean Perrin marquera finalement le triomphe de la théorie atomisteI.
La reconnaissance de la structure intime de l'atome démarre avec la découverte de l'électron, découverte qui fut l'aboutissement de travaux menés entre 1890 et 1900 en Angleterre, en Irlande, en Allemagne, en Hollande et en FranceII. En 1905, l'année où il conçoit la relativité restreinte, Albert Einstein propose de considérer la lumière comme un flux de particules élémentaires, de « quanta d'énergie localisés en des points de l'espace » , qui ont été appelés plus tard photons. L'existence de ces particules sera confirmée en 1923, par l'Américain Arthur Holly Compton*. Dix années plus tôt en 1911, une équipe de l'université de Manchester dirigée par Lord Rutherford démontre, à partir de données expérimentales le bombardement de feuilles d'or avec des atomes d'hélium chargés positivement que le centre des atomes est occupé par un noyau de très petite taille chargé positivement. En 1920, Rutherford baptise la charge positive du noyau proton . L'idée admise, à cette époque, est que le noyau contient les deux particules élémentaires, proton et électron. Mais douze années plus tard, James Chadwick, du laboratoire Cavendish à Cambridge, découvre à l'intérieur du noyau une particule électriquement neutre. Il la nomme neutron, celui-ci accède provisoirement au statut de particule élémentaire. L'idée qu'une sous-structure puisse exister à l'intérieur est venue ensuite naturellement... En 1964, Murray Gell-Mann et Georges Zweig élaboraient, de façon indépendante, le concept de quarks, constituants élémentaires des protons et des neutrons. Leur mise en évidence eut lieu dans les années 1970 aux Etats-Unis.
Une particule élémentaire ne peut se représenter - comme on le trouve encore souvent - par une petite bille. Entendons-nous : cette représentation naïve n'est pas incorrecte lorsqu'on se place dans le cadre de la mécanique classique ; la matière macroscopique n'est-elle pas symbolisée par les physiciens comme un ensemble de points matériels, de lieux où se concentre la masse ? En électromagnétisme, les mouvements de ces points peuvent être décrits grâce au concept de champ introduit par Faraday au milieu du XIXe siècle. Structure infinie étendue à l'ensemble de l'espace et du temps, le champ est devenu au fil des années un concept fondamental pour comprendre la matière. Mais il pose un problème. Comment, en effet, concilier ce concept, fondé sur des équations qui reposent sur la continuité, et la notion de particule, par essence discontinue ? La théorie quantique des champs introduite dans les années 1930 résout l'antagonisme. Alors que la mécanique classique va observer un morceau de matière et se poser les questions : dans quel état est-il ? quelle est sa vitesse, son énergie ? La théorie quantique des champs renverse le point de vue en disant : voici tous les états qui peuvent être occupés ou pas par des particules dans le cadre d'une interaction, comment sont-ils occupés ? Les champs quantiques sont les opérateurs qui remplissent ou vident ces états. Remplir c'est créer une particule, vider c'est l'annihiler. La particule n'est donc plus un point matériel mais un échantillon, un digit de champ quantique défini pour un certain type d'interaction. La comparaison avec l'informatique n'est pas gratuite : la particule élémentaire est en quelque sorte, un 1 ou un 0 dans un programme informatique. Les échantillons de champ peuvent être des constituants de la matière, les fermions*, ou bien être des vecteurs d'interactions, les bosons*. Bosons et fermions ont des propriétés très différentes. D'abord, le moment cinétique* intrinsèque ou spin est nul ou entier pour les bosons et demi-entier pour les fermions. Ensuite les fermions sont impénétrables. Lorsqu'il y en a un quelque part, on ne peut pas en rajouter un autre au même endroit. La matière ne se superpose pas. Les bosons, au contraire, peuvent tous se trouver dans le même état, au même endroit. Le photon est un boson : on superpose des rayons lumineux.Le théoricien et l'expérimentateur ne voient pas et ne représentent pas la particule de la même façon. Une particule étant pour le théoricien un digit de champ, le concept premier est donc, pour lui, le champ et non la particule. La nature des champs quantiques est prédéterminée par les quatre interactions fondamentales et par les symétries qu'elles respectent voir tableau ci-dessous.
Que signifie pour une interaction respecter une symétrie ? Prenons l'exemple de l'électromagnétisme. Pour décrire l'interaction électromagnétique, le physicien utilise la notion de potentiel*. Une dérivation* par rapport aux coordonnées de l'espace lui permet de passer du potentiel au champ. De la même façon qu'une famille infinie de droites parallèles possède la même pente, il existe une infinité de potentiels qui donnent le même champ.
Tous ces potentiels sont identiques à une « origine près » : si l'on transforme un potentiel en un autre, les équations n'en sont pas affectées. En mécanique quantique, les physiciens utilisent le terme d'invariance ou symétrie de jauge* pour décrire ce type de transformation. Or, il se trouve - sans que nous comprenions vraiment pourquoi - que les quatre interactions fondamentales et les équations qui les décrivent respectent des symétries de ce type.
Ceci a, bien sûr, des répercussions sur les champs quantiques associés aux interactions et donc sur les propriétés des particules, les digits de champs. Ainsi, quand un théoricien pense particules, il pense symétries, interactions, champs.
Dans les équations, il symbolise les particules par des potentiels, fonctions de plusieurs paramètres comme le temps t ou la position x, y, z. Mais l'expérimentateur, lui, voit les particules bien différemment.
Une particule est, à ses yeux, une signature dans un certain type de détecteur, autrement dit une trace ou un ensemble de traces. Il la désigne par des lettres u, Z, t, n, e ...et non par des potentiels ou des champs quantiques.Parmi les particules connues, certaines sont présentes dans la nature, comme l'électron, particule constitutive des atomes de matière, ou comme le neutrino, particule neutre présente dans les rayons cosmiques*. D'autres n'auraient existé que dans les tout premiers instants de l'Univers et ne peuvent être détectées qu'auprès des grands accélérateurs ou collisionneurs. Pourquoi ? Imaginons, que nous voulions découvrir dans une structure, comme le proton, une sous-structure plus petite. Une première idée est de sonder cette structure en envoyant une ou des particules sondes sur elle. Ces particules sondes ont, selon la dualité onde-corpuscule* établie par Louis de Broglie en 1923, des longueurs d'onde associées. Or, nous savons qu'un phénomène ondulatoire n'interagit qu'avec des objets de dimension supérieure à sa longueur d'onde un nageur ne perturbe pas la houle, laquelle se trouve en revanche affectée par la marche d'un paquebot.... Pour sonder des objets petits, il faut donc envoyer sur eux des particules sondes de très courte longueur d'onde, ce qui signifie aussi très énergiques. Les accélérateurs cible fixe ou les collisionneurs cible en mouvement sont construits sur ce principe. Détaillons ce qui se passe dans un collisionneur où deux faisceaux de particules de haute énergie circulent en sens opposés. La collision entre deux particules des deux faisceaux produit un choc d'où émergent d'autres particules en vertu du principe d'équivalence entre masse et énergie, le fameux E = mc2, une des conséquences de la théorie de la relativité restreinte élaborée en 1905 par Albert Einstein.
Plus le choc est énergique, plus les particules créées sont massives... ce qui ne veut pas dire qu'elles sont plus grosses, au contraire ! Plus elles sont massives, au sens énergétique du terme, plus leurs dimensions, ou encore leur longueur d'onde associée est petite... La durée de vie des particules est si brève, quelque 1020 s, qu'aucune caméra, aucun microscope n'est capable d'observer directement le résultat de la collision. Ce que les expérimentateurs détectent ce sont les produits stables de leur désintégration. Pour connaître leur position et leur énergie, ils placent autour du point de collision plusieurs détecteurs qui forment une structure géante en oignon voir schéma.
Ces dispositifs sophistiqués ont une faiblesse : ils ne permettent pas d'arrêter les particules non chargées et n'interragissant que faiblement, comme les neutrinos.Dans la théorie de la relativité restreinte, la masse est reliée à l'énergie et à la quantité de mouvement* pÆ de la particule de la façon suivante : E2 p2=m2 en supposant c = 1, c vitesse de la lumière dans le vide. Dans cette équation m est la masse invariante de la particule, m = E si pÆ = oÆ ; m est donc la masse au repos. Si la masse de la particule est nulle, on a E = p, autrement dit une particule de masse nulle est une particule qui va à la vitesse de la lumière quel que que soit le référen- tiel.
Conclusion : une particule de masse nulle est une particule qui n'est jamais au repos !Elles existent puisqu'on les a observées ! D'abord dans le rayonnement cosmique, puis dans les accéléra- teurs et les collisionneurs. Mais l'existence des antiparticules avait été suppo- sée avant qu'on puisse les observer, à la fin des années 1920 par le physicien britannique Paul Dirac. Pour réconcilier la mécanique quantique et la théorie de la relativité, il imagina une particule d'énergie positive, de masse égale à celle de l'électron, mais de charge électrique opposée. L'anti-électron positon était né. Ce dédoublement purement théorique du monde en « particules-antiparticules », autrement dit en « matière- antimatière » fut expérimentalement confirmé dès 1932. Aujourd'hui, toutes les anti-particules des particules élémentaires connues ont été découvertes.
Une antiparticule possède la même masse, le même spin que la particule du même nom mais des charges opposées - « charges » au pluriel. Toute particule ou antiparticule porte, en effet, un certain nombre de charges charge électrique, charge de couleur, nombre baryonique, charge de saveur.... Ces nombres sont des sortes d'étiquettes qui définissent le comportement de la particule ou de l'antiparticule dans les interactions.
L'une des grandes énigmes de la physique actuelle est le déficit d'antimatière mesuré dans l'Univers. Si la matière et l'antimatière ont des propriétés symétriques, pourquoi la nature aurait-elle préféré la première à la seconde ?
En 1967, le physicien russe Andrei Sakharov a proposé une théorie pour expliquer cette dissymétrie.Deux types de particules existent à l'intérieur du groupe des fermions voir p. 95 : d'un côté les leptons, qui ne participent pas à l'interaction forte, de l'autre les quarks, de différentes saveurs et de différentes couleurs qui participent à toutes les interactions. Les charges de saveur six au total et de couleur trois au total des quarks déterminent leur comportement vis-à-vis respectivement de l'interaction faible et forte. Les bosons, vecteurs des quatre interactions fondamentales, sont le photon pour l'interaction électromagnétique, les gluons pour l'interaction forte qui lient les quarks entre eux, les bosons W+, W et Zo, porteurs de l'interaction faible, enfin le graviton, le boson de la gravitation. Fermions et bosons ont été regroupés en trois familles dans le modèle standard, cadre conceptuel permettant de prédire tous les phénomènes mettant en jeu les interactions fondamentales autre que la gravitation*. Curieusement, les deux dernières familles peuvent être vues comme des répliques de la première à un détail près : leur particule ne se distingue des particules de la famille n° 1 que par leur masse ! Un muon est un autre électron sauf qu'il est un peu plus lourd, un tauon est un muon encore plus lourd. C'est un peu comme si la nature avait bégayé trois fois... Les physiciens l'admettent : le modèle standard qu'ils ont construit aurait très bien pu fonctionner avec une seule famille de particules. Pourquoi alors y en a-t-il trois, et pas une ou cinq ? C'est d'ailleurs une des grandes questions de la physique contemporaine. Ce bégaiement de la nature n'est pas sans conséquences. Pour le comprendre, revenons sur les symétries. La théorie des champs quantiques implique l'existence d'une symétrie dite CPT, produit des symétries C on remplace la charge par une charge opposée, P on change le signe des coordonnées spatiales, et T on renverse le sens du temps. L'invariance de la physique par cette symétrie CPT pouvait laisser penser qu'il existait aussi une invariance par C, par P, par CP et par T, pris séparément. Or, l'interaction faible brise ce principe : elle n'est pas invariante par CP. Pratiquement, cela signifie que, dans certains processus de désintégrations radioactives, changer la charge d'une particule en la charge opposée et regarder le résultat dans un miroir inversion des coordonnées, est un processus qui n'a pas la même probabilité que le processus de départ... Cette brisure de la symétrie CP pourrait donc expliquer la prédominance dans l'Univers de la matière sur l'antimatière, laquelle a toujours la charge opposée à la matière. Les physiciens sont parvenus à montrer que, dans le cadre du modèle standard, la brisure n'est possible que s'il existe au moins trois familles de particules. Une ne suffit pas, deux non plus. Autrement dit, le bégaiement de la nature serait une des clefs de la prédominance de la matière sur l'antimatière dans l'Univers...Aucune ne l'est en principe. Elles peuvent en revanche être plus ou moins difficiles à observer, comme les neutrinos, ces leptons de charge électrique nulle. L'existence de ces particules neutres fut prédite par Wolfgang Pauli en 1932. Vingt ans plus tard, on découvrait le premier neutrino. Les neutrinos sont difficiles à observer car ils ne sont pas chargés et ne participent qu'à l'interaction faible : leur probabilité d'interagir avec la matière est par conséquent quasi nulle. Cette propriété complique aussi la mesure de leur masse, laquelle est peut-être nulle. La détection des quarks est, elle aussi, difficile même si ces fermions participent à toutes les interactions. Un quark ne peut s'observer directement pour la bonne raison qu'il se déplace toujours en bande, soit avec deux autres quarks, soit avec un antiquark.
Nous savons de plus qu'il existe trois couleurs possibles pour un quark ; or, ces couleurs sont telles que leur mélange par trois ou par deux produit des objets « blancs » - les seuls visibles d'après la théorie de l'interaction forte. Nous ne pouvons donc observer directement que les assemblages de quarks mais jamais les quarks isolés !Le physicien des particules ne peut répondre à cette question. Il peut certes prédire, grâce au modèle standard , un certain nombre de variables mais pas la valeur exacte des masses des particules. En revanche, la question « Pourquoi les particules élémentaires ont-elles une masse ? » occupe de nombreux théoriciens et expérimentateurs. En effet, d'après le modèle standard actuel, toutes les particules devraient logiquement être de masse nulle ! Pour comprendre cela, revenons quelques instants sur les propriétés d'invariance. Nous avons vu les quatre interactions fondamentales respectaient des invariances de jauge. Or, ces symétries imposent aux particules d'interaction, les bosons, d'être de masse nulle. C'est bien le cas du photon interaction électromagnétique ou des gluons interaction forte mais pas des bosons intermédiaires interaction faible très massifs 90 GeV, soit quatre-vingt dix fois la masse du proton. Pour expliquer ce phénomène, les physiciens ont inventé un nouveau champ quantique, le champ de Higgs, générateur de masse, et une nouvelle interaction associée, le mécanisme de Higgs. Pourquoi le champ de Higgs aurait-il rendu massives toutes les particules, à l'exception du photon et du gluon ? D'après le modèle standard, le phénomène correspond à une brisure spontanée de symétrie du champ de Higgs dans l'état fondamental stable qu'est le vide. C'est un peu comme si vous posiez une bille au fond d'une bouteille : l'état stable est trouvé lorsque la bille est à gauche ou à droite du cul de la bouteille état non symétrique, pas au-dessus état symétrique. Si le mécanisme de Higgs est valide, il faut alors imaginer l'existence d'une particule massive associée, le dénommé boson de Higgs. La course au boson de Higgs a d'ores et déjà commencé. Sa masse importante, quelques centaines de GeV, pourrait expliquer qu'on ne l'a pas encore découvert... Le grand projet de collisionneur à 14 TeV du CERN sera le test grandeur nature du mécanisme de Higgs.
Elémentaires, direz-vous ?
Pour certains physiciens, la structure de la matière en quarks, leptons et bosons pourrait n'être qu'une image encore très simplifiée de la réalité. Au plan théorique, le mécanisme de Higgs possède d'ailleurs de nombreuses inconsistances.
Une amélioration possible est d'envisager l'existence d'une sous-structure au sein des particules du modèle standard. Les énergies correspondantes seraient mille fois plus élevées que les énergies qui ont permis de mettre en évidence les quarks. Si elle existe, cette sous-structure doit impérativement être compatible avec toutes les observations réunies jusque-là. Une contrainte qui limite énormément l'ensemble des solutions mais qui laisse encore de la place à la discussion... Une autre façon d'améliorer le mécanisme de Higgs est l'idée qu'il existe deux autres bosons de Higgs donc deux autres champs quantiques de Higgs et surtout que chaque particule du modèle standard actuel possède un partenaire supersymétrique. Dans cette hypothèse, les bosons auraient des partenaires fermions, et les fermions des partenaires bosons. Tous ces partenaires supersymétriques auraient des masses de quelques centaines de GeV...
Ce nouveau dédoublement du monde après celui de la « matière-antimatière » sera testé sur le futur LHC au CERN. Mais l'imagination des physiciens ne s'est pas arrêtée là... Une approche, radicalement différente, proposée à la fin des années 1970, consiste à imaginer que les champs quantiques actuellement répertoriés ne sont que des approximations de basse énergie d'un phénomène que les physiciens désignent sous le terme de super-cordes.
Dans ce cadre conceptuel, les particules élémentaires actuellement repertoriées seraient des modes, des exci- tations d'une corde, objet fondamental étendu de très petite taille. Pour être étudié, ce modèle, sorte de théorie fondamentale ultime de la physique quantique, nécessiterait des énergies de 1019 GeV, soit l'énergie d'un Boeing 747 à sa vitesse de croisière concentré dans une particule ! La théorie des supercordes sera-t-elle validée aux basses énergies sur le LHC ? Certains en ont fait le pari.
DOCUMENT larecherche.fr LIEN |
|
|
|
|
 |
|
LE VERRE |
|
|
|
|
|
Le verre
- par Jacques Livage dans mensuel n°379 daté octobre 2004 à la page 89
Vive le désordre! Telle pourrait être la devise des maîtres verriers. C'est en effet l'absence d'organisation spatiale des atomes qui le composent qui donne au verre ses propriétés. De savants mélanges chimiques permettent aujourd'hui de l'utiliser dans une multitude d'applications: vitres, flacons, bouteilles ou fibres optiques.
Qu'est-ce que le verre?
Le verre est un matériau transparent et cassant, qui devient pâteux lorsqu'on le chauffe à quelques centaines de degrés. Dans la vie courante, il se présente sous les formes les plus variées: vitrages, bouteilles, vaisselle, fibres ou lentilles optiques. En fait, on devrait plutôt parler «des» verres, car la composition chimique du matériau est variable, et adaptée à chaque utilisation. Le point commun de tous ces matériaux réside dans le désordre structural des atomes qui les composent. C'est lui qui confère aux verres leurs propriétés originales: transparence, fusion pâteuse, cassure conchoïdale*… Dans un verre, contrairement aux cristaux, les atomes ne sont pas disposés régulièrement. Comme dans le liquide obtenu après fusion, ils ne présentent aucune périodicité. Un verre est un solide désordonné, que l'on qualifie aussi d'amorphe.
Le verre ordinaire, est-ce seulement du sable fondu?
Le verre peut être obtenu par fusion d'un sable de silice tel le «sable de Fontainebleau». La silice est en effet le composé indispensable pour faire du verre. C'est le «formateur de verre». Mais sa température de fusion très élevée, environ 1750 °C, rend la fabrication particulièrement difficile et onéreuse avec de la silice pure. On ajoute donc des «fondants», tels que la soude, la potasse ou la chaux, qui se combinent à la silice et abaissent sa température de fusion. Par exemple, avec 20% d'oxyde de sodium, la silice fond dès 800°C, et l'on peut alors couler le verre à 1000°C.
D'autres additifs, que l'on appelle «modi-ficateurs», permettent d'optimiser les propriétés du verre en fonction de l'appli-cation envisagée. Le calcium ou l'alumine renforcent son inertie chimique. Le plomb augmente son indice optique et lui donne un éclat tel qu'il devient «cristal». Les verres spéciaux comme le «Pyrex», utilisé pour fabriquer de la vaisselle, sont obtenus en ajoutant du bore qui diminue le coefficient de dilatation du matériau, évitant qu'il ne se brise lorsqu'on le chauffe. On ajoute aussi du bore dans les verres qui servent au confinement des déchets nucléaires afin de renforcer leur résistance vis-à-vis de la lixiviation* due aux eaux de ruissellement qui dissolvent lentement la surface du verre.
Quel est l'intérêt du recyclage?
Non seulement on économise de la -matière première, mais aussi de l'énergie. Le verre de récupération fond en -effet à beaucoup plus basse température que la silice, même mise en présence de fondant, puisque la combinaison des deux constituants est déjà réalisée. C'est la raison pour laquelle le recyclage du verre s'est considérablement développé au cours des dernières décennies.Actuellement, en France, on recycle plus de deux millions de tonnes de verre par an. Le verre d'emballage provient à 60 % du verre de récupération le calcin, et une bouteille ordinaire peut en contenir jusqu'à 80 %!
Peut-on faire du verre sans silice?
Oui, car d'autres oxydes donnent spontanément un verre lorsqu'on les refroidit rapidement à partir de l'état liquide une opération nommée trempe. Cependant ils sont rares, et se limitent pratiquement aux oxydes de bore B2O3, de germanium GeO2 et de phosphore P2O5. Par ailleurs, tous les verres ne sont pas des oxydes. Au cours des dernières décennies on a vu apparaître d'autres verres minéraux. Les verres de chalcogénures, à base de soufre, de sélénium ou de tellure, sont en général noirs, ce qui ne les empêche pas d'être transparents aux longueurs d'onde infrarouges. Ils sont utilisés pour réaliser des optiques infrarouges permettant de voir la nuit. Des verres fluorés, découverts en 1975, sont remar-quablement transparents dans le visible et dans l'ultraviolet, et peuvent être utilisés dans les télécommunications optiques.
La possibilité d'obtenir un verre augmente considérablement si l'on réalise des trempes ultrarapides, en refroidissant à des vitesses de plusi-eurs millions de degrés par seconde! Le verre obtenu peut être décrit comme un «liquide figé». C'est ainsi que l'on a élaboré des verres métalliques par «hypertrempe» d'alliages nickel-phosphore. Simple curiosité de laboratoire lors de leur découverte en 1960, ils présentent des propriétés mécaniques renforcées, liées à l'absence de joints de grains*. Des verres métalliques à base de zirconium, de titane ou de cuivre ont trouvé aujourd'hui des appli-cations originales, notamment des clubs de golf! N'oublions pas non plus l'importance des verres organiques qui ont envahi notre vie quotidienne. Ils sont constitués de polymères tels que le polymétha-crylate de méthyle Plexiglas, les polycarbonates, le polyéthylène ou les polyéthylènetéréphtalates PET.
Qui a découvert le verre?
Le verre est connu depuis près de 5000 ans. Dans son Histoire naturelle, Pline l'Ancien relate que le verre aurait été découvert par des marins égyptiens lors d'une halte sur une plage de Phénicie, à l'embouchure du fleuve Belus aujourd'hui Nahr Halou, au Liban. Ne trouvant pas de galets, ils disposèrent autour du feu des blocs de natron, un carbonate de sodium utilisé pour la momification. Quelle ne fut pas leur surprise lorsqu'ils virent s'écouler un liquide visqueux qui, en refroidissant, se figeait en une masse vitreuse! Le natron aurait en l'occurrence servi de fondant.
Cette histoire n'est sans doute qu'une légende. Il est en effet peu probable qu'un feu à ciel ouvert permette d'atteindre une température suffisante pour fondre la silice! Les premiers verres ont sans doute été obtenus en Mésopotamie comme scories de métallurgie. Ces verres étaient de mauvaise qualité. Très hétérogènes, ils n'étaient pas transpa-rents mais pouvaient être colorés par des sels de cuivre le «bleu égyptien» et ont tout d'abord servi d'objets décoratifs, perles ou statuettes, pour remplacer des pierres semi-précieuses telles que le lapis-lazuli.
L'usage du verre s'est étendu, à partir de 1500 av. J.-C., pour réaliser des objets utilitaires coupes, vases, flacons… par moulage autour d'un noyau de sable ou d'argile. Le verre est alors devenu un matériau usuel, particulièrement présent en Égypte où l'on a retrouvé des ateliers de fabrication d'objets en verre.
Quelle est la différence avec les céramiques?
Les céramiques ont souvent des compositions chimiques proches des verres. Mais elles sont formées de petits cristaux assemblés les uns aux autres par chauffage à haute température. Cette opération que l'on appelle «frittage» conduit à un matériau polycristallin, et non pas amorphe comme le verre. Chaque petit grain cristallin diffuse la lumière, et le matériau n'est donc pas transparent. Autre différence entre le verre et la céramique, les cristaux qui forment cette dernière fondent tous à la même température. On passe donc brusquement du solide au liquide. Au contraire, dans un verre, les liaisons entre atomes cèdent progressivement au cours du chauffage conduisant à une «fusion pâteuse» qui permet la mise en forme par soufflage.
En existe-t-il dans la nature?
Des verres naturels se forment lors d'éruptions volcaniques, lorsque la lave fondue se refroidit au contact de l'air. L'obsidienne en est un exemple bien connu. Cette roche noire, brillante et coupante que l'on peut tailler ou polir, a été utilisée dès la préhistoire pour la fabrication d'outils. Les civilisations précolombiennes, en particulier, en ont aussi fait des bijoux et même des miroirs. D'autres verres naturels, plus rares, sont issus du choc engendré par la chute de certaines météorites, «tectites», ou se forment lorsqu'un éclair frappe un sol sablonneux, «fulgurites». Enfin, à proxi-mité des roches radioactives, on trouve des «métamictes», dans lesquelles le désordre a été créé par irradiation et ne provient pas du refroidissement rapide d'une roche en fusion.
Peut-on en fabriquer sans chauffer?
Depuis des centaines de millions d'années, des organismes vivants ont développé des stratégies permettant d'élaborer des verres de silice dans des conditions plus «douces» que celles qui règnent dans les volcans ou dans les fours verriers. L'exemple des diatomées est particulièrement intéressant. Ces micro-algues unicellulaires, que l'on trouve dans le plancton, sécrètent une coque de silice, la frustule, qui les protège tout en laissant passer la lumière nécessaire à la photosynthèse. Ce squelette externe, qui agit comme les vitres d'une serre, est synthétisé par la cellule à partir de la silice dissoute dans l'eau de mer. Le cas n'est pas unique: bien d'autres organismes, tels que les éponges ou les radiolaires, fabriquent de la silice dans les mêmes conditions. La production annuelle de silice par ces micro-organismes dépasse actuellement le milliard de tonnes: elle est bien supérieure à celle de nos usines verrières qui, en France, traitent environ 5 millions de tonnes de verre par an. Après leur mort, les squelettes de diatomées se déposent au fond des océans et se transforment en sédiments, les diatomites, roches poreuses qui servent à réaliser des filtres industriels. C'est grâce à elles qu'Alfred Nobel a fait fortune: la dynamite, qu'il a inventée, est constituée de nitroglycérine stabilisée par imprégnation dans des terres de diatomées.
Les chimistes savent-ils imiter les diatomées?
Pas encore. Depuis une vingtaine d'années, ils ont développé des métho-des de synthèse, connues sous le nom de «procédés sol-gel», pour élaborer des verres dans des conditions particulièrement douces, mais quand même pas à la température ambiante. Pour cela, on construit le réseau de silice par polymérisation de précurseurs solubles, ici l'acide silicique, Si OH 4, de la même façon que l'on fabrique un polymère organique à partir de monomères moléculaires. On obtient ainsi un gel de silice, que l'on densifie ensuite par chauffage à quelques centaines de degrés, bien au-dessous de la température de fusion de la silice. Ces procédés sont maintenant développés industriellement pour déposer des revêtements à la surface des vitrages modernes. Le dépôt sol-gel s'effectue par simple trempage ou pulvérisation à l'air. Il est donc plus simple à mettre en œuvre que d'autres processus, tels le «dépôt en phase vapeur» ou la «pulvérisation cathodique» qui nécessitent des températures plus élevées ou l'établissement du vide. Ce procédé de chimie douce présente aussi l'avantage d'être compatible avec la présence de molécules plus fragiles, organiques ou biologiques. Il permet d'élaborer des verres hybrides organo-minéraux totalement originaux, qui couvrent toute la gamme allant du polymère au verre. À l'exemple des diatomées, on a même réussi à maintenir vivants des micro-organismes tels que des bactéries, au sein de cages de verre [1]!
Est-il toujours transparent?
La transparence du verre nécessite que le matériau soit homogène et ne comporte aucune inclusion telle que des bulles ou des microcristaux. Pendant des siècles on n'a su faire que des «pâtes de verre » opaques. Il fallut attendre le IIIe siècle av. J.-C. pour obtenir des températures suffisantes pour réaliser des opérations d'affinage qui éliminent les bulles d'air et donnent enfin un matériau homogène et transparent. Les secrets de la transparence ont ensuite été jalou-sement gardés dans des lieux isolés. C'est ainsi qu'au XIIIe siècle, les verriers de Venise furent regroupés sur l'île de Murano. Ils ne devaient pas la quitter sous peine de mort! La transparence du verre a atteint son apogée au XXe siècle avec la réalisation des fibres optiques pour les télécommunications.
Aujourd'hui, paradoxalement, les fabricants de vitrages cherchent plutôt à contrôler la transparence du verre afin d'ajouter une plus-value à ce matériau devenu très courant. Pour cela, on -dépo-se à la surface du verre un film mince d'environ un micromètre d'épaisseur de composition différente, qui module ses propriétés optiques. Le vitrage peut ainsi réfléchir la lumière pour donner un aspect métallisé ou au contraire éviter les reflets pour ne pas gêner la vision. Il peut aussi contrôler les échanges de chaleur avec l'extérieur, en réfléchissant le rayonnement infrarouge tout en laissant passer la lumière visible. On trouve aussi de plus en plus de vitrages «intelligents », dont la transparence varie en fonction d'un stimulus optique photochromisme ou électrique électrochromisme.
Comment fait-on du verre incassable?
« Cassant comme du verre » ou «fragile comme du verre »: la popularité de ces expressions ne doit rien au hasard.Le verre est un matériau fragile, qui se brise lors d'un choc un peu violent. En fait, le verre se casse lorsqu'on l'étire mais pas quand on le comprime. Un éclat se produit à l'endroit du choc, mais le verre ne se casse que si la fissure se propage dans tout le matériau.
Pour éviter cela, il faut créer des forces de compression qui en maintiennent les bords. On y parvient par trempe thermique, en soufflant de l'air froid sur une pièce de verre recuite à 650 °C. Le verre, dilaté au chauffage, se fige plus rapidement en surface donnant une couche moins dense que le cœur, ce qui engendre des forces de -compression superficielles. Un verre ainsi trempé peut être cinq fois plus résistant qu'un verre ordinaire. De plus, lorsqu'il se brise, il donne de multiples petits éclats peu coupants, d'où le nom de «verre sécurit».
On peut aussi réaliser une «trempe chimique» en plongeant un verre sodique dans un sel de potassium fondu. Le remplacement superficiel des ions sodium par des ions potassium, plus gros, engendre là aussi des forces de compression à la surface du verre. Une autre solution encore consiste à réaliser un verre feuilleté constitué de couches successives de verre et d'un polymère organique, le butyrate de polyvinyle, ou de résine organique. Les feuilles plastique limitent la propagation des fissures et, en cas de bris, maintiennent la cohésion du vitrage. On peut même insérer des fils métalliques très fins entre les feuillets de façon à intégrer le vitrage dans un système d'alarme ou de chauffage. L'application la plus importante du vitrage feuilleté est le pare-brise automobile.
Comment fabrique-t-on une vitre?
Rien de plus simple que de façonner du verre. En regardant un souffleur de verre, on constate comme ce matériau est flexible et peut adopter les formes les plus compliquées. Alors, quoi de plus facile que de réaliser un «verre plat» pour faire une vitre ou un miroir? Il suffit de couler le verre fondu sur une surface plane et, le cas échéant, de l'écraser à l'aide d'une plaque de bois humide. C'est sans doute ainsi qu'étaient faits les petits fragments de verre plat que l'on a retrouvés dans les ruines de Pompéi, détruite au Ier siècle de notre ère. Cependant, les surfaces ainsi obtenues étaient petites. Étrangement, la technique du soufflage du verre, découverte lors des dernières décennies avant l'ère chrétienne, a connu un développement beaucoup plus important, comme en témoignent les nombreux vases que l'on retrouve dans les fouilles archéologiques. Et c'est en fait à partir de ces «verres creux » que pendant des siècles on fabriqua les vitrages. Mais comment transformer une surface courbe en un plan? Deux méthodes ont été mises au point concurremment au XIVe siècle. La méthode «bohémienne» consistait à souffler un «manchon» cylindrique que l'on découpait ensuite selon une génératrice avant de le dérouler. Dans la méthode «normande», on soufflait une sphère que l'on faisait tourner rapidement autour de la canne de façon à l'aplatir comme une galette. On obtenait alors un verre en «couronne » reconnaissable à son renflement central.
Ces procédés peuvent paraître compliqués. Ils ont pourtant été utilisés jusqu'au XIXe siècle. Évidemment il n'était pas possible d'obtenir de grandes surfaces, d'où la taille très réduite des vitrages des fenêtres médiévales ou la fragmentation des vitraux des cathédrales. Il fallut attendre la fin du XVIIe siècle, pour qu'un verrier français ait l'idée de couler le verre fondu sur une plaque métallique. Ce procédé de «coulée sur table» est à l'origine de la Manufacture royale des glaces fondée par Colbert à Saint-Gobain, dans l'Aisne, en 1665. Malheureusement, le verre ainsi coulé n'est pas lisse, il faut le polir, par des opérations de «doucissage» longues et coûteuses.
La véritable révo-lution technologique pour fabriquer le verre plat est très récente. Elle date de 1952, lorsqu'un jeune ingénieur de 30 ans, Alastair Pilkington, eut l'idée de couler le verre directement sur un bain d'étain fondu, créant ainsi une inter-face parfaitement plane entre deux liquides. La feuille de verre obtenue est remarquablement lisse, et il n'est plus besoin de la polir. Ce procédé, connu sous le nom de «verre flotté» float glass en anglais est maintenant utilisé par tous les fabricants de vitrages. La production de «verre plat» en France est aujourd'hui de l'ordre du million de tonnes par an.
Par Jacques Livage
DOCUMENT larecherche.fr LIEN |
|
|
|
|
 |
|
LE DIAMANT |
|
|
|
|
|
diamant
(bas latin diamas, -antis, croisé avec adamas, -antis, aimant)
Diamants
Consulter aussi dans le dictionnaire : diamant
Pierre précieuse constituée de carbone pur cristallisé, très dur mais cassant, généralement incolore et transparent, utilisé soit en joaillerie, soit dans l'industrie.
Origine
Le diamant, variété cristallisée de carbone pur, s'est formé au cours de l'ère primaire, dans des cheminées volcaniques, sous la double action de pressions très élevées (plus de 100 t/cm2) et de températures supérieures à 5 000 °C. Sa dureté exceptionnelle lui a permis de traverser les siècles, noyé dans les laves bleues de la kimberlite ou enfoui parmi les sables alluviaux d'où on l'extrait aujourd'hui.
Caractéristiques
La valeur et l'identité d'un diamant sont déterminées par quatre caractéristiques : sa masse (exprimée en carats, le carat valant 0,2 g ; la valeur d'un diamant s'exprime « au carat » ; toutefois, plus il est gros, plus son prix au carat est élevé, car les pierres de plus de un carat sont les plus rares), sa couleur (les diamants les plus recherchés sont ceux qui ne possèdent aucune trace de couleur), sa pureté (une pierre est dite pure lorsqu'un œil exercé n'y décèle, à l'examen à l'aide d'une loupe grossissant 10 fois, aucune inclusion ni aucune particularité de cristallisation) et sa taille.
Diamant taillé
Le brillant, l'éclat, le jeu de lumière d'un diamant dépendent de la finesse de sa taille. Le diamant taillé fournit de très beaux effets de lumière (feux) en raison des valeurs élevées de son indice de réfraction (2,42 contre 1,76 pour le saphir ou 1,57 pour l'émeraude) et de son pouvoir dispersif. On le taille en rose (depuis le xvie s.), en brillant (depuis le xviie s.), en poire, en marquise, en ovale, etc. De nos jours, la plupart des tailles sont de 57 facettes, parfois à degrés (taille en émeraude, en baguette…).
Certains diamants sont célèbres. Le Régent (musée du Louvre), qui fut acheté en 1717 par le duc d'Orléans, est considéré comme le plus pur d'entre eux ; sa masse est de 137 carats (27,4 g). Le Cullinan (Tour de Londres), qui fut trouvé en 1905 au Transvaal, est le plus gros du monde ; sa masse brute, avant la taille, était de 3 106 carats (621,2 g).
Utilisations
Outre son utilisation dans la joaillerie et la bijouterie, le diamant trouve de plus en plus d'applications dans l'industrie, depuis que la fabrication de pierres de synthèse (inaugurée aux États-Unis en 1953) rend ce matériau moins coûteux.
Apprécié depuis longtemps pour sa dureté, le diamant sert notamment à fabriquer des outils de coupe (miroiterie, usinage) ou des têtes de forage (industries pétrolière et minière). Il est aussi recherché aujourd'hui pour ses autres qualités (résistance à l'échauffement, très bonne conduction de la chaleur, transparence). Ainsi, dans le secteur de l'armement, le diamant sert à fabriquer des coiffes de missiles : il résiste bien à l'échauffement de la tête du missile dans l'air tout en restant transparent à l'infrarouge, à l'ultraviolet et, dans une moindre mesure, aux rayons X et aux hyperfréquences.
Sa très bonne conductibilité thermique fait aussi du diamant un outil de choix pour les machines de découpe par laser. Quant à sa résistance aux rayonnements, bien supérieure à celle du silicium, elle intéresse tout à la fois l'armée, l'industrie nucléaire, l'astronomie et la médecine nucléaire. Pour l'avenir, l'industrie des composants électroniques fonde de grands espoirs sur l'utilisation du diamant comme semi-conducteur.
Production
La production mondiale est de l'ordre de 161 millions de carats par an, partagée entre les diamants pour la joaillerie, 90 millions de carats et les diamants industriels 71 millions de carats.
Pour les diamants de joaillerie, le Botswana vient en tête avec 32 millions de carats, devant la Russie 22 millions de carats suivie du Canada 12 millions de carats. L'Afrique du Sud vient au 6éme rang avec une production de 5,2 millions de carats. Anvers, les Émirats arabes unis, l'Inde et Tel Aviv travaillent les diamants bruts tandis que le marché des pierres polies et montées, tenu pour moitié par les États-Unis, voit la part de la Chine s'accroîtreà un rythme soutenu.
La République démocratique du Congo vient en tête pour la production des diamants industriels (22 millions de carats) devant la Russie et l'Australie (respectivement 15 et 14 millions de carats).
La production mondiale de diamants synthétiques est de l'ordre de 4 550 millions de carats par an, la Chine, avec 4 000 millions de carats venant loin devant les États-Unis (261 millions de carats) et la Russie (80 millions de carats).
DOCUMENT larousse.fr LIEN |
|
|
|
|
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 ] Précédente - Suivante |
|
|
|
|
|
|