ecole de musique piano
     
menu
 
 
 
 
 
 

LE L H C

 

LHC, un défi technologique sans précédent


physique - par Jacques-Olivier Baruch dans mensuel n°358 daté novembre 2002 à la page 68 (2689 mots)
Dans les 27 kilomètres de tunnel du futur LHC, les faisceaux de protons lancés à 7 milliards d'électrons-volts entreront en collision frontale pour recréer des conditions voisines du Big Bang. Les physiciens espèrent vérifier leurs théories, mais s'attendent aussi à quelques surprises. Le projet prend du retard et dépasse les 2 milliards d'euros.

Le pari est encore loin d'être gagné. Mais aujourd'hui, au pied des monts du Jura, près de Genève, à la frontière franco-suisse, les 2 600 physiciens, ingénieurs, informaticiens et techniciens du CERN, le laboratoire européen pour la physique des particules, oeuvrent ensemble pour mettre en oeuvre ce qui sera le plus grand accélérateur de particules au monde : le Large Hadron Collider LHC. Promoteur de ce projet gigantesque, le CERN a promis son ouverture pour l'année 2007.

Bâtir le LHC ? Une tâche difficile, ardue. Huit ans après la décision officielle, le projet a accumulé deux ans de retard et dépassé de 18 % son budget initial de 2,8 milliards de francs suisses environ 2 milliards d'euros. Témoin des difficultés que les ingénieurs et les physiciens du CERN rencontrent dans la mise au point de leur nouvel outil pour sonder la matière. Il faut dire qu'accélérer des centaines de milliards de protons à des vitesses proches de celle de la lumière, les faire se rencontrer 1 034 fois par seconde et analyser ces chocs dont l'énergie avoisine les 14 TeV* en détectant toutes les particules secondaires qui en ressortent, n'est pas une mince affaire sur le plan technologique. Surtout en ces temps de restrictions budgétaires pour les vingt Etats membres du laboratoire européen et cela malgré les apports financiers des Etats-Unis, du Japon, de la Russie, de l'Inde ou du Canada. Mais le LHC ne représente pas moins l'avenir du CERN, a estimé, le 21 juin dernier à Genève, le Conseil du laboratoire européen, qui a mobilisé à cet effet tout le personnel du centre de recherche. Le boson de Higgs, qui véhiculerait la masse des particules, n'a qu'à bien se terrer ! Le LHC pourra, espérons-le, aider les concepteurs de Susy, la théorie supersymétrique, à supplanter le modèle standard de la physique des particules et à résoudre la question de la masse manquante de l'Univers. De même, il pourrait se révéler un outil indispensable aux théoriciens des cordes pour dévoiler au monde les dimensions cachées de l'Univers.

Les physiciens en rêvent, mais ils n'en sont pas encore là. Pour l'heure, les bâtisseurs du LHC doivent faire face à des difficultés technologiques qui n'ont pu être totalement aplanies malgré les très nombreuses études qui se sont succédé depuis le début des années 1980. Quand, en 1994, la décision de construction est prise, le CERN se soucie d'économie : pas d'habitacle sur mesure pour le LHC mais une installation du nouvel accélérateur dans le tunnel du LEP, le collisionneur électron-positon, que l'on démontera. Premier défi technologique remporté par les ingénieurs : depuis février dernier, le tunnel circulaire de 26,659 kilomètres de circonférence, enfoui à environ 100 mètres sous la frontière franco-suisse, est vide après le démontage des derniers éléments du LEP.

Collision de protons

Ce ne seront donc plus des électrons et leurs anti-particules, les positons, qui seront lancés les uns contre les autres à une vitesse proche de celle de la lumière, mais des protons, 1 840 fois plus massifs. Dans le LHC, ils circuleront en sens inverse le long de deux faisceaux séparés qui ne se rejoindront qu'en quatre « places fortes » : les détecteurs ATLAS*, CMS*, ALICE* et LHC-b*. Les deux premiers détecteurs rechercheront le boson de Higgs, tandis qu'ALICE étudiera le plasma de quarks et de gluons né des interactions très énergiques entre des noyaux de plomb. LHC-b, quant à lui, recueillera des données sur l'apparent déséquilibre entre matière et antimatière.

Faire une place à ATLAS et CMS s'est révélé une tâche particulièrement complexe : notamment, les spécialistes du génie civil ont dû travailler alors que le LEP était encore en fonctionnement. Pour loger les deux dispositifs, deux gigantesques cavernes - et quatre puits de descente - ont dû être aménagées à même la molasse jurassienne un mélange de grès et de marne. 450 000 tonnes de déchets ont été évacuées et l'on a dû, parfois, congeler le sol pour éviter les infiltrations des sources souterraines. Les travaux d'excavation de la caverne d'ATLAS - 35 mètres de large, 55 mètres de long sur 40 mètres de hauteur - se sont terminés fin avril dernier. Non sans mal. Car, avec une telle hauteur de plafond, il a fallu creuser la caverne en deux fois ! Les entreprises suisse, allemande et autrichienne qui s'y sont attelées ont d'abord creusé le sol sur 12 mètres afin de pouvoir fabriquer la voûte, constituée de 11 000 tonnes de béton. Avant de continuer à creuser les 28 mètres restants, la voûte a été suspendue par 38 filins d'acier fixés dans des galeries d'ancrage situées 25 mètres plus haut. Reste aujourd'hui à terminer le bétonnage des murs de la caverne sur laquelle la voûte sera fixée définitivement... Et à commencer, à la fin 2003, à descendre les énormes détecteurs.

Supraconducteurs

Les quatre expériences devraient être prêtes pour l'ouverture du LHC en 2007, malgré de nombreux retards pris dans leur construction. Quant à préciser cette échéance... Tout dépendra de l'état d'avancement du coeur battant du nouvel accélérateur, l'anneau « lanceur » de protons. Le choix de ces particules massives, qui seront à la fois arme et cible, a un avantage... et beaucoup d'inconvénients. L'avantage est énorme : l'utilisation des protons permettra aux physiciens d'atteindre l'énergie colossale de 14 TeV par collision à comparer à la limite absolue d'environ 0,2 TeV atteinte par le LEP, le collisionneur circulaire d'électrons et de positons. Mais, revers de la médaille, la masse importante des protons a posé de nombreux problèmes technologiques lorsque l'on a envisagé leur accélération et leur maintien dans un faisceau étroit et circulaire de quelques millimètres de diamètre. Avec des aimants « normaux », la circonférence d'un accélérateur circulaire dévolu à cette tâche aurait dû avoisiner les 120 kilomètres ! Impossible, si l'on ne veut pas faire exploser les coûts. Dans le « petit » anneau circulaire de 27 kilomètres du CERN, la solution passe par la mise en oeuvre de champs magnétiques très puissants 8,33 teslas, susceptibles de dévier la trajectoire des protons de 0,6 millimètre par mètre. Même si cela ne s'est jamais fait à cette échelle, les ingénieurs n'avaient qu'une solution pour ne pas consommer trop d'énergie : les 1 248 aimants dipolaires de 15 mètres de long seront supraconducteurs. Ils n'opposeront ainsi aucune résistance au passage du courant intense requis de 50 ampères.

« Ce sont des objets technologiques extrêmement complexes », prévient le physicien du CERN Daniel Froidevaux. C'est le cas aussi des autres aimants - quadripolaires, sextupolaires ou octupolaires - qui doivent refocaliser les faisceaux de protons ou éliminer les courants de Foucault* induits dans les bobines. Il a fallu du temps - il en faut encore - pour concevoir et fabriquer en série ces dipôles supraconducteurs dont la bobine est constituée de câbles tressés de fils en niobium-titane insérés dans une matrice de cuivre. Pour la première fois dans l'histoire presque cinquantenaire du CERN, les prototypes ont été élaborés en collaboration avec des industriels qui ont évidemment remporté les marchés de leur fabrication. « Cette stratégie nous a permis d'obtenir une qualité très poussée tout en diminuant les coûts », affirme Luciano Maiani, le directeur général du CERN.

Le casse-tête technologique ne s'est pas arrêté là. L'un des aspects les plus ardus de l'entreprise LHC a consisté à se procurer 7 000 kilomètres de fils de bobines et à les tresser en câbles trapézoïdaux. Soit un poids total de 1 200 tonnes, ce qui représente, sur cinq ans, environ 30 % de la production mondiale de ces fils habituellement destinés aux appareils d'IRM imagerie par résonance magnétique nucléaire. Mais la qualité demandée pour l'accélérateur pureté, homogénéité, tressage des brins est bien supérieure. Sans compter que les 1 248 aimants doivent être identiques à 0,01 % près pour toutes leurs caractéristiques. Et, comme si la difficulté n'était pas assez grande, le câble doit être d'un seul tenant sur sa longueur de 650 mètres par aimant. S'il se cassait, comme cela s'est déjà produit, des morceaux d'au moins 165 mètres peuvent néanmoins servir aux câbles des aimants quadripolaires dont les spécifications ont été modifiées, dans ce sens, en 1995 : la récupération a du bon !

Hélium superfluide

Bris de câble ou de machine, problèmes de mise au point, défaut d'approvisionnement des fils, toutes ces raisons ont été invoquées pour justifier le retard d'environ un an pris par les industriels français Alstom-Jeumont, allemand Vaccumschmelze, italien Europa Metali, finlandais Outokumpu avec le Suisse Brugg et américain IGC. « Seul le Japonais Furokawa est ponctuel », précise Philippe Lebrun, le chef de la division LHC au CERN. Arrivés sur le site genevois, les câbles sont vérifiés, assemblés et retournés, avec tôles et divers composants, à Alstom-Jeumont, Noell ou Ansaldo afin qu'ils puissent finir d'assembler les aimants. Ce n'est pas aisé, car, pour cette première application des supraconducteurs pour des courants forts 50 ampères et des champs magnétiques pouvant atteindre 8,33 teslas, les bobines et les masses qui sont à leur contact doivent être immergées dans un bain d'hélium superfluide à 1,9 K - 271,3°C. Mis au point par un labo du CEA à Grenoble, le système de cryogénie est alimenté par une usine installée sur le centre genevois par l'Allemand Linde et le Français Air Liquide qui fournissent le fluide et le matériel acheté aux Tchèques et aux Japonais. Avec ses 27 kilomètres de tuyaux et ses 94 tonnes d'hélium, ce sera le plus grand centre de cryogénie au monde. Ses ingénieurs devront être attentifs au moindre changement de température pour conserver aux aimants leurs propriétés supraconductrices. Auparavant, il aura fallu ausculter les aimants un par un afin d'éviter que des points chauds ne se forment dans les bobines, rompant ainsi la supraconductivité et affaiblissant l'intensité du champ magnétique. Ces défauts sont habituels pour des câbles dont le tressage n'est pas exactement parfait. Avant de les déclarer bons pour le service, les ingénieurs du CERN doivent faire « quencher les aimants », c'est-à-dire provoquer l'apparition de ces points chauds afin que les fils supraconducteurs prennent leur place définitive et idéale. « On escompte bien obtenir 100 % de réussite. Mais on verra à la fin », avance le responsable des tests, Roberto Saban.

Ces tests sur aimants produits en série pour l'anneau accélérateur ne sont pourtant que routine par rapport à la mise en oeuvre de quelques exemplaires bien particuliers : les aimants des grandes expériences ATLAS et CMS. Leur conception a été internationale. Des travaux franco-anglais du CEA, de l'IN2P3 et du Rutherford Laboratory ont posé les bases, tandis que d'autres centres - INFN italien, ITH de Zürich Suisse, Fermilab américain - se sont chargés d'une partie des études de détail. Cette répartition des tâches résulte du système de financement de ces deux grandes expériences. Car, contrairement à l'accélérateur, le CERN n'est pas leur seul bailleur de fonds. Une grande partie de l'argent provient de pays volontairement contributeurs. Ainsi, ATLAS est le fruit du travail de 1 700 scientifiques issus de 150 laboratoires de 34 pays différents. CMS, pour sa part, n'a que 32 pays contributeurs. Un match met en compétition ces deux expériences similaires : il s'agit de rechercher le boson de Higgs et les éventuelles « sparticules » inventées dans le cadre de la théorie supersymétrique SUSY.

D'immenses détecteurs

Le gigantisme des deux installations est à l'image du défi à relever. Avec ses 12 500 tonnes, CMS est aussi massif que la tour Eiffel, aussi grand qu'un immeuble de cinq étages. Comme sa demi-soeur ATLAS, ce monstre ne doit rien perdre des quelque 100 000 particules issues de chaque collision proton-proton. Pour être le plus étanche possible, les énormes masses de métal et les instruments sont jointifs à quelques millimètres près. Une distance qui se réduit à rien, ou presque, quand les masses se déforment sous la force des champs magnétiques de 4 teslas 1 tesla pour ATLAS créés lors du fonctionnement du détecteur. ATLAS comme CMS sont formés de divers instruments installés en pelure d'oignon dans le but de détecter les diverses particules. Au centre, un trajectographe ou « tracker » détermine la trajectoire des particules chargées, leur vitesse, le signe de leur charge électrique et leur temps de vol depuis le point d'interaction. Viennent ensuite les calorimètres hadronique et électromagnétique. C'est par scintillation dans des cristaux transparents de tungstène et d'oxyde de plomb pour CMS, par ionisation dans un mille-feuilles de plomb plongé dans l'argon liquide pour ATLAS que seront détectés les électrons ou les photons issus de la désintégration du boson de Higgs... s'il existe. Seuls les neutrinos et les muons parviendront à s'échapper du système. Pas pour longtemps en ce qui concerne ces derniers. Une dernière couche les identifiera et mesurera leur impulsion et leur charge, tandis que les neutrinos seront comptabilisés par défaut en calculant la différence entre l'énergie de collision et la somme des énergies des particules détectées. Là encore, supraconductivité oblige, le tout est immergé dans un bain glacé à 4,5 K. Différence majeure entre les deux expériences ? Encore les aimants. Celui d'ATLAS est formé de trois fois huit bobines en forme de tore dont les plus grandes mesurent 25 mètres de long, une première mondiale pour la partie externe, et d'un solénoïde plus petit 2 teslas et 2 mètres de diamètre. Celui de CMS est plus classique mais plus robuste que ce qui a été fait auparavant : c'est un unique solénoïde, une grosse bobine de 7 mètres de diamètre fournissant un champ magnétique de 4 teslas. Afin de dissiper la chaleur, son câble de 2,5 kilomètres de long est inséré dans une matrice en aluminium pur à 99,998 %, elle-même enrobée de résine.

Garder la mémoire

Les obstacles ne sont pas seulement technologiques. Ils peuvent être aussi humains. Car un projet d'une telle envergure met à contribution plus de la moitié des physiciens des particules du monde : il faut communiquer, se comprendre, réaliser les documentations explicatives en même temps que les divers instruments. « Le LHC intègre des composants techniques réalisés dans toutes les régions du monde, avec des normes et des savoir-faire différents », écrit Philippe Lebrun [1]. La mémoire technique est un enjeu fondamental dont il a fallu tenir compte dès le commencement : la plupart des physiciens-concepteurs partiront à la retraite avant l'arrêt de leur expérience ! De plus, les méthodes de travail diffèrent d'un pays à l'autre. Ce que les chercheurs connaissent depuis longtemps, les ingénieurs ont dû l'apprendre sur place. « Je reviens de Russie, raconte Jean-Pierre Rifflet, ingénieur au CEA. Outre la langue, les études effectuées ne sont pas conduites de la même façon. Mais on s'y fait grâce à la documentation ». D'où l'importance de la mise en place d'une mémoire du projet, baptisée EDMS Engineering data management system. Elle fera le lien entre les générations : en 2015, par exemple, le successeur d'un ingénieur russe qui a mis au point, au Fermilab américain, un aimant supraconducteur installé au LHC genevois pourra, grâce à ce système, prendre note des divers paramètres de fabrication et des éventuelles modifications et formuler des recommandations.

Avec ses aimants, sa cryogénie, le nombre de chercheurs impliqués dans ses expériences, le CERN aura collectionné les records. Ses concepteurs ont eu aussi la folie des grandeurs... informatiques. Afin de gérer les 1015 octets de données reçus chaque seconde lors du fonctionnement des expériences, il a fallu trouver des systèmes de sélection, de stockage, mais surtout de calcul. Les ordinateurs du CERN ne suffisant pas, les physiciens veulent utiliser tous les ordinateurs de la planète : grâce au concept de grille Grid testé actuellement, chaque événement pourra être analysé par l'un des ordinateurs disponibles dans les laboratoires de la planète les créateurs de l'Internet et beaucoup d'autres spécialistes se sont engagés dans leur mise en réseau. En somme, quand on n'a pas la possibilité de réaliser seul ses projets, autant utiliser les moyens des autres : cette simple loi s'impose à tous, y compris aux nouveaux pharaons des particules.

Par Jacques-Olivier Baruch

 

DOCUMENT       larecherche.fr       LIEN

 
 
 
 

UN CERVEAU ARTIFICIEL ...

 


UN   CERVEAU   ARTIFICIEL  ...

 

Dans les films de science-fiction, ils sont présents depuis longtemps, ces êtres artificiels doués d’une conscience semblable à celle des humains. Mais qu’en est-il dans la réalité ?
Imaginons que nous fabriquions un robot, appelons-le Robert, à partir d'un humain, disons Henri, volontaire pour devenir immortel. Pour ce faire, remplaçons petit à petit chaque partie du corps et du cerveau d'Henri par des prothèses électroniques et mécaniques diverses, en respectant scrupuleusement l'implémentation de chacun des états et transitions de ces éléments.


Image : © Dave Bredeson / Dreamstime
 

Dans la mesure où nous savons, par exemple, reproduire avec une très belle précision le fonctionnement d'un neurone, retirer un neurone biologique à Henri en le remplaçant par un neurone artificiel biologiquement plausible n'est pas un défi insurmontable. Ce sera toujours Henri, avec juste une microscopique prothèse neuronale à laquelle il ne fera pas plus attention que si nous lui avions posé une prothèse osseuse ou une greffe organique.

Voilà qui est encourageant ! Alors passons au deuxième neurone, puis à la dizaine, et ensuite... à la centaine, au millier, aux millions, aux milliards, et voilà Henri avec le tissu biologique de son cerveau remplacé par de l'électronique à peine futuriste. Si nous remplaçons en même temps le reste de son anatomie, Henri sera devenu un complet humanoïde. Mais, mmm... pouvons-nous encore dire « Henri » du reste ? Ne serait-ce pas plutôt quelque « Robert » ? Mais alors où, quand, comment s'est effectué le basculement ? Qui est devant nous : Henri en pleine conscience d'être resté lui-même ? Ou bien un zombie sans conscience de soi, qui n'est plus qu'une « intelligence mécanique » au sens le plus rudimentaire du terme ? Ou encore un « autre » être, un Robert qui a émergé de cette transformation artificielle ?

Ce qui est peut-être le plus étonnant ici, c'est que cette expérience de pensée n'est pas une facétie, mais a été avancée de manière tout à fait sérieuse par David Chalmers lorsqu'il a cherché à fonder l'étude de la cognition (voir sur Interstices le document Calculer / penser). La même expérience de pensée a été réfutée de manière tout autant sérieuse par un des plus grands philosophes de l'esprit, John Searle (voir Le cerveau, un ordinateur ? ).

Dans les deux cas, nous sommes bien au-delà des mythes de Frankenstein, du Golem ou de Pinocchio, de ces archétypes qui nous donnent facilement envie de croire à l'émergence d'une intentionnalité dès lors qu'un système trop complexe ou mystérieux se met à fonctionner en dehors de notre contrôle immédiat. Car cette controverse est une vraie problématique, par exemple pour les scientifiques qui travaillent en neurosciences computationnelles, cette nouvelle science du cerveau née des sciences informatiques. On constate en passant que l'informatique nous conduit à penser autrement des questions fondamentales à propos de notre esprit (voir La pensée informatique) .

Alors, ce robot humanoïde doté d'un cerveau artificiel à notre image... fait-il partie de notre futur ?

Il a contre lui l'argument de la complexité. Chez l’homme, on compte environ 100 milliards de neurones organisés en un réseau complexe qui connecte chaque cellule à environ mille à dix-mille autres, tandis qu'à chaque connexion correspondent des molécules définies par des centaines d’éléments. Pour se donner un ordre d’idée, c'est donc à un potentiel de plus de 1011 × 104 × 103 = 1018 éléments d’information que correspond l'information de notre cerveau. Un cerveau est donc un objet incommensurablement complexe. Le 21e siècle sera probablement le siècle de l'exploration et de la compréhension de cet incommensurablement complexe, comme le 20e siècle le fut pour l'incommensurablement petit de la matière et l'incommensurablement grand de l'espace. Pour l'heure, cet objet incommensurablement complexe, bien mieux structuré que tous les ordinateurs du monde, est donc bien au-delà de la portée de nos technologies les plus sophistiquées. Pour faire un nouveau cerveau intelligent, nous autres humaines et humains n'avons de solution à notre portée que de faire un bébé.

Il a contre lui aussi l'argument de l'évolution des espèces. Notre cerveau n'a pas vraiment entre 0 et 100 ans, car il ne s'est pas simplement développé depuis notre naissance, mais depuis des millions d'années, à travers l'évolution des espèces animales. Les capacités cognitives des systèmes nerveux ont émergé de myriades d'interactions sensori-motrices avec l'environnement, pour le pire en ce qui concerne les espèces disparues, pour le meilleur en ce qui concerne les branches survivantes dont nous sommes issus. Et donc, quels que soient les phénomènes qui ont conduit à l'apparition de notre cerveau, le moins qu'on puisse dire est que cela a pris un temps et un nombre d'essais-erreurs vertigineux.

Mais ces deux arguments ne sont pas les plus importants. Ils dénotent surtout une incompréhension des phénomènes associés à la complexité et de la manière de produire des systèmes complexes.

Les systèmes complexes sont fascinants car ils sont dotés de propriétés de stabilité, de robustesse, d'auto-référence, voire de reproduction, que nous aimerions maîtriser. Il est cependant aussi connu que ces propriétés ne sont pas présentes dans chacune des parties du système, mais dans leur assemblage, produit émergent de la dynamique de l'interaction de ces parties. Ceci est d'ailleurs une autre définition des systèmes complexes.

L'émergence est donc le mot-clé à mettre en avant ici. Ces propriétés que l'on cherche à reproduire, il ne faut pas les construire, il faut créer les conditions de leur émergence. En ce qui concerne le cerveau, ses propriétés émergentes vont des plus concrètes, par exemple, le groupement perceptif (c'est-à-dire l'assemblage de fragments perceptifs élémentaires permettant la sensation de perception d'un objet unique), à la plus abstraite, l'intelligence. Il ne s'agit là en aucune manière de s'attaquer directement à la réalisation de ces propriétés, mais bien à la réalisation du support qui pourrait leur donner naissance.

Une autre caractéristique de cette émergence est le nombre important d'agents élémentaires nécessaires à sa réalisation, qu'il s'agisse de neurones pour les fonctions cérébrales ou d'individus pour des fonctions sociales collectives. Les nombres à dix chiffres et plus peuvent bien sûr donner le vertige, mais, là aussi, réaliser un système de grande taille pour profiter de ses propriétés émergentes n'implique pas de reproduire un plan exact point à point, mais de développer de manière générique un motif avec des règles de fonctionnement locales. Créer une organisation sociale ne se fait pas en recopiant une société existante point à point, mais en définissant des règles de communication entre les individus. Créer un modèle de structure cérébrale ne doit donc pas se concevoir comme l'interconnexion de millions de neurones artificiels, mais comme la définition des règles de communication locales entre neurones que l'on déploie ensuite à grande échelle. Il ne faut pas oublier que, avant ses premières expériences sensorielles, l'architecture du cerveau d'un nouveau-né est codée dans ses gènes : il n'y a clairement pas assez de place pour la quantité d'information nécessaire au plan de câblage précis de millions de neurones, mais plutôt des indications génériques permettant de guider des faisceaux d'axones vers leurs cibles de connexion. Notons également que cette mise en perpective permet aussi de relativiser l'expérience de pensée de David Chalmers : dans ce contexte, remplacer un neurone en le reconnectant précisément n'a pas vraiment de sens...

Bien que ce point soit moins important ici, nous pouvons également relativiser l'autre crainte liée à la difficulté de reproduire la complexité, par insuffisance de la technologie actuelle. Maintenant que ce problème a été ramené à la reproduction extensive de modules de calcul locaux, nous sommes déjà beaucoup plus proches des techniques d'intégration de l'électronique. Quant à la quantité de processeurs nécessaire à un hypothétique cerveau artificiel, les courbes d'évolution annuelle des plus gros calculateurs du monde montrent que nous sommes sur la voie de la puissance de calcul cérébrale.

Mais, au-delà de ces aspects technologiques, la présente discussion permet surtout de nous focaliser sur les vrais problèmes, qui ne sont pas quantitatifs mais qualitatifs. La question du cerveau artificiel n'est donc pas relative à la masse de nos neurones qu'il nous faudrait reproduire, mais plutôt à la question des circuits locaux et des règles de plasticité qui régissent chacune de nos structures cérébrales. Et sur ce sujet, l'important est de souligner que les connaissances physiologiques nécessaires, voire parfois simplement anatomiques, ne sont pas toujours au rendez-vous. Pour autant, la balle n'est pas simplement dans le camp des neurosciences expérimentales : dans ce domaine comme dans de nombreux autres, la modélisation est devenue un outil d'investigation incontournable. Elle doit participer à la découverte des lois locales du cerveau. Et c'est ainsi que nous nous approcherons également d'une possible conception d'un cerveau artificiel.

Alors, existera-t-il un jour on non, ce cerveau artificiel ? À l'heure actuelle, impossible de le dire... Une chose est sûre, il n'est pas pour demain !

 

DOCUMENT       interstices.info       LIEN

 
 
 
 

LE PREMIER ORDINATEUR ...

 

Le premier ordinateur copiait le cerveau humain


autre - par PHILIPPE BRETON dans mensuel n°290 daté septembre 1996 à la page 80 (2658 mots) | Gratuit
La naissance de l'ordinateur est classiquement datée de 1946, avec l'apparition de l'ENIAC. Mais celui-ci, fonctionnant sur le principe du boulier, n'était en fait que le dernier des calculateurs. La primauté devrait plutôt être accordée au Mark 1, dont l'architecture tranche radicalement avec la lignée de ses prédécesseurs. De plus, cette machine fut conçue comme une copie du cerveau humain - ou de la représentation qu'on s'en faisait alors : pour les fondateurs de l'informatique, dont le principal est John von Neumann, la structuration logique de la pensée pouvait être reproduite en dehors du cerveau.

Dans quelles circonstances, dans quel environnement intellectuel et surtout avec quelle intention l'ordinateur a-t-il été conçu ? Pour répondre à ces questions, il faut revenir à l'événement lui-même : quelle est la machine qui peut prétendre au titre de premier ordinateur ?

En célébrant en février 1996 le cinquantenaire de la naissance de l'ENIAC, on a accordé la primauté à ce calculateur électronique mis en chantier à l'université d'Aberdeen Etats-Unis dès 1943. Mais d'autres voient dans le Mark 1, conçu à l'université de Manchester par une équipe à laquelle participait le mathématicien anglais Alan Turing, le premier dispositif de calcul et de traitement de l'information. Il fut élaboré d'après les plans rédigés en juin 1945 par John von Neumann, professeur à l'université de Princeton. Ces plans décrivaient une machine aux principes révolutionnaires, bien différente de l'ENIAC.

Pour trancher ce débat, dont l'intérêt dépasse largement un simple problème de datation, il faut savoir ce qui fait la spécificité de cette nouvelle machine.

Si l'on a présenté l'ENIAC comme le premier ordinateur, cela est dû à deux facteurs. Le premier est l'importante publicité que lui a donné la presse américaine dans l'immédiat après-guerre. On a présenté au public américain une machine dont la caractéristique principale était son extraordinaire rapidité de calcul. Les esprits furent frappés par l'annonce qu'elle mettait moins de temps à calculer la trajectoire d'un obus que celui-ci pour parvenir à sa cible. Cette médiatisation intense a laissé des traces, au point que les médias d'aujourd'hui, plus fidèles sans doute à l'histoire de l'information publiée qu'à celle des techniques, ont fait de l'année 1996 le cinquantenaire de l'invention de l'ordinateur.

Le deuxième facteur tient à ce que l'ENIAC serait le premier « calculateur électronique » , c'est-à-dire la première machine à avoir utilisé le déplacement canalisé des électrons, sous la forme des « tubes à vide » * hérités de la radioélectricité, et qui servirent de première étape sur le chemin menant aux transistors. Certes, l'Américain John Atanasoff avait déjà recouru, dès 1939, à cette technologie, en concevant avec Clifford Berry l'ABC Atanasoff Berry Computer , qui comptait 270 tubes à vide. L'ABC, conçue pour résoudre des équations différentielles, des équations linéaires et des tables de tir, n'était cependant pas programmable. L'ENIAC ne l'était pas davantage, mais fut la première machine à utiliser les tubes à vide sur une grande échelle plus de 17 000. L'engin des ingénieurs d'Aberdeen peut donc être considéré comme le premier calculateur électronique véritablement opérationnel, distinct d'un dispositif expérimental.

S'agit-il pour autant d'un ordinateur ? Si l'on prend comme critères le fait qu'il est électronique et qu'il calcule plus rapidement que tous les dispositifs connus jusque-là, la réponse est oui. Mais ces deux critères sont-ils suffisants pour caractériser la rupture technique que constituent les ordinateurs modernes, que l'on a d'ailleurs longtemps appelés « machines de type von Neumann » ?

L'analyse détaillée du principe de fonctionnement de l'ENIAC et de son organisation logique interne permet de constater que le changement proposé par John von Neumann en juin 1945 et qui ne fut pas mis en oeuvre sur la première version de l'ENIAC ne constitue pas une simple amélioration, mais un véritable changement de nature, à la fois dans la manière de faire des calculs et par l'ajout de la capacité à traiter de l'information, ce que l'ENIAC, simple machine à calculer, ne faisait pas.

Le fossé entre les deux conceptions marque un changement de paradigme. On pourrait même soutenir que l'ENIAC est le dernier représentant d'une lignée dépassée, celle des calculateurs, alors que la machine imaginée par von Neumann inaugure une nouvelle lignée, l'ordinateur, appelée au succès que l'on sait. Que l'ENIAC utilise une technologie électronique ne change rien à l'affaire. Ni qu'il ait fallu attendre juin 1948, notamment en raison de la diminution des crédits militaires dans l'immédiat après-guerre, pour réaliser le premier prototype de la nouvelle machine, le Mark 1, travail effectué par une équipe anglaise conduite par Max Newman à l'université de Manchester. Incidemment, le Mark 1 ne doit pas être confondu avec son quasi-homonyme, le Harvard Mark 1 , produit en 1943 par l'équipe du professeur Howard H. Aiken et qui n'était qu'un calculateur électromécanique, sans mémoire ni électronique.

La seule nuance qu'il faut apporter à ce raisonnement, qui exclut l'ENIAC de la lignée des ordinateurs, tient à ce que quelques mois après l'inauguration du Mark 1, en septembre 1948, von Neumann et Herman Goldstine, après avoir « bricolé » l'ENIAC, en rapprochèrent le principe de fonctionnement de celui de l'ordinateur, sans toutefois en changer véritablement la structure interne. Si donc il fallait à tout prix rechercher la date du cinquantenaire de l'invention de l'ordinateur, celle-ci serait plus proche de 1998 que de 1996...

Quelle différence y a-t-il à l'époque entre un calculateur ordinaire de type ENIAC et la nouvelle machine de von Neumann ? D'une part les deux machines n'ont pas, et de loin, la même structure logique interne. D'autre part, alors que les ingénieurs voulaient simplement construire une machine à calculer plus performante, Turing, von Neumann et d'autres, veulent réaliser une réplique du cerveau humain. Leur démarche heuristique est largement guidée par cette analogie.

L'ENIAC Electronic numerator integrator analyser and computer fut mis en chantier à la Moore School de l'université de Pennsylvanie, par J. Prosper Eckert et John W. Mauchly, dès juin 1943, dans le cadre d'un financement de l'armée américaine. Elle sera inaugurée le 15 février 1946. Sa grande originalité est bien l'usage massif de tubes à vide, 17 468 précisément - trait qui lui servira de vitrine auprès du grand public. Mais l'ENIAC fonctionne sur le principe ancien du boulier. Il peut paraître surprenant d'établir une telle comparaison ; il y a pourtant une incontestable continuité sur le plan du principe technique entre les machines à calculer depuis l'antique boulier, même s'il s'est croisé avec la mécanique à partir de la machine de Pascal, avant de s'appliquer, plus tard, à l'univers de l'électromécanique, puis à celui de l'électronique. La technologie utilisée change au cours du temps et se coule en quelque sorte dans les systèmes techniques qu'elle traverse. Dans l'ENIAC, l'unité de calcul, nommée « accumulateur » , est ainsi constituée de plusieurs rangées de dix tubes électroniques disposées en anneaux : un premier anneau de dix pour les unités, un deuxième anneau pour les dizaines, un troisième pour les centaines, et ainsi de suite. Si, par exemple, on introduit le chiffre 7, le septième tube du premier anneau s'allume. Si l'on ajoute le chiffre 6, la machine part du septième tube, allume le premier tube des dizaines et le troisième des unités, ce qui produit le chiffre 13. De même, conformément au principe du boulier, il faut introduire les demandes d'opérations une à une, puisque la machine n'a pas d'autres mémoires que celles nécessaires au stockage des résultats d'opérations en cours.

Ce décalage entre les technologies utilisées et le principe d'organisation de la machine sauta aux yeux de von Neumann lorsqu'il rendit visite à l'équipe de la Moore School, en septembre 1944, sur l'invitation d'un de ses membres, Herman Goldstine, qu'il avait rencontré par hasard sur un quai de gare. Eckert et Mauchly prévoyaient que le mathématicien porterait son attention à l'architecture interne de la machine plutôt qu'à de stricts problèmes de mise au point. C'est effectivement ce qu'il fit. Une collaboration s'établit alors pour plusieurs mois, dans le cadre d'un nouveau contrat avec l'armée. Elle aboutit à la rédaction en commun d'un texte décrivant une machine de structure radicalement différente : l'EDVAC Electronic discrete variable computer 1 comportant trois innovations majeures, qui caractérisent toujours l'ordinateur moderne : - elle est dotée d'une vaste mémoire, qui ne conserve pas seulement les données sur lesquelles vont s'effectuer les calculs mais aussi les instructions dont elle a besoin pour opérer. Jusque-là, les calculateurs n'avaient qu'une très faible mémoire et on devait leur fournir les données les unes après les autres ; - cette mémoire comporte un « programme enregistré ». Au lieu d'indiquer à la machine ce qu'elle doit faire au fur et à mesure, on stocke dans la mémoire de la machine un ensemble d'instructions le programme. Ces instructions sont de plus rangées « physiquement » dans la machine sous la même forme que les données; - une unité de commande interne a pour mission d'organiser l'ensemble du travail que la machine effectue, ainsi que les échanges de données avec l'extérieur. La gestion des opérations est ainsi transférée à la machine, sous la forme d'un programme spécifique.

Une autre originalité de la machine de von Neumann est qu'elle traite le calcul comme de l'information. Contrairement au point de vue commun selon lequel l'ordinateur « calcule de l'information » , un ordinateur effectue des opérations logiques : les opérations de calcul numérique y sont dès l'origine traduites et traitées sous la forme d'un petit nombre d'opérations logiques binaires. Dans ce sens, l'ordinateur se caractérise comme une machine à traiter logiquement de l'information dont la première application a été de « simuler le calcul » . Le grand intérêt de la nouvelle machine est d'ailleurs là : la simulation du calcul est plus rapide et plus performante que le calcul lui-même.

Von Neumann suit ici les développements opérés dès 1936 par le jeune mathématicien anglais Alan Turing. Celui-ci est à l'origine de l'idée de programmation moderne : dans sa thèse publiée en 1936, il décrit la « machine de Turing », dispositif mathématique simple permettant de résoudre tous les problèmes calculables. Turing, qui voulait lui aussi « construire un cerveau » , pensait que celui-ci fonctionnait par « changements d'états » et avait donc imaginé une programmation pas à pas des problèmes à résoudre. L'impulsion de Turing a été ici décisive. Comme l'a signalé un de ses biographes, Andrew Hodges, « pour notre mathématicien, quoi que fasse un cerveau, il le fait en fonction de sa structuration logique et non parce qu'il se trouve à l'intérieur d'un crâne humain... Sa structure logique devait être parfaitement reproductible dans un autre milieu 2. » Dans cette optique, von Neumann considère que le raisonnement humain est le résultat d'un traitement d'information au niveau neuronal et que celui qui comprendrait les modalités de ce traitement serait à même de construire un cerveau artificiel comparable en tout point au cerveau humain. Cette analogie s'inscrit dans le courant de pensée ouvert en 1942 par le mathématicien américain Norbert Wiener et connu sous le nom de « cybernétique3 », qui va d'ailleurs en faire l'un de ses chevaux de bataille.

Ainsi, à chaque point crucial de son texte sur les « plans de l'EDVAC », von Neumann se réfère directement au fonctionnement du cerveau humain qui lui sert à l'évidence de modèle. Cette analogie, ignorée des historiens des techniques, est pourtant capitale pour comprendre la genèse de l'ordinateur. Les « plans de l'EDVAC » témoignent du fait que le choix de l'architecture de la machine, des tubes à vide électroniques et d'un fonctionnement « pas à pas » est déterminé par la volonté de construire un « cerveau » le plus proche possible du cerveau humain. Le choix du langage binaire, par exemple, découle tout naturellement, pour le mathématicien de Princeton, de l'idée alors courante que les neurones humains fonctionnent selon le principe du tout ou rien. De même, l'architecture de la nouvelle machine se présente comme une reproduction de la cartographie logique du cerveau - du moins de la représentation que von Neumann s'en faisait, comprenant donc une unité de calcul, des unités d'entrée-sortie, une unité de contrôle logique et une vaste mémoire comme dans le cerveau humain. Von Neumann est enfin persuadé que les tubes à vide peuvent constituer un strict équivalent des neurones humains. Il semble d'ailleurs qu'il se soit rapproché de l'équipe de l'ENIAC parce que ceux-ci maîtrisaient la technologie des tubes à vide.

Von Neumann nous propose, à travers l'ordinateur, les plans du cerveau tel qu'il les voit à partir d'un vaste mélange de croyances, d'introspection et de connaissances diverses. Obsédé par l'idée de construire ce qu'il appelait, selon l'un de ses biographes, Steve Heims4, une « extension de lui-même », le mathématicien courait en effet les congrès de psychologie et de neurophysiologie, avide de connaissances sur ce continent en grande partie inconnu, le cerveau. Comme le rapporte sa femme Klara, « Johnny et ses collaborateurs essayèrent d'imiter certaines des opérations du cerveau humain. C'est cet aspect qui l'amena à étudier la neurologie, à chercher des collaborateurs dans le domaine de la neurologie et de la psychiatrie, à fréquenter de nombreuses réunions sur ces sujets, et enfin à donner des conférences sur les possibilités de reproduire un modèle très simplifié du cerveau vivant5 ». Son invention serait ainsi le produit d'un mouvement d'« extrospection », sorte d'introspection à l'envers, consistant en une projection dans l'architecture de la matière des savoirs et des croyances qu'il possédait sur le cerveau.

Le plus étonnant, peut-être, est que les connaissances concernant le cerveau sur lesquelles von Neumann s'appuyait étaient assez floues, et, pour tout dire, très intuitives. Cela n'empêcha pas la machine qu'il construisit sur cette base de fonctionner. Nous touchons probablement là un des mystères de l'esprit humain qui fait qu'à partir de données fausses, incomplètes ou largement partielles, il est malgré tout possible de mettre au point un dispositif opérationnel. Il reste à savoir si celui-ci peut véritablement être comparé à un cerveau humain.

L'invention de l'ordinateur sera en tout cas présentée au public au moyen de cette analogie, comme si cette dernière était découverte après coup, alors qu'elle est première dans l'esprit de von Neumann, de Turing ou de Wiener. Ainsi, dans le premier texte qui annonce au public français, le 28 décembre 1948, l'existence d'une machine à traiter universellement l'information, le physicien français par ailleurs père dominicain Dominique Dubarle soutient que l'analogie entre le cerveau et l'ordinateur « n'est même pas seulement organique, elle est aussi fonctionnelle et quasi mentale : les machines ont pour ainsi dire comme leurs réflexes, leurs troubles nerveux, leur logique, leur psychologie et même leur psychopathologie. Un claquage de circuit se traduit par un résultat erroné, des erreurs dans les circuits de contrôle peuvent désorganiser tout le fonctionnement d'un organisme partiel de calcul, des failles dans le programme peuvent retentir sous forme d'une véritable folie de la part de la machine, s'emportant alors dans un travail absurde jusqu'à ce qu'on y remédie. On devine quelles perspectives de pareils faits peuvent ouvrir à ceux qui étudient d'une part le fonctionnement du système nerveux, d'autre part les possibilités de réaliser des machines à exécuter les tâches de la pensée6 . » De nombreux textes du courant cybernétique, très productif dans les années 1950 et 1960, s'inspireront de cette comparaison, alors très à la mode, comme on le constate dans les actes du colloque international consacré par le CNRS en janvier 1951 au thème « Les machines à calculer et la pensée humaine7 ». Dans ce sens, on pourrait dire, forçant à peine le trait, que l'informatique découle de l'intelligence artificielle plutôt que l'inverse, même si, formellement, celle-ci ne naît qu'à la fin des années 1950.

La cybernétique et l'intelligence artificielle reprendront ainsi à leur compte le projet de construire une machine reproduisant le comportement humain qui, bien au-delà du XXe siècle, a nourri les espoirs des contemporains de l'ingénieur français Jacques de Vaucanson, promoteur au XVIIIe siècle d'un « homme artificiel » oudes magiciens mystiques qui, dès l'Antiquité, souhaitaient construire une créature « à l'image de l'homme ». Dans ce sens l'ordinateur moderne est autant le produit d'une ancienne tradition qu'une formidable innovation technique.

Par PHILIPPE BRETON

 

 DOCUMENT     larecherche.fr   LIEN

 
 
 
 

LES PARTICULES ÉLÉMENTAIRES

 

Les particules élémentaires


back to basic - dans mensuel n°306 daté février 1998 à la page 92 (3073 mots) | Gratuit
La quête de l'élémentaire occupe philosophes et hommes de science depuis plus de... vingt-cinq siècles ! Leucippe de Milet est le premier, en Occident, à définir l'atome comme la particule la plus élémentaire. Insécables car très petits, durs et incompressibles, les atomes de Leucippe, puis ceux de Démocrite, diffèrent par leur forme, leur arrangement et sont animés d'un mouvement continu, éternel et désordonné. Ils composent toutes choses, y compris l'âme. Epicure leur rajoutera une autre propriété, une sorte de pesanteur. Leur mouvement est, selon lui, régulier et dirigé vers le bas mais peut se trouver légèrement dévié. Cette théorie atomiste sera vivement combattue au Moyen Age par la tradition aristotélicienne qui préfère une vision du monde en quatre qualités primordiales le chaud, le froid, l'humide et le sec et une substance particulière omniprésente, l' aither . En Occident, la théorie atomiste gagne du terrain au cours des siècles. La publication en 1913 de l'ouvrage Les Atomes par Jean Perrin marquera finalement le triomphe de la théorie atomisteI.

La reconnaissance de la structure intime de l'atome démarre avec la découverte de l'électron, découverte qui fut l'aboutissement de travaux menés entre 1890 et 1900 en Angleterre, en Irlande, en Allemagne, en Hollande et en FranceII. En 1905, l'année où il conçoit la relativité restreinte, Albert Einstein propose de considérer la lumière comme un flux de particules élémentaires, de « quanta d'énergie localisés en des points de l'espace » , qui ont été appelés plus tard photons. L'existence de ces particules sera confirmée en 1923, par l'Américain Arthur Holly Compton*. Dix années plus tôt en 1911, une équipe de l'université de Manchester dirigée par Lord Rutherford démontre, à partir de données expérimentales le bombardement de feuilles d'or avec des atomes d'hélium chargés positivement que le centre des atomes est occupé par un noyau de très petite taille chargé positivement. En 1920, Rutherford baptise la charge positive du noyau proton . L'idée admise, à cette époque, est que le noyau contient les deux particules élémentaires, proton et électron. Mais douze années plus tard, James Chadwick, du laboratoire Cavendish à Cambridge, découvre à l'intérieur du noyau une particule électriquement neutre. Il la nomme neutron, celui-ci accède provisoirement au statut de particule élémentaire. L'idée qu'une sous-structure puisse exister à l'intérieur est venue ensuite naturellement... En 1964, Murray Gell-Mann et Georges Zweig élaboraient, de façon indépendante, le concept de quarks, constituants élémentaires des protons et des neutrons. Leur mise en évidence eut lieu dans les années 1970 aux Etats-Unis.

Une particule élémentaire ne peut se représenter - comme on le trouve encore souvent - par une petite bille. Entendons-nous : cette représentation naïve n'est pas incorrecte lorsqu'on se place dans le cadre de la mécanique classique ; la matière macroscopique n'est-elle pas symbolisée par les physiciens comme un ensemble de points matériels, de lieux où se concentre la masse ? En électromagnétisme, les mouvements de ces points peuvent être décrits grâce au concept de champ introduit par Faraday au milieu du XIXe siècle. Structure infinie étendue à l'ensemble de l'espace et du temps, le champ est devenu au fil des années un concept fondamental pour comprendre la matière. Mais il pose un problème. Comment, en effet, concilier ce concept, fondé sur des équations qui reposent sur la continuité, et la notion de particule, par essence discontinue ? La théorie quantique des champs introduite dans les années 1930 résout l'antagonisme. Alors que la mécanique classique va observer un morceau de matière et se poser les questions : dans quel état est-il ? quelle est sa vitesse, son énergie ? La théorie quantique des champs renverse le point de vue en disant : voici tous les états qui peuvent être occupés ou pas par des particules dans le cadre d'une interaction, comment sont-ils occupés ? Les champs quantiques sont les opérateurs qui remplissent ou vident ces états. Remplir c'est créer une particule, vider c'est l'annihiler. La particule n'est donc plus un point matériel mais un échantillon, un digit de champ quantique défini pour un certain type d'interaction. La comparaison avec l'informatique n'est pas gratuite : la particule élémentaire est en quelque sorte, un 1 ou un 0 dans un programme informatique. Les échantillons de champ peuvent être des constituants de la matière, les fermions*, ou bien être des vecteurs d'interactions, les bosons*. Bosons et fermions ont des propriétés très différentes. D'abord, le moment cinétique* intrinsèque ou spin est nul ou entier pour les bosons et demi-entier pour les fermions. Ensuite les fermions sont impénétrables. Lorsqu'il y en a un quelque part, on ne peut pas en rajouter un autre au même endroit. La matière ne se superpose pas. Les bosons, au contraire, peuvent tous se trouver dans le même état, au même endroit. Le photon est un boson : on superpose des rayons lumineux.Le théoricien et l'expérimentateur ne voient pas et ne représentent pas la particule de la même façon. Une particule étant pour le théoricien un digit de champ, le concept premier est donc, pour lui, le champ et non la particule. La nature des champs quantiques est prédéterminée par les quatre interactions fondamentales et par les symétries qu'elles respectent voir tableau ci-dessous.
Que signifie pour une interaction respecter une symétrie ? Prenons l'exemple de l'électromagnétisme. Pour décrire l'interaction électromagnétique, le physicien utilise la notion de potentiel*. Une dérivation* par rapport aux coordonnées de l'espace lui permet de passer du potentiel au champ. De la même façon qu'une famille infinie de droites parallèles possède la même pente, il existe une infinité de potentiels qui donnent le même champ.
Tous ces potentiels sont identiques à une « origine près » : si l'on transforme un potentiel en un autre, les équations n'en sont pas affectées. En mécanique quantique, les physiciens utilisent le terme d'invariance ou symétrie de jauge* pour décrire ce type de transformation. Or, il se trouve - sans que nous comprenions vraiment pourquoi - que les quatre interactions fondamentales et les équations qui les décrivent respectent des symétries de ce type.
Ceci a, bien sûr, des répercussions sur les champs quantiques associés aux interactions et donc sur les propriétés des particules, les digits de champs. Ainsi, quand un théoricien pense particules, il pense symétries, interactions, champs.
Dans les équations, il symbolise les particules par des potentiels, fonctions de plusieurs paramètres comme le temps t ou la position x, y, z. Mais l'expérimentateur, lui, voit les particules bien différemment.
Une particule est, à ses yeux, une signature dans un certain type de détecteur, autrement dit une trace ou un ensemble de traces. Il la désigne par des lettres u, Z, t, n, e ...et non par des potentiels ou des champs quantiques.Parmi les particules connues, certaines sont présentes dans la nature, comme l'électron, particule constitutive des atomes de matière, ou comme le neutrino, particule neutre présente dans les rayons cosmiques*. D'autres n'auraient existé que dans les tout premiers instants de l'Univers et ne peuvent être détectées qu'auprès des grands accélérateurs ou collisionneurs. Pourquoi ? Imaginons, que nous voulions découvrir dans une structure, comme le proton, une sous-structure plus petite. Une première idée est de sonder cette structure en envoyant une ou des particules sondes sur elle. Ces particules sondes ont, selon la dualité onde-corpuscule* établie par Louis de Broglie en 1923, des longueurs d'onde associées. Or, nous savons qu'un phénomène ondulatoire n'interagit qu'avec des objets de dimension supérieure à sa longueur d'onde un nageur ne perturbe pas la houle, laquelle se trouve en revanche affectée par la marche d'un paquebot.... Pour sonder des objets petits, il faut donc envoyer sur eux des particules sondes de très courte longueur d'onde, ce qui signifie aussi très énergiques. Les accélérateurs cible fixe ou les collisionneurs cible en mouvement sont construits sur ce principe. Détaillons ce qui se passe dans un collisionneur où deux faisceaux de particules de haute énergie circulent en sens opposés. La collision entre deux particules des deux faisceaux produit un choc d'où émergent d'autres particules en vertu du principe d'équivalence entre masse et énergie, le fameux E = mc2, une des conséquences de la théorie de la relativité restreinte élaborée en 1905 par Albert Einstein.
Plus le choc est énergique, plus les particules créées sont massives... ce qui ne veut pas dire qu'elles sont plus grosses, au contraire ! Plus elles sont massives, au sens énergétique du terme, plus leurs dimensions, ou encore leur longueur d'onde associée est petite... La durée de vie des particules est si brève, quelque 10­20 s, qu'aucune caméra, aucun microscope n'est capable d'observer directement le résultat de la collision. Ce que les expérimentateurs détectent ce sont les produits stables de leur désintégration. Pour connaître leur position et leur énergie, ils placent autour du point de collision plusieurs détecteurs qui forment une structure géante en oignon voir schéma.
Ces dispositifs sophistiqués ont une faiblesse : ils ne permettent pas d'arrêter les particules non chargées et n'interragissant que faiblement, comme les neutrinos.Dans la théorie de la relativité restreinte, la masse est reliée à l'énergie et à la quantité de mouvement* pÆ de la particule de la façon suivante : E2 ­ p2=m2 en supposant c = 1, c vitesse de la lumière dans le vide. Dans cette équation m est la masse invariante de la particule, m = E si pÆ = oÆ ; m est donc la masse au repos. Si la masse de la particule est nulle, on a E = p, autrement dit une particule de masse nulle est une particule qui va à la vitesse de la lumière quel que que soit le référen- tiel.
Conclusion : une particule de masse nulle est une particule qui n'est jamais au repos !Elles existent puisqu'on les a observées ! D'abord dans le rayonnement cosmique, puis dans les accéléra- teurs et les collisionneurs. Mais l'existence des antiparticules avait été suppo- sée avant qu'on puisse les observer, à la fin des années 1920 par le physicien britannique Paul Dirac. Pour réconcilier la mécanique quantique et la théorie de la relativité, il imagina une particule d'énergie positive, de masse égale à celle de l'électron, mais de charge électrique opposée. L'anti-électron positon était né. Ce dédoublement purement théorique du monde en « particules-antiparticules », autrement dit en « matière- antimatière » fut expérimentalement confirmé dès 1932. Aujourd'hui, toutes les anti-particules des particules élémentaires connues ont été découvertes.
Une antiparticule possède la même masse, le même spin que la particule du même nom mais des charges opposées - « charges » au pluriel. Toute particule ou antiparticule porte, en effet, un certain nombre de charges charge électrique, charge de couleur, nombre baryonique, charge de saveur.... Ces nombres sont des sortes d'étiquettes qui définissent le comportement de la particule ou de l'antiparticule dans les interactions.
L'une des grandes énigmes de la physique actuelle est le déficit d'antimatière mesuré dans l'Univers. Si la matière et l'antimatière ont des propriétés symétriques, pourquoi la nature aurait-elle préféré la première à la seconde ?
En 1967, le physicien russe Andrei Sakharov a proposé une théorie pour expliquer cette dissymétrie.Deux types de particules existent à l'intérieur du groupe des fermions voir p. 95 : d'un côté les leptons, qui ne participent pas à l'interaction forte, de l'autre les quarks, de différentes saveurs et de différentes couleurs qui participent à toutes les interactions. Les charges de saveur six au total et de couleur trois au total des quarks déterminent leur comportement vis-à-vis respectivement de l'interaction faible et forte. Les bosons, vecteurs des quatre interactions fondamentales, sont le photon pour l'interaction électromagnétique, les gluons pour l'interaction forte qui lient les quarks entre eux, les bosons W+, W­ et Zo, porteurs de l'interaction faible, enfin le graviton, le boson de la gravitation. Fermions et bosons ont été regroupés en trois familles dans le modèle standard, cadre conceptuel permettant de prédire tous les phénomènes mettant en jeu les interactions fondamentales autre que la gravitation*. Curieusement, les deux dernières familles peuvent être vues comme des répliques de la première à un détail près : leur particule ne se distingue des particules de la famille n° 1 que par leur masse ! Un muon est un autre électron sauf qu'il est un peu plus lourd, un tauon est un muon encore plus lourd. C'est un peu comme si la nature avait bégayé trois fois... Les physiciens l'admettent : le modèle standard qu'ils ont construit aurait très bien pu fonctionner avec une seule famille de particules. Pourquoi alors y en a-t-il trois, et pas une ou cinq ? C'est d'ailleurs une des grandes questions de la physique contemporaine. Ce bégaiement de la nature n'est pas sans conséquences. Pour le comprendre, revenons sur les symétries. La théorie des champs quantiques implique l'existence d'une symétrie dite CPT, produit des symétries C on remplace la charge par une charge opposée, P on change le signe des coordonnées spatiales, et T on renverse le sens du temps. L'invariance de la physique par cette symétrie CPT pouvait laisser penser qu'il existait aussi une invariance par C, par P, par CP et par T, pris séparément. Or, l'interaction faible brise ce principe : elle n'est pas invariante par CP. Pratiquement, cela signifie que, dans certains processus de désintégrations radioactives, changer la charge d'une particule en la charge opposée et regarder le résultat dans un miroir inversion des coordonnées, est un processus qui n'a pas la même probabilité que le processus de départ... Cette brisure de la symétrie CP pourrait donc expliquer la prédominance dans l'Univers de la matière sur l'antimatière, laquelle a toujours la charge opposée à la matière. Les physiciens sont parvenus à montrer que, dans le cadre du modèle standard, la brisure n'est possible que s'il existe au moins trois familles de particules. Une ne suffit pas, deux non plus. Autrement dit, le bégaiement de la nature serait une des clefs de la prédominance de la matière sur l'antimatière dans l'Univers...Aucune ne l'est en principe. Elles peuvent en revanche être plus ou moins difficiles à observer, comme les neutrinos, ces leptons de charge électrique nulle. L'existence de ces particules neutres fut prédite par Wolfgang Pauli en 1932. Vingt ans plus tard, on découvrait le premier neutrino. Les neutrinos sont difficiles à observer car ils ne sont pas chargés et ne participent qu'à l'interaction faible : leur probabilité d'interagir avec la matière est par conséquent quasi nulle. Cette propriété complique aussi la mesure de leur masse, laquelle est peut-être nulle. La détection des quarks est, elle aussi, difficile même si ces fermions participent à toutes les interactions. Un quark ne peut s'observer directement pour la bonne raison qu'il se déplace toujours en bande, soit avec deux autres quarks, soit avec un antiquark.
Nous savons de plus qu'il existe trois couleurs possibles pour un quark ; or, ces couleurs sont telles que leur mélange par trois ou par deux produit des objets « blancs » - les seuls visibles d'après la théorie de l'interaction forte. Nous ne pouvons donc observer directement que les assemblages de quarks mais jamais les quarks isolés !Le physicien des particules ne peut répondre à cette question. Il peut certes prédire, grâce au modèle standard , un certain nombre de variables mais pas la valeur exacte des masses des particules. En revanche, la question « Pourquoi les particules élémentaires ont-elles une masse ? » occupe de nombreux théoriciens et expérimentateurs. En effet, d'après le modèle standard actuel, toutes les particules devraient logiquement être de masse nulle ! Pour comprendre cela, revenons quelques instants sur les propriétés d'invariance. Nous avons vu les quatre interactions fondamentales respectaient des invariances de jauge. Or, ces symétries imposent aux particules d'interaction, les bosons, d'être de masse nulle. C'est bien le cas du photon interaction électromagnétique ou des gluons interaction forte mais pas des bosons intermédiaires interaction faible très massifs 90 GeV, soit quatre-vingt dix fois la masse du proton. Pour expliquer ce phénomène, les physiciens ont inventé un nouveau champ quantique, le champ de Higgs, générateur de masse, et une nouvelle interaction associée, le mécanisme de Higgs. Pourquoi le champ de Higgs aurait-il rendu massives toutes les particules, à l'exception du photon et du gluon ? D'après le modèle standard, le phénomène correspond à une brisure spontanée de symétrie du champ de Higgs dans l'état fondamental stable qu'est le vide. C'est un peu comme si vous posiez une bille au fond d'une bouteille : l'état stable est trouvé lorsque la bille est à gauche ou à droite du cul de la bouteille état non symétrique, pas au-dessus état symétrique. Si le mécanisme de Higgs est valide, il faut alors imaginer l'existence d'une particule massive associée, le dénommé boson de Higgs. La course au boson de Higgs a d'ores et déjà commencé. Sa masse importante, quelques centaines de GeV, pourrait expliquer qu'on ne l'a pas encore découvert... Le grand projet de collisionneur à 14 TeV du CERN sera le test grandeur nature du mécanisme de Higgs.

Elémentaires, direz-vous ?
Pour certains physiciens, la structure de la matière en quarks, leptons et bosons pourrait n'être qu'une image encore très simplifiée de la réalité. Au plan théorique, le mécanisme de Higgs possède d'ailleurs de nombreuses inconsistances.
Une amélioration possible est d'envisager l'existence d'une sous-structure au sein des particules du modèle standard. Les énergies correspondantes seraient mille fois plus élevées que les énergies qui ont permis de mettre en évidence les quarks. Si elle existe, cette sous-structure doit impérativement être compatible avec toutes les observations réunies jusque-là. Une contrainte qui limite énormément l'ensemble des solutions mais qui laisse encore de la place à la discussion... Une autre façon d'améliorer le mécanisme de Higgs est l'idée qu'il existe deux autres bosons de Higgs donc deux autres champs quantiques de Higgs et surtout que chaque particule du modèle standard actuel possède un partenaire supersymétrique. Dans cette hypothèse, les bosons auraient des partenaires fermions, et les fermions des partenaires bosons. Tous ces partenaires supersymétriques auraient des masses de quelques centaines de GeV...
Ce nouveau dédoublement du monde après celui de la « matière-antimatière » sera testé sur le futur LHC au CERN. Mais l'imagination des physiciens ne s'est pas arrêtée là... Une approche, radicalement différente, proposée à la fin des années 1970, consiste à imaginer que les champs quantiques actuellement répertoriés ne sont que des approximations de basse énergie d'un phénomène que les physiciens désignent sous le terme de super-cordes.
Dans ce cadre conceptuel, les particules élémentaires actuellement repertoriées seraient des modes, des exci- tations d'une corde, objet fondamental étendu de très petite taille. Pour être étudié, ce modèle, sorte de théorie fondamentale ultime de la physique quantique, nécessiterait des énergies de 1019 GeV, soit l'énergie d'un Boeing 747 à sa vitesse de croisière concentré dans une particule ! La théorie des supercordes sera-t-elle validée aux basses énergies sur le LHC ? Certains en ont fait le pari.

 

 DOCUMENT       larecherche.fr       LIEN

 
 
 
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 ] Précédente - Suivante
SARL ORION, Création sites internet Martigues, Bouches du Rhone, Provence, Hébergement, référencement, maintenance. 0ri0n
Site réalisé par ORION, création et gestion sites internet.


Google
Accueil - Initiation musicale - Instruments - Solfège - Harmonie - Instruments - Musiques Traditionnelles - Pratique d'un instrument - Nous contacter - Liens - Mentions légales /confidentialité

Initiation musicale Toulon

-

Cours de guitare Toulon

-

Initiation à la musique Toulon

-

Cours de musique Toulon

-

initiation piano Toulon

-

initiation saxophone Toulon

-
initiation flute Toulon
-

initiation guitare Toulon