ALAN MATHISON TURING
 

 

 

 

 

 

 

Alan Mathison Turing

Mathématicien britannique (Londres 1912-Wilmslow, Cheshire, 1954).
Il fut un brillant logicien (→ logique) et l'un des pionniers de l'informatique et de l'intelligence artificielle.

1. De la logique mathématique à l'informatique

Fils d'un officier de l'armée des Indes, Alan Turing, âgé d'à peine 1 an, est confié à un couple de retraités qui va l'élever, ainsi que son frère John. Sa mère part, en effet, rejoindre son père, administrateur colonial à Madras. Ses parents ne regagneront définitivement l'Angleterre qu'en 1926 (mais reverront leurs enfants chaque année lors des vacances).
Réfractaire à la scolarité, le jeune Alan manifeste un désintérêt total pour les matières littéraires, mais un goût prononcé pour les disciplines scientifiques, en particulier pour la chimie, et de réelles dispositions pour les mathématiques. En 1931, il est admis au King's College de Cambridge pour y poursuivre des études de mathématiques ; il y obtient sa licence en 1934. Ses lectures ainsi que les cours du mathématicien Max Newman (1897-1984) et de l'astrophysicien Arthur Eddington lui font découvrir les grandes questions de la science moderne.

Les travaux de David Hilbert sur la recherche des fondements des mathématiques et ceux de Johann von Neumann sur les fondements mathématiques de la mécanique quantique stimulent son intérêt pour l'étude du déterminisme en physique et en mathématiques. Chargé de cours au King's College en 1935, il part l'année suivante à Princeton, aux États-Unis, préparer un doctorat de logique mathématique sous la direction d'Alonzo Church (1903-1995). Après avoir soutenu sa thèse, il regagne Cambridge, en juillet 1938.
L'un des problèmes qu' étudie Turing est celui, posé par Hilbert, de la possibilité pour une proposition mathématique d'être validée comme vraie ou fausse par un algorithme. Un article rédigé avant son départ aux États-Unis, mais publié seulement en janvier 1937, On Computable Numbers, with an Application to the Entscheidungsproblem (Sur les nombres calculables, avec une application au problème de la décision), constitue l'une de ses plus importantes contributions à la logique mathématique. L'auteur y élabore le concept d'une machine à calculer « universelle » (machine de Turing), qui est à la base de toutes les théories sur les automates et ouvre la voie à de nombreux développements de la théorie des algorithmes. Une opération n'est exécutable sur ordinateur que s'il existe une machine de Turing équivalente. Tous les ordinateurs étant des réalisations matérielles de cette machine universelle, Turing peut être considéré comme le fondateur de l'informatique.

2. Cryptologie, ordinateurs, intelligence artificielle

Pendant la Seconde Guerre mondiale, Turing contribue à l'effort allié, au sein du service britannique du chiffre, en mettant au point des machines et des méthodes qui lui permettent de percer les codes secrets de la machine Enigma utilisée par la marine allemande pour communiquer avec ses sous-marins (→ cryptographie). Envoyé secrètement aux États-Unis, il travaille aux Laboratoires Bell de New York (1943), où il rencontre régulièrement Claude Elwood Shannon, l'un des fondateurs de la théorie de l'information, avec qui il évoque des projets de machines qui imiteraient le fonctionnement du cerveau humain. Après son retour en Angleterre, il conçoit et réalise une machine électronique capable de crypter la voix humaine.

En 1945, il reprend ses recherches sur la conception des machines à calculer au Laboratoire national de physique britannique. Le projet de construction d'un calculateur électronique qu'il présente en 1946 marque, avec celui proposé quelques mois auparavant aux États-Unis par John von Neumann, l'acte de naissance de l'ordinateur. En 1947, Turing retourne au King's College et prend une année sabbatique pour suivre des cours de physiologie et de neurologie. Son intérêt pour les phénomènes de croissance animale ou végétale se développe ; ils deviendront son champ de recherche à partir de 1951. À l'automne 1948, il rejoint l'équipe d'informatique de l'université de Manchester et, durant les deux années suivantes, se consacre à des travaux de programmation électronique, tout en s'intéressant à l'intelligence artificielle.

En 1951, il est élu membre de la Royal Society. Cependant, la révélation de son homosexualité va bientôt briser sa carrière. Arrêté et inculpé en 1952 à la suite d'une aventure avec un jeune homme, il évite la prison en acceptant de subir un traitement de castration chimique, mais il est écarté des grands projets gouvernementaux. Le 7 juin 1954, sa femme de ménage le trouve mort, dans son lit, et remarque une pomme à moitié mangée posée sur sa table de chevet. L'enquête établit que le fruit a macéré dans du cyanure et conclut à un suicide par empoisonnement. La mère d'Alan Turing écartera pourtant cette thèse et soutiendra celle de l'accident, en arguant que son fils avait l'habitude d'entreposer chez lui des produits chimiques sans aucune précaution.

Suite aux nombreuses pétitions réclamant la réhabilitation de Turing, la reine Elizabeth II le gracie en 2013. Le gouvernement britannique considère aujourd'hui sa condamnation comme injuste et discriminatoire et salue son génie qui a contribué à sauver des milliers de vie. Depuis 1966, le prix Turing récompense chaque année une personne ayant apporté une contribution significative au monde de l'informatique. En 2015, la biographie d'Alan Turing est portée à l'écran dans le film Imitation Game.


DOCUMENT   larousse.fr    LIEN

 
 
 
  CRYPTOGRAPHIE
 


 

 

 

 

 

PLAN
    *         CRYPTOGRAPHIE
    *         Principes généraux
    *         Historique
    *         Les principales techniques
    *         La cryptographie à clé secrète
    *         La cryptographie à clé publique
    *         La cryptographie quantique


cryptographie

Consulter aussi dans le dictionnaire : cryptographie

Ensemble des techniques de chiffrement qui assurent l'inviolabilité de textes et, en informatique, de données.

Principes généraux
Un système de cryptographie adopte des règles qui définissent la manière dont les données sont encryptées ou décryptées. On distingue les techniques sans clé et celle à une ou deux clés. Une clé est une suite de bits qui sert au chiffrement et au déchiffrement des données. La clé est souvent produite à partir d'un mot (ou d'une phrase) de passe. Un algorithme qui n'utilise pas de clé n'offre une sécurité que tant qu'il demeure secret. Dans une méthode à base de clé, la protection ne dépend pas de l'algorithme de chiffrement, qui peut être largement divulgué, mais de la confidentialité de la clé. Les systèmes n'ayant qu'une seule clé s'en servent pour les deux sens, tandis que ceux qui en ont deux utilisent l'une, dite clé publique, au chiffrement et l'autre, dite clé révélée, au déchiffrement.

Historique
La cryptographie était déjà utilisée dans l'Antiquité romaine : Jules César la pratiquait dans certains messages en décalant chaque lettre de quatre rangs par rapport à sa place dans l'alphabet. Les premiers traités de chiffrement combinatoire remontent au ixe s. et sont l'œuvre du philosophe et savant arabe al-Kindi. Après lui, les hommes de la Renaissance ont poursuivi l'étude de cet art du message secret, dont l'intérêt politique ne leur avait pas échappé. Mais il a fallu attendre la Seconde Guerre mondiale pour que la cryptographie accède à une autre dimension. Pour garantir le secret des messages signalant la position de ses sous-marins, l'Allemagne nazie avait mis au point la machine de cryptage Enigma. Dans un message codé, le chiffrement d'une lettre n'était pas fixe, mais suivait une loi de fluctuation dont les combinaisons étaient si nombreuses qu'elle décourageait toute tentative de décryptage. Pour pallier cet obstacle, les Alliés firent appel à des mathématiciens (dont Alan Turing) pour construire des machines capables de suivre automatiquement les variations de ces codes. Ce travail eut pour conséquence inattendue de contribuer à la naissance de l'ordinateur.
Plus récemment, l'expansion considérable des réseaux a conduit la cryptographie à sortir du champ strictement militaire ou diplomatique. Afin de garantir la confidentialité des messages et de conditionner l'accès à certaines informations circulant sur les réseaux, les informaticiens ont développé des techniques de cryptage utilisant des théories mathématiques sophistiquées. Aujourd'hui, le développement du commerce électronique conduit même à une légalisation de la cryptographie privée.

Les principales techniques
Selon le concept et le mode de fonctionnement mis en œuvre, les systèmes de cryptographie modernes relèvent de deux grandes techniques : la cryptographie à clé secrète (ou privée) et la cryptographie à clé publique (ou à double clé). Il faut y ajouter la cryptographie quantique, à la pointe des recherches menées pour accroître encore la sécurité.

La cryptographie à clé secrète
Dans cette technique, la clé qui sert au cryptage des informations par l'expéditeur d'un message est identique à celle qui permet leur décryptage par le destinataire. L'algorithme de chiffrement à clé secrète le plus répandu est le DES (sigle de l'anglais Data Encryption Standard). Développé en 1976, par une équipe d'IBM, pour le National Bureau of Standards, il a été adopté à cette époque comme standard de chiffrement aux États-Unis et certaines de ses variantes restent largement utilisées, notamment dans le secteur bancaire (cartes de crédit). Son principal avantage est une vitesse de chiffrement et de déchiffrement très élevée. Mais le fait que l'expéditeur et le destinataire utilisent la même clé n'est pas sans risque ; ils doivent en effet se la communiquer à un moment ou à un autre, et son interception par un tiers est toujours possible.

La cryptographie à clé publique
Dans cette technique, la clé qui sert à chiffrer le message diffère de celle utilisée pour son déchiffrement. Le logiciel de cryptage d'un utilisateur génère ainsi deux clés distinctes. La première, dite clé publique, est publiée dans un annuaire accessible à tous sur Internet. La seconde, dite clé privée, est gardée secrète. L'expéditeur d'un message doit au préalable consulter l'annuaire en ligne pour y trouver la clé publique associée au destinataire. Il l'utilise ensuite pour crypter son message. Le destinataire ne peut décrypter le message qu'à l'aide de la clé qu'il a tenue secrète. Le cryptage est dit asymétrique, car l'expéditeur lui-même n'est pas en mesure de décrypter son message, une fois celui-ci codé.
L'algorithme de chiffrement à clé publique le plus répandu est RSA, ainsi nommé d'après les initiales des noms des trois chercheurs du Massachusetts Institute of Technology qui l'ont mis au point en 1977, Ronald Rivest, Adi Shamir et Len Adleman. Sa fiabilité tient à la difficulté qu'éprouvent les mathématiciens à factoriser les très grands nombres premiers : s'il est facile, à l'aide d'un ordinateur, de faire le produit de deux nombres premiers de plus de cent chiffres, il est en revanche extrêmement compliqué, à partir du résultat du produit, de trouver les deux facteurs qui en sont à l'origine. RSA tire parti de cette difficulté : un texte est codé en fonction d'un certain nombre n, connu de tous (clé publique), composé de deux entiers premiers p et q que tout le monde ignore à l'exception du destinataire (clé privée), et qui lui permettent de décoder le message. Si n est un nombre assez grand, le système est pratiquement inviolable, compte tenu du temps nécessaire aux machines les plus puissantes pour retrouver p et q. À l'heure actuelle, lorsque la clé a une longueur d'au moins 1 024 bits, le système est considéré comme sûr.
L'algorithme RSA est utilisé aujourd'hui dans une large variété d'appareils pour le chiffrement des communications et dans le cadre de la signature numérique, car il dispose d'une fonction d'authentification de l'émetteur du message. Il a toutefois l'inconvénient d'être 500 fois plus lent que le système DES. Aussi, pour l'envoi de messages confidentiels longs, recourt-on fréquemment à une méthode mixte alliant la sécurité de la cryptographie à clé publique à la rapidité de la cryptographie à clé secrète. La plus connue de ces méthodes est PGP (sigle de l'anglais Pretty Good Privacy), inventée en 1992 par l'Américain Phil Zimmermann.

La cryptographie quantique
Sur le réseau Internet, ni la cryptographie à clé publique, ni celle à clé secrète ne permettent de savoir si le message chiffré émis n'a pas été intercepté par une personne autre que le destinataire. Cet inconvénient disparaît avec la cryptographie quantique. Celle-ci s'appuie sur la physique quantique, d'où son nom. Plus précisément, elle tire parti du principe d'incertitude de Heisenberg, selon lequel le seul fait de mesurer un système quantique suffit à perturber ce dernier.
Dans la cryptographie quantique, on transmet des impulsions lumineuses, par l'intermédiaire de fibres optiques. Le texte du message codé sous forme de bits est représenté par un ensemble de photons dont l'état quantique correspond à la valeur de ses bits. Si, lors de la transmission, un intrus agit sur l'un des photons, il en détruit la polarisation, de sorte que l'expéditeur et le destinataire s'en aperçoivent immédiatement.
Cette technique permet donc l'échange d'informations confidentielles, notamment celui de la clé de codage employée dans un système à clé publique. Elle se heurte toutefois à un problème important, celui de l'atténuation progressive du flux de photons le long des fibres optiques par lesquelles ils transitent. Au-delà de quelques kilomètres, la cryptographie quantique devient inopérante.

 

DOCUMENT   larousse.fr    LIEN

 
 
 
  INTELLIGENCE ARTIFICIELLE
 

 

 

 

 

 

 

Apprentissage profond : le supercerveau du Net
Gautier Cariou dans mensuel 498
daté avril 2015 -

L'intelligence artificielle s'apprête à bouleverser les réseaux sociaux. Comment ? Grâce à l'apprentissage profond, une discipline émergente qui a franchi récemment un cap décisif.

L'intelligence artificielle (IA) est devenue le nouveau pari de Facebook, Google et Baidu. Depuis deux ans, ces géants du Net y investissent des milliards de dollars et débauchent parmi les meilleurs chercheurs du domaine. Il faut dire que les performances actuelles de l'IA laissent entrevoir des applications aussi inédites que séduisantes pour ces grands groupes. « Les algorithmes d'apprentissage profond, une discipline émergente de l'intelligence artificielle, permettent d'identifier automatiquement et de façon très efficace les images et les vidéos, explique ainsi Yann LeCun, pionnier de l'apprentissage profond et directeur du laboratoire d'intelligence artificielle de Facebook (FAIR). Depuis deux ans, les résultats dans le domaine de la compréhension par la machine du langage naturel, parlé, sont également très prometteurs. De quoi analyser les goûts des utilisateurs de façon plus fine et leur recommander des contenus plus pertinents. »
Si l'intérêt pour l'apprentissage profond (ou deep learning) est relativement récent, la recherche dans ce domaine a débuté dès la fin des années 1980. En 1994, le Français Yann LeCun met au point un algorithme qui permet à un ordinateur de reconnaître automatiquement des mots écrits à la main [1]. Ses travaux sont rapidement exploités à grande échelle dans les lecteurs automatiques de chèques de nombreuses banques américaines. Malgré ce succès, la recherche tombe en désuétude à la fin des années 1990 : la puissance de calcul des ordinateurs est bien trop faible pour améliorer de façon notable les performances des algorithmes d'apprentissage profond.
Il faut attendre une dizaine d'années et le franchissement de cette barrière technologique (lire « L'accélération de la vitesse de calcul », p. 32) pour que l'apprentissage profond remporte l'adhésion de la plupart des spécialistes de la reconnaissance visuelle. Nous sommes en 2012. « L'équipe de Geoffrey Hinton, professeur à l'université de Toronto, au Canada (et engagé depuis par Google dans le groupe de recherche « Google Brain », NDLR), remporte alors haut la main une compétition - ImageNet Large Scale Visual Recognition Challenge - qui permet chaque année à de nombreux laboratoires de confronter leurs algorithmes de reconnaissance d'image et de mesurer leur efficacité sur des milliers d'images », raconte Yann LeCun.

Neurones artificiels
Lorsqu'on présente des images issues d'une banque de données [2] au système de l'équipe canadienne - le seul de la compétition fondé sur l'apprentissage profond-, il parvient à les identifier avec 15 % d'erreurs seulement. Du jamais vu. Le meilleur système concurrent affiche un taux d'erreurs de 26 %. « Ce résultat a impressionné la communauté de la vision informatique. Si bien que, deux ans plus tard, tous les participants utilisaient des algorithmes d'apprentissage profond pour analyser les images. Aujourd'hui, cette technologie égale voire surpasse l'homme dans certaines tâches, comme la reconnaissance des visages. » C'est ainsi qu'en 2014, Facebook présente DeepFace, un programme capable de reconnaître automatiquement un individu sur deux photos différentes avec un taux de réussite de 97,35 % contre 97,53 % en moyenne lorsqu'un homme se prête à l'exercice. Une amélioration de 27 % par rapport à l'état de l'art.
Ce succès dans le domaine de la reconnaissance visuelle s'explique par l'utilisation de ce que l'on appelle des « réseaux de neurones convolutifs », une classe d'algorithmes imaginée par Yann LeCun à la fin des années 1980 [3]. Comme le suggère leur nom, ces réseaux s'inspirent de l'organisation des cellules nerveuses du cerveau, et en particulier du cortex visuel. Lorsque l'oeil observe une scène, une image s'imprime sur la rétine. Des impulsions électriques sont alors transmises vers le cortex visuel qui traite cette information. Des millions de neurones interconnectés échangent des messages, travaillent de concert pour identifier le contenu de la scène.
Les neurones artificiels utilisés en apprentissage profond sont des entités informatiques qui reproduisent de façon très simplifiée l'action de leur analogue biologique. « Concrètement, ce sont des blocs de code informatique qui exécutent des calculs élémentaires : des additions et des multiplications », explique Yoshua Bengio, directeur de l'Institut de Montréal pour les algorithmes d'apprentissage, à l'université de Montréal. Ces neurones artificiels se comptent par millions et sont organisés en plusieurs « couches » successives. Chaque neurone est doté de plusieurs entrées et d'une sortie par lesquelles transite l'information. Les entrées des neurones de la première couche reçoivent les informations élémentaires : des triplets de nombres réels qui correspondent aux couleurs rouge, vert et bleu des pixels de l'image. Leur sortie est quant à elle connectée aux entrées des neurones de la deuxième couche, eux-mêmes connectés aux entrées des neurones de la troisième couche et ainsi de suite.
Le lien entre deux neurones de couches successives (un neurone source et un neurone destinataire) est défini par un « poids synaptique », un nombre réel qui quantifie la force de ce lien. Selon la valeur de ce poids, les signaux envoyés par un neurone source vers un neurone destinataire sont soit amplifiés, soit atténués. Ces signaux sont ensuite additionnés. Si cette somme dépasse un certain seuil fixé au préalable par l'ordinateur, le neurone destinataire envoie alors un signal vers les neurones de la couche suivante. En revanche, si cette valeur est inférieure à ce seuil, le neurone est inhibé : il ne transmet aucun signal. Le cheminement de l'information à travers un réseau de neurones et l'interprétation de cette information par le réseau dépendent donc de la valeur de ces poids synaptiques.

Entraînement à l'identification
Pour identifier un objet dans une image, l'ordinateur utilise un programme informatique qui envoie vers la première couche de neurones des informations élémentaires sur la nature de l'image : la couleur ou le niveau de gris des pixels. « Pris séparément, ces pixels ne contiennent pas d'information pertinente sur la nature de l'image, précise Yann LeCun. Or, dans une image naturelle, la probabilité que des pixels proches possèdent la même couleur est très élevée. La première couche de neurones est donc configurée pour tirer parti de cette particularité statistique et parvient à détecter automatiquement des configurations particulières de pixels, par exemple des contours orientés selon la même direction. »
En sortie de la première couche, ces configurations sont codées sous la forme de vecteurs qui contiennent des informations spécifiques sur la nature de l'objet à identifier. « Ces vecteurs dits "caractéristiques" sont ensuite envoyés vers une seconde couche de neurones qui les combinent et en extraient des motifs plus abstraits : arrangements de contours, parties d'objets, etc. Les neurones des couches suivantes réalisent le même type d'opération et produisent des vecteurs caractéristiques de plus haut niveau, qui contiennent des informations telles que l'identité des objets. »
Cette identification n'est toutefois possible que si le réseau de neurones a été entraîné au préalable à reconnaître une image. Cette tâche nécessite de disposer d'une quantité colossale d'images étiquetées, classées dans différentes catégories (races de chiens, marques de voitures ou de sacs, etc.). Chez Google et Facebook, qui disposent de milliards d'images, des équipes entières sont chargées de ce travail fastidieux. Mais les laboratoires plus modestes peuvent aussi utiliser les millions d'images étiquetées contenues dans la base ImageNet, créée en 2012 par des universitaires de Stanford, aux États-Unis.

Pour que l'ordinateur apprenne à reconnaître une image à coup sûr (ou presque), par exemple un chien, les chercheurs utilisent un algorithme « d'optimisation par gradient stochastique ». À chaque nouvel exemple qu'on soumet à l'ordinateur, cet algorithme modifie la valeur des poids synaptiques du réseau de neurones. « Après des centaines de millions d'exemples présentés à l'ordinateur, la distribution des poids synaptiques ne varie plus ou presque, explique Yoshua Bengio. Quand vient ce moment, le réseau de neurones a terminé son apprentissage, et il peut alors associer à n'importe quelle image une représentation apprise, c'est-à-dire un vecteur de caractéristiques, qui permet de prédire la catégorie à laquelle l'objet appartient. »
De cette façon, un réseau de neurones entraîné pourra reconnaître avec une grande probabilité n'importe quel chien, sous n'importe quel angle de prise de vue, sans l'avoir jamais vu auparavant. Simplement parce que sa représentation mathématique associée à la catégorie « chien » est suffisamment générale. Avec cette technologie, Facebook compte améliorer l'analyse des goûts des utilisateurs en identifiant automatiquement le contenu des images et des vidéos qu'ils postent ou qu'ils « like » (lire « Facebook réinvente Facebook » p. 28).

Des mots transformés en vecteurs
Après la reconnaissance des images, l'apprentissage profond est sur le point de révolutionner la compréhension automatique du langage naturel. Avec des applications très concrètes en préparation dans les laboratoires de Facebook telles que l'analyse des sentiments dans les textes (lire « L'ordinateur qui comprend l'ironie », p. 34), la traduction instantanée ou la mise en place de boîtes de dialogue entre l'homme et la machine. Des tâches que les algorithmes actuellement utilisés pour analyser les phrases sont incapables d'accomplir. Ces derniers permettent uniquement de compter la « co-occurrence » de mots, c'est-à-dire leur fréquence d'apparition dans un texte et le nombre de mots qui les séparent d'autres mots. De cette manière, un ordinateur calcule la probabilité que tel mot apparaisse à tel endroit dans une phrase, sans vraiment en comprendre le sens.
Or, en 2000, Yoshua Bengio démontre pour la première fois que les machines sont capables d'apprendre par elles-mêmes le langage naturel grâce à des algorithmes d'apprentissage profond [4]. Parmi ces algorithmes, se distinguent les réseaux de neurones dits « récurrents », dont le principe général est analogue à celui des réseaux de neurones convolutifs. Avec ces algorithmes, un ordinateur comprend mieux le sens des mots et les liens qui les unissent. « Autrement dit, il développe une compréhension sémantique de la langue, explique Yoshua Bengio. À la manière des algorithmes de reconnaissance des images, ceux utilisés pour la compréhension du langage naturel apprennent automatiquement à représenter des séquences de mots sous la forme de vecteurs de caractéristiques à partir de milliards d'exemples. »
Pour chaque mot que l'ordinateur repère dans un texte, par exemple « stylo », l'algorithme génère automatiquement un ensemble de nombres, des attributs sémantiques. Ensemble, ces attributs forment un vecteur correspondant au mot « stylo ». Ce vecteur est construit de telle façon que les mots de signification proche ou apparaissant dans des contextes voisins possèdent des attributs sémantiques en commun. Le mot « crayon » partagera ainsi de nombreux attributs avec « stylo » ou « pinceau ».

Ces vecteurs constituent le premier niveau de représentation. Dans un second temps, ils sont combinés par les couches suivantes du réseau de neurones qui génèrent des vecteurs de plus haut niveau encore. Ces derniers résument le sens de séquences entières de mots, puis celui de phrases complètes. « Cette technique qui consiste à représenter des textes par des vecteurs a été popularisée en 2008, à la suite d'une publication de Ronan Collobert et James Weston [5], aujourd'hui chercheurs dans le laboratoire FAIR, précise Yann LeCun. Ce sont leurs travaux en particulier qui ont réveillé l'intérêt de la communauté pour ces techniques. »
La représentation des mots par des vecteurs permet également aux ordinateurs d'appréhender le langage en raisonnant par analogie. En 2013, Tomas Mikolov, jeune chercheur au laboratoire d'intelligence artificielle chez Google (et actuellement chez Facebook), montre qu'en réalisant des opérations élémentaires entre plusieurs vecteurs, un ordinateur découvre des analogies entre les mots [6]. En réalisant le calcul suivant : vecteur « Madrid » moins vecteur « Espagne » plus vecteur « France », il remarque que le résultat obtenu est un vecteur très proche de celui de « Paris ». À sa manière, la machine a donc compris par elle-même le concept de capitale. « Ce résultat peut paraître anodin mais pour la communauté de chercheurs en intelligence artificielle, c'est extraordinaire, explique Yoshua Bengio. D'autant plus que le réseau de neurones n'a pas été entraîné pour cela : c'est un effet secondaire de l'apprentissage, une heureuse surprise ! »

Sens commun intégré
Cette technologie est aussi très prometteuse pour la traduction [7,8]. Pour cette application, les chercheurs en intelligence artificielle utilisent deux réseaux de neurones qui sont entraînés ensemble avec des centaines de millions de phrases étiquetées, c'est-à-dire traduites au préalable. « Les exemples choisis pour l'étape d'entraînement sont des textes multilingues provenant des parlements canadiens ou européens, ou des traductions d'ouvrages disponibles sur Internet. » Le premier réseau reçoit une phrase dans la langue source et produit une représentation sémantique de cette phrase, sous la forme de vecteurs.
Le second réseau de neurones reçoit ces vecteurs en entrée et est entraîné à produire une séquence de mots dans la langue désirée. Pour une même phrase source, l'ordinateur peut donc générer un grand nombre de traductions différentes, mais de signification semblable, en mobilisant différents vecteurs dont les attributs sont proches. Cette technologie sera bientôt utilisée par Facebook pour traduire les textes de façon plus naturelle.

L'un des objectifs de l'apprentissage profond est de permettre à l'usager de dialoguer avec son ordinateur en langage naturel en lui demandant par exemple de répondre à la question « mes amis ont-ils aimé le concert du lycée ? » à partir de l'analyse des messages postés par ces derniers. Pour cela, il est indispensable d'instiller à la machine une forme de sens commun. Ce qui lui fait pour l'instant défaut ! En effet, lorsqu'une machine analyse un texte évoquant des actions exécutées dans un ordre donné, il lui est difficile de répondre à des questions simples sur les conséquences de ces actions. Ainsi, dans le texte « Joe est allé dans la cuisine. Joe a pris du lait. Il est allé dans le bureau. Il a laissé le lait. Il est ensuite allé dans la salle de bains », la machine aura du mal à répondre correctement aux questions : « où se trouve le lait maintenant ? » ou « où était Joe avant d'aller dans son bureau ? »
Dans le laboratoire FAIR, Jason Weston, Antoine Bordes et Sumit Chopra ont proposé de pallier cette difficulté en dotant un réseau de neurones récurrents d'une mémoire à court terme [9]. Pour cela, ils ont utilisé un type particulier de réseau de neurones récurrents, baptisé « Memory Network ». Cet algorithme comporte un module « mémoire » séparé du réseau de neurones qui le rend capable d'analyser de longues séquences de mots. Cela a permis à l'ordinateur de créer des représentations qui, non seulement captent le sens des phrases, mais intègrent l'enchaînement temporel des actions. Résultat : la machine a répondu juste, sur le fond comme sur la forme.

L'ESSENTIEL
- FACEBOOK, GOOGLE ET BAIDU ont investi massivement dans l'apprentissage profond, une branche de l'intelligence artificielle en plein essor.
- LES ALGORITHMES d'apprentissage profond s'inspirent du fonctionnement du cortex cérébral pour analyser les données.
- CETTE TECHNOLOGIE est à l'origine des progrès spectaculaires déjà réalisés dans les domaines de la reconnaissance automatique des images et de la compréhension du langage naturel.

L'ACCÉLÉRATION DE LA VITESSE DE CALCUL
Identifier le contenu d'une image n'est pas de tout repos pour un ordinateur : cette tâche mobilise plusieurs millions de neurones artificiels, des blocs de code informatique, qui exécutent des calculs élémentaires. À chaque fois qu'une image apparaît, le système exécute donc des millions d'additions ou de multiplications. Or, pour exercer un programme à reconnaître une image, il faut l'entraîner au préalable sur des millions d'exemples. Au total, il doit donc exécuter des milliards de calculs dans un délai respectable. Il y a encore un an, cette phase d'entraînement prenait deux semaines. Aujourd'hui, elle ne prend que deux jours. Une nette amélioration due à l'utilisation de cartes graphiques toujours plus puissantes. Pour entraîner son système, Yann LeCun, directeur du laboratoire d'intelligence artificielle de Facebook, en a branché quatre en parallèle dans un seul et même ordinateur. Ces cartes graphiques, utilisées par les passionnés de jeux vidéo, calculent à la vitesse de cinq téraflops, soit cinq milliers de milliards d'opérations chaque seconde ! À terme, les chercheurs aimeraient encore améliorer ces performances, en branchant plusieurs ordinateurs en parallèle.

L'ORDINATEUR QUI COMPREND L'IRONIE
Les algorithmes utilisés par les publicitaires pour analyser les sentiments des internautes ont du mal à percevoir le second degré ou le sarcasme. Cela provient en grande partie du fait qu'ils ne s'attachent pas à l'ordre des mots. De fait, les algorithmes en question fonctionnent avec des « sacs de mots », autrement dit, des vecteurs contenant des centaines de milliers de mots-clés, chacun associé à un sentiment positif ou négatif. Chaque coordonnée de ce vecteur est un nombre qui correspond à la fréquence d'apparition d'un mot dans un texte. Plus la fréquence d'un mot positif est élevée, plus le texte sera considéré comme tel, indépendamment de l'ordre des mots. Or les internautes anglo-saxons, par exemple, expriment souvent l'ironie en écrivant le contraire de ce qu'ils pensent suivi de « not ». Une phrase peut donc être associée à un contenu positif alors qu'elle exprime le contraire. De la même façon, une phrase contenant de nombreuses négations, comme « il n'est pas possible de ne pas détester cette image », brouille les pistes, et l'ordinateur peinera à classer cette phrase dans la bonne catégorie (positif ou négatif). Avec des technologies d'apprentissage profond, l'ordinateur prend en considération l'ordre des mots, leur rôle sémantique, le contexte dans lequel ils apparaissent. Il détecte ainsi mieux la teneur des commentaires et leurs nuances.

 

DOCUMENT   larecherche.fr    LIEN

 
 
 
  LA SYMÉTRIE ICI ET LÀ
 

 

 

 

 

 

 

Texte de la 352e conférence de l'Université de tous les savoirs, donnée le 17 décembre 2000.La symétrie ici et là[1]par Henri BacryL'un des divertissements les plus prisés de la vie au lit consiste à compter les moutons. Tout le monde sait qu'en cas d'insomnie, il suffit d'additionner mouton après mouton pour s'endormir, mais combien de personnes savent que pour rester éveillé, il suffit de soustraire les moutons ? Groucho Marx, Beds. Mille neuf cent trente quatre marches de montée et mille neuf cent trente quatre marches de descente, ça fait zéro et pourtant je suis bien fatigué ! Film La fiancée des ténèbres (dialogues de Gaston Bonheur) . Ouvrir ainsi une conférence sur la symétrie par des blagues sur les soustractions est une façon délibérée de montrer que la symétrie intervient dans des endroits inattendus, c'est-à-dire des domaines qui ne concernent ni la science ni l'art, comme le laisseraient croire les auteurs d'encyclopédies. N'importe lequel de mes collègues physiciens se serait attendu à me voir proposer d'emblée quelques équations fondamentales de la physique en vue d'étudier leurs propriétés de symétrie, par exemple les équations de Maxwell qui gouvernent l'électrodynamique classique. Dans le vide (c'est-à-dire en l'absence de charges et de courants électriques), elles s'écrivent comme suit : div B = 0, rot E + = 0, div E = 0, rot B - = 0. Rassurez-vous ! je n'ai pas l'intention de vous imposer ici un cours de physique. Je vous invite seulement à examiner ici avec moi ces quatre équations. Il vous suffira de savoir que E désigne le champ électrique, B le champ magnétique et de me croire lorsque je vous dis que ces formules permettent de comprendre la propagation de la lumière dans le vide. Vous constaterez sans difficulté que la transformation qui consiste à remplacer E par B et B par - E conserve manifestement ces équations, pourvu que l'on sache que div (- E) = - div E et rot (- E) = - rot E. Cette symétrie des équations de Maxwell n'est cependant valable que dans le vide. En présence de matière, c'est-à-dire en présence de charges électriques en mouvement, deux d'entre elles s'écrivent avec des termes supplémentaires, appelés sources du champ électromagnétique : div B = 0, rot E + = 0, div E = rélect, rot B - = jélect, où ρélect est la densité de charge électrique et jélect la densité de courant électrique. La symétrie a disparu. Certains auteurs, déçus par cette disparition, n'hésitent pas à imaginer l'existence de charges et de courants magnétiques, dans le but de la rétablir. Ils écrivent alors de nouvelles formules : div B = rmagn, rot E + = jmagn, div E = rélect, rot B - = jélect. ce qui permet d'obtenir une symétrie entre parties électrique et magnétique de ces équations. Le terme ρmagn est positif ou négatif selon qu'il s'agisse de magnétisme nord ou de magnétisme sud. La difficulté est que cette nouvelle symétrie n'existe que dans l'imagination de ceux qui la proposent. Pour qu'elle corresponde à une certaine réalité, il faudrait que l'on puisse isoler des pôles magnétiques nord et sud, ce qu'on n'a jamais pu réaliser. En effet, tout le monde sait qu'en coupant une aiguille aimantée en deux on obtient non pas un pôle nord séparé d'un pôle sud mais deux nouvelles aiguilles aimantées. Le magnétisme nord est inséparable du magnétisme sud. Il faut dire, pour défendre ceux qui tiennent à cette symétrie imaginaire, qu'elle aurait l'avantage de donner une explication à la quantification de la charge électrique. On démontre, en effet, à partir de la mécanique quantique, que s'il existait des pôles magnétiques, la charge électrique serait toujours un multiple entier de la charge de l'électron, chose reconnue comme une réalité. Plus généralement, la plupart des symétries dont il est question en physique sont des symétries imaginaires. Les physiciens ne s'expriment pourtant pas ainsi car ils sont persuadés que leurs symétries existent réellement. Ils préfèrent parler de symétries violées. Il me faut expliquer ce qu'ils entendent par cette expression et, pour cela, j'en donnerai l'exemple le plus simple. Chacun sait que les noyaux atomiques sont constitués de neutrons et de protons, les premiers en nombre N, les seconds en nombre Z. L'atome comprend, gravitant autour du noyau, Z électrons. Le proton ayant une charge opposée à celle de l'électron, on note que l'atome est électriquement neutre. Le nombre Z caractérise les propriétés chimiques d'un élément. Ainsi pour l'élément oxygène, on a Z = 8. Pour le chimiste, Z est le nombre essentiel tandis que le nombre N joue un rôle secondaire. On parle d'isotopes pour désigner des atomes de même Z mais de N différents. Pour le physicien nucléaire la situation est différente car, pour lui, le neutron ressemble étonnamment au proton. Ces deux particules ont en effet à peu près la même masse. Le neutron a une masse égale approximativement à 1840 fois celle de l'électron, alors que la masse du proton vaut 1838 fois celle de l'électron. Cette propriété justifie la dénomination de nucléon pour désigner les deux espèces de constituants du noyau. Pour le physicien nucléaire, ce qui compte c'est le nombre de nucléons du noyau ou, ce qui revient au même, grosso modo sa masse. Pour lui, le noyau d'Uranium 235, avec ses 235 nucléons est différent du noyau d'uranium 238 qui en a 238. Le physicien nucléaire raisonne à peu près de la façon suivante : imaginons, dit-il, un monde idéal où la chimie – et donc la physique atomique – n'existerait pas ; cela reviendrait à négliger la présence des Z électrons responsables des réactions chimiques et, du même coup, à négliger aussi la présence de charges sur les protons ; on pourrait admettre alors que nous sommes dans une situation où l'on aurait une impossibilité de distinguer entre protons et neutrons ; le physicien nucléaire va plus loin ; il fait l'hypothèse que ces deux sortes de particules non seulement n'auraient pas de charge électrique, mais auraient rigoureusement la même masse, ce qui justifierait pleinement l'usage du vocable de nucléons. Ces nucléons seraient indiscernables, donc permutables, tout en étant responsables de toutes les propriétés nucléaires. De cette façon, la physique nucléaire acquiert une symétrie plus grande que celle de la chimie ou de la physique atomique. Autrement dit, la chimie et la physique atomique violent la symétrie des nucléons en attribuant au proton non seulement une charge électrique mais également une masse différente de celle du neutron. Cette position pose un problème sérieux car la chimie n'est qu'un chapitre des sciences physiques et il faut expliciter le lien qui existe entre le tout et la partie. On le fait de la façon suivante. En sciences physiques, l'énergie mise en jeu dans une interaction nucléaire est plus importante que celle mise en jeu dans une réaction chimique (une bombe nucléaire est bien plus puissante qu'une bombe au TNT). Dans une première approximation, on peut donc négliger la chimie devant la physique nucléaire, ce qui revient à négliger la violation de la symétrie qu'apporte la distinction entre le proton et le neutron. Si la physique nucléaire est plus symétrique que la chimie, c'est parce qu'elle met en jeu une physique plus importante du point de vue énergétique. Autrement dit, la chimie concerne des phénomènes d'importance négligeable. Négliger les différences de masse et de charge des nucléons se justifie en première approximation. C'est ainsi que finalement la physique se sent obligée de distinguer entre les interactions nucléaires et les interactions électromagnétiques (celles qui gouvernent la chimie) et de faire comme si elles étaient indépendantes. Cette façon de voir les sciences physiques en imaginant une symétrie qui n'existe pas réellement constitue paradoxalement un précieux moyen d'investigation de ses lois dont nous n'avons donné ici que l'un des exemples les plus simples. Je vous prie de me croire lorsque je vous dis que la symétrie des nucléons est liée à celle de la sphère, symétrie qui se déduit de façon logique de la symétrie en géométrie élémentaire, qui dérive elle-même de la symétrie du miroir. Se voir dans un miroir est une chose banale : on a l'impression que la main gauche a remplacé la main droite. On dit que l'on se voit renversé de droite à gauche. Cependant cette façon de parler est ambiguë. On comprend mal dans ce cas pourquoi l'on ne se voit pas plutôt renversé de haut en bas comme l'imagine le dessinateur et humoriste Gotlib (figure 1)[2]. Après tout dans le miroir que constitue un plan d'eau on voit les bâtiments renversés. La lettre A vue dans un miroir ressemble à la lettre originale ; il n'en est pas de même pour la lettre E... sauf si je la couche. Pour étudier la symétrie en géométrie élémentaire, le mathématicien a un langage plus rigoureux. Il introduit trois notions. a) Transformation : La notion de transformation en mathématiques s'éloigne sensiblement du sens usuel de ce mot. Une transformation mathématique ne s'intéresse qu'au résultat de la transformation effectuée ; on ne tient pas compte de la façon dont elle est obtenue. Ainsi, pour effectuer une translation donnée d'un objet, je ne m'intéresse nullement au cheminement suivi, mais seulement au résultat final. Lorsqu'on dit que l'on effectue une symétrie (un demi-tour) autour de l'axe vertical du A, on ne pense pas à l'action même du demi-tour. Pour un A tracé sur une feuille de papier blanc, le demi-tour nous présenterait ... le dos de la feuille blanche. On parlera quand même de demi-tour ou encore de symétrie par rapport à un axe vertical. Faisant allusion à la phrase de Gaston Bonheur citée au début, on dira que l'on peut faire monter le A de mille neuf cent trente quatre marches, puis le faire redescendre, cela est équivalent à une non-transformation qu'on désigne sous le nom de « transformation identique ». b) Invariance : On associe au A initial le A transformé par demi-tour autour de son axe vertical et, pour parler de symétrie, on se contente de constater qu'ils coïncident ; le A est inchangé par une telle transformation. De même, lorsque j'effectue une symétrie de moi-même par rapport à un axe vertical, j'ai l'impression d'être invariant sous cette transformation. Cependant, à y regarder de plus près, je constaterai que cette symétrie n'est qu'approchée. Pour m'en convaincre il me suffirait de comparer les lignes de mes deux mains. Même la symétrie du visage est approximative : il faut savoir, en effet, que pour tout individu la joue gauche est plus large que la joue droite, ce que l'on constate aisément en recomposant son propre visage à l'aide d'un seul côté retourné. On se retrouve manifestement déformé avec deux joues larges ou deux joues étroites selon le cas. Le traitement de la symétrie du E ne diffère que par l'orientation de l'axe, qui est cette fois horizontal. Il est inutile de faire subir au E une rotation. c) Groupe de transformations : Si l'on effectue un deuxième demi-tour après le premier, la forme des lettres reste évidemment inchangée. En effet, effectuer deux demi-tours successifs revient à n'effectuer aucune transformation. Il s'agit là de la « transformation identique ». Comme tout objet est invariant sous la transformation identique, on peut dire qu'un objet non symétrique est invariant sous une seule transformation. Son groupe de transformations se réduit à un seul élément. Le groupe de transformations des lettres A et E contient deux éléments : le demi-tour et la transformation identique. Qu'en est-il des autres lettres ? Examinons-les. Lettres à axe vertical de symétrie : A, H, I, M, O, T, U, V, W, X, Y. Lettres à axe horizontal de symétrie : B, C, D, E, H, I, K, O, X. Remarque : le forme des lettres est importante. Nous avons choisi les caractères helvetica (on notera, par exemple, qu'en caractères times, le W n'est pas symétrique). On remarque que certaines des lettres ont à la fois un axe de symétrie vertical et un axe de symétrie horizontal. C'est le cas des lettres suivantes : H, I, O, X. On pourrait penser que leur groupe de transformations est à trois éléments : demi-tour vertical, demi-tour horizontal, transformation identique. Cela reviendrait à oublier la transformation qui résulte de la combinaison du demi-tour vertical V et du demi-tour horizontal H. Pour voir ce qu'il en est, effectuons ces transformations sur une lettre non symétrique, par exemple la lettre F. Pour la clarté du dessin, nous avons désigné par la lettre a l'un des sommets du F et séparé les F transformés du F initial. Si l'on avait effectué vraiment les transformations souhaitées, on aurait eu le dessin suivant : On vérifie que, quel que soit l'ordre dans lequel on effectue les transformations V et H, le résultat est le même : il s'agit tout simplement d'un demi-tour C autour du point marqué par une croix. On note immédiatement que les lettres H, I, O et X sont bien invariantes sous cette transformation. Leur groupe de transformations est donc d'ordre quatre. C'est le groupe d'invariance du rectangle. Tout n'a pas été dit sur les symétries des lettres de l'alphabet. Il y a trois lettres qui ont pour seule symétrie la symétrie C. Ce sont les lettres N, S, Z. Leur groupe de transformations est d'ordre deux. On conclut que les lettres peuvent être classées suivant leur groupe de transformations de la façon suivante ( Id désigne la transformation identique). Groupe { Id, V, H, C} : H, I, O, X. Groupe { Id, V} : A, M, T, U, V, W, Y. Groupe { Id, H} : B, C, D, E, K. Groupe { Id, C} : N, S, Z. Groupe trivial : { Id} F, G, J, L, P, Q, R La chose importante aux yeux du mathématicien est que, grâce à l'introduction de la transformation identique, toutes les lettres ont été classées à l'aide d'un groupe de transformations. D'une façon générale, le fait qu'il n'y ait aucune exception à une règle satisfait le mathématicien. Cela est à rapprocher de l'introduction du zéro dans la numération, qui permet de donner sens à une équation du type x + a = b, même lorsque a = b. Les trois groupes { Id, V}, { Id, H}, { Id, C} sont dits isomorphes, c'est-à-dire de même forme, parce qu'ils ont même nombre d'éléments et la même structure ; ce que les mathématiciens entendent par là, c'est qu'ils ont la même loi de composition. En effet, ils obéissent tous trois à la loi : V2 ( V suivi de V) = Id ou une loi analogue obtenue en remplaçant la lettre V par l'une des lettres H ou C. Cela n'a rien d'étonnant ; il est facile de démontrer, en effet, qu'il n'y a qu'un groupe à deux éléments, à un isomorphisme près. Allons à la découverte d'autres groupes à deux éléments. Les deux transformations "multiplication d'un nombre quelconque par 1 ou -1" forment un groupe isomorphe aux précédents. La multiplication par 1 est la transformation identique et l'on vérifie que multiplier deux fois de suite un nombre par -1 est équivalent à la transformation identique. On s'assure ainsi que la structure est encore la même. L'isomorphisme est vérifié. Donnons un deuxième exemple. Considérons la transformation qui consiste à ajouter un nombre pair à un nombre entier arbitraire. Si ce nombre est pair il reste pair, s'il est impair il reste impair. Effectuer cette transformation le maintient dans la catégorie à laquelle il appartient. Par contre, lui ajouter un nombre impair le fait changer de catégorie. On a donc la loi : pair + (pair) = (pair) pair + (impair) = (impair) impair + (pair) = (impair) impair + (impair) = (pair) « Ajouter un nombre pair » est la transformation identique. « Ajouter un nombre impair deux fois de suite » revient à ajouter un nombre pair. On vérifie encore l'isomorphisme de ce groupe avec les précédents. Les lois de groupe sont les mêmes. la seule différence est qu'elle s'exprime multiplicativement dans le cas de +1 et -1 et additivement dans le cas de pair et impair. On a, en effet, en faisant abstraction des catégories sur lesquelles ces transformations s'appliquent : (-1) x (-1) = 1 impair + impair = pair Ajoutons à notre alphabet la lettre grecque delta , supposée décrite par un triangle parfaitement équilatéral. Elle a trois axes de symétrie que l'on peut désigner par A1, A2 et A3 et l'on peut vérifier qu'en composant deux de ces symétries, on obtient une rotation d'un tiers de tour autour du centre de la lettre. Le groupe de symétrie de cette lettre est d'ordre six : { Id, A1, A2, A3, R, R'}, où R et R' désignent respectivement les rotations d'un tiers de tour respectivement dans le sens des aiguilles d'une montre et dans le sens inverse. On remarquera qu'une lettre de la forme a pour groupe de symétrie le sous-groupe à trois éléments : { Id, R, R'}, que l'on peut écrire aussi : { R, R2 = R', R3 = Id}. Plus généralement, le lecteur pourra lui-même vérifier qu'un polygône régulier à n côtés a un groupe de symétrie à 2 n éléments ( n axes de symétrie et n rotations R, R2, R3, ..., Rn, où R est une rotation d'angle . Considérons, par exemple, le cas du carré, pour lequel n = 4. Il a quatre axes de symétrie (les deux diagonales et les deux médianes). Son groupe de symétrie comprend, en plus, les quatre rotations de 90°, 180°, 270° et 360°. Cette dernière est la transformation identique. Le groupe de symétrie du carré est donc d'ordre huit (2 n = 8). Le cas du cube est bien plus complexe. Son groupe de symétrie est à 48 éléments, dont 24 rotations et 24 autres transformations qui combinent les 24 rotations avec une symétrie par rapport à un plan. Nous ne décrirons pas ce groupe. Nous tenons seulement à montrer que même pour une figure aussi simple que celle du cube, l'ordre du groupe peut être important. Nous constaterons en passant un fait qui peut sembler paradoxal : si l'on veut vérifier les propriétés de symétrie d'un cube, il est nécessaire de nommer les sommets, comme on l'a fait dans le cas de la lettre F. Il est clair que, ce faisant, on détruit la symétrie du cube, que l'on désirait sauvegarder. Bien entendu, on fait comme si le cube n'était nullement affecté par les lettres ajoutées. Un cube qui vient à l'esprit est le dé à jouer. Là, la numérotation des faces ne peut être ignorée ; son rôle est essentiel. On admet que cette numérotation n'altère aucunement la symétrie du dé, ce qui est manifestement faux. On fait comme si cela n'affectait nullement la probabilité du résultat lorsque le dé est jeté. La question n'est plus mathématique, elle est d'ordre physique. Il est clair cependant que le problème mécanique associé au lancement d'un dé est insoluble dans la pratique. On est même dans l'impossibilité de calculer les probabilités de chaque résultat. Peut-on cependant les mesurer ? La réponse rigoureuse est NON ! On peut seulement vérifier approximativement l'égalité des probabilités en jetant le dé un très grand nombre de fois. La théorie des probabilités permet quelquefois de dénoncer le dé comme probablement pipé (si, sur un grand nombre de coups, le six sort par exemple une fois sur trois) mais est toujours dans l'impossibilité totale d'affirmer qu'il est tout à fait correct (trouver exactement une fois sur six chacun des résultats est improbable sur un grand nombre de coups et ne signifie donc rien). Nous venons de relier la symétrie du dé à un problème de probabilités. Par raison de symétrie (il s'agit seulement d'une hypothèse), les six faces ont la même probabilité de sortir. Les nombres 1, 2, 3, 4, 5, 6 sont mis a priori sur le même plan. Aucun d'eux ne se distingue de l'ensemble. Il y a symétrie entre ces six nombres. On peut, en effet, permuter ces nombres, cela ne change rien à leur probabilité. La symétrie se traduit par l'existence d'un groupe : le groupe des permutations de ces six nombres. Ce groupe comprend 6 ! = 1 x 2 x 3 x 4 x 5 x 6 = 720 opérations, comme on le vérifie aisément par le raisonnement suivant : il y a six façons de transformer le 1 ; une fois cette transformation effectuée, il y a cinq façons de transformer le 2 ; une fois ces deux transformations effectuées, il y a quatre façons de transformer le 3, etc. Une fois les cinq premières transformations effectuées, il ne reste plus qu'une possibilité pour choisir le transformé du 6. La considération d'un tel groupe est justifiée par le problème physique qui lui est associé, à savoir le lancement du dé. On conçoit que ce problème ne saurait être influencé par des marques sur les faces, à condition que ces marques ne comportent aucune déformation mécanique. Si le phénomène devait prendre en compte les marques effectives des points sur les faces du dé, ce groupe serait brisé. Il se réduirait à la permutation identique. On peut imaginer une situation intermédiaire où les points du dé comporteraient, tracés sur les faces, trois as et trois deux. Le groupe n'aurait alors que 36 éléments, car 1 x 2 x 3 x 1 x 2 x 3 = 36. Il y a, en effet, six façons de permuter les trois 2 et à chacune de ces façons peuvent être associées les six façons de permuter les trois 1. Le groupe des permutations est important car il joue un rôle privilégié dans l'étude des symétries. Considérons le cas du carré. Il existe 4 ! = 1 x 2 x 3 x 4 = 24 permutations des quatre sommets de ce carré. Parmi ces permutations, il y a celles qui transforment le carré en un carré, autrement dit celles qui laissent le carré invariant. Nous avons vu qu'elles sont au nombre de huit. Elles forment un sous-groupe du groupe des permutations. On vérifie ici l'un des théorèmes fondamentaux concernant les sous-groupes. L'ordre d'un sous-groupe est un diviseur de l'ordre du groupe (dans le cas présent 8 divise 24). Il en va de même pour le cube : le nombre des permutations des huit sommets est égal à 8 ! = 1 x 2 x 3 x 4 x 5 x 6 x 7 x 8 = 40320. L'ordre du sous-groupe qui conserve la forme du cube est égal à 48. Ce nombre divise bien 40320 comme le veut le théorème. On notera que, pour le triangle équilatéral, toute permutation des trois sommets conserve sa forme et l'on vérifie, si nécessaire, que 3 ! = 6 est bien un diviseur de 6. Plus généralement, étant donnée une figure à n sommets, le groupe qui laisse la figure inchangée a un ordre qui divise n ! Vérifions cela sur un exemple. Joignons les centres des faces d'un cube. On obtient un octaèdre régulier, polyèdre à six sommets. D'après sa construction, il est clair que l'octaèdre a même groupe de symétrie que le cube, qui est, comme on l'a dit, un groupe d'ordre 48, et 48 divise le nombre de permutations des six sommets, soit 6 ! = 720, comme il se doit. L'octaèdre a même symétrie que le cube correspondant Tournons-nous vers la rose des vents avec ses quatre points cardinaux N, E, S, O. Il y a 4 ! = 24 permutations de ces quatre points. Parmi elles, quatre seulement respectent l'ordre des lettres sur la rose. Il s'agit des quatre rotations d'angle 90°, 180°, 270° et 360°. On vérifie que 4 divise 24. Les points cardinaux semblent jouer des rôles symétriques. Pourtant : « C'est drôle, on parle souvent du pôle Nord, plus rarement du pôle Sud, et jamais du pôle Ouest ni du pôle Est. Pourquoi cette injustice ?... ou cet oubli ? »[3] Considérons le cas de deux amis. A priori, ils sont interchangeables puisque leur permutation conserve l'amitié qui règne entre les deux. Tel n'est pas l'avis pourtant d'Alphonse Karr qui affirme, dans Les guêpes : « Entre deux amis, il n'y en a qu'un qui soit l'ami de l'autre. » Les marches d'un escalier se ressemblent toutes, mais pas quand on doit les grimper. Ne faudrait-il pas suivre le conseil suivant ? « En montant un escalier, on est toujours plus fatigué à la fin qu'au début. Dans ces conditions, pourquoi ne pas commencer l'ascension par les dernières marches et la terminer par les premières ? » P. Dac, L'os à moelle. Le cas de la sphère retiendra notre attention car son groupe d'invariance est infini. N'importe quelle rotation autour de son centre la conserve de même que n'importe quelle symétrie par rapport à un plan contenant un de ses diamètres. On peut montrer ce que j'ai affirmé plus haut, que ce groupe joue un rôle dans la symétrie du nucléon. Nous avons montré que la symétrie était intimement reliée à la géométrie ; bien qu'il s'agissait seulement de géométrie élémentaire, on peut étendre ce lien à la géométrie non commutative qui englobe aujourd'hui toutes les formes antérieurement connues de la géométrie, y compris la géométrie différentielle qui concerne entre autres êtres géométriques la sphère. Il n'est pas question ici, faute de temps et de compétence, de pénétrer ce sujet immense d'actualité introduit par Alain Connes. Il est naturel de dire quelques mots sur les objets non symétriques, c'est-à-dire sur ceux qui ont { Id } comme seul groupe de symétrie. On s'étonnera que le langage usuel ait deux mots pour désigner de tels objets : dissymétrique et asymétrique . On est en droit de se demander pourquoi deux mots sont nécessaires pour désigner une situation unique. Le Petit Robert nous apprend que l'asymétrie désigne une absence de symétrie et la dissymétrie un défaut de symétrie. Pour ces raisons, asymétrie et dissymétrie sont présentés comme des antonymes du mot symétrie. C'est parce que le mot symétrie est un concept qui n'implique pas sa présence effective que nous préférons nous préoccuper des adjectifs associés, à savoir asymétrique, dissymétrique. L'expression être symétrique n'a de sens qu'à partir du moment où la symétrie dont il est question est préalablement définie et, pour la définir – vérité de La Palice – il faut nécessairement l'avoir remarquée, ce qui ne signifie pas qu'elle soit effectivement réalisée. Je peux, en effet, évoquer les parties droite et gauche d'un bâtiment avant d'affirmer qu'elles sont ou non symétriques l'une de l'autre. On constate que l'on se pose la question d'une symétrie potentielle avant de se prononcer. C'est pourquoi l'expression ne pas être symétrique n'a pas la même signification suivant qu'on se réfère à une symétrie que l'on connaît ou qu'on ait affaire à une absence certaine de toute espèce de symétrie. Dans le premier cas, on parlera de dissymétrie, dans le second cas d'asymétrie. L'ennui c'est que l'on ne peut jamais être certain de l'absence totale de symétrie. Pour préciser cette remarque, nous examinons le cas de la figure suivante : Le côté gauche ne ressemble pas au côté droit puisqu'ils sont de couleurs différentes. On aura tendance à dire que cette propriété constitue une dissymétrie. Ce faisant, on s'est référé implicitement à une symétrie - violée, certes - la symétrie gauche/droite. Remarquons cependant que si l'on fait abstraction des couleurs, il y a bel et bien une symétrie, la figure étant constituée de deux carrés de mêmes dimensions. Dire que l'on fait abstraction des couleurs équivaut à déclarer que l'on ne s'intéresse qu'à la forme de la figure. Autrement dit, il y a symétrie en ce qui concerne la forme, dissymétrie en ce qui concerne les couleurs. Le physicien que je suis fera d'emblée une remarque à propos de cette figure. Il s'agit de la suivante : contrairement aux apparences, cette figure est manifestement symétrique. En effet, elle possède un axe de symétrie horizontal, axe auquel on ne pense pas immédiatement, il faut le reconnaître. On voit pourquoi il faut se montrer prudent avant de se prononcer en faveur d'une asymétrie. Examinons donc aussi la figure suivante. Est-elle asymétrique ? Désignons par V l'axe de symétrie vertical de l'une des deux figures réduites à leur forme et par K la transformation définie par l'échange des deux couleurs noir et blanc : blanc → noir noir → blanc Combinons les deux transformations V et K. On définit ainsi la symétrie VK que l'on peut également écrire sous la forme KV. On a de cette façon introduit une symétrie nouvelle, symétrie rigoureuse pour ces deux figures. Le groupe de symétrie est { KV, Id}. On a remplacé la dissymétrie apparente par une symétrie plus élaborée, impliquant la permutation des couleurs blanc et noir. Tournons nous maintenant vers une œuvre de Piero della Francesca, La Madone del Parto, représentant la Vierge entourée de deux anges placés symétriquement l'un par rapport à l'autre. (figure 2) On a des raisons de penser que le peintre a décalqué le premier ange pour dessiner le second après l'avoir retourné. Seules leurs couleurs diffèrent. Si l'on note que ces couleurs sont complémentaires, on pourra évoquer une symétrie plus rigoureuse comme on vient de le faire pour les deux figures géométriques précédentes. On a ainsi substitué dans les deux cas à une dissymétrie apparente, une symétrie nouvelle. Nous proposerons, par conséquent, de réserver le mot asymétrique pour une situation où, malgré tous les efforts que l'on peut fournir, aucune symétrie, même absente, ne peut être évoquée. Ce serait le cas pour la figure ci-dessous. Résumons-nous. On dira qu'un objet est dissymétrique chaque fois que l'on notera qu'une symétrie annoncée n'est pas assurée. On s'efforcera alors d'en découvrir une plus subtile. On dira, par contre, qu'un objet semble asymétrique si on se trouve dans l'incapacité de percevoir la présence d'une quelconque symétrie. On notera la fragilité d'une telle constatation. Elle est aussi fragile que celle qui consiste à affirmer qu'une certaine démonstration mathématique est exacte. En effet, ce n'est pas parce qu'on n'a décelé aucune erreur dans une démonstration qu'on peut être certain de son exactitude. Rien ne prouve qu'un mathématicien plus doué ne sera pas capable d'en dénicher une. Cette idée, répandue par Popper, trouve son origine, selon lui, chez le présocratique Xénophane. « Il n'y eut dans le passé et il n'y aura jamais dans l'avenir personne qui ait une connaissance certaine des dieux et de tout ce dont je parle. Même s'il se trouvait quelqu'un pour parler avec toute l'exactitude possible, il ne s'en rendrait pas compte par lui-même. »[4] La distinction entre dissymétrie et asymétrie peut s'établir à partir de l'architecture. Un bâtiment a presque toujours une partie droite et une partie gauche. Elles sont soit symétriques soit dissymétriques. Il existe pourtant des exceptions. Ainsi, pour le musée de Cincinatti construit par l'architecte irakienne Zaha Hadid qui condamne délibérément l'angle droit des bâtiments, on ne peut qu'évoquer l'asymétrie de l'architecture, ce qui démontre en passant que le beau peut faire fi de la symétrie. Nous avons souligné plus haut le rôle important du groupe des permutations. Ce groupe intervient dans une phrase comme toute celle qui commence par « les Français sont... » ou « les hommes sont... ». Une permutation quelconque effectuée dans l'ensemble des Français ou des hommes ne changerait rien à l'affirmation. La proposition énoncée est invariante sous le groupe des permutations des hommes concernés. L'ordre de ce groupe est fantastique, il s'écrit pour les seuls Français avec à peu près un milliard de chiffres. On peut considérer des sous-groupes de ce groupe, par exemple celui des permutations qui conservent le sexe des individus ou celui des permutations qui conservent l'année de naissance des Français mâles. Pour connaître l'ordre de ce dernier groupe, il faudrait se donner les populations des différentes classes d'appel sous les drapeaux. Examinons de plus près la structure d'une phrase qui commence par « les Français sont... ». Pour qu'elle soit valide, il faut que celui qui énonce la proposition se considère comme inclus, si lui-même est français. Ce n'est pas toujours le cas. Il y a alors violation de la symétrie. Ainsi quand le général de Gaulle a déclaré que les Français étaient des veaux, on peut penser raisonnablement qu'il ne se sentait pas concerné par cette énoncé à caractère collectif. Le groupe auquel il faisait allusion était celui des permutations des Français assimilables aux veaux Perm( E). Ce groupe laisse le président de la République invariant. On peut bien sûr préférer penser que dans son idée un certain ensemble E' de Français incluant le général ne sont pas des veaux. Le groupe de symétrie deviendrait Perm( E) ¥ Perm( E'). On peut aussi évoquer cette affirmation manifestement excessive : « Tous les Français sont égaux devant la loi. » Les brisures de cette symétrie sont extrêmement nombreuses et tellement connues qu'il est hors de question d'en citer ici ne serait-ce une seule. Tous les hommes sont des humains. Cette tautologie est loin d'être évidente pour tout le monde. Il n'y pas si longtemps, à l'époque de la découverte de l'Amérique, on en était à se demander si les Indiens pouvaient être considérés comme des hommes. Plus récemment, pour les nazis, les seuls à mériter vraiment le nom d'hommes étaient les aryens. Il est commode de donner un nom à la symétrie associée à cette tautologie que nous évoquons. Nous la désignerons sous le nom de symétrie tautologique. Le groupe qui caractérise cette symétrie est le groupe des permutations de tous les hommes. Plus généralement, tout ensemble, quel qu'il soit, est invariant sous le groupe des permutations de cet ensemble, groupe qui est associé à la symétrie tautologique de l'ensemble. Lorsqu'on conteste une telle symétrie, on est forcément ramené à un sous-groupe de ce groupe. Ainsi, le groupe de symétrie défini par les nazis est le groupe obtenu en composant le produit du groupe des permutations des aryens par le groupe des permutations des non-aryens : Perm (Aryens) x Perm (Non Aryens) Considérons l'ensemble des Français. Son groupe de symétrie est le groupe des permutations de tous les Français. Associons à chaque Français son numéro d'INSEE. Le groupe de symétrie des Français numérotés est le groupe trivial qui ne comprend que la transformation identique car il n'y a pas deux Français avec le même numéro de sécurité sociale. « Tous les hommes sont des philosophes », affirme Karl Popper[5]. L'ensemble des hommes est donc défini comme un sous-ensemble de l'ensemble des philosophes et comme les philosophes sont certainement des hommes, pour Popper, les deux ensembles coïncident. Ils définissent le même ensemble. Le groupe de symétrie est le groupe de symétrie tautologique. Seulement Popper apporte une restriction : « Je crois que tout les hommes sont des philosophes, même si certains le sont plus que d'autres. » Si l'on veut tenir compte du degré ainsi introduit, on est conduit à classer les hommes en fonction de ce degré et le groupe de symétrie se trouve réduit. On ne peut aller plus loin car on ne sait rien sur une classification éventuelle à partir de ce degré. Dans le cas limite où il n'y a pas deux hommes de même degré, le groupe de symétrie se réduit à la transformation identique. Le verset du Lévitique : « Tu aimeras ton prochain comme toi-même » nous fournit un autre exemple de symétrie. Si je fais mien ce précepte, l'ensemble des hommes autres que moi est invariant sous le groupe des permutations de cet ensemble. Cependant, dans le cas où tout le monde l'adopte, la symétrie ne devient pas pour autant la symétrie tautologique. Pour cela il faudrait encore que l'amour que je porte à mon prochain soit identique à celui qu'il me porte[6]. Mentionnons un problème analogue concernant la définition du sage. Pour cela, nous citons ce passage du Talmud : « Qui est sage ? Celui qui apprend de tout homme. »[7] Cette sentence, riche de significations, est commentée par un célèbre rabbin du seizième siècle, le Maharal de Prague[8]. Voici ce qu'il dit à ce sujet : « Un tel homme est à ce titre digne du nom de "sage" car la sagesse ne se trouve pas chez lui par accident, mais parce qu'il en est avide et la recherche auprès de tout homme. Tandis que s'il n'apprend pas de tout homme mais seulement d'un maître réputé pour sa grande sagesse, sa sagesse sera dépendante du maître en question, elle viendra de l'extérieur et non de lui-même, puisque c'est l'importance du maître qui en conditionnera la réception ; il ne conviendra donc pas de le nommer sage. Et seul celui qui apprend de tout homme est digne de ce nom, car tous les hommes étant égaux auprès de lui puisqu'il apprend de tous, la sagesse ne dépend alors que de celui qui la reçoit et il est ainsi digne du nom de "sage" car c'est la sagesse qu'il reçoit directement en apprenant de tous, sans distinction de grand ou petit. » Ce commentaire rejoint la pensée bouddhiste qui affirme que l'on a toujours quelque chose à apprendre, même de son ennemi. Pour mériter d'être appelé sage, il nous faut donc prendre en considération tout ce que les autres nous apprennent. Les arguments de symétrie les plus anciens ont un intérêt actuel indéniable, surtout lorsqu'on les confronte aux connaissances scientifiques modernes. C'est le cas, par exemple, de celui d'Aristote qui défend l'idée de l'impossibilité du vide. Je voudrais aborder ici une idée plus récente due à Descartes. On sait que, pour ce philosophe, l'homme est constitué d'un corps et d'une âme. La chose étrange est qu'il cherche à localiser l'âme dans le corps, comme si cette localisation allait de soi, ce qui peut sembler paradoxal pour une entité aussi abstraite. Et il utilise un argument de symétrie pour résoudre ce problème. L'âme, étant une, ne saurait résider dans les reins, car on ne saurait la répartir entre ces deux organes à la fois. Le foie est également exclu car il se trouve dans la partie droite du corps. Pour Descartes, l'âme est non seulement indissociable mais ne saurait résider dans une fraction non symétrique de l'organisme. Seul le cerveau, organe central, peut convenir. Il semble, aujourd'hui que cette conclusion apparaisse satisfaisante pour les biologistes de tous bords. Pourtant... On remarquera que Descartes fait en tout trois hypothèses sur ce sujet. La première est revendiquée par le philosophe ; il s'agit de la décomposition de l'homme en corps et âme, c'est-à-dire une partie matérielle et une partie spirituelle ; la seconde est celle de la possibilité de localisation de l'âme dans le corps. La troisième réside dans l'exigence d'une symétrie pour cette localisation. Il semble que, pour Descartes, toute chose soit localisable mais que tout ce qui est localisable n'est pas nécessairement matériel. Comment peut-on concevoir une âme dans le corps qui serait immatérielle ? Je vois là une contradiction difficile à lever. La première réponse qui vient à l'esprit consiste à rejeter l'hypothèse de l'opposition âme-corps et à affirmer comme le ferait un matérialiste que tout est matière. Examinons la position d'un matérialiste connu. Je pense à Jean-Pierre Changeux qui, dans la troisième conférence de l'Université de tous les savoirs, donnait pour titre à sa conclusion : L'âme au corps. On notera que Changeux ne met pas en cause l'existence de l'âme mais la relie spontanément au corps. Il précise : « Qu'en est-il de fonctions encore plus élaborées du cerveau comme la conscience ? » On voit que, pour lui, la conscience est une manifestation du cerveau. Tout se passe comme si le cerveau sécrétait la conscience comme le foie sécrète la bile. En somme, pour comprendre l'âme, il faudrait en quelque sorte être en mesure de disséquer le cerveau. On notera en passant que cette position crée, de fait, une dissymétrie entre les deux propositions suivantes : « J'ai conscience d'avoir un cerveau et j'ai conscience d'avoir un foie. » Changeux semble ne pas en avoir conscience. On sait que le cerveau est composé de deux hémisphères et que ces hémisphères sont spécialisés, chose évidemment ignorée de Descartes. Le rôle de l'hémisphère gauche concerne les fonctions symboliques, c'est-à-dire l'interprétation des signes. Sont ainsi de son ressort la compréhension des gestes et du langage écrit. L'hémisphère droit s'attache, quant à lui, à la connaissance de l'espace corporel et extra-corporel. Cette hypothèse est corroborée par le fait que des lésions de cet hémisphère peuvent faire croire au malade que son côté gauche lui est étranger ; elles vont jusqu'à lui faire ignorer tout l'espace situé à sa gauche. Il n'est pas étonnant qu'il perde la notion d'espace que lui assurent habituellement les sens de la vue, de l'ouïe et du toucher. S'habiller peut devenir une opération quasi impossible. Que pense alors l'hémiplégique cartésien qui croit, comme Descartes, à l'existence de l'âme dans le cerveau ? Il croit, bien évidemment, en l'existence de la sienne propre qu'il ne pourra situer raisonnablement que dans son hémisphère intact. Si c'est le gauche, il aura tendance à généraliser ce résultat à tous les hommes. Il en irait de même si c'était l'hémisphère droit qui était sain. Un raisonnement conduirait finalement ces deux espèces d'hémiplégiques à affirmer que l'âme ou la conscience ne saurait être vraiment localisable, puisque les uns la localiseraient dans l'hémisphère gauche, les autres dans l'hémisphère droit. La symétrie de Descartes est brisée. Si l'âme est localisée dans le cerveau, ce serait dans quelle partie ? s'agit-il de l'hémisphère gauche ou de l'hémisphère droit ? Que l'on adopte l'une ou l'autre réponse ne saurait satisfaire aujourd'hui un disciple de Descartes. Comme pour répondre à ce que dit Changeux, Antoine Danchin débute la quatrième conférence de l'Université de tous les savoirs par une interrogation pertinente de l'oracle de Delphes. «J'ai une barque faite de planches et les planches s'usent une par une. Au bout d'un certain temps, toutes les planches ont été changées. Est-ce la même barque ? » Et Danchin commente : « le propriétaire répond oui avec raison : quelque chose, ce qui fait que la barque flotte, s'est conservé, bien que la matière de la barque ne soit pas conservée [...]. Il y a dans la barque plus que la simple matière. Pourquoi choisir cette image, cette question pour parler de la vie ? Il est essentiel de concevoir le vivant et la biologie comme une science des relations entre objets plus qu'une science des objets. » Ainsi, pour Danchin, il y a dans l'homme plus que la simple matière ; si la conscience est en dehors de la matière, ne s'ensuit-il pas que la dissection du cerveau ne permettrait pas de l'y découvrir ? On est conduit ainsi à penser la conscience comme jouissant d'une existence autonome non soumise à la matière du cerveau. La conscience ne serait donc pas localisable. Que pense un religieux de cette situation ? Il est conscient du fait que le cerveau est impliqué dans cette affaire. Il me semble que, pour lui, un lien existe effectivement entre la conscience et le corps et que ce lien passe par le cerveau. Quand le cerveau meurt, ce lien disparaît mais le Moi ne meurt pas. Cette dernière solution peut sembler acceptable mais ne me satisfait pas. Examinons-la sous un autre angle. Si l'homme est composé d'une âme et d'un corps, tout attribut humain doit appartenir soit à l'un soit à l'autre. Qu'en est-il des maladies ? On sait que certaines d'entre elles sont d'origine psychosomatique et concernent par conséquent à la fois le corps et l'âme. L'effet placebo ne saurait non plus s'expliquer à partir d'une dissociation de ces deux éléments. Ne serait-il pas plus naturel de conclure que la complexité de l'être humain est telle que la dissociation entre une âme et un corps est au sens strict impossible. Cette façon de voir rejoint ici une idée du judaïsme qui ne manquera pas d'intéresser le psychiatre. Il faut savoir qu'en hébreu classique, aucun mot ne désigne le corps de l'homme vivant. Le mot gouf de l'hébreu tardif qui le désigne dérive du mot ancien goufah qui signifiait cadavre et donc représentait le corps après la mort. Pour le lecteur de la Bible, parler du corps à propos d'un homme vivant est une aberration. La distinction entre corps et âme chère à Descartes n'aurait vraiment de sens qu'après la mort, même si le psychiatre trouve commode de distinguer ces deux aspects pour l'homme vivant ; ce faisant, il décrit seulement une approximation commode valable sur le seul plan pratique. Bien entendu, la condition d'une telle distinction oblige implicitement la prise en considération d'une interaction entre le corps et l'âme, cela afin d'assurer une explication de l'unité de l'homme. Une comparaison avec la physique atomique nous aidera à mieux cerner le problème. Je rappellerai que cette théorie prétend que l'atome est composé d'un noyau positif et d'un nuage d'électrons négatifs indiscernables tournant autour. Cette façon de voir la nature est cependant insuffisante ; on est, en effet, obligé d'imaginer en plus une interaction électromagnétique entre le noyau et les électrons. Il faut savoir que le calcul complet de cette interaction est complexe ; le cas le plus simple est celui de l'atome d'hydrogène. Sa structure ne se déduit pas comme par magie d'une équation ; elle est le fruit d'approximations successives dont la plus fine est celle que les physiciens désignent sous le nom d' effet Lamb, effet qui n'est pas enseigné au niveau de la maîtrise de physique parce qu'il fait intervenir des notions non élémentaires d'électrodynamique quantique. Cette complexité du calcul est le reflet de celle de l'atome. La théorie atomique décrit une façon commode de comprendre la structure de l'atome d'hydrogène, mais la réduction en noyau et électron peut être qualifiée d'artificielle. Pour pouvoir parler du noyau d'hydrogène à partir de l'atome, il faut négliger toute la suite d'approximations à laquelle nous avons fait allusion. Avoir voulu considérer l'atome d'hydrogène comme composé d'un noyau et d'un électron est une opération aussi complexe que celle qui consiste à considérer l'homme comme composé d'une âme et d'un corps. Ce que fait réellement le physicien consiste à déshabiller l'atome pour découvrir le noyau qu'"il a introduit préalablement. De la même manière, n'est-ce pas le cadavre que l'homme introduit lorsqu'il considère l'être humain comme composé d'une âme et d'un corps ? Car, ne l'oublions pas, ce qu'il importe de comprendre dans l'homme, c'est comment l'on passe de l'homme au cadavre. Il s'agit vraiment là d'un mystère essentiel. Si l'on se rappelle les trois hypothèses de Descartes, voici nos conclusions : a) « L'homme est composé d'une âme et d'un corps ». Cette affirmation ne constitue qu'une approximation commode qui a l'inconvénient de donner du réel une interprétation déformée. b) « L'âme est localisable dans le corps ». Dans l'approximation précédente, l'âme est nécessairement extérieure au corps. c) Le problème de la localisation de l'âme et donc de sa symétrie ne se pose plus. Il serait intéressant de savoir ce que pense le matérialiste de notre analyse. Quoi qu'il en soit, une chose est certaine : le problème de la symétrie tel que le pose Descartes ne saurait être éludé. La symétrie interpelle le spécialiste du cerveau humain comme le philosophe. L'exemple que nous venons de traiter montre la puissance d'une analyse basée sur la symétrie. Les arguments tirés du passé (Descartes) et même du passé lointain (la Bible et l'oracle de Delphes) conservent un caractère indéniable d'actualité qu'on ne saurait négliger. La science moderne y apporte un éclairage précieux. Partant de considérations plutôt banales sur une symétrie, nous sommes amené tout naturellement à poser des questions fondamentales sur le sujet associé. D'autres exemples sont traités dans notre ouvrage[9] La symétrie dans tous ses états. Nous y renvoyons le lecteur.
[1] À la mémoire de mon maître ès symétries en physique, Louis Michel. [2] Trucs-en-vrac, Shell, Paris, 1977-1985. [3]Alphonse Allais, Allais... grement. [4] Les penseurs avant Socrate, p. 66, Paris, Garnier-Flammarion, 1964. [5]Karl Popper, op. cit., p. 268. [6]Soulignons, à propos de ce précepte, que la difficulté principale de l'injonction réside dans l'exigence d'aimer autant un persécuteur que le persécuté. Cette recommandation qui dépasse l'entendement peut être résolue en lisant correctement le verset de l'amour du prochain. Cf. H. Bacry, La Bible, le Talmud, la connaissance et la théorie du visage de Levinas, Pardes 26, 1999. [7] Commentaires du traité des pères, chapitre 4, Paris, Verdier, 1990. [8]Maharal de Prague (Yéhouda Loew ben Betsalel, connu sous le nom de), rabbin et commentateur, né à Posen (Pologne) vers 1512, mort à Prague en 1609. Il est connu pour être le créateur de son célèbre serviteur, le Golem. [9]Henri Bacry, La symétrie dans tous ses états, préface d'Alain Connes, Vuibert, 2000.

 

 DOCUMENT       canal-u.tv     LIEN

 
 
 
Page : [ 1 2 3 4 5 6 7 8 9 ] - Suivante
SARL ORION, Création sites internet Martigues, Bouches du Rhone, Provence, Hébergement, référencement, maintenance. 0ri0n
Site réalisé par ORION, création et gestion sites internet.


Google
Accueil - Initiation musicale - Instruments - Solfège - Harmonie - Instruments - Musiques Traditionnelles - Pratique d'un instrument - Nous contacter - Liens - Mentions légales /confidentialité

Initiation musicale Toulon

-

Cours de guitare Toulon

-

Initiation à la musique Toulon

-

Cours de musique Toulon

-

initiation piano Toulon

-

initiation saxophone Toulon

-
initiation flute Toulon
-

initiation guitare Toulon