ecole de musique piano
     
menu
 
 
 
 
 
 

Électronique... et plus encore

 

 

 

 

 

 

 

Électronique... et plus encore

Les domaines des nanosciences et nanotechnologies ont émergé dans les années 80 avec la mise au point de nouveaux outils de fabrication, de mesure et de caractérisation à l'échelle des atomes, comme les microscopes à effet tunnel.

Publié le 18 octobre 2018
 
Les nanocomposants sont fabriqués de deux manières :
*         La voie descendante, ou top-down. C'est la voie suivie par l'électronique depuis quarante ans, les dimensions du composant que l'on veut fabriquer ont été réduites au maximum, comme pour tous les circuits intégrés sur puce.
*        
*         La voie ascendante, ou bottom-up. Des molécules et des assemblages atomiques complexes sont assemblés avant d'être intégrés dans de plus grands systèmes. C'est l'une des voies d'avenir à plus ou moins long terme pour dépasser les limitations de la loi de Moore : fabriquer plus petit, moins cher, avec une qualité accrue, et surmonter ainsi les obstacles de la miniaturisation.        


TOP-DOWN
Nanoélectronique
Les outils de miniaturisation de découpe, sculpture, gravure… ont permis d'atteindre des dimensions inférieures au micromètre. En 1999, un premier transistor de 20 nm est réalisé. Aujourd'hui, un nouveau transistor à base de nanofils silicium et silicium-germanium permet l'augmentation des performances des circuits intégrés et la réduction de la puissance dissipée. Le système d'hétérojonctions permet d'envisager une plus grande miniaturisation des composants, et de passer ainsi sous le nœud technologique de 5 nm.
Pour offrir une alternative à la réduction des dimensions de circuits, dont le coût devient prohibitif, et afin d'être encore plus petites et plus fonctionnelles, les puces sont disposées les unes sur les autres, et non plus côte-à-côte, sur des wafers de 300 mm. L'une des technologies développée au CEA superpose et interconnecte des transistors FDSOI avec une précision d'alignement lithographique de l'ordre du nanomètre. Elle permet ainsi de disposer plus de 10 millions de contacts 3D au mm2 , contre 100 000 pour des solutions classiques.

Électronique quantique

Une boîte quantique (ou quantum dot en anglais) est une nanostructure de semi-conducteurs qui confine les électrons (et les trous) dans les trois dimensions de l'espace. Du fait de ces propriétés physiques, elles font l'objet d'études poussées depuis une vingtaine d'années, et trouvent leur principale application dans les transistors.
De plus, les points quantiques pourraient avoir une application dans l'informatique où des qubits, unités de stockage d'information quantique, remplaceraient le système actuel. Alors qu'un bit ne peut prendre que les valeurs 0 et 1, et une seule à la fois, un qubit n'a pas cette restriction. Concrètement, avec 4 bits, un ordinateur classique peut traiter un état parmi 24 soit 16 états différents : 0000, 0001, 0010, 0011... Dans un ordinateur quantique, les quatre qubits pourraient être dans une superposition de tous ces états et ces 16 états pourraient être traités simultanément. Il calculerait donc 4 fois plus vite qu'un ordinateur classique ! À noter, aujourd'hui, ces dispositifs ne fonctionnent qu'à très basse température (20 mKelvin).

BOTTOM-UP

La voie bottom-up fait appel à des connaissances fondamentales de physique et de chimie ; elle permet de concevoir les composants entièrement nouveaux de l'électronique moléculaire.
Mais si la fabrication atome par atome de nanocomposants est possible, elle est inenvisageable industriellement car elle prendrait un temps infini. À défaut de construire un circuit complet, les chercheurs envisagent la conception d'entités moléculaires dotées de fonctions électroniques capables de s'organiser seules. Pour les fabriquer, ils disposent de quatre briques de base : les molécules de synthèse, les biomolécules comme l'ADN, les nanoparticules métalliques ou semi-conductrices et les nanotubes de carbone.
En 1974, la première diode moléculaire a été réalisée sur une couche de molécules individuelles. Non plus faite en silicium, elle a été obtenue par la mise en contact de deux morceaux de semi-conducteurs : l'un comportant de nombreux électrons, alors que le deuxième en est extrêmement pauvre. Des molécules qui présentent cette même asymétrie ont ensuite été conçues ; puis un transistor dans lequel le canal était formé d'une de ces molécules. Ce dispositif a donné des preuves flagrantes du comportement quantique des électrons.
Mais la voie de l'auto-assemblage est difficile : il faut réussir à contrôler le positionnement des briques.

DE NOUVELLES TECHNOLOGIES
Spintronique, photonique, électronique moléculaire… autant de technologies à l'étude pour miniaturiser davantage les transistors et développer de nouvelles fonctions.

Spintronique, marier l'électronique et le magnétisme
Alors que l'électronique actuelle exploite la charge électrique de l'électron, la spintronique repose sur une autre de ses propriétés quantiques : le spin, qui correspond au moment magnétique élémentaire porté par l'électron. Cette propriété permet d'obtenir des fonctionnalités nouvelles pour coder, traiter ou transmettre une information.
Des dispositifs innovants, combinant des matériaux magnétiques qui servent de polariseur ou d'analyseur en spin et des matériaux conducteurs, isolants ou semiconducteurs, peuvent ainsi être réalisés. Certains sont déjà utilisés dans les disques durs d'ordinateurs. Ces capteurs, dont la résistance électrique varie en fonction du champ magnétique appliqué, permettent de relire l'information magnétique enregistrée sur le disque magnétique. La spintronique permet d'envisager de pousser la capacité de stockage au-delà du térabit (1015 bits) par pouce carré, c'est-à-dire 155 milliards de bits/cm2.
D'autres applications industrielles sont en train de voir le jour : des mémoires magnétiques MRAM (Magnetic Random Access Memory), qui ne disparaissent pas en cas de coupure d'alimentation, sont très rapides (écriture et lecture ne durent que quelques nanosecondes) et insensibles aux rayonnements ionisants, et des composants radiofréquence pour les télécommunications et les réseaux sans fil par exemple.

Photonique, la lumière pour coder l'information
Tous les systèmes actuels (une puce d'ordinateur, un circuit intégré, un transistor) sont basés sur le transport, le confinement et les propriétés physiques de l'électron. Mais si, pour aller plus vite, il était remplacé par le photon ? Celui-ci, outre qu'il se déplace à la vitesse de la lumière (300 000 km/s), provoque peu de dissipation de chaleur lors de son déplacement.
Mais le silicium, vedette de la microélectronique, est une piètre source de lumière… à l'état macroscopique. Soumis aux lois étranges du monde quantique, un cristal de silicium nanostructuré (une dizaine de nm seulement) voit ses performances d'émission fortement modifiées ! Un cristal photonique guide ensuite ces photons. Constitués en perçant de minuscules trous de manière périodique dans un semi-conducteur, ces cristaux réfléchissent et dirigent la lumière. Ils peuvent aussi la filtrer, en agissant sur des longueurs d'onde particulières et permettent de la confiner dans un volume extrêmement faible (quelques centaines de nm3).
Pour aller vers l'ordinateur à photons, de nombreuses recherches sont en cours pour la modulation, le multiplexage et le décodage des signaux.

LE SPIN
Les électrons ont trois particularités physiques : leur masse, leur charge et leur spin. Pour cette dernière caractéristique intrinsèque, tout se passe comme si le moment magnétique de l'électron s'apparentait au sens de rotation interne de celui-ci autour d'un axe fixe imaginaire. Pour les électrons, le spin ne peut prendre que deux valeurs : +1/2 spin dit « up » ou -1/2 spin dit « down », correspondant ainsi au fait qu'il ne peut tourner que dans un sens ou dans l'autre. Il est ainsi possible de coder une information en langage binaire (0 ou 1).

DES LABORATOIRES AUX START-UPS
STMicroelectronics et Soitec

En France, l'aventure du silicium sur isolant (Silicon On Insulator) a démarré en 1974, pour répondre à des applications militaires qui exigent une électronique « durcie », résistant aux effets des rayons ionisants. L'Institut Leti du CEA est alors devenu un des rares endroits au monde – avec quelques entreprises américaines travaillant pour la défense des États-Unis – où de tels circuits étaient développés. Depuis 1992, en fournissant les substrats supports des composants, Soitec joue un rôle clé dans l'industrie de la microélectronique. STMicroelectronics conçoit et produit des matériaux semiconducteurs innovants, offre des solutions inédites et compétitives pour que se poursuivent la miniaturisation des puces, l'augmentation de leurs performances et la réduction de leur consommation d'énergie. Ces produits sont utilisés dans les smartphones, les tablettes, les ordinateurs, les serveurs informatiques ou les data centers. On les retrouve aussi dans les composants électroniques des automobiles, les objets connectés, les équipements industriels et médicaux.

Du thermomètre au bolomètre
Au début des années 1980, la production à grande échelle des premiers capteurs de pression MEMS (Micro Electro Mechanical Systems) a donné un nouvel essor à une technologie de détection du rayonnement infrarouge : la détection thermique. Le CEA et la DGA (Direction générale de l’armement) ont lancé, à partir de 1992, le développement d'une filière nationale de détecteurs infrarouge non refroidis à base de microbolomètres. Cette technologie a été transférée en 2000 à Sofradir, qui a créé en 2002 la filiale Ulis grand public chargée de son industrialisation.
À l'origine, les produits concernaient des systèmes de vision nocturne pour la surveillance et la sécurité, ou des caméras de thermographie pour des applications haut de gamme (contrôle de procédé, maintenance d'installations, caméra pour pompiers). La réduction des coûts de fabrication a permis de les intégrer dans un nombre croissant d'applications grand public : bâtiments connectés, voitures, téléphones portables...
    
Movea capture les mouvements
Des laboratoires du CEA travaillent depuis plusieurs décennies à la miniaturisation des capteurs de mouvements et leur intégration dans des circuits électroniques. La start-up Movea est née en 2007 de l'idée d'embarquer ces capteurs – et leurs logiciels d'exploitation – dans des objets grand public, pour des applications dans les domaines des loisirs, de la santé ou du sport.

Isorg et l'électronique imprimée
En s'appuyant sur une technologie issue du CEA, la société Isorg a acquis une expertise industrielle unique au monde dans l'impression de matériaux semi-conducteurs en solution, à température et air ambiants, mais également dans la mise au point de photodiodes organiques sur des surfaces allant de quelques millimètres carrés à plusieurs décimètres carrés.

Elle conçoit et fabrique des photodétecteurs organiques souples et imprimables sur tout type de surface. Ces nouveaux capteurs photosensibles, minces, légers et conformables, offrent des avantages uniques par rapport aux capteurs traditionnels, tels que le coût de fabrication, la gamme spectrale, l'intégration mécanique et la résistance aux chocs. Cette technologie de rupture permet de transformer des surfaces de toutes natures, comme par exemple en plastique ou en verre, en surfaces intelligentes capables de vision ou d'interactivité. Avec ses produits, la société vise les marchés de la santé (imagerie par rayons X), de l'industrie (capteurs pour l'industrie du futur et objets connectés, comme par exemple la métrologie et la logistique) et de l'électronique grand public (écrans interactifs).

 

 DOCUMENT     cea         LIEN

 
 
 
 

L'intelligence artificielle

 


 

 

 

 

 

L'intelligence artificielle

Publié le 21 novembre 2017


L’intelligence artificielle ou IA s'applique à tous les secteurs d’activité : transports, santé, énergie, industrie, logistique, finance ou encore commerce. Cloud, véhicule autonome, compteurs intelligents... utilisent tous des algorithmes performants pour fournir des réponses efficaces, fiables et personnalisées aux utilisateurs. Associant matériels et logiciels, l’intelligence artificielle mobilise des connaissances multidisciplinaires : électronique (collecte de données, réseaux de neurones), informatique (traitement de données, apprentissage profond), mathématiques (modèles d'analyse des données) ou sciences humaines et sociales pour analyser l'impact sociétal induit par ces nouveaux usages. L’essentiel sur les enjeux industriels et sociétaux majeurs de l’intelligence artificielle.

QU’EST-CE QUE L’INTELLIGENCE ARTIFICIELLE ?
L’intelligence artificielle ou encore IA, est un ensemble d’algorithmes conférant à une machine des capacités d’analyse et de décision lui permettant de s’adapter intelligemment aux situations en faisant des prédictions à partir de données déjà acquises.
L’intelligence artificielle associe les logiciels à des composants physiques (ou « hardware ») qui peuvent être des capteurs, des interfaces pour l’utilisateur…

A QUOI SERT L’INTELLIGENCE
ARTIFICIELLE ?

L’intelligence artificielle permet :

*         D’analyser des textes : qu’ils soient oraux ou écrits, l’intelligence artificielle arrive de mieux en mieux à comprendre et utiliser le langage pour répondre automatiquement à des requêtes variées. Aujourd’hui, elle est utilisée, par exemple, pour gérer les relations clients, sur Internet ou par téléphone. Les agents conversationnels ou chatbot en anglais sont des systèmes intelligents qui arrivent à entretenir une conversation en langage naturel. Ils se basent sur différentes briques technologiques : reconnaissance de texte, de la parole, d’expressions du visage…
*        
*         De modéliser des connaissances pour aider à la prise de décisions : l’intelligence artificielle permet de coder un ensemble de connaissances, de reproduire un raisonnement type et d’utiliser ces informations pour prendre des décisions. Par exemple, il est aujourd’hui possible, à partir de données multiples et complexes, d’aider les médecins à proposer des traitements personnalisés du cancer de la prostate.
*        
*         De produire des connaissances grâce au « machine learning » ou apprentissage automatique : grâce à l’intelligence artificielle, la machine devient capable de repérer des tendances ou des corrélations dans un très grand volume de données, en adaptant ses analyses et ses comportements et ainsi de créer ses propres connaissances en fonction de l’expérience accumulée. Cela permet de proposer des prédictions très fines sur la consommation d’énergie, l’évolution du comportement d’une machine ou d’un bâtiment. Les règles prédictives qui en sont tirées ne sont que le résultat de ce qui a déjà eu lieu ; ce ne sont pas des lois générales.
*        
*         D’analyser des images ou des scènes en temps réel : reconnaître des défauts de fabrication ou détecter des visages. Par exemple, certaines usines ont des robots qui détectent en temps réel les problèmes techniques, défauts et corrigent ou arrêtent la production. Pour parvenir à analyser une très grande quantité de données visuelles en simultané, les chercheurs développent des logiciels à base de réseaux de neurones profonds, qui permettent aux ordinateurs d’acquérir des capacités d’apprentissage (deep learning).
*        
*         De réaliser des actions : par exemple, l’intelligence artificielle permet d’imiter et reproduire à la perfection certains gestes humains comme celui d’administrer un vaccin via une main robotisée.


COMMENT FONCTIONNE LE DEEP LEARNING ?
Les chercheurs montrent un très grand nombre d’images ou de données numériques à une machine qui fonctionne à base de réseaux de neurones profonds (c’est-à-dire avec un très grand nombre de couches) en lui fixant un objectif comme « reconnaître un visage » ou « comprendre des panneaux de signalisation » ou « reconnaître un bruit sonore ».

En indiquant à la machine quelles sont les données pertinentes pour la requête, les chercheurs lui « apprennent » petit à petit à reconnaître ces informations. L’intelligence artificielle se base sur des similitudes pour reconnaître l’objet recherché, mais également pour le différencier des autres ! Par exemple, dans le cadre d’un apprentissage de la perception pour un véhicule autonome, on cherche à faire la différence entre les deux roues, les voitures, les piétons et l’environnement.


LES ENJEUX ET LIMITES
DU DÉVELOPPEMENT DE L’INTELLIGENCE ARTIFICIELLE

L’intelligence artificielle se retrouve dans tous les secteurs d’activité, des transports à la santé ou l’énergie, de la finance à l’administration et au commerce. Son développement impacte également l’organisation du travail, qui peut ainsi être facilitée (assistance à l’opérateur pour les tâches pénibles ; par exemple, automatisation des tâches répétitives).
L’intégration de plusieurs briques d’intelligence artificielle aboutit à des innovations de rupture comme le véhicule autonome. Pour des véhicules autonomes de niveau 4, c’est-à-dire capables de conduire et prendre toutes les décisions à la place du conducteur sur des portions de route de type autoroute, l’intelligence artificielle permettra à la fois d’analyser des textes (panneaux de signalisation) et des images (environnement de la voiture, type de panneaux) ; de prendre des décisions en fonction de l’environnement et  du code de la route ; et de conduire à la place de l’homme. Ces véhicules sont actuellement au stade de prototype et devraient être commercialisés d’ici 2020.
Les intelligences artificielles développées aujourd’hui sont dites « faibles » : elles savent au mieux imiter le raisonnement de l’être humain et appliquer des protocoles qui guident leurs décisions. Ces machines semblent agir comme si elles étaient intelligentes, mais elles montrent leurs limites quand on leur fait passer le test de Turing.

    


Le test de Turing

Le test de Turing du nom d’Alan Turing, pionnier de l’intelligence artificielle dans les années 50 et inventeur du test, a pour objectif, en s’adressant à une machine et à un humain lors d’un dialogue de détecter lequel est une IA.
Ce test simple consiste à mettre en relation trois « individus » A, B et C via un ordinateur. A et B parlent tous deux à C qui est un humain et qui a pour mission de découvrir qui de A ou de B n’est pas humain. Si C n’arrive pas à se décider, le test de Turing sera réussi car la machine aura réussi à parfaitement imiter un humain.
Ce test est plus un défi pour les sciences informatiques qu’un réel test. L’imitation de la pensée humaine a énormément évolué mais reste insuffisante, notamment en raison de l’absence de conscience de soi.

Vers une intelligence artificielle égale ou supérieure à l’humain ?
Si les intelligences artificielles actuelles sont loin d’égaler l’intelligence humaine, certains chercheurs  estiment que la première intelligence artificielle dite « forte » (qui aurait les mêmes capacités intellectuelles qu’un être humain ainsi qu’une conscience propre) pourrait voir le jour dès 2045 si les recherches continuent à progresser à ce rythme.
Que deviendrait l’Homme si l’intelligence artificielle avait conscience de sa supériorité sur l’espèce humaine ? Cette question, digne d’un film de science-fiction, légitime la définition de limites éthiques et légales.
C’est pourquoi l’encadrement législatif autour de l’intelligence artificielle est au cœur de nombreux débats, en France et dans le monde, afin de définir les responsabilités légales du comportement des intelligences artificielles.

Cybersécurité et intelligence artificielle
Une intelligence artificielle, basée sur des logiciels, est potentiellement vulnérable et peut être ciblée par des cyberattaques. Les questions de cybersécurité sont donc primordiales dans le développement des algorithmes d’IA. D’autant plus lorsque les intelligences artificielles effectuent des actions « critiques » comme des opérations chirurgicales (robots) ou la gestion de systèmes de production (usines). Dans ces situations, un simple piratage informatique peut vite tourner à la catastrophe. L’amélioration de la cybersécurité des intelligences artificielles est donc une nécessité à leur démocratisation.

L’INTELLIGENCE ARTIFICIELLE VA PERMETTRE L’AVÈNEMENT DE L’USINE DU FUTUR
Même si le développement et le perfectionnement de l’intelligence artificielle soulèvent des questions éthiques et de sécurité, l’un de ses enjeux reste d’assister l’Homme dans les gestes pénibles, voire de le remplacer dans les tâches les plus dangereuses.
La transformation numérique, et notamment les progrès de la robotique, vont inévitablement bouleverser le monde du travail, en recentrant les activités humaines sur les tâches à plus forte valeur ajoutée. L'accomplissement des tâches les plus pénibles par des robots collaboratifs entraînera aussi la création de nouveaux postes pour la conception, la maintenance et l’exploitation de ces robots intelligents. Et les entreprises qui s’en équiperont gagneront en compétitivité, et pourront développer de nouvelles compétences.
L’usine du futur utilise déjà des intelligences artificielles analysant l’ensemble des données de l’usine pour permettre une production plus responsable et économe en ressources. Conséquences : moins de déchets et de rebus, une gestion en temps réel de la production mais aussi de la consommation en électricité et matières premières.

 

 DOCUMENT     cea         LIEN

 
 
 
 

Des atomes pour sonder la gravité

 

 

 

 

 

 

 

Des atomes pour sonder la gravité

Remi Geiger, laboratoire Systèmes de référence temps-espace, Observatoire de Paris, université PSL, CNRS, Sorbonne Université, Laboratoire national d'essais dans mensuel 547

daté mai 2019 - 1917 mots

Selon la physique quantique, les atomes peuvent se comporter de façon ondulatoire. Ce principe sert à construire des interféromètres atomiques qui mesurent avec une grande précision des grandeurs comme la gravité, indispensable aux géophysiciens. Leur potentiel est tel qu'ils sont désormais utilisés en dehors des laboratoires.
Nous observons régulièrement des ondes, comme les vagues à la surface de l'eau. Lorsque deux vagues se superposent, elles donnent naissance à une nouvelle vague de plus grande amplitude si les crêtes d'une des vagues correspondent aux crêtes de l'autre, ou de plus faible amplitude, voire d'amplitude nulle, si les crêtes de la première vague se superposent aux creux de la seconde. C'est le phénomène d'interférence. Il existe quel que soit le type d'ondes : les vagues, le son, la lumière... L'interférométrie optique - avec de la lumière - est à l'origine d'une révolution dans notre compréhension physique du monde : les expériences menées à la fin du XIXe siècle par Michelson et Morley ont contribué à la naissance de la théorie de la relativité. Les détecteurs Ligo et Virgo, qui ont capté ces dernières années les premiers signaux directs d'ondes gravitationnelles (*), sont des interféromètres qui mesurent plusieurs kilomètres de long. Les interféromètres optiques ont permis de nombreuses applications industrielles modernes, en analyse de surfaces ou en télécommunications.
Dans un interféromètre, on sépare une onde incidente en deux ondes, qui empruntent des chemins différents, et que l'on recombine ensuite en un point. On cherche alors à observer les perturbations sur un des chemins en étudiant leur impact sur le phénomène d'interférence qui se produit en sortie du dispositif. Il peut donc être employé avec n'importe quel type d'ondes. Or au coeur de la physique quantique se trouve la dualité onde-particule. Ce principe indique qu'à toute entité microscopique corpusculaire - un atome, par exemple -, on peut associer une onde. On peut donc réaliser un interféromètre avec des atomes. Contrairement aux particules de lumière (les photons), les atomes sont des particules composites dotées d'une masse et se mouvant bien plus lentement, ce qui les rend plus sensibles à certaines forces. Il devient possible de mesurer avec une précision accrue une rotation ou une accélération, comme celle de la pesanteur à la surface de la Terre.

Le laser, un outil précieux
Dans un interféromètre, séparation et déflection des ondes lumineuses sont effectuées à l'aide de lames séparatrices et de miroirs. Pour observer un signal d'interférence bien contrasté - c'est-à-dire une grande amplitude de variation du signal entre les conditions d'interférence constructives, lorsque les ondes se superposent parfaitement, et les conditions destructives -, et donc extraire avec une bonne résolution la différence entre les deux chemins, il est nécessaire de contrôler avec précision la direction prise par les différentes ondes dans les bras de l'interféromètre. Améliorer la performance d'un interféromètre nécessite ainsi de regrouper toutes les ondes autour d'une direction commune. C'est une problématique bien connue de l'interférométrie optique pour laquelle le laser est un outil de prédilection. Pour les ondes de matière, plus les vitesses des particules s'étendent sur une large gamme - plus la distribution des vitesses est large -, plus les directions seront différentes, aboutissant à un interféromètre peu contrasté. Pour remédier à ce problème, il faut réduire la vitesse des particules liée à l'agitation thermique. À 25 °C, les vitesses d'agitation des molécules de l'air sont en effet de plusieurs centaines de mètres par seconde ! Ici entre en scène le refroidissement par laser : en envoyant des faisceaux lasers exerçant sur les atomes une force 10 000 fois supérieure à la force de gravité, les atomes ralentissent à des vitesses de l'ordre du centimètre par seconde, correspondant à des températures de l'ordre du microkelvin, un millionième de degré au-dessus du zéro absolu. On parle donc d'« atomes froids ».
Afin de réaliser, pour des ondes atomiques, les fonctions équivalentes aux miroirs et aux lames séparatrices utilisés en optique, on emploie encore des faisceaux lasers (Fig. 1). On peut se représenter ce mécanisme de manipulation d'ondes atomiques en termes d'échange de photons entre le laser et l'atome : en envoyant deux faisceaux lasers se propageant en sens opposés, l'atome peut absorber un photon du premier laser et émettre un photon suivant la direction du second laser. L'atome peut alors occuper deux états de vitesse, correspondant aux deux chemins de l'interféromètre : son état initial s'il n'a absorbé aucun photon, ou un état modifié par le transfert de vitesse communiqué par les deux photons. La probabilité de transfert d'un état vers l'autre est contrôlable par la force de l'interaction entre l'atome et la lumière. Varier la durée de l'interaction atome-laser (usuellement de l'ordre de quelques microsecondes) ou l'intensité du laser (une centaine de milliwatts par centimètre carré) permet de générer un état dans lequel l'atome occupe un chemin, ou l'autre, ou les deux à la fois ! On a alors réalisé l'équivalent d'une lame séparatrice pour l'atome. En utilisant une durée d'interaction plus longue ou une intensité plus élevée, il est possible de faire basculer l'atome d'un chemin vers l'autre avec une probabilité de 1, ce qui constitue l'équivalent d'un miroir.

Règle lumineuse
Nous disposons ainsi des briques de base pour concevoir un interféromètre. En partant d'un nuage d'atomes froids en chute libre (soumis à la gravité), on applique une première impulsion de type « séparatrice », suivie d'une impulsion de type « miroir », et enfin une seconde impulsion séparatrice au moment où les deux chemins se rejoignent. On réalise ainsi un interféromètre dans lequel deux ondes atomiques s'éloignent l'une de l'autre, puis sont défléchies pour se recombiner au niveau de la lame séparatrice de sortie, où un signal d'interférence pourra être observé. Pour lire l'état de sortie de l'atome, on peut recourir à une caméra (similaire à celle d'un smartphone) collectant la lumière émise par l'atome et capable de résoudre l'écart en position, correspondant aux deux sorties de l'interféromètre.

Notre objectif est d'utiliser cet interféromètre atomique pour des mesures d'accélération ou de rotation, des grandeurs qu'on dit « inertielles ». Il nous faut donc avoir accès à une information sur le mouvement de l'atome par rapport au référentiel de l'expérience. Pour le comprendre, revenons sur le processus d'interaction entre l'atome et les lasers. Lors de son changement de chemin, l'atome emporte avec lui une information relative à sa position dans les lasers. Plus précisément, la superposition des deux lasers contra-propageant peut être vue comme une règle lumineuse, dont le pas est égal à la moitié de la longueur d'onde de la lumière (typiquement 500 nm). Après avoir interagi avec ces lasers, l'atome emporte avec lui l'information sur sa position moyenne dans cette règle. Après une série de deux impulsions, on accède à une différence de positions, c'est-à-dire à la vitesse de l'atome dans la règle laser. Une série de trois impulsions donne accès à une différence de vitesses ; nous avons donc réalisé un accéléromètre.
La sensibilité du dispositif dépend essentiellement de deux ingrédients : plus le pas de la règle laser est fin, plus l'information sur la position de l'atome dans la règle sera précise ; en outre, plus la durée de libre évolution de l'atome entre les impulsions lasers augmente, plus le déplacement relatif de l'atome dans la règle sera important. En pratique, le pas de la règle laser doit correspondre à des transitions optiques dans des atomes, c'est-à-dire à des longueurs d'onde typiques comprises entre 400 et 800 nm (le spectre visible). Le temps d'interrogation peut varier de quelques millisecondes à quelques centaines de millisecondes, pour concevoir un capteur peu sensible mais compact, ou, au contraire, très sensible mais plus volumineux.

Le géoïde, la surface équipotentielle de pesanteur de la Terre, sert notamment à déterminer le niveau moyen des océans. Afin d'affiner les mesures, des gradiomètres à étomes froids sont en cours de conception. DR
Venons maintenant au point crucial pour des mesures de précision d'effets inertiels : la réponse de l'interféromètre atomique à une accélération du dispositif dépend surtout d'un paramètre expérimental, la longueur d'onde de la règle laser utilisée, dont on connaît la valeur exacte et dont on peut s'assurer de la stabilité dans le temps à des niveaux relatifs meilleurs que 10-10 ! Une telle performance d'exactitude et de stabilité confère un avantage certain aux capteurs inertiels à atomes froids pour plusieurs applications.
La mesure de gravité, ou gravimétrie, est indispensable aux géophysiciens : la mesure de l'accélération de la pesanteur et de ses variations spatio-temporelles renseigne en effet sur la répartition des masses au sein de la Terre. Une variation de densité dans le sous-sol, associée par exemple à la présence d'eau ou d'hydrocarbures, peut induire une variation relative de l'accélération de la pesanteur locale de l'ordre de 10-9. Détecter des variations aussi infimes suppose que l'instrument utilisé ne dérive pas de lui-même sur l'échelle de temps de la mesure. Sur cet aspect en particulier, les gravimètres à atomes froids se distinguent des autres technologies, utilisant notamment des systèmes masse-ressort ingénieux sujets aux dérives en température, difficiles à contrôler à ces niveaux de stabilité. Après plus de vingt ans de recherches, ils sortent désormais du laboratoire pour des mesures de terrain ! Ainsi, avec le projet Girafe 2, l'Onera a effectué des mesures de gravité à bord d'un navire ; et un gravimètre atomique de la société Muquans va être installé au sommet de l'Etna pour surveiller son activité (lire encadré).

Pour des études du champ de gravité terrestre à l'échelle globale, des gradiomètres (mesurant la dérivée spatiale du champ de pesanteur) à atomes froids, embarquables dans des satellites, sont actuellement en phase de conception par les laboratoires et les agences spatiales. Grâce à leur meilleure stabilité intrinsèque en comparaison des technologies utilisées jusqu'à présent (des gradiomètres électrostatiques), ils pourraient permettre d'affiner les mesures de la surface équipotentielle de pesanteur, le géoïde, qui représente la forme théorique de la Terre si elle était recouverte d'océans au repos et façonnée uniquement par la gravité. Cette surface de référence est utile pour de nombreuses études scientifiques, en particulier pour déterminer le niveau moyen des océans ou l'épaisseur des glaces, et donc pour comprendre le changement climatique et ses impacts.
Une autre application de ces capteurs est la navigation. Le positionnement autonome d'un engin en mouvement (avion, bateau, sous-marin, missile, etc.) s'effectue à partir des données d'accéléromètres et de gyromètres à bord (une centrale inertielle), dont les performances limitent la précision du positionnement. Dans un avion de ligne long-courrier, par exemple, l'instabilité des capteurs inertiels se traduit par des erreurs d'une centaine de mètres après une heure de vol, nécessitant un réétalonnage régulier au moyen d'un système de positionnement par satellite.

Dans les applications (sous-marines par exemple) où l'accès à ce type d'informations est fortement contraint, la durée de navigation autonome est limitée par l'instabilité des capteurs composant la centrale inertielle. De par leur grande stabilité intrinsèque, les dispositifs à atomes froids sont donc prometteurs. Si les instruments actuels ne sont pas encore assez matures pour les applications dans ce domaine, de nombreux travaux sont menés pour les rendre plus robustes (aux vibrations notamment), étendre leur dynamique de mesure, simplifier leur architecture et les confronter aux conditions du terrain.

Écouter l'Univers
Initialement pensés pour des études fondamentales, les interféromètres à atomes froids sortent donc du laboratoire, tant leur potentiel de précision est important. Le domaine rassemble aujourd'hui plus de 30 laboratoires de recherche dans le monde, ainsi que des entreprises. La recherche académique se poursuit activement, car les interféromètres atomiques pourraient permettre de répondre à certaines des grandes questions de la physique, comme la recherche de signatures de la matière noire ou de l'énergie sombre, ou l'étude de potentielles violations du principe d'universalité de la chute libre.
La France, pionnière du domaine des capteurs inertiels à atomes froids, s'est notamment lancée dans le projet Miga, prototype de détecteur d'ondes gravitationnelles utilisant l'interférométrie atomique. Si des développements conséquents en physique atomique restent à mener pour détecter ces vibrations de l'espace-temps, ces instruments nous permettraient « d'écouter » l'Univers à des fréquences plus basses que les détecteurs actuels, et ainsi de sonder la dynamique de trous noirs massifs encore peu étudiés. Si nous y parvenons, de nombreuses applications connexes verront sans doute le jour.
(*) Les ondes gravitationnelles sont des vibrations de l'espace-temps émises lorsque des corps sont accélérés. Les fusions de trous noirs ou d'étoiles à neutrons produisent des ondes gravitationnelles très intenses que l'on peut aujourd'hui détecter sur Terre.

ENSEIGNANT-CHERCHEUR, Remi Geiger est maître de conférences à Sorbonne Université et chercheur en technologies quantiques au laboratoire Syrte. Ses recherches portent sur les applicationsde l'interférométrie atomique aux mesures inertielles de précision, aux tests de physique fondamentale et à la détection d'ondes gravitationnelles.

CONTEXTE
Grâce à la physique quantique, les scientifiques savent manipuler les atomes avec de la lumière. Cela a permis de réaliser des horloges atomiques extrêmement stables. Les atomes peuvent aussi servir à mesurer les accélérations, les rotations ou la force de gravité avec une précision inédite.
SURVEILLER L'ACTIVITÉ DE L'ETNA

Le gravimètre à atomes froids, instrument de mesure ultra-précis, renseigne sur la répartition des masses au sein de la Terre © Muquans
L'Etna est l'un des volcans les plus actifs du monde. La gravimétrie permet de suivre les déplacements du magma qui remonte des profondeurs, et peut-être d'expliciter les mécanismes liant le volcanisme et les variations de gravité. C'est l'objectif du projet Newton-g auquel participe la société française Muquans, qui fabrique un gravimètre à atomes froids « absolu », donnant directement la valeur de g. Il sera installé à l'été 2020, à 2 500 mètres d'altitude, au sommet du volcan, en compagnie de gravimètres à base de microsystèmes électromécaniques, plus petits mais qui nécessitent d'être étalonnés. Ce gravimètre quantique a l'avantage d'avoir une très bonne résolution sur la mesure de g, quelque 10-8 m.s-2. En outre, il mesure en continu, à raison de deux observations par seconde, contrairement aux gravimètres absolus utilisés jusqu'ici en géophysique, constitués d'un interféromètre optique dont l'un des miroirs subit une chute libre.
 
Article suivant du dossier : "Nous voulons mettre en place un internet quantique", par Stéphanie Wehner, professeur d'information quantique à l'université technologique de Delft, aux Pays-Bas

 

  DOCUMENT      larecherche        LIEN  

 
 
 
 

L'intelligence artificielle

 



 

 

 

 

 

L'intelligence artificielle

Publié le 21 novembre 2017

 L’intelligence artificielle ou IA s'applique à tous les secteurs d’activité : transports, santé, énergie, industrie, logistique, finance ou encore commerce. Cloud, véhicule autonome, compteurs intelligents... utilisent tous des algorithmes performants pour fournir des réponses efficaces, fiables et personnalisées aux utilisateurs. Associant matériels et logiciels, l’intelligence artificielle mobilise des connaissances multidisciplinaires : électronique (collecte de données, réseaux de neurones), informatique (traitement de données, apprentissage profond), mathématiques (modèles d'analyse des données) ou sciences humaines et sociales pour analyser l'impact sociétal induit par ces nouveaux usages. L’essentiel sur les enjeux industriels et sociétaux majeurs de l’intelligence artificielle.

QU’EST-CE QUE L’INTELLIGENCE ARTIFICIELLE ?
L’intelligence artificielle ou encore IA, est un ensemble d’algorithmes conférant à une machine des capacités d’analyse et de décision lui permettant de s’adapter intelligemment aux situations en faisant des prédictions à partir de données déjà acquises.
L’intelligence artificielle associe les logiciels à des composants physiques (ou « hardware ») qui peuvent être des capteurs, des interfaces pour l’utilisateur…


A QUOI SERT L’INTELLIGENCE
ARTIFICIELLE ?
L’intelligence artificielle permet :

*         D’analyser des textes : qu’ils soient oraux ou écrits, l’intelligence artificielle arrive de mieux en mieux à comprendre et utiliser le langage pour répondre automatiquement à des requêtes variées. Aujourd’hui, elle est utilisée, par exemple, pour gérer les relations clients, sur Internet ou par téléphone. Les agents conversationnels ou chatbot en anglais sont des systèmes intelligents qui arrivent à entretenir une conversation en langage naturel. Ils se basent sur différentes briques technologiques : reconnaissance de texte, de la parole, d’expressions du visage…
*        
*         De modéliser des connaissances pour aider à la prise de décisions : l’intelligence artificielle permet de coder un ensemble de connaissances, de reproduire un raisonnement type et d’utiliser ces informations pour prendre des décisions. Par exemple, il est aujourd’hui possible, à partir de données multiples et complexes, d’aider les médecins à proposer des traitements personnalisés du cancer de la prostate.
*        
*         De produire des connaissances grâce au « machine learning » ou apprentissage automatique : grâce à l’intelligence artificielle, la machine devient capable de repérer des tendances ou des corrélations dans un très grand volume de données, en adaptant ses analyses et ses comportements et ainsi de créer ses propres connaissances en fonction de l’expérience accumulée. Cela permet de proposer des prédictions très fines sur la consommation d’énergie, l’évolution du comportement d’une machine ou d’un bâtiment. Les règles prédictives qui en sont tirées ne sont que le résultat de ce qui a déjà eu lieu ; ce ne sont pas des lois générales.
*        
*         D’analyser des images ou des scènes en temps réel : reconnaître des défauts de fabrication ou détecter des visages. Par exemple, certaines usines ont des robots qui détectent en temps réel les problèmes techniques, défauts et corrigent ou arrêtent la production. Pour parvenir à analyser une très grande quantité de données visuelles en simultané, les chercheurs développent des logiciels à base de réseaux de neurones profonds, qui permettent aux ordinateurs d’acquérir des capacités d’apprentissage (deep learning).
*        
*         De réaliser des actions : par exemple, l’intelligence artificielle permet d’imiter et reproduire à la perfection certains gestes humains comme celui d’administrer un vaccin via une main robotisée.


COMMENT FONCTIONNE LE DEEP LEARNING ?
Les chercheurs montrent un très grand nombre d’images ou de données numériques à une machine qui fonctionne à base de réseaux de neurones profonds (c’est-à-dire avec un très grand nombre de couches) en lui fixant un objectif comme « reconnaître un visage » ou « comprendre des panneaux de signalisation » ou « reconnaître un bruit sonore ».

En indiquant à la machine quelles sont les données pertinentes pour la requête, les chercheurs lui « apprennent » petit à petit à reconnaître ces informations. L’intelligence artificielle se base sur des similitudes pour reconnaître l’objet recherché, mais également pour le différencier des autres ! Par exemple, dans le cadre d’un apprentissage de la perception pour un véhicule autonome, on cherche à faire la différence entre les deux roues, les voitures, les piétons et l’environnement.


LES ENJEUX ET LIMITES
DU DÉVELOPPEMENT DE L’INTELLIGENCE ARTIFICIELLE
L’intelligence artificielle se retrouve dans tous les secteurs d’activité, des transports à la santé ou l’énergie, de la finance à l’administration et au commerce. Son développement impacte également l’organisation du travail, qui peut ainsi être facilitée (assistance à l’opérateur pour les tâches pénibles ; par exemple, automatisation des tâches répétitives).
L’intégration de plusieurs briques d’intelligence artificielle aboutit à des innovations de rupture comme le véhicule autonome. Pour des véhicules autonomes de niveau 4, c’est-à-dire capables de conduire et prendre toutes les décisions à la place du conducteur sur des portions de route de type autoroute, l’intelligence artificielle permettra à la fois d’analyser des textes (panneaux de signalisation) et des images (environnement de la voiture, type de panneaux) ; de prendre des décisions en fonction de l’environnement et  du code de la route ; et de conduire à la place de l’homme. Ces véhicules sont actuellement au stade de prototype et devraient être commercialisés d’ici 2020.

Les intelligences artificielles développées aujourd’hui sont dites « faibles » : elles savent au mieux imiter le raisonnement de l’être humain et appliquer des protocoles qui guident leurs décisions. Ces machines semblent agir comme si elles étaient intelligentes, mais elles montrent leurs limites quand on leur fait passer le test de Turing.


Le test de Turing
Le test de Turing du nom d’Alan Turing, pionnier de l’intelligence artificielle dans les années 50 et inventeur du test, a pour objectif, en s’adressant à une machine et à un humain lors d’un dialogue de détecter lequel est une IA.
Ce test simple consiste à mettre en relation trois « individus » A, B et C via un ordinateur. A et B parlent tous deux à C qui est un humain et qui a pour mission de découvrir qui de A ou de B n’est pas humain. Si C n’arrive pas à se décider, le test de Turing sera réussi car la machine aura réussi à parfaitement imiter un humain.
Ce test est plus un défi pour les sciences informatiques qu’un réel test. L’imitation de la pensée humaine a énormément évolué mais reste insuffisante, notamment en raison de l’absence de conscience de soi.

Vers une intelligence artificielle égale ou supérieure à l’humain ?
Si les intelligences artificielles actuelles sont loin d’égaler l’intelligence humaine, certains chercheurs  estiment que la première intelligence artificielle dite « forte » (qui aurait les mêmes capacités intellectuelles qu’un être humain ainsi qu’une conscience propre) pourrait voir le jour dès 2045 si les recherches continuent à progresser à ce rythme.
Que deviendrait l’Homme si l’intelligence artificielle avait conscience de sa supériorité sur l’espèce humaine ? Cette question, digne d’un film de science-fiction, légitime la définition de limites éthiques et légales.
C’est pourquoi l’encadrement législatif autour de l’intelligence artificielle est au cœur de nombreux débats, en France et dans le monde, afin de définir les responsabilités légales du comportement des intelligences artificielles.

Cybersécurité et intelligence artificielle
Une intelligence artificielle, basée sur des logiciels, est potentiellement vulnérable et peut être ciblée par des cyberattaques. Les questions de cybersécurité sont donc primordiales dans le développement des algorithmes d’IA. D’autant plus lorsque les intelligences artificielles effectuent des actions « critiques » comme des opérations chirurgicales (robots) ou la gestion de systèmes de production (usines). Dans ces situations, un simple piratage informatique peut vite tourner à la catastrophe. L’amélioration de la cybersécurité des intelligences artificielles est donc une nécessité à leur démocratisation.

L’INTELLIGENCE ARTIFICIELLE VA PERMETTRE L’AVÈNEMENT DE L’USINE DU FUTUR
Même si le développement et le perfectionnement de l’intelligence artificielle soulèvent des questions éthiques et de sécurité, l’un de ses enjeux reste d’assister l’Homme dans les gestes pénibles, voire de le remplacer dans les tâches les plus dangereuses.
La transformation numérique, et notamment les progrès de la robotique, vont inévitablement bouleverser le monde du travail, en recentrant les activités humaines sur les tâches à plus forte valeur ajoutée. L'accomplissement des tâches les plus pénibles par des robots collaboratifs entraînera aussi la création de nouveaux postes pour la conception, la maintenance et l’exploitation de ces robots intelligents. Et les entreprises qui s’en équiperont gagneront en compétitivité, et pourront développer de nouvelles compétences.
L’usine du futur utilise déjà des intelligences artificielles analysant l’ensemble des données de l’usine pour permettre une production plus responsable et économe en ressources. Conséquences : moins de déchets et de rebus, une gestion en temps réel de la production mais aussi de la consommation en électricité et matières premières.

 

   DOCUMENT     cea         LIEN

 
 
 
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 ] Précédente - Suivante
SARL ORION, Création sites internet Martigues, Bouches du Rhone, Provence, Hébergement, référencement, maintenance. 0ri0n
Site réalisé par ORION, création et gestion sites internet.


Google
Accueil - Initiation musicale - Instruments - Solfège - Harmonie - Instruments - Musiques Traditionnelles - Pratique d'un instrument - Nous contacter - Liens - Mentions légales /confidentialité

Initiation musicale Toulon

-

Cours de guitare Toulon

-

Initiation à la musique Toulon

-

Cours de musique Toulon

-

initiation piano Toulon

-

initiation saxophone Toulon

-
initiation flute Toulon
-

initiation guitare Toulon