ecole de musique piano
     
menu
 
 
 
 
 
 

Plongée dans le nanomonde

 

 

 

 

 

 

 

Plongée dans le nanomonde

L’essor constant de la miniaturisation va de pair avec la mise au point de nouveaux microscopes, ouvrant la voie aux nanosciences et aux nanotechnologies.

Publié le 1 juillet 2012
         
Les possibilités offertes par la miniaturisation avaient été perçues très en amont, dès 1959, par le physicien Richard Phillips Feynman. Celui-ci avait émis l’hypothèse que l’homme pouvait manipuler les atomes et les utiliser soit pour stocker de l’information, soit pour créer des systèmes fonctionnels. L’idée était là, mais pas les instruments permettant de vérifier cette hypothèse.
En appliquant à l’électronique une loi économique datant de la fin du XIXe siècle, Gordon Moore, cofondateur d’Intel, estimait en 1965 que la cadence de miniaturisation des transistors intégrés sur une même puce suivrait une pente régulière. En 1974, une puce contenait 4 transistors intégrés. Aujourd’hui, cette même puce en contient des dizaines de millions, chacun de la taille de 100 nm. En 2020, selon la courbe de cette « loi de Moore », les transistors devraient atteindre 10 nm !
Grâce à cette miniaturisation, les industriels fractionnent le cœur des processeurs en plusieurs sous-unités travaillant parallèlement, augmentant ainsi les fonctionnalités des processeurs.

Selon la loi de Moore, d’ici à 2020, la taille des transistors devrait atteindre 10 nm, contre 100 nm aujourd’hui.

TOP-DOWN ET BOTTOM-UP

Cette volonté de miniaturisation est celle de la voie descendante, ou top-down. Le matériau est découpé, sculpté, gravé pour atteindre la dimension souhaitée, grâce à l’instrumentation élaborée et améliorée par l’homme, en vue d’atteindre le micromètre, puis le nanomètre. À l’inverse, la voie ascendante, ou bottom-up, permet d’assembler atome par atome des agrégats, puis des molécules, pour construire la matière. Cette voie est similaire à celle suivie par la Nature qui, à partir de molécules simples, a formé le monde du vivant durant les 4 milliards d’années d’évolution.
L’étude du nanomonde englobe :
*         les nanosciences, qui étudient la composition de la matière, son assemblage et ses propriétés intimes à l’échelle du nanomètre ;
*         les nanotechnologies, qui correspondent aux techniques et outils utilisés pour étudier ces nouvelles propriétés de la matière et pour réaliser de nouveaux dispositifs, objets et systèmes qui les exploitent.



DES OUTILS TRÈS FINS ET PRÉCIS
Pour manipuler des objets aussi petits, les outils doivent être très fins et précis. Le microscope à effet tunnel est l’un des premiers instruments créés afin de « voir » les atomes à la surface de la matière. Cet instrument comporte une pointe métallique extrêmement fine qui permet de cartographier, atome par atome, la surface d’un matériau. Il est uniquement utilisé pour l’observation de la surface des matériaux conducteurs. Une tension électrique, créant un courant d’électrons, est exercée entre la pointe et la surface. La surface est donc balayée à une distance de quelques nanomètres, la pointe capture les électrons qui transitent grâce à l’effet tunnel. Les variations de ce « courant tunnel » sont enregistrées et traitées par un ordinateur fournissant une image du relief de la matière, atome par atome (voir schéma ci-dessous). Ses inventeurs, les Suisses Gerd Binnig et Heinrich Rohrer, du laboratoire de recherche d’IBM à Zurich, ont été couronnés par le prix Nobel de physique en 1986.


Le microscope à effet tunnel

Le microscope à force atomique permet d’obser­ver des matériaux non conducteurs, tels que les matériaux céramiques, polymères ou biologiques.
S’appuyant sur un dispositif semblable à celui qui équipait la tête de lecture des tourne-disques, il est 100 % mécanique. La pointe de ce microscope est fixée sur un bras de levier flexible, qui est en interaction avec la surface du matériau. Elle balaye la surface en suivant à très faible distance le relief. La déformation du levier, éclairé par un laser, est mesurée par un photodétecteur et enregistrée sur un ordinateur.
Dans un grand nombre d’expériences, les chercheurs ont recours à la puissance de calcul des supercalculateurs pour modéliser l’assemblage atomique et restituer ses propriétés propres. L’objectif est d’augmenter les connaissances en sciences de la matière ou du vivant et de constituer en amont des assemblages inédits ou de contrôler certaines propriétés.

 

  DOCUMENT     cea         LIEN

 
 
 
 

Le calcul et l'ordinateur quantiques

 


 

 

 

 

 

Le calcul et l'ordinateur quantiques

Publié le 18 mai 2021

Si l'on ne dispose pas encore d’une véritable technologie d’ordinateur quantique, qui permettrait d'exploiter toute la puissance du calcul quantique, de nombreuses routes sont néanmoins explorées aujourd’hui. Toutes font encore face à des difficultés sans solution viable. Mais l’histoire du domaine a montré que des verrous considérés comme infranchissables finissaient par être levés. C’est pourquoi la recherche mondiale est plus active que jamais et les annonces publiques se multiplient, dans le cadre de ce qui est appelé aujourd’hui la "deuxième révolution quantique".

Le calcul quantique ambitionne d'utiliser les propriétés quantiques ultimes de la matière (la superposition, l'intrication et la non-localité) pour effectuer massivement des opérations sur des données grâce à l'ordinateur quantique. Il permettrait de ce fait de dépasser très largement les capacités offertes par les ordinateurs classiques.

LES QUBITS, AU COEUR DU CALCUL QUANTIQUE
Le calcul quantique s’appuie sur des qubits, pendants quantiques des bits classiques. D’un point de vue physique, les qubits sont des systèmes matériels pouvant être mis dans deux états quantiques distincts. Conformément aux lois de la physique quantique, le qubit peut être placé dans un ensemble continu de superpositions de ses deux états de base, contrairement au bit classique qui ne peut prendre que deux valeurs (0 ou 1).
Comme les bits classiques, les qubits peuvent être utilisés pour encoder une information et soumis à des portes quantiques (équivalents des portes logiques). 

QU'EST-CE QU'UN BIT QUANTIQUE ?
Dans un ordinateur classique, l’information est stockée dans un ensemble (registre) de cases mémoires, les bits, dont la valeur est soit 0, soit 1. Un bit quantique (qubit) a, quant à lui, deux états quantiques |0> et |1>, séparés par une différence d’énergie définissant sa fréquence (fQB), et peut être à la fois dans ces deux états. Au cours d’un algorithme (succession d'opérations dites « portes logiques »), le registre de qubits se trouve dans une superposition quantique de tous ses états possibles (|00...0>, |10...0>, |11...1>, |10...1>), permettant un calcul massivement parallèle.



Le fonctionnement d'un ordinateur quantique
    

Atouts et difficultés de la recherche sur le calcul quantique

La promesse d’un parallélisme massif
Grâce à ses propriétés quantiques (superposition et intrication), un registre de N qubits se trouve à un instant donné dans une superposition de ses 2N configurations de base. Un registre de N bits ne peut, lui, se trouver que dans une seule d’entre elles à la fois.

Toute opération appliquée à un registre de N qubits s'effectuerait donc en parallèle sur les 2N états, là où un ordinateur classique doit traiter l’opération de façon séquentielle. Ce parallélisme massif ouvre des horizons extrêmement prometteurs, laissant espérer une résolution beaucoup plus rapide de certains problèmes ou l’identification d’une solution à des problèmes aujourd’hui insolubles.

L'INTRICATION QUANTIQUE
L’intrication quantique est un phénomène dans lequel deux particules (ou groupes de particules) forment un système unique, et présentent des états quantiques dépendant l'un de l'autre quelle que soit la distance qui les sépare.


Décohérence et correction d’erreurs
De très nombreux obstacles physiques et technologiques se dressent toutefois sur la route du calcul quantique, à commencer par la fragilité de l’état de superposition qui lui est nécessaire. Toute interaction, aussi minime soit-elle, avec l’extérieur (que ce soit par le biais d’interactions environnementales ou de mesures effectuées sur le système) a pour effet de détruire la superposition quantique : c’est la décohérence. La difficulté s’aggrave à mesure que le nombre de qubits intriqués augmente : le temps de cohérence d’un état intriqué de N qubits est en effet environ N fois plus court que celui d’un seul qubit.

Or, les interactions avec l’environnement ne peuvent par ailleurs être réduites à zéro, car elles sont nécessaires pour appliquer des opérations logiques sur les qubits et en effectuer la lecture. En pratique, il faut donc corriger les erreurs.

L'histoire de l'ordinateur quantique
Au début des années 1980, le Nobel de physique Richard Feynman est le premier à pressentir les possibilités faramineuses d’un ordinateur capable de tirer parti des lois quantiques.
Dès les années 1990, plusieurs théoriciens démontrent que certains calculs verraient leur résolution accélérée dans des proportions inouïes s’il était possible de les implémenter sur des bits quantiques, aussi appelés qubits, plutôt que sur des bits classiques. À condition, bien sûr, de disposer d’un processeur quantique pour les utiliser, processeur dont personne ne sait à l’époque à quoi il pourrait ressembler.


Molécules en phase liquide, ions piégés par des faisceaux laser, impureté dans les solides… les idées commencent à fuser dans les laboratoires de physique pour définir ce qui pourrait devenir les briques de base d’un futur ordinateur quantique, à l’instar des transistors de la microélectronique classique.

QUELS SONT LES ENJEUX DE LA RECHERCHE SUR LE CALCUL ET L'ORDINATEUR QUANTIQUES ?

Au XXe siècle, la mise au jour de la physique quantique a révolutionné notre conception du monde mais aussi notre mode de vie avec ses applications : lasers, transistors, circuits intégrés.
Une deuxième révolution quantique advient à l’aube du XXIe siècle. Elle regroupe des recherches visant à concevoir et à réaliser des dispositifs de rupture qui exploitent les phénomènes physiques de la superposition et de l’intrication quantique. C’est un domaine en pleine expansion avec de très forts enjeux scientifiques et technologiques. En particulier, la réalisation d’un ordinateur quantique, dont le calcul est intrinsèquement parallèle et permet de traiter en un temps très réduit de grandes quantités d’information, avec des performances inaccessibles au calcul classique, permettrait des approches révolutionnaires pour résoudre certaines classes de problèmes. Parmi les applications possibles :


*         La chimie : simuler, in silico, de manière exacte, la structure et le fonctionnement de grosses molécules d’intérêt pour la pharmacologie ou pour l’agronomie. Avec les plus puissants ordinateurs actuels, il est possible de simuler des petites molécules mais il est souvent nécessaire de recourir à de fortes approximations dès que la taille du système étudié augmente.
*        
*         Le Data Mining : Accélérer la recherche d’une information spécifique dans une vaste base de données.
*        
*         L’optimisation de procédés de l’industrie 4.0 : trouver une solution optimale dans un système complexe multiparamétrique, comme par exemple la tournée la plus rapide d’un camion de livraison ou ajuster l’offre à la demande sur un réseau électrique très décentralisé.
*        

*         L’intelligence artificielle : au cours de la phase d’apprentissage d’un système d’IA, telle qu’une reconnaissance d’images, les informations pourraient être simultanément reconnues et non de façon séquentielle comme c’est le cas avec des processeurs classiques (examiner une situation, puis une autre, etc.).
*        
*        
OÙ EN EST LA RECHERCHE DANS LE DOMAINE DU CALCUL QUANTIQUE ?

La recherche fondamentale dans le domaine de l'information quantique a connu un essor important cette dernière décennie. Les enjeux dans ce domaine et la rupture technologique que présenterait un ordinateur quantique ont incité de grandes entreprises à investir d'importants moyens, en s'associant à des communautés scientifiques, ou en créant leurs propres laboratoires de recherche.
L'association de Google avec l'Université de Californie de Santa Barbara ou la collaboration annoncée sur dix ans du groupe lntel avec l'université technologique de Delft illustrent l'engouement pour cette thématique de recherche et la nécessité de construire un véritable partenariat public-privé sur le long terme. Atos-Bull, leader européen du calcul intensif, s'est aussi positionné activement sur la feuille de route de l'ordinateur quantique en réalisant un émulateur d'ordinateur quantique intégrant finement mémoire et calcul dans un serveur classique optimisé, et en créant une équipe spécialisée en logiciel adapté au quantique.


4 pistes de qubits en compétition dans le monde

Actuellement, 4 types de qubits sont à l’étude dans le monde : le qubit supraconducteur, le qubit silicium, le qubit à ions piégés et le qubit photonique.
*         Le qubit supraconducteur est pour le moment la technologie la plus avancée. Il correspond à l’état d’un courant supraconducteur qui traverse une barrière très fine grâce à l’effet Josephson (c’est-à-dire l’apparition d’un courant entre deux matériaux supraconducteurs séparés par une couche d’un matériau non supraconducteur). L’objectif est de créer, à très basse température, une superposition de deux états distincts d’un courant qui oscille à haute fréquence et traverse la barrière en une boucle supraconductrice. Cette technique est utilisée notamment par IBM, Google, Intel, D-Wave et le CEA.
*        
*         Le qubit silicium, utilise, également à très basse température, la superposition (provoquée par un champ magnétique) du spin (une propriété quantique des particules qui n’a pas d’équivalent en physique classique) d’un électron. De petite taille (généralement 30 nanomètres), les qubits silicium pourraient ainsi être intégrés par millions voire milliards sur une même puce. Ils sont en outre compatibles avec les technologies CMOS (Complementary Metal Oxide Semiconductor : technologie de fabrication des composants électroniques), largement utilisées dans l’industrie microélectronique, ce qui leur donne un avantage compétitif pour la production en série. Cette approche est développée notamment par Intel et le CEA.
*        
*         Le qubit à ions piégés correspond à des orientations magnétiques d’ions, généralement de calcium, maintenus sous vide. Il fonctionne lui aussi à très basse température. Un laser sert à la mesure et exploite le phénomène de fluorescence des ions excités par le laser. Le magnétisme est utilisé pour l’activation des portes quantiques (qui sont les briques élémentaires d’un circuit quantique, fonctionnant sur quelques qubits). Certes difficilement industrialisables, les ions piégés peuvent s’intriquer plus librement et donc résoudre des calculs complexes plus facilement.
*        
*         Enfin, le qubit photonique est, quant à lui, lui codé sur de nombreux paramètres indépendants servant à décrire l’état d’un photon (aussi appelés degrés de liberté) : polarisation, couleur, forme spatiale ou temporelle. Les portes quantiques sont réalisées à l’aide de dispositifs optiques avec des filtres à deux couleurs ou polarisants. Il faut un grand nombre de lasers pour piloter l’ensemble, ce qui est contraignant. L’avantage de cette option est que ces qubits fonctionnent à température ambiante.       


Une accélération mondiale et un grand nombre d’initiatives publiques et privées
Plusieurs actions majeures à l'étranger (Etats-Unis, Royaume-Uni, Pays-Bas, Danemark) impliquent dès aujourd'hui de très grands industriels (Google, Intel…) et mobilisent des financements de plusieurs dizaines de millions d'euros.
Au niveau européen, un flagship sur l'ingénierie quantique a été décidé en 2016 et a démarré en 2018 avec l'ambition d'amener les technologies quantiques sur le marché. Le financement annoncé est d'au moins un milliard d'euros, apporté par la Commission européenne et les Etats membres sur dix ans.
A l'échelle nationale, Emmanuel Macron a présenté le 21 janvier 2021 le Plan quantique français, dont le Programme et équipements prioritaires de recherche dédié est coordonné par le CEA, le CNRS et l'INRIA.


Un grand nombre de voies à explorer pour espérer lever les verrous conceptuels et technologiques
Un grand nombre de voies de réalisation physique est développé en parallèle. Aucun consensus ni aucun argumentaire robuste n’existe aujourd’hui sur la solution la plus adaptée pour réaliser un ordinateur quantique comprenant plus d’une dizaine de qubits. Tous les systèmes étudiés jusqu’à présent se sont en effet heurtés aux problèmes de décohérence et de complexité rapidement croissante des dispositifs quand le nombre de qubits augmente : le temps de cohérence d’un état intriqué de N qubits est en effet environ N fois plus court que celui d’un seul qubit.

Or, les interactions avec l’environnement ne peuvent par ailleurs être réduites à zéro, car elles sont nécessaires pour appliquer des opérations logiques sur les qubits et en effectuer la lecture. En pratique, il faut donc corriger les erreurs. La seule architecture connue pour ce faire, appelée « code de surface », demande un très grand nombre de qubits physiques par qubit logique.

Ce problème de la correction d’erreurs est donc plus qu’ardu car ses difficultés sont d’ordre à la fois conceptuel et technologique, liant degrés de liberté, interactions, complexité, méthode d’adressage, méthode de mesure, décohérence. A ces questions s’ajoute la vaste problématique de l’algorithmique et de son implémentation pratique dans une architecture donnée (traitement des erreurs, langage de programmation…).

 

   DOCUMENT     cea         LIEN

 
 
 
 

Électronique... et plus encore

 

 

 

 

 

 

 

Électronique... et plus encore

Les domaines des nanosciences et nanotechnologies ont émergé dans les années 80 avec la mise au point de nouveaux outils de fabrication, de mesure et de caractérisation à l'échelle des atomes, comme les microscopes à effet tunnel.

Publié le 18 octobre 2018
 
Les nanocomposants sont fabriqués de deux manières :
*         La voie descendante, ou top-down. C'est la voie suivie par l'électronique depuis quarante ans, les dimensions du composant que l'on veut fabriquer ont été réduites au maximum, comme pour tous les circuits intégrés sur puce.
*        
*         La voie ascendante, ou bottom-up. Des molécules et des assemblages atomiques complexes sont assemblés avant d'être intégrés dans de plus grands systèmes. C'est l'une des voies d'avenir à plus ou moins long terme pour dépasser les limitations de la loi de Moore : fabriquer plus petit, moins cher, avec une qualité accrue, et surmonter ainsi les obstacles de la miniaturisation.        


TOP-DOWN
Nanoélectronique
Les outils de miniaturisation de découpe, sculpture, gravure… ont permis d'atteindre des dimensions inférieures au micromètre. En 1999, un premier transistor de 20 nm est réalisé. Aujourd'hui, un nouveau transistor à base de nanofils silicium et silicium-germanium permet l'augmentation des performances des circuits intégrés et la réduction de la puissance dissipée. Le système d'hétérojonctions permet d'envisager une plus grande miniaturisation des composants, et de passer ainsi sous le nœud technologique de 5 nm.
Pour offrir une alternative à la réduction des dimensions de circuits, dont le coût devient prohibitif, et afin d'être encore plus petites et plus fonctionnelles, les puces sont disposées les unes sur les autres, et non plus côte-à-côte, sur des wafers de 300 mm. L'une des technologies développée au CEA superpose et interconnecte des transistors FDSOI avec une précision d'alignement lithographique de l'ordre du nanomètre. Elle permet ainsi de disposer plus de 10 millions de contacts 3D au mm2 , contre 100 000 pour des solutions classiques.

Électronique quantique

Une boîte quantique (ou quantum dot en anglais) est une nanostructure de semi-conducteurs qui confine les électrons (et les trous) dans les trois dimensions de l'espace. Du fait de ces propriétés physiques, elles font l'objet d'études poussées depuis une vingtaine d'années, et trouvent leur principale application dans les transistors.
De plus, les points quantiques pourraient avoir une application dans l'informatique où des qubits, unités de stockage d'information quantique, remplaceraient le système actuel. Alors qu'un bit ne peut prendre que les valeurs 0 et 1, et une seule à la fois, un qubit n'a pas cette restriction. Concrètement, avec 4 bits, un ordinateur classique peut traiter un état parmi 24 soit 16 états différents : 0000, 0001, 0010, 0011... Dans un ordinateur quantique, les quatre qubits pourraient être dans une superposition de tous ces états et ces 16 états pourraient être traités simultanément. Il calculerait donc 4 fois plus vite qu'un ordinateur classique ! À noter, aujourd'hui, ces dispositifs ne fonctionnent qu'à très basse température (20 mKelvin).

BOTTOM-UP

La voie bottom-up fait appel à des connaissances fondamentales de physique et de chimie ; elle permet de concevoir les composants entièrement nouveaux de l'électronique moléculaire.
Mais si la fabrication atome par atome de nanocomposants est possible, elle est inenvisageable industriellement car elle prendrait un temps infini. À défaut de construire un circuit complet, les chercheurs envisagent la conception d'entités moléculaires dotées de fonctions électroniques capables de s'organiser seules. Pour les fabriquer, ils disposent de quatre briques de base : les molécules de synthèse, les biomolécules comme l'ADN, les nanoparticules métalliques ou semi-conductrices et les nanotubes de carbone.
En 1974, la première diode moléculaire a été réalisée sur une couche de molécules individuelles. Non plus faite en silicium, elle a été obtenue par la mise en contact de deux morceaux de semi-conducteurs : l'un comportant de nombreux électrons, alors que le deuxième en est extrêmement pauvre. Des molécules qui présentent cette même asymétrie ont ensuite été conçues ; puis un transistor dans lequel le canal était formé d'une de ces molécules. Ce dispositif a donné des preuves flagrantes du comportement quantique des électrons.
Mais la voie de l'auto-assemblage est difficile : il faut réussir à contrôler le positionnement des briques.

DE NOUVELLES TECHNOLOGIES
Spintronique, photonique, électronique moléculaire… autant de technologies à l'étude pour miniaturiser davantage les transistors et développer de nouvelles fonctions.

Spintronique, marier l'électronique et le magnétisme
Alors que l'électronique actuelle exploite la charge électrique de l'électron, la spintronique repose sur une autre de ses propriétés quantiques : le spin, qui correspond au moment magnétique élémentaire porté par l'électron. Cette propriété permet d'obtenir des fonctionnalités nouvelles pour coder, traiter ou transmettre une information.
Des dispositifs innovants, combinant des matériaux magnétiques qui servent de polariseur ou d'analyseur en spin et des matériaux conducteurs, isolants ou semiconducteurs, peuvent ainsi être réalisés. Certains sont déjà utilisés dans les disques durs d'ordinateurs. Ces capteurs, dont la résistance électrique varie en fonction du champ magnétique appliqué, permettent de relire l'information magnétique enregistrée sur le disque magnétique. La spintronique permet d'envisager de pousser la capacité de stockage au-delà du térabit (1015 bits) par pouce carré, c'est-à-dire 155 milliards de bits/cm2.
D'autres applications industrielles sont en train de voir le jour : des mémoires magnétiques MRAM (Magnetic Random Access Memory), qui ne disparaissent pas en cas de coupure d'alimentation, sont très rapides (écriture et lecture ne durent que quelques nanosecondes) et insensibles aux rayonnements ionisants, et des composants radiofréquence pour les télécommunications et les réseaux sans fil par exemple.

Photonique, la lumière pour coder l'information
Tous les systèmes actuels (une puce d'ordinateur, un circuit intégré, un transistor) sont basés sur le transport, le confinement et les propriétés physiques de l'électron. Mais si, pour aller plus vite, il était remplacé par le photon ? Celui-ci, outre qu'il se déplace à la vitesse de la lumière (300 000 km/s), provoque peu de dissipation de chaleur lors de son déplacement.
Mais le silicium, vedette de la microélectronique, est une piètre source de lumière… à l'état macroscopique. Soumis aux lois étranges du monde quantique, un cristal de silicium nanostructuré (une dizaine de nm seulement) voit ses performances d'émission fortement modifiées ! Un cristal photonique guide ensuite ces photons. Constitués en perçant de minuscules trous de manière périodique dans un semi-conducteur, ces cristaux réfléchissent et dirigent la lumière. Ils peuvent aussi la filtrer, en agissant sur des longueurs d'onde particulières et permettent de la confiner dans un volume extrêmement faible (quelques centaines de nm3).
Pour aller vers l'ordinateur à photons, de nombreuses recherches sont en cours pour la modulation, le multiplexage et le décodage des signaux.

LE SPIN
Les électrons ont trois particularités physiques : leur masse, leur charge et leur spin. Pour cette dernière caractéristique intrinsèque, tout se passe comme si le moment magnétique de l'électron s'apparentait au sens de rotation interne de celui-ci autour d'un axe fixe imaginaire. Pour les électrons, le spin ne peut prendre que deux valeurs : +1/2 spin dit « up » ou -1/2 spin dit « down », correspondant ainsi au fait qu'il ne peut tourner que dans un sens ou dans l'autre. Il est ainsi possible de coder une information en langage binaire (0 ou 1).

DES LABORATOIRES AUX START-UPS
STMicroelectronics et Soitec

En France, l'aventure du silicium sur isolant (Silicon On Insulator) a démarré en 1974, pour répondre à des applications militaires qui exigent une électronique « durcie », résistant aux effets des rayons ionisants. L'Institut Leti du CEA est alors devenu un des rares endroits au monde – avec quelques entreprises américaines travaillant pour la défense des États-Unis – où de tels circuits étaient développés. Depuis 1992, en fournissant les substrats supports des composants, Soitec joue un rôle clé dans l'industrie de la microélectronique. STMicroelectronics conçoit et produit des matériaux semiconducteurs innovants, offre des solutions inédites et compétitives pour que se poursuivent la miniaturisation des puces, l'augmentation de leurs performances et la réduction de leur consommation d'énergie. Ces produits sont utilisés dans les smartphones, les tablettes, les ordinateurs, les serveurs informatiques ou les data centers. On les retrouve aussi dans les composants électroniques des automobiles, les objets connectés, les équipements industriels et médicaux.

Du thermomètre au bolomètre
Au début des années 1980, la production à grande échelle des premiers capteurs de pression MEMS (Micro Electro Mechanical Systems) a donné un nouvel essor à une technologie de détection du rayonnement infrarouge : la détection thermique. Le CEA et la DGA (Direction générale de l’armement) ont lancé, à partir de 1992, le développement d'une filière nationale de détecteurs infrarouge non refroidis à base de microbolomètres. Cette technologie a été transférée en 2000 à Sofradir, qui a créé en 2002 la filiale Ulis grand public chargée de son industrialisation.
À l'origine, les produits concernaient des systèmes de vision nocturne pour la surveillance et la sécurité, ou des caméras de thermographie pour des applications haut de gamme (contrôle de procédé, maintenance d'installations, caméra pour pompiers). La réduction des coûts de fabrication a permis de les intégrer dans un nombre croissant d'applications grand public : bâtiments connectés, voitures, téléphones portables...
    
Movea capture les mouvements
Des laboratoires du CEA travaillent depuis plusieurs décennies à la miniaturisation des capteurs de mouvements et leur intégration dans des circuits électroniques. La start-up Movea est née en 2007 de l'idée d'embarquer ces capteurs – et leurs logiciels d'exploitation – dans des objets grand public, pour des applications dans les domaines des loisirs, de la santé ou du sport.

Isorg et l'électronique imprimée
En s'appuyant sur une technologie issue du CEA, la société Isorg a acquis une expertise industrielle unique au monde dans l'impression de matériaux semi-conducteurs en solution, à température et air ambiants, mais également dans la mise au point de photodiodes organiques sur des surfaces allant de quelques millimètres carrés à plusieurs décimètres carrés.

Elle conçoit et fabrique des photodétecteurs organiques souples et imprimables sur tout type de surface. Ces nouveaux capteurs photosensibles, minces, légers et conformables, offrent des avantages uniques par rapport aux capteurs traditionnels, tels que le coût de fabrication, la gamme spectrale, l'intégration mécanique et la résistance aux chocs. Cette technologie de rupture permet de transformer des surfaces de toutes natures, comme par exemple en plastique ou en verre, en surfaces intelligentes capables de vision ou d'interactivité. Avec ses produits, la société vise les marchés de la santé (imagerie par rayons X), de l'industrie (capteurs pour l'industrie du futur et objets connectés, comme par exemple la métrologie et la logistique) et de l'électronique grand public (écrans interactifs).

 

 DOCUMENT     cea         LIEN

 
 
 
 

L'intelligence artificielle

 


 

 

 

 

 

L'intelligence artificielle

Publié le 21 novembre 2017


L’intelligence artificielle ou IA s'applique à tous les secteurs d’activité : transports, santé, énergie, industrie, logistique, finance ou encore commerce. Cloud, véhicule autonome, compteurs intelligents... utilisent tous des algorithmes performants pour fournir des réponses efficaces, fiables et personnalisées aux utilisateurs. Associant matériels et logiciels, l’intelligence artificielle mobilise des connaissances multidisciplinaires : électronique (collecte de données, réseaux de neurones), informatique (traitement de données, apprentissage profond), mathématiques (modèles d'analyse des données) ou sciences humaines et sociales pour analyser l'impact sociétal induit par ces nouveaux usages. L’essentiel sur les enjeux industriels et sociétaux majeurs de l’intelligence artificielle.

QU’EST-CE QUE L’INTELLIGENCE ARTIFICIELLE ?
L’intelligence artificielle ou encore IA, est un ensemble d’algorithmes conférant à une machine des capacités d’analyse et de décision lui permettant de s’adapter intelligemment aux situations en faisant des prédictions à partir de données déjà acquises.
L’intelligence artificielle associe les logiciels à des composants physiques (ou « hardware ») qui peuvent être des capteurs, des interfaces pour l’utilisateur…

A QUOI SERT L’INTELLIGENCE
ARTIFICIELLE ?

L’intelligence artificielle permet :

*         D’analyser des textes : qu’ils soient oraux ou écrits, l’intelligence artificielle arrive de mieux en mieux à comprendre et utiliser le langage pour répondre automatiquement à des requêtes variées. Aujourd’hui, elle est utilisée, par exemple, pour gérer les relations clients, sur Internet ou par téléphone. Les agents conversationnels ou chatbot en anglais sont des systèmes intelligents qui arrivent à entretenir une conversation en langage naturel. Ils se basent sur différentes briques technologiques : reconnaissance de texte, de la parole, d’expressions du visage…
*        
*         De modéliser des connaissances pour aider à la prise de décisions : l’intelligence artificielle permet de coder un ensemble de connaissances, de reproduire un raisonnement type et d’utiliser ces informations pour prendre des décisions. Par exemple, il est aujourd’hui possible, à partir de données multiples et complexes, d’aider les médecins à proposer des traitements personnalisés du cancer de la prostate.
*        
*         De produire des connaissances grâce au « machine learning » ou apprentissage automatique : grâce à l’intelligence artificielle, la machine devient capable de repérer des tendances ou des corrélations dans un très grand volume de données, en adaptant ses analyses et ses comportements et ainsi de créer ses propres connaissances en fonction de l’expérience accumulée. Cela permet de proposer des prédictions très fines sur la consommation d’énergie, l’évolution du comportement d’une machine ou d’un bâtiment. Les règles prédictives qui en sont tirées ne sont que le résultat de ce qui a déjà eu lieu ; ce ne sont pas des lois générales.
*        
*         D’analyser des images ou des scènes en temps réel : reconnaître des défauts de fabrication ou détecter des visages. Par exemple, certaines usines ont des robots qui détectent en temps réel les problèmes techniques, défauts et corrigent ou arrêtent la production. Pour parvenir à analyser une très grande quantité de données visuelles en simultané, les chercheurs développent des logiciels à base de réseaux de neurones profonds, qui permettent aux ordinateurs d’acquérir des capacités d’apprentissage (deep learning).
*        
*         De réaliser des actions : par exemple, l’intelligence artificielle permet d’imiter et reproduire à la perfection certains gestes humains comme celui d’administrer un vaccin via une main robotisée.


COMMENT FONCTIONNE LE DEEP LEARNING ?
Les chercheurs montrent un très grand nombre d’images ou de données numériques à une machine qui fonctionne à base de réseaux de neurones profonds (c’est-à-dire avec un très grand nombre de couches) en lui fixant un objectif comme « reconnaître un visage » ou « comprendre des panneaux de signalisation » ou « reconnaître un bruit sonore ».

En indiquant à la machine quelles sont les données pertinentes pour la requête, les chercheurs lui « apprennent » petit à petit à reconnaître ces informations. L’intelligence artificielle se base sur des similitudes pour reconnaître l’objet recherché, mais également pour le différencier des autres ! Par exemple, dans le cadre d’un apprentissage de la perception pour un véhicule autonome, on cherche à faire la différence entre les deux roues, les voitures, les piétons et l’environnement.


LES ENJEUX ET LIMITES
DU DÉVELOPPEMENT DE L’INTELLIGENCE ARTIFICIELLE

L’intelligence artificielle se retrouve dans tous les secteurs d’activité, des transports à la santé ou l’énergie, de la finance à l’administration et au commerce. Son développement impacte également l’organisation du travail, qui peut ainsi être facilitée (assistance à l’opérateur pour les tâches pénibles ; par exemple, automatisation des tâches répétitives).
L’intégration de plusieurs briques d’intelligence artificielle aboutit à des innovations de rupture comme le véhicule autonome. Pour des véhicules autonomes de niveau 4, c’est-à-dire capables de conduire et prendre toutes les décisions à la place du conducteur sur des portions de route de type autoroute, l’intelligence artificielle permettra à la fois d’analyser des textes (panneaux de signalisation) et des images (environnement de la voiture, type de panneaux) ; de prendre des décisions en fonction de l’environnement et  du code de la route ; et de conduire à la place de l’homme. Ces véhicules sont actuellement au stade de prototype et devraient être commercialisés d’ici 2020.
Les intelligences artificielles développées aujourd’hui sont dites « faibles » : elles savent au mieux imiter le raisonnement de l’être humain et appliquer des protocoles qui guident leurs décisions. Ces machines semblent agir comme si elles étaient intelligentes, mais elles montrent leurs limites quand on leur fait passer le test de Turing.

    


Le test de Turing

Le test de Turing du nom d’Alan Turing, pionnier de l’intelligence artificielle dans les années 50 et inventeur du test, a pour objectif, en s’adressant à une machine et à un humain lors d’un dialogue de détecter lequel est une IA.
Ce test simple consiste à mettre en relation trois « individus » A, B et C via un ordinateur. A et B parlent tous deux à C qui est un humain et qui a pour mission de découvrir qui de A ou de B n’est pas humain. Si C n’arrive pas à se décider, le test de Turing sera réussi car la machine aura réussi à parfaitement imiter un humain.
Ce test est plus un défi pour les sciences informatiques qu’un réel test. L’imitation de la pensée humaine a énormément évolué mais reste insuffisante, notamment en raison de l’absence de conscience de soi.

Vers une intelligence artificielle égale ou supérieure à l’humain ?
Si les intelligences artificielles actuelles sont loin d’égaler l’intelligence humaine, certains chercheurs  estiment que la première intelligence artificielle dite « forte » (qui aurait les mêmes capacités intellectuelles qu’un être humain ainsi qu’une conscience propre) pourrait voir le jour dès 2045 si les recherches continuent à progresser à ce rythme.
Que deviendrait l’Homme si l’intelligence artificielle avait conscience de sa supériorité sur l’espèce humaine ? Cette question, digne d’un film de science-fiction, légitime la définition de limites éthiques et légales.
C’est pourquoi l’encadrement législatif autour de l’intelligence artificielle est au cœur de nombreux débats, en France et dans le monde, afin de définir les responsabilités légales du comportement des intelligences artificielles.

Cybersécurité et intelligence artificielle
Une intelligence artificielle, basée sur des logiciels, est potentiellement vulnérable et peut être ciblée par des cyberattaques. Les questions de cybersécurité sont donc primordiales dans le développement des algorithmes d’IA. D’autant plus lorsque les intelligences artificielles effectuent des actions « critiques » comme des opérations chirurgicales (robots) ou la gestion de systèmes de production (usines). Dans ces situations, un simple piratage informatique peut vite tourner à la catastrophe. L’amélioration de la cybersécurité des intelligences artificielles est donc une nécessité à leur démocratisation.

L’INTELLIGENCE ARTIFICIELLE VA PERMETTRE L’AVÈNEMENT DE L’USINE DU FUTUR
Même si le développement et le perfectionnement de l’intelligence artificielle soulèvent des questions éthiques et de sécurité, l’un de ses enjeux reste d’assister l’Homme dans les gestes pénibles, voire de le remplacer dans les tâches les plus dangereuses.
La transformation numérique, et notamment les progrès de la robotique, vont inévitablement bouleverser le monde du travail, en recentrant les activités humaines sur les tâches à plus forte valeur ajoutée. L'accomplissement des tâches les plus pénibles par des robots collaboratifs entraînera aussi la création de nouveaux postes pour la conception, la maintenance et l’exploitation de ces robots intelligents. Et les entreprises qui s’en équiperont gagneront en compétitivité, et pourront développer de nouvelles compétences.
L’usine du futur utilise déjà des intelligences artificielles analysant l’ensemble des données de l’usine pour permettre une production plus responsable et économe en ressources. Conséquences : moins de déchets et de rebus, une gestion en temps réel de la production mais aussi de la consommation en électricité et matières premières.

 

 DOCUMENT     cea         LIEN

 
 
 
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 ] Précédente - Suivante
SARL ORION, Création sites internet Martigues, Bouches du Rhone, Provence, Hébergement, référencement, maintenance. 0ri0n
Site réalisé par ORION, création et gestion sites internet.


Google
Accueil - Initiation musicale - Instruments - Solfège - Harmonie - Instruments - Musiques Traditionnelles - Pratique d'un instrument - Nous contacter - Liens - Mentions légales /confidentialité

Initiation musicale Toulon

-

Cours de guitare Toulon

-

Initiation à la musique Toulon

-

Cours de musique Toulon

-

initiation piano Toulon

-

initiation saxophone Toulon

-
initiation flute Toulon
-

initiation guitare Toulon