|
|
|
|
 |
|
DES SATTELLITES À LA PORTÉE DES ÉTUDIANTS |
|
|
|
|
|
Cubesat : des satellites à la portée des étudiants
Ces minuscules dispositifs de 10 cm de côté sont un support de travail idéal pour les ingénieurs en herbe qui peuvent ensuite les exploiter après qu'ils ont été lancés dans l'espace.
PÉDAGOGIQUES. En décembre 2015, un satellite français devrait décoller à bord d'un lanceur Falcon 9 de la société privée américaine SpaceX. Un satellite un peu particulier puisque ce dernier ne sera qu'un des nombreux passagers lors de ce lancement. Et pour cause "Robusta-1B" (c'est son nom) est si petit qu'il tient dans la paume de la main. Il fait en effet partie de la catégorie des "cubesat". De petits objets cubiques de 10 cm d'arête et pesant à peine plus d'un kilo.
Robusta-1B n'est pas le premier de son espèce, loin de là. Leurs spécifications techniques ont été définies en 1999 par deux professeurs d'universités aux États-Unis, désireux d'initier leurs étudiants à la conception, la fabrication, l'assemblage, le lancement et l'exploitation de satellites, à la manière d'une agence spatiale. Rapidement, leur idée s'est répandue comme une trainée de poudre. Et pour cause, relativement simple à construire, rapide à assembler, et passionnants à concevoir, ces petits cubes high-tech permettent aux étudiants d'aborder toutes les thématiques liées au domaine spatial, depuis la gestion d'une orbite aux télécommunications, en passant par la collecte et le traitement de données.
Simples, performants, et beaucoup moins chers
Certes, les cubesat ne sont pas aussi performant que leurs massifs homologues. Ils n'embarquent qu'une batterie minuscule qui ne leur fournit pas pour l'instant la puissance nécessaire pour relayer des flux vidéos. De même, leur compacité s'accommode mal avec des applications d'imagerie tels que des télescopes, qui nécessitent des optiques de grande longueur. Néanmoins, ils peuvent rendre une somme incalculable de services : cartographie sommaire, détecteurs de particules, magnétomètres, relais de communication, etc. Ils peuvent demeurer 1 à 2 ans sur leur orbite basse avant de retomber et de se désintégrer dans l'atmosphère, ce qui simplifie grandement les problématiques liées à la gestion des déchets spatiaux.
TARIF. Et surtout, ils ne coûtent qu'une fraction du prix d'un satellite "classique". Car ces cubesats sont souvent lancés par grappe d'une dizaine voire d'une trentaine et partagent parfois le lanceur avec de gros satellites commerciaux dont les opérateurs financent la plus grande part du lancement. "Mettre 1 kilo dans l'espace dans ces conditions coûte environ 30.000 euros" estime Frédéric Saigné, professeur à l'Institut d'Électronique de Montpellier (IES) et directeur de la Fondation Van Allen qui se charge de collecter les fonds pour financer ce type de projet ainsi que des bourses d'étudiants (la Région Languedoc-Roussillon finance grandement l’ensemble du projet et notamment le premier Centre spatial Universitaire français).
Des expériences universitaires dans le vide spatial
Le tout premier de ces mini satellites cubiques était américain. Il a décollé en juin 2003 à bord d'un lanceur Rockot. Depuis, plus de 130 de ces mini satellites ont été lancés. Le premier cubesat français a décollé en février 2012, en même temps que le premier lanceur européen Vega. Durant ce vol de qualification, le lanceur a mis sur orbite deux gros satellites et 7 petits cubesats parmi lesquels figurait "Robusta-1A". Un satellite conçu par des étudiants de l'Université de Montpellier et l'équipe du Centre Spatial Universitaire, suite à l'appel à projet "Expresso" amorcé en 2006 par le CNES.
Placé sur son orbite, Robusta-1A a émis pendant quelques heures avant de cesser de fonctionner. "Nous avons beaucoup appris de cette expérience. C'est très probablement un souci de branchement au niveau des panneaux solaires qui a empêché la batterie de notre cubesat de se recharger" analyse Jérôme Boch, professeur à l'IES. Et ce demi échec a plus que jamais motivé les troupes pour renouveler l'expérience en concevant le successeur de ce premier cubesat : Robusta-1B.
Sa charge utile est constituée d'une plaque de circuit imprimé sur laquelle sont fixés des composants électroniques. L'objectif est d'étudier en conditions réelles comment vieillit l'électronique lorsqu'il est exposé à l'environnement radiatif hostile de l'espace. L'étude de ce vieillissement in situ sera l'occasion de valider de nouveaux modèles prédictifs de vieillissement de l'électronique. "En effet, jusqu'à présent, on se contente de reproduire les effets de l'environnement radiatif spatial en irradiant les composants en laboratoire pendant un temps très court (comparé à la durée de vie d'un satellite), puis on extrapole afin d'obtenir une information sur le vieillissement. Or, il est bien connu qu'une irradiation plus lente, correspondante aux conditions réelles que rencontrera le satellite, n'aura pas les mêmes effets sur l'électronique. Robusta 1b nous permettra de vérifier ces hypothèses en environnement réel"explique Mathias Rousselet, étudiant impliqué dans le projet.
Et ces premiers lancements ne sont que le début d'une longue série. Le Centre Spatial Universitaire (CSU) de Montpellier espère désormais lancer au moins un de ces cubesats par an.
De fait, un peu avant l'été 2015, un lanceur devrait décoller de Russie, emportant avec lui une petite carte électronique développé par le CSU en partenariat avec l'université de Bauman en Russie. Il s'agira cette fois de tester la résistance de différents types de mémoire flash ou Ram dans un environnement spatial.
OPÉRATIONNEL. Et le projet suivant est d'ores et déjà sur la rampe de lancement. Il s'agit d'un triple cubesat baptisé Robusta-3A Mediterranée. Sa mission sera de servir de relai pour transmettre des données collectées par le GPS des navires qui croisent en Méditerranée. En effet, le signal GPS met un peu plus de temps à parvenir aux récepteurs lorsque le ciel est encombré de nuages. La mesure de ce délai fournit une indication sur la quantité d'eau contenue dans la troposphère, au dessus du navire. Ces données seront transmises par chaque navire et collectées par le satellite. Elles seront alors transmises dans un format exploitable à Meteo-France, afin d'en affiner les modèles et donc les prédictions météorologiques. "Le partenariat est en cours de signature avec Méteo-France" assure Frédéric Saigné.
Tisser des collaborations internationales et avec les agences spatiales
Et lorsqu'ils ne sera pas utilisé à des fins météorologiques, le cubesat pourra être employé pour faire transiter des données de type SMS entre des universités partenaires au Burkina-Faso, à Madagascar, ainsi que dans le sud de la France. Ce satellite constituera un défi technique supplémentaire puisqu'il sera stabilisé par des petits propulseurs, et qu'il emploiera à cet effet un "star tracker". C'est à dire une petite caméra capable de se repérer grâce à la position des étoiles dans le ciel.
Le domaine des cubesat semble tellement porteur que l'université de Montpellier leur a même ouvert un cursus dédié, portant sur l'ingénierie des systèmes spatiaux. Ce qui permet aux étudiants de travailler en partenariat avec l'ESA, le CNES, mais aussi avec l'agence spatiale russe Roscosmos ainsi qu'avec le laboratoire JPL de la NASA. "Dans les 5 ans, quelques 1000 nanosatellites de 1 à 10 kilos pourraient-être lancés" prédit un article du journal The Economist.
DOCUMENT sciencesetavenir.fr LIEN |
|
|
|
|
 |
|
AVA, LE ROBOT |
|
|
|
|
|
Ava, le robot qui nous calculait trop
01.06.2015, par Charline Zeitoun
Universal Pictures
« Ex Machina », thriller high-tech sur l’intelligence artificielle, sort mercredi sur les écrans. Nous l’avons vu en avant-première avec un expert du domaine, l’informaticien Jean-Gabriel Ganascia.
Une machine intelligente échappe-t-elle forcement à son créateur ? Dans Ex Machina, Alex Garland, scénariste du magnifique Never Let Me Go 1, remet le couvert sur ce thème rebattu de la science-fiction. Au cœur de ce huis-clos étouffant, Caleb, jeune programmeur prodige chez BlueBook, moteur de recherche et géant d’Internet, est invité à passer une semaine chez son patron, Nathan, hipster barbu au crane rasé, retiré dans une villa bunker au fin fond de l’Alaska. Caleb y participera à une expérience unique : interagir avec Ava, un troublant robot féminin. Dans la forteresse high-tech truffée de caméras, de courtes pannes d’électricité offrent à Ava et Caleb de brefs moments d’intimité hors de la surveillance de Nathan…
Le film ne se limite pas à une mise en scène du test de Turing
À première vue, Ex Machina ressemble à une mise en scène stylisée d’un test bien connu en intelligence artificielle : le test de Turing. Il consiste à confronter à l’aveugle des humains et des machines. Si une personne ne peut dire si elle discutait avec un congénère ou non à l’issue d’un chat avec un logiciel, on considère que ce dernier – capable de bluffer les humains en imitant leur façon de converser – a passé le test avec succès. « Mais dans le film, commente Jean-Gabriel Ganascia, chercheur au LIP62, c’est l’être humain qui subit le test : tout est inversé ! » Ava, palindrome qui peut se lire à l’envers, prend le dessus en posant elle-même les questions. Et son corps laisse clairement voir ses entrailles mécaniques... Fini donc le test à l’aveugle : Nathan, le big-boss, parie insolemment sur le fait que sa créature aura quand même l’air dotée d’intelligence et de conscience.
Bande annonce Ex_Machina
À propos Transcript Partager
Mais le film ne se limite pas au test de Turing, passera, passera pas… « Ava “dépasse” son créateur, poursuit Jean-Gabriel Ganascia, Ex_Machina renvoie donc aussi à une thématique à la mode : la singularité. » La singularité, c’est ce moment hypothétique qui verrait la croissance technologique accéder à un ordre supérieur. Il s’agirait d’intelligences artificielles (IA) dépassant les humains qui les ont créées. À partir de là, les machines pourraient prendre le pouvoir, se réparant et s’auto-engendrant elles-mêmes. La science-fiction (SF) en a fait son pain quotidien. Skynet, l’IA qui décide de construire une armée de robots terminators dans les films de James Cameron, est une illustration parfaite de cette thématique.
Il est plus que
discutable que des
informaticiens,
physiciens, etc.,
affirment sans
preuves que la
singularité est une
réalité scientifique.
« Que la SF comme Ex_Machina s’empare de ce thème, d’abord né en philosophie 3, est légitime. Mais il est plus que discutable que des informaticiens, physiciens, etc., affirment aujourd’hui sans preuves que la singularité est une réalité scientifique », insiste Jean-Gabriel Ganascia. En cause, des déclarations alarmistes faites à la presse il y a quelques mois sur les dangers de l’IA par Stephen Hawking, le célèbre physicien, Bill Gates, fondateur de Microsoft, et Elon Musk, créateur de Paypal. Et l’alerte lancée, de manière un peu plus mesurée, dans une lettre ouverte (link is external) signée en janvier dernier par 700 personnalités, dont à nouveau Stephen Hawking et Elon Musk, mais aussi Frank Wilczek, Prix Nobel de physique, et des membres éminents de Google. « Les signataires sont souvent ceux qui développent justement des produits riches en IA : un peu hypocrite, non ? », fait remarquer Jean-Gabriel Ganascia.
On peut aussi évoquer l’étonnante Université de la singularité, sorte de centre de recherche et d’éducation autour de la high-tech dite de rupture, créé en 2009 dans la Silicon Valley, aux États-Unis, et qui s’exporte maintenant en Europe, parfois dans de grandes universités. Financée par Google, basée à San Fransisco sur le campus de la Nasa, elle a été cofondée par Ray Kurzweil, informaticien, futurologue, théoricien du transhumanisme, et… finalement recruté par Google il y a trois ans. « De manière générale, il devient difficile aujourd’hui de faire de la recherche en IA indépendamment des grandes sociétés du Net. Il me semble qu’il y a collusion entre ces scientifiques et les intérêts des géants qui les financent », commente Jean-Gabriel Ganascia.
BlueBook, double de fiction de Google, véritable État dans l’État
L’intérêt d’Ex Machina est justement d’aborder – hélas trop discrètement – l’ambiguïté de ces liens. BlueBook, la société-empire que dirige Nathan, semble un mix audacieux de Google et de Facebook. « Et, pour créer le “cerveau” d’Ava, le patron démiurgique a utilisé les informations de son moteur de recherche. La créature du film est le reflet de tout ce qui se trouve sur le Web et pour ainsi dire de l’humanité tout entière. Cette intelligence “collective” correspond à une approche très contemporaine de la question », souligne Jean-Gabriel Ganascia. Enfin, grâce au Big data et au scannage du profil de Caleb sur les réseaux, Ava semble avoir été « psychologiquement » profilée pile-poil pour lui plaire, au-delà de la pureté de son visage et de ses déplacements ondulatoires hypnotiques.
Extrait 1 Ex_Machina
À propos Transcript Partager
Avez-vous
remarqué que
Google s’investit
de plus en plus
dans des services
d’ordre régalien,
c’est-à-dire du
ressort de l’État ?
« C’est là que se situe le véritable danger à court terme, reprend le chercheur, dans l’emprise que ces géants du Net ont sur nos vies privées et nos données. Avez-vous remarqué que Google, partisan du transhumanisme et très engagé en robotique, s’investit aussi de plus en plus dans des services d’ordre régalien, c’est-à-dire du ressort de l’État ? » L’ogre américain s’emploie en effet déjà au cadastre avec Google Maps, à la monnaie avec le porte-monnaie électronique Google Wallet, et à la santé en y investissant 35 %4 de son fond d’investissement Google Ventures, qui pèse 2 milliards de dollars d’actifs. Et ce n’est que le début. « Il me semble que leurs prétendues alertes sur la prise de pouvoir par des machines intelligentes ne sont qu’un écran de fumée pour détourner notre attention de tout cela… », suggère le chercheur.
Un film pour les fans d’intelligence artificielle
« Bien sûr il existe des dangers potentiels liés aux logiciels très puissants qui prennent des décisions sans intervention humaine, car nous sommes dépassés par l’ampleur des masses de données qu’ils traitent et leur rapidité, reprend Jean-Gabriel Ganascia. Mais les machines ne cherchent pas à prendre le pouvoir : c’est nous qui leur en laissons ! Il faut donc plutôt s’inquiéter de la place de l’humain dans les chaînes de décision que nous mettons nous-mêmes en place, des limites à donner à l’autonomie des machines… et de l’emprise des sociétés qui fabriquent et utilisent les algorithmes. » En cela, le thème central d’Ex_Machina se révèle peu novateur car il repose sur une violence un peu téléphonée du robot. Au contraire de l’excellent Her (2014), de Spike Jones, prouesse scénaristique qui tient le spectateur en haleine pendant deux heures face à un homme qui discute avec… le système d’exploitation de son ordinateur ! Il, ou plutôt elle, dépourvue de “corps”, s’échappe paisiblement, abandonnant les humains aux capacités décidément trop limitées.
Extrait 2 Ex_Machina
À propos Transcript Partager
Ex_Machina interpellera surtout les fans d’intelligence artificielle, notamment quand Caleb raisonne sur la façon de tester une machine via l’humour ou la sémantique, ou fait référence à l’expérience de Marie, avant d’être renvoyé dans ses cordes par Nathan qui lui demande de réagir « avec ses tripes » et de simplement lui dire s’il est bluffé ou non.
« C’est exactement l’approche de Turing dans les années 1950. Il ne voulait pas s’embarrasser à définir l’intelligence ni la conscience. Pour lui, celle d’une machine serait de toute façon différente de la nôtre qui est, elle, liée à notre corps, à notre expérience du monde et à nos émotions, commente Jean-Gabriel Ganascia. Aujourd’hui, la conscience – qu’on ne sait d’ailleurs pas définir – ne passionne pas les chercheurs en IA et on est très loin d’en créer une. Il n’y a en France pas ou peu d’investissements là-dessus. »
Les machines
ne cherchent pas
à prendre le pouvoir : c’est
nous qui leur
en laissons !
On cherche plutôt à créer des machines « transparentes », façon Tars, le robot en forme d’arbre à cames du récent Interstellar (2014) dont on peut paramétrer le degré de franchise. « En robotique, on veut donner aux machines assez d’autonomie pour qu’elles réalisent certaines tâches, mais pas consciemment !, poursuit le chercheur. Qu’elles fassent illusion suffit largement : le but est surtout de faciliter nos interactions avec elles, tout en les gardant sous contrôle… » Au contraire d’Ava douée d’assez de libre-arbitre et de volonté pour s'émanciper. À moins qu’elle n’ait justement été programmée pour cela, en usant de toutes les stratégies possibles...
Le film regorge aussi de références bibliques (le titre, tiré de l’expression deus ex machina ; les prénoms des personnages5 ; etc.) et de clins d’œil appuyés à différents mythes : de Faust (Caleb doit signer un contrat draconien), aux sept femmes de Barbe bleue (certaines portes ne doivent pas être ouvertes), en passant par Prométhée, Pygmalion, Frankenstein et surtout le Golem, classiques habituels convoqués dans les films où les robots se mettent à travailler du ciboulot. « Dans l’une des versions du mythe 6, Rabbi Loew, créateur du Golem, avait écrit sur le front de celui-ci le mot « Emet », vérité en hébreu, raconte Jean-Gabriel Ganascia. Mais sitôt animé, le Golem effaça la première lettre, ce qui donna « Met », mort en hébreu. Inquiet de l’ambivalence de la créature qui commençait à lui échapper, Rabbi Loew n’hésita pas à la détruire. » Un geste qui s’avèrera problématique pour l’arrogant Nathan, misogyne et manipulateur, mégalo imbibé de bière et de vodka durant la majeur partie du film…
DOCUMENT CNRS LIEN |
|
|
|
|
 |
|
INTELLIGENCE ARTIFICIELLE |
|
|
|
|
|
L'intelligence artificielle progresse à StarCraft
Dès 1997, l'ordinateur Deep Blue battait le champion d'échecs Garry Kasparov. Mais il reste encore du chemin avant que l'intelligence artificielle puisse rivaliser avec un être humain dans un jeu de stratégie en temps réel (RTS) comme StarCraft. Ces dernières années, un tournoi s'est mis en place pour donner aux scientifiques l'occasion d'évaluer les progrès dans le domaine et de comparer leurs IA respectives. Lors de la dernière rencontre en date, la médaille de bronze a été attribuée à AIUR 2.1, une création de Florian Richoux, chercheur de l'équipe projet Tasc au Lina, à Nantes.
Le Secteur Kropulu ? Un recoin sombre de la Voie Lactée où Protoss, Terrans et Zergs se livrent une guerre aux proportions cosmiques. Apparu en 1998, StarCraft incarne le jeu de stratégie en temps réel par excellence. Avec onze millions d'exemplaires vendus sur la planète Terre, il reste à ce jour indétrôné.
“Le jeu propose trois races très différentes et conserve un excellent équilibre entre elles, explique Florian Richoux. Aucune n'a le dessus sur les autres. De plus, il existe des professionnels, des tournois télévisés, quantités d'informations et beaucoup de matchs à analyser. On peut ainsi toucher une grande communauté de joueurs, de sponsors et de spectateurs. Rien de tel pour promouvoir la recherche en Intelligence Artificielle. ”
De fil en aiguille, StarCraft est devenu l'étalon à l'aune duquel se mesurent les avancées scientifiques dans le domaine. Chaque année, en Amérique du Nord, un tournoi machine contre machine se déroule durant la conférence AIIDE (Artificial Intelligence and Interactive Digital Entertainment). “Je m'y suis intéressé à partir de 2010, se souvient Florian Richoux. Cette année-là, Overmind, l'IA de l'Université de Berkeley, avait remporté le tournoi. Au vu des matchs, elle semblait complètement scriptée. Elle appliquait systématiquement la même stratégie —certes efficace— quelque soit l'adversaire. Je me suis dit que je pouvais faire mieux. Et c'est comme ça que je me suis lancé. ”
Une dose d'aléatoire
Le chercheur a donc développé AIUR (Artificial Intelligence Using Randomness). Cette AI a remporté la médaille de bronze au tournoi organisé durant AIIDE 2013. “L'idée de base c'est de laisser certains choix stochastiques afin de la rendre plus difficilement prédictible. Surtout ne pas toujours appliquer la même stratégie. Toutes les IA, y compris la mienne, demeurent bien trop scriptées. Cependant, AIUR comporte une touche d'aléatoire à deux niveaux. Premièrement, et c'est le plus important, elle dispose de 5 stratégies très différentes. ” On les appelle aussi des "humeurs". Durant les premiers matches contre un joueur, l'IA les essaye chacune tour à tour et observe laquelle marche le mieux. “De cette phase initiale d'apprentissage, AIUR déduit une distribution de probabilité de sélection de stratégies contre cet adversaire. Elle favorise les stratégies gagnantes sans s'interdire des stratégies moins efficaces mais qui peuvent porter leurs fruits de temps en temps. Deuxièmement, certaines actions sont pondérées par de l’aléatoire : timing de la première attaque, nombre d'unités affectées à la prochaine offensive... ”
Comme dans la réalité, le fameux brouillard de guerre théorisé par Clausevitz s'invite sur le champ de bataille. “Et c'est là que réside tout l'intérêt. Ce brouillard recouvre toute la carte. Il ne se dissipe qu'à proximité de vos unités. Au-delà, vous ignorez ce que trame l'adversaire. Que ce soient des humains ou des machines, les joueurs doivent deviner et anticiper les coups adverses à partir des quelques bribes d'informations qu'ils ont pu collecter. ”
L'humain meilleur décideur
Quand il s'agit de spéculer à partir d'une information aussi fragmentaire, l'être humain reste inégalé. “On ne connaît pas encore de bons algorithmes pour prendre des décisions efficaces dans les jeux de stratégie en temps réel. Toutes les techniques appliquées jusque là pour les échecs ou le go... échouent. ” Et aucune solution n'est à espérer du côté de la puissance de calcul. “Pour StarCraft, une estimation optimiste du nombre d'états de jeu possibles et valides par minute avoisine 2.10690. Mener des simulations classiques de Monte Carlo est pratiquement sans espoir. Même sur les meilleurs super-calculateurs. Aussi puissante soit-elle, aucune machine ne peut explorer efficacement le gigantesque espace de recherche des choix menant à autant d'états du jeu. Il faut en quelque sorte lire entre les lignes. Or, l'ordinateur n'est pas très doué pour cela. ”
D'où le besoin de nouvelles techniques aptes à contourner cet obstacle. Actuellement, à StarCraft, les meilleurs IA perdent face à de bons débutants. "Mais au jeu de go, nous commençons à avoir des IA qui battent des joueurs professionnels partant avec seulement 4 pierres de handicap. Je suis certain que d'ici 2 ou 3 ans, même sans handicap, les pros devront s'incliner. ”
Cela dit, l'intelligence artificielle en RTS demeure un domaine de recherche relativement nouveau. “Tout reste à construire. Ce qui est passionnant. ” La discipline va-t-elle contribuer à lever des verrous scientifiques ? “J'en suis convaincu, répond Florian Richoux. Devant un problème qu'on ne sait pas résoudre, la démarche scientifique habituelle consiste à simplifier ce problème. Je vois StarCraft comme une simplification du monde réel qui, à l'instar du jeu, est lui aussi un environnement dynamique à information incomplète. Des algorithmes efficaces de prise de décisions pour StarCraft devraient pouvoir s'appliquer avec succès à des problématiques plus ambitieuses comme la robotique, la gestion automatique du trafic aérien, la finance... ”
DOCUMENT inria.fr LIEN |
|
|
|
|
 |
|
MÉCANISME DE REPLIEMENT DES MOLÉCULES |
|
|
|
|
|
Textede la 595ème conférencede l'Universitéde tous les savoirs prononcée le 17 juillet 2005
ParDidier Chatenay: « Le mécanisme de repliement des molécules »
Le thème de cette conférence vous fera voyager aux confins de plusieurs sciences : physique, chimie et biologie bien évidemment puisque les macromolécules dont nous parlerons sont des objets biologiques : des protéines.
Le plan de cet exposé sera le suivant :
- Quelques rappels sur la structure de la matière (atomes, liaisons chimiques, molécules, macromolécules).
- Qu'est-ce qu'une protéine (la nature chimique de ces macromolécules, leur mode de synthèse, leurs structures et leurs fonctions biologiques) ?
- Le problème du repliement (d'où vient le problème, paradoxe de Levinthal).
- Résolution du paradoxe et interactions inter intra moléculaires (échelles des énergies mises en jeu).
Rappels sur la structure de la matière.
La matière est constituée d'atomes eux-mêmes étant constitués d'un noyau (composé de particules lourdes : protons, chargés positivement, et neutrons non chargé) entouré d'un nuage de particules légères : les électrons chargés négativement. La taille caractéristique d'un atome est de 1 Angström (1 Angström est la dix milliardième partie d'un mètre ; pour comparaison si je prends un objet de 1 millimètre au centre d'une pièce, une distance dix milliards de fois plus grande représente 10 fois la distance Brest-Strasbourg).
Dans les objets (les molécules biologiques) que nous discuterons par la suite quelques atomes sont particulièrement importants.
Par ordre de taille croissante on trouve tout d'abord l'atome d'hydrogène (le plus petit des atomes) qui est le constituant le plus abondant de l'univers (on le trouve par exemple dans le combustible des fusées). L'atome suivant est le carbone ; cet atome est très abondant dans l'univers (on le trouve dans le soleil, les étoiles, l'atmosphère de la plupart des planètes. Il s'agit d'un élément essentiel comme source d'énergie des organismes vivants sous forme de carbohydrates). On trouve ensuite l'azote, constituant essentiel de l'air que nous respirons. L'atome suivant est l'oxygène, également constituant essentiel de l'air que nous respirons, élément le plus abondant du soleil et essentiel au phénomène de combustion. Le dernier atome que nous rencontrerons est le souffre que l'on trouve dans de nombreux minéraux, météorites et très abondants dans les volcans.
Les atomes peuvent interagir entre eux pour former des objets plus complexes. Ces interactions sont de nature diverse et donnent naissance à divers types de liaisons entre les atomes. Nous trouverons ainsi :
- La liaison ionique qui résulte d'interactions électrostatiques entre atomes de charges opposées (c'est par exemple ce type de liaison, qu'on rencontre dans le chlorure de sodium, le sel de table). Il s'agit d'une liaison essentielle pour la plupart des minéraux sur terre, comme par exemple dans le cas des silicates, famille à laquelle appartient le quartz.
- Un autre type de liaison est la liaison covalente. Cette liaison résulte de la mise en commun entre 2 atomes d'un électron ou d'une paire d'électrons. Cette liaison est extrêmement solide. Ce type de liaison est à l'origine de toute la chimie et permet de former des molécules (l'eau, le glucose, les acides aminés). Ces acides aminés sont constitués de carbone, d'azote, d'hydrogène et d'oxygène. Dans ces molécules on retrouve un squelette qu'on retrouve dans tous les acides aminés constitué d'un groupement NH2 d'un côté et COOH de l'autre ; la partie variable est un groupement latéral appelé résidu. Un exemple d'acide aminé est constitué par la méthionine qui d'ailleurs contient dans son résidu un atome de soufre. La taille caractéristique des distances mises en jeu dans ce type de liaison n'est pas très différente de la taille des atomes eux-mêmes et est de l'ordre de l'angström (1.5 Angström pour la liaison C-C, 1 Angström pour une liaison C-H).
Ces liaisons ne sont pas figées et présentent une dynamique ; cette dynamique est associée aux degrés de libertés de ces liaisons tels que par exemple un degré de liberté de rotation autour de l'axe d'une liaison C-C. Ces liaisons chimiques ont donc une certaine flexibilité et aux mouvements possibles de ces liaisons sont associés des temps caractéristiques de l'ordre de la picoseconde (mille milliardième partie de seconde) ; il s'agit de temps très rapides associés aux mouvements moléculaires.
A ce stade nous avons 2 échelles caractéristiques importantes :
- 1 échelle de taille : l'angström
- 1 échelle de temps : la picoseconde.
C'est à partir de cette liaison covalente et de petites molécules que nous fabriquerons des macromolécules. Un motif moléculaire, le monomère, peut être associé par liaison covalente à un autre motif moléculaire ; en répétant cette opération on obtiendra une chaîne constituée de multiples monomères, cette chaîne est une macromolécule. Ce type d'objets est courant dans la vie quotidienne, ce sont les polymères tels que par exemple :
- le polychlorure de vinyle (matériau des disques d'antan)
- le polytétrafluoroéthylène (le téflon des poêles)
- le polyméthacrylate de méthyl (le plexiglas)
- les polyamides (les nylons)
Quelle est la forme d'un objet de ce type ? Elle résulte des mouvements associés aux degrés de libertés discutés plus haut ; une chaîne peut adopter un grand nombre de conformations résultant de ces degrés de liberté et aucune conformation n'est privilégiée. On parle d'une marche aléatoire ou pelote statistique.
Les protéines
Quelles sont ces macromolécules qui nous intéressent particulièrement ici ? Ce sont les protéines qui ne sont rien d'autre qu'une macromolécule (ou polymère) particulière car fabriquée à partir d'acides aminés. Rappelons que ces acides aminés présentent 2 groupes présents dans toute cette famille : un groupe amine (NH2) et un groupe carboxyle (COOH) ; les acides aminés diffèrent les uns des autres par la présence d'un groupe latéral (le résidu). A partir de ces acides aminés on peut former un polymère grâce à une réaction chimique donnant naissance à la liaison peptidique : le groupement carboxyle d'un premier acide aminé réagit sur le groupement amine d'un deuxième acide aminé pour former cette liaison peptidique. En répétant cette réaction il est possible de former une longue chaîne linéaire.
Comme nous l'avons dit les acides amines diffèrent par leurs groupes latéraux (les résidus) qui sont au nombre de 20. On verra par la suite que ces 20 résidus peuvent être regroupés en familles. Pour l'instant il suffit de considérer ces 20 résidus comme un alphabet qui peut donner naissance à une extraordinaire variété de chaînes linéaires. On peut considérer un exemple particulier : le lysozyme constitué d'un enchaînement spécifique de 129 acides aminés. Une telle chaîne comporte toujours 2 extrémités précises : une extrémité amine et une extrémité carboxyle, qui résultent de la réaction chimique qui a donné naissance à cet enchaînement d'acides aminés. Il y a donc une directionnalité associée à une telle chaîne. La succession des acides aminés constituant cette chaîne est appelée la structure primaire. La structure primaire d'une protéine n'est rien d'autre que la liste des acides aminés la constituant. Pour revenir au lysozyme il s'agit d'une protéine présente dans de nombreux organismes vivants en particulier chez l'homme où on trouve cette protéine dans les larmes, les sécrétions. C'est une protéine qui agit contre les bactéries en dégradant les parois bactériennes. Pour la petite histoire, Fleming qui a découvert les antibiotiques, qui sont des antibactériens, avait dans un premier temps découvert l'action antibactérienne du lysozyme ; mais il y a une grosse différence entre un antibiotique et le lysozyme. Cette molécule est une protéine qu'il est difficile de transformer en médicament du fait de sa fragilité alors que les antibiotiques sont de petites molécules beaucoup plus aptes à être utilisées comme médicament.
Pour en revenir au lysozyme, présent donc dans les organismes vivants, on peut se poser la question de savoir comment un tel objet peut être fabriqué par ces organismes. En fait, l'information à la fabrication d'un tel objet est contenue dans le génome des organismes sous la forme d'une séquence d'acide désoxyribonucléique (ADN) constituant le gène codant pour cette protéine. Pour fabriquer une protéine on commence par lire l'information contenue dans la séquence d'ADN pour fabriquer une molécule intermédiaire : l'ARN messager, lui-même traduit par la suite en une protéine. Il s'agit donc d'un processus en 2 étapes :
- Une étape de transcription, qui fait passer de l'ADN à l'ARN messager,
- Une étape de traduction, qui fait passer de l'ARN messager à la protéine.
Ces objets, ADN et ARN, sont, d'un point de vue chimique, très différents des protéines. Ce sont eux-mêmes des macromolécules mais dont les briques de base sont des nucléotides au lieu d'acides aminés.
Ces 2 étapes font intervenir des protéines ; l'ARN polymérase pour la transcription et le ribosome pour la traduction. En ce qui concerne la transcription l'ARN polymérase se fixe sur l'ADN, se déplace le long de celui-ci tout en synthétisant l'ARN messager. Une fois cet ARN messager fabriqué un autre système protéique, le ribosome, se fixe sur cet ARN messager, se déplace le long de cet ARN tout en fabriquant une chaîne polypeptidique qui formera la protéine. Il s'agit d'un ensemble de mécanismes complexes se produisant en permanence dans les organismes vivants pour produire les protéines.
Ces protéines sont produites pour assurer un certain nombre de fonctions. Parmi ces fonctions, certaines sont essentielles pour la duplication de l'ADN et permettre la reproduction (assure la transmission à la descendance du patrimoine génétique). Par ailleurs ce sont des protéines (polymérases, ribosomes) qui assurent la production de l'ensemble des protéines. Mais les protéines assurent bien d'autres fonctions telles que :
- Des fonctions de structure (la kératine dans les poils, les cheveux ; le collagène pour former des tissus),
- Des fonctions de moteurs moléculaires (telles que celles assurées par la myosine dans les muscles) ; de telles protéines sont des usines de conversion d'énergie chimique en énergie mécanique.
- Des fonctions enzymatiques. Les protéines de ce type sont des enzymes et elles interviennent dans toutes les réactions chimiques se déroulant dans un organisme et qui participent au métabolisme ; c'est par exemple le cas du mécanisme de digestion permettant de transformer des éléments ingérés pour les transformer en molécules utilisables par l'organisme.
Pour faire bref toutes les fonctions essentielles des organismes vivants (la respiration, la digestion, le déplacement) sont assurés par des protéines.
A ce stade nous avons donc introduit les objets essentiels de cet exposé que sont les protéines. Pour être complet signalons que la taille de ces protéines est très variable ; nous avons vu le lysozyme constitué d'une centaine d'acides aminés mais certaines protéines sont plus petites et certaines peuvent être beaucoup plus grosses.
Nous allons maintenant pouvoir aborder le problème de la structure et du repliement de ces objets.
La structured'une protéine
Tout d'abord quels sont les outils disponibles pour étudier la structure de ces objets. Un des outils essentiels est la diffraction des rayons X. L'utilisation de cet outil repose sur 2 étapes. La première (pas toujours la plus facile) consiste à obtenir des cristaux de protéines. Ces protéines, souvent solubles dans l'eau, doivent être mises dans des conditions qui vont leur permettre de s'arranger sous la forme d'un arrangement régulier : un cristal. C'est ce cristal qui sera utilisé pour analyser la structure des protéines qui le composent par diffraction des rayons X. A partir du diagramme de diffraction (composé de multiples tâches) il sera possible de remonter à la position des atomes qui constituent les protéines. Un des outils essentiels à l'heure actuelle pour ce type d'expérience est le rayonnement synchrotron (SOLEIL, ESRF).
Il existe d'autres outils telle que la résonance magnétique nucléaire qui présente l'avantage de ne pas nécessiter l'obtention de cristaux mais qui reste limitée à l'heure actuelle à des protéines de petite taille.
Finalement à quoi ressemble une protéine ? Dans le cas du lysozyme on obtient une image de cette protéine où tous les atomes sont positionnés dans l'espace de taille typique environ 50 Angströms. Il s'agit d'un cas idéal car souvent on n'obtient qu'une image de basse résolution de la protéine dans laquelle on n'arrive pas à localiser précisément tous les atomes qui la constituent. Très souvent cette mauvaise résolution est liée à la mauvaise qualité des cristaux. C'est l'exemple donné ici d'une polymérase à ARN. Néanmoins on peut obtenir des structures très précises même dans de le cas de gros objets.
Repliement,dénaturation et paradoxede Levinthal
Très clairement on voit sur ces structures que les protéines sont beaucoup plus compactes que les chaînes désordonnées mentionnées au début. Cette structure résulte du repliement vers un état compact replié sur lui-même et c'est cet état qui est l'état fonctionnel. C'est ce qui fait que le repliement est un mécanisme extrêmement important puisque c'est ce mécanisme qui fait passer de l'état de chaîne linéaire déplié à un état replié fonctionnel. L'importance de ce repliement peut être illustrée dans le cas d'un enzyme qui permet d'accélérer une réaction chimique entre 2 objets A et B ; ces 2 objets peuvent se lier à l'enzyme, ce qui permet de les approcher l'un de l'autre dans une disposition où une liaison chimique entre A et B peut être formée grâce à l'environnement créé par l'enzyme. Tout ceci ne peut se produire que si les sites de fixation de A et B sont correctement formés par le repliement de la longue chaîne peptidique. C'est la conformation tridimensionnelle de la chaîne linéaire qui produit ces sites de fixation.
Il y a une notion associée au repliement qui est la dénaturation. Nous venons de voir que le repliement est le mécanisme qui fait passer de la forme dépliée inactive à la forme repliée active ; la dénaturation consiste à passer de cette forme active repliée à la forme inactive dépliée sous l'influence de facteurs aussi variés que la température, le pH, la présence d'agents dénaturants tels que l'urée.
La grande question du repliement c'est la cinétique de ce phénomène. Pour la plupart des protéines où des expériences de repliement-dénaturation ont été effectuées le temps caractéristique de ces phénomènes est de l'ordre de la seconde. Comment donc une protéine peut trouver sa conformation active en un temps de l'ordre de la seconde ?
Une approche simple consiste à développer une approche simplifiée sur réseau ce qui permet de limiter le nombre de degrés de liberté à traiter ; on peut par exemple considérer une protéine (hypothétique) placée sur un réseau cubique. On peut considérer le cas d'une protéine à 27 acides aminés. On peut alors compter le nombre de conformations possibles de telles protéines ; à chaque acide aminé on compte le nombre de directions pour positionner le suivant. Sur un réseau cubique à chaque étape nous avons 6 possibilités ce qui fera pour une chaîne de 27 acides aminés 627 possibilités. Cela n'est vrai qu'à condition d'accepter de pouvoir occuper 2 fois le même site du réseau ce qui, bien sur, n'est pas vrai dans la réalité ; si on tient compte de cela on arrive en fait à diminuer quelque peu ce nombre qui sera en fait 4,727. Plus généralement pour une chaîne de N acides aminés on obtiendra 4,7N possibilités. Si on part d'une chaîne dépliée on peut alors se dire que pour trouver le « bon état replié » il suffit d'essayer toutes les conformations possibles. Cela va s'arrêter lorsqu'on aura trouvé une conformation stable, c'est-à-dire une conformation énergétiquement favorable. Pour passer d'une conformation à une autre il faut au moins un mouvement moléculaire élémentaire dont nous avons vu que l'échelle de temps caractéristique est la picoseconde (10-12 seconde). I faut donc un temps total (afin d'explorer toutes les conformations) :
Trepliement= 4,7N * Tmoléculaire.
Si on prend N=100, Tmoléculaire= 1picoseconde=10-12seconde, alors :
Trepliement= 1055 secondes !!!
C'est beaucoup car on cherche 1 seconde et on trouve quelque chose de beaucoup plus grand que l'âge de l'univers (de l'ordre de 1027 secondes). Avec cette approche il faut plus de temps à une protéine pour se replier et met plus de temps que l'âge de l'univers.
C'est le paradoxe de Levinthal.
Comment s'en sortir ?
Il faut revenir aux acides aminés et en particulier aux résidus qui permettent de différencier les 20 acides aminés. Ces 20 acides aminés peuvent se regrouper en famille selon la nature de ce résidu.
Une première famille est constituée par les acides aminés hydrophobes. Qu'est ce qu'un acide aminé hydrophobe ou l'effet hydrophobe ? Il s'agit de l'effet qui fait que l'eau et l'huile ne se mélangent pas. Si sur une chaîne on dispose des acides aminés hydrophobes alors ceux-ci vont faire « collapser » la chaîne afin de se regrouper et de se « protéger » de l'eau, tout comme l'eau et l'huile ont tendance à ne pas se mélanger. Ce mécanisme tend à créer ainsi une poche hydrophobe qui permet à ces acides aminés d'éviter l'eau. On commence ainsi à avoir une amorce de solution au paradoxe de Levinthal : la protéine ne va essayer que toutes les conformations, elle va commencer à utiliser dans un premier temps ce mécanisme qui à lui seul va éliminer un grand nombre de conformations possibles.
Mais il y a d'autres familles d'acides aminés et parmi celles-ci celle des acides aminés chargés (+ ou -) qui vont être soumis aux interactions électrostatiques classiques (les charges de même signe se repoussent, les charges de signe contraire s'attirent). Ainsi, si le long de la chaîne nous avons 2 acides aminés de signe opposé ils vont avoir tendance à s'attirer ; cet effet a là encore tendance à diminuer le nombre de conformations possibles pour la chaîne.
Dernière famille, un peu plus complexe mais au sein de laquelle les interactions sont de même nature que pour les acides aminés chargés, à savoir des interactions de type électrostatique. Cette famille est constituée par les acides aminés polaires qui ne portent pas de charge globale mais au sein desquels la distribution des électrons est telle qu'il apparaît une distribution non uniforme de charges ; cette asymétrie dans la répartition des charges va permettre par exemple de créer des liaisons hydrogènes entre molécules d'eau (interactions qui donnent à l'eau des propriétés particulières par rapport à la plupart des autres liquides).
Au total l'image initiale que nous avions des chaînes polypeptidiques doit être un peu repensée et l'on doit abandonner l'idée d'une marche au hasard permettant d'explorer toutes les conformations possibles puisque les briques de base de ces chaînes interagissent fortement les unes avec les autres. On peut ainsi récapituler l'ensemble des interactions au sein d'une chaîne (effet hydrophobe, liaison ionique, liaison hydrogène, sans oublier un mécanisme un peu particulier faisant intervenir des acides aminés soufrés qui peuvent former un pont disulfure ; il s'agit néanmoins d'une liaison un peu moins générale que les précédentes et qui par ailleurs est beaucoup plus solide).
La structure globale de nos protéines résulte de la présence de toutes ces interactions entre les acides aminés présents le long de la chaîne. Lorsque l'on regarde attentivement de telles structures on observe la présence d'éléments répétitifs assez réguliers : hélices, feuillets. Ces feuillets sont des structures locales au sein desquelles la chaîne est organisée dans un plan au sein duquel la chaîne s'organise. Ces éléments de régularité résultent des interactions entre acides aminés et pour la plupart il s'agit des fameuses liaisons hydrogènes entre atomes spécifiques. Bien évidemment certaines régions sont moins organisées et on retrouve localement des structures de type marche au hasard.
Si on récapitule ce que nous avons vu concernant la structure des protéines, nous avons introduit la notion de structure primaire qui n'est rien d'autre que l'enchaînement linéaire des acides aminés. Nous venons de voir qu'il existait des éléments de structure locale (hélices, feuillets) que nous appellerons structure secondaire. Et ces éléments associés aux uns aux autres forment la structure globale tridimensionnelle de la protéine que nous appellerons structure tertiaire.
Il faut noter que cette structure des protéines résulte d'interactions entre acides aminés et il est intéressant de connaître les ordres de grandeur des énergies d'interactions mises en jeu. Ces énergies sont en fait faibles et sont de l'ordre de grandeur de l'énergie thermique (kBT). C'est le même ordre de grandeur que les énergies d'interaction entre molécules au sein d'un liquide comme l'eau ; on peut s'attendre donc à ce que de tels objets ne soient pas rigides ou totalement fixes. Ces mouvements demeurent faibles car il y a une forme de coopérativité (au sens ou plusieurs acides aminés coopèrent pour assurer une stabilité des structures observées) qui permet néanmoins d'observer une vraie structure tridimensionnelle. Ainsi, au sein d'un feuillet ou d'une hélice, plusieurs liaisons sont mises en jeu et à partir de plusieurs éléments interagissant faiblement, on peut obtenir une structure relativement stable de type feuillet ou hélice ; il suffit néanmoins de peu de chose pour détruire ces structures, par exemple chauffer un peu.
Si on revient au mécanisme de repliement on doit abandonner notre idée initiale de recherche au hasard de la bonne conformation. Si on part d'un état initial déplié, un premier phénomène a lieu (essentiellement lié à l'effet hydrophobe, qui vise à regrouper les acides aminés hydrophobes) qui fait rapidement collapser la chaîne sur elle-même. D'autres phénomènes vont alors se mettre en route comme la nucléation locale de structures secondaires de type hélices ou feuillets qui vont s'étendre rapidement le long de la chaîne. Le processus de Levinthal est donc complètement faux et l'image correcte est beaucoup plus celle donnée ici de collapse essentiellement lié à l'effet hydrophobe et de nucléation locale de structures secondaires.
Les protéines n'essaient donc pas d'explorer l'ensemble des conformations possibles pour trouver la bonne solution mais plutôt utiliser les interactions entre acides aminés pour piloter le mécanisme de repliement.
En fait la composition chimique de la chaîne contient une forme de programme qui lui permet de se replier correctement et rapidement.
Au sein des organismes vivants il y a donc plusieurs programmes ; un programme au sein du génome qui permet la synthèse chimique des protéines et un programme de dynamique intramoléculaire interne à la chaîne protéique qui lui permet d'adopter rapidement la bonne conformation lui permettant d'assurer sa fonction.
Il faut noter qu'il existe d'autres façons de s'assurer que les protéines se replient correctement qui font intervenir d'autres protéines (les chaperons).
Notons enfin les tentatives effectuées à l'heure actuelle de modélisation réaliste sur ordinateurs.
VIDEO CANAL U LIEN
( si la vidéo n'est pas visible,inscrivez le titre dans le moteur de recherche de CANAL U ) |
|
|
|
|
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 ] Précédente - Suivante |
|
|
|
|
|
|