ecole de musique piano
     
menu
 
 
 
 
 
 

PHYSIQUE ET MÉDECINE : L'IMAGERIE MÉDICALE

 

 

 

 

 

 

 

PHYSIQUE ET MÉDECINE : L'IMAGERIE MÉDICALE

L'imagerie médicale a sans aucun doute entraîné ces vingt dernières années une transformation radicale dans la façon d'aborder le diagnostic et le suivi thérapeutique. Un diagnostic de localisation d'une lésion cérébrale qui nécessitait un examen clinique long et minutieux par un neurologue expérimenté se fait aujourd'hui avec une précision millimétrique grâce au scanner ou à l'imagerie par résonance magnétique (IRM). Là où le maître entouré de ses élèves démontrait que la lésion ischémique ou tumorale devait siéger au niveau de tel noyau du thalamus (la vérification ayant lieu malheureusement souvent quelques semaines plus tard sur les coupes de cerveau), le neuroradiologue parvient au même résultat en quelques minutes. On pourrait multiplier les exemples ; là où le cardiologue se fiait à son auscultation et à des clichés de thorax, l'échocardiographie montre en temps réel les mouvements des valves cardiaques et la dynamique de la contraction ventriculaire, la scintigraphie myocardique précise la localisation des zones de myocarde ischémique et les anomalies de sa contraction ; demain l'IRM permettra de voir la circulation coronaire et le tissu myocardique et remplacera l'angiographie par voie artérielle. On pourrait encore citer l'échographie en obstétrique, en hépatologie ou en urologie, la scintigraphie dans la détection des lésions de la thyroïde, des métastases osseuses ou de l'embolie pulmonaire. Aujourd'hui la tomographie par émission de positons (TEP) est en train de devenir la méthode incontournable en cancérologie, non pas tant pour le diagnostic du cancer que pour en préciser l'extension, l'existence de métastases, l'évolution sous traitement après chimiothérapie, chirurgie ou radiothérapie ou encore l'apparition de récidives ou de métastases tardives. Au milieu du 19ème siècle, l'inventeur de la médecine expérimentale, Claude Bernard indiquait à Ernest Renan qui l'a relaté, que « l ‘on ne connaîtrait la physiologie que le jour où l'on saura décrire le voyage d'un atome d'azote depuis son entrée dans l'organisme jusqu'à sa sortie». Ce qui était totalement hors de portée du savant de cette époque, connaît en ce début du 21ème siècle une pleine réalisation grâce à une série d'avancées techniques rendues d'abord possibles par la radioactivité et aussi dans une certaine mesure par l'IRM et de toutes façons par la combinaison de plusieurs méthodes lorsqu'on aborde la pathologie. C'est certainement dans la description du voyage fait par le médicament dans le corps que réside aujourd'hui une des avancées les plus intéressantes dans le domaine pharmaceutique. Mais nous verrons aussi que quand nous écoutons, parlons, bougeons, réfléchissons... certaines aires de notre cerveau s'activent. Cette activation électrique et chimique des neurones se traduit par une augmentation du débit sanguin local dans les régions cérébrales concernées par cette activation. La TEP d'abord puis en utilisant les mêmes principes physiologiques, l'IRM aujourd'hui permet de produire des images sensibles au débit sanguin et ce, sans recours à l'injection d'une substance ou molécule particulière. Il ne peut s'agir dans cette conférence de décrire les principes physiques, les indications de toutes ces méthodes et les résultats qu'elles permettent d'obtenir en clinique. Par contre la comparaison de l'origine et de l'évolution de trois de ces méthodes, la radiologie, la médecine nucléaire et l'imagerie par résonance magnétique nucléaire est intéressante. La perspective historique permet en effet de mieux comprendre la genèse, l'évolution et les indications de ces différentes méthodes qui ont toutes leur point de départ dans la physique.

Transcription* de la 585ème conférence donnée le 7 juillet 2005 à l'Université de tous les savoirs revue par l'auteur
Physique et médecine : l'imagerie médicale
par André Syrota

L'imagerie médicale a sans aucun doute entraîné ces vingt dernières années une transformation radicale dans la façon d'aborder le diagnostic et le suivi thérapeutique. Un diagnostic de localisation d'une lésion cérébrale qui nécessitait un examen clinique long et minutieux par un neurologue expérimenté se fait aujourd'hui avec une précision millimétrique grâce au scanner ou à l'imagerie par résonance magnétique (IRM). Là où le maître entouré de ses élèves démontrait que la lésion ischémique ou tumorale devait siéger au niveau de tel noyau du thalamus (la vérification ayant lieu malheureusement souvent quelques semaines plus tard sur les coupes de cerveau), le neuroradiologue parvient au même résultat en quelques minutes. On pourrait multiplier les exemples ; là où le cardiologue se fiait à son auscultation et à des clichés de thorax, l'échocardiographie montre en temps réel les mouvements des valves cardiaques et la dynamique de la contraction ventriculaire, la scintigraphie myocardique précise la localisation des zones de myocarde ischémique et les anomalies de sa contraction ; demain l'IRM permettra de voir la circulation coronaire et le tissu myocardique et remplacera l'angiographie par voie artérielle. On pourrait encore citer l'échographie en obstétrique, en hépatologie ou en urologie, la scintigraphie dans la détection des lésions de la thyroïde, des métastases osseuses ou de l'embolie pulmonaire. Aujourd'hui la tomographie par émission de positons (TEP) est en train de devenir la méthode incontournable en cancérologie, non pas tant pour le diagnostic du cancer que pour en préciser l'extension, l'existence de métastases, l'évolution sous traitement après chimiothérapie, chirurgie ou radiothérapie ou encore l'apparition de récidives ou de métastases tardives.
Au milieu du XIXème siècle, l'inventeur de la médecine expérimentale, Claude Bernard, indiquait à Ernest Renan qui l'a relaté, que « l'on ne connaîtrait la physiologie que le jour où l'on saura décrire le voyage d'un atome d'azote depuis son entrée dans l'organisme jusqu'à sa sortie ». Ce qui était totalement hors de portée du savant de cette époque, connaît, en ce début du XXIe siècle une pleine réalisation grâce à une série d'avancées techniques rendues d'abord possibles par la radioactivité et aussi dans une certaine mesure par l'IRM et de toute façon par la combinaison de plusieurs méthodes lorsqu'on aborde la pathologie. C'est certainement dans la description du voyage fait par le médicament dans le corps que réside aujourd'hui une des avancées les plus intéressantes dans le domaine pharmaceutique. Mais nous verrons aussi que quand nous écoutons, parlons, bougeons, réfléchissons... certaines aires de notre cerveau s'activent. Cette activation électrique et chimique des neurones se traduit par une augmentation du débit sanguin local dans les régions cérébrales concernées par cette activation. La TEP d'abord, puis en utilisant les mêmes principes physiologiques, l'IRM aujourd'hui, permettent de produire des images sensibles au débit sanguin et ce, sans recours à l'injection d'une substance ou molécule particulière.
Il ne peut s'agir dans cette conférence de décrire les principes physiques, les indications de toutes ces méthodes et les résultats qu'elles permettent d'obtenir en clinique. Par contre, la comparaison de l'origine et de l'évolution de trois de ces méthodes, la radiologie, la médecine nucléaire et l'imagerie par résonance magnétique nucléaire est intéressante. La perspective historique permet en effet de mieux comprendre la genèse, l'évolution et les indications de ces différentes méthodes qui ont toutes leur point de départ dans la physique.
Tous les champs de la physique sont impliqués dans la médecine, pour certains en imagerie, pour d'autres en thérapeutique :
- l'électromagnétisme : imagerie gamma, imagerie X, proche infrarouge, radiofréquences, radiothérapie, laser, électrocardiographie, magnétoencéphalographie, potentiels de membrane, potentiels d'action
- les ultrasons : imagerie (échographie)
- la physique nucléaire et la physique des particules : imagerie (électrons, positons), thérapie (électrons, protons, particules alpha, ions lourds)
- la mécanique des fluides : écoulements sanguins, rhéologie
- la physique de la matière condensée
Les applications de la physique à la médecine ont débuté au XVIIème siècle avec les travaux du philosophe, scientifique et mathématicien, René Descartes (1596-1650) sur la vision. Dans La Dioptrique (1637) il s'intéresse à la théorie de la lumière, de l'Sil et de la vision.
Walther Hermann Nernst (1864-1941), physicien et chimiste allemand, a mené de nombreuses recherches dans les domaines de l'électrochimie, la thermodynamique, la chimie du solide et la photochimie. Ces découvertes incluent également l'équation qui porte son nom et qui intervient dans le calcul des potentiels de membrane.
William Harvey (1578-1657), médecin et physiologiste anglais, met en évidence la circulation du sang dans le corps humain. En 1628 Harvey publie à Francfort, Exentération Anatomica de Motu Cordis et Sanguinis in animalibus. Dans cet ouvrage qui marqua son époque, il explique en dix-sept chapitres son interprétation de ses constatations expérimentales et anatomiques et donne un compte-rendu précis du fonctionnement de la grande circulation.
Henry Philibert Gaspard Darcy (1803-1858), hydraulicien français, a démontré la loi qui porte son nom et qui explique la filtration des liquides, notamment les fontaines de Dijon.
Les composants du corps sont des objets physiques et peuvent être étudiés et manipulés comme le font les physiciens des objets physiques. Les outils de la biologie sont devenus des outils lourds et certains sont communs à ceux de la physique. Jusqu'à il y a une dizaine d'année la biologie pouvait se faire sur le coin d'une paillasse. Aujourd'hui, le séquençage du génome, l'imagerie, tous les outils de la post-génomique, nécessitent le développement d'une biologie lourde comme il y a une physique lourde qui utilise les grands accélérateurs, le CERN à Genève. Les méthodes d'imagerie qui permettent de voir le fonctionnement du cerveau nécessitent un outillage très lourd.

Le défi actuel est la prise en compte de la complexité des systèmes vivants. Les sciences du vivant ne sont plus simplement de la biologie ou de la médecine, elles comprennent de la biologie, de la chimie, de la physique, des mathématiques, de l'informatique.
Avant de nous intéresser au cerveau proprement dit, n'oublions pas que Sigmund Freud dans "De l'esquisse d'une psychologie scientifique" (1895, in La naissance de la psychanalyse) a toujours cru que les mécanismes cognitifs des phénomènes mentaux normaux et pathologiques pourraient s'expliquer par l'étude rigoureuse des systèmes cérébraux.
Depuis une quinzaine d'année, les progrès de l'imagerie ont permis de grandes avancées dans l'étude des sciences cognitives.
- Posner M. I., Petersen S. E., Fox P. T., Raichle M. E. (1988), Localization of cognitive operations in the human brain, Science, Vol. 240, pp. 1627-1631. (Localisation des opérations cognitives dans le cerveau humain.)
- Andreasen, N., «Linking Mind and Brain in the Study of Mental Illness : A project for a Scientific Psychopathology», Science, No 275, mars 1997, pp. 1562-87. (Lier le cerveau et l'esprit pour l'étude des maladies mentales.)
- Raichle, M.E., "Imaging the mind" in Seminars in Nuclear Medicine 28 : (4) 278 - 289, 1998. (L'imagerie de l'esprit.)
- Posner, M.I. (2003). Imaging a science of mind. Trends in Cognitive Sciences, 7 :10:450-453. (L'imagerie d'une science de l'esprit.)
- Greene, J.D., Sommerville, R.B., Nystrom, L.E., Darley, J.M., & Cohen, J.D. (2001). An fMRI investigation of emotional engagement in moral Judgment. Science, Vol. 293, Sept. 14, 2001, 2105-2108. (L'investigation de l'engagement émotionnel dans le jugement moral.)
Historique

La physique nucléaire : des rayons X et la radioactivité à la radiologie
Le soir du 8 novembre 1895, Wilhelm Conrad Röntgen (1845-1923) observe qu'à la décharge d'un tube, complètement enrobé de carton noir, scellé pour en exclure toute lumière et ceci dans une chambre noire, un carton couvert d'un côté de barium platino-cyanide devient fluorescent lorsqu'il est frappé par les rayons émis du tube, et ce jusqu'à une distance de deux mètres. Lors d'expériences subséquentes, il place divers objet entre une plaque photographique et la source de rayonnement et il se rend compte qu'ils ont une transparence variable. Il expérimente, le 22 décembre 1895, avec la main de son épouse placée sur le parcours des rayons. Au développement, il s'aperçoit que l'image est en fait l'ombre des os de la main de son épouse, son alliance y étant visible. Les os sont entourés d'une pénombre qui représente la chair de la main, la chair est donc plus perméable aux rayons. À la suite d'autres expériences, Röntgen constate que les nouveaux rayons sont produits par l'impact des rayons cathodiques sur un objet matériel. Parce que leur nature est encore inconnue, il leur donne le nom de « rayons X ».
Le 28 décembre, il envoie la première communication indiquant que l'on doit considérer que les rayons X proviennent de la zone de la paroi du tube de verre qui est la plus fluorescente. Il reçut pour cela le tout premier prix Nobel de physique en 1901 après avoir reçu la Médaille Rumford en 1896.
Le 20 janvier 1895, Henri Poincaré montre à Antoine Henri Becquerel (1852-1908) la première radiographie que lui a envoyé Röntgen. Il suggère que les substances fluorescentes pourraient émettre des rayons X. Le 24 février, il constate l'apparition d'un faible noircissement d'un film recouvert de sulfate double d'Uranium exposé pendant une journée au soleil. Quatre jours plus tard, le noircissement s'est intensifié. Henri Becqurel obtient les mêmes résultats après une exposition de cinq heures au soleil ou de cinq heures à l'obscurité. Le 23 mars, il observe le même noircissement avec des sels d'Uranium non fluorescents. Le 18 mai, il en conclut que le matériau émet son propre rayonnement sans nécessiter une excitation par de la lumière. L'effet n'est donc pas dû à la fluorescence mais à une propriété spécifique de l'Uranium. C'est la découverte de la radioactivité naturelle. Les travaux d'Henri Becquerel lui valent la Médaille Rumford en 1900.
Les découvertes en physique se succèdent rapidement dans les années qui suivent.
En 1899, Ernest Rutherford (1871-1937) découvre la transmutation du Thorium et la décroissance exponentielle, ce qui lui permet d'identifier les particules alpha. Ces travaux sur les rayonnements alpha et bêta, et la découverte que la radioactivité s'accompagne d'une désintégration des éléments, lui valent un prix Nobel de Chimie en 1908. C'est aussi lui qui a mis en évidence l'existence d'un noyau atomique, dans lequel étaient réunies toute la charge positive et presque toute la masse de l'atome, et qui a réussi la toute première transmutation artificielle.
À cette époque, une étudiante, Marie Curie, épouse de son collègue Pierre Curie, choisit comme sujet de thèse l'étude de ce nouveau type de rayonnement. Elle confirme en quelques mois que ce rayonnement est une propriété de plusieurs éléments chimiques, et baptise cette propriété « radioactivité ». En 1898 Pierre et Marie Curie découvrent le Polonium et le Radium.
En 1903, Henri Becquerel, Pierre et Marie Curie partagent le Prix Nobel de physique pour leur contribution extraordinaire à la découverte de la radioactivité spontanée et leur étude des rayonnements émis.
En 1911, Rutherford découvre le noyau atomique. Il avait observé qu'en bombardant une fine feuille de mica avec des particules alpha, on obtenait une déflexion de ces particules. Il émit alors l'hypothèse qu'au centre de l'atome devait se trouver un « noyau » contenant presque toute la masse et toute la charge positive de l'atome, les électrons déterminant en fait la taille de l'atome.
Il est intéressant de noter que les premiers effets des rayons X, notamment sur les lésions cutanées, sont immédiatement décrits. Dès 1896, les premiers effets des rayons X sont publiés dans le Lancet, à partir de mi-1896 les essais d'irradiation de lésions cutanées. En 1900-1901, Pierre Curie et Henri Becquerel décrivent les réactions cutanées produites par le dépôt de Radium sur leur propre peau. Le D. Danlos soigne des lésions de lichen à l'Hôpital Saint-Louis avec du Radium donné par Pierre Curie. Ces soins conduisent en 1909 à la fondation de l'Institut du Radium.

La physique des particules : les positons
Le positon a été découvert par C. D. Anderson en 1933 [C.D. Anderson, "The Positive Electron", Phys. Rev. 43, 491 (1933)] suite de la prédiction totalement théorique quant à l'existence d'électrons positifs de Dirac.
Irène et Frédéric Joliot mettent en évidence la même année des électrons positifs de matérialisation et montrent l'annihilation de la paire électron positif - électron négatif. Ils mettent en évidence également les électrons de transmutation. C'est la découverte de la radioactivité artificielle.
Les Comptes rendus de l'Académie des sciences du 19 juin 1933 annoncent que la transmutation de l'aluminium peut se faire avec émission soit d'un proton soit d'un neutron accompagné d'un électron positif.
L'accueil est cependant sceptique chez la majorité des participants du 7e congrès Solvay en octobre 1933. Niels Borg y a présenté que « si vraiment comme le suppose M. Joliot, les positons viennent de l'intérieur du noyau, les circonstances seront fort semblables à celles des rayons bêta ».
À l'occasion de la conférence internationale de physique à Londres en 1934, le journal _Le Soir_ citait Frédéric Joliot : « Il est très possible, si nos expériences réussissent, que nous puissions fabriquer une substance dont les applications médicales obtiendront les mêmes effets que le Radium. » Il se situait dans la perspective des travaux de Marie Curie.
Le Petit Journal rapportait : « Pour le traitement du cancer, Irène Joliot-Curie et son mari posséderaient la formule du radium artificiel. On laisse entendre à cette occasion que la fille de Mme Curie pourrait bien recevoir le prix Nobel. »
La découverte de la radioactivité sera à la base de toute l'imagerie, comme la découverte de la radioactivité artificielle en janvier 1934 par Irène et Frédéric Joliot-Curie sera à la base de la médecine nucléaire.
En janvier 1934, la radioactivité artificielle est découverte par la vérification de l'émission de positons dans la chambre de Wilson. La particule alpha est capturée par un noyau d'aluminium qui se transforme en un noyau de "phosphore inconnu" avec émission d'un neutron. Ce "phosphore inconnu" est radioactif et se transforme en un noyau de Silicium connu avec émission d'un positon.
27Al + alpha -> 30P + n
30 P -> 30Si + positon + nu
Les Comptes rendus de l'Académie des sciences publient le 15 janvier 1934 Un nouveau type de radioactivité et Nature "Artificial Production of a New Kind of Radio-Element."
Nature 1934, 198, 201 "Artificial production of a new kind of radio-elements".
I. Curie and F. Joliot, Un nouveau type de radioactivité, C. R. Acad. Sci. 198 (1934), 254-256 ; Artificial Production of a New Kind of Radio-Element, Nature 133 (1934), 201-202.
Cette découverte est double puisque la radioactivité artificielle implique la découverte de la radioactivité par émission de positons.
Pour utiliser ces résultats en imagerie, il manque encore deux éléments importants : l'instrumentation et le marquage.
En 1930, Ernest Orlando Lawrence (1901-1958), physicien américain, construit le premier cyclotron. Il reçoit le Prix Nobel de physique en 1939 pour l'invention du cyclotron et ses applications en radiochimie.
En 1938, Otto Hahn et Fritz Strassmann découvrirent des traces du baryum, en cherchant des éléments transuraniens dans un échantillon d'uranium qui avait été irradié de neutrons. Cette découverte, annoncée en 1939, constituait la preuve irréfutable, confirmée par le calcul des énergies impliquées dans la réaction, que l'uranium avait bien subi une fission, se divisant en plus petits fragments constitués d'éléments plus légers [O. HAHN AND F. STRASSMANN Berlin-Dahlem. Die Naturwissenschaften 27, p. 11-15 (January 1939)].
En 1947, Leó Szilárd et Enrico Fermi montrent la divergence de la première pile.
L'autre élément très important, ce sont les travaux de George de Hevesy qui est un savant hongrois, un chimiste qui travaillait, qui voulait faire sa thèse chez Rutherford, à qui Rutherford avait confié un travail pas trop intéressant de séparer des éléments radioactifs et George de Hevesy a eu l'idée d'utiliser ces éléments radioactifs comme traceurs, donc de permettre de suivre à la trace le devenir d'éléments non radioactifs et il en a été largement récompensé par le Prix Nobel en 1943.
En 1912, George de Hevesy (1885-1966) a été récompensé pour ses travaux sur l'utilisation des isotopes comme traceurs dans l'étude des processus chimiques. Il reçoit en 1943 le prix Nobel de chimie pour l'utilisation d'éléments radioactifs comme traceurs
L'ensemble des moyens physiques, instrumentaux et physiologiques sont alors réunis pour aller plus loin dans l'imagerie.
Tous les êtres humains sont constitués de carbone, à 99% de carbone 12 et 1% de carbone 13. Le carbone 11 est un isotope du carbone qui émet des positons. Cet électron positif a un trajet dans la matière de l'ordre du millimètre. Il ne peut donc pas être repéré facilement. Par contre, contrairement aux électrons émis par le carbone 14, l'électron positif est de l'antimatière et il ne peut donc pas exister dans notre univers. Il va rencontrer un électron négatif et ils vont s'annihiler. Leur masse disparaît suivant la relation d'Einstein E=mc2 et deux photons vont apparaître et sortir du cerveau.
Une autre radioactivité, l'émission gamma, notamment celle de l'iode, est également utilisée couramment en médecine nucléaire.
Dans les années 1950 de l'iode 131 était injecté. Il allait dans la thyroïde pour s'incorporer dans les hormones thyroïdiennes qui comprennent chacune quatre atomes d'iode. Un opérateur mesurait avec un compteur Geiger-Müller, en regard du cou du malade, la radioactivité point par point. Il déplaçait la sonde, il remesurait la radioactivité puis il traçait sur la feuille de papier les zones, les iso-contours d'iso-doses. Il obtenait ainsi des images fonctionnelles montrant l'incorporation de l'iode dans l'hormone thyroïdienne de la thyroïde.
L'autre aspect qui a permis le développement important de l'imagerie médicale ces dix dernières années ce sont les progrès de l'informatique. Dans les années 1970-1980, les premiers ordinateurs disponibles à l'hôpital et dans les services de recherche permettaient avec des multi8, de l'intertechnique, et de la mémoire de faire des enregistrements avec des bandes magnétiques. Ces machines étaient tout à fait insuffisantes pour les développements actuels qui consomment une informatique en quantité considérable.
L'étape suivante, a été la possibilité de passage des projections en deux dimensions, à des coupes virtuelles de cerveau. Les travaux de Mansfield, un ingénieur d'IMA, l'ont conduit à un procédé pour reconstruire des images de façon numérique. Simultanément et indépendamment un physicien d'hôpital Allan MacLeod Cormack (1924-1998) qui travaillait au Cap en Afrique du Sud puis ensuite à Boston, a eu l'idée de la formulation mathématique d'une projection, qui est connue sous le nom de transformée de radon. Le scanner X est le début de l'imagerie moderne. Les travaux de Cormack lui ont valu le prix Nobel de médecine en 1979.
L'imagerie
Je vais maintenant vous présenter plusieurs techniques utilisant la radioactivité, la tomographie par émission de positons ou la physique quantique. Ces techniques permettent de voir le "cerveau vivant" ou "living brain" et même le "cerveau pensée" comme on le dit aujourd'hui.
Dans les années 1985, les physiciens ont essayé de produire des images du corps vivant en combinant l'interaction d'un rayonnement. Ils ont observé l'atténuation ou la réflexion de rayonnements électromagnétiques, d'ondes acoustiques, de faisceaux de particules, etc. Les valeurs notées sont ensuite traitées par l'algorithme de rétroprojection filtrée de Cormack-Hounsfield pour obtenir des images.
Aujourd'hui, il reste les rayons gammas, la tomographie par émission de simples photons, la tomographie par émission de positons, les rayons X et le scanner. Les autres rayonnements ont été écartés pour des raisons variées : l'infrarouge ne marche pas très bien, les micro-ondes ont les mêmes effets que les fours du même nom, la résonance paramagnétique électronique nécessite l'injection de radicaux libres, les radiofréquences de l'imagerie par résonance magnétique et l'imagerie d'impédance ne donnent pas beaucoup de résultats. Les ultrasons sont très utilisés mais ils ne s'appliquent pas au cerveau.

La gamma-tomographie mesure l'émission d'un seul photon. En regard de la tête du malade, l'opérateur place une gamma-caméra avec un collimateur, c'est-à-dire du plomb percé de trous, un cristal qui transforme les gammas en photons lumineux, des amplificateurs de brillance. Cette technique est utilisée quotidiennement dans les services de médecine nucléaire du monde entier. Elle permet d'obtenir des images fonctionnelles.
Les recherches menées sur le fonctionnement du cerveau utilisent notamment la tomographie par émission de positons. Dans ce cas, un positon est émis avec une certaine énergie cinétique. Une molécule dont un carbone naturel est remplacé par un carbone radioactif est injectée par voie intraveineuse. Le médicament migre jusqu'à un endroit particulier du cerveau. La radioactivité décroît et on assiste à l'émission d'électrons positifs. Ils perdent leur énergie cinétique en une minute pour les isotopes utilisés. Ils sont au repos jusqu'à ce qu'ils rencontrent un électron libre. La paire positon-négaton s'annihile et deux photons sont émis simultanément, à 180° l'un de l'autre à cause de la conservation de la quantité de mouvement. Ils ont chacun une énergie de 511 keV puisque, selon la réaction d'Einstein, la masse de l'électron positif et celle de l'électron négatif se matérialisent sous forme d'énergie. Les photons sont détectés par les détecteurs autour du sujet. L'arrivée simultanée de deux photons indique qu'à un endroit proche de cette trajectoire il y a eu émission d'un positon.
Quels isotopes sont utilisés ? Les molécules sont formées de carbone, d'oxygène, d'hydrogène, d'azote et pour certaines d'entre elles de phosphore. Le carbone 11 est un émetteur de positon. Il est donc possible de remplacer un carbone 12 par un carbone 11. L'oxygène 15 est un émetteur de positon. Le fluor 18 est intéressant car de nombreux médicaments, tels que des neuroleptiques ou des tranquillisants, contiennent du fluor.
Il n'existe pas d'isotope de l'hydrogène ou du phosphore qui émette un positon. Ils seront cependant utilisés par la résonance magnétique nucléaire qui est une technique complémentaire de la tomographie par émission de positons.

L'inconvénient ou l'avantage des émetteurs de positons c'est qu'ils ont des durées de vie très brèves. La période physique du carbone 11 est de vingt minutes, ce qui veut dire que toutes les vingt minutes la radioactivité décroît de moitié. Pour l'oxygène 15 c'est encore pire ou encore mieux pour le sujet puisque la période, elle, est de deux minutes. L'avantage est qu'il est possible d'injecter beaucoup de radioactivité sans aucun effet. L'inconvénient est qu'il faut produire le carbone 11, par exemple, avec un cyclotron et qu'il faut ensuite l'incorporer dans un médicament, un acide aminé, un sucre, ou une molécule organique. Cette réaction chimique doit être réalisée sur place, en très peu de temps, et le sujet étudié doit se trouver à côté pour que l'injection ait lieu le plus rapidement possible. L'installation nécessaire est évidemment lourde. Au Service hospitalier Frédéric Joliot à Orsay, qui dépend de la direction des sciences du vivant du CEA, il y a l'un des tous premiers cyclotrons qui a été utilisé pour l'imagerie médicale. Il s'agit d'un cyclotron CGR-MeV. Il date de la même époque que les premières caméras à positons avec deux détecteurs qui permettaient de repérer deux photons émis simultanément. Deux ans plus tard, une caméra a été mise au point à Philadelphie puis à l'UCLA, avec des photo-multiplicateurs répartis en couronne autour de la tête du sujet.
L'imagerie médicale nécessite des équipes multi-disciplinaires avec des ingénieurs, des techniciens qui s'occupent du cyclotron, des chimistes, des radiochimistes qui vont incorporer l'isotope (le carbone 11 ou le fluor 18 principalement) dans un précurseur non radioactif pour en faire une molécule radioactive, des informaticiens et des mathématiciens pour transformer la radioactivité mesurée après injection en un paramètre physiologique pour obtenir une série d'images de cerveau.
Aujourd'hui, les caméras qui se trouvent dans le commerce ont une résolution de cinq à six millimètres. Un prototype disponible au CEA et fabriqué par Siemens a une résolution spatiale de deux millimètres et demi alors que la plus petite caméra à positons que nous utilisons pour l'animal est tout à fait remarquable avec une résolution spatiale de 1,6 millimètre, c'est-à-dire le trajet pratiquement du positon. Il ne sera pas possible de descendre plus bas.
L'application la plus importante en ce moment dans le domaine de la tomographie par émission de positons c'est le domaine de la cancérologie. Dans le cadre du plan cancer le gouvernement a décidé d'équiper la France de soixante à soixante-dix caméras à positons réparties sur tout le territoire qui utiliseront un analogue du glucose marqué au fluor 18, le fluoro-desoxy-glucose. Cette molécule a une période de deux heures ce qui permet de la transporter dans les hôpitaux après la fabrication. Nous savons depuis le début du XXème siècle que les tumeurs ont un métabolisme augmenté qui consomme beaucoup d'énergie donc de glucose. La tumeur peut être mise en évidence par des images de la consommation de glucose dans le corps. Il est ainsi possible de repérer les tumeurs et les métastases.

Les applications pour l'étude du cerveau sont infinies puisque théoriquement n'importe quelle molécule peut être marquée selon les projets des médecins, des physiologistes et des pharmacologues. Il est possible d'étudier le métabolisme par la consommation de glucose, mais aussi la synthèse protéique, la consommation d'oxygène, la perfusion cérébrale. Nous savons regarder et quantifier point par point dans le cerveau les récepteurs des neurotransmetteurs, tels que l'adrénaline, l'acétylcholine, l'histamine, les opiacées, la dopamine, etc.
Prenons un exemple de la méthode des traceurs. La maladie de Parkinson est due à une destruction des neurones du tronc cérébral qui produisent la dopamine. Cette dopamine va être libérée normalement au niveau d'une synapse entre deux neurones dans une structure très particulière en plein milieu du cerveau appelée les noyaux gris et les corps striés. Le traitement de la maladie de Parkinson consiste à donner de la dopa qui devient de la dopamine dans le cerveau. Il est donc possible de marquer la dopa avec du fluor 18 puis de suivre la libération de la dopamine par les quelques molécules radioactives injectées par voie intraveineuse. La tomographie par émission de positons permet de suivre l'évolution de la maladie par l'étendue des zones qui cessent de libérer la dopamine.
Un autre exemple concerne les récepteurs de la nicotine et de l'acétylcholine. Dans le cerveau il y a deux types de récepteurs de l'acétylcholine : le type muscarinique et le type nicotinique. Ces récepteurs disparaissent chez les patients atteints de la maladie d'Alzeihmer. Il est possible de marquer un médicament au fluor 18 pour observer les zones dans le thalamus où la molécule se fixe sur les récepteurs de la nicotine. La tomographie par émission de positons permet de mesurer quantitativement, point par point, non seulement la radioactivité mais aussi la densité de récepteurs grâce à un modèle mathématique. Elle permet donc de suivre au cours du temps l'évolution de la radioactivité dans le thalamus.
Ce qui est le plus remarquable c'est qu'on a fait fumer une cigarette au sujet en lui faisant de nouveau la même injection de fluoro-A85A81. Quatre-vingt minutes après l'injection, lorsque le patient fume une cigarette il y a une diminution considérable de la radioactivité. Le traceur radioactif injecté en des quantités infimes est en compétition avec la nicotine qui est arrivée dans le cerveau en quantité importante. Il est ainsi possible de mettre en évidence in vivo chez l'homme l'effet de la nicotine sur les récepteurs cérébraux.
Il est possible d'aller plus loin et d'observer ce qui se passe dans le cerveau lorsqu'un individu à des activités cognitives, telles que lire, parler, etc. Lorsque qu'un individu regarde un écran, il y a des circuits neuronaux qui sont activés au niveau du cortex visuel, dans le cortex occipital. L'injection de désoxy-glucose marqué permet d'observer les zones au travail dans le cerveau car elles consomment de l'énergie. La vue tridimensionnelle du cerveau par tomographie par émission de positons permet de faire la différence entre les yeux fermés et les yeux ouverts et de noter dans le cortex occipital une augmentation de la consommation de glucose.
L'imagerie par résonance magnétique nucléaire est une technique physique plus complexe puisqu'elle fait appel aux spins des noyaux de l'hydrogène et du phosphore. Nous avons vu précédemment qu'il n'y a pas d'isotope émetteur de positons qui nous conviennent pour l'hydrogène et le phosphore. Par contre ils ont un spin 1/2, c'est-à-dire qu'ils vont se comporter comme des petits aimants. Or, le corps humain est formé à 75 % d'eau. Il contient énormément d'atomes d'hydrogène. La première image par résonance magnétique a été réalisée en 1973 par Lauterbour. Lauterbour et Mansfield ont utilisé la transformée de Fourrier pour obtenir des images. Ils sont été récompensés par l'avant-dernier prix Nobel de physiologie. Ce qui est intéressant c'est que Lauterbour est un chimiste et que Mansfield est un physicien.
Avec le développement de techniques ultrarapides d'acquisition et de traitement de données, il est devenu possible de réaliser des images de résonance magnétique en des temps suffisamment brefs pour suivre certains aspects du métabolisme. L'imagerie par résonance magnétique nucléaire est devenue fonctionnelle. Il est possible d'observer les zones activées dans le cerveau lors des mouvements en notant les changements de concentration d'oxy-hémoglobine par rapport à la désoxy-hémoglobine. En effet, le mouvement consomme de l'énergie donc de l'oxygène apporté par l'oxy-hémoglobine. Or, l'une est paramagnétique, l'autre ne l'est pas, l'une détruit localement le champ magnétique. En plaçant le sujet dans un aimant, il est possible de détecter cette infime variation de signal.
Des expériences réalisées par Stanislas Dehaene toujours au Service hospitalier Frédéric Joliot par IRM fonctionnel, permettent de comparer l'image anatomique tridimensionnelle du cerveau d'un volontaire lorsqu'on lui demande de faire le calcul exact ou approximatif de deux soustractions : 11-5 et 11-9.

Des expériences encore plus récentes de Stanislas Dehaene ont permis d'observer l'inconscient. Par un processus d'images subliminales, il présente au sujet sur un écran des mots qu'il ne peut pas voir car la durée de présentation est trop courte. Un signal plus faible mais néanmoins détectable apparaît pour les mots subliminaux.
La spectroscopie par résonance magnétique nucléaire in vivo permet de faire de la chimie directement dans le cerveau. Nous savons mesurer la concentration d'un neurotransmetteur dans une région du cerveau, par exemple pour étudier l'épilepsie.
L'inconvénient majeur de la tomographie par émission de positons, de l'imagerie par résonance magnétique nucléaire fonctionnelle, est qu'elles mesurent des phénomènes à l'échelle de la seconde à quelques dizaines de secondes alors que les potentiels d'actions sont de l'ordre de la milliseconde. Pour les enregistrer il faut l'électroencéphalographie et la magnétoencéphalographie.
La magnétoencéphalographie consiste à enregistrer les variations de champs magnétiques produits dans le cerveau. L'idéal est de corréler ces mesures électriques avec l'imagerie par résonance magnétique nucléaire ou la tomographie avec émission de positons pour connaître leur localisation anatomique.

En conclusion, revenons à Frédéric Joliot en 1943 à l'occasion de sa conférence Nobel :
« Les applications biologiques des radioéléments paraissent simples à réaliser mais, en réalité elles nécessitent une mobilisation importante de matériel et de chercheurs ayant des connaissances variées. En biologie, il est nécessaire d'associer étroitement les activités du biologiste, du physicien et du chimiste. On conçoit tout le bénéfice qui peut être tiré pour ce genre de recherches de l'association de formes de pensée souvent très différentes et se complétant. »
Aujourd'hui il n'est pas envisageable de concevoir une recherche en France et dans le Monde qui ne soit pas multidisciplinaire et qui ne porte pas sur la complexité.
* Transcription réalisée par Juliette Roussel

 


            VIDEO       CANAL  U         LIEN

 

 
 
 
 

Un nouveau mécanisme impliqué dans la migration des cellules cancéreuses a été mis au jour

 

 

 

 

 

 

 

Un nouveau mécanisme impliqué dans la migration des cellules cancéreuses a été mis au jour


COMMUNIQUÉ | 21 JUIN 2017 - 14H17 | PAR INSERM (SALLE DE PRESSE)

BIOLOGIE CELLULAIRE, DÉVELOPPEMENT ET ÉVOLUTION


Une équipe de jeunes chercheurs dirigée par Guillaume Montagnac, chargé de recherche Inserm à Gustave Roussy, en collaboration avec l’Institut Curie et l’Institut de Myologie, a découvert un nouveau mécanisme qui aide les cellules à migrer. La cellule forme à la surface de sa membrane de multiples petites pinces qui l’aident à s’accrocher pour mieux progresser le long des fibres présentes à l’extérieur de la cellule. Ce mécanisme permet de mieux comprendre comment une cellule s’échappe de la masse tumorale et se déplace dans le corps pour aller former un nouveau foyer. Ces travaux sont publiés dans la revue américaine Science du 16 juin.

La migration cellulaire est un processus physiologique indispensable à la vie. En cancérologie il intervient dans la formation de nouvelles métastases.
« Jusqu’à présent, nous savions que la cellule s’appuyait principalement sur certaines structures lui permettant de s’ancrer à son environnement. Aujourd’hui nous identifions de nouvelles structures cellulaires appelées “puits recouverts de clathrine”, déjà connues pour assurer d’autres fonctions dans la cellule. La cellule cancéreuse les utilise comme des pinces pour s’agripper à son environnement pour mieux se déplacer. Ces nouvelles structures sont à l’origine d’environ 50 % de l’adhérence des cellules à leur milieu extérieur » précise Guillaume Montagnac, Chef de l’équipe ATIP-Avenir, rattachée à l’unité Inserm 1170 « Hématopoïèse normale et pathologique » à Gustave Roussy.  
Identifiés depuis 1964, ces puits de clathrine sont de petites invaginations de la membrane cellulaire qui permettent de la renouveler ou de faire pénétrer des molécules à l’intérieur des cellules. La cellule les utilise notamment pour s’approvisionner en nutriments (fer, cholestérol…).
Grâce à des techniques de fluorescence, les chercheurs ont réussi à démontrer sur une lignée de cellules du cancer du sein humain agressif, connues pour leur haut pouvoir métastatique, que les puits de clathrine se collent aux fibres de collagène et les entourent. Le puits pince la fibre et renforce ainsi son ancrage permettant de faciliter son déplacement.
« Notre équipe à Gustave Roussy est l’une des rares à s’intéresser à la dynamique de la membrane cellulaire lorsque la cellule est placée dans des conditions qui se rapprochent de la physiologie, dans des matrices 3D. C’est en étudiant ces puits de clathrine dans des conditions 3D que nous avons pu mettre en évidence ce phénomène là où on ne l’attendait pas » conclut Guillaume Montagnac.


Gustave Roussy
1,5 k abonnés

Découverte d’un nouveau mécanisme impliqué dans la migration des cellules cancéreuses


// Équipes jeunes chercheurs
Au nombre de 6 à Gustave Roussy, les équipes ATIP-Avenir sont issues d’un programme Inserm/CNRS. L’objectif est de permettre à de jeunes chercheurs à haut potentiel de mettre en place et d’animer une équipe au sein d’un laboratoire d’accueil qui met à disposition des locaux et donne l’accès à toutes les facilités du laboratoire.
Dans le cadre de son programme « jeune équipe » Gustave Roussy a complété la dotation financière ATIP-Avenir pour placer ces jeunes chercheurs dans des conditions optimales pour réaliser leurs ambitions scientifiques. Créée en 2014, l’équipe de Guillaume Montagnac compte maintenant 6 personnes. La publication des résultats de recherche dans une revue de très haut niveau international illustre le succès de cette stratégie.
Plus d’informations : https://www.eva2.inserm.fr/EVA/doc/2017AVE/AO_ATIP-Avenir_2017.pdf

 

 DOCUMENT      inserm     LIEN 

 
 
 
 

Maladie d'Alzheimer : comment les agrégats amyloïdes altèrent le fonctionnement des neurones

 

 

 

 

 

 

 

Maladie d'Alzheimer : comment les agrégats amyloïdes altèrent le fonctionnement des neurones

mardi 12 juin 2018

L'accumulation de peptides amyloïdes sous forme de plaques dans le cerveau est l'un des principaux marqueurs de la maladie d'Alzheimer. Si les effets délétères des agrégats de peptide amyloïdes sont établis, leur mécanisme d'action dans les cellules cérébrales restait mal défini. Des chercheurs du CNRS et de l'université de Bordeaux viennent de mettre en évidence qu'ils altèrent le fonctionnement normal des connections entre neurones en interagissant avec une enzyme clé de la plasticité synaptique. Ces résultats seront publiés le 12 juin 2018 dans la revue Cell Reports .
Touchant près d'un million de Français, la maladie d'Alzheimer est caractérisée par une altération précoce des facultés cognitives des patients suivie d'une dégénérescence neuronale dans les stades plus tardifs. Trois types de lésions cérébrales caractérisent la maladie : la perte neuronale, la dégénérescence fibrillaire et l'accumulation de peptides amyloïdes qui forment les plaques amyloïdes. L'implication respective de ces différents éléments dans le développement des symptômes de la maladie reste à ce jour mal connu.

Les chercheurs savaient par exemple que le peptide amyloïde perturbe les synapses, les zones de contact et de communication chimique entre neurones, mais ignoraient comment, jusqu'aux travaux menés par les équipes de l'Institut interdisciplinaire de neurosciences (CNRS/université de Bordeaux). Celles-ci ont découvert le mécanisme moléculaire liant les agrégats amyloïdes aux déficits de fonctionnement des synapses observés dans des modèles animaux de la maladie d'Alzheimer : ces dépôts de peptides interagissent avec une enzyme clé de l'équilibre synaptique, ce qui empêche sa mobilisation normale.

Cette molécule, appelée CamKII, orchestre habituellement la plasticité synaptique, un phénomène d'adaptabilité des neurones leur permettant de renforcer la réponse aux signaux qu'ils échangent. Les ensembles de neurones qui codent pour une information à mémoriser sont connectés par des synapses, qui sont elles-mêmes sous contrôle de mécanismes de plasticité synaptique. Quand la connexion entre deux neurones doit être renforcée pour mémoriser une information, par exemple lors d'une stimulation intense, CamKII s'active et entraîne une cascade de réactions renforçant les capacités de transmission des messages entre ces neurones. La plasticité synaptique est au cœur de la mémoire et de l'apprentissage. Les peptides amyloïdes empêchent CamKII de participer au processus de plasticité synaptique et ce blocage entraîne à terme la disparition de la synapse. Cette découverte pourrait trouver son application dans les phases précoces de la maladie d'Alzheimer où sont observées les premiers déficits cognitifs, qui pourraient être liés à un tel dysfonctionnement des synapses.

L'objectif maintenant pour les chercheurs est de poursuivre l'étude de l'effet des agrégats amyloïdes en essayant en particulier d'empêcher leur interaction avec CamKII et la perte des synapses observées au cours de la maladie.


© Patricio Opazo/Daniel Choquet/IINS
Mesure de l'activité de l'enzyme CaMKII déclenchée par application d'agrégats du peptide amyloïde dans des neurones d'hippocampe de rat en culture. Image de gauche : niveau de base l'activité de CaMKII. Image de droite : activation de CaMKII par le peptide amyloïde.



© Patricio Opazo/Daniel Choquet/IINS
Dendrite de neurone d'hippocampe de rat en culture primaire exprimant une protéine fluorescente soluble (gauche) et trajectoires correspondantes du mouvement de récepteurs du glutamate à sa surface mesurée par suivi de molécule individuelle (droite)


Téléchargez le communiqué de presse :



Références :
CaMKII metaplasticity drives Aβoligomers-mediated synaptotoxicity. P. Opazo, S. Viana da Silva, M. Carta, C. Breillat, S. J. Coultrap, D. Grillo-Bosch, M. Sainlos, F. Coussen, K. U. Bayer, C. Mulle, D. Choquet. Cell Reports, le 12 juin 2018.
Contacts :
Chercheur CNRS | Daniel Choquet | T +33 5 57 57 40 90 | daniel.choquet@u-bordeaux.fr
Presse CNRS | François Maginiot | T +33 1 44 96 43 09 | francois.maginiot@cnrs.fr

 

 DOCUMENT       cnrs     LIEN

 
 
 
 

MÉDICAMENTS ET CHIMIE : UN BRILLANT PASSÉ ET UN VRAI FUTUR

 

MÉDICAMENTS ET CHIMIE : UN BRILLANT PASSÉ ET UN VRAI FUTUR

Très tôt l’homme a utilisé les produits de la Nature pour traiter les différentes maladies auxquelles il était confronté. Les premiers traités de chimie thérapeutique moderne, décrivant la relation entre un composé chimique et une activité thérapeutique datent maintenant de plusieurs siècles. Toutefois, c'est au tournant du 19ème et du 20ème siècle avec le développement de la chimie moléculaire et de la microbiologie que la chimie thérapeutique prend son essor. L'évolution rapide de ces deux disciplines a conduit aux premiers antibiotiques. Sait-on encore que la production à grande échelle de la pénicilline a mobilisé aux Etats-Unis entre 1943 et 1945 plusieurs centaines de scientifiques, autant que pour la mise au point des premières bombes atomiques ? Tout au long du 20ème siècle, l'application stricte des règles d'hygiène pasteuriennes et la mise au point de nombreux médicaments font régresser les maladies et la durée de vie augmente. Beaucoup reste à faire, mais la création de nouveaux médicaments élaborés par synthèse chimique semble marquer le pas à partir des années 1980 à 1990. Les apports récents de la génomique et la protéomique donnent l'espoir d'accéder à de nouvelles méthodes de découvertes de médicaments. La chimie thérapeutique est-elle condamner à un déclin irréversible ou bien va-t-elle refleurir à nouveau, en intégrant les nouveaux outils de la biologie moléculaire, et apporter de nouveaux espoirs dans le traitement de maladies émergeantes ou ré-émergeantes ? L'innovation thérapeutique demande la mise en place des synergies fortes entre chercheurs de quatre à cinq disciplines différentes ; comment favoriser ces synergies ? Les enjeux de l'innovation thérapeutique concernent non seulement le domaine de la santé, mais aussi celui de l'économie. La découverte et le développement de nouveaux médicaments mobilisent de nombreux effectifs. L'Europe continentale gardera t-elle sa place dans l'innovation thérapeutique au 21ème siècle ?


Transcription [1] de la 617e conférence de l'Université de tous les savoirs donnée le 24 juin 2006 revue par l'auteur.

Bernard Meunier : « Médicaments et chimie : un brillant passé et un vrai futur »

Très tôt l'homme a utilisé les produits de la Nature pour traiter les différentes maladies auxquelles il était confronté. Les premiers traités de chimie thérapeutique moderne, décrivant la relation entre un composé chimique et une activité thérapeutique, datent maintenant de plusieurs siècles. Nous allons présenter l'histoire commune de la chimie et du médicament sur plusieurs millénaires avant de décrire les enjeux des thérapies du futur.
Un médicament est une substance possédant des propriétés curatives ou préventives destinées à guérir, soulager ou prévenir des maladies. Il contient à la fois la notion de guérison et de prévention. « Médicament » et son synonyme « remède » viennent du mot latin « mederi » qui signifie « soigner ».
Le mot « médicament » se traduit en anglais par « medication » et plus souvent par « drug », notamment en américain. Le terme « drug » ou « drogue » provient du latin « drogia ». Il est ambigu puisqu'il désigne aussi bien un médicament qu'une substance illicite. En français, il ne désigne plus une préparation magistrale d'un pharmacien d'officine, ou d'un droguiste traditionnel, depuis une cinquantaine d'années.

Les premières sources de médicament sont les plantes. Les chimistes vont très rapidement s'y intéresser. L'homme de Neandertal était déjà un spécialiste de l'utilisation des plantes, y compris pour un usage médicinal. Ainsi des roses trémières ont été retrouvées dans la bouche de néandertaliens qui avaient été ensevelis dans les tombes de la grotte d'Amuci (Israël) [2]. La rose trémière était un analgésique utilisé dans le traitement des infections buccales.

La médecine traditionnelle chinoise est la plus ancienne. Les premières traces écrites de la médecine traditionnelle chinoise remontent à près de 3 000 ans avant J.-C. Le légendaire empereur Shan-Nung avait un herbier de plantes médicinales (2 900 avant J.-C.) ; mais on retiendra surtout l'herbier de Li Shih-Chen de 1578 dont une version anglaise est disponible depuis 2002 sous le titre « Chinese medicinal herbs ».
Les Égyptiens utilisaient également les plantes comme médicaments. Un archéologue allemand, Georg Ebers, de l'université de Leipzig a découvert au XIXème siècle à Louxor un document extraordinaire qu'on appelle « le papyrus d'Ebers ». Ce papyrus qui fait 20 mètres de long est conservé à la bibliothèque de l'université de Leipzig. Cette sorte de codex datant du siècle d'Aménophis Ier (1525-1504 avant J.-C.) est une liste de près de 870 plantes à usage médical.

Hippocrate (né en Grèce sur l'île de Cos en 460 avant J.-C.) recense plus de 400 plantes pour traiter les maladies. Le terme grec « pharmakon » qui a donné « pharmacie » en français a un double sens. Il désigne à la fois la substance qui guérit ou remède, et le poison. En effet, les produits d'origine naturelle ne sont pas inoffensifs. Les grecs savaient parfaitement qu'en fonction de la dose un même produit pouvait avoir une activité curative qui allait soulager le malade ou bien une activité toxique et l'empoisonner. La toxicité est toujours dépendante de la dose.
Claude Galien, autre grand médecin grec (131-201 après J.-C.), est le premier à s'intéresser à la préparation même des médicaments à base de plantes. Son travail est à l'origine de la pharmacie galénique. La pharmacie galénique consiste à préparer à partir d'une substance, un médicament pour le rendre plus agréable, plus facilement assimilable. La pharmacie galénique a été considérée ces derniers temps comme un aspect traditionnel de la pharmacie mais elle retrouve actuellement une nouvelle jeunesse avec l'apport de nouveaux matériaux. Il s'agit d'améliorer l'efficacité des médicaments en améliorant leur biodisponibilité, leur distribution à travers les tissus, pour cibler les organes touchés. Galien a écrit, d'après ses contemporains, plus de cinq cents ouvrages. Malheureusement nous avons très peu de traces de ces ouvrages car leur quasi-totalité a été détruite lors d'un incendie dans le temple de la paix à Rome où il enseignait en 192 après J.-C.
Avicenne (Ibn Sina, né en Perse en 980, mort en 1037) est connu dans l'histoire du médicament comme le médecin arabe qui a permis de retrouver et transmettre les acquis de la médecine grecque et de la médecine égyptienne aux IX-Xèmes siècles. Le « Canon de la médecine » est son ouvrage le plus connu. Le volume 5 décrit 760 médicaments alors qu'Hippocrate en décrivait 400 et « le papyrus d'Ebers » 870. Traduit en latin entre 1150 et 1187 par Gérard de Crémone, cet ouvrage sera la référence médicale jusqu'au XVIIème siècle.
En Europe, après la perte des savoirs qui fait suite à l'effondrement de l'Empire romain, les connaissances sont retrouvées à travers la médecine arabe.
Les alchimistes transmettaient le savoir de ce qui était déjà les balbutiements de la chimie et de l'utilisation des plantes et des produits chimiques pour guérir. Paracelse, médecin alchimiste suisse (1493-1541) est le premier à introduire les produits chimiques de synthèse dans les traitements médicaux. Il signale les propriétés anesthésiques de « l'eau blanche » (éther éthylique ou diéthyléther) obtenue par action de l'acide sulfurique sur l'éthanol : « L'eau blanche fait tomber les poulets dans un sommeil profond dont ils se réveillent sans en subir aucun dommage. » Après l'utilisation des plantes et la reconnaissance de principes actifs dans les plantes, nous arrivons ainsi peu à peu à la création de nouvelles molécules.

L'histoire des médicaments en France du XVème au XVIIIème siècle voit la mise en place des préparations reproductibles, ce qu'on appellerait maintenant les bonnes pratiques de laboratoire. Dans l'industrie chimique et l'industrie pharmaceutique, tout ce qui touche les médicaments est largement codifié. Les cahiers de laboratoire sont écrits selon certains critères et les archives sont conservées pour l'essentiel du travail entre 15 et 20 ans. Ces bonnes pratiques ne sont pas récentes puisqu'elles remontent à Jean Le Bon. En 1326, il édite « l'Antidotaire de Nicolas » recommandant aux apothicaires de Paris de suivre de bonnes pratiques de laboratoire.
À partir du XVème siècle, les premiers livres de pharmacopée sont publiés en Europe, notamment :
Ricettario Fiorentino (Italie, XVème siècle)
Codex Medicamentarius (fin XVIème siècle)
Pharmacopea Parsisiensis (1638)
Pharmacopée universelle de Nicolas Lémery (1697)
Éléments de Pharmacie et de Chimie d'Antoine Baumé (1762)
La rédaction du Codex Medicamentarius, ordonnée en 1568, a demandé plus de quarante années de rédaction collective et a donné lieu à des versions régionales. Il fait partie des grands ouvrages de la vie intellectuelle de cette époque. Il expliquait comment avoir une préparation de médicaments parfaitement reproductible.
Les codex régionaux étaient largement inspirés des codex parisiens, mais il y avait tout de même des divergences et au moment de la rationalisation de la Révolution Française, les pharmacopées régionales ont été abandonnées au profit d'une référence nationale. La loi du 21 germinal de l'an XI, en 1803, impose un texte unique pour les recettes de pharmacopée classique.
La « Pharmacopée universelle » de Nicolas Lémery (1645-1715) est le premier ouvrage décrivant les interactions entre la chimie raisonnée et le monde du médicament. Nicolas Lémery avait une double formation. Après avoir travaillé comme aide apothicaire, il a fait des études de médecine à l'université de Montpellier, dont on n'oublie pas qu'elle a formé Rabelais. Nicolas Lémery y a occupé la Chaire de chimie avant de revenir à Paris et de donner rue Galande des cours de chimie raisonnée en faisant des expériences publiques. Il fait ainsi sortir la chimie de l'alchimie qui était totalement embourbée dans l'obscurantisme. Suivant la pensée raisonnée de Pascal et de Descartes, la révolution vers le siècle des Lumières est en cours. Pour Nicolas Lémery, la chimie va devenir une science raisonnée comme les mathématiques ou la physique. Pour lui, l'essentiel est la reproductibilité des expériences. « Le Cours de Chymie » publié en 1675 par Nicolas Lémery alors âgé de trente ans, a été l'ouvrage de référence en chimie réédité dix-neuf fois pendant un siècle avant d'être remplacé par les premiers livres de chimie moderne.

La chimie moderne, raisonnée, s'est développée grâce aux travaux de Lavoisier, Berthollet, Fourcroy et Guyton de Morveau. Ce quatuor a véritablement révolutionné la chimie à la fin du XVIIIème siècle. Ils introduisent la nomenclature chimique, c'est-à-dire la possibilité de nommer un composé chimique de manière rationnelle de façon à ce que tout le monde puisse parler du même produit dans tous les pays en se comprenant. Les chimistes disposent alors d'un langage universel et rationnel, totalement débarrassé de la poésie et de l'obscurantisme de l'alchimie. Avant 1789, le CO2 ou dioxyde de carbone avait plus de quarante noms différents dont « l'air fixe » ! " « La Méthode de Nomenclature chimique » (1787) par Guyton de Morveau, Lavoisier, Berthollet et Fourcroy, et « le Traité élémentaire de chimie » (1789) de Lavoisier marquent l'entrée de la chimie dans les sciences exactes. Parlons un peu de la découverte de l'eau de Javel.

À cette époque, le lin devait être blanchi avant la teinture. Cette opération était réalisée en posant les draps dans un pré. Le rayonnement solaire sur la chlorophylle dégageait de l'oxygène singulet qui provoquait le blanchiment du lin. Les lavandières et les paysans se disputaient l'usage des pâturages. Claude Berthollet en cherchant un agent de blanchiment a synthétisé en 1789 : l'hypochlorite. Cette découverte a été publiée dans les « Les Annales de chimie » créées par Fourcroy, Guyton de Morveau et Lavoisier quelques années auparavant. L'hypochlorite NaOCl est obtenu par oxydation de chlorures qui conduit à la formation de chlore, et la solution aqueuse obtenue devient stable en milieu alcalin, initialement de la cendre, source de potasse. La première usine de fabrication de l'hypochlorite se situait à Javelle, petit village de lavandières de l'Ouest parisien, d'où le nom de l'eau de Javel.

L'eau de Javel est un blanchissant mais aussi un agent de désinfection extraordinaire. Elle lutte efficacement contre les bactéries, les agents pathogènes et les virus, qui ne seront identifiés qu'au milieu du siècle suivant avec l'essor de la microbiologie. Elle a permis de nettoyer les hôpitaux, en particulier les sols des zones infectées, et de sauver des millions de vies. Le Dakin, solution d'hypochlorite coloré avec du permanganate, est toujours utilisé comme désinfectant et les dentistes nettoient les racines des dents infectées avec de l'hypochlorite, notamment pour tuer le virus du SIDA. L'agent désinfectant de l'eau de Javel c'est l'acide hypochloreux, celui là même qui est libéré par les enzymes des macrophages humains pour éliminer les pathogènes.

Le début du XIXème siècle, 1800-1850, voit la naissance de la chimie des produits naturels. Le développement de la chimie rationnelle et l'adoption de méthodes expérimentales rigoureuses permettent de caractériser les produits actifs des plantes médicinales.
La morphine est isolée par un jeune pharmacien allemand, Friederich Sertürner, en 1803.
L'acide salicylique ou salicyline est extrait en 1829 de l'écorce de saule (salix en latin) par Pierre-Joseph Leroux. L'utilisation de feuilles de saule était connue pour aider à guérir les fièvres, limiter les maux de tête. Elle était mentionnée dans le papyrus égyptien découvert par Ebers. L'identification du principe actif, sa caractérisation et sa production rationnelle permettent d'avoir une préparation efficace d'un médicament dont l'activité ne dépend pas de la personne qui récolte les feuilles ni de la saison.
En 1853, Charles Gerhardt, brillant chimiste strasbourgeois (1816-1856), réussit la synthèse de l'acide acétylsalicylique et dépose un brevet. En vingt ans, il va aussi introduire en chimie la notion de fonction chimique utilisée pour classer les produits chimiques. Son décès prématuré plonge son travail dans l'oubli pendant de nombreuses années.
En 1897, Félix Hoffmann de la société Bayer reprend les travaux de Gerhardt et réalise la synthèse industrielle. La commercialisation de l'aspirine par Bayer débute en 1899. L'exportation de l'aspirine avant la première guerre mondiale a été le début florissant de cette société allemande. À l'occasion du traité de Versailles le gouvernement français a exigé que le brevet de l'aspirine passe dans le domaine public. Elle a ainsi été fabriquée à Lyon dans les usines du Rhône qui donneront naissance avec les usines Poulenc de Vitry à Rhône-Poulenc, société qui a largement contribué au développement de l'industrie pharmaceutique française au XXème siècle.
Au début du XIXème siècle, les chimistes sont capables d'identifier et de synthétiser des produits à partir de produits naturels. Au milieu du siècle, 1850-1860, l'association de la chimie des colorants à la chimie des produits naturels va conduire à la naissance de l'industrie pharmaceutique moderne.

Les trente dernières années du XIXème siècle vont voir l'épanouissement de la microbiologie qui fera le lien entre les bactéries pathogènes et les infections. Le microscope avec l'observation directe des micro-organismes permet de battre en brèche la théorie de la génération spontanée des microbes. Le développement conjoint de la microbiologie et de la chimie va permettre la création de merveilleux médicaments. La notion d'agent pathogène existait au début du XIXème siècle puisque Larrey, célèbre chirurgien des armées napoléoniennes, évitait les infections lors des amputations sur les champs de bataille en utilisant de l'alcool, du vinaigre, et un peu le fer rouge.
Louis Pasteur (1822-1895) et Robert Koch (1843-1910) sont les deux figures marquantes de la microbiologie en France et en Allemagne. En une trentaine d'année, ils vont permettre l'identification des agents pathogènes, virus ou bactéries, responsables des maladies suivantes : rage, peste, choléra, typhoïde, méningite, diphtérie, tuberculose, syphilis, tétanos, botulisme, lèpre, ...
La connaissance de l'agent pathogène va conduire à la mise en place de règles d'hygiène rationnelles et la mise au point de vaccins, d'antibactériens et d'antiviraux. Le respect des règles d'hygiène pasteurienne dans les salles d'accouchement a permis de diviser par trois à quatre la mortalité infantile.

Les premiers médicaments obtenus par synthèse chimique apparaissent avec l'essor de la chimie industrielle à la fin du XIXème siècle. Paul Erlich comprend qu'il est possible d'associer des petites molécules chimiques pour lutter contre un certain nombre d'agents pathogènes. Il s'intéresse aux dérivés de l'arsenic. Il crée le Salvarsan, le premier médicament qui lutte contre la maladie du sommeil.
Le premier antibactérien date de 1933. Gerhardt Domagk va tester des milliers de molécules de l'IG Farben entre 1927 et 1930 sur des streptocoques. Ce travail le conduit aux sulfamides, dont le dérivé azoïque le Prontosil, et aux acridines. Le premier sulfamide de l'histoire du médicament est une étape essentielle puisqu'il marque la découverte de la notion de métabolite actif et de la mise en évidence de son mécanisme d'action. Il comprend la notion de métabolite actif, le fait, qu'entre le produit qui est absorbé et le produit qui va agir sur sa cible pharmacologique, il y a une transformation par l'organisme. En 1935-1938, les époux Tréfouël de l'Institut Pasteur montrent que l'activité antibactérienne est permise par la coupure de la molécule au niveau d'une double liaison azote-azote qui donne une amine aromatique qui est le produit actif.

Plusieurs questions restaient encore en suspens : pourquoi une molécule a-t-elle une activité pharmacologique ? Quelle est sa cible ? Comment cette molécule interagit-elle avec la cible ? En 1940, Woods de l'université d'Oxford montre que le métabolite du Prontosil est un inhibiteur de la synthèse d'une enzyme, le tétrahydrofolate, qui est impliqué dans les transferts d'enchaînement en C1 dans des étapes de biosynthèse de la bactérie. Cette inhibition chez l'homme est compensée par l'apport d'acide folique par l'alimentation.
Pour développer des médicaments, il faut absolument comprendre comment la molécule ingérée va être transformée et quel est son mécanisme d'action.
La mise sur le marché américain du Prontosil conduit à un drame. La première formulation du médicament aux Etats-Unis va se faire avec de l'éthylène glycol ou antigel comme excipient, conduisant au décès de 76 personnes. Les autorités fédérales américaines réagissent immédiatement en créant la Food and Drug Administration (FDA) qui va édicter des règles strictes sur l'évaluation pré-clinique et clinique des futurs médicaments. Après un certain empirisme des bonnes pratiques sont mises en place et les procédures de fabrication bien plus encadrées au point de vue scientifique.
En 1930, Flemming identifie à partir d'un champignon un produit capable de tuer les bactéries, c'est la pénicilline. Il faudra attendre la deuxième guerre mondiale et l'effort de guerre des américains pour avoir une production industrielle de la pénicilline. Cette production en masse en 1942-1943 a nécessité la mobilisation de plus de mille scientifiques de très haut niveau pour résoudre les problèmes posés par la fermentation, l'extraction et la purification par des méthodes chimiques industrielles à très grande échelle. L'un des précurseurs chimiques de la pénicilline, le précurseur des céphalosporines est produit actuellement à raison de 45 000 tonnes par an dans d'immenses cuves de fermentation d'une dizaine de mètres cubes.

Pendant une centaine d'années, de la fin du XIXème jusqu'aux années 1980, les seuls outils thérapeutiques ont été les vaccins et des petites molécules. Pasteur a préparé son vaccin contre la rage à partir de la moelle épinière de lapins infectés. À sa suite, de grands succès sont obtenus par les vaccins dans la lutte contre la diphtérie, le tétanos, la poliomyélite, la variole, les hépatites A et B, la grippe, ... Les petites molécules utilisées dans les centaines de nouveaux médicaments développés à cette période sont alors des produits naturels, le plus souvent extraits de végétaux, ou bien des produits de synthèse chimique. Les découvertes étaient quasi-routinières au cours du XXème siècle et l'espérance de vie a augmenté.
À partir de 1970, la biologie devient véritablement moléculaire. Des outils créés par les physiciens dans les années 1930-1940, comme la diffraction des rayons X sur nano-cristaux, la résonance magnétique nucléaire, la spectrométrie de masse, sont utilisés par les chimistes pour étudier les petites molécules. Le perfectionnement de l'instrumentation va permettre d'utiliser ces techniques sur les macromolécules. Aux cours des années 1990-95, la facilité de résolution des structures d'enzymes est alors équivalente à celle d'une petite molécule chimique en 1970. Des milliers de structures de protéines ou d'acides nucléiques sont maintenant disponibles. La compréhension du vivant et la compréhension des produits chimiques deviennent équivalentes.

Il y a quarante ans, la découverte de la structure de l'hémoglobine a valu un prix Nobel à Max Perutz, de l'université de Cambridge. La structure de la pénicilline et de la vitamine B12 vaut un autre prix Nobel à Dorothy Hodgkin à Oxford, à peu près à la même époque. Maintenant, la publication de la structure d'une protéine se fait dans des journaux classiques et elle est directement archivée sur des banques de données. Les trente dernières années du XXème siècle ont vu une accélération extraordinaire de la connaissance moléculaire du domaine du vivant.
Les années 1965-1980 ont été celles de la découverte des outils pour étudier les gènes, notamment les enzymes de restrictions qui coupent les gènes et les ligases qui recollent les morceaux. De la compréhension du fonctionnement des gènes aux manipulations génétiques, il n'y a eu qu'un pas rapidement franchi. C'est le monde de la biotechnologie moderne où les choses ne sont plus laissées au hasard et où l'expérimentateur peut intervenir. Le séquençage des génomes, de l'homme comme des agents pathogènes, se systématise. La connaissance du génome des agents pathogènes, virus et bactéries, permet l'amélioration des outils de diagnostic et l'identification de nouvelles cibles thérapeutiques. La compréhension des maladies d'origine génétique ouvre la voie aux corrections des erreurs génétiques par la thérapie génique.
La connaissance du génome ouvre la voie à de nouvelles techniques. La génomique est l'accessibilité de la totalité de l'information génétique d'une espèce vivante. La protéomique est la possibilité d'exprimer toute protéine à partir du génome. La pharmacogénomique est la possibilité d'adapter un traitement thérapeutique selon le profil métabolique de chaque individu. Les connaissances sur la capacité des individus à métaboliser ou à ne pas métaboliser, sur leurs réactions vis-à-vis d'un médicament, permettent d'imaginer dans le futur de pouvoir adapter les posologies en fonction du patrimoine génétique de chacun. Quant à la robotique, elle permet à des mini-robots de paillasse de réaliser des milliers de molécules et d'essais biologiques in vitro. Ils atteignent rapidement leurs limites car ils produisent toujours les mêmes produits en utilisant les mêmes réactions avec une diversité structurale par trop limitée. De plus, les tests in vitro ne prennent pas en compte les problèmes de biodisponibilité, de pénétration et de passage de membrane.

Le rôle du chimiste dans l'innovation thérapeutique en ce début de XXIème siècle va être essentiel car il est formé et entraîné pour comprendre les choses au niveau moléculaire. Il pourra travailler avec des biochimistes, avec des spécialistes de biologie moléculaire, de biologie cellulaire, de toxicologie, de pharmacologie, de médecine clinique. Les raisonnements en termes moléculaires font tomber les barrières de spécialités ( au singulier dans le sens de barrières liées à la spécialité / au pluriel mais alors écrire barrière des spécialités) mais le champ des connaissances nécessaires pour aller d'un domaine à l'autre dépasse souvent les capacités individuelles. Le chimiste moderne doit maîtriser la chimie de base et plusieurs domaines de la biologie. La biochimie est devenue une partie intégrante de la chimie, de même que l'enzymologie moléculaire. Les biologistes et les médecins doivent également avoir des bases élémentaires solides en chimie thérapeutique et en pharmacologie. Il faut des médecins qui restent au pied du malade en ayant cette capacité à discuter avec d'autres médecins qui sont impliqués dans la recherche clinique, à la recherche de médicaments. Les numerus clausus doivent être révisés régulièrement de manière intelligente pour éviter de créer des pénuries de médecins praticiens, s'il s'agit des cliniciens sinon chercher un synonyme à pratiquant qui renvoie à religion voire le supprimer.

Les chimistes créatifs vont continuer à être des acteurs clés dans l'industrie pharmaceutique du futur. Le « rational drug design » est le développement de la création rationnelle de nouveaux pharmacophores. La compréhension au niveau moléculaire du monde du vivant conduit à la création d'objets chimiques parfaitement adaptés à une utilisation en tant qu'outils thérapeutiques.
La chimie des produits naturels va continuer à se développer car la nature est une source d'inspiration de nouvelles structures de haute diversité.
La chimie théorique, avec des ordinateurs de plus en plus puissants et mieux utilisés, va permettre de faire des prédictions de l'interaction de molécules avec des systèmes biologiques et des sites pharmacologiques.
Selon les étapes de la création et de développement d'un médicament, différents métiers interviennent successivement : les chimistes et les biologistes sont les plus impliqués dans les phases de découverte pré-clinique alors que les médecins prennent le relais en phase clinique. Dès les premiers essais cliniques, les statisticiens ont un rôle primordial de prédiction du rapport bénéfice/risque afin d'éviter, par exemple, d'attendre le traitement de dizaines de milliers de personnes pour identifier d'éventuels effets secondaires néfastes.

La diversification des outils dans l'arsenal thérapeutique du XXIème siècle est une combinaison de réalité, d'espoirs et de rêves. Les macromolécules biologiques, traitées comme des objets chimiques, font maintenant partie, et prendront une part de plus en plus importante dans l'arsenal thérapeutique du futur. L'hormone de croissance, l'érythropoïétine capable de stimuler la production de globules rouges, sont produites par génie génétique.
Les thérapies génique et cellulaire sont encore du domaine de l'espoir. La thérapie génique est l'utilisation de gènes ou de molécules capables de modifier l'expression génétique pour traiter des maladies d'origine génétique. La thérapie cellulaire est l'utilisation de cellules souches pour réparer des dégâts au sein de tissus et d'organes.
Pour favoriser l'innovation thérapeutique, il faut favoriser la créativité dans tous les domaines. Il faut, à la fois, des chercheurs de très grande qualité en recherche fondamentale et des chercheurs de très grande qualité en recherche appliquée. La recherche fondamentale est indispensable pour le développement des recherches appliquées, mais, il arrive parfois que des résultats soient appliqués avant la compréhension complète des processus scientifiques sous-jacents. Chaque génération a sa proportion de talent et je souhaite que beaucoup s'intéressent à la fois à la chimie et à la thérapie et contribuent dans le futur à la création de médicaments de plus en plus efficaces et de plus en plus sûrs.
[1] Transcription réalisée par Juliette Roussel
[2] M. Madella et al, J. Archaeolog. Sci. 29, 703-719 (2002)

 

VIDEO       CANAL  U         LIEN

 
 
 
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 ] Précédente - Suivante
SARL ORION, Création sites internet Martigues, Bouches du Rhone, Provence, Hébergement, référencement, maintenance. 0ri0n
Site réalisé par ORION, création et gestion sites internet.


Google
Accueil - Initiation musicale - Instruments - Solfège - Harmonie - Instruments - Musiques Traditionnelles - Pratique d'un instrument - Nous contacter - Liens - Mentions légales /confidentialité

Initiation musicale Toulon

-

Cours de guitare Toulon

-

Initiation à la musique Toulon

-

Cours de musique Toulon

-

initiation piano Toulon

-

initiation saxophone Toulon

-
initiation flute Toulon
-

initiation guitare Toulon