ecole de musique piano
     
menu
 
 
 
 
 
 

NANOSCIENCES

 

 

 

 

 

 

 

Paris, 28 juin 2016


Première pierre du Centre de nanosciences et de nanotechnologies

Le Centre de nanosciences et de nanotechnologies (C2N, CNRS/Université Paris-Sud), créé au 1er juin 2016, regroupe deux laboratoires franciliens leaders dans leur domaine : le Laboratoire de photonique et de nanostructures (CNRS) et l'Institut d'électronique fondamentale (CNRS/Université Paris-Sud). La première pierre de ce nouveau laboratoire a été posée le mardi 28 juin 2016 sur le campus de l'université Paris-Saclay, en présence de Thierry Mandon secrétaire d'État chargé de l'Enseignement supérieur et de la Recherche. Cette nouvelle structure, qui hébergera la plus grande centrale de nanotechnologie francilienne du réseau national Renatech1, se place dans une perspective ambitieuse : constituer, en France, un laboratoire phare de niveau mondial pour la recherche en nanosciences et en nanotechnologies. Le C2N, avec son bâtiment de 18 000 m², représente le plus grand projet immobilier du CNRS depuis 1973. Conduit conjointement par le CNRS et l'université Paris-Sud depuis 2009, ce projet s'inscrit dans l'opération d'intérêt national Paris-Saclay portée par l'Etablissement public d'aménagement Paris-Saclay.
L'implantation du Centre de nanosciences et de nanotechnologies (C2N) au cœur du plateau de Saclay, dans le quartier de l'école Polytechnique, a été initiée dans le cadre du plan Campus en 2009. Elle permet de renforcer la dynamique de l'écosystème scientifique des nanosciences et nanotechnologies en Ile-de-France.

Le C2N mène ses recherches dans de nombreux domaines innovants dont la science des matériaux, la nanophotonique2, la nanoélectronique3, les nanobiotechnologies et les microsystèmes, ainsi que dans ceux des nanotechnologies (voir des exemples de travaux de recherche en fin de texte). Structuré en quatre départements scientifiques, le C2N aborde des recherches à la fois fondamentales et appliquées. Il représentera le pôle de référence en matière de nanosciences et nanotechnologies de l'université Paris-Saclay. Plus largement, à l'échelle européenne, il constituera l'un des plus grands centre académique de nanophotonique et, avec les acteurs locaux, l'un des plus grands consortiums en spintronique. Le C2N participe donc au rayonnement de la communauté à l'international. Ainsi l'université Paris-Sud vient d'être reconnue 42e établissement mondial en science des matériaux par le dernier classement de Shanghai en ingénierie (juin 2016).

Au cœur du projet du C2N, la salle blanche (2800 m²) de la centrale de technologie sera la plus grande plateforme de ce type à l'échelle nationale. Elle constituera le pôle francilien du réseau national des grandes centrales académiques Renatech, réseau d'infrastructures et de moyens lourds en micro et nanotechnologie. Cette centrale sera ouverte à l'ensemble des acteurs académiques et industriels du domaine des nanosciences et des nanotechnologies afin qu'ils puissent y développer leurs technologies. Un espace sera ainsi réservé à l'accueil d'entreprises, notamment des start-up et des PME, pour des développements technologiques spécifiques. La formation à la recherche sera également au centre des priorités du C2N, avec notamment la mise en place d'une salle blanche d'entraînement, en conditions réelles, réservée à la formation pratique d'étudiants, stagiaires, ingénieurs et chercheurs désireux d'apprendre.

Ce projet immobilier d'environ 92 millions d'euros a été financé à hauteur de 71 millions d'euros par le Programme d'investissements d'avenir, 12,7 millions d'euros par le CNRS, qui contribuera également au déménagement des deux laboratoires et au raccordement des équipements à hauteur de 4,3 millions d'euros. Le foncier s'élevant à 4,32 millions d'euros a été acquis par le CNRS en 2014. La conception du bâtiment a été confiée au groupement ARTELIA (structure ingénierie et bureau d'étude) et à l'atelier d'architecture Michel Rémon et le chantier à Bouygues Ouvrages Publics, Engie Axima, GER2I, Engie Ineo et Eurovia.

Les travaux ont débuté en novembre 2015 et se termineront à l'automne 2017. Les 18 000 m² du bâtiment, regroupant les laboratoires expérimentaux (3400 m²), les bureaux (2900 m²) et la salle blanche (2800 m²), accueilleront fin 2017 entre 410 et 470 personnes, réparties entre personnels permanents (chercheurs et enseignant-chercheurs, ingénieurs, techniciens et administratifs) et non permanents (doctorants, post doctorants, étudiants, techniciens stagiaires, visiteurs, etc.).


Quelques exemples de résultats obtenus au LPN et à l'IEF :
Des LED flexibles à nanofils : une nouvelle avancée pour les écrans pliables
Une nouvelle source de lumière quantique
Diagnostic médical : un test nanobiophotonique pour détecter des micro-ARNs
Des nanolasers couplés pour approcher le régime quantique de la brisure spontanée de symétrie

Film :
Film CNRS Images sur le LPN : Nouvelles techniques de lithographie.

Site internet du C2N : http://www.c2n.universite-paris-saclay.fr

Télécharger le communiqué :



Notes :
1 Consulter le site web
2 La nanophotonique est l'étude de la lumière et de ses interactions avec la matière à des échelles nanométriques.
3 La nanoélectronique fait référence à l'utilisation des nanotechnologies dans la conception des composants électroniques.


 DOCUMENT       cnrs        LIEN 

 
 
 
 

À la rencontre des rayons cosmiques

 

 

 

 

 

 

 

À la rencontre des rayons cosmiques
Marie-Christine de La Souchère dans mensuel 455
daté septembre 2011 -

Avant d'investir le champ de l'astrophysique, le rayonnement cosmique a suscité d'intenses polémiques au sein de la communauté scientifique. Au coeur des débats : la nature de cet étrange phénomène découvert il y a un siècle à peine.
E n gravissant les escaliers de la tour Eiffel par une froide journée de mars 1910, le prêtre jésuite Theodor Wulf n'imaginait pas qu'il inciterait des générations de physiciens à se tourner vers le ciel. Wulf, qui enseignait la physique à l'université de Valkenburg, aux Pays-Bas, était simplement venu mesurer la conductivité électrique de l'air à l'aide d'un électroscope de sa fabrication. Plus précisément, il voulait vérifier que l'air était moins ionisé, donc moins conducteur, au sommet de la tour qu'au niveau du sol.

La mesure de la conductivité de l'air était à cette époque la méthode d'étude privilégiée de la radioactivité, dont la découverte et l'étude avaient valu le prix Nobel de physique en 1903 à Henri Becquerel, Marie et Pierre Curie. Les rayonnements émis par les substances radioactives ionisent en effet l'air, augmentant ainsi sa conductivité. Mais diverses expériences, pourtant menées loin de toute source radioactive et en atmosphère non orageuse, avaient mis en évidence l'existence d'une ionisation résiduelle de l'air. Les scientifiques l'avaient attribuée à une radioactivité issue de l'intérieur du globe.
Les effets de ce rayonnement d'origine tellurique devaient donc s'atténuer rapidement avec l'altitude. Or, contre toute attente, l'électromètre que Wulf emporta au sommet de la tour, à 300 mètres d'altitude, indiqua que l'air y était à peine moins conducteur qu'au niveau du sol. Le rayonnement incriminé gardait donc sensiblement la même intensité.
Intrigué, le physicien autrichien Victor Hess n'y alla pas par quatre chemins. Pour vérifier les dires de son collègue, il se lança dans une série de neuf ascensions en ballon, de 1911 à 1913. Vers 2 000 mètres d'altitude, l'ionisation était du même ordre qu'au sol. Elle augmentait ensuite de manière régulière, jusqu'à doubler vers 5 000 mètres, altitude maximale atteinte par l'aéronef. Hess en conclut que la seule manière d'interpréter de tels résultats était d'admettre l'existence d'un rayonnement « très pénétrant, de nature inconnue, venant principalement du haut et très probablement d'origine extraterrestre ».

Mobilisation internationale
La Première Guerre mondiale arrêta ces recherches. Mais dans les années qui suivirent, les physiciens traquèrent ce rayonnement d'altitude, que le physicien américain Robert Millikan, directeur à l'Institut technologique de Californie, à Pasadena, avait qualifié de « cosmique ». Les sites haut perchés, tels l'observatoire du pic du Midi, dans les Pyrénées, ou celui du Jungfraujoch, dans les Alpes suisses, avaient la faveur des expérimentateurs et drainaient des chercheurs de toutes nationalités.
Quant à la nature des rayons cosmiques, deux thèses s'affrontaient. Millikan, vétéran de la physique des particules, célèbre pour sa mesure de la charge de l'électron, soutenait qu'il s'agissait d'ondes électromagnétiques de très haute fréquence, mille fois supérieure à celle des rayons X. Ces ondes étaient associées à des grains de lumière de forte énergie : les photons gamma. Arthur Compton, de l'université de Chicago, penchait lui pour des particules chargées, protons ou électrons.

Comment trancher entre les deux hypothèses ? Des particules chargées sont déviées en présence d'un champ magnétique, contrairement aux photons. Si les rayons cosmiques possédaient une charge électrique, ils devaient subir l'action du champ magnétique terrestre, propre à les piéger et à les drainer vers les hautes latitudes selon les calculs de l'abbé belge Georges Lemaître.
En 1928, le physicien néerlandais Jacob Clay avait sillonné les mers entre Amsterdam et Java, effectuant une série de mesures qui, toutes, montraient une diminution du flux cosmique près de l'équateur. Compton lui emboîta le pas en 1930, recueillant les indications de 69 stations, situées entre 68° de latitude Nord et 46° de latitude Sud. Ses résultats confortaient ceux de Clay et accréditaient l'hypothèse de particules chargées.
Cette hypothèse ne satisfaisait guère Millikan, qui avait fait des photons gamma le fer de lance de sa théorie de la création continue, complaisamment étalée dans les colonnes du New York Times. À l'en croire, les photons gamma étaient les « cris d'atomes nouveau-nés », émis chaque fois que des atomes d'hydrogène s'assemblaient dans les nuages interstellaires pour former des noyaux plus lourds : hélium, azote, oxygène... Et Millikan d'effectuer ses propres mesures. Mais, trop sûr de lui, persuadé de l'inexistence de l'« effet latitude », le physicien mit systématiquement sur le compte de la pollution ambiante ou de défaillances expérimentales les résultats contraires à son intuition.

Lutte de Nobel
Le ton commença à monter entre Millikan et Compton, tous deux lauréats du prix Nobel de physique et également soucieux de leur image. Millikan voulait bien admettre que les rayons cosmiques renfermaient quelques particules chargées. Mais celles-ci, affirmait-il, n'étaient que le fruit de l'interaction des photons gamma avec la matière environnante.
La querelle atteignit son paroxysme lors de la réunion de l'Association américaine pour l'avancement des sciences, à Atlantic City, dans le New Jersey, fin décembre 1932. À l'issue du séminaire, désavoué par ses pairs pour sa mauvaise foi et son arrogance, Millikan refusa de serrer la main du correspondant du New York Times, qui, le 31 décembre, fit sa une des discussions.
Compton sortait vainqueur de la confrontation, mais le plus dur restait à faire : identifier les fameuses particules. Les calculs du Norvégien Carl Störmer, dont s'était inspiré Lemaître pour expliquer l'effet de latitude, prévoyaient une asymétrie Est-Ouest dans le flux cosmique. Ne pouvaient atteindre certains points du globe que les particules arrivant à l'intérieur d'un cône, ouvert vers l'ouest pour les charges positives et vers l'est pour les charges négatives.

Persuadé qu'il s'agissait d'électrons, le physicien italien Bruno Rossi essayait, dès 1930, de détecter une éventuelle anisotropie du rayonnement, depuis l'observatoire de Florence. Sans grand succès, la latitude y étant trop élevée, et l'altitude trop faible. Rossi s'apprêtait à poursuivre ses recherches dans les montagnes d'Afrique lorsque d'autres tâches le forcèrent à surseoir à l'expédition. Quand enfin il fut disponible, ce fut pour découvrir que deux équipes l'avaient devancé, dont celle de Compton. Les mesures, effectuées à Mexico, montraient une augmentation du flux de particules en direction de l'ouest, plaidant en faveur d'une majorité de charges positives. Des protons vraisemblablement.
Mais pas exclusivement. Vers la même époque, Millikan avait confié à l'un de ses anciens élèves, Carl Anderson, le soin d'étudier les rayons cosmiques à l'aide d'un dispositif nouveau : la chambre à brouillard, enceinte magnétique remplie d'air humide. Les particules chargées y laissaient des traces analogues aux traînées de condensation des avions. Les premiers clichés, réalisés fin 1931, montrèrent la trace d'une particule positive qui ne pouvait être un proton car sa masse était trop faible.
On aurait dit un électron, mais celui-ci, de charge négative, aurait été dévié dans l'autre sens. À moins que, la force magnétique s'inversant avec le sens du mouvement, l'électron n'ait traversé l'enceinte de bas en haut et non de haut en bas. Millikan rejeta l'hypothèse au motif que les rayons cosmiques venaient du ciel.

Pour trancher, Anderson introduisit un écran de plomb au milieu de la chambre. Il distinguait ainsi les particules selon qu'elles venaient du haut ou du bas. Les clichés confirmèrent que l'on avait affaire à des électrons positifs, les futurs positons, antiparticules des électrons. Cette expérience signait la première mise en évidence d'antimatière, dont l'existence avait été prédite par les calculs du physicien britannique Paul Dirac. En récompense, Anderson, âgé de 31 ans seulement, partagea le prix Nobel de physique de 1936 avec Victor Hess, pionnier du rayonnement cosmique.
Quatre ans après la découverte du positon, Anderson récidivait. Avec l'un de ses étudiants, Seth Neddermeyer, il constatait l'existence d'une nouvelle composante cosmique, dite dure, capable de traverser plusieurs centimètres de plomb. Anderson et Neddermeyer baptisèrent les particules observées « mésotrons » car leur masse était intermédiaire entre celle de l'électron et du proton. On les connaît à présent sous le nom de muons, et ils constituent de l'ordre de 75 % du rayonnement cosmique au niveau de la mer.
En 1947, à leur tour, deux chercheurs de l'université de Bristol, Cecil Powell et Giuseppe Occhialini, mettaient en évidence, au pic du Midi, les mésons pi ou « pions ». Leur désintégration en vol produit des muons et des neutrinos, minuscules entités neutres capables de traverser la Terre de part en part sans être interceptées. Les mésons K ou « kaons » et les hypérons suivirent en 1949.

Pluie de particules
Comment expliquer l'existence d'une telle diversité de particules ? Les observations par ballon stratosphérique au début des années 1950 ont confirmé la formation à haute altitude de grandes gerbes de rayons cosmiques, dont les retombées avaient été détectées au sol par Rossi dès 1933, puis par le Français Pierre Auger en 1938, grâce à des compteurs Geiger écartés de plusieurs dizaines de mètres. Ces pluies de particules sont créées par un rayonnement primaire fait majoritairement de protons de haute énergie. Les protons percutent les atomes d'azote et d'oxygène de l'air, donnant naissance à de nouvelles particules. Par collisions et désintégrations en cascade, celles-ci en engendrent des nuées d'autres : mésons et muons, électrons et positons, neutrons et neutrinos...
Avec le développement des accélérateurs et des collisionneurs de particules, les physiciens ont déserté les observatoires, laissant aux astronomes le soin de découvrir l'origine du rayonnement primaire et les mécanismes qui président à son émission et à l'accélération des charges électriques. Ondes de choc de supernovae, champs magnétiques d'étoiles à neutrons, noyaux actifs de galaxies, les pistes sont multiples... En attendant, plus d'un siècle après sa découverte, le rayonnement cosmique conserve toujours une part d'ombre.

 

DOCUMENT   larecherche.fr    LIEN

 
 
 
 

SOURCES D'ÉNERGIE

 

 

 

 

 

 

 

sources d'énergie

Ensemble des matières premières ou des phénomènes naturels utilisés pour la production d'énergie.

GÉOGRAPHIE

L'énergie a des sources et des formes variées, donc sa mesure globale nécessite des conversions. L'équivalence calorifique de 1 t de pétrole (tep) se situe à 1,5 t pour la houille, à près de 4 t pour le lignite, à 1 100 m3 pour le gaz naturel, à 4 500 kWh pour l'électricité primaire. La production mondiale s'élevait à 500 Mtep vers 1900, environ 1 500 Mtep à la veille de la Seconde Guerre mondiale, s'accroissant rapidement après celle-ci, jusqu'en 1974 (6 000 Mtep). La progression s'est ralentie, avec l'extension de la crise, et la production se situe à 8 000 Mtep en 1994. Le charbon (houille et, accessoirement, lignite) a été longtemps prépondérant, et représente encore 75 % de la production énergétique mondiale en 1937. Il a été supplanté dans les années 1960 par le pétrole : 48 % de la production totale en 1973. La part du pétrole (encore dominant) a diminué depuis : environ 40 % aujourd'hui, celle du charbon s'est un peu redressée : 27 % en 1973, 29 % actuellement. Le poids du gaz naturel continue à s'accroître lentement : il satisfait aujourd'hui plus de 20 % des besoins énergétiques. La part de l'électricité primaire s'est récemment fortement accrue (6 % en 1970, environ 10 % maintenant), essentiellement grâce à l'essor du nucléaire.
Une grande partie de la production provient d'un petit nombre de pays ou régions. En tête, viennent les États-Unis (18 %) dont le poids relatif a diminué, comme celui du Moyen-Orient pétrolier (18 % de la production mondiale en 1973, à peine 12 % aujourd'hui, apport devenu inférieur à celui, croissant, de la Chine). L'ensemble de l'Europe occidentale fournit moins de 12 % de la production mondiale dont elle consomme en revanche le sixième. La Russie est le dernier grand producteur (charbon et surtout hydrocarbures). Les États-Unis et le Japon sont aussi de gros importateurs d'énergie. Le Moyen-Orient demeure la principale région exportatrice (450 Mtep) mais les livraisons russes (pétrole aussi, mais également gaz naturel) demeurent importantes.

TECHNIQUE

L’énergie se manifeste par la production de chaleur, de travail ou de rayonnement. Depuis qu’il a domestiqué le feu, l’homme utilise des matières premières (bois, puis charbon, pétrole, uranium, etc.) et des phénomènes naturels (vent, rayonnement solaire, marées, etc.) pour en tirer de l’énergie. Mise en jeu dans l’ensemble des activités humaines contemporaines, cette énergie extraite du milieu naturel pose actuellement deux problèmes fondamentaux : celui de l’épuisement de ses sources principales et celui de l’impact croissant de la consommation humaine sur l’environnement.

Les différentes formes d’énergie
L’énergie est disponible dans la nature sous différentes formes, qui sont convertibles. On l’utilise sous forme mécanique (liée au mouvement : énergie cinétique, énergie potentielle), thermique (chaleur), électrique (engendrée par des différences de charges électriques), chimique (stockée sous la forme de liaisons chimiques, exploitée par les êtres vivants lors de la respiration et des fermentations, ou par combustion dans les moteurs thermiques), nucléaire (libérée par fission ou fusion de noyaux d’atomes) ou lumineuse (rayonnement).
On peut extraire l’énergie par combustion, du bois, du charbon, du pétrole ou du gaz. Ainsi, un moteur à explosion transforme par combustion l'énergie chimique de l'essence, tirée du pétrole, en chaleur, puis cette chaleur en mouvement.

Les sources d’énergie
On distingue deux types de sources d’énergie :

– le premier rassemble des matières premières, d’une part les combustibles fossiles, provenant de la sédimentation et de la fossilisation de plantes, d’animaux et de micro-organismes (charbon, pétrole, gaz) et, d’autre part, l’uranium et toute autre matière première à la base de la production d’énergie nucléaire ;

– le second est celui des énergies dites « renouvelables », principalement des phénomènes naturels (rayonnement solaire, vent, géothermie, énergies hydraulique et marémotrice), mais aussi des matières premières comme le bois et, plus généralement, la biomasse (matière vivante, principalement végétale).

Les matières premières fossiles et des sources d’énergie nucléaire comme l’uranium se trouvent stockées dans le sous-sol en quantités importantes, mais limitées. Leurs réserves ne se reconstituent pas à mesure qu’on les exploite, à la différence de celles de la biomasse, source d’énergie « renouvelable » car en constante régénération. Les autres énergies renouvelables, issues de phénomènes naturels comme le vent et l’ensoleillement, apparaissent inépuisables à l’échelle des civilisations humaines. Ainsi, le problème de l’épuisement des ressources ne se pose que pour les énergies fossiles, actuellement largement dominantes.

La consommation d’énergie

Depuis le xixe siècle, l’accélération de la croissance démographique de l’humanité et le développement industriel se traduisent par une formidable progression de la production et de la consommation d’énergie fossile. Or, cette augmentation de la demande et de l’utilisation provoque une crise sans précédent. Aux problèmes de la gestion des ressources et de l’approvisionnement énergétique s’ajoutent ceux de l’impact de la consommation mondiale sur l’environnement et le climat.

En constante augmentation, la consommation mondiale d’énergie s’accélère sous l’effet de la mutation économique des grands pays asiatiques, notamment la Chine et l’Inde, tandis que les pays d’Europe et d’Amérique du Nord demeurent les plus gros consommateurs. La consommation mondiale annuelle d’énergie primaire, de l’ordre de 11 milliards de tonnes d’équivalent pétrole (tep) en 2007, s'accroît d'un peu plus de 2 % par an . Le pétrole vient en tête, avec 35 % de la fourniture, devant le charbon, 28 %, le gaz naturel , 20 %, l'hydroélectricité et les énergies renouvelables, 11 %, le nucléaire, 5 %.

Énergie et environnement

Les énergies fossiles sont des énergies polluantes. La combustion du charbon, du pétrole et, dans une moindre mesure, du gaz naturel, libère dans l’environnement des substances toxiques, polluantes, et des gaz à effet de serre, notamment du gaz carbonique (ou dioxyde de carbone) et du méthane. Parmi les sources d’énergies renouvelables, le bois et les biocarburants libèrent les mêmes types de substances lors de leur combustion.

L’énergie nucléaire représente une alternative aux autres énergies fossiles, tout en assurant une certaine indépendance énergétique à des pays pauvres en ressources pétrolières, tels que la France. Toutefois, la production d’énergie dans les centrales nucléaires n’est pas sans risques (catastrophe de Tchernobyl en 1986). En outre, le combustible nucléaire n’est qu’en partie recyclable : les déchets radioactifs doivent être isolés pour limiter la contamination de l’environnement.
Si elles représentent un modèle d’énergies « propres », les énergies renouvelables d’origine solaire, éolienne, hydraulique, géothermique ou marémotrice, sont encore marginales à l’échelle des consommations nationales. Toutefois, quelques pays, comme la Finlande, atteignent un niveau important de production avec les énergies renouvelables, qui représentent plus du quart de leur production totale d’énergie finale.

Par ailleurs, l’exploitation des énergies renouvelables n’est pas sans effet sur l’environnement (construction d’infrastructures comme les barrages, fabrication des matériaux, mise en œuvre entraînant des nuisances…), bien qu’elles soient beaucoup moins polluantes que les énergies fossiles. Les pays et les institutions internationales déterminent les normes à respecter pour toute installation énergétique.

Les choix énergétiques

L’épuisement des ressources d’énergies fossiles, qui semble inévitable au cours du xxie siècle, rend nécessaire le développement d’autres formes d’énergie, mais aussi la maîtrise de la consommation à l’échelle mondiale. L’usage massif du pétrole et du charbon provoque le rejet dans l’environnement de nombreuses substances polluantes, notamment du CO2 (dioxyde de carbone, ou gaz carbonique), l’un des principaux responsables de l’accroissement de l’effet de serre.

La prise de conscience du problème au niveau international s’est manifestée lors du Sommet de la Terre, à Rio, en 1992. Elle a permis la mise au point d’une Convention sur les changements climatiques et a abouti à la signature du protocole de Kyoto, pour la réduction par les pays industrialisés des émissions de gaz à effet de serre entre 2008 et 2012, par rapport à celles de 1990. Entré en vigueur en 2005, le protocole de Kyoto a été ratifié par 175 États (2007), mais pas par les États-Unis, plus gros émetteurs de CO2 avec la Chine (pays qui a ratifié le protocole et dont les taux par habitant demeurent bien inférieurs à ceux des États-Unis). Toutefois, le 44e président américain, Barack Obama, a annoncé au lendemain de son élection en novembre 2008, un changement radical d'attitude des États-Unis face au réchauffement climatique, après huit ans de déni de l'administration Bush ; il s'est notamment engagé à faire revenir les émissions de gaz à effet de serre à leur niveau de 1990 d'ici 2020.
De leur côté, en 2007, les États membres de l’Union européenne se sont fixé l’objectif global de 20 % d’énergies renouvelables à l’horizon 2020, parallèlement à une réduction de 20 % des gaz à effet de serre.

À l’échelle mondiale, l’hydroélectricité est la première énergie renouvelable : elle représente les neuf dixièmes de toutes les énergies renouvelables. Toutefois la biomasse (biocarburants), l’énergie éolienne et l’énergie solaire ont un fort potentiel de développement.
En France, en 2006, 78,1 % de la production totale d’électricité était d’origine nucléaire, 10,4 % provenaient des centrales thermiques, 11,1 % de l'hydraulique et 0,4 % de l’éolien et du solaire.

 

   DOCUMENT   larousse.fr    LIEN

 
 
 
 

INFORMATIQUE Le principe d'un langage de programmation

 







LANGAGE  INFORMATIQUE




PLAN
            *         LANGAGE
            *         INFORMATIQUE
            *         Le principe d'un langage de programmation
            *         Les niveaux de langage
            *         Les langages d'assemblage
            *         Les langages évolués
            *         Les langages algorithmiques/déclaratifs/objets
            *         Quelques langages algorithmiques classiques
            *         Le langage déclaratif ou descriptif
            *         La programmation « orientée objets »
            *         Le parallélisme

Cet article fait partie du dossier consacré à l'informatique.
Ensemble de caractères, de symboles et de règles qui permettent de les assembler, utilisé pour donner des instructions à un ordinateur.


INFORMATIQUE
Le principe d'un langage de programmation
Comme les « langages naturels » (le français, l'anglais…), les langages de programmation sont des systèmes d'expression et de communication. Mais les « phrases » utilisées par ces langages, appelées programmes, forment des textes destinés à être compris par des ordinateurs. Cependant, les langages utilisés pour communiquer avec les ordinateurs ne sont pas tous considérés comme des langages de programmation. Il s'agit seulement des langages qui, théoriquement, sont suffisamment universels pour exprimer tous les traitements possibles (algorithmes) qu'un ordinateur peut effectuer. Ne sont pas considérés comme des langages de programmation, les langages d'interrogation de bases de données, et plus généralement les langages dits « de quatrième génération » (L4G en abrégé) – langages SQL (Structured Query Language) et Java – qui permettent de réaliser de façon conviviale des applications particulières.
On peut considérer qu'un programme est un texte dépourvu de toute ambiguïté et qui doit être écrit en respectant scrupuleusement les « règles de grammaire » du langage.

Les niveaux de langage
Un programme est constitué d'instructions destinées à être exécutées par la machine. Seules les instructions qu'une machine, ou plus précisément le processeur de l'ordinateur, est capable d'interpréter directement sont celles d'un langage de nature binaire (les programmes sont des combinaisons de nombres binaires 0 et 1). Ce langage est appelé « langage machine ». C'est le langage de plus « bas niveau ». Sur les premiers ordinateurs, c'était le seul moyen d'écrire un programme. Mais, très vite est apparue la nécessité d'utiliser des langages de programmation plus évolués, de plus « haut niveau », c'est-à-dire plus proches de l'esprit humain, et cela pour deux raisons : la première raison est qu'écrire un programme en langage machine est une tâche extrêmement minutieuse et fastidieuse, ce qui entraîne un risque d'erreurs très élevé ; la deuxième raison est que chaque processeur a son propre langage machine, ce qui empêche de transporter le même programme d'un matériel à un autre.
Un programme écrit dans un langage de plus haut niveau que le langage machine ne peut pas être exécuté directement par l'ordinateur. Il doit être préalablement traduit en langage machine. Cette traduction est effectuée automatiquement par l'ordinateur lui-même. C'est un programme appelé « traducteur » qui effectue ce travail.

Les langages d'assemblage
Un premier niveau de langage au-dessus du langage machine a commencé à être utilisé dans les années 1950. Il s'agit du langage d'assemblage qui, en gros, remplace des suites de 0 et de 1 par des notations symboliques. La traduction d'un tel langage s'appelle l'assemblage. Mais ce genre de langage dépend encore de la famille d'ordinateurs pour laquelle il a été développé. De plus, il reste peu facile à lire et à comprendre et il ne convient donc pas pour écrire de gros programmes fiables.

Les langages évolués
On appelle « langages évolués » les langages de haut niveau qui non seulement sont indépendants de toute machine mais aussi sont plus faciles à lire et à comprendre parce qu'ils regroupent en une seule instruction de haut niveau des suites d'opérations élémentaires de bas niveau, par exemple additionner deux variables numériques sans se préoccuper des détails de transfert entre mémoire centrale et registres du processeur. Il y a essentiellement deux sortes de programmes traducteurs pour ce genre de langage : les compilateurs et les interpréteurs.
Le programme en langage évolué qui doit être traduit est appelé programme source. Un interpréteur traduit les instructions du programme source l'une après l'autre et les exécute au fur et à mesure. Le compilateur traduit la totalité du programme source en produisant une nouvelle version exécutable. Comme un programme est en général destiné à être exécuté de nombreuses fois, l'avantage de la compilation est que cette traduction est faite une fois pour toutes et sollicite beaucoup moins le processeur. Mais l'interprétation peut aussi avoir des avantages : d'une part, il est plus facile de produire un interpréteur qu'un compilateur et d'autre part, l'interprétation rend plus aisée la mise en place des méthodes d'aide à la mise au point des programmes.

Les langages algorithmiques/déclaratifs/objets
L'évolution des langages décrite précédemment a conduit à des langages de haut niveau qui restent liés à un style de programmation dit algorithmique ou encore impératif ou procédural. Tout se passe comme si on programmait dans le langage machine d'une machine virtuelle de très haut niveau. Par exemple, la notion de variable est une abstraction de la notion de case mémoire et l'instruction d'affectation décrit l'action fondamentale qui consiste à modifier la valeur d'une variable. De façon générale, un programme décrit une suite d'actions que la machine doit effectuer.

Quelques langages algorithmiques classiques
Parmi les langages algorithmiques classiques, on peut citer en particulier FORTRAN apparu dès 1954 et encore utilisé pour la programmation de calculs scientifiques, COBOL (1959) utilisé pour des applications de gestion, BASIC (1964). Le langage Pascal (1969) a marqué une étape dans la structuration rigoureuse des programmes et est encore largement utilisé pour l'enseignement de la programmation. Le langage Ada est particulièrement adapté à la production de très gros programmes vus comme des assemblages de « composants logiciels ». Le langage C est aussi largement utilisé, en liaison avec l'essor du système d'exploitation Unix.

Le langage déclaratif ou descriptif
Au style de programmation algorithmique, largement dominant, on peut opposer un style de programmation dit déclaratif ou encore descriptif, qui cherche à atteindre un niveau encore plus haut. Un programme est alors vu comme la définition de fonctions (on parle alors de « programmation fonctionnelle ») ou de relations (on parle alors de « programmation logique »). Le langage LISP (1959) peut être considéré comme un précurseur des langages fonctionnels. Parmi les langages fonctionnels, on peut aussi citer les différents dialectes actuels du langage ML. La famille des langages de programmation logique est composée principalement de PROLOG (1973) et de ses successeurs. Les langages fonctionnels ou logiques sont surtout utilisés pour certaines applications relevant de ce qu'on appelle « l'intelligence artificielle ».

La programmation « orientée objets »
Le style de programmation « orientée objets » constitue une autre avancée importante dans l'évolution des langages de programmation et connaît actuellement un essor considérable. L'idée fondamentale est de permettre au mieux la conception et la réutilisation de composants logiciels et, pour cela, de structurer les programmes en fonction des objets qu'ils manipulent. On peut citer en particulier Smalltalk, Eiffel, mais le langage orienté objets le plus utilisé est certainement C++, extension du langage C. Ada 95 se veut aussi une extension de Ada adaptée à la programmation objets. Le langage Java, dont la vogue actuelle est liée à des applications au World Wide Web (Internet) est aussi un langage orienté objets. Il présente l'immense avantage d'être portable, c'est-à-dire qu'un programme écrit en Java peut fonctionner sur des machines de constructeurs différents et sous plusieurs systèmes d'exploitation sans aucune modification.
Les programmes Java sont soit interprétés soit compilés. Les versions interprétées sollicitent beaucoup l'unité centrale de l'ordinateur et cela peut avoir des conséquences fâcheuses pour les temps de réponse des applications interactives.

Le parallélisme
Citons aussi, sans entrer dans les détails, le parallélisme, c'est-à-dire les techniques qui permettent d'accroître les performances d'un système grâce à l'utilisation simultanée de plusieurs processeurs. Des problèmes difficiles se posent pour exprimer le parallélisme dans des langages de programmation et pour compiler ces langages. Le langage HPF (High Performance FORTRAN ) est un exemple récent de tentative pour résoudre ces difficultés.

 

 DOCUMENT   larousse.fr    LIEN

 
 
 
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 ] Précédente - Suivante
SARL ORION, Création sites internet Martigues, Bouches du Rhone, Provence, Hébergement, référencement, maintenance. 0ri0n
Site réalisé par ORION, création et gestion sites internet.


Google
Accueil - Initiation musicale - Instruments - Solfège - Harmonie - Instruments - Musiques Traditionnelles - Pratique d'un instrument - Nous contacter - Liens - Mentions légales /confidentialité

Initiation musicale Toulon

-

Cours de guitare Toulon

-

Initiation à la musique Toulon

-

Cours de musique Toulon

-

initiation piano Toulon

-

initiation saxophone Toulon

-
initiation flute Toulon
-

initiation guitare Toulon