ecole de musique piano
     
menu
 
 
 
 
 
 

NEUTRINOS ET ÉNERGIE NOIRE

 

2. La piste des neutrinos


dossier - par Jacques-Olivier Baruch dans mensuel n°384 daté mars 2005 à la page 38 (1094 mots) | Gratuit
L'énergie sombre serait-elle liée aux neutrinos, des particules qui interagissent faiblement avec la matière ? Cette récente hypothèse suppose que les masses de ces particules très légères varient au cours du temps. Elle pourrait être testée dans les expériences en cours.

Les physiciens adorent notre époque. Comme 95 % de l'énergie de l'Univers est d'origine inconnue, ils ont tout loisir d'imaginer de superbes théories, certes prédictives, mais encore invérifiables. Le XXIe siècle débute ainsi par un vaste champ de conjectures ouvertes. Parmi elles, l'énergie sombre tient une place de choix. Quelle est sa nature ? Comment interagit-elle avec la matière ? Pourquoi a-t-elle pris le pas sur la force gravitationnelle au point d'accélérer aujourd'hui l'expansion de l'Univers ?

Si de nombreux physiciens se « contentent » d'imaginer un champ scalaire de type quintessence voir l'article précédent, d'autres vont plus loin. C'est le cas d'une des dernières hypothèses en lice, lancée l'été dernier par un groupe de l'université de Washington, à Seattle. Dans deux articles, David Kaplan, Robert Fardon, Ann Nelson et Neil Weiner émettent l'hypothèse que les neutrinos, si leurs masses varient, feraient partie du moteur de l'accélération de l'Univers [1] [2]. Ils nomment leur théorie MaVaNs Mass Varying Neutrinos.


Des particules insaisissables

Les neutrinos sont des particules inventées par le théoricien Wolfgang Pauli, en 1930, pour résoudre un problème d'énergie dans le bilan des réactions nucléaires mettant en jeu les interactions faibles. Ils sont émis par plusieurs sources : lors des fusions nucléaires que connaissent les étoiles, celles que produisent les hommes dans les centrales ou les accélérateurs de particules, mais aussi lors de la désintégration de matières radioactives et des chocs avec les particules des rayons cosmiques. Une bonne partie d'entre eux provient des premiers instants de l'Univers.

Comme ils n'interagissent que très peu avec la matière, leur étude est difficile, et la connaissance que l'on a d'eux très parcellaire. Ils existent, puisqu'ils sont régulièrement détectés, la première fois étant en 1955 par Frederick Reines et Clyde Cowan. Ils sont de trois types différents. Chacun est associé à une particule existante, l'un avec l'électron, les deux autres avec ses deux grands frères, le muon ou le tau. Ils ne portent pas de charge et auraient des masses très faibles d'environ cinq millièmes d'électronvolt, soit cent millions de fois moins qu'un électron. Cette valeur a été déduite d'une autre propriété étonnante de ces particules : elles oscillent, c'est-à-dire qu'elles peuvent changer de type durant leur course dans l'Univers, comme ce fut démontré en 1998 par l'équipe japonaise du détecteur SuperKamiokande qui observa qu'un neutrino électronique pouvait se transformer en neutrino muonique [3].

On n'en sait pas plus. C'est dans ce gouffre d'ignorance que l'équipe de Seattle espère puiser la solution à l'énergie sombre. La source de cette énergie répulsive proviendrait, selon eux, de l'interaction entre les neutrinos et de nouvelles particules, dont la masse serait à peu près équivalente, soit un millième d'électronvolt. « Les neutrinos seraient ainsi une composante fondamentale de l'énergie sombre », commente Gia Dvali, physicien de l'université de New York [4].

David Kaplan et ses collègues arguent que, du fait de leur très faible masse, les neutrinos doivent être très sensibles aux interactions qui ne demandent que peu d'énergie. En particulier avec ces particules encore inconnues dont les auteurs postulent l'existence. Ce seraient les composantes d'un champ scalaire comme le prévoient aussi les modèles de quintessence. Les interactions entre ces particules de l'énergie sombre et les neutrinos seraient à l'origine des oscillations d'un type à un autre. En plus, elles provoqueraient une augmentation des masses des neutrinos au cours du temps. L'ensemble neutrinos-champ scalaire se conduirait tel un fluide de pression négative, poussant l'expansion de l'Univers à s'accélérer.

Mais pourquoi l'Univers s'étendrait-il plus vite aujourd'hui qu'hier, alors que l'expansion a dilué aussi bien la quantité de neutrinos que des autres particules ? La cause proviendrait encore du champ scalaire. Car, dans le scénario MaVaNs, l'énergie sombre se répartit entre celle du champ scalaire et celle liée à la masse totale des neutrinos. Or, seule cette dernière varie. Et encore, pas beaucoup, car la réduction de la densité des neutrinos au cours de l'expansion de l'Univers est contrebalancée par l'augmentation de leur masse. Au fur et à mesure de l'expansion, l'énergie gravitationnelle, dont l'effet est attractif, aurait diminué plus vite que l'énergie sombre. Il y a six milliards d'années, l'effet répulsif de cette dernière serait devenu prédominant : l'expansion cessa de ralentir pour accélérer.


La preuve à portée de main

Toujours selon MaVaNs, ce ne serait pas toujours le cas. Arriverait un moment où les neutrinos seraient trop dispersés et trop massifs pour être influencés par le champ scalaire de l'énergie sombre. L'accélération stopperait. L'expansion de l'Univers se poursuivrait, mais en ralentissant de plus en plus. « Une idée intéressante mais très spéculative », selon François Vannucci, du laboratoire de physique des hautes énergies de l'université Pierre-et-Marie-Curie. « Les nouvelles idées sont saines, tant que les scientifiques restent conscients que ce ne sont que des hypothèses, répond Ann Nelson, coauteur des deux articles. Pour l'instant, nous avons une théorie autocohérente, qui rend compte des observations passées et a des implications sur les expériences. »

C'est l'avantage de ce modèle. Alors que les autres modèles ne peuvent être confrontés qu'aux observations astronomiques ou cosmologiques, celui-ci pourrait être confirmé - ou contrecarré - à partir d'expériences terrestres. Et sans forcément devoir construire d'autres grands équipements, même si les auteurs n'oublient pas de demander la mise en service de nouvelles expériences spécialement consacrées à la résolution de cette énigme. Des déviations dans le modèle standard de ces particules insaisissables devraient être visibles dans les données des expériences passées, puisque les masses des neutrinos y ont toujours été considérées comme constantes. Ces données concernent aussi bien celles recueillies sur les neutrinos émis dans les réacteurs nucléaires, par exemple, ceux des centrales françaises de Chooz ou du Bugey, que les détections de neutrinos solaires effectuées par les expériences japonaises KamLand, K2K ou SuperKamiokande.

Mieux même, ces modèles pourraient résoudre l'anomalie de l'expérience américaine LSND à Los Alamos.

En 1995, ce Liquid Scintillator Neutrino Detector avait observé que les neutrinos muoniques se transformaient en neutrinos électroniques sur de très courtes distances. Les physiciens en déduisaient une masse différente de celles des autres expériences..., si les masses des neutrinos étaient constantes. La solution proposée par l'équipe de Washington permettrait donc de résoudre plusieurs énigmes à la fois.

Pour Gia Dvali, si la tentative de vérification de ce scénario échoue à dévoiler la nature de l'énergie sombre, elle permettra, au pire, de comprendre un peu mieux ces fantasques particules que sont les neutrinos. Ce sera déjà beaucoup.

Par Jacques-Olivier Baruch

 

DOCUMENT       larecherche.fr       LIEN

 
 
 
 

L'ORDINATEUR QUANTIQUE

 


 Les constructeurs de qubits


et aussi - par Ferdinand Schmidt-Kaler, Philippe Grangier dans mensuel n°398 daté juin 2006 à la page 38 (1900 mots) | Gratuit
L'ordinateur quantique n'est plus seulement théorique. Son unité de calcul, le qubit, pourrait être portée par des ions, piégés et refroidis à très basse température. Cette technique permet déjà de réaliser des calculs simples.

Avec des dimensions de quelques dizaines de nanomètres, les transistors des ordinateurs actuels ne sont plus très éloignés de l'échelle atomique où apparaissent les propriétés quantiques des constituants élémentaires de la matière. Dans le cadre technologique actuel, ces effets quantiques sont le plus souvent considérés comme une nuisance, source d'erreurs de calcul. Le principe d'un ordinateur quantique consiste au contraire à exploiter ces propriétés : il s'agit de concevoir de nouveaux processeurs dont la puissance de calcul pourrait être augmentée exponentiellement.

Dans cette nouvelle approche, les bits, unités élémentaires de l'informatique classique, deviennent des bits « quantiques », des qubits, le plus souvent portés par des objets quantiques individuels, par exemple des atomes, des ions ou des photons. De nombreuses équipes de recherche parviennent déjà à manipuler ces qubits et à leur faire effectuer des opérations simples, premiers pas vers des calculs complexes.

Dans son principe, un calcul quantique équivaut à faire évoluer de manière contrôlée l'état initial d'un ensemble de qubits appelé un q-registre. À la fin du calcul, on mesure l'état du q-registre, qui fournit une valeur binaire comme pour un registre classique. Bien qu'il commence et se termine tel un calcul classique, le calcul quantique est d'une extraordinaire puissance. Il possède en effet une propriété inimaginable dans le monde classique : pendant le calcul lui-même, l'ordinateur met parallèlement en jeu tous les états correspondant à tous les nombres que le registre peut contenir.

Pour contrôler cette méthode de calcul paradoxale, on doit faire évoluer le système de qubits sous l'action d'une horloge qui détermine le rythme du calcul. À première vue, une opération compliquée, notamment la factorisation de très grands nombres voir article précédent, semble être un problème inextricable. En réalité, ce calcul peut être décomposé en une succession d'opérations simples n'affectant qu'un ou deux qubits. Elles sont effectuées par des « portes logiques », dont des exemples bien connus en informatique classique sont les portes NON, ET, OU, etc. Mais puisque les portes quantiques agissent sur des qubits, elles peuvent effectuer certaines opérations logiques inconcevables classiquement. En particulier, parce que l'information n'est pas portée par chaque qubit, mais par des corrélations quantiques entre plusieurs d'entre eux. Cette « intrication » des qubits joue un rôle fondamental dans ce type de calcul.

Exigences contradictoires
Le passage à la réalisation d'un ordinateur quantique requiert de combiner deux exigences a priori contradictoires. D'une part, il est indispensable, afin d'effectuer le calcul désiré, de pouvoir agir sur les qubits, de les intriquer et les faire interagir. D'autre part, il faut les isoler le mieux possible de toutes les interactions non contrôlées avec le monde extérieur. Car l'ensemble de ces interactions, que l'on appelle « décohérence », détruit le caractère quantique - et en particulier l'intrication - de l'état du registre. Il induit des erreurs dont l'accumulation peut rapidement devenir inacceptable, car elle empêche le calcul d'aboutir.

Malgré la difficulté prévisible de telles opérations, le nombre de candidats au titre de qubit est actuellement très grand lire « Les autres candidats qubits », p. 41. Un minisondage réalisé par le site Web Qubitnews [1] place les ions, s'ils sont piégés dans un petit volume par des champs électriques, en tête des candidats potentiels : il est alors effectivement possible de les contrôler, de les coupler et de les protéger des perturbations indésirables dues à leur environnement. Ces ions peuvent être excités ou laissés dans leur état fondamental. Leur état d'excitation, noté « 0 » ou « 1 », devient une unité élémentaire d'information quantique, c'est-à-dire un qubit. Le calcul est effectué en utilisant des faisceaux laser focalisés sur chacun des ions. Ces lasers, convenablement ajustés, permettent de préparer les qubits dans l'état souhaité « 0 » ou « 1 », de piloter le déroulement du calcul, et finalement de lire l'état du registre, en forçant l'ion à émettre une lumière qui va révéler son état « 0 » ou « 1 » [fig. 1] .

Piège linéaire
Ces techniques expérimentales très sophistiquées doivent beaucoup à différents lauréats du prix Nobel de physique. À Theodor Hänsch et John Hall Nobel 2005, qui ont réalisé des expériences de métrologie de grande précision, comme celles sur les horloges atomiques. À Wolfgang Paul Nobel 1989, le père des pièges à ions, qui permettent de conserver les ions dans un volume restreint en utilisant une combinaison de champs électriques statiques et oscillants. Et également à Claude Cohen-Tannoudji, Steven Chu et William Phillips Nobel 1997, dont le travail sur le refroidissement par laser est important dans ces expériences de calcul quantique, car l'amplitude du mouvement des ions piégés -donc leur température - doit être diminuée jusqu'à ce qu'elle atteigne une dizaine de nanomètres, limite quantique imposée par le principe d'incertitude de Heisenberg * . Et pour obtenir un q-registre, ce sont plusieurs ions qui doivent être refroidis dans le même piège. Puisqu'ils portent tous la même charge positive, ils vont alors se repousser et s'arranger régulièrement dans le piège. Si la structure de ce dernier les force aussi à s'aligner, on obtient alors un piège linéaire, dans lequel les ions individuels sont séparés de quelques micromètres.

C'est cette proximité qui va permettre la réalisation du calcul. En effet, une opération logique revient à modifier l'état d'un qubit en fonction de l'état d'un autre qubit. L'idée fondamentale permettant de réaliser ces opérations a été introduite en 1995 par Ignacio Cirac et Peter Zoller, à l'université d'Innsbruck,en Autriche [2] . De manière simplifiée, elle consiste à utiliser le fait que, si un ion est mis en mouvement par un laser, il va pousser les autres à cause de sa charge électrique. En termes plus sophistiqués, les modes d'oscillation de la chaîne d'ions servent de bus quantique, capable de véhiculer l'information quantique entre les qubits portés par les ions piégés. Les mouvements d'oscillations étant eux-mêmes quantifiés, ils s'effectuent par « sauts » soigneusement contrôlés : par exemple, si un ion est dans l'état « 0 », il en déplacera un autre, mais pas s'il est dans l'état « 1 ». Il faut bien sûr se souvenir que, puisqu'un qubit peut être à la fois dans l'état « 0 » et dans l'état « 1 », il va à la fois pousser et ne pas pousser son voisin... ce qui illustre les limites des représentations imagées du fonctionnement de ce système. Néanmoins, la chaîne d'ions peut être à nouveau complètement immobilisée après chaque opération logique, ce qui assure le bon déroulement du calcul.

Maîtriser la « décohérence »
Les expériences réalisées par les groupes de Rainer Blatt, à l'université d'Innsbruck, et de Dave Wineland, du National Institute of Standards and Technology NIST de Boulder, dans le Colorado, ont ainsi permis de passer rapidement de la réalisation de la première porte à deux qubits en 2003 [3] , à la mise en oeuvre d'un petit algorithme à 3 qubits l'année suivante [4] , puis à celle d'un état intriqué à 8 qubits en 2005 [5] .

Pas encore de quoi pavoiser. Car la réalisation de calculs complexes n'est pas à la portée des expérimentateurs. Cela demande en premier lieu de maîtriser la « décohérence » : toute interaction incontrôlée du registre avec son « environnement » perturbe le fragile état intriqué et crée des erreurs dans le calcul. Il faut donc corriger ces erreurs. De nombreuses approches ont été proposées pour y parvenir. L'idée consiste à écrire un « qubit logique » non pas sur un ion unique, mais sur plusieurs ions à la fois. Ce petit ensemble d'ions est effectivement plus résistant aux perturbations. Des expériences réalisées à Boulder [6] et à Innsbruck [7] utilisent cette notion de « sous-espace préservé de la décohérence ». Une généralisation de telles techniques sera indispensable pour que l'ordinateur quantique puisse un jour réellement calculer.

Il faudra aussi augmenter le nombre d'ions. Comme la technique du couplage d'ions via leur mouvement sera d'autant plus difficile que la chaîne sera longue, d'autres techniques sont envisagées. Par exemple, l'équipe d'Innsbruck a proposé d'utiliser un ion piégé dans une tête mobile, portée par faisceau laser, qui peut interagir avec un ensemble d'ions immobiles dans un plan et transporter l'information quantique de qubit en qubit [8] . Le groupe du NIST propose, lui, de déplacer des ensembles d'ions entre des zones de calcul et des zones de stockage, en utilisant des électrodes miniaturisées. Ces idées présentent des similarités avec des concepts déjà utilisés en informatique, et des recherches impliquant des physiciens, des informaticiens et des ingénieurs ont été lancées en Europe et aux États-Unis, afin de parvenir à la fois à miniaturiser les pièges et à augmenter le nombre d'ions piégés.

Combien de temps les ions piégés resteront-ils les meilleurs candidats qubits ? Parmi leurs avantages principaux figure l'efficacité de leur préparation et de leur lecture, ces manipulations s'effectuant pratiquement sans erreur. S'y ajoute un « temps de cohérence » assez long pour pouvoir effectuer un grand nombre d'opérations élémentaires potentiellement plusieurs milliers. Par contre, le taux d'erreurs d'une porte logique individuelle devra être amélioré d'un facteur au moins 100 pour que l'ordinateur quantique puisse fonctionner - ce qui est difficile mais pas inaccessible. Côté inconvénient, il faut noter la lenteur de l'opération d'une telle porte logique 10 000 fois plus lente que dans un micro-ordinateur. Sans compter que la gestion « qubit par qubit » de mémoires quantiques de grande taille est loin d'être évidente. Les calculs d'architecture montrent qu'un ordinateur quantique passerait plus de 99 % de ses ressources à gérer sa mémoire et à corriger ses erreurs. Seulement 1 % servirait à effectuer le calcul proprement dit. Néanmoins, même avec ce problème, il conserverait l'avantage sur son cousin classique.

Gageure technologique
Les objectifs visés à cinq ou dix ans sont de réaliser des micropièges de 30 à 50 ions. Ces dispositifs seront capables de simuler des systèmes quantiques en interaction, et donc de prédire leur évolution, déjà trop complexe pour être calculée sur un ordinateur conventionnel. Mais la factorisation d'un grand nombre est beaucoup plus exigeante. Par exemple, le temps de calcul d'un ordinateur classique pour factoriser 2999, codé avec 1 000 bits, est estimé de l'ordre du million d'années. Un ordinateur quantique pourrait effectuer ce même calcul beaucoup plus rapidement, mais il devra contenir plusieurs centaines de milliers de qubits.

Pour Dave Wineland, un « abysse quantique » sépare un système a priori accessible 100 qubits et un ordinateur quantique « universel » 1 000 000 qubits. Ce défi est effectivement colossal. Pourtant, à l'heure actuelle, aucune objection physique fondamentale, qui interdirait par principe de réaliser un ordinateur quantique, n'a été énoncée. La gageure est donc purement technologique. Mais il reste très difficile de prédire si l'ordinateur quantique calculera un jour et, si c'est le cas, à quoi il ressemblera. Il semble néanmoins établi que les concepts qu'il utilisera, en particulier l'intrication, donneront accès à des idées physiques et à des perspectives d'applications radicalement nouvelles, dont les développements ne font sans doute que commencer.

en deux mots Diverses expériences tentent de construire des ébauches d'ordinateurs quantiques. Les plus avancées sont mises au point dans les laboratoires d'optique quantique. Il s'agit de piéger des ions dans des petits volumes et de les faire interagir entre eux grâce à des lasers. Ce procédé permet aujourd'hui de réaliser des calculs simples.

À plus long terme, d'autres techniques sont envisagées.

Par Ferdinand Schmidt-Kaler, Philippe Grangier

 

 DOCUMENT      larecherche.fr     LIEN

 
 
 
 

CATALYSEURS

 

Paris, 9 octobre 2015
Concevoir plus rapidement de meilleurs catalyseurs

C'est une étape clé vers des véhicules à hydrogène démocratisés, des pots catalytiques plus efficaces, des usines plus propres... Des chercheurs ont mis au point une méthode simple et rapide pour améliorer l'efficacité d'une famille de catalyseurs, ces composés, indispensables à l'industrie, qui facilitent les réactions chimiques. Cette avancée est le fruit d'une collaboration entre chimistes théoriciens du Laboratoire de chimie de l'ENS de Lyon (CNRS/ENS de Lyon/Université Claude Bernard Lyon 1) et de l'université de Leiden (Pays-Bas), et chimistes expérimentateurs de l'université technique de Munich et de l'université de la Ruhr à Bochum (Allemagne). Leurs travaux sont publiés dans la revue Science le 9 octobre 2015.
Les catalyseurs sont des substances ou des matériaux qui, par leur interaction avec des réactifs, minimisent l'énergie nécessaire aux réactions chimiques et favorisent la formation des produits désirés. L'industrie chimique en dépend presque entièrement, et il en résulte un surplus commercial estimé à 50 milliards d'euros en Europe1. Au-delà de l'aspect économique, les dispositifs catalytiques tels que ceux embarqués dans les pots d'échappement des véhicules diminuent l'impact polluant des moteurs à combustion. En outre, si peu de voitures équipées de piles à hydrogène2 ont été lancées sur le marché alors qu'elles n'émettent pas de gaz à effet de serre, c'est notamment parce que les catalyseurs de piles à combustible ne sont pas encore véritablement au point s'agissant de leur fonctionnement dans la durée. Développer des catalyseurs plus efficaces est donc un enjeu de taille.

Les catalyseurs sont souvent constitués de petites particules métalliques de quelques nanomètres de diamètre. Leur efficacité dépend de leur taille, de leur forme et de leur composition chimique. Jusqu'à présent, pour améliorer un catalyseur, les chimistes n'avaient à leur disposition qu'un indice : la force d'interaction optimale entre le réactif et le catalyseur. Ensuite, ils devaient procéder par tâtonnement, faute de relation entre cette valeur et la structure que devaient présenter les particules de catalyseur pour l'atteindre. Il leur fallait passer en revue de grandes bases de données à la recherche des meilleurs candidats, puis tester de nombreuses possibilités de structure du matériau jusqu'à parvenir à la force d'interaction adéquate.

Aujourd'hui, une équipe internationale de chimistes a mis au point une nouvelle approche, permettant de déterminer la structure optimale du site catalytique (site d'interaction entre le catalyseur et le réactif), pour un catalyseur de composition chimique donnée (par exemple, du platine). Et cette approche repose sur un concept chimique simple : le nombre de coordination, qui désigne le nombre de voisins d'un atome appartenant au catalyseur et qui se calcule simplement en les décomptant. En effet, les chercheurs ont montré qu'il existe une relation entre l'activité d'un site catalytique et ce nombre de coordination (voir figure).

Ils ont ensuite validé expérimentalement cette approche en concevant un nouveau type de catalyseur au platine pouvant être utilisé dans les piles à combustible. L'efficacité maximale a été prédite pour des sites avec un nombre de coordination plus élevé que pour le catalyseur de référence, c'est-à-dire situés dans une cavité creusée dans la surface de platine. Après avoir créé des cavités sur une surface modèle de platine par trois méthodes différentes, les résultats ont été sans appel : l'efficacité catalytique a été multipliée jusqu'à 3,5 fois.

Ces travaux devraient donc permettre de diminuer les temps de développement de catalyseurs. Ils ouvrent la voie au développement de piles à combustible commercialement performantes, à une utilisation plus large de l'hydrogène comme carburant propre et plus généralement, à terme, à l'optimisation de nombreux processus industriels.

 

 DOCUMENT         CNRS         LIEN

 
 
 
 

INFORMATIQUE

 

Gérard Paget - 3/12/2010

André Seznec : défier les lois de l'informatique


André Seznec © INRIA / Photo G. Favier - Agence Vu
Depuis 1983, André Seznec concentre ses recherches sur l'architecture des ordinateurs. Avec son équipe commune Inria - Université de Rennes 1, ce chercheur reconnu travaille sur l'augmentation des performances et la "démocratisation" des architectures parallèles. Il vient de recevoir pour cela la bourse européenne ERC dans la catégorie "chercheur confirmé". Rencontre avec le scientifique.

Quel est le projet pour lequel vous avez été récompensé par l’ERC ?
André Seznec :  Le projet que j'ai présenté à l'ERC s'intitule DAL, Defying Amdahl's Law, ce qui signifie : défier la loi d'Amdahl. Cette loi est la simple observation que le temps d'exécution d'une application ne peut pas être plus court que l'exécution de sa partie séquentielle. Les processeurs multi-cœurs sont aujourd'hui partout présents dans les systèmes informatiques : serveurs, ordinateurs de bureau, ordinateurs portables, mais aussi téléphones intelligents, télévision et tous les systèmes embarqués. En 2020, il sera technologiquement possible d’intégrer des multi-cœurs à plus de 100 coeurs sur un seul composant. Cependant, tout indique que la programmation séquentielle sera toujours prédominante. La loi d'Amdahl nous montre ainsi que de hautes performances sur le code séquentiel sont une condition nécessaire pour permettre de hautes performances sur toute l'application. Mais au lieu de travailler à améliorer l'architecture de la prochaine génération multi-cœurs, pour le projet DAL, nous avons choisi délibérément de devancer ces prochaines générations. Pour l’équipe ALF, « défier la loi d'Amdahl », c'est proposer pour les architectures des "manycoeurs" de 2020, des mécanismes matériels et/ou logiciels permettant d'obtenir de très hautes performances sur les applications séquentielles et sur les sections séquentielles des applications parallèles.

Que va permettre cette subvention  ERC ?
André Seznec :  L'attribution de l'ERC advanced grant  représente d'abord pour moi la reconnaissance des travaux que j'ai menés tout au long de ma carrière. Cette attribution exprime aussi la confiance que l’on m’accorde quant à la vision que j'ai exprimée dans la proposition DAL. La subvention ERC s'étend par ailleurs sur 5 ans. Elle offre donc une réelle autonomie financière à toute une équipe sur une période donnée. Il est depuis longtemps difficile de trouver des financements pour des sujets de recherche en microarchitecture haute performance. Grâce à la subvention ERC, je vais intégrer dans notre équipe plusieurs doctorants et post-doctorants sur des sujets de microarchitecture sans avoir à me lancer à la quête d'autres financements. Je vais également avoir la possibilité d’inviter des collègues pour des séjours de collaborations de 2 à 3 mois. Enfin, cette bourse me permettra de financer des moyens de calcul dont nous avons besoin pour nos recherches.

Son parcours

Après son Doctorat en sciences informatiques de l'Université de Rennes I, André Seznec rejoint le centre de recherche d'Inria de Rennes en 1986. Dès1994, il devient directeur de recherche et responsable de l'équipe-projet CAPS (Compilateur, architecture parallèle et systèmes) jusqu'en 2008. En 2009, il créé l'équipe ALF qu'il dirige actuellement. De 1999 à 2000, il passe une année dans les laboratoires du constructeur Compaq dans le Massachusetts.

Au début de sa carrière, André Seznec travaille sur les architectures de supercalculateurs destinés à des applications scientifiques. En collaboration avec d'autres membres de son équipe, il travaille à la conception de logiciels de calcul haute performance ou la simulation d’architecture. À partir de 2002, en collaboration avec un expert en cryptographie, il conçoit un générateur de nombres aléatoires imprévisibles. Depuis 1991, sa principale activité de recherche porte sur l'architecture des microprocesseurs. Il a notamment travaillé sur le pipeline, le multithreading et les multi-coeurs. Ses contributions les plus reconnues portent sur sur la structure des mémoires caches et des prédicteurs de branchement.

Tout au long de son parcours, André Seznec a encadré 15 thèses de doctorat, publié plus de 20 articles dans des journaux internationaux et présenté 40 papiers dans les plus grandes conférences consacrées à l'architecture informatique, dont 13  lors des "International Symposium on Computer Architecture (ISCA). En 2010,il a présidé la conférence ISCA à Saint-Malo.

Lauréats 2010

Dans la catégorie "Jeunes chercheurs", Axel Hutt (Cortex, Nancy), Paola Goatin (Opale, Sophia Antipolis), Pierre Alliez (Geometrica, Sophia Antipolis), Kartikeyan Bhargavan (Moscova, Rocquencourt), Véronique Cortier (Cassis, Nancy), Nikos Paragios (Galen, Saclay) ont reçu une bourse qui leur permettra de constituer une équipe. Dans la catégorie "Chercheurs confirmés", Jean Ponce (Willow, Rocquencourt) et André Seznec (Alf, Rennes) sont lauréats et ont choisi l'Inria pour poursuivre leurs travaux.

 

DOCUMENT     inria.fr       LIEN

 
 
 
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 ] Précédente - Suivante
SARL ORION, Création sites internet Martigues, Bouches du Rhone, Provence, Hébergement, référencement, maintenance. 0ri0n
Site réalisé par ORION, création et gestion sites internet.


Google
Accueil - Initiation musicale - Instruments - Solfège - Harmonie - Instruments - Musiques Traditionnelles - Pratique d'un instrument - Nous contacter - Liens - Mentions légales /confidentialité

Initiation musicale Toulon

-

Cours de guitare Toulon

-

Initiation à la musique Toulon

-

Cours de musique Toulon

-

initiation piano Toulon

-

initiation saxophone Toulon

-
initiation flute Toulon
-

initiation guitare Toulon