RTFlash

RTFLASH Recherche & Technologie
NUMERO 439
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 12 Juillet 2007
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
La RFID se met au service d'une tumorothèque
Gérer sa santé depuis son mobile : une réalité au Japon !
Un ordinateur au petaflop dès fin 2007 ?
Avenir
Un robot pour apprendre les comportements des humains
Injection de nanoparticules dans une cellule à l'aide de nanotubes
Matière
Traitement des vitrages pour réduire la climatisation
Le Japon veut rouler aux algues
Espace
Les cosmologistes s'aventurent de l'autre côté du Big Bang
Terre
Glaces de l'Antarctique : une histoire détaillée de notre climat sur 800.000 ans
Vivant
Cancer du cerveau : premier vaccin thérapeutique approuvé en Suisse
Le HIV accroît bien le risque de très nombreux cancers
Le thé vert pourrait réduire d'un tiers le risque de développer un cancer du colon
Cancer de la prostate et traitement par Ablatherm
Des lignées de cellules souches à partir d'un ovocytes non fécondes
Une nouvelle étape vers la fabrication d'un ADN synthétique
Des capteurs ultrasensibles pour détecter les molécules biologiques isolées
De nouveaux critères pour diagnostiquer Alzheimer
Recherche
Le MIT va tester une voiture urbaine à pilotage automatique
Edito
Vers un cadre théorique unifié pour l'énergie sombre et la matière noire ?



Dans un travail théorique remarquable, le physicien Martin Bojowald, a bâti un modèle mathématique qui lui permet de franchir l'horizon du Big Bang et de postuler l'existence, avant le Big Bang, d'un autre Univers physiquement semblable au nôtre, mais à l'évolution inversée. (Voir article dans notre rubrique « Cosmologie).

Mais si la science cherche à comprendre la genèse de notre Univers, de nombreux chercheurs essayent également de connaître sa nature intime et de prévoir son évolution. Les physiciens ont montré, au cours de ces dernières années, que la matière ordinaire, constituée de protons et de neutrons, constitue seulement 4 % du contenu total en énergie de l'Univers. Le reste, 96 %, est composé de la fameuse matière noire (26 %) et de la tout aussi énigmatique énergie sombre (70 %).

Pourquoi cette question de la nature énergétique de l'Univers est-elle si importante ? Parce que nous devons savoir exactement de quoi est composé l'Univers et en quelles proportions pour comprendre et prévoir son avenir. Il faut en effet concevoir l'Univers comme un cadre dans lequel l'espace-temps est inséparable et consubstantiel de la matière-énergie. C'est dans ce cadre conceptuel qu'il faut replacer la découverte récente et fondamentale de la matière noire et de l'énergie sombre.

La matière noire est nécessaire pour expliquer la formation et les propriétés des galaxies. Sept fois plus massive dans l'Univers que la matière ordinaire, cette matière noire, dont nous ignorons la nature exacte, serait "non bayonnique", c'est à dire qu'elle ne serait pas constituée de particules lourdes, protons et neutrons. Elle n'interagit pratiquement pas avec la matière ordinaire et n'émet ni n'absorbe de lumière, ce qui ne facilite pas sa détection.

Il est donc très probable que la matière noire ne soit pas composée de matière «classique», mais plutôt de particules neutres et massives. Déterminer la nature de cette matière noire est très important car c'est elle qui explique le mécanisme de formation des structures cosmiques. Si la matière noire est chaude, faite de particules légères et rapides, c'est l'hypothèse d'une construction des petites structures vers les plus grandes (des galaxies vers les amas) qui l'emporte. Au contraire, si la matière noire est froide et lente, c'est l'hypothèse inverse qui est retenue.

Début 2007, une équipe internationale d'astrophysiciens a obtenu, pour la première fois, une image précise en trois dimensions de la distribution de la matière noire et de la matière visible dans une région de l'Univers. Cette cartographie détaillée, fournie par le télescope spatial Hubble (HST), a permis aux chercheurs de confirmer la théorie de la formation des grandes structures de l'Univers. Ces résultats confirment le modèle cosmologique qui prédit que la formation des structures de l'Univers est dominée par la dynamique de la matière noire.

Quant à l'énergie sombre, sa réalité s'est imposée pour expliquer que, contre toute attente, l'expansion cosmique, qui aurait dû ralentir sous l'effet de la gravitation, s'accélérait au contraire depuis 7 milliards d'années. Début 2007, une équipe de chercheurs travaillant au Dark Cosmology Centre du Niels Bohr Institute (Danemark) a rendu ses conclusions sur les études qu'elle a menées afin de comprendre la nature de l'énergie noire. Dans leur article, ces chercheurs soulignent que leurs observations sur les supernovae montrent une parfaite compatibilité entre l'énergie sombre et la constante cosmologique imaginée par Einstein en 1917.

L'hypothèse dominante chez les physiciens consiste d'ailleurs à assimiler cette énergie sombre à la constante cosmologique d'Einstein. Mais dans ce cas, il faut admettre que cette "énergie du vide" est constante partout et toujours et présente aujourd'hui une valeur très particulière qui la rende observable.

Face à cette situation insatisfaisante, les chercheurs du Laboratoire Univers et Théories propose l'hypothèse de pesanteur anormale ("Abnormally Weighting Energy" ou AWE). Cette hypothèse suppose une remise en cause du principe d'équivalence qui postule que toutes les formes d'énergie produisent et subissent la gravitation de la même manière. Selon cette théorie, ce principe (rigoureusement vérifié en laboratoire) varie selon l'échelle spatiale à laquelle on se place.

Il reste valide au niveau local parce que la matière noire et l'énergie sombre sont presque absentes mais il ne fonctionne plus aux échelles cosmologiques où matière noire et énergie sombre dominent. Selon ces chercheurs, la matière noire ne "répond" pas à la gravitation de la même manière que la matière ordinaire et, à l'échelle cosmologique, la matière ordinaire ressent alors une expansion cosmique de plus en plus importante, au fur et à mesure que sa constante de gravitation s'adapte à la domination de la matière noire. L'expansion cosmique résultante est donc accélérée jusqu'à ce qu'un équilibre soit atteint où la constante de gravitation aux échelles cosmologiques est différente de sa valeur dans le système solaire.

Cette hypothèse est intéressante car elle confère à l'énergie sombre des propriétés qui sont pleinement en accord avec les observations. Elle permet notamment d'expliquer naturellement la coïncidence cosmique grâce au mécanisme de stabilisation de la constante de gravitation durant l'ère cosmique dominée par la matière. Elle rend compte des données observationnelles sur les supernovae lointaines en prédisant indépendamment la proportion de matière ordinaire et de matière noire. Mais l'avancée théorique majeure de cette hypothèse est qu'elle fait de l'énergie sombre une nouvelle propriété de la gravitation et non une cinquième force fondamentale dans l'Univers.

Il faut en effet savoir que pour expliquer l'énergie sombre deux grandes théories s'affrontent : l'énergie quantique du vide, statique, qui ne serait autre que la fameuse constante cosmologique d'Einstein, et la quintessence, dynamique, qui suppose un "cinquième élément" qui, avec la terre, l'air, l'eau et le feu, composait l'Univers selon les Grecs.

D'après le concepteur de cette théorie, Paul Steinhardt de l'université de Princeton (New Jersey), la quintessence serait une cinquième sorte de matière, après les baryons (qui constituent les noyaux atomiques), les leptons (qui transportent les charges électriques, comme l'électron), les photons (qui constituent la lumière) et la matière sombre froide (faite de particules exotiques). Il s'agirait d'un "champ scalaire", qui serait présent dans tout l'Univers et pourrait prendre une valeur différente en chaque point de l'espace.

Contrairement à l'énergie quantique du vide, la quintessence serait dynamique (elle pourrait varier au cours du temps) et ne serait pas née d'un phénomène quantique, mais répondrait aux lois de la physique classique. Steinhardt pense que notre Univers a toujours existé, que le temps et l'espace sont éternels et que notre « Big Bang » correspond simplement au début d'un cycle de notre Univers parmi une infinité d'autres.

Face aux défenseurs de la constante cosmologique d'Einstein, et à des hypothèses comme celle de la pesanteur anormale, ces tenants de la quintessence sont loin de rendre les armes et proposent eux aussi des modèles et théories visant à unifier matière noire et énergie sombre. Le physicien Robert J. Scherrer, de l'Université Vanderbilt, a ainsi proposé un nouveau modèle théorique simple et élégant qui fait de la matière noire et de l'énergie sombre deux manifestations d'une même force fondamentale.

La théorie unificatrice de Scherrer, présentée dans la Revue de physique repose sur une forme exotique d'énergie possédant les propriétés bien définies mais complexes, appelée « champ scalaire ». Scherrer est le premier à présenter une théorie qui veut unifier matière noire et énergie sombre en les intégrant dans un modèle de quintessence complétée. Jusqu'à présent, les scientifiques distinguaient nettement la question de la matière noire et celle de l'énergie sombre parce que ces deux étranges composantes de notre univers semblaient se comporter différemment. La matière noire semble avoir une masse gigantesque et les cosmologistes pensent que l'attraction gravitationnelle de ces masses « noires » a joué un rôle clé dans la formation des galaxies.

En revanche, l'énergie sombre serait diffuse et uniformément présente dans l'espace où elle exercerait une force répulsive qui accélère l'expansion de notre univers. Mais, selon Steinhardt, les champs de quintessence peuvent changer progressivement leur comportement. En examinant un type très simple de champ de quintessence - celui dans lequel l'énergie potentielle est une constante - Scherrer a découvert que ce champ évolue et passe par une phase où il se manifeste de manière ponctuelle (ce qui pourrait correspondre à la présence de matière noire), puis une autre phase pendant laquelle il se répand uniformément à travers l'espace et prend alors les caractéristiques de l'énergie sombre.

Scherrer est persuadé que son modèle de quintessence peut permettre une unification théorique de la matière noire et de l'énergie sombre. Mais ce physicien souligne que de nombreuses confirmations expérimentales seront nécessaires pour confirmer sa théorie.

Enfin, et c'est là son point faible, la théorie de Scherrer repose sur cette fameuse " coïncidence cosmique" qui gène beaucoup de scientifiques, particulièrement les défenseurs de la constante cosmologique d'Einstein qui posent la question suivante : pourquoi serions-nous, comme par hasard, à une époque où les densités prévues pour la matière noire et l'énergie sombre sont à peu près égales ?

Quoi qu'il en soit, il apparaît de plus en plus nettement que l'élucidation de la nature intime de la matière noire et de l'énergie sombre ainsi que leur intégration dans un nouveau cadre théorique unifié, peut-être celui multidimensionnel des supercordes, seront les enjeux fondamentaux de la physique et de la cosmologie de ce siècle et nous permettront de mieux comprendre la structure intime de notre univers et, peut-être, d'en prévoir l'évolution.

René Trégouët

Sénateur honoraire

Fondateur du Groupe de Prospective du Sénat


TIC
Information et Communication
La RFID se met au service d'une tumorothèque
Vendredi, 13/07/2007 - 00:00

L'Institut Paoli-Calmettes, aussi connu sous le nom de Centre Régional de Lutte contre le Cancer Provence-Alpes-Côte d'Azur, constitue depuis plusieurs années une tumorothèque institutionnelle, qui recueille et conserve les nombreuses analyses biologiques et les échantillons congelés des tumeurs de patients atteints de cancer. Elle enregistre chaque mois plus de 1 300 nouveaux échantillons. Pour accélérer les collaborations entre médecins et les chercheurs au niveau du diagnostic, du choix du traitement pour le malade et le suivi des soins au sein de cette tumorothèque, elle développe le projet MISTRALS (Mutualisation Informatique des Systèmes Technologiques pour la Recherche Pharmaceutique et la Santé). Objectif : automatiser les analyses pour engendrer une meilleure gestion des données.

En effet, l'institut Paoli-Calmettes doit désormais faire face à un accroissement des échantillons biologiques et des informations qui leur sont associées, à un besoin d'une meilleure conservation de ces échantillons et à la nécessité d'établir une centralisation des plates-formes d'analyses biologiques. Cette réorganisation doit en sus respecter impérativement les obligations de traçabilité, de respect de la confidentialité et de délais de prise en charge, de l'acheminement et de la conservation des échantillons. C'est à cet effet que le projet MISTRALS préconise l'utilisation des étiquettes contenant une puce radio RFID. Ces étiquettes intelligentes répondent à tous les besoins énoncés par L'institut. A savoir autoriser un stockage d'une large quantité d'informations et favoriser l'actualisation de ces données.

Sans oublier la lecture simultanée de plusieurs étiquettes, le respect de la confidentialité et le suivi des différentes étapes de la vie d'un échantillon. La puce RFID renferme un identifiant unique, la date de prélèvement, le type de tissu conservé et les réponses au traitement par le patient, ainsi que son âge et son sexe. Mais avant leur implantation, ces puces doivent être soumises à un certain nombre de tests visant à mesurer leur résistance dans des conditions telles que les basses températures ou l'exposition à des produits chimiques toxiques. La tumorothèque de l'institut Paoli-Calmettes a ainsi testé des puces RFID dans des conditions extrêmes de froid en utilisant de l'azote liquide. Toutefois, les codes barre traditionnels sont conservés, au cas où les étiquettes RFID ne supporteraient pas un stockage de plusieurs années.

Atelier

Gérer sa santé depuis son mobile : une réalité au Japon !
Vendredi, 13/07/2007 - 00:00

Gérer sa santé 24h/24 pour diminuer les risques de maladies cardio-vasculaires. C'est ce que souhaite proposer Softbank Telecom. L'opérateur télécom lance, en partenariat avec la compagnie d'assurances Sompo Japan Himawari Life Insurance,une nouvelle campagne dans ce domaine. Baptisée Softbank Libra, elle s'intéressera en priorité aux maladies liées au style de vie : un grand nombre de Japonais souffre de problèmes liés au mode de vie urbain (mauvaise diététique, manque d'efforts physiques) comme l'obésité, le cholestérol, la pression élevée, ou le diabète.

Ce nouveau service, intitulé Life Carrier, permettra aux utilisateurs de surveiller individuellement l'état de leur santé grâce aux technologies de communication (filaires et sans-fil) et aux terminaux mobiles. Les patients recevront quotidiennement sous forme de graphiques différentes informations concernant l'état de leur santé. Celles-ci leur permettront de mieux gérer les risques métaboliques mais aussi, pour ceux qui en ont besoin, leur régime. Le dispositif sera disponible sur les téléphones des opérateurs Softbank Mobile, NTT DoCoMo et KDDI.

Des physiciens et des professionnels du secteur de la santé - infirmières, diététiciens, etc. - seront également joignables via un centre d'appel. Ils fourniront en permanence des informations individualisées aux patients qui le souhaiteront. Enfin, Softbank Telecom proposera un site web qui recoupera les différentes informations collectées sur les utilisateurs pour informer sur les habitudes et les styles de vie des consommateurs japonais.

Atelier

Un ordinateur au petaflop dès fin 2007 ?
Vendredi, 13/07/2007 - 00:00

IBM a annoncé, lors du colloque International Supercomputing en Allemagne, être sur le point de mettre en service sa machine qui atteindra le petaflop, l'IBM Blue Gene/P. Le Blue Gene/P devrait être installé sur commande du Department of Energy dans une première configuration de départ au sein du Argonne National Laboratory d'ici à la fin 2007 (des installations en RFA, au Max Planck Institut et au Forschungszentrum Jülich de la Helmholtz Gesellschaft, en Grande-Bretagne, Science and Technology Facilities Council - Cheshire, England, et aux Etats-Unis, Stony Brook University, Brookhaven National Laboratory, sont également annoncées).

Cette évolution de Blue Gene/L (la machine installé au Lawrence Livermore National Laboratory et qui a atteint 280 teraflops en octobre 2005) repose sur des composants qui comprennent chacun quatre processeurs PowerPC 450 à 850 MHz (là où Blue Gene/L repose sur des PowerPC 440 à 700MHz).

L'architecture d'ensemble reste celle de Blue Gene, avec un assemblage de racks qui comprennent chacun 1024 composants. Le Blue Gene/p est annoncé avec 72 racks (contre 64 au Blue Gene/L de Livermore), soit 294 912 processeurs PowerPC. Avec la croissance du nombre de racks et le passage à 850 MHz la consommation électrique et la dissipation de chaleur devraient être à la hausse, mais IBM annonce avoir limité cette hausse à 20%. Ensuite 216 racks rassemblant 884 736 processeurs sont envisagés ! La machine devrait alors atteindre 3 petaflops, près de dix fois le record actuel.

En parallèle, IBM travaille toujours sur la machine Roadrunner (dotée de 16 384 processeurs Cell dans une architecture de type blade) pour laquelle la National Nuclear Security Administration du Department of Energy lui a passé une commande de 110 millions de dollars, un système d'une puissance attendue de 1,6 à 1,7 petaflops courant 2008... Enfin, IBM travaille également à de nouveaux processeurs avec des connexions en 3D, qui devraient ultérieurement permettre d'aller encore bien au-delà.

BE

^ Haut
Avenir
Nanotechnologies et Robotique
Un robot pour apprendre les comportements des humains
Vendredi, 13/07/2007 - 00:00

Kaspar, un robot humanoïde, a été imaginé pour aider des enfants autistes à apprendre des compétences sociales humaines. Développé par le programme européen Iromec (Interactive Robotic Social Mediators as Companions), Kaspar, grâce à ses yeux et sa bouche expressive, va aider des autistes à décoder les expressions et le langage du corps et du visage. Pour le professeur Ben Robins, de l'université d'Hertforshire, “l'interaction humaine peut être vraiment subtile, et le moindre soulèvement de sourcil peut prendre différentes significations selon différents contextes”. Et d'expliquer que les enfants autistes se ferment à l'échange avec les autres humains parce que, pour eux, celui-ci comporte trop d'informations et est trop confus pour être compris.

D'où l'idée de passer par un robot pour exprimer des émotions uniformément et avec un minimum de complexité. “Kaspar fournit aux autistes la fiabilité et la prévisibilité dont ils ont besoin. Puisqu'il n'y a pas de surprise, ils se sentent en sécurité. Le but n'est pas de remplacer l'interaction et le contact avec d'autres humains, mais d'utiliser un subterfuge pour l'améliorer.” Les premiers tests semblent positifs : l'un des enfants qu'il avait en traitement, après l'avoir ignoré pendant des semaines, a fini par le conduire vers le robot pour partager l'expérience de Kaspar avec lui.

Bien sûr, comme le rappelle l'article de Wired qui dévoile ce projet, utiliser des robots pour interagir avec des enfants autistes n'est pas nouveau. Les poupées Robota, développées par l'EPFL dans le cadre du projet Aurora, sont utilisées comme jouets éducatifs depuis 1997. Le laboratoire De Yale travaille à mettre au point Nico, un robot humanoïde conçu pour détecter les vulnérabilités à l'autisme durant la première année de l'enfant.

Utiliser un robot pour apprendre des comportements sociaux humains semble tout de même provocateur, mais l'autisme est un cas à part, précise le professeur Cathy Pratt, spécialiste de la maladie. “Les enfants autistes interagissent souvent mieux avec des objets inanimés qu'avec des êtres humains, d'où l'idée qu'un projet tel que celui-ci puisse permettre à ces enfants d'apprendre les comportements humains”.

IA

Injection de nanoparticules dans une cellule à l'aide de nanotubes
Vendredi, 13/07/2007 - 00:00

Les techniques qui permettent d'introduire des éléments à l'intérieur de cellules jouent un rôle important en biologie cellulaire et les chercheurs s'attachent à les miniaturiser de plus en plus afin d'étudier le comportement des cellules sans les endommager. Une équipe de scientifiques de Berkeley de l'Université de Californie et du Lawrence Berkeley National Laboratory vient de proposer une méthode permettant d'injecter de manière contrôlée des nanoparticules fluorescentes dans des cellules vivantes.

Le "nanoinjecteur" réalisé par les chercheurs est constitué d'un nanotube de carbone multiparois à la surface duquel ont été accrochés les nano-objets à introduire dans la cellule, ici des complexes steptavidine - "quantum dots". Ces complexes sont greffés sur le nanotube par l'intermédiaire d'une molécule liante portant une extrémité pyrène qui se lie fortement à la surface du nanotube et l'autre moitié biotine qui s'associe à la steptavidine, les deux parties étant séparées par une liaison disulfure.

Le nanotube est fixé à l'extrémité de la pointe d'un microscope à force atomique (AFM), et il est donc possible de le déplacer avec une grande précision : on dispose ainsi d'une nano aiguille qui permet de traverser la membrane cellulaire. Après pénétration du nanotube dans la cellule, l'environnement réducteur du cytosol permet de casser la molécule liante au niveau de la liaison disulfure et de libérer ainsi les quantum dots.

Les expériences réalisées sur des cellules cancéreuses ont permis d'étudier la dynamique de diffusion des quantum dots injectés dans le cytosol. Elles montrent par ailleurs que ni la cellule, ni la membrane ne paraissent endommagées par la pénétration du nanotube. Cette technique est très intéressante car le nanoinjecteur peut également libérer d'autres éléments tels que des ADN, ARN, polymères et bactéries.

BE

^ Haut
Matière
Matière et Energie
Traitement des vitrages pour réduire la climatisation
Vendredi, 13/07/2007 - 00:00

L'AIST (National Institute of Advanced Industrial Science and Technology) a présenté le 25 juin un verre réfléchissant plus de 50% des radiations solaires, tout en étant transparent à 80 % pour la lumière visible. Ce verre, utilisé dans les gratte-ciel, les habitations individuelles ou les voitures, permettra de réduire le transfert de chaleur dû à la lumière et contribuer ainsi à des économies de climatisation. En effet, en été, plus de 70 % de la chaleur à l'intérieur des bâtiments est due au rayonnement thermique, générant ainsi des pics de besoin électrique.

Le spectre lumineux est composé d'ultraviolet à 6%, de lumière visible à 46 % et d'infrarouge à 48 %. Ceci signifie que près de 50 % du rayonnement reçu ne contribue pas à l'éclairage mais génère de la chaleur. Il fallait donc développer un verre réfléchissant les rayons de longueur d'onde supérieure à la lumière visible. Les chercheurs ont utilisé des revêtements multicouches d'oxyde de titane et d'oxyde de silicium déposés par pulvérisation sur le verre. L'épaisseur de chaque couche contrôlée au nanomètre a permis une grande sélectivité des longueurs d'ondes réfléchies ou non : 82% des rayons visibles (400-700 nm) traversent le verre alors que plus de 50% des rayons thermiques (750-2000 nm) sont réfléchis. Par ailleurs, les ultraviolets, nocifs pour l'homme, sont absorbés ou réfléchis. Selon l'AIST, la structure de ce verre est plus simple que celui des doubles-vitrages actuels.

BE

Le Japon veut rouler aux algues
Vendredi, 13/07/2007 - 00:00

Selon des chercheurs cités sur nikkei.net, un tiers des voitures japonaises pourrait fonctionner au biocarburant fait à partir d'algues. D'après l'université des sciences et techniques marines de Tokyo, on ferait pousser des sargassum fulvellum dans les eaux du bassin de Yamatotai. Les chercheurs estiment pouvoir produire 20 000 litres de bioéthanol pour chaque parcelle de 10 000 mètres carrés d'algues cultivés. Et si l'idée des algues ne fonctionne pas, d'autres chercheurs espèrent pouvoir utiliser du riz à haut rendement, impropre à la consommation humaine, comme autre source pour le biocarburant.

TI

^ Haut
Espace
Espace et Cosmologie
Les cosmologistes s'aventurent de l'autre côté du Big Bang
Vendredi, 13/07/2007 - 00:00

Qu'existait-il avant qu'existe l'Univers ? La physique, comme le sens commun, bute sur cette question métaphysique, aux accents presque théologiques. Celle d'un avant la création, d'une pré-origine, d'une antériorité au commencement.

Une nouvelle pièce vient d'être apportée au débat, avec la présentation, dans l'édition en ligne de Nature Physics du 1er juillet, d'un travail théorique de l'Allemand Martin Bojowald, de l'Institut de physique et de géométrie gravitationnelles de l'université de Pennsylvanie. Il conclut que, s'il est possible d'apprendre quelque chose de ce qu'il y avait avant le début de tout, nous ne pouvons en avoir qu'une compréhension incomplète. Que nous en sommes réduits, à jamais peut-être, aux affres de la spéculation.

Certes, grâce à la théorie de relativité générale d'Einstein, formulée en 1915 et décrivant l'évolution à grande échelle de notre Univers, ainsi qu'à la découverte par l'astronome américain Edwin Powell Hubble, dans les années 1920, que cet Univers est en expansion, il est possible de regarder en arrière. De remonter le temps, jusqu'à l'hypothétique - mais admis par la plupart des scientifiques - événement fondateur, le Big Bang initial, voilà quelque 13,7 milliards d'années. Mais ce compte à rebours s'arrête à une infime fraction de seconde de la "déflagration" originelle : 10 - 43 seconde exactement, quantité temporelle incompressible appelée temps de Planck.

L'Univers que nous connaissons, avec ses milliards de galaxies, était alors tout entier concentré dans un volume infinitésimal - 10 millions de milliards de milliards de fois plus petit qu'un atome -, d'une densité et d'une chaleur incommensurables. Au-delà, ou plutôt en deçà de cet état, les équations de la relativité générale d'Einstein, qui considèrent l'espace-temps comme un continuum, deviennent inopérantes.

C'est alors la mécanique quantique qui impose ses lois : celle d'un monde physique qui, à l'échelle de l'infiniment petit, évolue de façon non pas continue mais "discrète", par bonds minuscules, et où règne l'indétermination, l'incertitude, qui veut, par exemple, que l'on ne peut connaître à la fois la vitesse et la position d'une particule, ni, a fortiori, son évolution, future ou antérieure.

Pour franchir l'obstacle, certains physiciens ont échafaudé un système combinant physique classique et mécanique quantique : la gravité quantique à boucles. Un de ses chefs de file, Abhay Ashtekar, directeur de l'Institut pennsylvanien où travaille Martin Bojowald, a ainsi bâti un modèle mathématique avec lequel il a réussi à traverser la barrière du Big Bang. A regarder de l'autre côté du miroir.

Qu'y a-t-il découvert ? Dans un article publié, en 2006, dans Physical Review Letters, il décrit l'existence, avant le Big Bang, d'un autre Univers physiquement semblable au nôtre, mais à l'évolution inversée. Au lieu d'être en expansion (de moins en moins dense, de plus en plus froid), il était au contraire en contraction (de plus en plus dense, de plus en plus chaud). Des forces gravitationnelles l'auraient fait se rétracter sur lui-même, jusqu'à ce qu'il atteigne un état où ces forces sont devenues répulsives. Il aurait alors "rebondi", pour donner naissance à l'Univers où nous vivons.

"Attention aux représentations trompeuses !", met toutefois en garde un autre tenant de la gravité quantique à boucles, Carlo Rovelli, du Centre de physique théorique de Luminy (université de Marseille) : "Les notions d'avant et d'après deviennent incertaines quand on s'approche du Big Bang." Il en veut pour image quelqu'un qui marcherait en ligne droite vers le nord et qui, ayant atteint le Pôle, continuerait dans la même direction, mais ne progresserait pas pour autant plus au nord.

"De l'autre côté du Big Bang, le temps va-t-il en arrière ou en avant ? Les deux Univers se succèdent-ils, ou sont-ils comme deux jumeaux partant dans deux directions différentes, sans que l'on puisse dire que l'un précède l'autre ?", s'interroge Carlo Rovelli.

Plus qu'il n'éclaire sur l'Univers antérieur, le récent travail de Martin Bojowald incite lui aussi à la prudence. Selon son modèle, associant équations de la relativité générale et de la mécanique quantique, il est mathématiquement possible de remonter au-delà du Big Bang. Il est en revanche impossible d'en connaître toutes les caractéristiques. Tout simplement parce que le Big Bang agit comme un "mélangeur" : un état transitionnel au cours duquel sont irrémédiablement perdus certains aspects de l'Univers précédent. Ce que le chercheur baptise "l'oubli cosmique".

Le scénario cyclique qui, de contraction en expansion, ferait se succéder, depuis la nuit des temps et pour l'éternité, des Univers identiques les uns aux autres, semble ainsi battu en brèche. "Deux Univers qui se suivent ne peuvent jamais être les mêmes", estime Martin Bojowald. Ce que paraît confirmer la cosmologie moderne, qui observe que l'expansion de l'Univers actuel s'accélère et, supputent la plupart des scientifiques, se poursuivra.

Faut-il alors désespérer de percer un jour l'écran du Big Bang ? Gabriele Veneziano, professeur au Collège de France et chef de la division de physique théorique du CERN de Genève, ne le croit pas. Partisan d'une autre approche de la gravité quantique, la théorie des cordes, il observe que celle-ci est compatible avec l'hypothèse d'un Univers antérieur s'étant rétracté sur lui-même avant de rebondir vers le nôtre.

De cet autre monde, pense-t-il, doivent persister des traces, dans le spectre du rayonnement fossile hérité des âges brûlants du cosmos. Des indices que les détecteurs d'ondes gravitationnelles, comme l'instrument franco-italien Virgo, permettront peut-être, un jour, de faire parler. A moins de considérer, avec certains astrophysiciens, que le temps commence avec le Big Bang et qu'il n'y a pas d'avant.

LM

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
Glaces de l'Antarctique : une histoire détaillée de notre climat sur 800.000 ans
Vendredi, 13/07/2007 - 00:00

Jusqu'à présent, l'étude des 3140 m de glace extraits du site du Dôme C révélait l'histoire du climat de l'Antarctique au cours des 740 000 dernières années. D'autre part, l'analyse des bulles d'air piégées dans cette glace permettait d'étendre les enregistrements de la composition de l'atmosphère en dioxyde de carbone et méthane jusqu'a -650 000 ans. Ces travaux confirmaient l'existence d'un lien étroit entre climat et effet de serre, mis en évidence sur les 420 000 dernières années grâce au forage de Vostok, le plus profond jamais réalisé en Antarctique (3623 m).

Les études réalisées, pour la première fois, sur la glace la plus profonde du Dôme C, au-delà de 3140 m, par l'équipe du LSCE ont permis l'interprétation de la concentration du deutérium, isotope de l'hydrogène, témoin de la température en Antarctique. Des mesures complémentaires, de la composition des bulles d'air en particulier, réalisées à cette profondeur, mettent en évidence un âge de la glace de plus de 800 000 ans, les variations de la composition en bulles d'air de la glace témoignant de l'inversion magnétique terrestre survenue il y a 780 000 ans.

Cet enregistrement de température, près de deux fois plus long que celui accessible à partir du forage de Vostok, a permis des avancées remarquables sur les aspects suivants :

- grâce à un ensemble de simulations réalisées à l'aide d'un modèle de circulation générale de l'atmosphère, la température de l'Antarctique est reconstituée de façon très fiable. La période de 10°C plus froide qu'aujourd'hui, correspond au dernier maximum glaciaire il y a 20 000 ans, et celle de 4,5°C plus chaude, au dernier interglaciaire, il y a 130 000 ans. La corrélation entre la température en Antarctique et les variations du niveau de la mer telles qu'elles sont enregistrées dans les sédiments marins est remarquable, sur l'ensemble des 800.000 dernières années ;

- les analyses détaillées confirment le lien entre les événements climatiques rapides mis en évidence dans les forages réalisés au Groenland et les variations de température enregistrées en Antarctique aux échelles séculaire et millénaire, aussi bien dans le secteur Atlantique à l'Est (forage EPICA de Dronning Maud Land) qu'au Dôme C, situé dans le secteur indo-pacifique ;

- la comparaison entre les variations de la température en Antarctique et celles de l'insolation, suggère que l'intensité des périodes interglaciaires est influencée par l'interaction entre les paramètres d'obliquité et de précession.

Á la lumière de ces résultats, la communauté glaciologique internationale se tourne maintenant vers d'autres régions de l'Antarctique où l'accumulation de neige est encore plus faible qu'au Dôme C, pour extraire de la glace vieille, si possible de plus d'un million d'années.

CNRS

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Cancer du cerveau : premier vaccin thérapeutique approuvé en Suisse
Vendredi, 13/07/2007 - 00:00

Un traitement expérimental contre le cancer du cerveau, le premier de ce type, a été autorisé à la commercialisation en Suisse, a annoncé le laboratoire américain Northwest Biotherapeutics. C'est le premier vaccin thérapeutique autorisé à la commercialisation contre cette forme de cancer. Avec ce traitement, les chances de survie des patients sont plus que doublées, qu'il s'agisse de nouveaux cas ou de cancers récurrents du cerveau, selon la firme.

L'institut suisse pour la santé publique a donné son feu vert au groupe pour que le "DCVax-Brain", fabriqué aux Etats-Unis, soit mis à disposition des patients des principaux centres médicaux et hôpitaux de Suisse. Le laboratoire compte le faire à partir du troisième trimestre 2007. "Nous sommes ravis d'être la première société à mettre sur le marché un vaccin thérapeutique personnalisé pour le cancer du cerveau, pour lequel les chances de survie sont très faibles actuellement", a déclaré Alton Boynton, PDG du laboratoire américain.

Le DCVax est un traitement anti-cancéreux personnalisé qui vise à déclencher une attaque du système immunitaire du patient contre sa tumeur. Il s'agit d'une forme d'immunothérapie cellulaire anti-cancéreuse qui s'adresse en l'occurence à la variété la plus fréquente du cancer du cerveau, le glioblastome. Des cellules immunitaires du patient appelées cellules dendritiques sont prélevées par prise de sang, à un stade immature.

Ces cellules sont portées à maturation en laboratoire et exposées à des biomarqueurs - des marques spéficiques de la tumeur du patient- afin de leur apprendre à reconnaître les cellules cancéreuses formant cette tumeur. Une fois prêtes, elles sont réinjectées au patient. Northwest Biotherapeutics compte également déposer un dossier d'approbation pour son vaccin thérapeutique aux Etats-Unis et en Europe début 2009, en fonction de l'avancée d'un essai de phase II qu'il réalise actuellement auprès 141 patients américains et qui devrait se conclure vers fin 2008.

Le DCVax-Brain a déjà obtenu en Europe et aux Etats-Unis le statut de produit orphelin, qui lui garantira d'être vendu en exclusivité pendant plusieurs années sur ces marchés s'il est le premier à être autorisé par leurs autorités sanitaires. Selon les essais réalisés par Northwest Biotherapeutics auprès de patients nouvellement diagnostiqués, le vaccin permet d'allonger le délai moyen de récurrence de la maladie de 6,9 mois à 18,1 mois, et la durée de survie moyenne des patients de 14,6 mois à 33 mois, selon le communiqué.

AFP

Le HIV accroît bien le risque de très nombreux cancers
Vendredi, 13/07/2007 - 00:00

Dès les premières années qui ont suivi l'émergence de l'épidémie de sida, il est apparu que certains cancers étaient beaucoup plus fréquents chez les sujets infectés par le HIV, au point que 3 d'entre eux entraient dans la définition de la maladie : les sarcomes de Kaposi, les lymphomes non hodgkiniens (LNH) et les cancers du col de l'utérus.

Depuis, avec l'augmentation de l'espérance de vie des malades sous traitement anti-rétroviral, on a soupçonné que la fréquence d'autres types de cancers, comme les maladies de Hodgkin, les cancers des lèvres et les séminomes testiculaires, pouvait être également accrue chez les sujets infectés par le HIV. Certaines études ont même conclu à un accroissement d'incidence d'autres types de néoplasies, mais il restait difficile de faire la part de ce qui revenait à l'immunodépression et à d'autres facteurs dépendants de l'environnement et du mode de vie.

Pour mieux comprendre les relations complexes entre cancer et infection par le HIV, Andrew Grulich et coll. de Sydney (Australie), ont eu l'idée originale de comparer les données portant sur le taux de cancers chez les patients infectés par le HIV à celles des sujets ayant bénéficié d'une transplantation rénale, les deux groupes subissant une baisse de l'immunité (spontanée ou thérapeutique) mais ayant des modes de vie et un environnement différent.

En reprenant les données de la littérature, il a été possible de retrouver 7 études de cohorte ayant suivi au total 444 172 patients infectés par le HIV (avant ou après le diagnostic de sida) et 5 publications regroupant 31 977 transplantés rénaux.

Une méta-analyse de ces publications a montré, pour 20 types de cancers étudiés sur 28, une augmentation significative de l'incidence par rapport à la population générale du même âge, et ce dans les deux groupes de patients. La plupart de ces tumeurs étaient des néoplasies considérées comme liées à une infection virale ou bactérienne.

Ainsi, le risque (plus précisément le ratio d'incidence standardisé) de sarcome de Kaposi (en rapport avec une infection à HHV 8) était multiplié par 3 640 chez les sujets infectés par le HIV et par 208 chez les transplantés, celui des LNH (liés à une infection par un EBV) par 76 chez les sujets infectés par le HIV et par 8 chez les transplantés, celui des cancers liés à l'HBV ou l'HCV par 5,22 au cours de l'infection à HIV et par 2,13 après transplantation rénale, celui du cancer de l'estomac (en rapport avec une infection à H pylori) par environ 2 dans les deux groupes, celui des différents cancers liés à une infection à HPV (col de l'utérus, vulve, vagin, pénis, anus, cavité buccale et pharynx) par 2,32 à 28 au cours de l'infection à HIV et par 2,13 à 22,7 chez les transplantés.

L'incidence d'autres cancers, possiblement liés à une infection à HPV (de la peau en dehors du mélanome, des lèvres, de l'oesophage, du larynx, de l'oeil), s'est également révélée plus élevée dans les deux groupes.

En revanche, à l'exception des cancers du poumon et des bronches dont l'incidence était environ deux fois plus élevée dans les deux groupes, la fréquence de certains cancers épithéliaux parmi les plus répandus (sein, prostate, ovaire) n'est pas apparue comme significativement accrue dans les deux groupes.

Il semble donc bien que c'est essentiellement l'immunodépression liée à l'infection à HIV qui augmente le risque de très nombreux cancers et non les facteurs environnementaux et comportementaux qui peuvent être associés à cette infection.

JIM

Le thé vert pourrait réduire d'un tiers le risque de développer un cancer du colon
Vendredi, 13/07/2007 - 00:00

Le thé vert, riche en polyphénols (de puissants antioxydants) pourrait aider à lutter contre l'apparition du cancer colorectal. Des chercheurs chinois ont étudié une cohorte de 70.000 chinoises âgées de 40 à 70 ans pendant six ans. Durant cette période, 256 cas de cancer colorectal ont été diagnostiqués. Les habitudes alimentaires de ces femmes ont alors été analysées afin d'isoler les éventuels effets protecteurs de certains aliments ou boissons par rapport au cancer du colon.

C'est là que les chercheurs ont constaté que la consommation de thé vert pouvait être associée à une réduction de 37 % du risque de développer un cancer du colon. Selon les scientifiques, il existe une véritable corrélation entre le fait de boire du thé vert et le gain d'années de vie. Rappelons que ce type de cancer se développe généralement à cause de mauvaises habitudes alimentaires, de manque d'exercices physiques et avec le vieillissement. Cette pathologie est la 2ème cause de cancer chez la femme et la 3ème chez l'homme. Elle apparaît à partir de la cinquantaine et représente la 2ème cause de mortalité par cancer avec 16 000 décès/an.

Le cancer du côlon est d'abord une question d'âge. L'âge moyen d'un patient diagnostiqué est de 70 ans. La France se classe parmi les pays ayant une fréquence élevée de cancer colique, juste derrière les Etats-Unis et l'Australie. Le nombre de cancer colorectal y est passé de 23.900 à 36.000 entre 1980 et 2000. Dans ce même laps de temps, le nombre de décès a augmenté de plus de 8 %, passant de 14.727 à 15.973. Fait parlant, le cancer du côlon concernera au cours de sa vie un français sur 50.

CEBP

Cancer de la prostate et traitement par Ablatherm
Vendredi, 13/07/2007 - 00:00

Face aux 40.000 cas annuels de cancers localisés de la prostate en France, la technologie HIFU, homologuée en Europe depuis 1999, représente une avancée thérapeutique majeure, notamment pour les patients qui ne relèvent pas de la chirurgie et pour le retraitement après échec de la radiothérapie.

« Outre l'avantage d'être peu invasif et de ne pas utiliser les rayons, le traitement ne présente pas d'impasse thérapeutique comme la radiothérapie et offre la possibilité de répéter le traitement sans problème de dose maximum » souligne le Dr François-Joseph Murat de l'HEH.

Plus concrètement, l'Ablatherm®HIFU est fondé sur l'utilisation des Ultrasons Focalisés de Haute Intensité : les faisceaux convergent avec une extrême précision sur la zone ciblée, provoquant une élévation très brève de la température (de 80 à 90°C). Les tissus ainsi ciblés sont instantanément et définitivement détruits, tandis que les tissus environnants sont préservés, marquant en cela une différence radicale par rapport au traitement par rayons ionisants, beaucoup plus destructeur pour l'environnement tissulaire.

L'efficacité de l' Ablatherm®HIFU a rejoint celui des traitements de référence. Non invasif, il offre une alternative thérapeutique, sans radiation et sans chirurgie. Et les résultats montrent une efficacité qui a rejoint ceux des traitements de référence, tout en conservant une meilleure qualité de vie. Une étude en cours de publication sur des patients traités à l'Hôpital Edouard Herriot de Lyon et en Allemagne montre que plus de 87 % des patients traités en première intention observent une disparition du cancer de la prostate (sur un suivi moyen de 6,5 ans).

Cette avancée s'inscrit dans la tendance d'une prise en charge localisée et moins invasive de l'organe, se substituant à la chirurgie radicale. « Comme observé dans l'évolution du traitement du cancer du sein chez la femme, après la fin de la mammectomie radicale « obligatoire », s'ouvre l'ère d'une solution alternative à la prostatectomie radicale systématique » souligne le professeur Crawford, urologue américain de renom, chef de service d'oncologie urologique à l'University of Colorado Health Sciences Center.

SA

Des lignées de cellules souches à partir d'un ovocytes non fécondes
Vendredi, 13/07/2007 - 00:00

Les techniques qui permettent d'introduire des éléments à l'intérieur de cellules jouent un rôle important en biologie cellulaire et les chercheurs s'attachent à les miniaturiser de plus en plus afin d'étudier le comportement des cellules sans les endommager. Une équipe de scientifiques de Berkeley de l'Université de Californie et du Lawrence Berkeley National Laboratory vient de proposer une méthode permettant d'injecter de manière contrôlée des nanoparticules fluorescentes dans des cellules vivantes.

Le "nanoinjecteur" réalisé par les chercheurs est constitué d'un nanotube de carbone multiparois à la surface duquel ont été accrochés les nano-objets à introduire dans la cellule, ici des complexes steptavidine - "quantum dots". Ces complexes sont greffés sur le nanotube par l'intermédiaire d'une molécule liante portant une extrémité pyrène qui se lie fortement à la surface du nanotube et l'autre moitié biotine qui s'associe à la steptavidine, les deux parties étant séparées par une liaison disulfure.

Le nanotube est fixé à l'extrémité de la pointe d'un microscope à force atomique (AFM), et il est donc possible de le déplacer avec une grande précision : on dispose ainsi d'une nano aiguille qui permet de traverser la membrane cellulaire. Après pénétration du nanotube dans la cellule, l'environnement réducteur du cytosol permet de casser la molécule liante au niveau de la liaison disulfure et de libérer ainsi les quantum dots.

Les expériences réalisées sur des cellules cancéreuses ont permis d'étudier la dynamique de diffusion des quantum dots injectés dans le cytosol. Elles montrent par ailleurs que ni la cellule, ni la membrane ne paraissent endommagées par la pénétration du nanotube. Cette technique est très intéressante car le nanoinjecteur peut également libérer d'autres éléments tels que des ADN, ARN, polymères et bactéries.

BE

Une nouvelle étape vers la fabrication d'un ADN synthétique
Vendredi, 13/07/2007 - 00:00

Dans leur quête de création de bactéries "synthétiques", les scientifiques du Craig Venter Institute de Rockville, Maryland ont apporté une nouvelle preuve de principe. En effet, le laboratoire de John Glass est parvenu à remplacer entièrement le génome d'un genre bactérien par un autre ADN provenant d'une espèce bactérienne voisine. Après transformation, la cellule receveuse a acquis les " traits " caractéristiques de l'espèce "donneuse".

Pour parvenir à ce succès, plusieurs étapes clés ont été mises en oeuvre. Un gène de résistance à un antibiotique a été inséré à la bactérie " donneuse " Mycobacterium mycoides LC afin de sélectionner les cellules vivantes contenant le chromosome transplanté. Ensuite, les scientifiques ont extrait l'ADN. Pour cela, ils ont utilisé dans un gel poreux pour emprisonner l'ADN ont eu recours à des détergents et des enzymes afin de présenter un ADN nu (nacked).

L'étape suivante est l'étape la plus délicate car il s'agit de la transplantation proprement dite dans Mycobacterium capricolum d'une molécule d'ADN d'une taille supérieure à un million de paires de bases. D'une part, la manipulation d'une telle molécule d'ADN est très difficile ; elle peut se rompre et il faut être extrêmement soigneux. D'autre part, l'évènement de transplantation est très rare (1 / 150.000) et pour l'instant les phénomènes qui l'accompagnent restent inconnus.

Pour Jim Collins, ingénieur spécialisé dans les recherches biomédicales à l'Université de Boston, les résultats de la méthode utilisée sont impressionnants. Il se dit surpris de la capacité des chercheurs à intégrer de telles tailles d'ADN dans des cellules.

Après quelques divisions cellulaires, la bactérie M. capricolum présente les caractéristiques de M. mycoides LC. Une analyse d'une électrophorèse bidimensionnelle combinée à un séquençage protéique a mis en évidence les protéines synthétisées par le génome de la bactérie "donneuse". Une analyse immunologique avec des anticorps spécifiques des protéines de surface a d'ailleurs confirmé la transplantation.

Selon Pamela Silver, spécialisée dans la biologie des systèmes à Harvard, c'est un nouveau pas vers le Saint Graal de l'ingénierie de génome entier et la création de novo d'un organisme viable. Les scientifiques espèrent d'ailleurs utiliser 381 des 485 gènes de Mycobacterium genitalium comme base cellulaire de départ et incorporer des gènes possédant des fonctions utiles pour la fabrication de produits pharmaceutiques, ou des biocarburants.

BE

Des capteurs ultrasensibles pour détecter les molécules biologiques isolées
Vendredi, 13/07/2007 - 00:00

Une équipe de physiciens du California Institute of Technology (Caltech) annoce avoir mis au point des capteurs capables de détecter les molécules biologiques isolées grâce à un microscope optique. La méthode, qui s'est déjà montrée efficace pour détecter la présence de certaines cytokines, les interleukines - des protéines qui indiquent l'état du système immunitaire - au sein de composés moléculaires, pourrait être utilisée dans la détection précoce du cancer et d'autres maladies. Son rôle devrait également être prépondérant pour faire avancer la recherche fondamentale en biologie.

"Cette technologie nous permettra de réaliser de nombreuses expériences biologiques et médicales, et aboutir même à la création de traitements. Sa principale aptitude est sa capacité de détecter des molécules extrêmement petites en très grand nombre, et le fait qu'il n'y ait pas besoin de marquer les molécules cibles", explique Scott Fraser, professeur de biologie et de bio-ingénierie et collaborateur du projet. Et d'ajouter: "Grâce au niveau de sensibilité dont elle dispose, il devient possible d'étudier les facteurs de croissance émis en temps réel par une cellule unique. C'est le seul capteur qui dispose aujourd'hui de la sensibilité et de la rapidité suffisante requises".

Atelier

De nouveaux critères pour diagnostiquer Alzheimer
Vendredi, 13/07/2007 - 00:00

Actuellement, le diagnostic de la maladie d'Alzheimer n'est porté avec certitude que lorsque les symptômes cliniques de la maladie sont clairement identifiés et incontestables. En général, les troubles au moment du diagnostic évoluent déjà depuis plusieurs années quand le mot d'Alzheimer est prononcé. Selon une équipe internationale de chercheurs, notamment français, qui ont publié les résultats de leurs travaux dans la revue britannique The Lancet Neurology, la maladie d'Alzheimer pourrait être diagnostiquée plus précocement, avant l'apparition de la démence, en croisant plusieurs critères, dont des tests de mémoire et des marqueurs biologiques.

L'équipe d'experts, coordonnée par Bruno Dubois (hôpital Pitié-Salpétrière, Paris), propose de redéfinir les critères de diagnostic établis en 1984. « Les nouveaux critères proposés permettraient de reconnaître la maladie trois à quatre ans plus tôt qu'actuellement », explique le professeur Dubois. Ainsi, le diagnostic pourrait être porté en cas de troubles de la mémoire observés par le patient ou ses proches depuis plus de six mois, avec de plus la confirmation d'un trouble de la mémoire à long terme par des tests spécifiques. De surcroît, un ou plusieurs des signes suivants doivent être associés : soit une atrophie de l'hippocampe visible à l'IRM, soit des taux anormaux d'un biomarqueur (protéine Tau...) dans le liquide céphalorachidien, ou enfin des troubles de la perfusion cérébrale dans certaines régions du cerveau visible par neuro-imagerie fonctionnelle.

« Dans les années qui viennent, dans les mois peut-être même, on va avoir des médicaments qui devraient ralentir le processus de la maladie », a déclaré le Professeur Dubois, soulignant qu'il faut se tenir prêt à l'identifier précocement pour traiter le plus tôt possible les malades. Le diagnostic précoce n'a en effet de sens que si, à l'angoisse de l'annonce d'une telle maladie, le médecin peut offrir une thérapeutique efficace, ce qui n'est pas vraiment le cas actuellement, malgré plusieurs molécules sur le marché. La maladie d'Alzheimer affecte 24 millions de patients dans le monde, dont 800 000 en France.

Figaro

^ Haut
Recherche
Recherche & Innovation, Technologies, Transports
Le MIT va tester une voiture urbaine à pilotage automatique
Vendredi, 13/07/2007 - 00:00

Une équipe du MIT d'une trentaine de personnes travaille sur ce qui pourrait devenir la voiture du futur : un véhicule pouvant contenir des passagers et qui se conduit automatiquement. Ce véhicule participe à la présélection pour le DARPA Urban Challenge qui aura lieu le 3 Novembre, et dont l'objectif est de mener à bien une mission militaire en milieu urbain sans aucune intervention extérieure.

Actuellement 53 équipes sont en lice pour cette compétition, mais seulement 30 demi-finalistes pourront participer à la qualification finale qui aura lieu en octobre. Les véhicules devront démontrer qu'ils sont capables d'exécuter des opérations de ravitaillement militaire dans un milieu urbain assez dense, et de façon entièrement automatique. Ils devront parcourir 100km en moins de 6 heures, et les 3 premiers se verront attribuer des prix respectivement de 2 millions, 1 million et 0.5 million de dollars. Le parcours sera dévoilé aux participants au dernier moment, dans un endroit encore tenu secret de l'ouest des Etats-Unis.

Les participants se verront remettre une carte topographique avec les différentes routes, ainsi qu'un fichier de coordonnées GPS avec des points de passage obligés. Les véhicules devront visiter ces points de passage dans un ordre défini en accomplissant un certain nombre de tâches comme : doubler d'autres véhicules, et s'arrêter aux feux, tout en respectant scrupuleusement le code de la route (et les limites de vitesse).

BE

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top