RTFlash

RTFlash a besoin de vous pour continuer à exister !

Propulsé par HelloAsso

RTFLASH Recherche & Technologie
NUMERO 419
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 22 Février 2007
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
Le Terascale d'Intel et le passage à 45 nanomètres explosent les limites de la puissance informatique
Fibre optique jusqu'au foyer : Orange lance son offre le 1er mars
Avenir
Vers une interface logicielle universelle pour la robotique
Matière
La production de pétrole sera plus coûteuse et polluante
Un nouveau moteur adapté à n'importe quel type de carburant
Stocker l'électricité en quantité illimitée par des batteries en flux continu
Le plastique qui se déforme comme du caoutchouc
Espace
Nouveaux indices d'une présence d'eau découverts sur Mars
L'exploration de la Lune : un enjeu technologique et commercial
Terre
L'année 2007 a connu le plus chaud mois de janvier jamais enregistré
Des lacs sous la calotte antarctique
Vivant
Grippe aviaire : le vaccin serait proche selon l'OMS
Bientôt, un vaccin contre l'hépatite C
La découverte d'une faille dans la cuirasse du VIH ouvre la voie vers un vaccin
Des dents créées en laboratoire
Le plan d'attaque des lymphocytes T contre les tumeurs
Bien dormir pour ne pas grossir
Le bulbe olfactif, source de jouvence neuronale
Edito
ARN interférents : la prochaine révolution médicale ?



L'interférence par ARN est un phénomène naturel découvert en 1998 par Fire et Mello (Prix Nobel de Médecine 2006) par lequel la présence d'un ARN double brin d'un gène entraîne la dégradation spécifique, rapide et efficace de l'ARN messager correspondant. Fire et Mello ont montré que l'on pouvait réduire spécifiquement l'expression de protéines contenues dans des cellules d'un nématode (petit ver), en introduisant de l'ARN double brin dans celles-ci. Toutefois, le mécanisme d'action du RNAi et sa fonction biologique sont encore loin d'être complètement élucidés.

On pense que le RNAi représente un système de protection du génome contre les acides nucléiques indésirables, ou un mécanisme sophistiqué impliqué dans le contrôle de l'expression des gènes. Les chercheurs du monde entier utilisent cette technique pour inhiber spécifiquement l'expression d'un gène associé à une pathologie.

À côté des ARN double brin les chercheurs ont également découvert d'autres petits ARN appelés micro ARN (siRNA) qui sont fabriqués par la cellule elle-même à partir de son propre génome. On évalue leur nombre dans le génome humain à plusieurs centaines et leur fonction reste pour la plupart à élucider. Grâce à des travaux réalisés sur la levure et les plantes, on a récemment découvert un rôle très important de ces micro ARN : ils peuvent inhiber l'expression des gènes d'une manière durable en agissant sur la configuration de l'ADN dans le noyau mais sans modifier le code génétique.

C'est ainsi qu'un traitement particulièrement innovant des maladies animales vient d'être mis au point par les chercheurs vétérinaires du Cirad. Ce vaccin thérapeutique utilise les ARN interférents contre les morbillivirus du sujet infecté. Ceux-ci viennent bloquer le processus de développement viral dans la cellule malade. Le Cirad a mis au point et breveté des ARN interférents contre les morbillivirus responsables de la rougeole, de la peste bovine et de la peste des petits ruminants. Depuis, les travaux de recherche se poursuivent afin de cibler l'action de ces antiviraux biologiques chez l'animal.

Comme l'explique Emmanuel Albina « un fragment d'ARN interférent qui n'est actif que sur le virus ou la famille de virus ciblé, à la différence d'une molécule chimique, vient bloquer le processus de développement viral dans la cellule infectée ». Il ajoute « cette stratégie change complètement les concepts de lutte contre la maladie. Le choix ne se limite désormais plus à l'éradication de la population animale malade ou à la vaccination massive préventive. Un troisième outil, le vaccin thérapeutique, pourra être utilisé sur l'animal infecté. »

Mais l'homme pourrait aussi bénéficier d'ici quelques années de ces nouvelles thérapies à base d'ARN interférents. La rougeole, maladie humaine qui sévit parmi la population jeune des pays du Sud, appartient en effet à la même famille virale que la peste des petits ruminants ou la peste bovine.

Fin juillet 2002, les travaux des équipes du professeur Leonid Gitlin, de l'université de Californie, et du professeur Jean-Marc Jacques, de l'Université du Massachusetts, publiés dans la revue Nature, ont ouvert de nouvelles perspectives à la technique de l'interférence de l'ARN : pour la première fois, ce mécanisme s'est montré efficace sur des cellules humaines. Il a permis de bloquer in vitro leur infection par les virus du sida et de la poliomyélite. Ces résultats suggèrent donc que les ARN interférents pourraient être utilisés pour contrer des infections virales chez l'homme.

En 2003, des chercheurs américains de l'Ecole de Médecine de l'Université de Stanford ont démontré pour la première fois chez l'animal la possibilité d'utiliser des ARN interférents pour inhiber la réplication du virus de l'hépatite B, qui peut être réduite de 90 à 99 %.

En 2005, une équipe américaine a montré que des ARN interférents (ARNi) peuvent éviter le développement du SRAS mais aussi guérir une infection établie chez des macaques. Ces auteurs expliquent avoir sélectionné in vitro des ARN interférents capables d'inhiber le coronavirus responsable du SRAS. Ces ARN ont ensuite été administrés par voie nasale à des macaques exposés au virus du SRAS. D'après les résultats, cette approche à permis de réduire la sévérité des symptômes et la charge virale, ainsi que les lésions pulmonaires.

Il y a quelques mois, la firme Acuity Pharmaceuticals a entrepris des essais cliniques sur le développement d'un médicament contre la dégénérescence maculaire, fondé sur la technique des ARN interférents (RNAi), appelé Bevasiranib. Les résultats de la première phase d'essais cliniques, révélés en juin 2006, lors du meeting de "l'American Society of Gene Therapy", sont prometteurs. Il s'avère que le médicament a permis de réduire la croissance des vaisseaux sanguins sur la rétine et que la vue a même été légèrement améliorée.

Toujours aux Etats-Unis, John Rossi, de l'Institut de recherche Beckman (Duarte, Californie), est sur le point d'obtenir de l'agence du médicament américaine, la FDA (Food and Drug Administration), l'autorisation de lancer un essai sur des patients atteints du virus du sida. « Grâce à une combinaison de plusieurs ARNi, nous avons pu inhiber la réplication du virus du sida dans des cellules humaines. Le protocole thérapeutique pourrait consister à prélever des lymphocytes T infectés, y introduire des vecteurs contenant des ARNi anti-VIH, les faire se multiplier et les réinjecter dans le patient. Et cela une à deux fois par an. »

Les ARNi sont donc en train de bouleverser la médecine en ouvrant des voies thérapeutiques absolument nouvelles et d'une efficacité inédite. La plupart des maladies impliquent en effet des gènes qui se trouvent surexprimés ou exprimés à de mauvais endroits dans l'organisme. Si les chercheurs parviennent à maîtriser ce pouvoir "d'éteindre" à volonté les gènes grâce aux ARNi, nous disposerons alors d'une forme de thérapie génique d'une efficacité presque sans limites, notamment contre les maladies virales et cancéreuses.

Au CNRS, Florence Cabon vient de lancer sur le chien un essai de thérapie à base de micro ARN (baptisés siRNA) contre le cancer de la prostate. Elle est persuadée que cette technique est si puissante et si spécifique qu'elle permettrait de se débarrasser également des métastases. " Si cela fonctionne sur la tumeur principale, cela sera aussi le cas pour les métastases car les ARNi cibleront les cellules tumorales là où elles se trouvent, en circulant dans la voie générale" souligne la chercheuse.

Il est frappant de constater que c'est à partir d'observations fortuites sur des pétunias qu'a été révélé l'un des mécanismes fondamentaux du vivant dont la connaissance de plus en plus fine va déboucher sur une extraordinaire révolution scientifique et médicale dont nous vivons déjà les prémices. Cela montre bien le caractère imprévisible des grandes découvertes et confirme la nécessité de développer des concepts audacieux et des axes de recherche transversaux pour faire avancer la science et la connaissance de la vie.

René Trégouët

Sénateur honoraire

Fondateur du Groupe de Prospective du Sénat


TIC
Information et Communication
Le Terascale d'Intel et le passage à 45 nanomètres explosent les limites de la puissance informatique
Vendredi, 23/02/2007 - 00:00

Le fondeur Intel a présenté un processeur Terascale fonctionnel regroupant pas moins de 80 coeurs spécialisés capables de dialoguer entre eux à l'aide d'un ringbus (bus circulaire) et de s'associer afin d'effectuer des calculs avec une remarquable efficacité. Chaque coeur effectue des opérations simples avec seulement la FPU (floating point unit) mais celles-ci sont réalisées de manière très rapide. Le processeur présenté ne contient que 100 millions de transistors gravés en 65 nm. Pour comparaison, un Core 2 Duo contient 291 millions de transistors. La démonstration d'Intel consistait à résoudre des équations différentielles. Avec une fréquence de fonctionnement de 3,16 GHz et une tension de 0,95V, le processeur délivre une puissance de calcul brute de l'ordre de 1 Teraflops pour une consommation de seulement 62 Watts.

Ce type de processeur n'utilise pas le jeu d'instructions x86 et s'appuie sur une architecture différente. Il s'adresse plus particulièrement à des applications spécifiques pour la recherche et les calculs effectués par les supercalculateurs. Chaque coeur comprend 2 unités de calcul en virgule flottante et 5 connexions vers le reste des autres coeurs. Intel a exploité le concept de "réseau sur une puce" pour concevoir le TeraScale. Cette puce est d'abord destinée à des domaines comme l'intelligence artificielle, la reconnaissance de paroles en temps réel ou pour les jeux.

Notons que le premier système à atteindre la même puissance date de 1996 et utilisait 10 000 processeurs Pentium Pro cadencés à 200 Mhz, et consommait 500 000 W pour le système lui-même et 500 000 W pour refroidir la pièce. Pour information, l'ordinateur le plus puissant au monde, le Blue Gene avec ses 131 072 processeurs, délivre 367 Teraflops, soit moins de 0,003 Tflops par processeur. Le TeraScale d'Intel permettrait donc de délivrer la même puissance avec 300 fois moins de processeurs. Le Terascale devrait être disponible pour le grand public d'ici 5 ans.

Intel a par ailleurs annoncé la production de ses premiers processeurs Core 2 Duo gravés en 45 nm et connus sous le nom de code Peryn. Ces processeurs sont parfaitement fonctionnels, ils ont d'ailleurs été testés avec les systèmes d'exploitation Windows XP, VIsta, Linux et MacOS X. Grâce à une technologie de semi-conducteurs dénommée "High-K Metal Gate", Intel peut à présent faire tenir deux fois plus de transistors sur une puce qu'il y a quatre ans.

Jusqu'à présent, une telle densité engendrait une déperdition de courant (ou "courant de fuite") trop importante en utilisant les technologies existantes. Intel et l'alliance IBM-AMD-Sony-Toshiba ont heureusement trouvé un nouveau matériau permettant de remplacer le dioxyde de silicium qui servait jusqu'à présent à isoler les transistors. Ils utilisent désormais de l'oxyde d'hafnium. Grâce à ce nouveau matériau, les processeurs 45 nm devraient générer cinq fois moins de fuites d'énergie. Un point particulièrement important car ils chaufferont donc moins tout en améliorant l'autonomie des PC et autres périphériques portables : téléphones, PDA, lecteurs MP3, etc.

Intel incorporera cette technologie dès le second semestre 2007 dans ses nouveaux processeurs Core 2 (nom de code Penryn) et l'alliance IBM durant le premier trimestre 2008. A titre d'illustration, environ 400 des transistors d'Intel, gravés en 45 nm peuvent loger sur une surface équivalente à celle d'un globule rouge de sang humain. Par comparaison, la technique de gravure la plus perfectionnée voici à peine dix ans était le 250 nm et les transistors correspondants étaient d'une superficie trente fois plus grande que ceux que vient de présenter Intel.

Intel

Intel

SD

Fibre optique jusqu'au foyer : Orange lance son offre le 1er mars
Vendredi, 23/02/2007 - 00:00

On connaît enfin l'offre Orange en matière de FTTH. Cette offre, baptisée "La fibre" sera géographiquement limitée à certaines zones de Paris et des Hauts-de-Seine. 14 000 foyers seraient aujourd'hui raccordables, selon Orange. Viendront ensuite d'autres quartiers de ces communes et de cinq villes de province (Lille, Lyon, Marseille, Poitiers, Toulouse), d'ici au mois de juin. Orange restera encore en phase de prédéploiement jusqu'en 2008, avant de généraliser à l'ensemble du territoire le FTTH.

En standard, l'offre, facturé 44,90 ? (plus la location de la Livebos à 3 ? par mois), comprend un accès à Internet, de la téléphonie illimitée vers les fixes (France métropolitaine) et 36 chaînes de télévision (simple définition), avec un débit de 100 Mbit/s en réception et de 10 Mbit/s en émission. En plus de ce forfait de base, Orange propose plusieurs options : le Time Control HD (enregistreur numérique avec contrôle du direct) facturé 7 ?/mois en plus, le Multi Ecran TV pour regarder des chaînes différentes sur deux TV (7 ?/mois) ou la possibilité d'avoir un débit symétrique de 100 Mbit/s en émission et en réception (20 ?/mois).

Mais ce saut technologique suppose également un saut matériel. Orange ayant choisi de déployer sa fibre jusque chez l'abonné (technologie FTTH pour Fiber to the home ), des « points de répartition » doivent tout d'abord être installés en bas des immeubles, par exemple au sous-sol. Des « points de branchement » sont ensuite placés sur les paliers pour alimenter chaque logement en fibre. «Orange a fait le choix d'ouvrir et de rendre accessibles à tous les opérateurs qui le souhaitent et sur la base d'accords de réciprocité, les clients des immeubles qu'il a équipés de fibre optique», affirme l'opérateur historique dans un communiqué.

Dans l'appartement de l'abonné, l'installation doit être prolongée par une prise spécifique reliée à un boîtier optique qui transforme le signal optique en signal pour réseau Ethernet classique. C'est sur ce boîtier (Alcatel) que sera connectée une nouvelle Livebox fournie par Orange, plus riche en ports Ethernet (4 au lieu de 2) et dopée pour supporter le 100 Mbit/s. Cette installation sera offerte dans un premier temps puis facturée 100 euros à l'abonné.

Pour installer sa fibre dans les immeubles, Orange a dû négocier avec les régies et syndics. L'opérateur affirme avoir obtenu 700 accords à ce jour, y compris avec ceux qui gèrent des immeubles déjà câblés. Pour convaincre les décideurs, Orange met en avant ses choix technologiques qui permettent de limiter le nombre de fibres à implanter dans un immeuble. Avec la technologie GPON, qu'il a choisie, une fibre initiale au niveau d'un noeud de raccordement permet de raccorder 64 clients.

Avec "la fibre", Orange reprend l'offensive sur le terrain de la communication, après l'annonce par Free, en septembre 2006, de la construction d'un réseau très haut débit optique et son offre de fibre optique (FTTH) à 29,90 euros. Du côté de Neuf Cegetel, on annonce également une offre d'accès en fibre optique, limitée géographiquement, en 2007. L'opérateur teste actuellement les usages et les attentes des consommateurs sur le réseau de Pau, racheté à Médiafibre.

Orange

^ Haut
Avenir
Nanotechnologies et Robotique
Vers une interface logicielle universelle pour la robotique
Vendredi, 23/02/2007 - 00:00

Le marché de la robotique personnelle est en pleine explosion et devrait atteindre 2,5 millions d'unités en 2008. Dans ce cadre, la start-up française GOSTAI souhaite devenir à terme l'une des leaders mondiales en matière de système de contrôle pour les robots personnels.

Son atout : le développement du langage de programmation innovant URBI (Universal Real-time Behavior Interface), langage d'intelligence artificielle simple pour des applications en robotique. Actuellement disponible en version RC1, ce langage mis au point par Jean-Christophe Baillie au Laboratoire d'Electronique et d'Informatique de l'ENSTA a été présenté au CES qui s'est tenu du 7 au 10 janvier à Las Vegas.

Cette interface logicielle universelle pour la robotique - et simple d'utilisation - permet de contrôler n'importe quel robot au niveau hardware (moteurs, capteurs, camera...) et software (reconnaissance de visages, de la voix). Basé sur un langage de script puissant, URBI (distribué avec ses librairies sous licence GNU) peut être interfacé avec de nombreux langages de programmation connus (C++, Java, Matlab,...) et de nombreux environnements systèmes (Windows, Mac, Linux). Innovation, standardisation, portabilité, flexibilité, modularité (multiplateforme) et facilité d'apprentissage et d'utilisation : voici des atouts susceptibles de séduire à terme l'ensemble des grands fabricants mondiaux, mais aussi les fabricants de jouets tels Wow Wee ou Lego (Lego Mindstorms), voire les producteurs de jeux vidéos.

URBI sera utilisé sur le premier robot humanoïde français - Nao nom de code actuel AL05] - à usage domestique et destiné au grand public que développe actuellement la start-up Aldebaran Robotics dirigée par Bruno Maisonnier. Ce robot sera capable d'interactions avec son propriétaire et évolutif en termes de comportements et de fonctionnalités. Autonome, il sera notamment doté de la synthèse et de la reconnaissance vocale, de la reconnaissance anthropométrique, pourra se connecter via le Wifi à internet. Embarquant un PC sour Linux, il sera livré en standard avec des comportements de base, qui pourront être enrichis (via des outils graphiques simples), faisant de ce robot un compagnon autonome pour toute la famille. Et, de compagnon, il passera ensuite vers une vraie fonction d'assistance pour les tâches quotidiennes (surveillance, télé-assistance, informations, lien réel-virtuel...). La commercialisation de ce robot humanoïde est annoncée pour la fin du deuxième semestre 2007.

[Gostai

Aldereban Robotics

^ Haut
Matière
Matière et Energie
La production de pétrole sera plus coûteuse et polluante
Vendredi, 23/02/2007 - 00:00

Selon un rapport du cabinet Wood Mackenzie, notre planète recèle 3 600 milliards de barils de pétrole "non conventionnel" enfouis très profondément ou sous forme de pétroles lourds. A ce jour, 8 % de ce pétrole non conventionnel est exploité ou en passe de l'être. Seuls 15 % de ces 3 600 barils correspondent à du pétrole lourd à extra-lourd, le reste étant encore plus difficile à exploiter, précise le cabinet d'études de référence en matière d'hydrocarbures. Washington avance une estimation des réserves mondiales "ultimes" de pétrole à 2 275 milliards de barils. Mais un groupe de pétrogéologues indépendants et pessimistes, réunis au sein de l'ASPO, Association pour l'étude du peak oil, table sur seulement 1 750 milliards de barils.

L'étude de Wood Mackenzie souligne que la transition vers les pétroles non conventionnels pourrait devenir nécessaire plus vite que ce qu'affirment en général les experts de l'industrie pétrolière. Bien qu'après 2020, certains champs de pétrole conventionnel majeurs verront encore leur production croître, ces augmentations ne suffiront pas à compenser le déclin des autres principaux champs, précise Wood Mackenzie. Se reposer de plus en plus sur les pétroles non conventionnels nécessite une réorganisation importante de l'industrie énergétique. L'extraction des pétroles extra-lourds requiert de grandes quantités d'eau, de gaz naturel et de solvants : une opération plus chère, polluante et gourmande en énergie que pour les pétroles conventionnels.

Les grandes compagnies occidentales exploitent déjà des roches bitumeuses - un pétrole extra-lourd, notamment au Canada et au Venezuela. Mais le rythme d'investissement dans les pétroles non conventionnels demeure lent. Leur place reste marginale. Dans son rapport de 2005, l'Agence internationale de l'énergie (AIE) table sur une production de seulement 2 millions de barils par jour (mbj) en 2025. La consommation actuelle tourne autour de 85 mbj.

Selon Wood Mackenzie, " après 2020, il n'est pas certain que le pétrole conventionnel sera capable de répondre à l'augmentation de la demande". Le directeur des études économiques de l'AIE, Fatih Birol, prédisait en septembre 2005 dans les colonnes du Monde que les extractions hors pays de l'OPEP - soit la moitié de la production mondiale - amorceront leur déclin "juste après 2010"

WM

Un nouveau moteur adapté à n'importe quel type de carburant
Vendredi, 23/02/2007 - 00:00

Des chercheurs du centre aérospatial allemand (DLR) ont développé un nouveau moteur a combustion interne basé sur le principe d'un générateur linéaire à piston libre. Cette nouvelle technologie permet de concevoir un moteur qui puisse transformer n'importe quel type de carburants (benzine, gaz naturel, hydrogène ou éthanol) en énergie électrique, sans les pertes de rendement habituellement rencontrées. Le vilebrequin d'un moteur traditionnel est remplacé par un générateur linéaire et un ressort pneumatique. Le générateur produit directement de l'énergie électrique qui peut être utilisée pour propulser le véhicule par l'intermédiaire d'un moteur électrique. Le taux de compression et la cylindrée du moteur étant variables, son fonctionnement en puissance réduite est fortement optimisé. Cela permet de diminuer la consommation du moteur, ainsi que ses émissions polluantes, en particulier lors d'une utilisation à bas régime (conduite en ville). D'après les chercheurs, ce nouveau moteur devrait être mis sur le marché d'ici 5 à 6 ans. Outre son utilisation au sein des moteurs a combustion, le nouveau générateur pourra également être utilisé pour des systèmes stationnaires de production d'energie.

BE

Stocker l'électricité en quantité illimitée par des batteries en flux continu
Vendredi, 23/02/2007 - 00:00

L'une des faiblesses fondamentales de l'énergie électrique est qu'elle ne peut pas être stockée de manière à ce que les excédents produits à certains moments puissent être redistribués quand la consommation dépasse la production. La solution la plus généralement pratiquée est celle de l'interconnexion des réseaux reliant des centres de production et de consommation dont les pics ne sont pas simultanés.

Ce défi du stockage et de l'adaptation en temps réel de l'offre à la demande d'électricité se pose également dans le domaine de l'électricité d'origine éolienne ou solaire, ces deux sources d'énergie étant à la fois diffuses et intermittentes.

Face à cette limitation fondamentale, des chercheurs australiens de l'Université de Nouvelle Galles du Sud ont perfectionné, depuis 1986, une solution technologique intéressante. Il s'agit du système dit des batteries en flux continu (flow batteries) aujourd'hui expérimenté avec succès en Australie, dans une ferme éolienne installée à King Island, près du détroit de Bass. Le procédé consiste à remplacer l'électrolyte « déchargé » après usage - un dérivé du bromure de vanadium- par un électrolyte chargé conservé dans un réservoir aussi grand que l'on veut.

Lorsque le vent souffle, les éoliennes chargent les batteries dont l'électrolyte est progressivement transvasé dans les réservoirs. Quand il ne souffle plus, les batteries alimentent les consommateurs et, au fur et à mesure de la décharge de leur électrolyte, se réapprovisionnent à partir du réservoir. La première batterie à flux continu avait été conçue par le français Charles Reynard en 1884.

Selon ses concepteurs, ce système peut être adapté à toutes les tailles de batteries et de moteurs électriques, y compris dans le transport. Avec de hauts rendements énergétiques de plus de 80 % et une durée de vie de plus de 16.000 cycles de décharges poussés, cette batterie au vanadium à flux deredox a démontré sa supériorité sur tous les autres systèmes de batteries actuellement existants pour les applications de moyenne à grande taille de stockage d'énergie, dans la gamme de puissance de 10 KW à 100 MW, avec des capacités de stockage allant de 30 minutes jusqu'à plus de 20 heures.

Pour l'instant, ce type de batterie reste plus coûteux que la production d'électricité à partir de pétrole, mais les coûts devraient diminuer avec le nombre des utilisateurs. La technologie des batteries en flux continu, développée par l'Université de Nouvelle Galles du Sud, est reprise actuellement par VRB Power Systems, basée à Vancouver. Un site devrait être implanté en Europe, auprès de la ferme éolienne de Sorne Hill, en Irlande.

Université de Nouvelle Galles du sud

VRB Power Systems

Le plastique qui se déforme comme du caoutchouc
Vendredi, 23/02/2007 - 00:00

Le groupe de chimie industrielle Toray Inc a développé une nouvelle forme de matière plastique qui peut absorber les chocs en se déformant comme du caoutchouc. La NEDO (New Energy and Industrial Technology Development Organization), organisme principal pour le financement de la R&D en technologies industrielles, énergétiques et environnementales au Japon, a coordonné le développement de ce nouveau matériau qui est issu d'un mélange de plastique fondu et de composants de caoutchouc. Les deux matières sont assemblées par une machine d'extrusion spécifique. Les capacités de résistance de ce nouveau plastique sont comparables à celles des meilleurs nylons sauf que cette nouvelle matière ne se déforme que soumise à des forces au-dessus d'un certain seuil. Les industries Toray envisagent les applications de ce matériau pour 2010, comme par exemple les pare-chocs d'automobiles ou encore les emballages de matériel electronique.

BE

^ Haut
Espace
Espace et Cosmologie
Nouveaux indices d'une présence d'eau découverts sur Mars
Vendredi, 23/02/2007 - 00:00

Une sonde de la NASA a découvert de nouveaux indices d'une présence d'eau sur Mars grâce à des images montrant des traces géologiques d'écoulement de fluides dans la roche, selon une étude publiée dans la revue "Science". Les images de la sonde Mars Reconnaissance Orbiter font apparaître des couches de roche alternativement sombres et claires dans une vallée. Ces dépôts présentent une série de fractures linéaires, entourées d'"auréoles", selon les chercheurs de l'université d'Arizona.

D'après Chris Okubo, co-auteur de l'étude, ces "auréoles" indiquent des zones où des fluides, probablement de l'eau, ont coulé dans la roche. Des minéraux présents dans ces fluides ont blanchi la roche, explique-t-il. La découverte a été présentée à la conférence de l'Association américaine pour l'avancement de la science à San Francisco.

Les chercheurs se demandent depuis longtemps si de l'eau a dans le passé coulé sur la planète rouge, et ont recueilli ces dernières années des indices soutenant cette thèse. La présence d'eau renforcerait la théorie selon laquelle l'astre pourrait abriter une forme de vie.

NASA

L'exploration de la Lune : un enjeu technologique et commercial
Vendredi, 23/02/2007 - 00:00

Le projet américain d'exploration de la Lune dès 2020 avec l'établissement d'une colonie et l'exploitation des ressources pour préparer une future mission habitée sur Mars, offre un énorme potentiel commercial qui devrait attirer les investissements privés, selon plusieurs experts. "Je me concentrerai sur une logique de marché dans la création d'un avant-poste lunaire fondé sur l'intérêt que représentent les propriétés de l'hélium 3 pour produire sur Terre, où il est rare, de l'énergie avec la fusion nucléaire", a expliqué Harrison Schmitt, astro-géologue de l'université du Wisconsin (nord) et ancien astronaute de la dernière mission Apollo (17) sur la Lune.

"Nous savons déjà, depuis l'analyse des échantillons ramenés par les missions Apollo il y a 35 ans, que l'hélium 3, idéal pour la fusion, est abondant dans le sol lunaire", a-t-il ajouté devant la presse à la conférence annuelle de l'Association américaine pour la promotion de la Science (AAAS) qui a lieu à San Francisco. L'hélium 3 est présent sur les couches extérieures du Soleil qui en projette dans tout le système solaire. Repoussé par le champ magnétique terrestre, il s'accumule facilement à la surface de la Lune privée d'atmosphère.

La Lune aurait des réserves d'hélium 3 de l'ordre du million de tonnes alors même que, selon des évaluations, 25 tonnes suffiraient pour satisfaire les besoins en énergie des USA et de l'Europe pendant de nombreuses années. Alléchée par cette manne potentielle, la Russie avait annoncé en 2005 son intention d'exploiter l'hélium 3 lunaire dès 2020.

Pour cela, elle installerait en 2015 une base permanente capable d'extraire de la surface ce précieux isotope et de servir à la mise au point d'un nouveau système de transport régulier entre la Terre et la Lune. Le Japon, la Chine et l'Inde prévoient à court terme d'envoyer des sondes robotisées autour de la Lune pour évaluer ses ressources. La Chine a aussi annoncé son intention d'aller sur la Lune.

"Si les investisseurs jugent que le programme de la Nasa est réalisable, ils continueront à injecter des capitaux pour, à la fois développer la fusion sur Terre et les capacités d'exploiter l'hélium 3 de la Lune", a expliqué l'ancien astronaute d'Apollo 17.

"C'est le même principe que celui utilisé pour d'autres grands projets et je ne vois pas pourquoi ça ne marcherait pas", a-t-il ajouté. Harrison Schmitt a aussi jugé "le projet de retour de la Nasa sur la Lune comme étant une approche rationnelle qui, si elle suffisamment financée par le Congrès, devrait être couronnée de succès".

Pour Paul Spudis, du laboratoire de physique appliquée de l'Université Johns Hopkins dans le Maryland (est), "la première source de revenu sur la Lune sera alimentée au moment du retour par le commerce de certaines informations liées aux activités d'exploration scientifique et des conditions de vie dans la colonie lunaire". "Je pense qu'il y a un énorme marché potentiel pour cela", a-t-il commenté, citant "la télévision interactive, la réalité virtuelle en temps réel, des systèmes de contrôle à distance à partir de la Terre", etc.

Selon Jeffrey Taylor, un astrophysicien de l'Institut de planétologie et de géophysique de l'université d'Hawaï, "le but central de l'exploration humaine de l'espace est l'établissement de colonies". "Cette entreprise ambitieuse conduira à la création d'entreprises et de richesses pour la population de la Terre en ouvrant aussi de nouvelles perspectives et approches pour régler nos problèmes les plus brûlants", a-t-il ajouté au cours de la même conférence.

AFP

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
L'année 2007 a connu le plus chaud mois de janvier jamais enregistré
Vendredi, 23/02/2007 - 00:00

Les températures mondiales enregistrées en janvier ont été les plus élevées jamais constatées à cette période de l'année, ont annoncé les scientifiques de l'Administration américaine océanique et atmosphérique (NOAA). "Les températures mondiales à la fois terrestres et à la surface des océans étaient les plus élevées enregistrées pour un mois de janvier", indique le NOAA dans un communiqué, citant des scientifiques de son Centre de données climatiques.

Les températures mondiales, à la fois terrestres et océaniques, étaient en janvier 0,85 degré celsius au-dessus de la moyenne du 20e siècle, selon des données préliminaires, et ont ainsi surpassé le record établi en 2002 (0,71°C au-dessus de la moyenne). Dans le détail, les températures terrestres étaient 1,89 degré celsius au-dessus de leur moyenne en janvier, soit à un niveau record, tandis que les températures océaniques étaient les quatrièmes plus chaudes jamais enregistrées en 128 ans, soit 0,1 degré en-dessous du record établi en 1998 au plus fort du phénomène El Nino.

"La présence d'El Nino ainsi que la tendance continue au réchauffement climatique" ont contribué à faire du mois de janvier 2007 le plus chaud jamais connu, explique l'administration américaine dans son communiqué. Ces températures anormalement élevées ont aussi engendré les chutes de neige les deuxièmes plus faibles sur le continent eurasiatique.

"Durant le siècle passé, les températures mondiales en surface ont progressé à un rythme de 0,06 degré celsius tous les 10 ans, mais le taux d'augmentation a été trois fois plus élevé depuis 1976, soit 0,18 degré tous les 10 ans, avec certaines des plus fortes augmentations de températures intervenues dans les latitudes élevées de l'hémisphère nord", soit près du Pôle Nord, a ajouté le NOAA.

NOAA

Des lacs sous la calotte antarctique
Vendredi, 23/02/2007 - 00:00

Une étude scientifique vient de montrer, grâce à des mesures satellitaires, que le réseau de lacs sous la calotte antarctique était plus vaste et dynamique que prévu et pourrait jouer un rôle-clé dans le rythme et le volume des déversements de glace dans l'océan. Cette recherche montre pour la première fois que les eaux se trouvant sous les glaces de l'Antarctique sont stockées dans des réservoirs reliés entre eux dont elles peuvent sortir ou entrer rapidement, expliquent des glaciologues dont les travaux paraissent dans la revue Science.

Ces mouvements pourraient peut-être jouer un rôle majeur pour déterminer le rythme auquel les glaces antarctiques se détachent du continent, souligne Helen Fricker, glaciologue à Scripps Oceanography. "Nous ne nous rendions pas compte que l'eau sous les glaces antarctiques se déplaçait en d'aussi grands volumes et aussi rapidement", ajoute-t-elle. "Nous pensions que ces changements se produisaient sur plusieurs années ou décennies mais ces observations satellitaires indiquent qu'ils se font sur quelques mois", précise-t-elle.

Depuis que le satellite de la Nasa a commencé ses mesures en 2003, les chercheurs ont observé qu'un lac de 10 km sur 30 km sous les glaces antarctiques avait déversé 2.000 milliards de litres d'eau (2 km3) dans l'océan sous le glacier flottant de Ross, le plus grand de l'Antarctique d'une superficie égale à celle de la France. Un autre lac proche du premier a déversé 1.200 milliards de litres d'eau (1,2 km3) dans l'océan.

Cette découverte va alimenter le débat sur la stabilité des glaciers de l'Antarctique et leur possible effondrement qui pourrait faire monter le niveau des océans dans le monde en raison du réchauffement climatique. Environ 90 % de la glace de la planète se trouve dans l'Antarctique dont la plus grande partie forme la calotte glacière recouvrant le continent.

Science

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Grippe aviaire : le vaccin serait proche selon l'OMS
Vendredi, 23/02/2007 - 00:00

Des experts réunis pendant deux jours à l'Organisation mondiale de la Santé (OMS) pour évaluer les progrès réalisés dans la mise au point de vaccins contre la grippe pandémique ont fait état de résultats encourageants.

Seize fabricants de 10 pays sont en train d'élaborer des prototypes de vaccins antigrippaux contre le virus H5N1 de la grippe aviaire. Cinq d'entre eux participent également à la mise au point de vaccins contre d'autres virus aviaires (H9N2, H5N2 et H5N3).

A ce jour, plus de 40 essais cliniques ont été réalisés ou sont en cours. La plupart ont porté sur des adultes en bonne santé. Certaines sociétés, après avoir procédé à des analyses d'innocuité sur des adultes, ont entrepris des essais cliniques sur des personnes âgées et des enfants. Tous les vaccins se sont révélés sûrs et bien tolérés par toutes les catégories d'âge soumises à expérimentation.

Pour la première fois, les résultats présentés lors de cette réunion ont démontré de manière convaincante que la vaccination à l'aide des vaccins contre la grippe aviaire récemment mis au point pouvait susciter une réponse immunitaire potentiellement protectrice contre les souches de virus H5N1 isolés dans divers lieux géographiques. Certains de ces vaccins fonctionnent avec de faibles doses d'antigènes, ce qui signifie que des doses de vaccins sensiblement plus nombreuses pourraient être disponibles en cas de pandémie.

Malgré les progrès encourageants relevés lors de cette réunion, l'OMS souligne que le monde manque encore de la capacité de production permettant de faire face à la demande potentielle de vaccins contre une pandémie de grippe, car la capacité annuelle est estimée actuellement à moins de 400 millions de doses de vaccin trivalent contre la grippe saisonnière.

OMS

Bientôt, un vaccin contre l'hépatite C
Vendredi, 23/02/2007 - 00:00

La société strasbourgeoise Transgene annonce l'entrée de son vaccin thérapeutique TG4040, contre l'hépatite C, en étude clinique de phase I. L'hépatite C touche 170 à 200 millions de personnes dans le monde chaque année et 470 000 en décèdent. L'hépatite C est sans conteste un problème de santé majeur : l'infection par ce virus conduit à des fibroses, des cirrhoses et des hépatocarcinomes.

Cet essai est subventionné dans le cadre du Pôle de compétitivité mondial LyonBiopôle (voir le dossier d'Industrie & Technologies de décembre 2006). L'étude clinique, conduite en France, inclura 15 patients porteurs chroniques du virus de l'hépatite C n'ayant reçu aucun traitement contre leur infection. L'obtention des données de tolérance est prévue pour fin 2007, les paramètres virologiques et immunologiques, pour fin 2008.

Le vaccin TG4040 exprime des protéines non structurelles du virus de l'hépatite C et a pour objectif d'induire une forte réponse immunitaire contre les cellules infectées. Il utilise comme technologie de vectorisation le MVA, virus de la vaccine hautement atténué, comme le vaccin TG4001 de Transgene contre le cancer de l'utérus lié à l'infection par le papillomavirus humain (en phase II d'essais cliniques).

Le vaccin TG4040 se présente comme une alternative au traitement standard à base d'interféron et de ribavirine, efficace chez 50 % des patients qui vont jusqu'au bout de leur traitement, long et souvent très mal toléré par les malades. En janvier 2006, Transgene a obtenu une subvention d'un montant de 1,3 millions d'euros dans le cadre du pôle Lyon Biopôle pour le développement de ce vaccin. Cette subvention couvrira environ 30 % des frais relatifs à ce projet.

Trangen

La découverte d'une faille dans la cuirasse du VIH ouvre la voie vers un vaccin
Vendredi, 23/02/2007 - 00:00

Des chercheurs américains ont franchi une étape clé décisive vers le mise au point d'un vaccin contre le SIDA selon la revue Nature.

Le VIH s'attaque spécifiquement aux lymphocytes CD4, des cellules qui jouent un rôle fondamental dans le fonctionnement du système immunitaire. Pour reconnaître spécifiquement ces lymphocytes, le VIH se sert de molécules particulières appelées « glycoprotéines » (gp) qui, dressées sur sa capside, lui donnent ce fameux aspect hérissé. Ces glycoprotéines sont capables de reconnaître des molécules spécifiques (les récepteurs) situées à la surface des lymphocytes.

Depuis longtemps, les scientifiques essayent d'élucider la structure de ces glycoprotéines dans l'espoir de les utiliser pour développer un vaccin qui aide le corps à fabriquer des anticorps susceptibles de s'y fixer et de bloquer le système de reconnaissance VIH/lymphocytes CD4.

Mais le VIH, comme le virus de la grippe, est en constante mutation et jusqu'à présent, les scientifiques ne parvenaient pas à repérer quelles parties stables du virus lui permettaient de toujours reconnaître les CD4. Peter Kwong et ses collègues du National institute of health (NIH) ont découvert un anticorps baptisé « b12 » capable de se lier spécifiquement sur les gp120 (glycoprotéines virales du VIH), à l'endroit même où cette dernière peut s'attacher au récepteur du lymphocyte.

« Un de nos premiers objectifs est de développer des vaccins contre le VIH qui pourraient stimuler fortement les anticorps neutralisant » a déclaré dans un communiqué Gary Nabel, un des auteurs de l'étude. La mise au point d'un vaccin est une des seules stratégies qui pourraient permettre efficacement d'éradiquer le sida. « Créer un vaccin contre le VIH est un des grands défis scientifiques de notre temps, a déclaré Elias Zerhouni en réaction à ces résultats. Pour lui, ces chercheurs ont révélé un « trou » dans l'armure du VIH, ouvrant ainsi une nouvelle voie pour affronter ce défi ».

Nature

Des dents créées en laboratoire
Vendredi, 23/02/2007 - 00:00

Une équipe japonaise a réussi pour la première fois à remplacer, chez des souris, des dents naturelles par des dents créées en laboratoire à partir de deux types de cellules prélevées sur des germes d'incisives de souris. Après avoir fait croître séparément des colonies de cellules épithéliales d'une part et de cellules mésenchymateuses d'autre part, Takashi Tsuji et ses collègues de l'université de Tokyo les ont injectées dans une goutte de collagène.

Prises dans cette gangue, les cellules se sont associées pour former un nouveau germe dentaire. Une fois transplanté chez une souris, après l'extraction d'une de ses dents, ce germe s'est développé normalement, selon un article publié en ligne par la revue scientifique Nature Methods. La dent ainsi créée avait les mêmes composition et structure (racine, émail, pulpe dentaire, vaisseau sanguin, nerf...) qu'une dent naturelle.

Cette étude "donne pour la première fois la preuve d'une reconstitution réussie de tout un organe via la transplantation de matériel résultant de techniques de bio-ingénierie", soulignent les chercheurs. Ils ont comparé leur méthode de culture de la dent en laboratoire avant de l'insérer, ou non, dans la mâchoire d'une souris, avec une autre méthode permettant au germe dentaire de se développer d'abord pendant 14 jours au sein d'une glande surrénale (située sur le rein) d'une autre souris. "Notre germe de dent reconstitué engendre une dent complète", lors de cultures in vitro, "mais également in vivo dans une cavité dentaire", que le germe ait été transplanté directement ou que la dent se soit d'abord "partiellement développée dans une glande surrénale", concluent-ils, estimant que leurs travaux contribueront au "développement futur d'organes de remplacement".

En 2003, une équipe franco-britannique était parvenue à faire pousser des dents aux poules à partir de cellules souches dentaires de souris mais l'équipe japonaise serait la première à remplacer, chez une souris, des dents naturelles par des dents créées en laboratoire.

KT

Le plan d'attaque des lymphocytes T contre les tumeurs
Vendredi, 23/02/2007 - 00:00

Comment une tumeur est-elle être détruite par les lymphocytes T ? Le scénario vient d'être visualisé par des chercheurs de l'Institut Curie. Les images originales obtenues et assemblées en douze séquences vidéo, résultent d'une étroite collaboration entre un spécialiste de la microscopie à deux photons, Luc Fetler, chercheur Inserm dans l'Unité CNRS/Institut Curie « Physico-chimie Curie » et des immunologistes notamment Alexandre Boissonnas dans l'Unité Inserm « Immunité et Cancer » à l'Institut Curie.

La défense de notre organisme contre une infection ou une tumeur repose sur une kyrielle d'acteurs, les uns généralistes, les autres très spécialisés. Les lymphocytes T cytotoxiques font partie de cette seconde catégorie. Pour cela, ils disposent à leur surface d'un récepteur membranaire complémentaire de l'antigène des cellules pathologiques à éliminer. Alertés par la présence de cet antigène, les lymphocytes T sont activés. Après avoir identifié une cellule infectieuse ou tumorale, ils se lient à elle et lui envoient une charge mortelle d'enzymes.

Avant les travaux d'Alexandre Boissonnas et Luc Fetler, personne n'avait observé à l'échelle cellulaire ce qui se passe lorsque les cellules T activées arrivent dans une tumeur solide. Original, le modèle expérimental développé par ces chercheurs de l'Institut Curie dévoile la stratégie adoptée par ces cellules pour détruire la tumeur.

La reconnaissance de l'antigène tumoral détermine le comportement des lymphocytes T. Pour arriver à cette conclusion, les chercheurs ont observé dans un modèle animal le cheminement des lymphocytes T dans des tumeurs dotées d'un antigène, l'ovalbumine (OVA), et des tumeurs servant de contrôle, qui en sont dépourvues. Quand les tumeurs atteignent 500 à 1000 mm3, huit à dix jours après l'injection de cellules tumorales avec ou sans antigène, les chercheurs injectent aux souris un grand nombre de cellules T spécifiques de l'antigène OVA.

Que se passe-t-il après le jour du transfert ? Comme attendu, seule la tumeur dotée de l'antigène OVA disparaît, et ce au bout d'une semaine. Dans l'intervalle, le microscope à deux photons permet de scruter la scène in situ sur les premiers 150 micromètres de la tumeur. Il est possible de saisir à chaque prise de vue, une photographie des différentes populations de cellules, des vaisseaux sanguins et des fibres de collagène. Et avec plusieurs images successives, de reconstituer la trajectoire d'un lymphocyte T.

Les chercheurs ont ainsi examiné les protagonistes, lymphocytes T et cellules tumorales, à deux périodes distinctes de l'évolution tumorale. Dans la tumeur dépourvue d'antigène, les cellules T « patrouillent » sans cesse à bonne vitesse (environ 10 micromètres par minute), quel que soit le stade d'évolution. En revanche, dans la tumeur dotée de l'antigène, le comportement des lymphocytes T varie : lorsque la tumeur s'arrête de grossir, en raison de l'injection des lymphocytes trois à quatre jours avant, les défenseurs patrouillent lentement (4 micromètres par minute) et s'arrêtent fréquemment. Leur vitesse moyenne plafonne à 4 micromètres par minute. Puis, durant la phase plus tardive où la tumeur régresse, la plupart des lymphocytes T ont repris une mobilité rapide.

En résumé, les trajectoires des lymphocytes T sont confinées dans les zones denses en cellules tumorales vivantes, alors qu'elles sont amples et fluides dans les régions jonchées de cellules tumorales mortes. Les chercheurs de l'Institut Curie en concluent que la présence de l'antigène arrête les lymphocytes T, alors occupés à reconnaître leur adversaire et à le tuer.

Par ailleurs, en analysant la répartition des lymphocytes T dans l'ensemble de chaque tumeur respective, les chercheurs ont noté que ces défenseurs sont toujours présents à la périphérie, mais que la présence de l'antigène est indispensable pour une infiltration en profondeur, aboutissant à l'élimination efficace de la tumeur. Ces résultats ont été validés sur deux types de tumeurs expérimentales, générées par deux lignées de cellules cancéreuses.

CNRS

Bien dormir pour ne pas grossir
Vendredi, 23/02/2007 - 00:00

L'insomnie rend-elle obèse ? Si entre 5 et 12 ans, il est recommandé qu'un enfant dorme entre 10 et 12 heures par nuit, deux études parues récemment montrent à l'inverse que le manque de sommeil serait un important facteur dans la prise de poids. Des données qui laissent à penser que, en plus de prescrire une alimentation équilibrée et de l'exercice physique régulier aux enfants en surpoids, il conviendrait également de les inciter à dormir plus.

Un groupe de 2.281 enfants de 3 à 12 ans a été suivi pendant 5 ans par des chercheurs de la Northwestern University de Chicago. Leurs temps de sommeil et leurs indices de masse corporelle respectifs ont été régulièrement calculés. L'enquête, publiée dans l'édition de février 2007 de la revue « Child development », révèle que les gros dormeurs ont moins de risques de surpoids et d'obésité après cinq ans.

La deuxième étude, dévoilée dans la revue « Archives of Disease in Childhood » a été réalisée à partir des travaux du docteur Shahrad Taheri de l'Université de Bristol (Royaume-Uni). Le chercheur s'est penché sur des données recueillies auprès de 13.000 enfants nés à Bristol, et suivis pendant plusieurs années. D'après ses observations, un manque de sommeil à l'âge de 30 mois serait un facteur important d'obésité à l'âge de 7 ans. Selon lui, les ordinateurs, les téléphones portables, la télévision, et tous les gadgets utilisés par les jeunes d'aujourd'hui auraient une grande influence sur leur temps de sommeil, les faisant veiller très tard. Ceci serait une des clés de la lutte contre l'obésité.

De façon globale, les deux études suggèrent que le manque de sommeil des enfants perturbe leur horloge biologique à un âge où le besoin de sommeil est très élevé. Pour compenser l'altération du métabolisme liée au manque de sommeil, les jeunes auraient tendance à manger plus, à choisir la mauvaise nourriture, et tout en consommant moins d'énergie par l'activité physique. Un cocktail idéal pour prendre des kilos.

Figaro

Le bulbe olfactif, source de jouvence neuronale
Vendredi, 23/02/2007 - 00:00

Décidemment les dogmes en biologie s'effondrent les uns après les autres. En effet, selon une équipe de recherche suédoise et néo-zélandaise et contrairement à ce que l'on pensait jusqu'alors, la fonction olfactive chez l'homme s'appuie sur la production continue de cellules nerveuses. Cette découverte met en évidence l'existence de la formation, tout au long de la vie, de neurones cérébraux qui traitent les informations olfactives.

C'est une véritable prouesse technique qu'a accomplie l'équipe dirigée par Maurice Curtis (Université d'Auckland) et Peter Eriksson (Institut des neurosciences, Göteborg). Elle a, sur des tissus cérébraux obtenus post mortem, eu recours à différents marqueurs témoignant tant de l'existence de divisions cellulaires que de la présence de neurones immatures dans le bulbe olfactif.

C'est cette région anatomique, premier relais central du système olfactif, qui reçoit et traite les informations sensorielles issues des millions de terminaisons composant le nerf olfactif. Grâce aux techniques de la neuro-imagerie fonctionnelle, les chercheurs ont découvert, au sein du bulbe olfactif, une cavité inconnue jusqu'alors et qui est une extension des ventricules cérébraux. Enfin, ils ont identifié un courant de migration de nouveaux neurones entre ces ventricules et le bulbe, soit sur plusieurs centimètres.

Fait remarquable : ces résultats vont dans le sens contraire de ceux publiés, il y a trois ans, dans Nature et qui concluaient à l'absence de toute forme de neurogenèse dans les relais centraux du système olfactif chez l'homme.

"Cette étude est passionnante car elle révèle l'existence d'une catégorie de cellules nerveuses capable de se régénérer en permanence dans le cerveau humain adulte. » souligne le Professeur. Mark Baxter de l'Université d'Oxford. Celui-ci ajoute “Des études chez l'animal avaient bien montré l'existence de ce type de cellules mais jusqu'à présent la preuve de leur présence dans le cerveau humain adulte se heurtait à des difficultés techniques insurmontables »

"Il s'agit d'une démonstration de première importance, estime pour sa part le docteur Pierre-Marie Lledo (Institut Pasteur de Paris-CNRS), qui avait mis en évidence ce phénomène chez les rongeurs. Elle soulève la question de la localisation du siège de la mémoire olfactive, dès lors que les neurones du circuit ne cessent d'être remplacés. Elle s'oppose à l'idée répandue selon laquelle la fonction olfactive serait en régression du fait de l'évolution. Elle autorise, enfin, de nouveaux espoirs quant à la mise au point de thérapeutiques qui ne seraient pas simplement réparatrices mais bien régénératrices."

Cette découverte majeure ne va pas manquer de relancer les recherches sur les thérapies cellulaires régénératrices contre les grandes maladies neurodégénératives comme la maladie d'Alzheimer ou de Parkinson.

Scoop

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top