RTFlash

RTFLASH Recherche & Technologie
NUMERO 569
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 07 Octobre 2010
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
Le téléphone décrypte les émotions de son propriétaire
Financement de la fibre optique : les pistes envisagées
Google veut changer les images du Web
Avenir
Projet ALIAS : les robots facilitent la communication entre les personnes âgées
Matière
Energie éolienne : plus de 2 % de la production mondiale d'électricité fin 2010
La technologie photovoltaïque CIGS à film mince arrive à maturité
Combiner solaire photovoltaïque et thermique !
Espace
Découverte d'une exoplanète potentiellement habitable
Terre
16 grandes entreprises s'engagent à réduire les consommations d'énergie
Vivant
Un coeur artificiel implanté sur un adolescent
Paludisme en Afrique : un vaccin pourrait être disponible à partir de 2015
Diabète : Nouvelles avancées pour la thérapie cellulaire
La biophotonique contre Alzheimer, la septicémie et le cancer
Des cellules immunitaires artificielles capables de détruire les tumeurs de l'intérieur
Cancer : une nouvelle approche théorique
Gènes maternels et paternels ne sont pas à égalité
Découverte d'un gène associé à une forme courante de migraine
Détecter la maladie de Parkinson avant l'apparition des symptômes
Edito
voiture électrique : rien n'est joué



Cette année, la vedette du Mondial de l'automobile de Paris est incontestablement la voiture électrique que les différents constructeurs présentent en bonne place et qui semble enfin en mesure de séduire le grand public. Un sondage récent montre d'ailleurs que 69 % des Français achèteraient une voiture électrique si elle était au même prix qu'une voiture classique.

Mais logiquement, la motivation d'achat pour une voiture électrique diminue avec les revenus du foyer considéré ce qui montre que le prix constitue encore le principal frein au développement de la voiture électrique. La même étude souligne d'ailleurs que 86 % des Français jugent qu'il faudrait davantage encourager la commercialisation des voitures électriques.

En matière de modèles, PSA a dévoilé au public la Peugeot Ion et la Citroën C-Zéro qui seront commercialisées à la fin de l'année. De son côté, Nissan a présenté sa Leaf et Renault la Zoé qui devrait être en vente en 2012.

Bolloré annonce pour sa part sa Bluecar pour 2001. Contrairement à ses concurrentes qui utilisent toutes des batteries lithium-ion, la Bluecar est propulsée par une batterie LMP (Lithium-Métal-Polymère) plus performante et qui affiche une autonomie supérieure à 200 km, contre 100 à 150 km pour ses rivales.

Mais en dépit d'indéniables progrès technologiques, cette nouvelle génération de voitures électriques est encore très chère : pour l'iOn, la voiture 100 % électrique de Peugeot, le prix de vente de cette petite citadine sera de 30 000 euros, prime d'Etat de 5 000 euros déduite), le constructeur parie sur la location pour convertir ses clients à l'électrique. Peugeot proposera aussi une formule de location de longue durée à 500 euros par mois, entretien et assistance compris.

Les premières Renault électriques ne seront pas commercialisées avant le printemps 2011. La gamme comprendra trois véhicules : la Fluence ZE (A partir de 21 300 ? en France, hors batterie, incitation fiscale de 5 000 ? déduite,le Kangoo Express ZE (à partir de 15 000 ? en France hors batterie, incitation fiscale de 5 000 ? déduite) et enfin la Zoé ZE, l'équivalent électrique de la Clio. A ces prix achat élevé, il faudra encore ajouter le prix de location des batteries, de 80 à 100 ? par mois.

Certes, le coût d'utilisation de ces voitures électriques est très inférieur à celui des véhicules thermiques. Selon une étude du Boston Consulting Group, le km pour une voiture à essence revient en moyenne à 0,13 ?, tandis que pour une voiture électrique, c'est 0,02 ?. mais le surcoût à l'achat (de 5000 à 10 000 ? même avec la prime écologique de l'Etat) est tel qu'il faudra faire au moins 15 000 km par an pour amortir cette différence de prix d'achat sur la durée de vie de la voiture.

Or, on constate que la distance moyenne annuelle parcourue en voiture en France n'a cessé de diminuer depuis 30 ans et se situe à présent autour de 12 500 km par an. Même avec une aide massive et durable de l'Etat et des collectivités locales, la voiture électrique restera, pendant plusieurs années encore, plus chère que son homologue thermique.

Le deuxième grand défi est évidemment celui de l'autonomie et des infrastructures de recharge. Quand les constructeurs annoncent des autonomies de 150 km, ils raisonnent en situation de conduite idéale. Dans la réalité, les tests ont montré que l'autonomie réelle était plutôt d'une centaine de km. La plupart des études prospectives tablent sur un maximum de deux millions de voitures électriques en France en 2020 (environ 6 % du parc automobile prévu à cette date). Si ces prévisions se réalisent, la consommation de ce parc électrique devrait néanmoins représenter moins de 1 % de la consommation d'électricité en France prévue en 2020 (535 TWh selon RTE).

Si cette consommation est nocturne pendant les heures creuses, le réseau sera capable de l'absorber sans problème. Mais si les usagers utilisent massivement en journée la charge rapide qui permet en 30 minutes de récupérer 80 % de la charge totale et constitue l'argument commercial principal des constructeurs pour faire passer la faible autonomie de ces voitures, les pics de consommation seront beaucoup plus délicats à gérer.

Pour l'instant, les tests montrent que les utilisateurs de voitures électriques accomplissent en moyenne 35 km par jour et ne changent pas leur comportement. Ils rechargent leur voiture en moyenne tous les 3 jours et demi, chez eux ou au bureau dans 94 % des cas. Les bornes publiques servent surtout à les rassurer.

En outre, tout sera fait en matière tarifaire pour que les possesseurs de voitures électriques aient intérêt à effectuer le chargement de leur voiture aux heures creuses. Cette forte incitation sera rendue possible par le développement des réseaux intelligents ("smart grids") qui permettront à la voiture de communiquer avec le système d'alimentation électrique et d'ajuster la charge à la capacité de production du réseau.

L'automobiliste pourra également vérifier à distance le niveau de charge et activer chauffage ou climatisation tant que le véhicule est encore branché sur le réseau électrique.

Mais la solution au problème du rechargement et de la faible autonomie viendra peut-être des systèmes d'échanges automatiques et robotisés de batteries, comme Better Place, qui permettent en une minute de changer tout simplement de batterie comme on fait le plein d'essence !

On le voit, en attendant la prochaine génération de véhicules électriques (sur laquelle travaille notamment le CEA de Grenoble) qui auront à l'horizon 2020 une autonomie de 300 km, la voiture électrique sera pendant de longues années une voiture presque exclusivement urbaine. Elle sera soit la deuxième voiture pour des familles aisées ayant déjà un véhicule thermique, soit la voiture unique pour couples ou célibataires urbains travaillant à proximité de leur domicile.

Le troisième point concerne le "bilan carbone" des voitures électriques. Si une voiture électrique n'émet pas directement de CO2, l'électricité nécessaire à sa propulsion doit être produite par un "mix" énergétique qui contient essentiellement du nucléaire mais aussi des énergies fossiles (centrales thermiques ) particulièrement sollicitées en périodes de pointes de consommation. Selon l'ADEME, le bilan carbone d'une voiture électrique est donc, en moyenne, de 126 grammes de CO2 par km, contre 161 grammes pour un véhicule thermique. La différence n'est donc pas considérable en termes d'émissions de gaz à effet de serre.

Il faut enfin souligner que la voiture « tout électrique » va objectivement se trouver en concurrence avec la nouvelle génération de véhicules hybrides rechargeables qui consomment moins de trois litres au cent et ont une autonomie trois à quatre fois plus grande.

La généralisation du véhicule tout électrique en ville au cours des 20 prochaines années est d'abord un défi politique et culturel qui suppose un très fort volontarisme de l'État et des collectivités locales mais également un changement profond de nos comportements en matière de déplacements. En outre, pour s'imposer dans les déplacements urbains, la voiture électrique devra être utilisée de manière partagée, comme un service que l'on consomme à la demande et non comme un objet dont on a la possession exclusive.

Souhaitons que nos élus nationaux et locaux prennent toute la mesure de ce défi et mettent en oeuvre des politiques cohérentes, globales et incitatives sur le long terme, tant en matière énergétique que dans le domaine des transports et de l'urbanisme.

René Trégouët

Sénateur honoraire

Fondateur du Groupe de Prospective du Sénat


TIC
Information et Communication
Le téléphone décrypte les émotions de son propriétaire
Vendredi, 08/10/2010 - 00:00

A quel moment de la journée un individu est-il le plus heureux ? Pour une équipe des universités de Cambridge et de St Andrews, il est possible de s'en remettre à son téléphone pour le savoir. Elle a développé EmotionSense, une application qui, embarquée sur un simple mobile, analyse et décrit l'état émotionnel d'un sujet. Le système intègre des capteurs et une technologie de reconnaissance vocale. Il analyse la voix de l'individu, ses intonations, mais prend également en considération l'environnement direct tant physique que sonore. "Nous ne nous travaillons pas seulement sur une émotion basée sur un appel téléphonique, mais aussi sur le comportement de personnes qui se trouvent à proximité de l'appareil, que ce soit dans un pub ou à l'occasion d'une réunion de travail", explique Mirco Musolesi, responsable du projet.

Les informations recueillies sont ensuite croisées par Bluetooth, et grâce à un système de GPS en temps réel, avec l'endroit depuis lequel les appels ont été passés. L'ensemble est ensuite comparé avec une base de données composée de quatorze échantillons vocaux pré-enregistrés et traduisant toute une palette d'émotions comme la peur, l'ennui, la colère, la joie ou bien encore la tristesse. Pour protéger la vie privée de l'utilisateur, les informations récoltées peuvent être détruites juste après avoir été traitées. Les scientifiques ont testé cette solution pendant dix jours en début d'année, sur un panel de dix-huit personnes, équipées d'un Nokia 6210 Navigator. Il était demandé à chacune d'entres elles de tenir un journal de leur journée.

Et dans 70 % des cas, les conclusions écrites des sujets ont corroboré celles du programme EmotionSense. Premiers résultats significatifs de ce test : les sujets sont plutôt contents lorsqu'il sont chez eux. A contrario, le lieu de travail a plutôt tendance à générer des sentiments négatifs, comme la tristesse ou la mélancolie. Ils sont également plus versés à exprimer leurs émotions de manière démonstratives dans les petits groupes que lors de rassemblements plus importants. Un tel programme, dont l'installation se révèle peu coûteuse, car elle ne nécessite aucune modification dans la partie hardware du téléphone, pourrait trouver de multiples champs d'applications dans les études comportementales comme la prévention des états dépressifs, ou l'amélioration du bien-être en général.

Atelier

Financement de la fibre optique : les pistes envisagées
Vendredi, 08/10/2010 - 00:00

A l'occasion des 4èmes Assises du Très Haut Débit en juin dernier, le sénateur Maurey, en charge de trouver les moyens de financer le déploiement des réseaux FTTH, a fait un point sur les solutions envisageables. Il faut dire que le compte n'y est pas. 30 milliards d'euros, c'est au bas mot ce que coutera ce déploiement afin de tenir les objectifs hautement ambitieux du gouvernement : 75 % de la population couverte en 2020 et 100 % en 2025...

Inutile donc de préciser que l'apport de l'Etat (2 milliards d'euros tirés du grand emprunt et 8 à 10 milliards supplémentaires sur 15 ans) sera nettement insuffisant pour financer le projet. Déjà, le sénateur plaidait pour une solution pas vraiment populaire. "Avec toute la volonté du monde, en intégrant l'apport des fonds européens ou des collectivités locales, le financement ne sera pas bouclé. On réfléchit donc à d'autres pistes comme l'augmentation des abonnements ADSL. Les prix n'ont pas bougé depuis des années et je pense qu'il serait acceptable pour les usagers de débourser par exemple 2 euros de plus par mois. Une telle mesure dégagerait environ 600 millions d'euros par an".

Selon Hervé Maurey, il faudrait trouver entre 600 et 700 millions d'euros par an pour couvrir 98 % du territoire en fibre. Malgré la hausse de la TVA sur les abonnements triple play, qui feront mécaniquement augmenter leurs prix, ce choix semble se confirmer aujourd'hui. Mais pour rendre cette augmentation moins douloureuse, elle serait également appliquée à la téléphonie mobile et fixe. Cette solution serait préférable à une éventuelle taxe supplémentaire sur le chiffre d'affaires des opérateurs télécoms, estime le sénateur.

ZDnet

Google veut changer les images du Web
Vendredi, 08/10/2010 - 00:00

Google vient d'annoncer qu'il développait en interne un nouveau format d'image pour le Web. Baptisé WebP (prononcez weppy), ce nouveau format « avec perte » repose sur le moteur de compression vidéo maison, V8, et réduirait de façon substantielle la taille des images sur le Web, donc la vitesse de chargement des pages. D'après Google, les images et les photos représenteraient en effet 65 % des données transférées sur le Web chaque jour !

Sur un échantillon de 1 million d'images (Jpeg, PNG et GIF), Google a estimé que sa nouvelle technique de compression avait réduit en moyenne le poids de celles-ci de 39 %. « La plupart des formats d'image communs sur le Web ont été établis il y a une décennie et sont basés sur les technologies dont on disposait à l'époque », indique Richard Rabbat, chef de produit Google. Une précision qui permet de comprendre ce que le géant du Web a en tête : supplanter les formats actuels...

Pour l'instant, WebP est encore embryonnaire : Google fournit seulement une preview pour les développeurs (sous Linux seulement) qui voudraient convertir leurs images en WebP et obtenir un retour. L'entreprise a également mis en ligne une galerie permettant de comparer les images aux formats Jpeg et WebP. Si les différences ne sont guère visibles à l'oeil, on peut cependant constater que les images WebP gagnent en légèreté.

Attention cependant : comme il n'existe aucun navigateur capable de lire du WebP pour l'instant, ces images sont compressées en WebP puis « encapsulées » au format PNG... donc souvent plus lourdes que les originales ! Cette galerie ne sert en effet qu'à vérifier la qualité des images en WebP.

Reste à savoir si Google rencontrera le succès là où bien d'autres formats ont échoué, faute de standardisation...

O1Net

^ Haut
Avenir
Nanotechnologies et Robotique
Projet ALIAS : les robots facilitent la communication entre les personnes âgées
Vendredi, 08/10/2010 - 00:00

Une vidéoconférence avec les petits-enfants, une partie d'échec en ligne avec les anciens collègues ou un appel d'urgence : le robot ALIAS doit faciliter la communication entre les personnes âgées. Des scientifiques de l'Université technique (TUM) de Munich (Bavière) veulent programmer les robots pour qu'ils rendent les médias, a priori complexes, faciles d'accès aux seniors. Le but est de permettre aux personnes âgées, qui restent constamment à domicile, de garder des contacts sociaux, de continuer à entraîner leurs capacités cognitives et ainsi d'éviter toutes formes d'isolation.

Le robot ALIAS, pour "Adaptable ambient LIving ASsistant", doit être capable d'aider dans toutes les situations. Par exemple, si le robot reçoit comme ordre "Appelle ma fille !", il doit automatiquement mettre en contact les personnes concernées. Aujourd'hui, le robot ALIAS, développé par les chercheurs de la TUM, possède une tête, un visage, des roues et un ordinateur central.

Il sera équipé l'année prochaine de différents logiciels et d'éléments de service, pour convaincre que les "robots sociaux" aideront l'Europe face aux défis du changement démographique. Le coordinateur du projet, Frank Wallhoff de la chaire de communication homme-machine à la TUM, explique que "beaucoup de personnes âgées veulent rester vivre le plus longtemps possible chez elles, même lorsque leurs capacités physiques ou mentales se détériorent. Naturellement, ils veulent aussi garder contact avec les membres de leur famille, leurs amis ou les établissements de leur quartier. Nous voulons améliorer au quotidien leur capacité de communication et ainsi leur autonomie".

Le projet Alias doit également permettre l'accès aux réseaux sociaux ainsi qu'aux tchats. Envoyer une carte électronique ou se mesurer à un jeu en ligne doit devenir un jeu d'enfant. Sur ordre, le robot peut commencer la lecture d'un journal à haute voix ou le traduire dans une autre langue. Tout cela est rendu possible en partie grâce à un logiciel de reconnaissance vocale et un écran tactile avec des champs de grande taille, les souris et les téléphones ont été évités à cause de leur petite taille. Par la suite, pourra être développé un système de surveillance de santé sans fil et pilotable à distance.

BE

^ Haut
Matière
Matière et Energie
Energie éolienne : plus de 2 % de la production mondiale d'électricité fin 2010
Vendredi, 08/10/2010 - 00:00

Avec 40 GW de parcs éoliens supplémentaires prévus cette année, la puissance éolienne totale au niveau mondial devrait atteindre près de 200 GW fin 2010, marquant une nouvelle accélération, selon les prévisions du GWC, présentées par son président Steve Sawyer, lors du salon Husum WindEnergy, en Allemagne, grand rendez-vous annuel du secteur. En production, cela devrait correspondre à 420 térawatts-heures, soit environ 2,2 % de la production mondiale d'énergie (19.000 TWh).

Les Etats-Unis, qui avaient installé un montant record de 10 GW d'éolien en 2009, ont nettement ralenti cette année, conséquence de la crise financière qui a freiné les commandes et les financements. Mais ce recul sera plus que compensé par la Chine, qui a encore accéléré par rapport aux 13 GW installés en 2009, tandis que le marché européen (+10,5 GW en 2009) gardera lui le même rythme d'augmentation.

Le GWEC prévoit que les capacités éoliennes mondiales doubleront d'ici 2014, atteignant plus de 400 GW, surtout tirées par la Chine, les Etats-Unis et l'Europe, mais aussi par de nouveaux pays qui rejoignent les leaders.

La moitié de la croissance éolienne mondiale vient désormais des pays émergents, avec un essor en Amérique Latine, surtout au Brésil, Mexique et Chili, ainsi qu'en Afrique du Nord et Afrique sub-saharienne, selon le GWEC. Et pour l'avenir, le GWEC évoque 1.000 GW en 2020 à 2.300 GW en 2030 -- ce qui représenterait près de 10% de l'énergie mondiale.

GU

La technologie photovoltaïque CIGS à film mince arrive à maturité
Vendredi, 08/10/2010 - 00:00

La certification UL des modules photovoltaïques CIGS souples du californien SoloPower qui est une première pour l'industrie du photovoltaïque, annonce un avancée importante pour l'énergie solaire en réduisant les coûts et en facilitant les installations.

"En tant que gouverneur, je me suis fait un point d'honneur de transformer la Californie en chef de file écologique avec une empreinte globale. Les avancées de SoloPower démontrent que la Californie est à la pointe de l'innovation technologique pour l'économie verte, a expliqué le gouverneur Arnold Schwarzenegger. Nous nous réjouissons de ce type d'innovation qui crée des emplois, fortifie l'économie et aide à protéger l'environnement", a-t-il déclaré à l'occasion de la certification UL (Underwriters Laboratories Inc) du premier module souple haute puissance CIGS cuivre indium, gallium et sélénium)

"La certification du module souple CIGS de SoloPower est une étape importante vers la réalisation de modules solaires légers, souples et à haute puissance, ayant le potentiel d'étendre le marché du solaire en toiture et de réduire les coûts d'installation et fournitures. Elle constitue un grand pas pour l'industrie. Ayant fait carrière depuis 30 ans dans le photovoltaïque CGIS à film mince au NREL (National Renewable Energy Laboratory), je suis très satisfait de voir cette technologie arriver à maturité", déclare le Dr Rommel Noufi, scientifique principal du National Renewable Energy Laboratory.

Alors que les cellules solaires rigides au silicium ont une épaisseur de l'ordre de 150 µm, celle des cellules souples CIGS est comprise entre 1 et 4 µm. De plus, la technologie CIGS offre un rendement maximum de 19,9 % au lieu de 12,2%. Autre avantage et non des moindres : les coûts de fabrication. Alors que le filière classique au silicium fait appel à des technologies de fabrication onéreuses calquées sur celles de l'industrie électronique, SoloPower a mis au point et breveté un procédé de dépôt électrolytique en continu, particulièrement économique, basé sur des transporteurs à rouleaux couplés, commandés par chaînes.

La certification UL a été accordée à la suite d'essais rigoureux dans un laboratoire indépendant. Les modules à film mince de SoloPower ont été testés avec UL 1703, la norme de référence pour la sécurité dans la fabrication des modules photovoltaïques. En plus de cette confirmation, SoloPower qui a été également le premier fabricant à obtenir la certification UL pour des modules rigides basés sur des cellules CIGS souples en juin 2009, a lui-même effectué des essais poussés à l'interne qui excèdent de beaucoup les normes de sécurité, de qualité et de fiabilité établies par ces tests.

TI

Combiner solaire photovoltaïque et thermique !
Vendredi, 08/10/2010 - 00:00

Vous connaissiez le photovoltaïque ? Vous connaissiez aussi le solaire thermique ? Des chercheurs de Stanfordveulent coupler ces deux procédés. Leur but : convertir en électricité l'énergie solaire avec un rendement supérieur à 50 %. Explications. D'un côté, le photovoltaïque. Il utilise un semiconducteur - souvent le silicium - pour convertir l'énergie des photons en électrons. Mais les cellules n'exploitent qu'une portion du spectre lumineux. Le reste de l'énergie étant dissipé sous forme de chaleur.

De l'autre côté, le solaire thermique. Des concentrateurs solaires chauffent un fluide pour produire de l'électricité avec une turbine. Les chercheurs de Standford veulent combiner ces deux procédés, en exploitant simultanément la lumière et la chaleur du soleil. Ils proposent d'inclure une cellule photovoltaïque dans un concentrateur solaire. La lumière frapperait la cellule. Excitant les électrons, elle génèrerait un courant, donc de l'électricité. C'est le principe de toute cellule photovoltaïque. Mais, en plus, la chaleur dissipée serait - elle aussi - valorisée en électricité grâce un fluide caloporteur et une turbine. Comme dans le solaire thermique.

Pour cela, la cellule photovoltaïque doit résister à de fortes températures. Plus de 200°C dans le projet de Sandford. Pour leurs premiers tests, les chercheurs ont utilisé du nitrure de gallium comme semi-conducteur et l'ont couvert de césium. Les premiers essais auraient prouver la faisabilité du procédé. Les chercheurs veulent désormais identifier le meilleur semiconducteur, probablement de l'arséniure de gallium, pour grimper à 50 %, voire 60 % de rendement.

IT

^ Haut
Espace
Espace et Cosmologie
Découverte d'une exoplanète potentiellement habitable
Vendredi, 08/10/2010 - 00:00

Des astronomes américains viennent de découvrir une première planète tournant autour d'une naine rouge qui pourrait bien héberger certaines formes de vie. Située à 20 années-lumière de la Terre, Gliese 581g, cette exoplanète qui tourne autour d'une étoile trois fois moins massive que le Soleil, est d'une taille très semblable à celle de la Terre (avec un rayon de 1,2 à 1,5 fois celui de la Terre).

Sa masse, de trois à quatre fois celle de la Terre, indique qu'il s'agit probablement d'une planète rocheuse qui génère une gravité suffisante (égale ou légèrement supérieure à celle de la Terre) pour maintenir une atmosphère autour d'elle et «qui permettrait à une personne de marcher debout à sa surface», souligne Steven Vogt, astronome à l'Université de Californie à Santa Cruz, qui a participé à cette découverte en collaboration avec des collègues de l'Institut Carnegie de Washington.

Mais surtout, cette exoplanète est située ni trop loin ni trop près de son étoile, au milieu de la zone dite habitable où il ne fait ni trop chaud ni trop froid. Pour qu'une planète soit considérée comme habitable, la température qui y règne doit permettre la présence d'eau liquide et la gravité doit y être suffisante pour retenir une atmosphère - contenant des gaz à effet de serre - autour d'elle. Deux critères que remplit Gliese 581g, font remarquer les découvreurs dans la dernière édition de l'Astrophysical Journal.

Gliese 581g tourne autour de son étoile le long d'une orbite circulaire, mais comme la Lune par rapport à la Terre, elle présente toujours le même côté à son étoile, qui est ainsi perpétuellement exposé à la lumière du jour et est très chaud. Son autre côté est par contre plongé en permanence dans l'obscurité et est probablement glacial. La zone la plus favorable à la vie se situerait donc à la jonction entre ces deux hémisphères. Gliese 581g est la seule des six planètes détectées autour de l'étoile Gliese 581 à se retrouver dans la zone habitable.

Les étoiles que les astronomes scrutent dans l'espoir de découvrir de nouvelles exoplanètes sont très près de notre Soleil. Elles se situent tout au plus à une centaine d'années-lumière du Soleil, qui lui se trouve à 30 000 années-lumière du centre de notre galaxie, la Voie lactée, qui contient principalement des étoiles naines, comme la Gliese 581, dont la masse ne représente généralement que le tiers de notre Soleil.

NASA

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
16 grandes entreprises s'engagent à réduire les consommations d'énergie
Vendredi, 08/10/2010 - 00:00

Seize grandes entreprises françaises, représentant 2 millions d'employés dans le monde, ont présenté mercredi 29 septembre 2010 un programme d'actions concrètes et mesurables pour réduire les consommations d'énergie de leurs bureaux.

Cet engagement, initié par l'association EpE (Entreprises pour l'Environnement), se traduit par la signature du Manifeste pour l'efficacité énergétique des bâtiments du World Business Council for Sustainable Development (WBCSD. Les dirigeants d'Air France, AXA, BeCitizen, BNP Paribas, Caisse des Dépôts, Ciments Calcia, EDF, Eiffage, GDF-Suez, Lafarge, La Poste, RATP, Saint-Gobain, Schneider Electric, Société Générale et Solvay se sont ainsi engagés à définir et mettre en oeuvre un programme d'actions concrètes et mesurables pour réduire les consommations d'énergie de leurs bâtiments tertiaires.

Cette démarche illustre la dynamique actuelle du Grenelle Environnement, notamment dans le domaine de l'efficacité énergétique du bâtiment : 130 000 éco-prêts à taux zéro accordés, rénovation programmée de 45 000 logements sociaux, très fort développement des « Bâtiments Basse Consommation », retrait de la vente des systèmes d'éclairage les plus consommateurs d'énergie, audit énergétique de tous les bâtiments de l'État, ...

Cette dynamique s'accélère encore par la mise en oeuvre des mesures prévues par la loi « Grenelle 2 » adoptée en juillet 2010 : mise en place du Bail Vert, généralisation des contrats de performance énergétique, affichage de la performance énergétique dans les annonces immobilières, ...

Pour Jean-Louis Borloo : « La France est aujourd'hui considérée comme le pays le plus dynamique, le plus innovant et le plus ambitieux en matière de réduction des consommations d'énergie des bâtiments, qui représentent plus de 40 % de la consommation totale d'énergie. Je félicite les entreprises qui s'engagent aujourd'hui pour réduire leurs consommations d'énergie : il s'agit d'une nouvelle contribution significative au Grenelle Environnement ».

Jean-Louis Borloo a annoncé à cette occasion l'ouverture d'une concertation avec l'ensemble des acteurs concernés pour définir d'ici fin 2011, secteur par secteur et en tenant compte de chaque situation particulière, les objectifs de réduction des consommations d'énergie des bâtiments tertiaires à l'horizon 2020, comme le prévoit la loi « Grenelle 2 ». Cette concertation sera menée par Philippe PELLETIER, à qui le Gouvernement a confié la mission d'animer le Plan Bâtiment du Grenelle Environnement.

MDD

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Un coeur artificiel implanté sur un adolescent
Vendredi, 08/10/2010 - 00:00

Un coeur artificiel permanent a été implanté pour la première fois au monde sur un adolescent de 15 ans à l'hôpital de l'Enfant-Jésus de Rome, a rapporté l'agence italienne Ansa. L'intervention chirurgical, qui a duré 10 heures, a été effectuée par l'équipe de cardiochirurgie de l'hôpital, dirigée par Antonio Amodeo. La nouveauté principale réside dans le fait que l'implantation n'est pas temporaire, comme cela se fait d'habitude, mais permanente.

Selon les experts, le coeur artificiel temporaire est utilisé habituellement pour aider les malades en attente d'un coeur compatible pour une transplantation. Cette fois-ci, les cardiologues romains ont préféré implanter un coeur artificiel permanent. Le coeur artificiel utilisé, d'une longueur de quatre centimètres, a été inséré dans le ventricule gauche du patient. Il s'agit d'une pompe hydraulique activée électriquement qui a été entièrement implantée dans le thorax pour éviter les risques d'infection.

L'alimentation électrique de l'appareil se fait à travers une fiche placée derrière l'oreille gauche de l'adolescent, à laquelle est reliée la batterie que le patient porte autour de la ceinture. Jusqu'à présent, ce type d'intervention avait été réalisé seulement sur des adultes. La particularité de l'intervention réside dans le caractère peu invasif de l'appareil et les modalités d'alimentation qui réduisent les risques d'infection. Selon l'équipe médicale, l'adolescent est affecté d'une maladie qui l'empêchait d'être inscrit sur la liste d'attente pour un transplant, d'où le choix d'une solution "permanente".

AFP

Paludisme en Afrique : un vaccin pourrait être disponible à partir de 2015
Vendredi, 08/10/2010 - 00:00

Un vaccin efficace pour la première fois contre le paludisme pourrait être disponible en Afrique à partir de 2015, a annoncé un de ses inventeurs, Joe Cohen, lors d'une conférence à Washington .

La phase 3 des essais cliniques du vaccin RTS,S contre le Plasmodium falciparum, le plus meurtrier des parasites à l'origine du paludisme, est en cours dans sept pays d'Afrique et se passe "très bien", a indiqué Joe Cohen, chercheur des laboratoires britanniques GlaxoSmithKline (GSK), qui se consacre depuis vingt ans à l'élaboration d'un vaccin et qui participe à Washington à une conférence sur le sujet.

"Nous pensons que nous aurons les premières données relatives à ces essais en 2012, et pour faire court, nous pourrions commencer à l'utiliser en Afrique entre 2015 et 2016", a-t-il dit. 12.000 enfants participent à la phase 3 des essais cliniques au Burkina Faso, Gabon, Ghana, Kenya, Malawi, Mozambique et Tanzanie, auxquels doivent prendre part au total 16.000 enfants. Les enfants doivent être en bonne santé et seront suivis pendant 32 mois, a expliqué Kwaku Poku Asante, un épidémiologiste ghanéen.

Les résultats de la phase 2 des essais de ce vaccin, publiés en 2008, ont montré une efficacité de 53 % chez les jeunes enfants et de 65 % chez les nourrissons, deux groupes particulièrement menacés par la maladie. RTS,S pourrait "sauver plusieurs centaines de milliers de vies en Afrique", même s'il n'est que partiellement efficace contre la maladie, selon son co-inventeur Joe Cohen.

Quelque 200 personnes décèdent du paludisme (appelé aussi malaria) chaque heure, et les premières victimes sont les enfants africains, selon les organisateurs de la conférence.

"Nous devons penser à l'avenir et réfléchir à un meilleur vaccin de seconde génération, qui sera efficace à 80 %", a ajouté M. Cohen. "Ce vaccin pourrait cibler des parasites qui sont répandus ailleurs, comme en Asie et en Amérique du Sud, où prédomine le Plasmodium vivax". Près de 900.000 personnes, principalement en Afrique, meurent chaque année du paludisme, dû à un parasite transmis par un moustique, l'anophèle femelle.

AFP

Diabète : Nouvelles avancées pour la thérapie cellulaire
Vendredi, 08/10/2010 - 00:00

Après la réussite d'une greffe de cellules pancréatiques chez un premier patient atteint de diabète de type 1 sévère en 2004 et la confirmation en 2009 des résultats favorables de cette technique au long cours dans un essai clinique, l'unité Inserm 859 "Biothérapies du diabète" dirigée par François Pattou (Université de Lille-Nord de France, CHRU de Lille) rend compte de deux nouvelles avancées.

Pour la première fois, l'équipe lilloise démontre la survie et la fonction des cellules pancréatiques greffées par simple injection dans le muscle. Grâce à cette technique originale, les chercheurs sont aussi parvenus à visualiser les cellules greffées avec une nouvelle technique d'imagerie non invasive. Une lettre dans The New England Journal of Medicine du 23 septembre 2010 explique ces résultats.

Le diabète de type 1 est lié à la destruction des cellules du pancréas responsables de la sécrétion d'insuline (îlots de Langerhans). Chez les patients atteints des formes les plus sévères de cette maladie, la thérapie cellulaire ou greffe d'îlots pourrait représenter une alternative aux injections pluriquotidiennes d'insuline.

Les cellules sont généralement transplantées dans le foie. Chez une patiente devenue diabétique après l'ablation d'une lésion du pancréas, l'équipe lilloise a cette fois réimplanté les cellules dans le muscle de l'avant bras. Un an plus tard, les chercheurs ont confirmé la fonction des cellules greffées et démontré la sécrétion d'insuline dans le bras.

En collaboration avec l'équipe de Freiburg (Allemagne), les chercheurs de l'Unité Inserm 859 sont également parvenus à visualiser les cellules greffées à l'aide d'une nouvelle scintigraphie utilisant un radiomarqueur spécifique. Il s'agit de la première démonstration chez l'homme de la possible détection sélective et non invasive des cellules sécrétrices d'insuline.

Ces résultats constituent une avancée significative dans deux domaines importants de la recherche sur le diabète : la thérapie cellulaire et l'imagerie non invasive des cellules sécrétrices d'insuline. "Les résultats obtenus chez ce premier patient confirment les espoirs nés des études expérimentales de notre équipe. Ils nous permettent maintenant d'envisager un essai clinique à plus large échelle" explique François Pattou.

Inserm

La biophotonique contre Alzheimer, la septicémie et le cancer
Vendredi, 08/10/2010 - 00:00

"Les technologies optiques sont porteuses d'avenirs dans les techniques médicales" : tel fut le constat majeur lors du 6ème symposium "La lumière pour la santé", qui a eu lieu du 23 au 24 septembre 2010 à Ulm (Bade-Wurtemberg). Annette Schavan, ministre fédérale de l'enseignement et de la recherche, ainsi que 200 médecins, naturalistes, économistes et spécialistes des sciences actuelles ont pu s'informer sur les nouvelles technologies optiques contre Alzheimer, la septicémie et le cancer.

La recherche en biophotonique travaille d'une part sur le traitement des maladies avancées grâce à la médecine préventive et d'autre part sur le développement de thérapies encore plus efficaces. Son but est d'utiliser les technologies optiques pour comprendre les causes des maladies, établir un diagnostic clair et précis, proposer un traitement adapté et si possible soigner les patients.

Annette Schavan a rappelé l'importance et le rôle de la biophotonique dans les traitements de demain : "Traiter la maladie à la racine au lieu d'atténuer les symptômes, c'est dans cette optique que le ministère fédéral pour l'éducation et la recherche (BMBF) investit".

Un projet de recherche, coordonné par l'entreprise R-Biopharm de Darmstadt (Hesse), vise à identifier rapidement les germes dans les liquides de perfusion et les liquides corporels. L'utilisation de cette méthode permettrait de traiter en un temps assez court les septicémies potentiellement létales et ainsi diminuer le taux de mortalité qui reste aujourd'hui relativement haut.

De nombreux espoirs contre la maladie d'Alzheimer sont portés par une nouvelle méthode qui détecte les signes avant-coureurs dans le fond de l'oeil. La société Carl Zeiss et ses partenaires proposent de scanner le cristallin et la rétine du patient grâce à un laser inoffensif pour le patient.

L'entreprise Karl Storz a présenté une méthode endoscopique qui détecte les foyers cancéreux d'un millimètre de diamètre seulement. Les sondes fluorescentes rendent les cellules infectées lumineuses. La méthode évite ainsi la quasi-systématicité de l'intervention chirurgicale, bien avant que le patient ne ressente les premiers signes. Le président du symposium et membre de l'Institut pour les technologies photoniques (IPHT) de Jena (Thuringe), explique que "la mise en réseau des chercheurs, médecins et industriels est le facteur clé pour réussir à valoriser les résultats scientifiques".

BE

Des cellules immunitaires artificielles capables de détruire les tumeurs de l'intérieur
Vendredi, 08/10/2010 - 00:00

Une équipe de chercheurs du groupe Hayashibara a identifié des cellules capables de s'introduire dans les cellules cancéreuses et de les tuer. La confirmation d'un tel phénomène est une première. Le groupe Hayashibara est une entreprise japonaise de biotechnologie dont les activités couvrent la pharmacie, la cosmétique et l'agro-alimentaire.

En 2006, des chercheurs de la division de recherche du groupe ont découvert des cellules qu'ils ont baptisées HOZOT. Ces cellules ont été obtenues en mettant en culture des cellules humaines de sang de cordon ombilical avec des cellules stromales de souris. Elles possèdent des propriétés analogues à celles de plusieurs types de leucocytes : elles sont cytotoxiques (capables de détruire d'autres cellules, notamment les cellules cancéreuses ou infectées par un virus) et elles sont également capables de réguler l'activité du système immunitaire.

Pour étudier plus avant les propriétés cytotoxiques des cellules HOZOT, les chercheurs les ont mises en cultures avec des cellules de cancer du colon-rectum. Ils ont alors observé l'apparition de cellules atypiques, semblant posséder deux ou trois noyaux. Après examen, il s'est avéré que les cellules HOZOT avaient pénétré entièrement dans les cellules cancéreuses.

Des expériences supplémentaires ont montré que les cellules HOZOT étaient susceptibles d'entrer activement dans divers types de cellules cancéreuses mais en revanche pas dans des cellules saines. Par la suite, les chercheurs ont observé que de deux à quatre heures après la mise en culture, les cellules HOZOT ont commencé à mourir, suivies quelques heures plus tard par les cellules cancéreuses qui les contenaient. Si les mécanismes exacts de ce phénomène n'ont pas encore pu être explicités, les chercheurs supposent que les cellules HOZOT relâchent des protéines cytotoxiques (comme la perforine ou les granzymes) dans les cellules cancéreuses, les détruisant ainsi de l'intérieur.

Le groupe Hayashibara suggère deux applications possibles à l'oncologie : la fabrication de cellules HOZOT à partir du sang de cordon des patients cancéreux pour attaquer directement les tumeurs, ainsi que l'utilisation de ces mêmes cellules comme vecteurs permettant de transporter des médicaments anti-cancéreux directement à l'intérieur des cellules malades. Il espère commencer la recherche clinique d'ici cinq à 6 ans.

BE

Cancer : une nouvelle approche théorique
Vendredi, 08/10/2010 - 00:00

Dans les tumeurs cancéreuses épithéliales, les cellules anormales sont entourées d'un tissu, le stroma, formé de cellules de soutien, des fibroblastes modifiés, infiltrés de vaisseaux sanguins qui apportent les sucres, les acides aminés et l'oxygène nécessaires à la croissance de la tumeur. Il est bien établi que ce stroma participe au maintien des tumeurs. Mais jusqu'à quel point ?

L'équipe de Michael Lisanti, de l'Université Thomas Jefferson, à Philadelphie, propose une idée iconoclaste : en s'autodigérant sous l'influence des cellules cancéreuses, et en fournissant ainsi à ces dernières des nutriments et de l'énergie, les cellules stromales serviraient de carburant à la croissance tumorale.

Les cellules cancéreuses, même alimentées en oxygène par la circulation sanguine, ont un métabolisme énergétique différent des cellules normales. Pour produire de l'énergie, sous forme d'ATP (adénosine triphosphate), elles transforment le glucose en lactate par une série de réactions chimiques qui constituent la glycolyse.

Elles produisent ainsi deux molécules d'ATP par molécule de glucose consommée, et cela malgré la présence d'oxygène. En revanche, la plupart des cellules normales utilisent l'oxygène pour produire leur ATP dans des organites nommées mitochondries, par un mécanisme nommé phosphorylation oxydative : le glucose est d'abord transformé dans le cytoplasme en pyruvate, qui entre dans les mitochondries où il subit un cycle de transformation en énergie et en dioxyde de carbone.

Ainsi, l'absence de respiration observée dans les cellules cancéreuses s'expliquerait par une reprogrammation métabolique décrite en 1924 par le chimiste allemand Otto Warburg, prix Nobel en 1931. L'importance physiologique de cet « effet Warburg » est toutefois controversée, car certaines tumeurs apparaissent capables de respiration mitochondriale ; le métabolisme énergétique varierait selon le type de tumeurs, voire selon leur stade d'évolution, les gènes qui y sont exprimés et le micro-environnement tumoral.

En outre, Michael Lisanti et ses collègues suggèrent qu'en fait, l'effet Warburg a lieu non pas dans les cellules cancéreuses, mais dans les cellules du stroma, selon un « effet Warburg inverse ». Le déclencheur serait une mutation qui empêche la synthèse d'une protéine des fibroblastes, la cavéoline 1. L'absence de cette protéine est associée à un mauvais pronostic chez les patients atteints de cancer du sein ou de cancer de la prostate.

D'après les analyses réalisées sur des tissus de souris rendues incapables de produire la cavéoline, l'équipe de Philadelphie suggère le mécanisme suivant : l'absence de la cavéoline 1 activerait la production de métabolites, tel l'ADMA (diméthylarginine asymétrique), qui entraîneraient un stress oxydatif, c'est-à-dire la production de molécules oxydantes, tels les radicaux libres. Les cellules cancéreuses induiraient aussi directement un stress oxydatif dans les cellules stromales voisines, dont une des conséquences serait la perte de cavéoline.

Le stress oxydatif endommagerait les mitochondries, poussant les cellules stromales à les « digérer » (mitophagie) et à se digérer (autophagie). Cette digestion serait facilitée par la surproduction d'un facteur chimique, HIF1-alpha (hypoxia factor 1), elle-même stimulée par celle d'un microARN sous l'effet du manque de cavéoline. Privées de mitochondries, les cellules stromales seraient contraintes d'utiliser la glycolyse pour produire l'énergie vitale (effet Warburg inverse). Finalement, les produits de l'autophagie des cellules stromales et de la glycolyse (acides aminés, nucléotides, métabolites énergétiques) seraient réutilisés par les cellules cancéreuses adjacentes pour produire leur énergie, par phosphorylation oxydative cette fois, ce qui rendrait possible leur prolifération.

L'hypothèse tient debout, estime Rodrigue Rossignol, chercheur en métabolisme cellulaire au Laboratoire Physiopathologie mitochondriale (INSERM U688), à Bordeaux. « Plusieurs résultats ont montré que l'effet Warburg et la production d'énergie par les mitochondries varient selon les tumeurs ; l'effet Warburg inverse complèterait les possibilités d'adaptation des cellules cancéreuses, de façon peut-être comparable au soutien qu'apportent les cellules gliales aux neurones dans le cerveau.

Toutefois, le mécanisme décrit suggère la présence d'un stress oxydatif important qui pourrait altérer les composants de fibroblastes "digérés", d'autant plus que l'autophagie détruit les protéines, les lipides et les acides nucléiques ; comment ces composés sont-ils sauvegardés d'une destruction complète ? L'autophagie est-elle incomplète ? » Pour les chercheurs américains, ce modèle demandera une validation expérimentale plus poussée, mais peut déjà servir de base rationnelle à de nouveaux développements thérapeutiques visant à inhiber l'autophagie du stroma, par exemple en ciblant la molécule ADMA, HIF1-alpha ou le stress oxydatif.

PLS

Gènes maternels et paternels ne sont pas à égalité
Vendredi, 08/10/2010 - 00:00

En dépit des défenseurs de l'égalité des sexes, la transmission des caractères héréditaires de deux parents à leur progéniture n'est pas de même nature. Lors de la conception d'un embryon, les gènes de la mère, contenus dans l'ovule, et ceux du père, provenant du spermatozoïde, se combinent pour former un nouveau génome.

Mais, contrairement à une idée reçue, leur répartition n'est pas forcément homogène, et certains gènes gardent en quelque sorte une "mémoire" de leur origine paternelle ou maternelle : c'est ce que l'on appelle "l'empreinte génomique".

Jusque-là, les biologistes considéraient que ces effets ne concernaient tout au plus qu'une centaine de gènes. Deux études récentes menées par l'équipe de Catherine Dulac - l'une de nos meilleures généticiennes formée en France et exilée à Harvard (Etats-Unis ) - révèlent l'étendue de l'empreinte génomique dans l'activité des gènes du cerveau de souris des deux sexes, au stade embryonnaire et chez l'adulte.

Les chercheurs ont ainsi repéré plus de 1300 gènes présentant un biais parental dans leur expression : la version paternelle ou maternelle pouvant être réduite au silence total, ou son activité fortement diminuée. Ces inégalités diffèrent selon les stades de développement. Chez l'embryon, ce sont les allèles maternels qui s'expriment ; chez l'adulte, ce sont les allèles paternels ; et ceci, quel que soit le sexe de l'animal. On peut faire l'hypothèse que l'empreinte soit une conséquence d'un conflit parental sur l'allocation des ressources à la progéniture.

L'expression de ces gènes à empreinte est principalement détectée dans l'hypothalamus et le cortex préfrontal, deux régions associées aux comportements affectifs et à la gestion des fonctions animales (boire, manger, dormir, se reproduire).

Enfin, les souris femelles expriment préférentiellement les allèles maternels des gènes localisés sur le chromosome sexuel X. Elles ont également un plus grand nombre de gènes à empreinte sur les autosomes (chromosomes non sexuels). Ces derniers résultats révèlent un nouveau mécanisme impliqué dans le dimorphisme sexuel.

L'ensemble de ces travaux constitue une piste neuve, qui s'annonce féconde. Une régulation épigénétique des fonctions cérébrales pourrait jouer un rôle majeur dans l'origine de certaines affections neurologiques.

Express

Découverte d'un gène associé à une forme courante de migraine
Vendredi, 08/10/2010 - 00:00

Une étude internationale conduite par des chercheurs de l'Université de Montréal et de l'Université d'Oxford a abouti à l'identification d'un gène associé à une forme courante de migraine.

Cette recherche a en effet permis de découvrir qu'une mutation dans le gène KCNK18 inhibe la fonction d'une protéine nommée TRESK qui joue normalement un rôle essentiel dans la communication entre les cellules nerveuses. Publiés dans Nature Medicine, les résultats de cette étude pourraient être riches de conséquences pour les personnes souffrant de céphalées récurrentes.

Jusqu'à présent, seuls les gènes de la migraine accompagnée d'une faiblesse motrice unilatérale avaient été identifiés. « Nous nous sommes intéressés aux formes les plus fréquentes de migraine, c'est-à-dire aux migraines non accompagnées de faiblesse musculaire, et avons étudié les gènes chargés du contrôle de l'excitabilité cérébrale », explique Ron Lafrenière, auteur principal de cette étude et directeur adjoint du Centre d'excellence en neuromique de l'Université de Montréal.

Les chercheurs ont comparé l'ADN de sujets migraineux à celle de sujets non migraineux. « Nous avons découvert une mutation dans le gène KCNK18 qui bloque la fonction TRESK parmi les membres d'une famille de sujets souffrant de migraines avec aura, poursuit Ron Lafrenière. Et avons constaté que tous les membres de cette famille sujets à ce type de migraine étaient porteurs de cette mutation. »

Les migraines avec aura sont précédées ou accompagnées de signes et symptômes sensoriels annonciateurs de la crise migraineuse (ou auras), tels que des points lumineux ou des taches noires devant les yeux ou encore des picotements dans un bras ou une jambe. La céphalée qui s'en suit peut être associée à une sensibilité à la lumière, au bruit et aux odeurs, ainsi qu'à des nausées ..

IH

Détecter la maladie de Parkinson avant l'apparition des symptômes
Vendredi, 08/10/2010 - 00:00

Deuxième maladie neurodégénérative la plus répandue après la maladie d'Alzheimer, la maladie de Parkinson détruit principalement les neurones du système nerveux central, entraînant ralentissement des mouvements, rigidité musculaire et tremblements au repos. Toutefois, la maladie touche aussi les systèmes nerveux périphériques, conduisant parfois à d'autres types de symptômes : troubles du sommeil, perte de l'odorat, chutes fréquentes, tendance à l'instabilité, constipation chronique.

En analysant des biopsies du côlon de patients atteints de la maladie, Thibaud Lebouvier, Michel Neunlist, Pascal Derkinderen et leurs collaborateurs de l'Unité Inserm 913, de l'Université et du CHU de Nantes, ont montré que chez la majorité d'entre eux, les mêmes lésions observées dans le système nerveux central se retrouvent au niveau des neurones qui sous-tendent les muqueuses de l'intestin.

Dans les neurones atteints par la maladie s'accumule une protéine, l'alpha-synucléine, qui forme des dépôts nommés corps et neurites de Lewy. Dès les années 1980, de tels dépôts avaient été observés dans les neurones intestinaux de patients atteints de troubles digestifs chroniques, et l'hypothèse d'un lien avec la maladie de Parkinson avait été émise.

Mais elle n'avait pas convaincu, faute de preuve directe. Oubliée, elle est exhumée en 2006 par un neuroanatomiste allemand, Heiko Braak. Chez cinq patients atteints de la maladie de Parkinson, il a détecté, post mortem, des neurites de Lewy dans les neurones du côlon, pour certains à un stade précoce de la maladie, avant même que les symptômes moteurs ne soient apparus. Et si le facteur environnemental à l'origine de la maladie s'introduisait dans le corps par l'intermédiaire du système nerveux de l'intestin ?

Le résultat de H. Braak a été beaucoup discuté : ses détracteurs lui reprochent le faible nombre de cas étudiés ; ses partisans rappellent que selon une étude américaine sur 20 ans, les personnes présentant une constipation chronique ont plus de risque de contracter la maladie de Parkinson.

Pour trancher, les biologistes nantais ont mis au point un protocole de biopsie du côlon du vivant du patient, et d'analyse à l'aide d'un marqueur de l'alpha-synucléine. Ils ont ainsi confirmé le résultat de H. Braak : chez 21 des 29 patients parkinsoniens testés, des neurites de Lewy ont été détectées dans les neurones de la biopsie, alors qu'aucun des 10 patients sains utilisés comme contrôle ne présentent ces anomalies. En outre, la densité de neurites de Lewy reflète le degré d'avancement de la maladie.

Les chercheurs nantais doivent à présent reproduire cette étude à grande échelle. Si leurs résultats se confirment, ils proposeront leur protocole pour diagnostiquer la sévérité de la maladie du vivant du patient et adapter son traitement en conséquence, mais aussi pour différencier la maladie de Parkinson d'autres maladies ayant des symptômes similaires. Ils espèrent en outre diagnostiquer la maladie avant l'apparition des symptômes classiques et favoriser ainsi une prise en charge précoce du patient.

Un point reste cependant en suspens : dans l'étude nantaise, la plupart des patients parkinsoniens présentant des neurites de Lewy étaient constipés. Ces troubles digestifs sont-ils dus aux anomalies du système nerveux de l'intestin, responsable de la contraction qui accompagne le transit, ou à l'atteinte du système nerveux central ?

Bien qu'autonome, le système nerveux de l'intestin est en effet connecté au système nerveux central, qui pourrait très bien être la source de son dysfonctionnement. Dans ce cas, l'intestin ne serait que le siège d'un dommage collatéral et non, comme l'envisageait H. Braak, le point d'entrée de la maladie. Des expériences sont effectuées chez l'animal pour tester cette hypothèse.

PLS

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top