RTFlash

RTFLASH Recherche & Technologie
NUMERO 513
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 23 Avril 2009
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
Les journaux cherchent le moyen de faire payer leur contenu
Quand le SMS rafraîchit la mémoire des patients
Avenir
L'assistant robot doit se plier aux habitudes de son propriétaire
Matière
L'éolien offshore participera-t-il à la future équation énergétique des Etats-Unis ?
La Suède va construire le plus grand parc éolien terrestre d'Europe
Le CEA veut réduire le coût des panneaux solaires
La Grande Bretagne parie sur l'hydroélectricité marine
Terre
Une réduction de 70 % des émissions de gaz à effet de serre peut éviter les conséquences désastreuses du réchauffement climatique
Le débit de nombreux fleuves décline dans le monde
Vivant
Cancer de la prostate : sur la piste du vaccin
Des cellules souches au secours des accidents vasculaires cérébraux
Des diabétiques traités avec leurs propres cellules souches
Un nouveau médicament original contre la toxoplasmose et le paludisme
Les fruits et légumes préviennent l'apparition du cancer colorectal...chez les non-fumeurs
La schizophrénie : des fondements neurobiologiques qui se précisent
Nouvelle voie dans le traitement des toxicomanies
Edito
Produire l'hydrogène de manière économique et écologique grâce au soleil



Le recours à l'hydrogène comme vecteur énergétique propre est l'une des solutions pour répondre aux actuels défis énergétiques. Afin de produire ce carburant du futur, l'électrolyse de l'eau figure parmi les filières "écologiques" les plus prometteuses. Principal écueil : son rendement. Mais une équipe de chercheurs regroupant des laboratoires du CNRS et les entreprises AREVA NP et SCT, est parvenue, pour la première fois, à produire de l'hydrogène en quantité notable par une nouvelle méthode.

Plus énergétique que le pétrole ou le gaz naturel, non polluant et non toxique, l'hydrogène pourrait progressivement suppléer les énergies fossiles et répondre à l'essentiel de nos besoins énergétiques. Problème : si l'atome d'hydrogène, lié à l'oxygène, est très abondant sous forme d'eau, les molécules d'hydrogène, elles, ne se trouvent pas à l'état pur. Le défi auquel s'attèlent les chercheurs est donc de produire de l'hydrogène, sans dégagement de dioxyde de carbone. Pour cela, l'électrolyse de l'eau, c'est-à-dire sa décomposition en hydrogène (H) et oxygène (O), est l'une des solutions envisagées. Aujourd'hui maîtrisée, cette technique présente toutefois des inconvénients majeurs : son rendement ne dépasse pas 80 %, son coût de production est trop élevé et certains matériaux utilisés polluants ou même dangereux.

Pour surmonter ces obstacles majeurs, quatre équipes de recherche se sont ainsi associées aux entreprises AREVA NP, filiale du groupe AREVA, et SCT, dans un programme de recherche sur la production massive d'hydrogène propre. Pour obtenir de l'hydrogène par électrolyse de l'eau avec un meilleur rendement, il faut chauffer : deux voies sont alors possibles. La première plus "traditionnelle" utilise la conduction par ions O2- tandis que la seconde s'appuie sur la circulation des protons (ions H+). Principal avantage de la voie protonique : elle requiert des températures plus faibles, de l'ordre de 600°C. À de telles températures, une bonne conductivité des protons peut être envisagée, tout en utilisant des matériaux peu onéreux et fiables. C'est pourquoi les scientifiques ont choisi d'explorer et d'optimiser cette voie.

Leur travail s'est déroulé en deux étapes : ils ont tout d'abord conçu un dispositif pour étudier in situ les matériaux constituant l'électrolyseur, puis ils ont mis au point deux électrolyseurs instrumentés, c'est-à-dire comportant entre autres, des capteurs de température, de pression, de mesure de l'intensité du courant produite.

Les scientifiques ont ainsi pu déterminer avec précision les conditions requises pour obtenir de l'hydrogène en grande quantité et de façon fiable. L'une de leurs idées novatrices a été d'effectuer l'électrolyse sous pression (entre 50 et 100 bars). Et elle s'est révélée efficace... En effet, les principaux paramètres des électrolyseurs s'en sont trouvés améliorés : les premiers essais effectués permettent d'atteindre des quantités d'hydrogène notables, avec un niveau de courant bien supérieur à ce qui avait été fait précédemment par leurs concurrents étrangers travaillant sur la filière protonique. De plus, cette nouvelle technologie abaisse de près de 200°C la température de fonctionnement par rapport à la solution par conduction ionique. Un dernier atout : en permettant l'usage d'alliages commerciaux, elle diminue le coût de l'hydrogène produit. Ce résultat, prometteur et capital pour l'avenir économique de la filière hydrogène, laisse espérer le développement de technologies rentables et économiques.

Cette percée majeure survient quelques semaines après une autre avancée remarquable : des chercheurs du Centre allemand de recherche aérospatiale (DLR) sont parvenus, fin 2008, à synthétiser de l'hydrogène grâce à de l'énergie solaire et sans émission de CO2 dans une installation pilote de 100 kilowatts, située en Espagne. Les rendements atteints dépassent les attentes des chercheurs. Dans les mois qui viennent, les tests de production d'hydrogène sur la tour SSPS (Small Solar Power System) de la PSA seront poursuivis et intensifiés.

Le projet HYDROSOL est porté par un consortium d'acteurs allemands, espagnols, grecs, danois et britanniques. Les travaux de recherche et développement d'HYDROSOL I ont été, compte tenu de leur portée potentielle, récompensés par le Prix européen de la recherche Descartes et le Technical Achievement Award du Partenariat international pour l'économie de l'hydrogène (IPHE). Le succès des chercheurs du DLR ouvre de nouvelles possibilités de stockage de l'énergie solaire sous forme d'hydrogène.

Le département de recherche solaire de l'Institut de thermodynamique technique du DLR travaille depuis plus de 6 ans au développement de réacteurs innovants pour la décomposition thermochimique solaire de l'eau, dans le cadre des projets européens HYDROSOL I et II. Dans ces réacteurs, l'eau est clivée en hydrogène et oxygène à l'aide d'énergie solaire, sans passer par la production de courant électrique. Les résultats de leurs recherches, obtenus jusqu'à présent dans des installations de 10 kilowatts, ont désormais pu être observés avec succès pour une puissance de 100 kilowatts.

Outre Atlantique, des chercheurs du MIT proposent pour leur part une solution à la fois efficace, peu chère, et très simple à mettre en place. Et qui n'emploie que des matières premières abondantes et non toxiques. "L'énergie solaire a toujours été une solution un peu lointaine, limitée, explique le professeur Nocera. A présent, nous pouvons sérieusement penser à une énergie solaire non limitée, et pour bientôt." Son équipe a mis au point un processus inspiré de la photosynthèse des plantes, qui permet d'utiliser l'énergie tirée du soleil pour décomposer l'eau en hydrogène et en oxygène. Les gaz peuvent ensuite être recombinés via une pile à combustible et alimenter en énergie une maison ou une voiture électrique indépendamment de l'ensoleillement. L'élément clé de ce nouveau processus est un nouveau catalyseur qui produit de l'oxygène à partir de l'eau. Lorsque le courant passe par l'électrode, le cobalt et le phosphate qui le composent forment un mince film, et de l'oxygène y est produit.

Il est conjugué à un autre catalyseur qui produit de l'hydrogène. Le nouveau catalyseur fonctionne à une température ambiante, à un Ph neutre, et s'avère simple à utiliser. "C'est une découverte majeure avec d'énormes conséquences pour la prospérité future de l'humanité", a commenté le professeur Barber de l'Impérial College de Londres. "L'importance de leur découverte ne peut être sous-estimée, insiste-t-il, car elle ouvre la porte au développement de nouvelles technologies pour la production d'énergie, permettant de réduire notre dépendance aux combustibles fossiles et de répondre aux problèmes de changement climatique". Nocera espère que d'ici 10 ans, les propriétaires seront en mesures d'alimenter leurs foyers le jour par des cellules photovoltaïques, tout en utilisant l'énergie solaire excédentaire pour produire de l'hydrogène et de l'oxygène et continuer de s'éclairer le reste du temps.

Au Japon, un groupe de recherche de l'Institute of Multidisciplinary Research for Advanced Materials de l'Université de Tohoku a développé et mis au point un procédé naturel de fabrication de l'hydrogène à partir de la cellulose du bois. L'équipe du Professeur Fumio Saïto a mis en évidence qu'un simple broyage physico-chimique à sec de la cellulose, suivi d'un chauffage en absence d'oxygène et donc sans combustion, entraînait la synthèse à haut rendement d'hydrogène d'une grande pureté.

Ces avancées décisives dans la production propre et abondante d'hydrogène à partir d'énergies renouvelables sont en train de lever le principal obstacle - le stockage de l'énergie- à la généralisation de l'utilisation des énergies propres, notamment solaire et éolienne qui sont par nature intermittentes. Souhaitons que l'Europe, qui a développé dans ce domaine un savoir faire technologique remarquable, ait la volonté politique de franchir une nouvelle étape vers le remplacement total des énergies fossiles à l'horizon 2050, par l'utilisation combinée de l'hydrogène et des énergies renouvelables.

René Trégouët

Sénateur honoraire

Fondateur du Groupe de Prospective du Sénat

e-mail : tregouet@gmail.com


TIC
Information et Communication
Les journaux cherchent le moyen de faire payer leur contenu
Vendredi, 24/04/2009 - 00:00

Le modèle fondé sur la gratuité des contenus d'information sur Internet, qui a largement prévalu jusque-là, a-t-il vécu ? Les éditeurs de presse songent en tout cas à revenir à une forme de paiement pour les internautes.

Début février, le directeur du quotidien américain New York Times a déclaré qu'il y avait "une discussion animée et très sérieuse au sein du Times sur la manière d'obliger le consommateur à payer pour ce que nous produisons". C'est un changement de cap pour le premier site d'information mondial (20 millions de visiteurs uniques par mois). C'est un retour en arrière dans la mesure où il avait renoncé, en septembre 2007, à faire payer l'accès à une partie de ses contenus, comptant sur la seule publicité pour se financer.En Europe, le groupe Roularta, a annoncé le 17 mars que L'Express allait lancer cette année un site payant proposant des exclusivités, des archives et des dossiers.

Ce changement de pied de la part des éditeurs est dû au fait que les recettes publicitaires n'ont pas tenu leurs promesses. Pour un journal, la publicité drainée par le Web ne représente que 10 à 20 % du chiffre d'affaires de la publicité sur le papier. Autrement dit, quinze ans après l'apparition d'Internet, le moment où un site sera capable de financer une rédaction comparable à celle d'un journal papier reste encore très lointain. La crise n'a pas arrangé les choses en faisant chuter les recettes publicitaires. Le modèle économique d'Internet du début des années 2000, qui consistait à miser sur une audience maximum grâce à la gratuité afin d'engranger des recettes publicitaires, est sérieusement remis en question.

Les éditeurs constatent aujourd'hui qu'ils ont du mal à monétiser l'audience de leur site. Le secteur est d'autant plus inquiet que les rares journaux qui se sont essayés au modèle payant, comme El Pais, ont été obligés de faire machine arrière. De leur côté, les sites payants comme Médiapart, n'ont pas fait la preuve de la viabilité à long terme. Fabrice Boé, président de Prisma, résume la situation : "Nos marques n'ont jamais été si fortes. Prisma a cinq sites qui attirent plus d'un million de visiteurs. Il nous faut trouver les moyens de monétiser cette audience."

L'une des solutions consiste à s'appuyer sur sa marque pour développer des solutions d'e-commerce. Le groupe Lagardère a signé ainsi un accord avec Sumitomo, un des leaders commerce sur Internet au Japon. "Nous partons du constat que nos marques font acheter", explique Jullien Billot, directeur numérique de Largardère Active. Le magazine Elle vendait déjà des produits à travers Elle Passions. Le Web a renforcé son pouvoir de prescription. "On considère nos magazines comme des marques et on étend le contrat de lecture, qui devient un contrat de marque", souligne Fabrice Plaquevent, responsable des licences. Lagardère envisage de vendre des produits et des services, comme du coaching minceur, autour des marques Psychologies et Doctissimo. Prisma n'est pas en reste et propose des voyages sur le site de Femme actuelle.

Le commerce sur Internet obéit à ce qu'on appelle le phénomène de la longue traîne (long tail). Contrairement aux règles habituelles du marketing, où 20 % des produits représentent 80 % du chiffre d'affaires, le produit rare trouve toujours preneur. Les éditeurs de quotidien pourraient ainsi vendre une archive particulièrement rare, une analyse ou une étude très pointue. La difficulté vient du mode de paiement. "On n'a pas encore d'outil de paiement simple sur le Web", déplore Philippe Janet, PDG du Monde interactif. Les systèmes comme Paypal demandent l'ouverture d'un compte et sont compliqués à utiliser.

Autre difficulté : amener l'internaute vers un système payant. " La génération des "Internet natives" a été éduquée à la gratuité, note Loic Guilloux, éditeur du pôle féminin chez Prisma. C'est peut-être la première fois que le paiement est considéré comme l'exception." Certains sites, comme ceux du Monde et des Echos, ont mis en place des systèmes hybride, avec une zone gratuite et une zone "premium" accessible sur abonnement. Le Financial Times a fondé son modèle sur la fréquentation : au-delà de 30 articles consultés par mois, l'accès est payant. "

L'Arcep réunissait mardi 7 avril les différents acteurs de la fibre optique, en présence de la secrétaire d'Etat au numérique Nathalie Kosciusko-Morizet. Une "réunion d'étape", alors que les opérateurs télécoms traînent les pieds pour investir les sommes nécessaires au déploiement de réseaux de fibre. A cette occasion, l'Arcep a présenté son tableau de bord du très haut débit (fibre optique jusqu'à l'abonné ou FTTH et fibre optique avec terminaison par câble).

Au 31 décembre 2008 et après plus de deux ans de travaux, 3 à 4,5 millions de foyers se trouvent à proximité d'un réseau fibre optique, dans une quarantaine de villes ou d'agglomérations. France Télécom affiche le parc le plus important, avec une quarantaine de communes, dont une dizaine en province.

Vient ensuite Numericable, qui a commencé à remplacer ses câbles par de la fibre dans une trentaine de villes ou agglomérations. Enfin, SFR et Free se cantonnent pour l'instant aux zones où ils "ont pu trouver des alternatives aux infrastructures de génie civil de France Télécom", indique l'Arcep, évoquant les égouts de Paris. En juillet 2008, le régulateur avait forcé l'opérateur historique à permettre à ses concurrents d'accéder à ses infrastructures.

Les opérateurs alternatifs ont commencé à le faire, indique l'Arcep, en déployant 300 km de fibre. Si les réseaux restent limités, le raccordement des immeubles est encore moins avancé. Seuls 20 500 immeubles, soit potentiellement 550 000 foyers, sont raccordés par un opérateur au moins. Et 170 000 foyers sont effectivement abonnés en très haut débit, dont 130 000 avec terminaison en câble et 40 000 en fibre jusqu'au foyer (FTTH)

LM

Quand le SMS rafraîchit la mémoire des patients
Vendredi, 24/04/2009 - 00:00

Afin d'éviter les désistements et les oublis de rendez-vous médicaux, les cabinets peuvent désormais recourir au SMS. Mediatech lance un service hébergé sur Internet qui propose aux professionnels de la santé d 'envoyer automatiquement des messages texte de rappel sur le mobile des malades. La solution, baptisée Mediatech Recall, se veut économique : les centre médicaux gèrent avec une seule interface simultanément tous les rendez vous de leurs praticiens. En effet, le SaaS (software as a service) est couplé à l'agenda des médecins.

Pour une clinique de trente professionnels, cela représente du coup entre cent cinquante et deux cents mille euros d'économies annuelles sur les annulations de rendez vous et une meilleure utilisation des ressources humaines. Les malades reçoivent par SMS les protocoles à respecter avant leur intervention (être à jeun, prendre ses médicaments, ramener ses radios, etc.). Autre intérêt avancé par Médiatech, le logiciel assure la traçabilité de la transmission de l'information à chaque patient et permet d'accéder à un suivi statistique détaillé relatif aux envois et réceptions de SMS.

Ce, afin d'éviter tout oubli ou des contestations éventuelles sur le montant de la consultation. D'après l'entreprise, cette solution a permis de faire diminuer les désistements d'intervention de près de 30 %. Médiatech Recall se décline également en service pour les administrations, les associations ou les syndics de copropriété. L'entreprise justifie le choix du SMS car celui-ci est jugé non intrusif par les destinataires qui restent maîtres de l'échange. De plus, la société avance un taux de lecture de plus de 90 % du SMS, largement supérieur à celui de l'email.

Atelier-20090407]

^ Haut
Avenir
Nanotechnologies et Robotique
L'assistant robot doit se plier aux habitudes de son propriétaire
Vendredi, 24/04/2009 - 00:00

Pour donner plus d'indépendance aux personnes âgées tout en leur assurant un suivi de santé à domicile, la robotique est une solution. Mais elle implique le développement de machines capables de comprendre le contexte dans lequel elles évoluent et reliées au corps médical. Sur ce constat de départ, le projet compagnionable développe un prototype de robot qui sera apte à comprendre l'état émotionnel de son propriétaire, ses habitudes, le soutien social et le suivi de santé dont il bénéficie. Pour y parvenir, les chercheurs travaillent sur un réseau de capteurs de vision, de son et de mesure de la distance qui donneront la possibilité au robot de détecter et gérer la situation d'une personne. Ces différents dispositifs lui permettront d'enregistrer les interactions qu'il a eues avec des individus et d'identifier quels visage, paroles ou gestes correspondent à quelle émotion.

Mais aussi d'identifier les habitudes de l'utilisateur. En ce qui concerne le design, les scientifiques tablent sur une apparence humaine. Ce, pour faciliter le rapport avec son propriétaire : le robot aura un visage, disposera d'un écran tactile, sera capable de dialoguer et d'arborer plusieurs expressions faciales. Via les capteurs et caméras, il comprendra les signaux verbaux mais aussi non verbaux émis par son utilisateur. Il permettra de réaliser des vidéoconférences avec les médecins et les proches afin de permettre au patient de garder un contact humain avec son environnement, si celui-ci ne peut être physiquement présent. En cas de comportement anormal, les professionnels de santé seront alertés automatiquement.

Autant de dispositifs qui permettront de mettre en place un suivi thérapeutique à distance fiable. "L'initiative combine l'utilisation de robots dans des environnements intelligents avec la volonté de créer une machine capable de devenir un véritable compagnon au quotidien", expliquent ainsi les responsables du projet. L'habitation doit en effet être adaptée aux besoins de communication à distance. Preuve que le projet est considéré comme d'importance : le Tecnalia Health and Quality of Life Unit vient d'annoncer sa participation. Il interviendra sur la mise au point de capteurs des habitudes de vie et sur la qualité de l'interaction homme/machine. Le projet est prévu pour courir jusqu'en 2012.

Atelier

^ Haut
Matière
Matière et Energie
L'éolien offshore participera-t-il à la future équation énergétique des Etats-Unis ?
Vendredi, 24/04/2009 - 00:00

Selon un rapport publié par le Département de l'Intérieur (DOI), le potentiel éolien aux Etats-Unis pourrait satisfaire l'ensemble de la demande en électricité du pays avec 20% générée par des parcs éoliens en mer Atlantique. Rédigé par le " Mineral Management Service " du DOI et présenté par Ken Salazar (Secrétaire du DOI) le 2 avril dernier, ce rapport met en lumière le potentiel de chaque source d'énergie quant à son développement futur dans les espaces maritimes. Sur les trois sources d'énergies comparées (pétrole, gaz et énergies renouvelables), l'énergie éolienne semble de loin la plus prometteuse, avec un fort potentiel sur l'ensemble des côtes américaines.

Ce rapport liste ainsi les différentes installations de fermes éoliennes possibles en fonction du potentiel de chaque région. Si les installations en mer peu profonde sont privilégiées en raison de leur prix, le plus fort potentiel réside cependant dans les installations au large, en espace maritime profond. L'étude estime le potentiel de la côte atlantique à plus de 1.000 GW (250 GW en milieu côtier contre 770 GW en espace maritime profond) et celui de la côte pacifique à 900 GW (10GW en milieu peu profond contre 890 GW en mer profonde). Si le potentiel de chaque côte est globalement identique, l'installation de parcs éoliens dans le Pacifique n'est cependant pas envisagée dans un premier temps en raison de contraintes techniques (profondeur des zones maritimes). Sachant que 1000 GW équivaut en moyenne à la production de trois centrales électriques fonctionnant au charbon et que les trois quarts de la consommation en électricité du pays est localisée sur les états côtiers, l'éolien en mer pourrait être amené à jouer un rôle non négligeable dans le contrôle des GES (Gaz à Effet de Serre).

Si ce rapport liste un certain nombre de zones propices au développement de parcs éoliens en mer, il ne tient cependant pas compte des contraintes juridiques propres à chaque Etat et de l'absence de réglementation à l'échelle fédérale. Actuellement, chaque Etat est responsable juridiquement des espaces maritimes situés à moins de 5 km de la côte, l'Etat fédéral étant en charge du reste des zones maritimes (soit une surface de 6,9 millions de km2). Une réglementation à l'échelle fédérale ne devrait cependant pas tarder à être adoptée, Ken Salazar ayant profité de la publication du rapport pour annoncer sa rédaction imminente.

Par ailleurs, si l'éolien connaît une forte croissance aux Etats-Unis - pays devenu fin 2008 le premier producteur mondial d'énergie d'origine éolienne - aucun parc éolien en mer n'a encore été installé. A en juger par les délais cumulés ou les avortements successifs des différents projets éoliens en mer

[BE">1], le déploiement de cette source d'énergie nécessitera des réglementations importantes à l'échelle fédérale afin d'appuyer les différentes projets déposés.

En effet, plusieurs projets, dont la capacité totale équivaudrait à 2.000 MW, ont été déposés au cours des années précédentes et sont toujours en attente de licence. A titre d'exemple, le projet "Cape Wind" déposé en 2001 (l'installation de 130 turbines au large des complexes touristiques de Cape Cod), a fait l'objet de nombreux retards dus à l'opposition des habitants et des politiques de la région. Il attend toujours son permis de construction qui devrait être délivré prochainement par le Département de l'Intérieur.

[BE

La Suède va construire le plus grand parc éolien terrestre d'Europe
Vendredi, 24/04/2009 - 00:00

Plus d'un millier d'éoliennes sur la lande suédoise : les autorités locales du comté de Norrbotten, la pointe nord de la Suède qui jouxte la Finlande, ont décidé l'installation d'un immense parc éolien de plus de 1.100 turbines, près de la ville de Piteå.Sa mise en place coûtera 50 à 55 milliards de couronnes suédoises (5 milliards d'euros) sur 10 ans. il couvrirait 450 km2 - pourvu que le gouvernement suédois donne lui aussi son feu vert, ce qui peut prendre encore des mois. Il devrait produire 8 à 12 terawatts-heures par an.

Il suffirait ainsi à lui seul à atteindre l'objectif suédois d'énergie éolienne, qui est de 10 térawatts-heures par an à l'horizon 2015, un objectif fixé par le Parlement.Les projets éoliens géants ne sont seulement l'apanage des mers de l'Europe du Nord. Il est vrai que cette région suédoise est particulièrement peu peuplée, ce qui facilite un tel projet terrestre. A tire de comparaison, le fameux projets du London Array, l'un des plus gros projets britanniques, ne prévoit “que” 341 turbines.Côté énergie du vent, la Suède est très en retard par rapport aux plus actifs pays européens :elle ne comptait fin 2008 que 1,1 GW de capacités éoliennes installées, contre 23,9 GW en Allemagne, n°1 éolien européen, 16,7 GW en Espagne mais aussi 3,4 GW en France, 3,2 GW en Grande-Bretagne et 3,2 au Danemark.

GU

Le CEA veut réduire le coût des panneaux solaires
Vendredi, 24/04/2009 - 00:00

Le photovoltaïque, cette énergie renouvelable qui permet de produire de l'électricité en transformant une partie du rayonnement solaire, souffre en France de deux handicaps majeurs.L'Hexagone a longtemps été à la traîne de pays comme l'Allemagne, le Japon et les États-Unis en matière de recherche notamment. Il y a encore quatre ans, seule une soixantaine de personnes réparties dans une vingtaine de laboratoires travaillait sur ces sujets. «Or, si l'on veut être crédible, il faut être 200, comme en Allemagne», explique Didier Marsacq, directeur du CEA (Commissariat à l'énergie atomique)-Institut Liten (laboratoire d'innovation pour les technologies des énergies nouvelles et les nanomatériaux).

Ensuite, l'énergie photovoltaïque est beaucoup trop chère. Ce qui signifie que sans incitation financière ni subventions, elle n'est pas compétitive par rapport aux autres énergies disponibles. «Le prix du photovoltaïque doit être divisé par trois», estime ainsi Jean-Pierre Joly, directeur général de l'Institut national de l'énergie solaire. L'objectif étant de franchir la barre de l'euro par watt. Scientifiquement, il est donc nécessaire d'augmenter les rendements de conversion des cellules, autrement dit leur capacité à récupérer et transformer la lumière reçue en électricité et de mettre au point des processus de fabrication moins chers. Sans oublier, bien sûr, de réduire la contrainte liée au caractère aléatoire et forcément intermittent de cette énergie.

Le silicium, utilisé depuis longtemps, comme composant essentiel du verre, est l'élément chimique le plus abondant dans la croûte terrestre, après l'oxygène. En tant que semi-conducteur, le silicium est le matériau clé des cellules photovoltaïques qui sont ensuite montées en panneaux solaires, tout comme il l'est dans l'industrie électronique. «La matière première est abondante, la technologie éprouvée et les rendements de production importants», explique Jean-Pierre Joly. Mais le prix du silicium est très élevé : entre le début 2007 et la fin 2008, le prix du kilogramme a triplé, passant de 40 à plus de 120 ?.

Outre les questions de coût, sa purification s'avère particulièrement consommatrice en énergie et productrice de gaz à effets de serre. Du coup, les chercheurs limitent leurs exigences en matière de purification en remplaçant par exemple les procédés chimiques par la voie métallurgique. Le CEA et le Liten espèrent ainsi obtenir un minerai de silicium aux alentours de 25 ? le kg en réduisant notamment le temps de purification qui a été divisé par deux. L'objectif étant de faire baisser les coûts des systèmes photovoltaïques de 25 %.

«Il est important de travailler sur tous les maillons de la chaîne pour faire baisser les coûts», note encore Jean-Pierre Joly. L'objectif des chercheurs est de fabriquer les cellules photovoltaïques de «quatrième génération» en utilisant les caractéristiques électroniques des nanostructures. Pour mener à bien ces recherches, le CEA a créé, avec EDF Énergies nouvelles et Photowatt, une société baptisée PV Alliance dont le laboratoire pilote devrait être opérationnel prochainement. «On a fait le pari de la recherche et du développement pour monter une industrie en France», explique son directeur, Éric Laborde.

Figaro

La Grande Bretagne parie sur l'hydroélectricité marine
Vendredi, 24/04/2009 - 00:00

Un nouvel accord d'une durée de 5 ans vient d'être passé entre le Wave Power Research Group de l'Université Queen's de Belfast et la société Aquamarine Power afin de tester et déployer une nouvelle génération de centrales hydroélectriques convertissant l'énergie cinétique des vagues et des courants marin en électricité.Le premier prototype de ce type de centrale hydroélectrique appelé Oyster, sera testé en mer au cours de l'été 2009 sur l'un des sites de l'EMEC (European Marine Energy Centre : Centre européen de l'énergie marine) situé au large de l'archipel des Orcades dans le nord de l'Ecosse.

L'Oyster qui sera ancré entre 10 et 12 mètres de profondeur se compose d'un flotteur et d'une pompe à double piston. Lorsqu'une vague vient frapper et déplacer le flotteur, celui-ci active la pompe qui vient propulser de l'eau sous pression contenue dans un tube relié à la côte. L'eau sous haute pression parcourt le tube et arrive à la côte où se trouvent des turbines hydro-électriques chargées de convertir cette énergie de pression en électricité

Selon l'emplacement et la configuration du système, chaque dispositif peut générer une puissance comprise entre 300 et 600 kW. Chaque station hydroélectrique pourrait être reliée à environ 10 Oysters ce qui alimenterait plus de 3.000 foyers (7.000 personnes) en électricité.Sa relative simplicité (mécanisme et forme) et sa faible propension aux pannes, sont autant d'éléments qui rendront le coût de fabrication de l'Oyster compétitif.

BE

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
Une réduction de 70 % des émissions de gaz à effet de serre peut éviter les conséquences désastreuses du réchauffement climatique
Vendredi, 24/04/2009 - 00:00

Une réduction de 70 % des émissions de gaz à effet de serre, et surtout de CO2, durant ce siècle, serait suffisante pour sauver les glaces de l'Arctique et éviter les conséquences les plus désastreuses du réchauffement climatique, selon une étude publiée le 14 avril 2009. Le réchauffement dans l'Arctique serait ainsi réduit quasiment de moitié, ce qui aiderait à préserver les pêcheries et les populations d'oiseaux marins et d'animaux polaires, comme les ours blancs, notamment dans le nord de la mer de Béring, estiment ces chercheurs.

Bien que la température continuerait d'augmenter, les aspects potentiellement les plus dangereux du changement climatique (fonte de la calotte glaciaire, réduction du permafrost, montée du niveau des océans) pourraient être partiellement évités, explique Warren Washington, chercheur au NCAR (National Center for Atmospheric Research), principal auteur de cette étude.

"Ces travaux montrent que nous ne pouvons plus éviter un réchauffement important de la planète au XXIe siècle", relève Warren Washington, qui s'est basé sur plusieurs modèles informatiques. "Mais si le monde parvenait à réduire les émissions de gaz à effet de serre dans cette proportion (70%), nous pourrions stabiliser la menace présentée par le changement climatique et éviter une catastrophe", juge-t-il.

La température moyenne du globe a grimpé de près d'un degré Celsius depuis l'ère pré-industrielle (milieu du XIXe siècle). Ce réchauffement est notamment dû aux émissions de gaz à effet de serre, et surtout au dioxyde de carbone (CO2), rappelle l'étude. Les gaz à effet de serre dans l'atmosphère sont par ailleurs passés de 284 parties par million (ppm, une unité de mesure) au milieu du XIXe siècle, à plus de 380 ppm aujourd'hui. Les dernières recherches indiquent qu'un accroissement supplémentaire d'un degré Celsius de la température pourrait déclencher un changement climatique dangereux.

Pour leur étude, ces climatologues ont retenu l'hypothèse que le taux de CO2 dans l'atmosphère pourrait être plafonnée à 450 ppm à la fin du siècle, un niveau réalisable si les mesures d'économie d'énergie et le développement de technologies vertes sont rapidement mis en oeuvre. Les résultats de leur recherche montrent qu'avec un taux de CO2 limité à 450 ppm, les températures augmenteraient en moyenne de 0,6 degré Celsius au-dessus de leur niveau actuel d'ici la fin du siècle. En revanche, si rien n'est fait, la concentration de CO2 atteindra 750 ppm d'ici 2100, selon les projections, avec des conséquences dramatiques (lire ci-contre).

GRL

Le débit de nombreux fleuves décline dans le monde
Vendredi, 24/04/2009 - 00:00

Le débit des plus grands fleuves de la planète a baissé en un demi-siècle, montre une étude de 925 cours d'eau majeurs. L'étude qui porte sur la période 1948-2004 montre un déclin global du débit des fleuves. La baisse du volume de l'eau douce s'écoulant dans l'océan Pacifique représente par exemple l'équivalent du fleuve Mississippi.La seule région à connaître une tendance inverse est l'Arctique, où le réchauffement climatique accroît la fonte des neiges et des glaces, explique le principal auteur de l'étude, Aiguo Dai, du Centre national américain pour la recherche atmosphérique.

"Les ressources en eau douce vont probablement décliner au cours des décennies à venir dans de nombreuses régions densément peuplées à des latitudes moyennes et basses, essentiellement à cause des changements climatiques", précise-t-il. "La disparition rapide des glaciers de montagne sur le plateau tibétain et dans d'autres régions aggraveront les choses.""Alors que le climat va inévitablement continuer à changer dans les prochaines décennies, nous verrons probablement des impacts plus grands sur de nombreux fleuves et ressources en eau", renchérit Kevin Trenberth, co-auteur de l'étude.

M. Dai insiste sur le changement climatique comme cause majeure de ces changements, même si d'autres facteurs interviennent également, comme les barrages et le détournement de l'eau pour l'agriculture et l'industrie. "Des changements à long terme dans le débit (des fleuves) devraient être une préoccupation majeure durant la période de réchauffement de la planète", affirme-t-il.

Pour nombre de grands fleuves, "les effets des activités humaines sur le débit annuel sont probablement faibles comparés à ceux des variations du climat entre 1948 et 2004", écrivent les chercheurs.Plusieurs fleuves dont le débit à baissé se trouvent dans des régions très peuplées, comme le Huang He (fleuve Jaune), le Gange, le Niger et le Colorado. A l'inverse, les zones proches de l'Arctique où les cours d'eau sont plus importants sont peu peuplées.

Les chercheurs ont découvert des variations considérables d'une année sur l'autre dans le débit de nombreux fleuves, mais la tendance générale sur la période analysée révèle une baisse des rejets d'eau douce dans l'océan Pacifique d'environ 6%, soit 526 kilomètres cubes d'eau.L'écoulement annuel d'eau douce dans l'océan Indien a de son côté reculé de 3% (140 kilomètres cubes). Par comparaison, ce chiffre a augmenté de 10% (460 kilomètres cubes) dans l'océan Arctique.

En revanche, peu de changements ont été constatés pour l'Atlantique, des hausses de débit du Mississippi et du Parana étant compensées par des baisses de l'Amazone.Aux Etats-Unis, le débit du Mississippi a augmenté de 22% en un demi-siècle en raison d'une augmentation des précipitations dans la région du Midwest. En revanche, celui du fleuve Columbia a décliné de 14%, à cause notamment d'une baisse des pluies et d'un accroissement de la consommation d'eau.

Parmi les grands fleuves dont le débit a baissé figurent l'Amazone, le Congo, le Yangtsé, le Mékong, le Gange, l'Irrawaddy, l'Amour, le Mackenzie, le Xi Jiang, le Columbia et le Niger. Le déclin du Niger dans les années 1970 et 80 en particulier est lié à la sécheresse dans la région du Sahel, précise l'étude

MS

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Cancer de la prostate : sur la piste du vaccin
Vendredi, 24/04/2009 - 00:00

Un vaccin contre le cancer de la prostate? C'est l'espoir que caressent des spécialistes américains après les résultats encourageants d'une étude qui soulignent que la vaccination thérapeutique améliore la survie d'hommes atteints d'un cancer de la prostate à un stade avancé. Fabriqué par la firme Dendreon Corp. basée à Seattle (Etat de Washington), le vaccin Provenge améliore la survie, comparé au placebo, dans une étude concernant 512 hommes à un stade avancé de la maladie. Aucune information sur les effets secondaires éventuels n'a été communiquée.Les résultats définitifs seront présentés ce mois-ci lors d'un congrès de l'association américaine d'urologie, et Dendreon Corp. entend obtenir le feu vert fédéral pour son produit avant la fin de l'année.

Provenge n'est pas comme les vaccins traditionnels qui servent à prévenir la maladie. C'est un vaccin dit thérapeutique, qui traite le cancer en formant le système immunitaire au combat contre les tumeurs. S'il obtient le feu vert de la Food and Drug Administration (FDA), l'agence américaine du médicament, Provenge serait le premier traitement de ce type à être mis sur le marché.C'est la seconde étude de cette ampleur dans laquelle Provenge montre un bénéfice en terme de survie, conduisant certains scientifiques à espérer non seulement l'accord des autorités fédérales, mais que cela ouvre la piste d'une nouvelle approche dans la lutte contre le cancer, à côté de la chirurgie, de la radiothérapie, du traitement hormonal et de la chimiothérapie utilisés à l'heure actuelle.

"C'est un résultat encourageant, qui démontre que le contrôle du système immunitaire d'un patient peut permettre d'attaquer avec succès un cancer de la prostate", a déclaré le Dr Eric Small, cancérologue de l'Université de Californie à San Francisco. Eric Small avait conduit la précédente étude, sans lien avec le laboratoire qui fabrique le vaccin. Dans cette étude sur 127 hommes, le groupe des hommes traités par la vaccination a vécu en moyenne 4 mois et demi de plus que ceux sous placebo. Après trois ans, le taux de survie était de 34% dans le groupe vacciné, alors qu'il n'était que de 11% dans le groupe-test.Ces résultats ont conduit des conseillers auprès de la FDA, à lui recommander son approbation il y a deux ans. Mais la FDA retarde sa décision, réclamant plus de résultats, l'allongement de la survie n'étant pas le principal objectif, mais plutôt le ralentissement de la progression du cancer, ce que le vaccin n'a pas réussi à faire.

Provenge est un traitement personnalisé pour chaque patient. Les médecins collectent des cellules spécialisées à partir de chaque échantillon de sang. Ces cellules aident le système immunitaire à reconnaître le cancer comme une menace, comme s'il s'agissait de germes entrant dans l'organisme.Ces cellules spécialisées sont ensuite mélangées avec une protéine trouvée dans la plupart des cellules cancéreuses pour aider à stimuler le système immunitaire. Le "vaccin" résultant est réinjecté au patient en trois fois, toutes les deux semaines.Il a été jusqu'ici testé sur des hommes atteints de cancer métastasé et ne répondant plus au traitement hormonal.

Si Provenge s'avérait sans risque et recevait l'accord de la FDA, "ce serait une percée importante", a déclaré le Dr William Oh, cancérologue au Centre de cancérologie Dana-Farber de Boston. "Il y a si peu de traitements" disponibles pour les hommes dont le cancer de la prostate est très étendu, situation qui concerne 40.000 à 60.000 Américains.On estime à 186.000, le nombre de nouveaux cas apparaissant chaque année aux Etats-Unis et à 28.660, le nombre de morts.

Yahoo

Des cellules souches au secours des accidents vasculaires cérébraux
Vendredi, 24/04/2009 - 00:00

Une équipe de scientifiques britanniques basée à l'Institute of Psychiatry, King's College London, a utilisé une nouvelle technique pour réparer du tissu nerveux dans le cerveau de rat, détruit à la suite d'un accident vasculaire cérébral (AVC).

Cette technique repose sur l'usage d'une matrice en polymère PGLA (pour acide polylactico-polyglycolique) dont la taille ne dépasse pas un dixième de millimètre. Plus d'un millier de ces matrices, remplies de cellules souches neurales, sont alors injectées au sein de l'espace du cerveau laissé vide par l'AVC. Un avantage non négligeable de cette technique est qu'en raison de leur petite taille, ces matrices peuvent être injectées à l'aide de seringues fines, permettant d'éviter une opération invasive à grande échelle.

L'emplacement exact de la zone ciblée est visualisé par imagerie par résonance magnétique (IRM), qui permet également l'observation de l'évolution Les résultats obtenus sont encourageants : les chercheurs ont observé que ces matrices viennent tapisser la cavité cérébrale en adoptant sa forme de façon exacte. De cette manière, les cellules souches migrent le long des matrices où elles ont été chargées, et forment du tissu nerveux primitif. Elles peuvent ainsi établir de nouvelles connections avec les neurones sains encore présents à la périphérie de la cavité. Ce phénomène se produit dans un intervalle d'environ une semaine. La matrice finit par se dégrader, et les espaces qu'elles libère sont également comblés par cette nouvelle croissance nerveuse et vasculaire.

Ces résultats démontrent une avancée importante en termes d'espoir de traitement chez l'Homme. En effet, des études antérieures réalisées chez un modèle de rat avaient indiqué que les cellules souches injectées directement (c'est-à-dire sans matrice polymère) dans la zone touchée par l'AVC se répandaient également dans le tissu cérébral sain.

L'équipe tente aujourd'hui, en collaboration avec une équipe de l'Université de Nottingham, d'ajouter dans cette matrice la protéine VEGF (Vascular Endothelial Growth Factor) dont le rôle principal est de favoriser la croissance de nouveaux vaisseaux sanguins, nécessaires à la croissance des cellules nerveuses du cerveau.

BE

Des diabétiques traités avec leurs propres cellules souches
Vendredi, 24/04/2009 - 00:00

Des patients atteints d'un diabète insulino-dépendant (diabète de type 1) et traités avec leurs propres cellules souches ont pu se passer d'injections d'insuline pendant deux ans et demi. Dans un article publié dans le Journal of the American Medical Association (JAMA) du mercredi 15 avril, une équipe américano-brésilienne dirigée par le professeur Richard Burt (North-western University, Chicago) confirme des travaux publiés en 2007. Encore expérimentale, la technique ouvre des perspectives inédites de traitement pour cette maladie.

Le diabète de type 1 est la forme de la maladie due neuf fois sur dix à un mauvais fonctionnement immunitaire entraînant la destruction de certaines cellules du pancréas. Appelées cellules bêta, ces dernières sont responsables du contrôle du taux de glucose dans le sang par le biais de la sécrétion d'insuline.

Chez le diabétique de type 1, il faut apporter l'insuline par des injections pluri-quotidiennes, afin d'éviter les graves complications (rétine, vaisseaux, rein...) de cette pathologie chronique. Moins les cellules bêta sont capables de fonctionner, plus les complications touchant les microvaisseaux sont fréquentes.

L'étude de l'équipe de Richard Burt repose sur l'idée qu'il serait possible de réinitialiser le système immunitaire du malade en lui administrant ses propres cellules souches, un type de traitement habituellement appliqué dans des leucémies et d'autres maladies du sang. La même équipe avait déjà rapporté, en 2007, les bons résultats constatés chez quinze patients diabétiques de type 1 : la plupart des malades avaient pu se passer d'insuline pendant en moyenne dix-huit mois et présentaient des taux normaux d'hémoglobine glyquée, qui reflète la concentration du sang en glucose sur une longue période.

Par cette nouvelle étude, les auteurs ont voulu vérifier si leurs précédents résultats étaient durables ou s'ils n'avaient observé qu'une "lune de miel" transitoire. Cette fois, vingt-trois patients âgés de 16 à 31 ans, chez lesquels un diabète de type 1 avait été découvert au cours des six semaines précédentes, ont participé à l'essai. Dans un premier temps, un traitement a dopé leur production de cellules souches afin de pouvoir recueillir celles-ci par une simple prise de sang et non par un prélèvement de moelle osseuse.

Dans une seconde étape, les patients ont été hospitalisés et ont subi une chimiothérapie altérant leur système immunitaire, sans aller jusqu'à sa destruction complète. Pendant cette phase, les participants recevaient des médicaments afin de prévenir la survenue d'infections. Enfin, les cellules souches purifiées ont été réinjectées aux malades par voie sanguine, avant de gagner la moelle osseuse et d'y reconstituer les défenses immunitaires.

Au cours d'un suivi de trente mois en moyenne, vingt des vingt-trois patients ont pu se passer d'insuline. Douze d'entre eux ont maintenu ce statut pendant trente et un mois, et huit ont dû reprendre les injections d'insuline à faible dose. Chez la majorité des malades, les niveaux de peptide C dans le sang s'étaient accrus, ce qui reflète un meilleur fonctionnement des cellules bêta.

LM

Un nouveau médicament original contre la toxoplasmose et le paludisme
Vendredi, 24/04/2009 - 00:00

Une équipe de chercheurs grenoblois, marseillais et parisiens, vient de découvrir une molécule capable de combattre les parasites envahissant les cellules animales, tels que ceux responsables du paludisme et de la toxoplasmose. Une piste très intéressante pour de nouveaux médicaments.Le cycle de vie des parasites Toxoplasma et Plasmodium, respectivement responsables de la toxoplasmose et du paludisme, alterne entre prolifération intense et différenciation. Il implique un contrôle fin de l'expression des gènes. Cependant, les mécanismes moléculaires de ce contrôle sont encore obscurs. L'équipe de Mohamed-Ali Hakimi, chercheur à l'Inserm, a validé l'hypothèse qu'elle avait énoncée en testant l'effet de plusieurs molécules altérant certaines protéines de liaison à l'ADN.

L'une de ces molécules, FR235222, produite par un champignon filamenteux a prouvé son efficacité : elle inhibe des enzymes réprimant l'expression de certains gènes.Cette substance permet ainsi de réguler le développement du parasite, grâce à des gènes normalement inhibés. A son contact, la forme proliférative des parasites se différencie en une forme non réplicative : FR235222 serait ainsi capable de limiter, voire d'inhiber la prolifération du parasite.Aucune date n'a pour l'instant été communiquée concernant l'élaboration d'un éventuel médicament faisant appel aux propriétés de cette substance.

MS

Les fruits et légumes préviennent l'apparition du cancer colorectal...chez les non-fumeurs
Vendredi, 24/04/2009 - 00:00

Consommer 600 grammes de fruits et légumes par jour réduit le risque de cancer du colon chez les non-fumeurs mais l'augmenterait chez les fumeurs. L'équipe d'Hans Verhagen a interrogé plus de 450 000 personnes entre 1992 et 2000 et les a ensuite suivies jusqu'en 2006 afin de mesurer le nombre de cancers colorectaux développés et le taux de décès.

Voici la conclusion de l'étude : « Les gens qui mangent beaucoup de fruits et légumes semblent courir 20 à 25 % de risques en moins de développer un cancer du colon que ceux qui en mangent peu. Ceci n'est cependant pas valable pour les gens qui fument. Pour les fumeurs, manger des fruits et des légumes semble au contraire augmenter le risque de cancer du colon. »Hans Verhagen insiste pour que les fumeurs n'arrêtent pas de manger des fruits et légumes, mais arrêtent plutôt de fumer. Des recherches complémentaires doivent être réalisées pour comprendre et expliquer cette différence.

MS

La schizophrénie : des fondements neurobiologiques qui se précisent
Vendredi, 24/04/2009 - 00:00

Avec l'essor de l'imagerie fonctionnelle en neuropsychiatrie, une hypothèse sur la physiopathologie de la schizophrénie se trouve renforcée : cette maladie comporte une altération de la « connectique » intracérébrale (ou même en résulte). Autrement dit, elle implique des dysfonctionnements dans les échanges d'informations entre certaines régions de l'encéphale, au repos comme lors des activités. Ce modèle est étayé par plusieurs travaux convergents.

L'auteur cite par exemple une étude de JM. Ford et coll. démontrant qu' « un manque de synchronisation dans l'activité des neurones est lié directement à l'apparition d'hallucinations auditives dans la schizophrénie ».

Une autre étude (S. Lui et coll.) évoque des « corrélations entre la connectivité fonctionnelle et la symptomatologie clinique » ainsi qu'une « diminution du volume de la matière grise dans plusieurs parties du cerveau, notamment le gyrus temporal et le cingulum antérieur ». Soulignons un point essentiel de ce travail : il porte sur des patients « antipsychotic-naive », c'est-à-dire n'ayant encore jamais été traités par des neuroleptiques et vus lors d'un épisode psychotique inaugural.

Ce contexte est important, car il permet de repousser une controverse classique, analogue au paradoxe de « la poule et l'oeuf », c'est-à-dire sur l'antériorité respective des phénomènes observés : sont-ils réellement préalables à la maladie, ou secondaires aux contre-mesures qu'elle suscite, en l'occurrence les traitements neuroleptiques ? Les données disponibles permettent de trancher ce débat : les anomalies anatomiques (appauvrissement de la matière grise) et fonctionnelles (dysfonctionnement de la matière blanche, déficit de connectivité inter et intra-hémisphérique) précèdent effectivement toute imprégnation par des neuroleptiques.

Ces travaux éclairent ainsi le contexte de « dysconnectivité » constituant apparemment un levier étiologique dans la schizophrénie. Cependant, il plane encore une autre aporie semblable à « la poule et l'oeuf » : les dysfonctionnements concernant la matière grise (réseaux neuronaux) précèdent-ils ceux relatifs à la matière blanche (troubles de la connectivité), ou vice-versa ?

JIM

Nouvelle voie dans le traitement des toxicomanies
Vendredi, 24/04/2009 - 00:00

Des chercheurs américains de l'université de Buffalo ont conçu une nouvelle nanoparticule capable de désactiver un gène impliqué dans de nombreuses formes de toxicomanie.L'équipe de chercheurs a découvert le moyen "d'éteindre" le signal envoyé par la protéine cérébrale DARPP-32 aux neurones, lequel indique l'addiction aux drogues. Des acides ribonucléiques interférents courts (siRNA), composants cellulaires, ont été fixés sur des nanoparticules d'or servant de nano-barreaux.

Modifiés et stabilisés, ces barreaux microscopiques pénètrent mieux dans les cellules. Dans le cas de siRNA, le nano-barreau peut transporter 40 % de l'acide au travers de la barrière hémato-encéphalique, résultat jugé très élevé par les chercheurs. Le « complexe nano-barreau siRNA » est donc capable d'éteindre le signal du gène, de rester stable et de traverser cette barrière, sans être affecté dans son efficacité.Cette technique pourrait permettre le traitement des toxicomanies.

Des tests in vivo doivent être réalisés dans l'espoir d'ajouter un nouvel agent pharmaceutique à l'arsenal déjà existant pour lutter contre les toxicomanies. Elle pourrait aussi être appliquée à la maladie de Parkinson, au cancer et, de manière générale, à toute pathologie nécessitant une administration de médicaments au niveau du cerveau.

Yahoo

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top