RTFlash

RTFlash a besoin de vous pour continuer à exister !

Propulsé par HelloAsso

RTFLASH Recherche & Technologie
NUMERO 564
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 29 Juillet 2010
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
Fibre optique pour tous : les propositions de l'Avicca
Le dossier médical personnel disponible fin 2010
Un brevet Sony révolutionnaire: une TV, plusieurs contenus
Le MIT associe la fibre optique avec le piezoelectrique
Avenir
Un robot aide à résoudre une affaire criminelle
Matière
Un aimant supraconducteur sans système de refroidissement
Italie: inauguration de la plus grosse centrale mondiale à hydrogène
Une batterie géante pour stocker l'électricité renouvelable
Une centrale solaire photovoltaïque dans les Landes
McPhy Energy stocke l'hydrogène sous forme solide, plus écologique
Première mondiale : premier tir d'un démonstrateur d'AASM laser
Espace
Les quasars aussi sont des lentilles gravitationnelles !
Découverte de l'étoile la plus massive observée dans l'Univers
Terre
2010, année la plus chaude pour la planète
Réduction des émissions de CO2 à l'horizon de 2050 : le scénario idéal de l'AIE
Vivant
Thérapie génique : enfin le succès !
Cancer du sang : un nouveau traitement testé avec succès
L'asthme et l'eczéma diminuent le risque de développer un cancer
Vaccination : le patch pourrait remplacer l'aiguille
Une vaccination naturelle contre le paludisme ?
L'extrait de Ginkgo EGb 761® favorise la génération de nouvelles connexions neuronales dans le cerveau
Maladie de Parkinson, une nouvelle cible thérapeutique des troubles de la marche
Une voie immunitaire inédite de lutte contre l'athérosclérose
Cancérologie : un nouveau Système d'Imagerie préclinique
Recherche
Le parc français pourrait compter un million de voitures électriques d'ici à 2020
Edito
les nanotechnologies : nouvel outil contre le cancer



En mai 2010, pour la première fois, des nanoparticules ont pu conduire un médicament directement jusqu'à des tumeurs, chez l'homme. Plusieurs patients atteints d'un mélanome incurable ont reçu des injections intraveineuses de minuscules particules de 70 nanomètres de diamètre formées à partir d'un sucre, la cyclodextrine. Ces nanoparticules portaient et protégeaient le médicament, un petit ARN interférent. (Voir article duCaltech).

A leur surface, se trouvait également une protéine dont les cellules cancéreuses sont avides, la transferrine. Les chercheurs dirigés par Mark E. Davis, du Caltech (Pasadena, Californie), ont constaté que les nanoparticules avaient bien été absorbées par les cellules tumorales et avaient pu libérer leur petit ARN interférent. Ce dernier a alors détruit sa cible, l'ARN messager d'une enzyme vitale pour les cellules cancéreuses, la ribonucléotide réductase.

Il y a quelques jours, la nanomédecine vient de franchir une nouvelle étape importante. Une équipe américaine de l'Université de Californie (UCLA), est en effet parvenue à utiliser des nanoparticules mésoporeuses de silice (MSN), présentant une porosité organisée en réseau hexagonal pour transporter des médicaments au niveau de la tumeur. (Voir article UCLA).

L'injection des MSN chez ces animaux a montré que les particules circulent dans le sang mais se focalisent principalement sur la tumeur. Grâce aux MSN chargées de camptothécine, une molécule antitumorale, les tumeurs ont régressé, menant même à leur disparition chez certaines souris à la fin du traitement. Ce traitement a très peu d'effets secondaires et la plupart des particules a même été éliminée par les urines et les selles dans les quatre jours qui ont suivi l'injection.

L'efficacité des MSN ouvre de grandes perspectives dans l'amélioration de la thérapie anticancéreuse. Mais avant le passage à l'Homme, les chercheurs veulent encore améliorer les MSN. Ils essaient d'adapter des molécules à la surface des nanoparticules, afin qu'elles soient délivrées aux tumeurs avec encore plus de spécificité, mais aussi d'ajouter des « nanomachines », comme des nanovalves, qui pourraient contrôler la libération de la drogue dans les cellules.

Aux USA, une autre équipe de chercheurs du Brigham and Women's Hospital (BWH) et du département Health Sciences and Technology de Harvard et du Massachussets Institute of Technology)a conçu des nanoparticules à partir d'un polymère biodégradable et biocompatible approuvé par la Food and Drug Administration (FDA).

Ces nanoparticules sont chimiquement modifiées pour cibler et inhiber la voie de signalisation des mitogen activated protein kinases (MAPK). Ces voies de signalisation sont notamment responsables de la modulation de la transcription de gènes spécifiques, impliqués dans le contrôle de processus cellulaires comme la prolifération, la différenciation, l'apoptose ou les réactions inflammatoires. (Voir article BWH).

L'équipe de chercheurs a aussi modifié le polymère pour augmenter la charge de médicaments portée par les nanoparticules d'un facteur 20.

Cibler les cellules cancéreuses seules et en les prédisposant à recevoir les agents chimiothérapiques grâce à ces nouvelles nanoparticules permettra d'utiliser des concentrations de médicaments bien plus faibles, et les patients souffriront de beaucoup moins d'effets secondaires.

Les résultats obtenus en laboratoire semblent très prometteurs. La combinaison des nanoparticules et du médicament Cisplatine, utilisé dans le traitement de nombreux cancers (des testicules, de l'ovaire, de la sphère ORL, de l'oesophage, du col de l'utérus, de la vessie et les cancers de la peau), a prouvé son efficacité à empêcher le développement in vitro de cellules cancéreuses de la peau et du foie et même provoqué leur mort.

La même combinaison de nanoparticules a été utilisée sur des souris présentant des mélanomes : le développement de la tumeur a cessé et l'agent thérapeutique a ainsi gagné en efficacité. Dans le groupe de souris traitées avec les nanoparticules et le Cisplatine, la moitié ont vu leurs tumeurs régresser, contre aucune dans l'autre groupe traité avec le Cisplatine seul.

Enfin signalons les travaux d'une autre équipe américaine de la Washington University School of Medicine à Saint-Louis qui est parvenue à traiter des tumeurs chez des lapins à l'aide de nanoparticules recouvertes defumagiline , une toxine utilisée en chimiothérapie, que l'on trouve chez certains champignons. (Voir article de la WUSTL).

Les nanoparticules utilisées sont constituées essentiellement de perfluorocarbone, un composé bien connu, à la base du sang artificiel et bien toléré biologiquement. D'une taille de 200 nanomètres de diamètre environ, elles sont 500 fois plus fines qu'un cheveu humain et les chercheurs leur ont ajouté des composants augmentant leur visibilité par contraste en imagerie par résonance magnétique nucléaire (IRMN).

Les chercheurs ont étudié leur effet sur la croissance des vaisseaux sanguins alimentant les tumeurs chez les lapins selon qu'elles sont administrées avec ou sans fumagilline. A la surface des nanoparticules, elle aide celles-ci à se fixer préférentiellement sur les protéines des cellules de vaisseaux sanguins alimentant les cellules cancéreuses et elle bloque la formation de ces vaisseaux. Les expériences prouvent qu'avec des doses extrêmement faibles de fumagilline, la prolifération des vaisseaux sanguins et donc la croissance des tumeurs est fortement ralentie.

Dans la même Université, les chercheurs expérimentent un traitement qui permet de détruire de manière très sélective des cellules cancéreuses à l'aide d'un laser qui vient chauffer des nanoparticules d'or amenées à proximité des cellules malades grâce à des « nanocages ».(Voir article de al WUSTL).

Comme le montrent ces remarquables recherches, la guerre contre le cancer ne sera gagnée qu'en mobilisant et en combinant l'ensemble des disciplines scientifiques, biologie, génétique et chimie bien sur mais également physique, mathématiques, informatique et optique...

Ces récentes avancées montrent enfin à quel point les nanotechnologies seront au coeur des grandes avancées thérapeutiques et des nouvelles approches conceptuelles de demain en matière de prévention, de détection et de lutte contre le cancer.

René Trégouët

Sénateur honoraire

Fondateur du Groupe de Prospective du Sénat


TIC
Information et Communication
Fibre optique pour tous : les propositions de l'Avicca
Vendredi, 30/07/2010 - 00:00

Au mois de juin, l'ARCEP soumettait à consultation publique un plan de mutualisation des réseaux FTTH dans les zones moins denses où elle préconisait notamment des points de mutualisation plus en amont sur le réseau, qui regroupent « 1000 lignes avec un seuil minimal de 300 lignes ». L'Avicca vient de publier la réponse qu'elle a fait parvenir au régulateur national.

Si l'association reconnaît que le projet de décision de l'ARCEP vise à tempérer la « concurrence par les infrastructures » entre opérateurs, elle craint néanmoins que le plan de mutualisation des réseaux FTTH en zones moins denses ne dissuade les collectivités territoriales d'investir et n'encourage le fibrage sélectif au détriment de la couverture intégrale des territoires concernés.

En effet, bien qu'il soit largement favorable à la mutualisation, le projet de décision de l'ARCEP permet à un opérateur de « renvoyer la couverture "horizontale" complète jusqu'à 5 ans après son démarrage », de « faire supporter l'essentiel des coûts de raccordement (plusieurs milliers d'euros) à l'utilisateur, en particulier dans les pavillons et les petits immeubles » et de « ne pas raccorder les locaux professionnels : commerces, professions libérales, petites entreprises, services publics, qui ont encore davantage besoin de la fibre que les particuliers ».

Forte de son expérience de terrain, l'Avicca suggère donc à l'ARCEP d'obliger les opérateurs à formuler des offres de raccordement sur l'ensemble de la zone, « de prendre en compte tous les locaux et non les seuls logements », « d'augmenter la taille de la zone de mutualisation » pourtant déjà très importante, « d'alléger les contraintes sur le co-investissement pour les réseaux d'initiative publique » afin de ne pas dissuader les collectivités territoriales d'investir dans l'aménagement numérique et enfin « de faire droit aux demandes de fibre surnuméraire si la collectivité veut déployer des services sur son territoire par ce moyen ». Ce n'est qu'à ce prix que la lutte contre la fracture numérique et les « fissures » pouvant se créer au sein des communes apparaît efficace à l'Avicca.

Avicca

Le dossier médical personnel disponible fin 2010
Vendredi, 30/07/2010 - 00:00

Votre dossier médical sera bientôt en ligne. Une première version nationale du dossier médical personnel (DMP), prévu pour permettre à chaque assuré d'avoir un accès électronique à ses données de santé, sera mis en place à partir du mois de décembre, a indiqué jeudi 22 juillet Roselyne Bachelot. "Dès le mois de décembre prochain, le DMP sera lancé sur l'ensemble du territoire, et ce déploiement se poursuivra tout au long de l'année 2011", a déclaré la ministre de la Santé lors d'un déplacement à Bordeaux.

Le Dossier médical personnel est un dossier médical informatisé, confié à des hébergeurs agréés, qui accompagne le patient tout au long de sa vie. Il est censé favoriser la coordination des soins sous le contrôle du patient, le tout dans le respect du secret médical et de la vie privée. Ce dossier informatisé a déjà été expérimenté dans plusieurs régions et "plus d'un million de DMP ont déjà été créés", a-indiqué Roselyne Bachelot. Lancé en 2004, le DMP avait été présenté comme la pierre angulaire de la réforme de l'assurance maladie, et devait être opérationnel dès 2007. "Les conditions techniques nécessaires au DMP sont réunies"

A son arrivée au ministère en 2007, Mme Bachelot avait pris connaissance de l'impasse dans laquelle se trouvait ce projet, qui visait à l'origine à la fois une meilleure coordination des soins et des économies pour l'assurance maladie, et elle s'était engagée à le relancer rapidement.

Mais le projet a accumulé les déboires et les retards. Le DMP a suscité les réserves aussi bien des professionnels de santé que des associations de patients, ces derniers regrettant notamment des garanties insuffisantes sur la confidentialité des données. En 2009, Mme Bachelot avait enfin annoncé une première version nationale "en 2010".

D'après la ministre, désormais, "les conditions techniques nécessaires au DMP sont également réunies", à travers notamment "la publication d'un premier cadre d'interopérabilité pour l'ensemble des systèmes d'information de santé", "la définition d'un identifiant national de santé" et "la mise en oeuvre des dispositions relatives à l'agrément des hébergeurs".

Express

Un brevet Sony révolutionnaire: une TV, plusieurs contenus
Vendredi, 30/07/2010 - 00:00

Le géant japonais Sony a obtenu mi juillet un brevet qui pourrait bien faire grand bruit s'il est exploité. Il s'agit d'un système exploitant la 3D et permettant de montrer un contenu différent en même temps selon l'angle de vue. En somme, par exemple, trois personnes pourront regarder trois contenus différents sur la même télévision.

Il faudra bien entendu se munir de lunettes spéciales.Si l'on en croit le brevet, deux personnes pourront voir le même contenu, et une autre un contenu différent. Qui plus est, la source pourra être différente. Par exemple, une personne jouant à une console de jeux vidéo, une autre regardant une émission de télévision et une autre visionnant un DVD ou un Blu-ray. Le son respectif de chaque contenu sera bien entendu lui aussi reproduit.

Mieux encore, la technologie pourrait bien gérer deux joueurs en même temps jouant au même jeu, mais avec chacun leur point de vue. L'écran n'aura alors pas besoin d'être divisé pour montrer la vision des deux joueurs. L'avantage de cette technologie est alors évident si elle fonctionne parfaitement.Notez que cette fantastique utilisation de la 3D a été (en partie) imaginée par un INpactien (Adrian Shephard) le 10 juin dernier, dans un commentaire d'une actualité sur les jeux en 3D stéréoscopiques pour la PS3. Voici son commentaire :« Si avec un écran de 120Hz on peut faire de la 3D avec une paire de lunettes dont les verres s'occultent alternativement...

Yahoo

Le MIT associe la fibre optique avec le piezoelectrique
Vendredi, 30/07/2010 - 00:00

L'Institut de technologie du Massachusetts (MIT) vient de dévoiler sa dernière trouvaille technologique, il s'agit d'un dispositif qui combine à la fois la technologie de la fibre optique avec celle du piézoélectrique.

Les fibres sont déjà présentes dans de nombreuses d'applications - du vêtement intelligent capable de surveiller le corps, aux capteurs de structure qui permettent de détecter les plus petites contraintes exercées sur un bâtiment, en passant par des dispositifs médicaux auto-alimentés.

Ce n'est pas la première fois que l'équipe du MIT met au point des fibres intelligentes, sensibles à la chaleur et à la lumière. La nouveauté réside dans l'ajout de matériaux à fonctionnalité piézoélectrique qui lui permet de convertir l'énergie mécanique en signaux électriques et inversement. Les fibres innovantes peuvent non seulement transporter et moduler la lumière, mais elles peuvent également "ressentir ou créer" des changements de pression dans le matériau.

"Nous voulons augmenter le niveau de complexité et de sophistication des fibres", explique Yoel Fink, professeur des science des matériaux et d'ingénierie au MIT .Le nouveau dispositif a pour vocation de s'intégrer dans des applications multifonctionnelles ambitieuses comme la mise au point de minuscules biocapteurs, aux imageries à ultrasons.

Enerzine

^ Haut
Avenir
Nanotechnologies et Robotique
Un robot aide à résoudre une affaire criminelle
Vendredi, 30/07/2010 - 00:00

En 1991, une femme disparaît sans laisser de traces après avoir été vue une dernière fois dans la voiture de son petit ami. Celui-ci est rapidement soupçonné par la police de Santa Clara (Californie). Faute de preuves, le suspect doit être relâché.

Des années plus tard, à la suite de plusieurs témoignages d'informateurs, la police apprend que la voiture aurait été démontée et enterrée. Elle pourrait se trouver dans une zone abandonnée d'Alviso. Mais par manque de précisions, la zone à couvrir est trop vaste, et l'excavation entière du terrain se révèle trop onéreuse. Autre problème : les détecteurs de métal classiques montrent leurs limites, en raison du grand nombre de débris métalliques enterrés dans le sol.

e procureur du comté de Santa Clara demande alors l'aide de l'United States Geological Survey (USGS), qui fait de même avec la NASA. Un de ses départements propose d'embarquer ses dernières technologies pour radars magnétiques et à pénétration de sol (des algorithmes d'analyse en temps réel notamment) sur un petit robot à roulettes autonome, le Senseta Max 5.0A, développé par une spin-off de l'université Carnegie Mellon, installée dans la Silicon Valley.

La machine analyse alors chaque parcelle de terrain parcourue à la recherche d'une carcasse de voiture dans toute la zone concernée. Une carte magnétique du terrain est ainsi dressée. Après avoir analysé les données, les scientifiques ont été en mesure d'indiquer plusieurs zones restreintes pouvant abriter des morceaux de carcasse de voiture. Les policiers y ont retrouvé des parties du véhicule du suspect. Placé devant les faits, celui-ci a alors avoué. Il a été condamné à une peine de 6 ans de prison.

OOINet

^ Haut
Matière
Matière et Energie
Un aimant supraconducteur sans système de refroidissement
Vendredi, 30/07/2010 - 00:00

L'Institut Technique de Recherche Ferroviaire (RTRI) a annoncé le 30 juin 2010 avoir terminé le développement d'un nouvel aimant supraconducteur à haute température destiné au train à sustentation magnétique (MAGLEV). De petite taille, il peut fonctionner pendant 9 heures sans système de refroidissement.

Depuis 1962, le Japon travaille au développement d'un train à sustentation magnétique (appelé MAGLEV - MAGnetic LEVitation), dans le but de s'affranchir des frottements entre les roues et les rails des trains classiques et ainsi d'atteindre la vitesse commerciale de 500 km/h. Le train est actuellement détenteur du record mondial de vitesse pour un système ferroviaire (581 km/h).

Cependant, bien que le rapport annuel publié en 2005 par le Comité d'Evaluation des Technologies Nécessaires au Déploiement du Train à Sustentation Magnétique conclut que le train est technologiquement prêt à fonctionner, de nombreux efforts de recherche restent à fournir pour réduire les coûts très élevés de construction, d'exploitation et d'entretien, et ainsi pouvoir ouvrir une première ligne entre Tokyo et Nagoya au plus tôt en 2025.

Le train à sustentation magnétique japonais fonctionne avec un moteur linéaire synchrone. Le train dispose de bobines magnétiques positionnées le long de la rame avec les pôles Nord et Sud disposés alternativement de l'avant vers l'arrière du train. Des bobines de propulsion sont situées tout le long de la voie. Elles sont alimentées en courant alternatif dont la fréquence est asservie à la vitesse du train. Ainsi chaque bobine voit ses pôles s'inverser de manière à ce qu'elle repousse la bobine du train qui vient de passer devant elle et attire celle qui vient vers elle.

Toutes les forces exercées sur le train concourent ainsi à le propulser dans le même sens (voir figure 2). Le déplacement du train induit alors un courant électrique dans les bobines de sustentation situées au sol. Quand le champ magnétique de ces dernières devient suffisamment important, c'est-à-dire quand le train dépasse les 100 à 150 km/h, celui-ci lévite de 10 cm du fait de l'interaction entre les bobines situées à bord du train et au sol.

Les aimants embarqués par le train sont des bobines supraconductrices. Autrement dit, elles sont maintenues à une température très basse pour supprimer leur résistance électrique. Par conséquent, toute variation d'un champ magnétique (ici celui des bobines situées au sol) induit dans les bobines embarquées un courant qui n'est pas amorti et qui crée un champ magnétique, et ce sans apport extérieur de courant.

es premières bobines étaient constituées de niobium-titane et fonctionnaient à une température de 4 K, ce qui nécessitait des structures de refroidissement compliquées à base d'hélium et d'azote liquides. Par la suite, les chercheurs du RTRI et Toshiba entre autres ont développé des bobines supraconductrices à haute température (20 K) qui autorisent une simplification des systèmes de refroidissement et donc une économie de poids et d'énergie.

Le nouvel aimant développé par le RTRI possède des bobines en yttrium. Leur supraconductivité est maintenue même à la température "élevée" de 50 K. Le champ magnétique au coeur de la bobine est de 2 T à 30 K et de 1 T à 50 K, des valeurs qui sont de l'ordre des champs des aimants actuellement montés sur la rame d'essai MLX01. Par ailleurs, les bobines sont enfermées sous vide dans une coque qui maintient une température inférieure à 50 K pendant 9 heures (avec une température de départ de 20 K). Cette caractéristique pourrait permettre à l'avenir de ne pas embarquer à bord du train les systèmes de refroidissement des aimants, la durée de préservation de la température étant bien supérieure à celle du parcours prévue entre Tokyo et Osaka (une heure).

BE

Italie: inauguration de la plus grosse centrale mondiale à hydrogène
Vendredi, 30/07/2010 - 00:00

Le groupe italien Enel a inauguré lundi près de Venise une importante centrale électrique à hydrogène, la "première au monde" de cette dimension, représentant un "premier pas" dans le développement de cette source d'énergie propre qui n'est pas encore compétitive.Cette centrale "est la seule au monde en mesure de produire de l'énergie dans cette quantité en utilisant de l'hydrogène", a déclaré le directeur général d'Enel, Fulvio Conti, au cours de la cérémonie d'inauguration.

Cette centrale se situe à Fusina (nord-est) dans le même complexe qu'une immense centrale du groupe fonctionnant au charbon.L'hydrogène, qui y est utilisé, est un résidu du raffinage d'hydrocarbures réalisé dans un pôle pétrochimique situé à quatre kilomètres.

La puissance de cette centrale, qui n'émet pas de CO2, est de 16 mégawatts et sa production sera de 60 millions de kilowatts/heure par an, ce qui permettra de fournir de l'énergie à environ 20.000 foyers en évitant l'émission de plus de 17.000 tonnes de CO2 par an.

La phase expérimentale de la production avait commencé en août 2009 et la centrale, qui a nécessité un investissement de 50 millions d'euros, est désormais totalement opérationnelle.

Selon M. Conti, cette centrale "n'est pas une solution pour une large utilisation de l'hydrogène destiné à produire de l'énergie, mais la première étape d'un parcours qui nous conduira au cours des prochaines années à un développement significatif".

Il faudra "malheureusement des décennies" pour que la production d'énergie à partir de l'hydrogène, qui est actuellement "cinq à six fois plus chère" que la production dans une centrale thermique classique, soit réellement compétitive, a-t-il souligné."Mais est-ce une raison pour arrêter d'investir ? Non", a poursuivi M. Conti, se disant "confiant" dans le fait que "notre technologie nous permettra de développer cette importante source d'énergie" dans l'avenir.

Romandie

Un procédé révolutionnaire de neutralisation des déchets nucléaires?
Vendredi, 30/07/2010 - 00:00

Une équipe de chercheurs russes affirme avoir mis au point au Kamtchatka (Extrême-Orient russe) un procédé fondamentalement nouveau d'enfouissement des déchets nucléaires liquides et semi-liquides, consistant à enfouir les déchets à une température élevée (350°) dans des systèmes hydrothermaux. "Nous avons procédé à une étude détaillée du système géothermal de Paramouchir, explique Alexandre Vaïner, l'un des co-auteurs du projet. L'île de Paramouchir, la plus proche du Kamtchatka, a été choisie comme terrain d'expérimentation pour construire ce système et déterminer, en envoyant dans un puits un liquide de simulation, ce qui se produit avec les sels de métaux lourds à une grande profondeur."

L'expérience a montré que la chaîne des réactions chimiques conduit à la formation, à partir des déchets radioactifs, de combinaisons stables et de gisements géologiques miniers d'origine hydrothermale. Dans ces conditions naturelles, les déchets s'associent dans des ensembles géologiques localisés, inoffensifs pour la biosphère, affirment les auteurs du projet. Autrement dit, l'opération consiste à restituer à la nature ce qu'on lui a pris.

Au Kamtchatka et dans les îles Kouriles, on a mis en évidence une combinaison unique de pression, de températures et autres facteurs, qui activent des processus géochimiques naturels de dépôt des sels de métaux lourds dans ce que l'on appelle les "zones de transition profondes". Et tout cela se produit en tout en quelques heures. Ce système, assure Alexandre Vaïner, a une capacité permettant "d'enfouir tous les déchets radioactifs de tous les pays du monde".

La neutralisation des déchets dans des systèmes géothermaux serait écologiquement inoffensive et apporterait une solution peu onéreuse à un problème majeur qui se pose à l'échelle mondiale, assurent ces scientifiques. Entre 1993 et 1996, ils ont obtenu trois brevets pour cette technique de neutralisation des déchets. Ce qui importe, c'est que le système géothermal utilisé convienne à la neutralisation des déchets: toute une série de conditions sont nécessaires, et notamment une température et une pression élevées, ainsi qu'une minéralisation poussée et une puissante décharge du flux.

De tels systèmes n'existent sûrement pas qu'au Kamtchatka. On pourrait en découvrir dans d'autres zones du globe. Mais dans bien des régions, l'accès sera beaucoup plus difficile et bien plus onéreux. Viktor Sougrobov, ancien responsable du département de géothermie et de géochimie de l'Institut de volcanologie de la section Extrême-orientale de l'Académie des sciences russe, estime qu'un système tel que celui de Paramouchir permettrait de neutraliser une centaine de tonnes d'uranium par an, ainsi que des déchets radioactifs. Ce procédé, note-t-il, est conforme aux exigences de l'AIEA.

Les chercheurs soulignent que cette intrusion dans des processus naturels n'aura pas de conséquences négatives. Cela s'explique par le volume insignifiant des déchets envoyés comparativement aux volumes de ces flux. Ils estiment que cette neutralisation des déchets pourrait commencer à être mise en oeuvre d'ici un an.

BE

Une batterie géante pour stocker l'électricité renouvelable
Vendredi, 30/07/2010 - 00:00

La problématique du stockage de l'énergie est fatalement plus prégnante à La Réunion qu'elle ne peut l'être sur le territoire hexagonal. Cela découle non seulement du caractère isolé du réseau électrique réunionnais mais aussi du développement à grande échelle des énergies renouvelables (EnR) intermittentes comme le solaire ou l'éolien.

On estime ainsi que la limite imposée par la loi des 30% d'EnR intermittente sur le réseau serait atteinte aux alentours de 2015. Il est donc nécessaire de trouver une solution d'ici là.Toutefois, malgré cet état de fait, le travail sur le stockage à La Réunion date de trois ou quatre années tout au plus. Et jusqu'en début d'année, ce travail s'était uniquement cantonné à des aspects théoriques ou à des analyses comparatives afin de déterminer quelles étaient les voies les plus prometteuses pour notre île.

Les choses ont depuis changé. Le premier acteur local à proposer une expérimentation n'est autre qu'EDF qui devrait inaugurer très prochainement (septembre) le démarrage d'une batterie sodium soufre (NaS) d'une puissance de 1 MW dans la commune de Saint André. Cette batterie permettra de lisser les appels de charge au niveau du poste source voisin, réduisant ainsi les impacts des fluctuations sur les moyens de production en amont. Il est également question de la prochaine mise en oeuvre d'un projet porté par des acteurs privés de couplage de l'énergie éolienne à de l'énergie hydraulique par le biais d'une station de pompage turbinage.

Par ailleurs, la Commission de Régulation de l'Energie (CRE), consciente de la problématique insulaire du stockage, a lancé un appel à projets pour des projets solaires intégrant une composante stockage et pour une puissance de 5 MW. Les 2 projets réunionnais qui seront choisis normalement à la fin de l'année seront autant d'expérimentations grandeur nature permettant de préparer l'avenir et de définir les meilleures configurations de couplage entre des EnR et du stockage énergétique.

En parallèle, les travaux théoriques continuent grâce notamment au groupe H2-RUN et à la présence en son sein d'acteurs nationaux oeuvrant dans le domaine du stockage énergétique. Des travaux de collaboration entre l'ARER, le CEA (Commissariat à l'Energie Atomique) et HELION sur des projets sur fonds propres (EDELVEISS) ou des projets financés (PÉPITE) sont en cours et qui sont autant de pierres apportées à la compréhension globale du système énergétique insulaire et plus précisément de la problématique du stockage.

Temoignages.re

Une centrale solaire photovoltaïque dans les Landes
Vendredi, 30/07/2010 - 00:00

La plus grande centrale photovoltaïque développée à ce jour en France a été inaugurée le 12 juillet à Losse (Landes). Elle comprend trois tranches de 12 MWc ainsi qu'une centrale pilote sur trackers de 2 MWc. Cette dernière compte 11.100 panneaux fixés sur des structures mobiles conçues par la start-up girondine Exosun, permettant de suivre la course du soleil et d'optimiser leur production. Les panneaux sur structures fixes sont équipés de la technologie à couche mince de First Solar, le partenaire américain d'EDF EN.

D'ici au début 2011, les panneaux photovoltaïques devraient s'étendre sur une superficie de quelque 300 hectares, délivrant une puissance maximale de 44 MW, soit l'équivalent de la consommation d'une ville de 40 000 habitants.La construction de 12 MWc supplémentaires vient d'être lancée et le projet pourrait atteindre jusqu'à 76 MWc d'ici à 2011 et fournir l'équivalent de la consommation annuelle de 11 % de la population des Landes.La centrale permettra d'éviter des émissions de 5 200 tonnes de CO2 par an. EDF EN qui se veut discret sur l'investissement global, aura injecté plus de 230 millions d'euros dans la centrale de Gabardan.

UN

McPhy Energy stocke l'hydrogène sous forme solide, plus écologique
Vendredi, 30/07/2010 - 00:00

La batterie française des « cleantechs » s'enrichit d'une technologie inédite : le stockage d'hydrogène à l'état solide sous forme d'hydrures métalliques, en l'occurrence de magnésium. Ces composés chimiques, qui se forment lorsque l'hydrogène gazeux réagit au contact de certains métaux, confèrent une densité plus importante qu'un gaz comprimé ou liquide. Les deux procédés existants, la compression et la liquéfaction, qui sont établis sur le marché, génèrent un bon rendement, mais posent néanmoins des problèmes de sécurité et de coût, liés aux processus de compression et de refroidissement.

Car si l'hydrogène est un combustible « idéal », il est difficile à stocker vu son extrême légèreté, nécessitant une phase de densification à haute température et pression pour en réduire le volume.

L'alternative mise au point par la société McPhy Energy, plus écologique et moins coûteuse, s'adresse à deux marchés. L'un est mature : les industriels qui ont besoin d'hydrogène pour assurer leurs cycles de production. Jusqu'à présent, ce combustible était distribué sous forme liquide ou gazeuse dans des bouteilles, par pipelines, camions-citernes ou rail.

Ce schéma logistique complexe, la start-up propose de le remplacer par des solutions intégrées de production d'hydrogène sur site avec des conteneurs de stockage sous forme solide, à basse pression. L'objectif est de réduire les risques industriels, ainsi que l'empreinte écologique. L'autre marché est en devenir : le secteur des énergies renouvelables, principalement les centrales solaires et les parcs éoliens qui utilisent tout ou partie de l'électricité générée pour produire de l'hydrogène. Le but visé est de lisser les capacités de production, dépendantes des aléas climatiques, pour mieux coller à la demande.

Quelques investisseurs à la fibre verte ont flairé le potentiel de la technologie originale de McPhy Energy. A commencer par Sofinnova Partners, qui joue le rôle de chef de file de la seconde levée de fonds que la société, créée en 2008, vient de boucler à 13,7 millions d'euros. Dans son « business model », le capital-risqueur a trouvé tous les atouts qu'il recherche pour miser sur l'avenir d'une start-up : une rupture technologique majeure, un marché porteur (deux en l'occurrence) et un management qui maîtrise la problématique du stockage de l'énergie.

« La société repose sur une équipe expérimentée capable de construire un futur leader du stockage d'hydrogène, qui aura sa place aux côtés de sociétés telles qu'Air Liquide ou Saft », estime Alessio Beverina, l'expert en « cleantechs » de Sofinnova Partners. Avec cette première enveloppe, l'entreprise a construit sa ligne de production et réalisé un réservoir d'hydrures de magnésium livré au CEA-Liten en mars 2010, pour procéder à des tests à l'échelle industrielle. Un deuxième réservoir de grande capacité, qui est en cours de fabrication, sera mis en service d'ici à la fin de l'année.

Echos

Première mondiale : premier tir d'un démonstrateur d'AASM laser
Vendredi, 30/07/2010 - 00:00

La Direction générale de l'armement (DGA) a réalisé avec succès le jeudi 17 juin 2010 le premier tir d'un armement air sol modulaire (AASM) en version laser sur son site de Biscarrosse. Ce tir d'une munition à guidage laser à arrivée verticale, constitue une première mondiale. Il a été réalisé dans le cadre du programme d'étude amont (PEA) nommé « DASIGL » (démonstrateur d'armement air-sol inertie GPS laser), que la DGA a notifié à Sagem (Groupe Safran) en 2008.

La version laser constitue la troisième version de l'armement AASM. La première version de l'AASM dite « inertie-GPS » a été qualifiée en 2008, elle est aujourd'hui opérationnelle et déployée en Afghanistan. La seconde version qualifiée en 2009 est la version infrarouge dont les tirs d'évaluation technico-opérationnelle sont en cours. Le 17 juin, au centre DGA essais de missiles de Biscarrosse, un Rafale, mis en oeuvre par le centre DGA essais en vol, a largué un démonstrateur d'AASM laser au dessus de la mer, à une altitude de 13 000 pieds (4 000 mètres) et à une distance de 25 km de la cible.

Constituée de blocs béton et d'un figuratif d'1m2, la cible était éclairée par un illuminateur sol opérationnel placé à plusieurs centaines de mètres. Le guidage de la munition avait été volontairement initialisé en décalant les coordonnées GPS de la cible de plusieurs dizaines de mètres, afin de vérifier que l'autodirecteur laser jouait bien son rôle et rattrapait cette erreur initiale. Arrivé verticalement, le démonstrateur AASM a impacté le point visé à moins d'un mètre.

Première mondiale : premier tir d'un démonstrateur d'AASM laser.Première mondiale, ce tir à arrivée verticale d'une munition à guidage laser, permet de maîtriser les paramètres à l'impact et de minimiser les risques de dégâts collatéraux. Ces caractéristiques rendent l'AASM dans sa version laser particulièrement apte au combat urbain, tout en gardant la capacité de tir à distance de sécurité offerte par les deux versions précédentes.

Armées

^ Haut
Espace
Espace et Cosmologie
Les quasars aussi sont des lentilles gravitationnelles !
Vendredi, 30/07/2010 - 00:00

Les quasars (contraction de «quasi stellar astronomical radiosource») sont des objets astronomiques particuliers, ils ont l'apparence d'une étoile mais sont en fait des sources de rayonnement puissant très lointaines. Ces objets seraient la partie visible de galaxies actives hébergeant un trou noir massif. Un quasar unique pourrait être mille fois plus brillant que toute une galaxie d'une centaine de milliards d'étoiles, ce qui rend l'étude de leurs galaxies hôtes extrêmement difficile.

Selon la théorie générale de la relativité d'Einstein, si une grande masse (comme une galaxie ou grand un amas de galaxies) est placé le long de la ligne de mire d'une galaxie lointaine, le rayonnement lumineux provenant de la galaxie sera dévié par le fort champ gravitationnel de la lentille, déformant et parfois dédoublant ainsi les images que recevra un observateur placé sur la ligne de visée. La première lentille gravitationnelle a été découverte en 1979, elle produit une image d'un quasar lointain dédoublée et grandie par une galaxie au premier plan.

Le Laboratoire d'astrophysique de l'EPFL a observé pour la première fois un cas de quasar placé entre la Terre et une galaxie plus lointaine et jouant le rôle de lentille gravitationnelle. Cette avancée permettra des observations inédites grâce à ce phénomène qui offre une illustration de la relativité générale d'Albert Einstein.

Une galaxie, distante de 7,5 milliards d'années lumière, apparaît, magnifiée par un objet extrêmement lumineux situé entre elle et la Terre. Il s'agit d'un quasar agissant comme lentille gravitationnelle, que le Laboratoire d'astrophysique de l'EPFL en collaboration avec l'Institut Technologique de Californie (Caltech), a pu observer pour la première fois. La nouvelle est publiée aujourd'hui dans le magazine Astronomy & Astrophysics.

Un quasar désigne la partie centrale d'une galaxie en train d'être absorbée par un trou noir et qui devient alors extrêmement lumineuse.

Une lentille gravitationnelle est un phénomène omniprésent dans l'univers. Il est induit par des objets massifs, tels que des étoiles ou des galaxies, qui dévient les rayons de lumière à leur proximité. Si l'un de ces éléments est placé entre la Terre et une galaxie plus lointaine, cette dernière apparaîtra ainsi plus lumineuse, et donc plus facilement observable, mais également fortement déformée. Si l'alignement entre les différents astres est proche de la perfection, l'image de la source sera multipliée.

Ce phénomène de lentille est une conséquence intéressante de la Théorie de la relativité générale d'Einstein. Mais il est également un outil précieux dans le domaine de l'astrophysique, avec des applications dans la recherche d'exo-planètes, l'étude d'étoiles, de galaxies ou de quasars. La distorsion de la lumière, le nombre d'images de l'objet le plus éloigné et leur position dans le plan du ciel, fournit par exemple des informations essentielles sur la distribution de la matière de la galaxie agissant comme lentille et permet d'en peser la masse totale, matière noire incluse.

Une centaine de quasars dont l'image est démultipliée par une galaxie placée entre lui et la Terre ont été recensés. Mais c'est la première fois que le cas inverse est observé - le quasar est au premier plan, la galaxie au deuxième. L'intérêt de cette découverte est qu'elle offre la possibilité inédite de pouvoir mesurer la masse d'une galaxie contenant un quasar.

Cette avancée a été réalisée grâce à la base de données du SLOAN Digital Sky survey (www.sdss.org), qui met à disposition des scientifiques des cartes en trois dimensions couvrant plus d'un quart du ciel et montrant près d'un million de galaxies et plus de 120'000 quasars. Un échantillon de quelques 23'000 d'entre eux, situés dans l'hémisphère nord, a été sélectionné par l'équipe du Laboratoire d'astrophysique. Au final, seuls quatre d'entre eux semblaient agir comme lentille gravitationnelle.

L'un d'eux a été observé avec le télescope Keck (Caltech), implanté au sommet du Mauna Kea à Hawaii. Ces images seront complétées dans les prochains mois par des prises de vue de très haute qualité provenant du télescope spatial Hubble et qui ouvriront la voie à une étude systématique des quasars grâce à l'effet de lentille gravitationnelle.

EPFL

Découverte de l'étoile la plus massive observée dans l'Univers
Vendredi, 30/07/2010 - 00:00

Une immense boule de gaz lumineux située dans la nébuleuse de la Tarentule pourrait être l'étoile la plus lourde jamais découverte jusqu'ici. Baptisée R136a1, elle a une masse équivalente à environ 265 fois celle du soleil et est également près de dix millions de fois plus lumineuse, ont annoncé mercredi des astronomes britanniques.

En utilisant des instruments du Très grand télescope (VLT) de l'Observatoire européen austral (ESO), "une équipe d'astronomes a découvert l'étoile la plus massive connue à ce jour avec une masse à la naissance supérieure à 300 fois la masse de notre soleil, soit deux fois les 150 masses solaires considérées actuellement comme la masse maximale pour une étoile", souligne l'ESO dans un communiqué.

L'étoile obèse, qui aurait pesé 320 masses solaires à la naissance, maigrit à mesure qu'elle prend de l'âge. Elle s'est déjà considérablement amincie au cours de son existence, souligne l'astrophysicien Paul Crowther, de l'université de Sheffield.

R136a1 se consume avec une telle intensité qu'elle est près de dix millions de fois plus lumineuse que le soleil. "Contrairement aux humains, ces étoiles naissent 'grosses' et perdent du poids en vieillissant", souligne M. Crowther. "R136a1 est déjà à la moitié de sa vie et a déjà subi un intense régime amaigrissant, perdant un cinquième de sa masse initiale pendant cette période, ce qui correspond à plus de cinquante masses solaires".

La géante a été découverte au centre d'un amas d'étoiles de la nébuleuse de la Tarentule, elle-même située dans le Grand nuage de Magellan, galaxie se trouvant à 165.000 années-lumière de notre Voie lactée.

M. Crowther et son équipe ont découvert plusieurs étoiles géantes, dont R136a1, présentées dans les "Comptes rendus mensuels de la Société royale d'astronomie" (MNRAS). D'autres étoiles peuvent être plus grandes, notamment les "géantes rouges", mais elles sont beaucoup moins lourdes.

Reste que R136a1 et les autres géantes découvertes sont des dizaines de fois plus grandes, et également plus brillantes et plus chaudes, que le soleil. Leur température en surface peut dépasser les 40.000 degrés Celsius, soit sept fois plus que le soleil.

Les étoiles massives se consument rapidement et meurent jeunes. "La plus grosse vit seulement trois millions d'années", précise M. Crowther. "En astronomie, c'est très bref". Leur courte espérance de vie et leur rareté -elles ne se forment que dans les amas d'étoiles les plus denses- sont deux des raisons qui expliquent pourquoi ces étoiles obèses sont si difficiles à découvrir.

Les possibilités de recherche pour les astronomes sont également limitées. Dans les amas trop éloignés, il n'est pas toujours possible de savoir si un télescope a repéré une étoile obèse ou deux plus petites situées à proximité l'une de l'autre.

ESO

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
2010, année la plus chaude pour la planète
Vendredi, 30/07/2010 - 00:00

La planète n'a jamais eu aussi chaud que lors des six premiers mois de 2010. La faute au changement climatique? Prudents, des experts jugent qu'il faut plus de recul pour analyser ces chiffres records, et identifient d'autres causes possibles, comme le fameux El Nino.De janvier à juin, la température moyenne du globe --océans et terres-- a été la plus élevée jamais enregistrée, selon des mesures de l'Agence américaine de l'océan et de l'atmosphère (NOAA).Elle a atteint 14,2° en moyenne, soit 0,68° au-dessus de la moyenne du 20ème siècle.

Des pics de chaleur constatés principalement, "entre avril et juin en Europe centrale, dans la partie nord du continent nord-américain, le nord du continent sud-américain, l'Afrique de l'ouest, et le bassin caraïbes", précise Jean-Pierre Ceron, directeur adjoint de la climatologie à Meteo France.Et "jusqu'à la fin du printemps, les océans étaient tous chauds", ajoute-t-il.

Un phénomène attribuable au réchauffement climatique? Les climatologues interrogés par l'AFP estiment qu'il est difficile pour l'heure de lui imputer ces chiffres records, même si ces "températures très fortes sont cohérentes avec ce qu'on peut attendre", selon le Français, Hervé Le Treut.Selon la NOAA, les 10 records de température globale constatés depuis 1880 se situent tous dans les 15 dernières années.

"Les tendances liées au changement climatique, on les évalue sur des décennies et pas à l'échelle de quelques mois. Tous les records sont faits pour être battus, le problème c'est de savoir si ça s'inscrit dans une évolution à long terme", relève-t-il.

D'autant qu'il est extrêmement difficile de faire la part du réchauffement global de la planète --0,7° en moyenne depuis un siècle--, lié aux émissions de gaz à effet de serre, et des "variabilités" du climat imputables à des phénomènes naturels."Je compare ça à l'effet de la marée. Si vous êtes au bord de la plage, et vous avez des vagues qui vont et qui viennent, il est très difficile de savoir si la mer monte en regardant les vagues. Ca n'empêche que petit à petit, la mer monte effectivemment, mais c'est très difficile à détecter".

Si la marée est le changement climatique, les vagues peuvent être, en l'occurence, El Nino, phénomène réapparu dans le Pacifique en juin 2009 et qui s'est dissipé en mai 2010."L'océan Pacifique se réchauffe et il y a brutalement des phénomènes de réajustement, qui perturbent tous les climats de la zone intertropicale et même au delà", explique M. Le Treut, qui attribue les records de 2010 "en partie" à ce phénomène naturel.

Pour le climatologue britannique Andrew Watson, les effets d'El Nino ne font pas de doute.

"Nous savons que l'année qui suit El Nino sera globalement inhabituellement plus chaude. 1998 (jusqu'à présent, l'année la plus chaude jamais enregistrée sur les 6 premiers mois, ndlr) l'a été, et elle a suivi l'épisode El Nino le plus fort du siècle dernier", explique-t-il."Le climat, contrairement à la météo, concerne des changements, en moyenne, à long terme. Surtout, quand il faut prendre en compte des variations du type El Nino, qui peuvent s'étaler sur plusieurs années", ajoute-t-il.

Mais pour lui, cette prudence toute scientifique ne remet pas cause l'existence du réchauffement climatique en cours. Selon la NOAA, juin 2010 a été le 304e mois consécutif globalement plus chaud que la moyenne sur le 20è siècle."Cela fait 25 ans d'anomalie. Là, on parle de climat, et non plus de météo. Le monde se réchauffe, très vite", ajoute-t-il.Même avis pour le Met Office, services météorologiques britanniques. "Dans le contexte de la décennie 2000, qui est la plus chaude jamais enregistrées", les chiffres records de 2010, "sont un indice de plus que le climat se réchauffe", selon Barry Gromett, son porte-parole.

AFP

Réduction des émissions de CO2 à l'horizon de 2050 : le scénario idéal de l'AIE
Vendredi, 30/07/2010 - 00:00

l'Agence Internationale de l'Energie (AIE) a présenté au Ministère de l'Ecologie, de l'Energie, du Développement durable et de la Mer son rapport « Energy Technology Perspectives » (ETP) 2010. Tous les deux ans, l'AIE publie un rapport sur les scénarios et les stratégies énergétiques envisageables à l'horizon 2050, en mettant l'accent sur les meilleurs technologies disponibles afin de réduire les émissions de CO2 dues à l'énergie.

Selon le rapport, la réduction de l'émission de CO2 à l'horizon de 2050 nécessite la mise en place d'une nouvelle feuille de route dit la « Blue Map ». Afin d'atteindre un objectif ambitieux qui est la réduction des combustibles fossiles de 81% à 46%, ce plan préconise aux gouvernements, aux industries et aux autres acteurs économiques mondiaux de s'engager, notamment, dans la voie de l'énergie nucléaire et des énergies renouvelables, les deux principaux vecteurs de réduction des émissions.

S'agissant de l'énergie nucléaire, la « Blue Map » prévoit que cette dernière devra représenter 24% de la production mondiale totale d'électricité en 2050, soit une hausse de 10% par rapport à la part actuelle (14%). Pour ce faire, 30 nouvelles centrales nucléaires devraient voir le jour dans le monde chaque année...Selon l'AIE, il n'y a pas besoin d'un saut technologique majeur pour atteindre le niveau de développement de nucléaire envisagé. Le défi majeur réside dans le financement de la construction de centrales nucléaires nouvelles. Par ailleurs, des progrès dans la mise en oeuvre de plan de stockage de déchets hautement radioactifs sont également vitaux.

S'agissant des énergies renouvelables, la part de celles-ci dans la production totale d'électricité devrait augmenter de 18% à 50% en 2050 (dont 11% pour le photovoltaïque). A ce titre, l'AIE constate que les investissements de production électrique d'origine renouvelables, soit l'énergie solaire, éolienne, hydraulique, les biomasses et les énergies géothermiques, ont chuté d'au moins 1/5 en 2009, à moins de 70 milliards de dollars.

La chute aurait été de 30% sans les dépenses des plans de relance économique. Ainsi, atteindre les objectifs de l'AIE en matière d'énergies renouvelables nécessitera une politique active de la part des Etats pour bâtir un cadre de confiance pour tous les acteurs (investisseurs, industriels, développeurs,...).

L'augmentation de la part des énergies renouvelables et de l'énergie nucléaire dans la production totale de l'électricité mondiale s'accompagnera, en contrepartie, d'une baisse dans l'utilisation des combustibles fossiles. Selon le rapport, les demandes mondiales pour le charbon et le pétrole baisseront, respectivement, de 36% et de 27%. Dans les Etats membres de l'OCDE (Organisation de Coopération et de développement Economique), la prévision de la baisse de la demande des combustibles fossiles est plus significative : 51% pour le charbon, 51% pour le pétrole et 63% pour le gaz naturel.

L'amélioration de « l'efficacité énergique » ne sera pas faite uniquement par le biais d'un choix stratégique des sources d'énergie alternatives, mais également par l'amélioration des moyens de production et de distribution de celles-ci. Ainsi, le rapport préconise l'utilisation de « Smart grid » qui est un réseau de distribution d'électricité « intelligent » qui utilise des logiciels afin d'optimiser la production et la distribution de l'électricité en prenant en compte l'offre et la demande. Cette nouvelle technologie devrait économiser l'énergie et réduire les coûts de celle-ci.

Enfin, s'agissant de l'utilisation du pétrole dans les transports dans les Etats membres de l'OCDE, celle-ci devrait baisser de 60% selon les estimations de la « Blue Map » avec l'intégration progressive sur le marché du véhicule électrique et du véhicule utilisant l'énergie renouvelable.

Cependant, certaines incertitudes demeurent quant à la faisabilité de la « Blue Map ». Ces incertitudes résident principalement dans le coût considérable de sa réalisation estimé à 46 milliards de dollars. Certes, le retour sur investissement, résultant des économies liées à la baisse de l'utilisation du pétrole, est estimé à 112 milliards de dollars. Cependant, ce chiffre n'est qu'une estimation basée sur un « scénario idéal »! D'ici là, l'évolution de la conjoncture économique et industrielle ainsi que l'épuisement progressif des ressources naturelles contraindront, sans doute, l'AIE à revoir ses estimations.

Enfin, même si nous arrivons à tenir les objectifs de la « Blue Map », en 2050, selon les prévisions de l'AIE le pétrole devrait toujours représenter encore 46% de la demande en énergie primaire. Or, selon la BP Statistical Review of world Energy 2007, c'est précisément à cette date que le pétrole aura disparu, sous sa forme actuelle...

Green

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Thérapie génique : enfin le succès !
Vendredi, 30/07/2010 - 00:00

Après vingt ans de recherche et certaines déceptions, l'équipe d'Alain Fisher, Marina Cavazzana-Calvo et Salima Hacein-Bey-Abina, respectivement professeurs d'immunologie et d'hématologie à l'hôpital Necker (Paris) et chercheurs à l'Inserm, fait le point, dans un article du New England Journal of Medicine, sur les 9 jeunes malades traités pour la première fois dans le monde, par injection du gène entre 1999 et 2002 à Paris.

Ils ont entre 8 et 11 ans, huit vont bien, suivent un cursus scolaire normal, et ont une vie familiale similaire à celle des enfants de leur âge. L'un d'entre eux est décédé d'une leucémie, sans doute complication de la thérapie génique. Aujourd'hui, un nouveau protocole a été mis au point après que les chercheurs aient réussi à comprendre la cause de cette terrible complication. Les autorités sanitaires viennent de donner leur accord pour un nouvel essai de thérapie génique pour traiter encore cinq «bébés-bulles».

Les bébés qui naissent avec un «déficit immunitaire sévère lié au chromosome X» (DICS-X) n'ont aucune défense contre les infections, du fait de l'absence totale de lymphocytes T. Dans les semaines suivant la naissance, ils développent des infections graves, potentiellement mortelles. En attendant un donneur apparenté de moelle osseuse, ces enfants doivent vivre dès la naissance à l'abri dans des chambres stériles, d'où leur surnom de «bébés-bulles». Lorsqu'une greffe de moelle osseuse compatible, à partir d'un don de la fratrie, est possible, la guérison survient dans plus de 80 % des cas. Si la greffe n'est que partiellement compatible le taux de succès varie entre 30 et 50 %.

Cette maladie est due à l'absence d'un gène précis sur le chromosome X. D'où l'idée née au début des années 1990 dans le laboratoire du professeur Alain Fischer et de Marina Cavazzana, de tenter de réinjecter dans les cellules souches de la moelle osseuse de ces enfants le gène manquant et qui venait d'être découvert. Après des expériences sur culture cellulaire puis sur la souris qui affichent des résultats intéressants, le premier essai est effectué en février 1999 chez un bébé d'un mois pour lequel aucun donneur compatible n'a été trouvé.

La moelle osseuse est prélevée, cultivée avec un virus inactivé contenant le gène manquant, virus qui va infecter les cellules souches de la moelle osseuse et lui rendre le gène absent. Ces cellules modifiées sont ensuite réinjectées à l'enfant par voie intraveineuse. Environ deux mois plus tard, le système immunitaire se met à refonctionner. Au total, une dizaine d'enfants bénéficieront de ce protocole, sans problème jusqu'en 2002.

Mais deux enfants traités sont alors frappés par une leucémie. Deux autres encore ultérieurement. Un en décédera. Les autres guériront. L'équipe s'est alors mobilisée pour comprendre la cause de cette complication, raconte le professeur Marina Cavazzana. Elle a découvert que le virus vecteur contenait une séquence génétique puissante capable de déréguler le gène situé près du site d'intégration du gène thérapeutique.» Depuis, un nouveau vecteur viral pour transporter le gène salvateur au coeur des cellules de la moelle osseuse a été construit, après avoir désactivé la séquence génétique problématique du virus.

L'équipe vient de recevoir l'aval des autorités sanitaires françaises, pour un nouvel essai clinique qui devrait concerner cinq autres enfants. Deux équipes internationales, l'une à Boston, l'autre en Grande-Bretagne, soigneront aussi chacune cinq enfants de leur côté de la même manière. «L'objectif est de confronter nos résultats à ceux d'autres équipes pour définir si cette thérapie génique doit sortir du cadre expérimental pour devenir le traitement de référence pour ces enfants lorsqu'il n'existe pas de greffe compatible possible», ajoute le professeur Cavazzana. D'autres essais sont en cours à l'hôpital Necker, pour des enfants atteints d'anémie d'origine génétique.

NEJM

Cancer du sang : un nouveau traitement testé avec succès
Vendredi, 30/07/2010 - 00:00

Une nouvelle approche de thérapie cellulaire testée chez des patients atteints d'un cancer du sang, qui n'avaient plus d'autres options thérapeutiques, a donné des résultats encourageants, selon une équipe française de médecins et chercheurs.Les résultats de l'essai clinique de ce nouveau traitement sur 17 patients atteints de leucémies ou de lymphomes en rechute sont publiés mercredi par la revue américaine Science Translational Medicine.

Le nouveau traitement mis au point avec succès par l'équipe française repose sur l'injection de lymphocytes (un type de globules blancs) préalablement manipulés afin d'augmenter leur activité anticancéreuse. Cette manipulation consiste à éliminer spécifiquement une fraction des lymphocytes injectés - les "T-régulateurs" - car ils inhibent l'activité anticancéreuse des autres lymphocytes.

"Un tiers des patients traités a pu tirer un bénéfice antitumoral de ce traitement et avoir ainsi une rémission prolongée de leur maladie qui était devenue réfractaire aux thérapeutiques disponibles", explique à l'AFP le Dr Maury (hôpital Henri Mondor-APHP), coordinateur de l'essai conduit avec le CNRS et les universités Pierre et Marie Curie (UPMC) et l'UPEC (Créteil, Val de Marne).

Les leucémies et lymphomes font partie des cancers qui peuvent être soignés en remplaçant totalement la moelle osseuse du patient atteint par celle d'un donneur sain.L'effet anticancéreux de la greffe de moelle repose sur le remplacement complet de la moelle osseuse malade par celle du donneur mais aussi sur l'injection, au moment de la greffe, de cellules immunitaires provenant de ce même donneur.

En effet, ces cellules -en particulier les lymphocytes- peuvent dans certaines conditions éliminer les cellules cancéreuses du patient.Toutefois, la greffe de moelle osseuse ne permet pas toujours de contrôler la maladie cancéreuse.C'est pourquoi, les Français ont pensé à éliminer du lot de cellules injecté le groupe de globules blancs, les lymphocytes T-régulateurs, qui empêchent les autres d'attaquer le cancer.

Cette nouvelle approche thérapeutique a permis de doper l'attaque (une "réaction du greffon contre la tumeur") chez douze des 17 patients et surtout "permis d'obtenir une rémission persistante du cancer sanguin chez cinq d'entre eux depuis plus de deux ans en moyenne", indique le Dr Maury.

AFP

L'asthme et l'eczéma diminuent le risque de développer un cancer
Vendredi, 30/07/2010 - 00:00

Les hommes ayant un historique d'asthme ou d'eczéma avaient, de façon générale, un risque moindre de cancer selon une étude réalisée par une équipe de chercheurs provenant de l'INRS-Institut Armand-Frappier, du Centre de recherche du Centre hospitalier de Montréal et de l'Université McGill. Les résultats publiés dans les Annals of Allergy, Asthma & Immunology indiquent également que les hommes atteints d'eczéma avaient un risque plus faible de cancer du poumon alors qu'un historique d'asthme avait un effet similaire contre le cancer de l'estomac.

"L'asthme et l'eczéma sont des maladies allergiques provoquées par une hyperréactivité du système immunitaire, un état qui permettrait peut-être d'éliminer plus efficacement les cellules anormales et ainsi de réduire les risques de cancer", explique la professeure Marie-Claude Rousseau de l'INRS-Institut Armand-Frappier, une des coauteurs de la recherche.

Les chercheurs ont analysé les données recueillies lors d'une étude sur les expositions professionnelles et le cancer menée entre août 1979 et mars 1986 auprès de 3 300 hommes âgés de 35 à 70 ans, diagnostiqués d'un cancer dans 18 hôpitaux montréalais, et d'un groupe témoin de 512 personnes non atteintes de cancer et provenant de la population générale. pour examiner s'il y avait un lien entre la présence d'allergies comme l'asthme et l'eczéma et l'incidence de huit types de cancer les plus courants.

Bien que l'étude ne permette pas d'identifier quels facteurs spécifiques reliés à l'asthme et l'eczéma seraient responsables de la diminution de risque de cancer, elle ouvre la voie à de nouvelles avenues de recherche pour mieux comprendre les mécanismes moléculaires et immunologiques impliqués dans l'immunostimulation, qui pourrait être une stratégie prometteuse pour prévenir le cancer.

AAAI

Vaccination : le patch pourrait remplacer l'aiguille
Vendredi, 30/07/2010 - 00:00

Des chercheurs américains ont montré sur des souris que la vaccination délivrée avec un patch est aussi efficace -voire plus- qu'avec la traditionnelle injection par seringue. Au-delà, un tel mode de vaccination résoudrait plusieurs problèmes logistiques inhérents à la vaccination de masse, notamment en cas de pandémie de grippe.

Certes, les aiguilles n'ont pas totalement disparu dans le patch mis au point par cette équipe du Georgia Tech d'Atlanta et de l'Emory University (États-Unis). Mais elles sont à peine visibles à l'oeil nu: elles ne mesurent que 650 micromètres (0,65 mm). Lorsque le patch -qui contenait 100 microaiguilles pour les souris- est appliqué sur la peau, les aiguilles en monomère (vinylpyrrolidone) se dissolvent et libèrent le vaccin qu'elles contiennent (cf la photo ci-contre montrant 3 étapes de la dissolution).

La peau étant riche en cellules impliquées dans la réponse immunitaire, c'est un site très intéressant pour la vaccination, précise Mark Prausnitz, l'un des auteurs de l'étude publiée cette semaine dans la revue Nature Medicine (AOP).

Les chercheurs ont comparé sur trois groupes de souris la vaccination antigrippale par patch et par injection intramusculaire classique (l'un des groupes recevait un patch avec des micro-aiguilles ne contenant pas de vaccin). Un mois après, toutes les souris ont été contaminées par le virus de la grippe et toutes les souris vaccinées ont échappée à la maladie. Les autres sont tombées malades.

Cependant, au cours d'un autre test qui consistait à attendre trois mois après la vaccination avant d'inoculer la grippe, les chercheurs ont observé une meilleure réponse immunitaire chez les souris vaccinées avec le patch par rapport à la piqûre. Elles ont plus efficacement éliminé le virus de leurs poumons, soulignent les chercheurs. Ils vont essayer de comprendre pourquoi la 'mémoire' immunitaire semble meilleure avec le patch qu'avec l'injection dans le muscle.

S'il pouvait un jour remplacer la piqûre, le patch faciliterait l'administration du vaccin et éviterait le problème de la gestion des aiguilles usagées. Il pourrait même, dans les pays où le matériel médical fait défaut, éviter la dangereuse réutilisation des seringues.

Avantage supplémentaire: il est plus facile à conserver car le vaccin fixé dans les microaiguilles est lyophilisé (on le congèle avant d'éliminer l'eau). Il faudra cependant encore plusieurs années de recherches et d'essais cliniques pour valider ce procédé innovant.

S et A

Une vaccination naturelle contre le paludisme ?
Vendredi, 30/07/2010 - 00:00

Le paludisme demeure la maladie transmise par piqûre d'insecte la plus répandue et une des plus dangereuses de par le monde. L'organisation mondiale de la santé (OMS) estime qu'un million de personnes en meurent chaque année, principalement des enfants des pays d'Afrique, et que plus de trois milliards de personnes sont exposées au risque. Si des traitements existent, ils sont souvent chers et aucun vaccin n'est pour l'instant disponible. L'impact des traitements dans les zones à risque reste faible car il n'existe toujours pas de médicament qui protège l'homme de l'infection de façon sûre et qui simultanément favorise la constitution d'une immunité durable.

Une équipe de chercheurs du département d'infectiologie de la clinique universitaire d'Heidelberg (Bade-Wurtemberg) et de l'Institut Max Planck de biologie infectieuse (MPIIB) de Berlin a démontré l'existence d'une immunisation naturelle contre le paludisme, résultat publié dans l'édition du 14 juillet de "Science Translational Medicine" . Les scientifiques pensent qu'une prophylaxie sûre et abordable à base d'antibiotiques pourrait dès lors être possible. Celle-ci pourrait agir contre le paludisme comme une vaccination naturelle "sans injection".

Des souris se sont vues administrer un agent pathogène paludéen "Plasmodium berghei"

L'administration périodique de courte durée aux habitants des régions à risques pourrait agir comme vaccin naturel contre le paludisme et protéger d'une réinfection", déclare Dr. Steffen Borrmann du département d'infectiologie. Dr. Kai Matuschewski du département de parasitologie (MPIIB) ajoute que "le concept simple, réalisable dans les régions à risque, était une motivation essentielle pour notre étude. Nous sommes convaincus que des agents pathogènes affaiblis produisent la meilleure mesure de prévention vaccinale contre une maladie parasitaire aussi complexe que le paludisme".

[BE">5] ainsi qu'un antibiotique (Clindamycine ou Azithromycine) pendant trois jours : aucun globule rouge n'a alors été infecté. Tous les animaux ainsi traités développent en outre une immunité stable et durable contre des infections ultérieures.

L'antibiotique n'a aucune action sur le développement des cellules infectieuses dans le foie (phase hépatique du paludisme) mais empêche l'infection des globules rouges (phase de transfert). Les symptômes typiques (fièvre, anémie..) générés par la phase sanguine de la maladie n'apparaissent plus. De plus, les multiples cellules hépatiques infectées constituent un antigène suffisamment important pour engendrer une réponse immunitaire.

Ces résultats sont à confirmer pour le mode de transmission humain. Lorsque le mode d'infection humain (des doses plus faibles répétées) est appliqué aux souris, 30% sont immunisées et dans 85% des cas il n'y a pas d'infection du cerveau : il s'agit donc de résultats positifs. "Les antibiotiques utilisés sont des médicaments abordables sans effets secondaires graves.

L'administration périodique de courte durée aux habitants des régions à risques pourrait agir comme vaccin naturel contre le paludisme et protéger d'une réinfection", déclare Dr. Steffen Borrmann du département d'infectiologie. Dr. Kai Matuschewski du département de parasitologie (MPIIB) ajoute que "le concept simple, réalisable dans les régions à risque, était une motivation essentielle pour notre étude. Nous sommes convaincus que des agents pathogènes affaiblis produisent la meilleure mesure de prévention vaccinale contre une maladie parasitaire aussi complexe que le paludisme".

[BE

L'extrait de Ginkgo EGb 761® favorise la génération de nouvelles connexions neuronales dans le cerveau
Vendredi, 30/07/2010 - 00:00

Des scientifiques américains ont montré que l'extrait de ginkgo biloba EGb 761, développé par Schwabe Pharmaceuticals,favorisait la formation de nouvelles cellules nerveuses et de nouvelles connexions cellulaires dans l'hippocampe, le centre de la mémoire. Selon le Professeur Yuan Luo, de l'Université du Maryland, Baltimore, les composants du ginkgo responsable de ces effets sont la quercétine et le bilobalide.

« Nos découvertes semblent indiquer que des connexions de cellules nerveuses renforcées constituent un facteur contribuant à l'effet bénéfique du EGb 761® sur les fonctions cognitives. Sur des modèles de la maladie d'alzheimer, cet extrait peut stimuler la formation de nouvelles cellules nerveuses et de connexions cellulaires. Nos données semblent donc indiquer que cet extrait peut contribuer à améliorer le déclin cognitif chez les personnes âgées », a expliqué le Professeur Luo lors d'une conférence de presse à Amsterdam.

Ces dernières années, le Professeur Luo a dans un premier temps démontré que l'extrait de ginkgo EGb 761® réduisait considérablement la pression exercée sur les cellules nerveuses causée par les dépôts de molécules de protéines anormales, extrêmement dommageables, typiques de la maladie d'alzheimer. Les cellules cérébrales particulièrement vulnérables situées dans la région de l'hippocampe, qui régulent l'accès à la mémoire et la traitement de l'information, étaient protégées des dommages et ont formé de nouvelles connexions cellulaires :

« Nous avons pu montrer que l'extrait de ginkgo EGb 761® inhibe directement la formation d'oligomères A-bêta toxiques et stimule le développement de nouvelles cellules nerveuses fonctionnelles sur un modèle de souris de la maladie d'alzheimer », a expliqué le Professeur Luo à Amsterdam. Elle a poursuivi : « C'est un fait bien connu qu'il existe une prolifération d'oligomères A-bêta dans le cerveau des patients atteints de la maladie d'alzheimer, et que ces oligomères sont responsables de la perte de connexions des cellules nerveuses. »

Plus récemment, le Professeur Luo et son équipe ont également examiné l'effet de l'extrait sur des cellules nerveuses saines. Ce faisant, elle a découvert que laquercétine et le bilobalide, composants du EGb 761®, généraient une formation accrue de nouvelles connexions entre les cellules nerveuses de l'hippocampe. Ces contacts cellulaires (synapses) sont la base de la transmission d'informations entre les cellules, et donc de toutes les formes d'apprentissage et de mémorisation. Mais le nombre de contacts cellulaires n'est pas le seul à avoir augmenté ; l'équipe du Professeur Luo a également montré que le nombre de cellules nerveuses de l'hippocampe s'est accru suite à un traitement avec de laquercétine ou du bilobalide.

Alors que de laquercétine est présente dans de nombreuses plantes, le bilobalide se trouve uniquement dans l'arbre Ginkgo, et il est fortement enrichi dans le EGb 761 .

À partir de ces résultats, le Professeur Luo conclut : « Nous avons fait un important pas en avant pour expliquer la manière dont l'extrait peut contribuer à améliorer le déclin cognitif initial des personnes âgées. En nous basant sur nos résultats, nous pouvons nous attendre à ce que l'extrait EGb 761® protège et améliore la traitement de l'information dans l'hippocampe. De meilleures connexions des cellules nerveuses améliorent la mémoire et la capacité d'apprentissage ».

Caducée

Maladie de Parkinson, une nouvelle cible thérapeutique des troubles de la marche
Vendredi, 30/07/2010 - 00:00

Dans la maladie de Parkinson, les symptômes moteurs sont dus à la mort de certains neurones utilisant la dopamine comme messager chimique : les neurones dopaminergiques. Ces symptômes disparaissent généralement grâce au traitement par la dopamine. Cependant, dans les formes avancées de la maladie, une résistance à ce traitement apparaît, et des troubles de la marche et des chutes surviennent.

L'hypothèse la plus probable est qu'il existe une structure non médiée par la dopamine et impliquée dans le contrôle de l'équilibre. Le noyau pédonculopontin (PPN), structure cérébrale constituée, en partie, de neurones dont le messager chimique est l'acétylcholine (neurones cholinergiques), constituait alors un candidat potentiel pour les chercheurs.

Pour déterminer son rôle dans le contrôle de la marche et de la posture, les chercheurs et cliniciens ont utilisé une approche expérimentale multidisciplinaire originale. Celle-ci combine des techniques d'IRM fonctionnelle, d'anatomie et de neurochirurgie.

Sur la base d'analyses réalisées chez les sujets sains et malades, plusieurs observations ont permis de conclure à l'importance de ce noyau dans le contrôle de la marche et de la posture. Elles ont aussi permis de conforter l'hypothèse selon laquelle les troubles de la marche observés au cours de la maladie de Parkinson étaient dus à une lésion ou à un dysfonctionnement de cette petite structure cérébrale.

Grâce à des études réalisées sur des sujets sains, les chercheurs ont montré que le noyau « s'active » lorsque les sujets s'imaginent marcher le long d'un couloir. Cette activation croît d'autant plus que la marche imaginaire s'accélère.

Une analyse du tissu cérébral prélevé en post-mortem a montré par ailleurs que seuls les patients parkinsoniens ayant souffert de troubles de la marche et de l'équilibre présentent une perte de neurones cholinergiques dans le noyau pédonculopontin. Chez des primates âgés parkinsoniens, on observe également une forte corrélation entre la perte d'équilibre et la perte de neurones cholinergiques du noyau. Enfin, les chercheurs ont prouvé que la lésion expérimentale des neurones cholinergiques dans cette structure conduit à des troubles de la marche et des déficits posturaux.

« Ces résultats sont très prometteurs, et constituent une nouvelle piste de recherche pour développer des stratégies thérapeutiques différentes. Par exemple, chez les patients parkinsoniens à un stade avancé de la maladie, on peut imaginer stimuler les neurones cholinergiques au niveau du tronc cérébral pour améliorer de façon efficace leurs troubles de l'équilibre» concluent Chantal François et Etienne Hirsch.

CNRS

Une voie immunitaire inédite de lutte contre l'athérosclérose
Vendredi, 30/07/2010 - 00:00

L'athérosclérose ou accumulation de plaques graisseuses sur la paroi artérielle est à l'origine de la plupart des maladies cardiovasculaires. Alors que les lymphocytes B du système immunitaire étaient considérés jusqu'alors comme des éléments de protection contre la formation de ces plaques, des chercheurs du "Paris Centre de recherche cardiovasculaire" (unité 970 Inserm) réfutent cette hypothèse sur trois modèles animaux.

Ils montrent à l'inverse que des anticorps dirigés contre ces cellules de l'immunité et très efficaces en traitement du lupus ou de la polyarthrite rhumatoïde protègent significativement contre l'athérosclérose. Ces travaux, en cours de validation par un essai clinique chez l'homme, sont publiés dans The Journal of Experimental Medicine. Ils pourraient notamment offrir de nouvelles perspectives en prévention des récidives après un infarctus du myocarde.

L'athérosclérose est une pathologie inflammatoire des artères déclenchée par plusieurs facteurs, notamment l'augmentation du cholestérol, et caractérisée par une accumulation de lipides dans la paroi artérielle, sous forme de plaques. La rupture de ces plaques est à l'origine de la majorité des maladies cardiovasculaires (infarctus du myocarde, accident vasculaire cérébral) et responsable de la première cause de mortalité dans les pays industrialisés.

Il est donc essentiel de repérer les patients à risque et de comprendre la progression de la maladie, pour la prévenir et la traiter.

La réponse immunitaire (macrophages, lymphocytes B, lymphocytes T), variable selon les individus, joue un rôle important dans la progression de ces plaques d'athérome et la survenue des complications des maladies cardiovasculaires. A ce jour le rôle attribué à l'ensemble des lymphocytes B semblait protecteur de l'athérosclérose.

Pourtant, les travaux dirigés par Ziad Mallat réfutent aujourd'hui clairement cette hypothèse. Les chercheurs démontrent en effet que l'utilisation d'un anticorps dirigé contre les lymphocytes B et entraînant la disparition de 96% d'entre eux fournit une protection significative contre le développement de l'athérosclérose dans 3 modèles expérimentaux chez la souris.

Cet anticorps dirigé contre une protéine de surface des cellules B est utilisé très efficacement chez l'homme en traitement de certaines pathologies inflammatoires. L'effet protecteur est en partie lié à une désactivation parallèle des lymphocytes T qui produisent alors moins d'interféron gamma, une hormone du système immunitaire favorisant l'athérosclérose, et plus d'interleukine-17, une hormone protectrice.

Ces résultats ont des implications cliniques importantes. Ils suggèrent que les traitements dirigés contre les lymphocytes B, actuellement administrés à des patients souffrant de maladies inflammatoires comme le lupus ou la polyarthrite rhumatoïde, pourraient réduire le risque cardiovasculaire. Des essais cliniques ont été engagés en ce sens par l'équipe et visent à évaluer l'étendue de l'athérosclérose avant et après traitement chez ces patients.

Inserm

Cancérologie : un nouveau Système d'Imagerie préclinique
Vendredi, 30/07/2010 - 00:00

Suite à la réalisation de tests approfondis par cinq centres de recherche français, le nouveau Système d'Imagerie préclinique mis au point par le CEA-Leti, par Tomographie Optique Diffuse de Fluorescence dans le proche infrarouge (fDOT - near-infrared fluorescence-enhanced diffuse optical tomography), est prêt à être transféré à un partenaire industriel et à être commercialisé.

Les systèmes fDOT aident les chercheurs à quantifier l'activité cancéreuse et à évaluer l'efficacité des traitements en phase pré-clinique . Après injection, sur des souris, d'un traceur fluorescent spécifique du cancer vers une cible biologique (par exemple le poumon), ces systèmes d'imagerie permettent de suivre sa répartition dans les tissus. Cela permet à la fois une localisation en 3D des zones ciblées et une quantification de la concentration du fluorophore.

Cependant, à l'heure actuelle, les systèmes fDOT ont des performances limitées par l'hétérogénéité des tissus et par la complexité de la surface externe des animaux. Le nouveau système fDOT développé par le CEA-Leti permet de reconstruire correctement les zones fluorescentes , même dans des parties du corps hétérogènes ayant tendance à atténuer fortement la fluorescence, comme les poumons. De plus, ce système n'oblige pas à immerger les souris dans un liquide adaptateur d'indice optique.

Après injection de la sonde moléculaire fluorescente, les souris sont scannées à l'aide d'une lumière « proche infrarouge » au niveau de la zone étudiée. Le système enregistre la lumière transmise et la fluorescence émise, puis reconstruit la carte de fluorescence 3D représentant la zone et l'activité cancéreuse . Ainsi, la méthode de reconstitution développée prend en compte les propriétés optiques hétérogènes des tissus biologiques et la géométrie complexe de la surface de l'animal.

CEA

^ Haut
Recherche
Recherche & Innovation, Technologies, Transports
Le parc français pourrait compter un million de voitures électriques d'ici à 2020
Vendredi, 30/07/2010 - 00:00

Gérard Voisin, député UMP de Saône-et-Loire, est « convaincu de l'arrivée en masse prochaine du véhicule électrique », selon un rapport sur le sujet qu'il vient de déposer au nom de la commission des affaires européennes.

Pour lui, il n'est pas impossible que la France compte un parc d'un million de voitures électriques dans seulement dix ans, sur une flotte totale de 37 millions de véhicules en circulation. « Tout dépendra si l'on parvient à sortir de la deuxième voiture familiale, et des seuls véhicules réservés aux flottes , commente le député, qui exerçait dans le passé la profession de garagiste. On va bientôt sortir des simples véhicules gadget, pour aller vers des berlines de 4 à 5 places, spécialement conçues pour l'électrique ».

A l'inverse des nombreux « électrosceptiques », qui mettent en avant le coût de ces futurs véhicules et leurs problèmes d'autonomie, Gérard Voisin se dit lui nettement optimiste. A condition toutefois de balayer quelques obstacles préalables. Par exemple la Commission européenne, « dont l'action est décevante car trop lente » et risque de miner un déploiement rapide des voitures zéro émission. Elle ne semble pas favorable aux incitations fiscales à l'achat poussées par tel ou tel Etat. « Tout cela au nom de la neutralité technologique. Bruxelles ne veut pas privilégier telle ou telle filière », déplore l'auteur du rapport.

Autre obstacle pour le gouvernement français et pour les nombreux élus locaux qui commencent à s'impliquer sur ces sujets : trouver le bon réseau de bornes de recharge, sans dilapider les moyens financiers. « Une borne de recharge rapide sur la voie publique, cela coûte 20.000 à 25.000 euros », avertit le député, qui préférerait un encouragement au déploiement des prises dites lentes, au bureau ou à domicile.

« Comme le montre le cas de Berlin où nous nous sommes rendus, 95% des recharges se font la nuit et à la maison ». L'utilisation du véhicule électrique « doit rester simple et peu coûteuse. Je conteste absolument l'idée que la recharge des véhicules à domicile doive obligatoirement passer par des bornes dédiées », dit-il.

L'incertitude porte donc davantage sur "la chronologie" que sur l'arrivée des véhicules électriques, selon M. Voisin, qui juge que le développement sera "très progressif entre 2010 et 2020"."Dans un premier temps, si nous voulons que le véhicule se développe, il est nécessaire que le particulier puisse se brancher sans coût particulier sur son installation et bénéficier en France du tarif heures creuses", écrit M. Voisin dans son rapport.

Dans ce contexte, M. Voisin considère que le déploiement de bornes de recharge rapide, permettant de charger la batterie en trente minutes, "doit être limité".Il estime aussi qu'en usage interurbain, cette technologie "n'a que peu d'intérêt" comparé au système d'échange de batterie qui prend trois minutes.

M. Voisin estime aussi que l'accès de certains centres-villes "pourrait être réservé aux véhicules électriques ou gratuit" pour ces derniers. Dans son rapport, Gérard Voisin a également répondu aux "détracteurs" des voitures vertes qui expriment leur opposition au déploiement de véhicules qui pourrait poser des problèmes de saturation de réseaux électriques : "En outre, l'électricité produite la nuit est en partie perdue, faute de capacité de stockage, son utilisation par les véhicules électriques éviterait ce gaspillage ».

Rapport Voisin

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top