RTFlash

RTFlash a besoin de vous pour continuer à exister !

Propulsé par HelloAsso

RTFLASH Recherche & Technologie
NUMERO 591
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 31 Mars 2011
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
SMS et mails facilitent la communication avec les communautés locales
Avenir
Une nouvelle forme d'antimatière créée
Matière
Des batteries qui se chargent en 2 minutes
Décollage du stockage de l’hydrogène sous forme solide
Stocker de l'énergie grâce à de l'air comprimé
La Bretagne à la pointe des énergies marines
Terre
La température moyenne au Canada a grimpé de 1,4ºC en 60 ans
L'UE veut des "voitures vertes" dans les villes d'ici 2050
1er bâtiment tertiaire à énergie positive “tous usages”
Vivant
Découverte de nouveaux gènes impliqués dans la leucémie
Un diurétique pour mieux soigner les épilepsies infantiles
Audition : un nouveau type d'implants cochléaires sur le marché d'ici quelques années
Découverte d'une anomalie génétique cause d'infertilité masculine
Une étude renforce les espoirs d'un vaccin contre la tuberculose
Un nouveau médicament contre le cancer de la prostate métastatique
Déclin cognitif léger : quels peuvent être les signes précurseurs d’Alzheimer ?
L’aspirine diminuerait la rupture d’anévrisme intracrânien
Recherche
Quelle source d'énergie pour la voiture électrique ?
Edito
Les robots envahissent sans bruit notre vie quotidienne



Les robots qui demain nous accompagneront partout ont été présentés à Lyon à l'occasion d'Innorobo, le premier salon européen dédié à la robotique de service. Robot laveur de vitres, robot voiture, robot animal domestique, robot volant, robot infirmière, robot démineur, mais aussi robots "secouristes" au Japon : une centaine d'automates, dont une trentaine inédits, ont été présentés.

"Ces robots vont révolutionner notre quotidien, ils peupleront nos foyers, nos écoles et nos rues", prédit Bruno Bonnell, président de Syrobo, syndicat de la robotique de service qui organise l'événement. "La révolution technologique de la robotique de service est en train d'impacter profondément le corps social", dit-il. Ce marché, encore balbutiant, est appelé à croître de façon exponentielle dans les années à venir.

Le marché est aujourd'hui dominé par la robotique industrielle, qui pesait en 2009 plus de 18 milliards de dollars, avec 100.000 robots déjà vendus à l'industrie automobile, aéronautique, manufacturière (etc...), avec 8,7 millions de robots installés dans le monde selon l'International Federation of Robotics (IFR). Mais d'ici 10 ans, c'est bien le robot domestique qui devrait faire son entrée massive dans les foyers. Ce marché très prometteur est estimé à 3,3 milliards de dollars en 2009, avec 8,7 millions de robots installés dans le monde selon l'International Federation of Robotics (IFR). Mais les professionnels veulent croire que ce marché va exploser. Bruno Bonnell parle volontiers de « nouvelle frontière » après la révolution numérique. Toujours selon l'IFR, ce marché des robots de services pourrait ainsi être multiplié par trente à plus de 85 milliards de dollars d'ici 2018... Il devrait doubler dans les trois prochaines années pour atteindre les 100 milliards de dollars à l'horizon 2020, selon les données de l'International Federation of Robotic.

De nombreux fabricants asiatiques, japonais et sud-coréens, leaders sur ce marché, mais également américains, ont fait le déplacement à Lyon pour présenter leurs inventions et découvrir celles de leurs concurrents. Parmi eux, Colin Angle, président de l'américain I-Robot, numéro un mondial du robot de service, présenté comme le "Bill Gates" du secteur, en référence au fondateur de Microsoft.

"L'Europe devient un marché très important pour les robots, a-t-il dit à Reuters. Aujourd'hui, elle représente 30 % du marché mondial, les USA 20 % et l'Asie 50 %, mais on va assister rapidement à un rééquilibrage à trois tiers." I-Robot présente l'une des stars du salon, PackBot, robot actuellement utilisé dans la centrale nucléaire japonaise de Fukushima-Daichi, fortement endommagée par les séisme et tsunami du 11 mars. "Il va placer les compteurs Geiger dans la zone irradiée pour voir si on peut y pénétrer", explique Colin Angle.

Autre robot à l'oeuvre au Japon : "Warrior", qui actionne les pompes à incendie destinées à refroidir le coeur de la centrale et à remplir la piscine. I-Robot a envoyé quatre de ces robots sur les lieux du sinistre. "Ces interventions vont montrer au monde entier que les robots peuvent désormais être très utiles dans les catastrophes naturelles et les catastrophes industrielles", souligne Colin Angle.

En France, les robots domestiques commencent à pénétrer les foyers, tels "Roomba", le robot aspirateur. Vendu à 100.000 exemplaires en France en 2010 (contre un millier en 2006), son marché pourrait doubler dans les deux ans. "Il représente aujourd'hui 77 % du marché de la robotique de service en France mais il ouvre la porte à beaucoup d'autres", explique Bruno Bonnell, par ailleurs P-DG de Robopolis, qui distribue le Roomba.

Le "Karotz", développé par le français Mindscape, est un lapin domestique intelligent, classé dans les robots communicants. Il renseigne sur la météo, donne des informations, lit les mails et les pages Facebook et surveille même la maison, les devoirs des enfants et le gâteau qui cuit au four grâce à sa caméra.

Autre innovation, les voitures-robots du français Cybergo, qui devraient faire leur apparition dans quelques mois dans des villes tests. Sans chauffeur, elles desservent par exemple les zones piétonnes non autorisées aux transports en commun classiques. Les tours de bureaux de Roppongi Hills à Tokyo sont, depuis plusieurs années, envahies la nuit par des équipes de robots nettoyeurs. L'Europe n'en est pas encore là, même si ce type d'appareil et de fonction se développe en version domestique. Pour beaucoup, l'avenir de la robotique sur le vieux continent passe d'abord et très certainement par ces machines censées simplifier la vie de tous les jours.

L'exemple du robot aspirateur -petite machine qui se glisse sous les meubles et travaille lorsque la maison est vide avant de retourner à sa borne de recharge- est l'exemple le plus parlant. Dans ce domaine, l'offre devrait s'étoffer rapidement. Le coréen Yujin, par exemple, a développé un produit qui est vendu en Europe sous la marque Philips.

L'acceptation d'un robot de ce type dans une maison est possible principalement parce qu'il règle un problème de tous les jours sans empiéter nullement sur la vie de la famille. Les craintes d'une invasion progressive par les robots ne sont donc pas relancées. Colin Angle en est lui aussi convaincu. L'avenir des robots de service passe par le nombre de problèmes qu'ils vont progressivement résoudre.

Cette première étape pourrait être suivie par une autre, celle de la robotisation plus large d'objets usuels. Une lampe peut interagir davantage avec son environnement. « Non seulement elle peut proposer un éclairage plus adapté, mais elle peut aussi devenir une interface, explique Pierre Yves Oudeyer, chercheur à l'INRIA Bordeaux et directeur de l'équipe Flowers spécialisée en robotique développementale et sociale. Rien n'empêche cette lampe, estime-t-il, de composer un numéro de téléphone ou d'observer autour d'elle des enfants en train de jouer ».

Autre exemple de tendance robotique : iRobot qui développe des robots fort peu humanoïdes mais très « utiles », comme Ava. Ava est une espèce d'assistant domotique qui commande tous les terminaux en réseau de la maison : des volets roulants à la lumière, en passant par l'écran de télévision-ordinateur et le four de la cuisine. iRobot espère le commercialiser d'ici trois ans. Cette voie du majordome-robot est également explorée par la start-up française Gostai qui a développé, avant iRobot, le robot de télé-présence Jazz qui ressemble un peu à Ava.

Mais au-delà de la technologie, tous les cogniticiens et psychologues associés à ces recherches sont d'accord sur un point : comme le montre le succès du système de jeu Kinect de Microsoft, pour conquérir le grand public et entrer dans l'intimité de nos foyers, les robots devront se faire transparents mais, en même temps, nous comprendre et percevoir nos mimiques et nos gestes et savoir deviner notre humeur en fonction du ton de notre voix. En un mot, ils devront être dotés d'une intelligence intuitive et émotionnelle artificielle suffisamment convaincante pour sembler être "humanisés", donner l'illusion d'un lien affectif et devenir des compagnons polyvalents irremplaçables,  notamment pour les personnes âgées qui vivent souvent seules et ont parfois des difficultés à accomplir les actes de la vie quotidienne.

Ces robots devront non seulement êtres capables de rendre en toute sécurité des services variés et très concrets à leurs utilisateurs mais ils devront également pouvoir prendre des initiatives relationnelles et savoir à quel moment ils doivent rassurer ou distraire leurs maîtres humains. Je suis convaincu que, d'ici à une génération, les robots seront présents partout dans notre environnement, sous une multitude de formes différentes, sans même que nous nous en apercevions, et rendront notre vie plus sûre et plus agréable en nous déchargeant de nombreuses tâches. Quant au coût de ces machines sophistiquées, il devrait être largement compensé par les économies considérables que permettront ces robots pour la collectivité, notamment en matière de santé et de maintien à domicile. Nous devrons cependant veiller à ce que chacun puisse avoir accès, s'il en a besoin, à ces nouveaux outils qui changeront profondément notre vie.

René TRÉGOUËT

Sénateur Honoraire

Fondateur du Groupe de Prospective du Sénat


TIC
Information et Communication
SMS et mails facilitent la communication avec les communautés locales
Jeudi, 31/03/2011 - 12:52

Comment, pour une entreprise de grande envergure, communiquer efficacement avec les communautés locales dans lesquelles elle est implantée ? En passant par le SMS et le mail, répond Veolia Environnement. En Australie, le groupe a lancé un système d’alerte passant par ces deux canaux pour améliorer l’engagement des individus sur place. Pour l’instant, le dispositif informe les citoyens sur les changements du bioréacteur Woodlawn, un générateur d’électricité qui produit de l’énergie grâce à la décomposition des matières biologiques.

Le service alerte en temps réel les communautés locales dans plus d’une centaine de lieux australiens, soit 60 000 clients. C’est également une manière pour la société de communiquer son implication dans l’énergie renouvelable et d’informer les citoyens sur l’action du réacteur biomasse. Ils peuvent donc souscrire  à la réception d’informations pour recevoir email et SMS liés aux heures d’ouverture du réacteur et d’autres informations sur le mouvement des véhicules qui récupèrent les déchets. Veolia utilise également ce service pour envoyer des invitations aux communautés locales.

Selon le groupe, la mise en place de ce dispositif répond à une demande de transparence de la part des utilisateurs. C’est aussi, ajoute Veolia, une volonté de montrer qu’une entreprise industrielle peut s’engager dans un dialogue avec les citoyens, avec une communauté locale ciblée. Cette initiative n’est pas sans rappeler celle de Suez Environnement qui permet à ses clients entreprise d’influencer la trajectoire de collecte des déchets pour les collecter en fonction de la demande des clients.

L'Atelier

^ Haut
Avenir
Nanotechnologies et Robotique
Une nouvelle forme d'antimatière créée
Vendredi, 25/03/2011 - 08:47

Des noyaux d'anti-hélium contenant deux anti-protons et deux anti-neutrons viennent d'être créés et observés à New York par des physiciens. C'est une première car, par définition, l'antimatière disparaît au contact de la matière, ce qui la rend très difficilement observable.

Mais les expériences menées au Relativistic heavy ion collider (RHIC) de New York ont permis cet exploit en faisant entrer en collision des noyaux d'atomes lourds. L'immense énergie qui s'en est dégagée a engendré la création de plusieurs nouvelles particules.

Déjà, l'année dernière, le RHIC avait annoncé la création d'une nouvelle variété d'antimatière. Appelée anti-hypertriton, elle était constituée d'un anti-proton, d'un anti-neutron et d'une particule instable qui avait été baptisée anti-lambda. Jusqu'alors, l'anti-hypertriton était la plus lourde anti-particule connue. Mais les 18 noyaux d'anti-hélium-4 qui viennent d'être observés détiennent aujourd'hui le record.

New Scientist

^ Haut
Matière
Matière et Energie
Des batteries qui se chargent en 2 minutes
Jeudi, 31/03/2011 - 13:59

Des chercheurs viennent de trouver un moyen d'accélérer le chargement des batteries, et dans des proportions intéressantes : environ 2 minutes pour charger une batterie lithium ion à 90 %. Le principe est simple : diminuer la distance à parcourir pour les électrons. Globalement, la vitesse de chargement est liée à la distance, et le temps augmente exponentiellement à la distance. La nouvelle structure, qui utilise de minuscules sphères de polystyrène (1,8 µm) recouvertes de nickel pour approcher cathode et anode, permet donc de diminuer la distance à parcourir pour les électrons.

Les gains sont sensibles sur les batteries lithium ion, avec un chargement à 90 % en moins de deux minutes et un chargement à 75 % en 1 minute. Pour les batteries NiMH, encore très utilisées, c'est encore plus rapide : 2,7 secondes pour charger les batteries à 75 % et moins de 20 secondes pour atteindre 90 %. Point intéressant de la technologie, la structure n'est pas compliquée à produire et la fabrication en masse devrait être possible rapidement. Reste à voir si la technologie n'est pas sans danger à long terme sur la santé des batteries.

Tom's guide

Décollage du stockage de l’hydrogène sous forme solide
Mardi, 29/03/2011 - 08:29

La société McPhy Energy propose une solution attractive pour le stockage de l'hydrogène sous forme solide. Celle-ci a déjà séduit deux entreprises italienne et japonaise.  Le groupe Enel, plus grande entreprise d'électricité d'Italie et deuxième en Europe en termes de capacités installées, a récemment commandé à McPhy Energy un système de stockage d'une capacité de 2 kg d'hydrogène sous forme d’hydrure de magnésium. Le réservoir a été conçu suite aux essais réalisés au CEA-Liten de Grenoble sur le réservoir pré-industriel Hymage (au cours de cette évaluation, le réservoir McPhy Energy a été couplé à un électrolyseur et à une pile à combustible). La solution de McPhy Energy sera intégrée dans une chaine complète de technologies innovantes dont l'éolien, le photovoltaique, la production et le stockage d'hydrogène. Le réservoir Mc Phy Energy sera installé sur la zone d'expérimentation de Livourne (Italie) et le projet sera supervisé par un groupe de chercheurs du Centre de Recherche d'Enel de Pise.

Moins d’un mois plus tard, c’est Iwatani Corporation, la première société sur le marché de l’hydrogène au Japon, qui a signé un contrat avec McPhy Energy pour la fourniture d’un système de stockage de 4 kg d’hydrogène. McPhy Energy installera un système complet de stockage d’hydrogène industriel sur un site d’Iwatani, au Japon. Le contrat a été signé après que les experts d’Iwatani aient, pendant un an, évalué la technologie de McPhy Energy et visité les installations des laboratoires du CNRS et du CEA en France où les réservoirs de McPhy sont déjà utilisés. « En fournissant l’hydrogène de manière fiable, sûre et économique, Iwatani fait avancer la quête japonaise d’une réelle économie de l’hydrogène », déclare un responsable du marché hydrogène d’Iwatani. « La technologie de stockage solide de McPhy Energy offre une solution unique aux défis de ce marché. »

Ces deux commandes marquent le véritable développement commercial de la technologie McPhy Energy qui détient des droits exclusifs sur un portefeuille de brevets uniques, qui sont l'aboutissement de plus de 8 années de recherche au CNRS et au CEA, en partenariat avec l'Université Joseph Fourier. Ce procédé, caractérisé par un stockage de l’hydrogène sous forme solide, dans des hydrures de magnésium, qui ne requiert pas de compression, constitue une solution innovante pour un stockage sûr et réversible de l’hydrogène, avec une excellente efficacité énergétique.

L'hydrogène ayant une densité d'énergie massique très élevée mais étant un gaz très léger, son stockage et son transport constituent de véritables défis. Le but des technologies de stockage de l'hydrogène est donc de réduire le volume naturellement occupé par l'hydrogène dans son état thermodynamiquement stable dans des conditions ambiantes.

Historiquement, les méthodes de stockage sont basées sur la compression et la liquéfaction (stockage direct), qui sont maintenant des approches établies et d'un bon rendement mais qui impliquent  d'énormes problèmes de sécurité et de coûts associés à la compression et au refroidissement. En pratique, l'hydrogène gazeux doit être comprimé à plusieurs centaines d'atmosphères et stocké dans une cuve ou un réservoir sous pression fait d'acier ou d'un matériau composite. Une opération qui utilise 10 à 25 % du contenu énergétique du gaz. Quant au stockage de l'hydrogène sous forme liquide, il est encore plus onéreux : il nécessite des investissements et des installations lourdes pour sa liquéfaction, sa conservation et sa mise en œuvre sous forme liquide à 20 Kelvin (-253°C).

La troisième alternative, très prometteuse, consiste à stocker l'hydrogène sous forme d'hydrures métalliques, lesquels ont fait l'objet d'études intensives depuis de nombreuses années, offrant un stockage de l'hydrogène sécurisé, réversible avec un excellent rendement énergétique (pas de compression).

McPhy a développé des techniques uniques qui résolvent les limites traditionnelles de l'hydrogène sous forme solide. Son procédé, qui offre un rendement énergétique de 97 %, fait appel à des hydrures métalliques, des composés chimiques formés lorsque l'hydrogène réagit avec certains métaux et qui offrent une densité volumique beaucoup plus élevée que le gaz comprimé ou liquide. Ce sont les hydrures de magnésium (MgH2) qui ont été retenus pour le stockage de masse, des additifs et la nano-structuration du MgH2 aidant à accélérer le processus d'hydrogénation et de déshydrogénation du magnésium pendant les cycles d'adsorption/désorption.

Techniques de l'Ingénieur

Stocker de l'énergie grâce à de l'air comprimé
Mardi, 29/03/2011 - 07:46

SustainX a développé une technologie transformationnelle pour le stockage de l'énergie à l'échelle industrielle en utilisant l'air comprimé. Le nouveau brevet couvre des méthodes pour contrôler la manière dont l'air est dilaté et compressé dans de tels systèmes.

D'après le département américain de l'énergie, le stockage de l'énergie est essentiel pour rendre le réseau électrique plus efficace, mais des technologies de stockage abordables manquaient jusqu'à présent. Pour répondre à ce besoin, SustainX compresse l'air en utilisant l'électricité pour déplacer des pistons dans des cylindres. L'air à haute pression résultant est stocké dans des cuves au-dessus du sol. Pour libérer l'énergie ultérieurement, le système utilise l'air stocké pour déplacer les mêmes pistons, qui à leur tour entraînent un générateur électrique.

Le nouveau brevet de la société couvre l'utilisation de mesures des conditions à l'intérieur des cylindres, comme la température ou la pression, pour conserver l'air à une température presque constante durant les phases de compression et d'expansion. L'une des méthodes pour contrôler la température de l'air consiste à pulvériser de l'eau dedans. En maintenant l'air à une température presque constante ('isotherme'), SustainX améliore significativement l'efficacité du stockage de l'énergie grâce à l'air comprimé.

"Ce brevet, ainsi que les trois autres attribués à SustainX au cours des 12 derniers mois, renforce la position de la société en tant que leader mondial du stockage de l'énergie isotherme grâce à l'air comprimé", a déclaré Thomas Zarrella, PDG de la société. Ce nouveau brevet, associé aux brevets attribués précédemment concernant la compression et l'expansion par étapes ainsi que l'échange thermique avec un puits thermique ou l'environnement, renforce la position de la propriété intellectuelle de SustainX dans le domaine du stockage de l'énergie grâce à l'air comprimé.

enerzine

La Bretagne à la pointe des énergies marines
Vendredi, 25/03/2011 - 07:59

C'est au début de l'année 2012 que devrait être installée sur l'île bretonne d'Ouessant  l'hydrolienne Sabella D10. Fruit de 10 ans de recherche, l'engin qui fait 15 mètres de haut, pour une assise de 30 mètres sur 30, est doté d'une hélice de dix mètres de diamètre. Elle transformera l'énergie des violents courants marins  qui peuvent atteindre jusqu'à neuf noeuds.

Cette hydrolienne qui coûtera quelque neuf millions d'euros sera expérimentée pendant un an. Son générateur sera connecté au réseau électrique de l'île en accord avec la filiale d'EDF Electricité réseau de France (ERDF), et devrait produire jusqu'à 500 kWh  soit 25 % de la consommation électrique de l'île environ. Une performance aléatoire en fonction de la puissance du courant. Lorsque celui-ci ne se montrera pas assez puissant, la centrale au fuel prendra le relais. Suite à l'expérimentation de cette première hydrolienne, trois autres Sabella devraient être installées, dans le cadre d'un projet de ferme hydrolienne baptisé Eussabella.

La France possède de grands sites de courants de marée emblématiques sur sa façade Atlantique et le long de la Manche. En Europe, la Grande-Bretagne présente le plus important gisement avec plus de 10 GW de puissance à installer, la France a le second potentiel avec une puissance de l’ordre de 3 à 5 GW.

Sabella

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
La température moyenne au Canada a grimpé de 1,4ºC en 60 ans
Mardi, 29/03/2011 - 08:43

Selon la dernière recension publiée par Statistique Canada, la moyenne des températures annuelles au pays a augmenté de 1,4 °C au cours des 60 dernières années. Le réchauffement des températures a toutefois varié selon les régions. Dans le Grand Nord, au Yukon et dans les montagnes du nord de la Colombie-Britannique, la température moyenne a augmenté au total de 2,2 °C depuis 1948. Dans la région de l'Atlantique, la hausse n'a été que de 0,5 °C.

À titre de comparaison, un rapport récent du Groupe d'experts intergouvernemental sur l'évolution du climat évaluait que le mercure avait grimpé en moyenne de 0,74 °C entre 1906 et 2006 sur l'ensemble de la planète. «Le Canada étant un pays nordique, on a tendance à avoir un réchauffement deux fois plus rapide que le reste de la planète. Par ailleurs, les régions arctiques et nordiques voient des changements trois ou quatre fois plus rapides que les autres régions du globe», explique Alain Bourque, climatologue et directeur de la programmation des impacts et adaptation au consortium Ouranos, qui s'intéresse de près à la question des changements climatiques.

Selon cet expert, il n'y a pas de «surprise scientifique» dans les données publiées par Statistique Canada. «C'est une autre étude qui tend à confirmer ce que l'on savait déjà, mais le tout avec un niveau de détails toujours plus varié», a-t-il expliqué. L'analyse des données compilées par Statistique Canada révèle également que la hausse des températures a été plus importante en hiver et au printemps qu'en été ou en automne. «Souvent, la hausse de la température moyenne sonne comme une bonne nouvelle pour le Québécois moyen, souligne Alain Bourque. Mais le problème, c'est que les phénomènes météorologiques extrêmes deviennent plus fréquents lorsque la moyenne change.

Cyberpresse

L'UE veut des "voitures vertes" dans les villes d'ici 2050
Mardi, 29/03/2011 - 08:11

Un quart des émissions de gaz à effet de serre vient aujourd'hui des transports. L'Union européenne s'est fixée pour objectif de réduire de 60 % leurs émissions de CO2 d'ici 2050. Pour y parvenir, la Commission propose la réduction significative des gaz à effet de serre dans les réseaux routiers. Bruxelles prévoit également d'augmenter le trafic ferroviaire, selon un projet consulté par EurActiv.com. La "feuille de route" de la Commission, présentée officiellement lundi 28 mars, vise principalement les transports routiers urbains et de marchandises. L'objectif d'aboutir à des villes sans voitures à moteurs thermiques d'ici 2050 sera réalisé grâce à la mise en œuvre de mesures fiscales, la promotion de systèmes de transport alternatifs et la construction des infrastructures nécessaires pour passer à une utilisation plus répandue des voitures électriques et propres.

Les taxes et les frais devraient être plus élevés pour les véhicules polluants en application du principe du pollueur payeur. Bruxelles propose de revoir les règles et les pratiques nationales en fonction de ce principe dans les Etats où ce n'est pas encore le cas. En dernier ressort, la Commission envisage de procéder à l'« internalisation totale et obligatoire des coûts externes ». En clair, faire en sorte que les prix payés par les consommateurs pour utiliser les transports comprennent les coûts liés à ceux-ci comme la pollution, le bruit ou les encombrements sur les routes. Dans sa feuille de route pour un espace européen unique du transport, l'exécutif de l'UE envisage différentes manières d'accroître l'utilisation d'autres moyens de mobilité que les voitures à moteurs thermiques, c'est-à-dire essence et diesel. L'exploration du « potentiel inutilisé du transport fluvial » est l'une des options.

Le passage aux voitures électriques et aux véhicules propres est également un objectif clé. Afin d'y parvenir, la Commission prévoit d'aboutir à une logistique urbaine sans CO2 dans les capitales européennes majeures d'ici 2030, peut-on lire dans la feuille de route publiée prochainement. La promotion des marchés publics communs pour des véhicules à faibles émissions dans les flottes commerciales, comme les camions de livraison ou les taxis, est également envisagée. Bruxelles souhaite également transférer 30 % du trafic routier de marchandises de plus de 300 km sur d'autres modes de transport comme le ferroviaire ou par voie d'eau d'ici 2030. Cet objectif devrait être élevé à plus de 50 % à l'horizon 2050. Le transport routier de marchandises dans l'UE est quatre fois plus important que celui qui s'effectue par voie ferroviaire.

Euractiv

1er bâtiment tertiaire à énergie positive “tous usages”
Mardi, 29/03/2011 - 08:00

Un bâtiment à énergie positive est un bâtiment qui produit plus d’énergie primaire qu’il n’en consomme pour ses besoins de chauffage, eau chaude sanitaire, ventilation, refroidissement et éclairage. Les lois "Grenelle" prévoient que, fin 2020, tous les bâtiments neufs seront à énergie positive. L’appellation “tous usages”, quant à elle, nécessite des réductions énergétiques supplémentaires : outre les économies réalisées sur les 5 usages précités, les consommations électriques de la bureautique (serveurs, ordinateurs, photocopieurs), des ascenseurs et de l’éclairage extérieur sont prises en compte dans le bilan énergétique du bâtiment. Dans un immeuble de bureau, ces équipements peuvent représenter jusqu'à 50 % de la consommation totale.

Situé dans un cadre naturel à deux pas de la ville historique, le bâtiment tertiaire à énergie positive “tous usages”, construit à Sistrières-Aurillac par le Crédit Agricole est donc particulièrement novateur en France où la basse consommation (moins de 50 kwh/m².an) va tout juste devenir le standard. Outre les aspects énergétiques, le Crédit Agricole a souhaité répondre à d'autres objectifs : mettre en valeur les caractéristiques du site ; créer un lieu de vie ouvert, convivial et fonctionnel ; respecter, de manière stricte, le délai de construction limité à 17 mois (le bâtiment a été livré le 15 novembre 2010).

Mais son ambition ne s'est pas arrêtée là. Le maître d'ouvrage a également souhaité construire en ossature bois et faire appel le plus possible à des entreprises locales. Grâce à la préfabrication des éléments, 8 mois ont suffi à l’édification du bâtiment sur le chantier. 1 300 m3 de bois ont été nécessaires, du bois local (pin Douglas du Massif central ) ou européen (épicéa d’Europe du Nord). Comparé à une construction en béton, le bilan carbone de la construction est de 30 % inférieur (chiffre fourni par C.A). Ces objectifs ont été atteints, grâce à la réalisation d’études très poussées menées en collaboration avec le bureau d’études Sylva Conseil.

Le bâtiment bénéficie d'une très bonne isolation thermique des murs, de la toiture et du sol pour une résistance thermique de 9m².K/w. Les fenêtres sont à triples vitrages, sauf au sud et bien entendu le renouvellement de l'air est assurée par une ventilation double flux. L'éclairage naturel est favorisé par la création d'une grande verrière au sud et des patios centraux. Les postes de travail ne sont jamais à plus de 5 mètres des fenêtres.

Deux sources énergétiques naturelles permettent de compenser les dépenses en chauffage et électricité : la géothermie et le photovoltaïque. 30 sondes géothermiques verticales de 150 mètres de profondeur, soit 4.500 mètres, captent les calories du sol (à température constante) pour le fonctionnement de pompes à chaleur réversibles. Le système assure les besoins en chauffage et en rafraîchissement. Dans les locaux, la diffusion de la chaleur (ou du froid en été) est assurée par des faux plafonds rayonnants qui allient performance énergétique, confort acoustique et flexibilité d’aménagement intérieur.

1 700 m2 de panneaux photovoltaïques produisent suffisamment d’énergie pour compenser toutes les consommations du bâtiment, y compris bureautique et informatique. L’ensoleillement de la ville d’Aurillac a d’ailleurs fait partie des critères décisifs ayant conduit le Crédit Agricole Centre France à investir dans le Cantal. En effet, avec 2.080 heures d’ensoleillement par an et seulement 53 jours de brouillard, Aurillac fait partie, devant Bordeaux, Toulouse ou Lyon, des territoires les plus ensoleillés de France. Vous en restez comme deux ronds de flan, car l'image d'Aurillac est plus souvent associée à la rigueur de ses hivers. L'un n'empêche toutefois pas l'autre.

Trois types de panneaux  photvoltaïques sont implantés sur le site de Sistrières-Aurillac : des panneaux opaques sur la toiture, des panneaux transparents en bi-verre au-dessus du parvis d’entrée, des panneaux opaques installés dans le champ voisin du bâtiment. Pour profiter des tarifs de rachat avantageux, la totalité de l’électricité produite est revendue et les besoins du bâtiment rachetés à EDF. Notons enfin que les eaux de pluie sont récupérées pour les sanitaires et que les parkings ont été rélegués en sous-sol pour éviter la pollution visuelle. Les ascenseurs sont placés en périphérie du bâtiment pour limiter leur usage alors que de grands escaliers centraux invitent à un exercise salutaire.

Développement Durable

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Découverte de nouveaux gènes impliqués dans la leucémie
Jeudi, 31/03/2011 - 13:50

Des scientifiques du Wellcome Trust Sanger Institute, en Grande Bretagne, ont découvert trois différents gènes dont les mutations pourraient conduire au développement de la leucémie myéloïde aigüe. Publiés dans la revue Nature Genetics, ces travaux ouvrent de nouvelles voies quant à la mise au point de traitements efficaces et davantage ciblés.

Affectant les globules blancs, ce type de cancer se caractérise par une production de cellules immatures au niveau de la moelle osseuse qui provoque un déséquilibre dans la composition du sang. Incorrectement développés, les globules blancs sont incapables de combattre les infections et les globules rouges ne suffisent pas à transporter l'oxygène dans tout l'organisme. Sans traitement, la maladie peut être fatale en quelques semaines. Au cours de leurs recherches, les scientifiques se sont donc intéressés aux étapes du développement de cette forme de leucémie et aux différents facteurs qui pouvaient intervenir.

Pour cela, ils ont observé chez des souris les conséquences de différentes mutations sur le risque de développer une leucémie myéloïde aigüe. Ils sont ainsi parvenus à identifier trois gènes distincts parmi lesquels, un affecte la croissance et la division des cellules, et un second modifie l'environnement cellulaire. "Nous avons découvert les étapes critiques qui interviennent lorsque le cancer se développe.

Identifier les étapes biologiques en cours signifie que nous pouvons rechercher de nouveaux traitements capables d'inverser le processus", a expliqué à la BBC le Dr George Vassiliou, consultant hématologiste à l'Institut. Si développer de nouveaux médicaments pourrait "prendre des décennies", il a ainsi indiqué qu'il serait possible d'utiliser des molécules déjà connues mais "d'une manière plus ciblée".

Wellcome Trust Sanger Institute

Un diurétique pour mieux soigner les épilepsies infantiles
Jeudi, 31/03/2011 - 13:36

Deux molécules sont utilisées en première intention pour stopper les crises d’épilepsies du nourrisson ou du bébé : le valium et le phénobarbital. Ces molécules bloquent les crises en renforçant l’action du GABA - le principal médiateur chimique du cerveau - qui inhibe les neurones. Cependant, souvent le phénobarbital ne bloque pas les crises voire les aggrave sans que les mécanismes ne soient connus. Aujourd’hui, Yehezkel Ben-Ari et ses collaborateurs sont parvenus à décrire le mécanisme qui aboutit, crise après crise, à l’inversion des effets positifs des traitements classiques, qui deviennent inefficaces. Les chercheurs proposent une nouvelle approche pour réduire les crises d’épilepsies infantiles.

En utilisant des préparations in vitro - des structures cérébrales prélevées chez des souris - les chercheurs ont montré que le phénobarbital prévient les crises épileptiques quand il est utilisé tôt, au début des crises. Par contre, quand il est administré après plusieurs épisodes épileptiques, il aggrave les crises. Pour comprendre l’inversion des effets des traitements, les chercheurs se sont penchés sur le mécanisme associé à leur cible, le GABA et plus particulièrement la régulation du chlore qui permet son action.

Le GABA agit sur les neurones par l’intermédiaire d’un récepteur canal (GABA R). Lorsque le GABA s’y fixe, il provoque l’entrée d’ions chlore chargés négativement dans les neurones. Renforcé par la présence de l’antiépileptique phénobarbital, la différence de concentration de chlore entraine l’inhibition des neurones et donc l’arrêt des crises. Par contre, quand les concentrations intracellulaires de chlore sont élevées, le GABA va exciter les neurones en entraînant une sortie excessive du chlore par son récepteur. Or, ces concentrations sont fortement dépendantes de l’activité neuronale. Dans un tissu épileptique, le chlore s’accumule anormalement à l’intérieur des neurones.

Grâce à leurs observations, Yehezkel Ben-Ari et ses collaborateurs ont constaté, au fur et à mesure des crises, le dysfonctionnement du transporteur KCC2, exportateur naturel de chlore hors de la cellule. Après plusieurs crises, il se dégrade et ne fonctionne quasiment plus, ce qui empêche le chlore de sortir de la cellule. Par contre les transporteurs (NKCC1 et GABA R), chargés de le faire entrer dans les neurones, fonctionnent toujours. Au fil des crises, le chlore s’accumule, provoque l’inversion du flux au niveau du récepteur GABA R : c’est la crise. En renforçant les effets du GABA, le traitement au phénobarbital devient donc inefficace et aggrave les crises.

Forts de ces constatations, les chercheurs de l’INMED ont essayé de trouver une méthode qui permette de réduire la concentration de chlore afin de renforcer les actions inhibitrices du GABA, et par voie de conséquence favoriser l’action antiépileptique initiale du phénobarbital. Le diurétique, connu pour diminuer les concentrations de chlore, agit sur le récepteur qui importe le chlore (NKCC1) en le bloquant. Ainsi, la concentration de chlore intracellulaire est rétablie, ce qui permet de prolonger les effets inhibiteurs du GABA et donc l’efficacité de l’antiépileptique phénobarbital. Certains diurétiques utilisés depuis des décennies pour réduire le chlore au niveau rénal - et donc l’eau - agissent en bloquant des co-transporteurs du chlore qui sont présents au niveau des reins. Les mêmes co-transporteurs sont aussi présents dans le cerveau ; d’où l’idée de tester leurs effets sur les neurones épileptiques.

Yehezkel Ben-Ari et ses collègues ont montré qu’effectivement "Le diurétique, associé au phénobarbital réduit la sévérité des crises surtout quand il est donné à des phases précoces. En d’autres termes, l’historique des crises est crucial pour que le diurétique prolonge l’efficacité du traitement" conclut Yehezkel Ben-Ari. En prévenant l’augmentation excessive du chlore pendant les crises, le diurétique préserve l’action du phénobarbital et donc empêche l’aggravation des épisodes épileptiques. Une étude multicentrique au niveau européen est en cours afin d’évaluer l’efficacité du diurétique sur des crises sévères du nourrisson qui sont résistantes au phénobarbital.

INSERM

Audition : un nouveau type d'implants cochléaires sur le marché d'ici quelques années
Jeudi, 31/03/2011 - 13:25

Commencée dès 2006, une étroite collaboration entre l'équipe-projet Demar de l'INRIA Sophia-Antipolis, que dirige David Guiraud, et l'entreprise MXM, a conduit au développement d'un nouveau type d'implants cochléaires qui devraient arriver sur le marché au cours des prochaines années. Rappelons qu'un implant cochléaire est un dispositif électronique qui permet d'améliorer l'audition par stimulation des terminaisons nerveuses. Mais le concept breveté par l'INRIA, lui, est totalement nouveau, David Guiraud allant jusqu'à parler de "rupture technologique". Il s'agit en effet d'un réseau de petits implants capables de générer un profil complexe de stimulation.

Si jusqu'à présent, l'architecture des neuroprothèses était basée sur un implant central relié par des fils aux électrodes, le système développé par l'équipe de l'INRIA est constitué de plusieurs unités de stimulation disposant chacune de son système électronique à proximité. Résultat, plus de fil pour les relier aux électrodes. D'où la possibilité de moduler le nombre d'unités de stimulation en fonction des besoins de chaque patient.

Autre avantage de ce nouveau système, il peut être implanté par endoscopie, au contraire des implants classiques dont la pose nécessite une intervention plus invasive. Enfin, le profil de stimulation, via des électrodes multipolaires et non uniquement bipolaires, permet de focaliser les courants électriques. Il est alors possible de générer des stimulations plus physiologiques et mieux focalisées, ce qui à moyen terme ouvre la voie à des perspectives médicales tout à faire intéressantes, en particulier pour les personnes atteintes de surdité.

Bulletins Electroniques

Découverte d'une anomalie génétique cause d'infertilité masculine
Vendredi, 25/03/2011 - 08:39

La "globozoocéphalie spermatique" est une pathologie rare caractérisée par des spermatozoïdes à tête ronde dépourvus de la vésicule ("acrosome") contenant les enzymes qui permettent au spermatozoïde de passer à travers la membrane entourant l'ovule ("ovocyte"). Pour en découvrir les causes génétiques, les chercheurs ont analysé, à l'aide de puces à ADN, le génome de 20 personnes atteintes de ce syndrome. Ils ont ainsi découvert que 75 % des patients avaient en commun une perte de matériel génétique, une perte d'une séquence d'ADN de 200.000 paires de bases, sur un seul gène, le DPY19L2.

L'étude a permis de découvrir que le gène DPY19L2 est nécessaire à l'élongation du spermatozoïde et à la formation de l'acrosome. Ces résultats permettent de proposer un diagnostic génétique pour les patients porteurs de spermatozoïdes "globozoocéphales" (à tête ronde), et, à terme, d'imaginer des solutions thérapeutiques. Ce gène pourrait, par ailleurs, devenir une cible pour de nouveaux contraceptifs masculins non hormonaux. En effet, en bloquant son expression, ou l'action de la protéine dont il commande la fabrication, on pourrait empêcher la formation de spermatozoïdes féconds, selon les chercheurs. Un brevet protégeant ce concept a été déposé en novembre 2009, note le Centre national de la recherche scientifique (CNRS).

AJHG

Une étude renforce les espoirs d'un vaccin contre la tuberculose
Vendredi, 25/03/2011 - 08:31

Selon une récente étude, une nouvelle protéine récemment identifiée secrétée par la bactérie de la tuberculose serait efficace en tant que vaccin contre la maladie. Publiée dans la revue Proceedings of the National Academy of Sciences (PNAS), la recherche menée par l'équipe explique que la protéine, baptisée EspC, pourrait être utilisée pour développer de nouveaux tests de diagnostic.

La tuberculose (TB) est provoquée par une bactérie appelée Mycobacterium tuberculosis, qui se transmet par la toux. Selon l'OMS (Organisation mondiale de la santé), près de 9 millions de nouveaux cas de TB en 2009 ont été enregistrés et près d'1,9 millions de personnes ont succombé à la maladie. Le traitement de la TB consiste en un ensemble d'antibiotiques à consommer pendant plusieurs mois ; bien que contraignant, le traitement est efficace pour 86 % des cas.

Il existe un vaccin contre la TB. Appelé BCG (pour «bacille Calmette-Guérin»), il se base sur la bactérie Mycobacterium bovis qui infecte le bétail et est étroitement apparenté à M. tuberculosis. Toutefois, il n'offre pas de protection complète, et de nombreuses personnes vaccinées contractent tout de même la TB.

La chasse est donc ouverte pour un nouveau vaccin plus efficace contre la maladie. Les vaccins fonctionnent sur le principe suivant : ils «enseignent» au système immunitaire à se souvenir de certaines molécules du microbe ; dans l'éventualité que le système immunitaire rencontre ces molécules (et par conséquent, le microbe) une nouvelle fois, il pourra organiser une réaction immunitaire rapide. Les meilleurs candidats-vaccins sont ceux qui élicitent la plus forte réponse immunitaire.

Dans cette étude, des scientifiques du Royaume-Uni et des États-Unis ont découvert qu'une petite protéine appelée EspC entraîne une forte réaction immunitaire chez les personnes infectées par la TB plus que toute autre molécule. Par contre, EspC n'a déclenché aucune immunoréaction chez les personnes soumises au vaccin de BCG mais n'ayant pas d'antécédents d'infection à la TB. Il s'avère qu'EspC est secrétée par M. tuberculosis et non par le vaccin BCG, car celui-ci est dépourvu des gènes codant pour la protéine. Selon les chercheurs, le fait que le vaccin BCG ne provoque pas de réaction immunitaire signifie qu'un vaccin contre la TB à base d'EspC apporterait une immunité supplémentaire en plus de celle apportée par le vaccin BCG.

«Bien que la majorité de la population mondiale soit soumise à la vaccination BCG, 9 millions de nouveaux cas de TB se déclarent chaque année, par conséquent, nous devons urgemment développer un vaccin contre la TB plus efficace», explique le professeur Ajit Lalvani de l'Imperial College London, au Royaume-Uni. «Nous avons démontré que l'EspC, secrétée par la bactérie, provoque une forte réponse immunitaire, et qu'elle est très spécifique à [M. tuberculosis]. Cela en fait un candidat extrêmement prometteur pour un nouveau vaccin de TB qui stimulerait une immunité plus vaste et efficace que le BCG.» Et d'ajouter : «Une chose surprenante, c'est que nos résultats montrent également que cette molécule pourrait étayer les tests de diagnostic sanguin de prochaine génération qui permettrait de détecter rapidement toute infection de la maladie.»

Cordis

Un nouveau médicament contre le cancer de la prostate métastatique
Vendredi, 25/03/2011 - 08:19

Sanofi-Aventis a annoncé avoir obtenu de la Commission européenne une autorisation de mise sur le marché pour Jevtana (cabazitaxel), en association avec de la prednisone/prednisolone, pour le traitement des patients atteints d'un cancer de la prostate métastatique hormono résistant traités antérieurement par une chimiothérapie à base de docétaxel. Le groupe pharmaceutique explique que Jevtana est le premier agent approuvé ayant permis d'obtenir une prolongation significative de la survie des patients dont la maladie a progressé pendant ou après un traitement à base de docétaxel (survie médiane globale de 15,1 mois contre 12,7 mois dans le groupe mitoxantrone).

L'approbation de la Commission européenne fait suite à l'avis favorable délivré par le Comité des médicaments à usage humain (Committee for Medicinal Products for Human Use - CHMP) de l'Agence européenne des médicaments (European Medicines Agency - EMA). Cette décision repose sur les résultats de l'étude clinique de phase III TROPIC ayant recruté 755 patients atteints d'un cancer de prostate métastatique hormono-résistant traités antérieurement par une chimiothérapie à base de docétaxel.

«JEVTANA® en association avec de la prednisone/prednisolone a réduit de près d’un tiers le risque de décès des patients et prolongé leur survie sans progression, par rapport à un comparateur actif mitoxantrone », a indiqué le Dr. Debasish Roychowdhury, M.D., Senior Vice-Président, Global Oncologie de sanofi-aventis. « L’approbation de JEVTANA® par les autorités européennes est synonyme d’espoir pour les patients européens pour lesquels les options de traitement sont limitées, lorsque la maladie progresse après un traitement de première ligne.»

Troisième forme de cancer dans le monde en termes d’incidence et sixième en termes de mortalité, le cancer de la prostate est la deuxième cause de décès par cancer aux États-Unis chez les hommes, après le cancer du poumon. En 2009, 192 000 nouveaux cas et 27 000 décès étaient attendus aux États-Unis. On estime à 300 000, le nombre de nouveaux cas de cancer de la prostate cancer qui apparaissent chaque année dans l’Union Européenne.

Sanofi

Déclin cognitif léger : quels peuvent être les signes précurseurs d’Alzheimer ?
Vendredi, 25/03/2011 - 08:09

Avec la possible arrivée de traitements modifiant l’évolution de la maladie d’Alzheimer (MA), l’identification de marqueurs aux stades précoces pourrait revêtir une importance plus grande encore. Quels sont les signes neuropsychiatriques prédictifs chez les sujets atteints de déficit cognitif léger (MCI  pour mild cognitive impairment) d’une conversion future en MA ?

Cent soixante et un patients avec MCI de plus de 40 ans ont été recrutés sur 6 ans dans un centre mémoire, après exclusion des malades atteints de maladies neurologiques, pour être suivis en moyenne pendant 27 mois. Un bilan somatique, biologique, d’imagerie et une évaluation neuropsychologique des fonctions basiques et instrumentales (MMSE, CAMCOG, CDR*) ont été pratiqués à l’inclusion. Les patients ont été revus à 6 et 12 mois et des signes neuropsychiatriques ont été recherchés par l’échelle BEHAVE-AD.

Soixante-seize pour cent des sujets inclus avaient au moins un symptôme neuropsychiatrique (32 %, 3 et plus), le plus souvent anxiété, perturbation affective, agressivité... Le taux de conversion en MA a été de 43 % et les patients concernés avaient un plus grand déficit cognitif initialement. Le score à l’évaluation neuropsychiatrique était significativement corrélé avec la sévérité clinique et le statut cognitif, le nombre de symptômes augmentant avec la gravité clinique. La fréquence des signes dépressifs et d’emploi des psychotropes ne différait pas dans les 2 groupes avec ou sans conversion. Après ajustement pour l’âge, le sexe, l’éducation, la dépression, les patients présentant une anxiété anticipatoire et une activité sans but avaient un risque 2 fois supérieur de conversion précoce en MA, mais pas indépendamment du statut cognitif initial.

Le fort taux annuel de conversion (19 %) observé ici pourrait s’expliquer en partie par un déficit cognitif initial plus important, un faible niveau d’études, la facilitation de l’inclusion de patients à forme amnésique par le pattern de l’étude. L’anxiété et la douleur mentale sont des facteurs prédictifs indépendants connus de déclin cognitif et agiraient peut-être par le biais d’une toxicité chronique sur les structures limbiques. L’apathie, l’un des signes neuropsychiatriques les plus fréquents dans les MCI, n’a pas été mesurée dans cette étude, or elle a été reliée à des conversions précoces et à un déclin cognitif plus agressif.

JIM

L’aspirine diminuerait la rupture d’anévrisme intracrânien
Vendredi, 25/03/2011 - 07:42

Cette étude prospective cas témoins, d’une durée de 5 ans, a analysé un sous groupe de patients issu de l’étude ISUIA (International Study of Unruptured Intracranial Aneurysms). Les résultats montrent que l’utilisation fréquente d’aspirine, 3 fois par semaine, réduit le risque de rupture d’anévrisme cérébral de 60 % par rapport à un groupe de patients ne prenant pas d’aspirine (Odds Ratio = 0,40 ; intervalle de confiance à 95 % de 0,18 à 0,87). Les auteurs pensent que l’effet anti-inflammatoire de l’aspirine pourrait expliquer ces résultats.

JIM

^ Haut
Recherche
Recherche & Innovation, Technologies, Transports
Quelle source d'énergie pour la voiture électrique ?
Vendredi, 25/03/2011 - 08:59

Plus de 700 millions de voitures circulent aujourd'hui sur la planète. Elles sont responsables de 12 à 14 % des émissions de CO2. On serait tenté de dire «seulement». L'ennui, c'est que le parc automobile mondial est en forte croissance. Au rythme actuel, on s'attend à ce qu'il atteigne 1,2 milliard de voitures en 2020 et pas loin de 3 milliards en 2050. Or, sans même parler du problème de la raréfaction et du renchérissement du pétrole qui va inévitablement se poser, l'automobile va devoir, comme l'ensemble de l'industrie et des activités humaines, diminuer de façon drastique ses émissions de gaz à effet de serre. Compte tenu de la croissance du parc, elle doit tout bonnement diviser par quatre ses rejets de CO 2 d'ici à 2050, ce qui revient à réduire d'autant la consommation moyenne du parc automobile mondial. Dans l'état actuel des connaissances, la voiture électrique constitue donc une des solutions pour y parvenir. À condition bien sûr que les émissions de la production d'électricité soient inférieures à celles de notre actuelle voiture à moteur thermique.

Pour l'heure, ce n'est évidemment pas le cas de la production d'électricité par les centrales au charbon. Si l'on prend l'exemple d'une voiture électrique consommant 14 kWh aux cent kilomètres, comme la Nissan Leaf, ses émissions du puits à la roue sont alors comprises entre 130 et 150 g/km selon que les gaz diffusés par la centrale sont catalysés ou non. Ces valeurs sont à comparer avec celles d'une Renault Mégane 1.5 dCi 110 ch. À l'échappement, celle-ci ne relâche que 114 g/km, ce chiffre ne représentant toutefois que 86 % des rejets calculés du puits à la roue. En prenant en compte l'extraction, le raffinage et le transport du carburant, les émissions totales remontent ainsi à 133 g/km, chiffre dès lors comparable à celui de la voiture «au charbon». La comparaison est nettement plus favorable au modèle électrique quand son énergie est produite dans une centrale à gaz à cycle combiné (66 g/km) ou à cogénération (42 g/km), sans parler évidemment des énergies renouvelables et du nucléaire dont les émissions sont proches de zéro.

Au final, il semble très prématuré d'annoncer que l'avenir de la voiture électrique est compromis par la catastrophe de Fukushima et l'éventuelle remise en cause de l'énergie nucléaire. Elle n'en serait du reste qu'une petite victime collatérale, car le démantèlement du parc nucléaire d'un pays comme la France aurait des conséquences autrement plus graves sur son économie. Et du reste, si une décision était prise dans ce sens, le démontage et le remplacement des installations prendraient, dit-on, quarante ans. Or, la voiture électrique, même si elle existe depuis plus de cent cinquante ans, n'en est pas moins à l'aube de son histoire. D'ici à 2050, elle a le temps de diviser sa consommation par deux, voire plus.

Le Figaro

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top