RTFlash

RTFlash a besoin de vous pour continuer à exister !

Propulsé par HelloAsso

RTFLASH Recherche & Technologie
NUMERO 523
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 23 Juillet 2009
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
L'Internet haut débit pour toutes les zones en 2012
Google attaque de front Microsoft en préparant son système d'exploitation
Des candidats à un examen identifiés par les veines de la main
Avenir
Demain les robots...
Matière
Nouveau record mondial : le rendement des cellules photovoltaïques organiques atteint 5,9 %
Production d'hydrogène à partir de cellules vivantes
Espace
Simulation réussie pour le premier voyage virtuel vers Mars
Terre
La Grande-Bretagne dévoile son plan ambitieux carbone
La sévérité des ères glaciaires serait déterminée par l'océan
Le second « Plan national santé-environnement » est lancé
Vivant
Alzheimer : un peu de vin pour réduire les risques
Une avancée majeure dans la compréhension des mécanismes de régénération
Un vaccin contre l'infection à cytomégalovirus
Recherche
Piles à combustion : percée dans le domaine des voitures à hydrogène
Edito
Comment repenser les villes pour améliorer la qualité de vie des citadins ?



Selon l'étude "A vision of smarter cities" d'IBM*, publiée par le Global Centre for Economic Development, tous les réseaux urbains seront liés dans les villes du futur. Les infrastructures de télécommunication détermineront le dynamisme économique et commercial, qui à son tour aura des conséquences sur les flux de transport, d'énergie et de consommation d'eau (Voir étude).

Cette étude montre notamment que la consommation énergétique aura des conséquences déterminantes sur la qualité de l'eau, élément vital pour les habitants. De leur côté, les habitants des villes détermineront l'adoption des outils de communication. Agir sur un seul de ces réseaux aura donc des conséquences sur l'intégralité du système. D'où l'importance de ne pas se contenter de capter des données mais de faire en permanence un suivi de l'état des réseaux. Et également de doter ces derniers d'outils de mesure précis et interconnectés qui permettront d'analyser et mutualiser les données.

Cette étude montre également que les enjeux ne concernent pas que l'optimisation des ressources et souligne que "mieux ces systèmes fonctionnent, plus il y a de chances pour que la ville crée une prospérité durable". Ces différents outils créeront également de nouvelles perspectives pour les entreprises. "Par exemple, le besoin de rendre les systèmes d'une ville plus écologiques est une opportunité pour deux types d'entreprises" précise l'étude "Celles qui travaillent sur l'utilisation plus efficace des ressources rares et celles qui proposent des solutions moins polluantes". Ce développement des villes intelligentes stimulera aussi l'innovation et la compétitivité. Et sera donc source de création d'emplois.

L'étude indique qu'un investissement de 7 milliards d'euros dans l'énergie verte, la santé et le haut débit devrait créer près d'un million d'emplois aux Etats-Unis et que, pour réussir à saisir ces opportunités de rendre la ville intelligente, il vaut mieux être audacieux. "Attendre le consensus politique ou que des solutions sans risque, faciles, avérées, soient validées, ce n'est pas la bonne approche". Pour Susanne Dirks, qui a dirigé cette étude, les gagnants de ce jeu seront ceux qui se montreront intrépides et rapides. Côté technologie, la collecte des informations s'effectuera par exemple via des capteurs, qui relèvent des données sur la qualité ou l'efficacité du système d'eau, ou encore les problématiques de congestion du trafic.

Mais rendre la ville intelligente ne passe pas forcément par de nouvelles infrastructures. Il faut également innover dans l'utilisation des outils et équipements existants. C'est ainsi que pour prédire l'intensité des prochaines inondations aux Etats-Unis, des chercheurs de l'Université de Tel Aviv (TAU) utilisent les antennes relais des réseaux mobiles. Ils ont constaté que l'humidité détériore la qualité des signaux émis par les antennes lorsque les utilisateurs téléphonent ou s'envoient des messages. Du coup,"en calculant le taux d'humidité ambiante autour des antennes relais et en le comparant avec la qualité du signal émis, il est possible de construire un modèle de prédiction efficace", explique Pinhas Alpert, responsable du projet.

Ces donnés couplées avec la pluviométrie ont permis aux chercheurs d'améliorer les modèles prévisionnels d'alerte contre les inondations. Pour mettre au point leur technologie, les chercheurs ont réalisé des tests dans une zone inondable du désert de Judée en Israël, où le nombre d'antennes relais est assez important. Cette étude a été réalisée en partenariat avec les opérateurs israéliens Cellcom et Pelephone, qui ont fourni les données nécessaires aux mesures. Ce nouvel outil permet d'anticiper les changements de climat et d'éventuelles catastrophes pour évacuer les populations. Selon ces concepteurs, cette technologie est très facile à mettre en place puisque l'infrastructure existe déjà : des centaines de milliers d'antennes sont déjà installées.

En Europe, la cité italienne de Salerno et IBM ont lancé quatre projets qui numérisent les outils urbains existants. Le but est de rendre la ville plus adaptée aux besoins des citoyens. Par exemple, afin de moderniser et de développer le tourisme, ils ont installé des étiquettes RFID à travers la ville afin de mieux exploiter le potentiel culturel de la cité. Cela crée un chemin touristique capable de fournir des informations complémentaire sur les monuments en "push" directement sur les mobiles des passants.

Salerno va également mettre en place un outil de gestion du trafic en utilisant les feux de signalisation et les caméras de surveillance. Ce, afin de mettre en place un central d'information sur la circulation, les places de parking disponibles en centre ville et le prix de ces stationnements. Un autre projet va rendre la ville accessible aux personnes malvoyantes, en créant une route qui mènera les aveugles d'un parking précis au théâtre.

Pour cela, des capteurs sont installés le long du chemin, sur les trottoirs. La canne du non voyant intègre également des capteurs qui repèrent l'environnement et transfère ces données au mobile. Enfin, pour améliorer le quotidien des personnes âgées, un outil de monitoring à distance de la santé sera mis en place. Il se compose d'un appareil électronique baptisé "je me sens bien". Il contrôle la pression sanguine, rappelle aux anciens de prendre leurs médicaments et met en ligne des rapports accessibles au médecin et à la famille sur l'état de santé de la personne.

Mais la technologie n'est pas tout et les grands défis urbains du futur, comme la pollution, ne seront surmontés qu'en innovant également au niveau des usages et des comportements. Pour amener les pouvoirs publics à réagir, on peut aussi s'appuyer sur une action citoyenne et des outils communautaires.

Pour faire prendre conscience au public des conditions environnementales dans les villes américaines, les chercheurs d'Intel et de l'université de Berkeley proposent de créer une dynamique communautaire et civique pour entraîner des changements dans la gestion publique. Ils ont donc conçu et mis en ligne des outils collaboratifs accessibles via Internet et mobiles. Le but est d'obtenir des interprétations communes des phénomènes et un moyen de lancer des actions collectives. Les chercheurs apportent ainsi les outils nécessaires à la création d'une cartographie sociale de l'environnement.

Pour recueillir les données, ils ont créé un réseau mobile de capteurs qui analysent en permanence la qualité de l'air. Dans le cas de San Francisco, ce sont les véhicules des services de voirie qui ont été équipés. Les senseurs embarquent des GPS afin de relever leur position dans la ville. Ils mesurent le monoxyde et le dioxyde d'azote, le carbone, l'ozone, la température et l'humidité. Les données sont envoyées vers une base de données par message texte sur le réseau GSM. Elles sont ensuite rendues visibles grâce à un outil de visualisation sur Internet et mobile. Cette action s'inscrit dans le projet Common Sens (sens commun) qui vise à développer une plate-forme de capteurs et de logiciels. Les groupes et des individus sont ainsi à même de collecter des données environnementales. D'autres actions sont mises en place dans les principales villes des Etats-Unis. Dans ces cas, ce sont les citoyens qui embarquent des capteurs afin de faire les relevés.

Ces récentes études et expérimentations urbaines montrent que les défis liés au changement climatique, à la pollution et aux transports nous obligent à repenser les concepts qui fondent l'urbanisme. Il faut agir simultanément sur trois niveaux d'innovation distincts bien qu'interdépendants : le niveau techno-économique, en faisant les bons choix stratégiques en matière d'activités économiques et d'outils technologiques, le niveau socio-culturel, en valorisant le capital culturel local et en favorisant la mixité et la fluidité sociale et le niveau civique et coopératif, en inventant de nouveaux outils démocratiques et de nouvelles formes de participation interactive aux processus de décisions politiques, afin que les habitants s'approprient les politiques urbaines et participent de manière active à leur mise en oeuvre et à leur évaluation.

René Trégouët

Sénateur honoraire

Fondateur du Groupe de Prospective du Sénat


TIC
Information et Communication
L'Internet haut débit pour toutes les zones en 2012
Vendredi, 24/07/2009 - 00:00

D'ici 2012, tous les habitants de France métropolitaine devraient pouvoir accéder à l'Internet haut débit, qu'ils résident dans une grande ville ou dans un village. Tel est, du moins, le but affiché par Nathalie Kosciusko-Morizet, secrétaire d'Etat à l'économie numérique, dans son plan «France Numérique» depuis la fin 2008. Pour le mettre en oeuvre, elle réunissait récemment les opérateurs candidats au nouveau label «Internet pour tous».

En échange de cette certification soutenue par l'Etat, les FAI devront proposer un accès à 512k minimum pour moins de 35 euros par mois. «Quatre fournisseurs d'accès sont candidats à la labellisation», a annoncé la secrétaire d'Etat à l'Economie numérique à l'occasion d'une conférence de presse. Il s'agit de SFR, Nordnet (filiale de France Télécom), Vivéol et Numéo.

Mais, compte tenu de la difficulté d'apporter de l'ADSL dans les zones les plus reculées, «certaines de ces offres vont être satellitaires», a-t-elle prévenu. Pour cela, les opérateurs satellite Astra et Eutelsat se sont proposés comme partenaires.

La communication autour des offres débutera en septembre. La France compte aujourd'hui un peu plus de 18 millions d'abonnés haut débit. Et près de 2 % des foyers (1 à 2 millions) sont encore privés d'accès, selon l'Association française des usagers des télécommunications (Afutt). L'association a adressé une lettre ouverte à la secrétaire d'Etat, jugeant que l'objectif d'une couverture totale ne pouvait pas être tenu «sans mesures concrètes prises dans les mois qui viennent». «Après les cinq années glorieuses de l'ADSL, notre pays reprend du retard», estime l'Afutt.

Après les grandes villes, ce sont les villes moyennes, puis les zones rurales les moins denses, qui verront arriver le très haut débit. «Dans les zones moins denses, c'est sans doute par le co-investissement que cela va se faire», a expliqué Jean-Ludovic Silicani, président de l'Arcep, qui croit en une collaboration entre opérateurs et collectivités locales. «J'ai fait la demande à la Caisse des dépôts et de consignation de travailler sur un projet qui permettrait aux collectivités locales de prendre une part minoritaire dans les investissements en fibre optique», a également annoncé la ministre. Une enveloppe de 250 millions d'euros par an pendant trois ans doit être constituée.

En attendant, Nathalie Kosciusko-Morizet a présenté ses travaux sur l'investissement minoritaire des collectivités territoriales dans les réseaux, suite à l'étude réalisée pour son compte par la CDC. Pour les collectivités locales, a-t-elle expliqué, «l'objectif recherché à travers ce nouvel outil est de mobiliser moins de ressources financières publiques par rapport à la mise en oeuvre d'une subvention classique.

Par ailleurs, il s'agirait de fédérer plusieurs investisseurs privés autour d'objectifs d'aménagement et de mutualisation de réseaux, et plus généralement, de disposer d'une plus grande flexibilité par rapport aux dispositifs existants.» L'ensemble de ces sujets est débattu avec les parlementaires lors de l'examen au Sénat à partir du 20 juillet de la proposition de loi relative à la lutte contre la fracture numérique. Or, on le sait, la fibre optique coûte bien plus cher que le déploiement de l'ADSL, qui utilise le réseau de fil de cuivre déjà existant. Et les travaux sont d'autant moins rentables que le nombre de clients est faible. Le régulateur des télécoms, l'Arcep, souhaite donc définir d'ici la fin de l'année «un cadre technique et juridique» pour tous les types de zones.

MI

Google attaque de front Microsoft en préparant son système d'exploitation
Vendredi, 24/07/2009 - 00:00

Le groupe américain a annoncé, mardi 7 juillet, sur son blog, qu'il travaillait à un système d'exploitation pour ordinateurs, un programme qui assure la liaison entre la machine (son processeur, sa mémoire, etc.) et les applications (traitement de texte, jeux vidéo...). Chrome OS - c'est son nom - sera basé sur des technologies "open source" (les développeurs externes pourront le modifier à leur guise). Google promet qu'il permettra d'accéder plus vite aux applications d'un PC. Il sera d'abord destiné aux "netbooks", ces ordinateurs portables à moins de 500 dollars conçus pour consulter ses e-mails et surfer, dont les ventes ont explosé ces derniers mois. Chrome OS devrait être disponible au second semestre 2010.

Cette annonce est une déclaration de guerre à Microsoft : Google s'attaque à son coeur de métier. Qui plus est avec un logiciel gratuit, alors que les systèmes d'exploitation de Microsoft sont payants.

Google et Microsoft s'affrontent déjà sur plusieurs terrains : les logiciels de bureautique, les moteurs de recherche ou les systèmes d'exploitation ("OS") pour téléphones mobiles. Mais Microsoft, premier éditeur mondial de logiciels (60,4 milliards de dollars de chiffre d'affaires pour l'année fiscale 2008, soit 43,2 milliards d'euros, et 17,7 milliards de dollars de profits), tient sa puissance de sa position archi-dominante sur le marché des OS pour PC, avec la gamme Windows (qui équipe 9 ordinateurs sur 10 dans le monde).

Les dirigeants de Google, semblent avoir une vision très claire de là où ils veulent mener leur groupe. "Depuis ses débuts, Google parie sur la maximisation de l'audience grâce à l'offre de services gratuits, puis à la valorisation de cette audience auprès des annonceurs. Toutes ses tentatives de diversification peuvent être lues à cette aune", selon le cabinet Greenwich Consulting.

Google a commencé à mettre en place cette stratégie avec son moteur de recherche. A ce jour, cet outil est toujours le plus populaire du Web (840 millions de visiteurs uniques en mai, selon l'institut Comscore), malgré les tentatives concurrentes (la dernière en date étant le lancement de "Bing", le moteur de Microsoft). Avec son offre publicitaire associée, les liens sponsorisés, Google a réussi à transformer son moteur en "cash machine". Le groupe (21,8 milliards de dollars de chiffre d'affaires en 2008 et 4,2 milliards de dollars de profit), capte environ 40 % du total des dépenses en ligne des annonceurs.

Toujours dans le but de maximiser son audience, le groupe californien a lancé des outils de communication (Gmail, Google Talk), des logiciels de bureautique (Google Docs) ou le navigateur Chrome. "Le moteur permet de trouver les informations sur le Web. Le navigateur permet d'accéder à Internet et l'OS fait tourner le navigateur. C'est donc logique qu'après le moteur et le navigateur, Google sorte aujourd'hui son Os", analyse M. Geffroy.

Mais ces tentatives ne sont pas toutes des réussites. Certes, Gmail a réussi à percer et Androïd, l'OS pour téléphones portables, équipe déjà une vingtaine de terminaux. Mais Google peine à vendre l'audience de Youtube, son site de partage de vidéo. Enfin Google Docs est loin d'avoir détrôné la suiteOffice de Microsoft.

LM-20090709-[deroule]&ens_id=1213264]

Des candidats à un examen identifiés par les veines de la main
Vendredi, 24/07/2009 - 00:00

C'est une première en France, des candidats à un concours vont pouvoir être identifiés par le réseau veineux de leur main. La Commission nationale de l'informatique et des libertés (Cnil) a donné son autorisation, le 18 juin dernier, pour l'usage de cette technique de biométrie dans le cadre du GMAT, un test réputé et très convoité pour accéder aux concours des grandes écoles de commerce.

Le système d'authentification, qui sera placé dans tous les centres d'examen, est basé sur la technologie Fujitsu. A leur entrée dans la salle de test, les candidats (ils sont environ 2 000 tous les ans en France) devront donner une image de leur main en l'approchant d'un capteur infrarouge sans contact. Le faisceau lumineux enregistrera le réseau veineux et en créera un gabarit crypté et unique, correspondant à l'identité du candidat.

A chaque fois qu'il sortira et reviendra dans la salle, celui-ci présentera sa main ; le réseau veineux est « lu » par le système et comparé avec celui préalablement fourni. Les informations ainsi collectées ne servent que le temps du test. L'objectif est clair : lutter contre la fraude et la substitution d'identité entre candidats.

C'est le GMAC (Graduate Management Admission Council ), l'organisme américain qui gère ce test au niveau international, qui est venu voir la Cnil pour lui présenter son projet. « Ils voulaient utiliser les empreintes digitales c'est le cas depuis 2006 dans d'autres pays, NDLR]. Nous leur avons alors dit que ce serait impossible en France. Nous leur avons donc suggéré cette technique par les veines de la main », indique-t-on à la Commission.

La Cnil est en effet hostile aux dispositifs de reconnaissance biométrique par les empreintes digitales, jugés trop risqués au regard de la protection de données personnelles. Par nature, les individus laissent en effet leurs empreintes digitales partout, il est donc facile de les récupérer et de les réutiliser à l'insu de la personne, notamment pour usurper son identité ou croiser plusieurs fichiers.

La Cnil privilégie les dispositifs dits «sans trace», dont fait partie la biométrie par le réseau veineux ou le contour de la main. Elle a d'ailleurs déjà autorisé des systèmes d'authentification de ce type, mais jamais pour des examens. Cela dit, elle ne compte pas en faire une règle.

[OINet

^ Haut
Avenir
Nanotechnologies et Robotique
Demain les robots...
Vendredi, 24/07/2009 - 00:00

Peter Ford Dominey, ancien chercheur américain du « Jet Propulsion Laboratory » de la Nasa, est aujourd'hui directeur de recherche au CNRS et chef de projet à l'Inserm (Institut national de la santé et de la recherche médicale). Il guide, comme un père, les premiers gestes de son « fils robotique », iCub. 22 kilos, 1,05 mètre, ce robot humanoïde est l'aboutissement des recherches de la « neuro-robotique », une science où la recherche médicale sur le fonctionnement cérébral rejoint l'ingénierie mécanique via l'informatique.

iCub est né à l'Institut italien de technologie de Gênes en six exemplaires disséminés aujourd'hui dans autant de laboratoires européens. A l'issue d'un appel d'offres auquel ont répondu 30 laboratoires européens, l'Inserm de Bron (Rhône) a décroché un exemplaire du précieux prototype (300 000 euros pièce).

Chacun des six laboratoires a pour mission de développer, à partir de cette « plate-forme » de recherche, un aspect spécifique. Londres travaille sur le déplacement dans l'espace de travail, Paris sur la motricité et l'« affectif », Munich sur la préhension, Barcelone sur l'architecture cognitive et Ankara sur la communication et les interactions sociales. «A Bron, explique Peter Ford Dominey, nous lui enseignons la coopération avec l'être humain. » Le projet est financé par l'Europe (projets « Chris » et « Organic ») et la France (projets « ANR » et « Amorces et comprendre »).

Cet androïde est l'aboutissement technologique du projet « RobotCub » lancé - et financé - depuis septembre 2004 par l'Europe. «L'idée, poursuit le chercheur de l'Inserm, était de concevoir à terme un robot domestique capable d'apprendre et d'assister les humains dans les tâches de la vie quotidienne. Le projet consiste à "démocratiser" la robotique, qui était jusqu'ici réservée uniquement à l'industrie lourde. »

Peter Ford Dominey et son équipe de chercheurs, doctorants et élèves ingénieurs de l'Ecole centrale de Lyon, « éduquent »iCub comme on le ferait avec un enfant. Le petit robot apprend ici le langage grâce à un logiciel de reconnaissance et synthèse vocale, la gestuelle, la reconnaissance visuelle de son environnement et la capacité à interagir avec l'être humain.

«Dans un futur proche et dans le contexte d'une rééducation médicale, par exemple, iCub pourrait avoir le rôle d'un aide-soignant », commente Peter Ford Dominey. Il préfigure, selon ses créateurs, ce que sera le compagnon domestique de l'homme dans un futur proche. D'ici à vingt ans, l'androïde remplacera peu à peu la ménagère dans toutes les tâches fastidieuses de la maison. Avant cela, la machine fera ses premiers pas dans le milieu hospitalier où elle pourrait effectuer la distribution des médicaments ou des plateaux-repas. “Dans les foyers, il arrivera comme un apprenti, qui prendra les habitudes de la maison” souligne Peter Ford Dominey. Il l'imagine aussi veiller auprès d'une personne âgée, gérer la rééducation d'un convalescent, servir de compagnon à des enfants autistes pour qui le contact avec autrui est parfois compliqué. “Dans ce projet nous allons également donner au robot la motivation pour explorer par lui-même les choses, dans son temps libre”.

RC

^ Haut
Matière
Matière et Energie
Nouveau record mondial : le rendement des cellules photovoltaïques organiques atteint 5,9 %
Vendredi, 24/07/2009 - 00:00

Les cellules photovoltaïques organiques présentent un avantage énorme sur leurs grandes soeurs, les cellules solaires multi-jonctions semi-conductrices ou en silicium : elles sont particulièrement fines, légères et flexibles. Pour le moment, c'est un marché particulièrement lointain qui semble s'ouvrir à elles. En effet, le faible rendement atteint jusqu'à présent (5,4 % sur une surface d'1 cm2) et leur durée de fonctionnement réduite empêchaient jusqu'ici leur introduction généralisée sur le marché. Les cellules multi-jonctions semi-conductrices atteignent un rendement supérieur à 30 %, alors que les cellules solaires au silicium mises sur le marché atteignent actuellement un rendement de 15 % environ. Pourtant, les cellules solaires organiques n'entrent pas en directe concurrence avec les cellules solaires multi-jonctions semi-conductrices ou en silicium en raison des caractéristiques particulières de leurs matériaux.

En juillet 2008, le Ministère fédéral de l'enseignement et de la recherche (BMBF) a lancé le projet OPEG (Photovoltaïque organique pour un approvisionnement énergétique intégrable), soutenu par une subvention de plus de 16 millions d'euros, et déjà aujourd'hui sont publiés les premiers résultats très positifs. Les trois partenaires de l'alliance, Heliatek, BASF et l'Institut de photovoltaïque appliquée (IAPP) de l'Université technique de Dresde ont développé une cellule solaire tandem P-I-N avec un rendement homologué de 5,9 % sur une surface active de 2 cm2 : un nouveau record mondial. La nouvelle technologie permet à présent la production de cellules solaires organiques légères, flexibles, sur une grande surface, qui peuvent être produites à bon marché et avec des dépenses en énergie et matériels très réduites. Les épaisseurs de couches nécessaires sont de l'ordre de 200 nanomètres et pour un mètre carré de surface de cellule solaire, seul un gramme de matériau semi-conducteur est requis.

Le projet soutenu par le Gouvernement fédéral sera poursuivi jusqu'en juin 2011 et rassemble 11 partenaires de l'industrie et de la recherche. L'objectif du projet consiste à améliorer l'efficacité des cellules solaires organiques, notamment par la recherche de nouveaux matériaux, à augmenter leur durée de fonctionnement et avant tout à continuer à optimiser cette technique de production bon marché.

D'ici la fin du projet, les partenaires poursuivent l'objectif ambitieux d'augmenter le rendement des cellules à 9 -10 %. Le potentiel sur le marché des cellules solaires organiques est énorme : des applications mobiles comme par exemple l'approvisionnement énergétique d'appareils mobiles (ordinateurs portables, assistants électroniques) aux applications en extérieur (feuille photovoltaïque sur des tentes), en passant par le domaine de l'automobile, ou encore l'approvisionnement en électricité de radio ... A long terme, les cellules solaires organiques pourraient même faire leur entrée dans le domaine du bâtiment. Des feuilles solaires enroulables sur les marquises ou des feuilles photovoltaïques transparentes sur les carreaux des fenêtres seraient envisageables.

BE

Production d'hydrogène à partir de cellules vivantes
Vendredi, 24/07/2009 - 00:00

Avec une somme globale de 4,3 millions d'euros, le Ministère fédéral

Le projet s'étendra sur trois ans. Participent à ce projet des biochimistes et chimistes, biophysiciens et physiciens-chimistes, microbiologistes et techniciens de procédés provenant de Bochum, Berlin, Bielefeld, Cologne et Mülheim. La chaire du RUB, chargé de la coordination, recevra à elle seule 2,2 millions d'euros.

Les chercheurs exploitent la photosynthèse de cyanobactéries unicellulaires ("algues bleues"), qu'ils couplent directement avec l'enzyme hydrogénase, productrice d'hydrogène. Comme les cyanobactéries ne possèdent pas d'hydrogénase performante, les scientifiques "importent" l'enzyme à partir d'algues vertes - et optimisent ainsi le procédé, de sorte qu'il demeure également fonctionnel avec de l'oxygène. Par liaison directe avec le processus d'hydrolyse photobiologique, devraient ainsi être atteints des taux de production d'hydrogène d'un facteur au moins 100 fois supérieur au taux maximal atteint jusqu'à présent avec des organismes photosynthétiques.

La condition préalable à ce procédé consiste à modifier le métabolisme énergétique de la cellule en plusieurs étapes, de sorte que les cellules d'algues bleues transforment plus de 75 % de l'énergie disponible pour produire de l'hydrogène à la place de la biomasse. La cellule de cyanobactérie est reconvertie en pratique en catalyseur vivant, qui se multiplie en continu par division et n'a aucune existence propre en dehors de l'eau, des sels nutritifs et de l'énergie solaire.

Les analyses de coûts menées par le Professeur Dr. Hermann-Josef Wagner (chaire des systèmes énergétiques et de l'économie énergétique, faculté de construction mécanique de la RUB) démontrent que l'hydrogène produit par ces "cellules-design" d'avenir peut être compétitif,

[Enerzine">allemand] de l'enseignement et de la recherche (BMBF) soutient le projet de production de "biohydrogène" réalisé à échelle nationale : sous la direction du Professeur Dr. Matthias Rögner (biochimie des plantes, faculté de biologie et biotechnologies de l'Université technique de la Ruhr à Bochum (RUB) ), huit groupes de travail internationaux à compétences interdisciplinaires se penchent sur le développement d'une "cellule-design" biologique, susceptible de produire de l'hydrogène à partir d'eau à l'aide de l'énergie solaire.

Le projet s'étendra sur trois ans. Participent à ce projet des biochimistes et chimistes, biophysiciens et physiciens-chimistes, microbiologistes et techniciens de procédés provenant de Bochum, Berlin, Bielefeld, Cologne et Mülheim. La chaire du RUB, chargé de la coordination, recevra à elle seule 2,2 millions d'euros.

Les chercheurs exploitent la photosynthèse de cyanobactéries unicellulaires ("algues bleues"), qu'ils couplent directement avec l'enzyme hydrogénase, productrice d'hydrogène. Comme les cyanobactéries ne possèdent pas d'hydrogénase performante, les scientifiques "importent" l'enzyme à partir d'algues vertes - et optimisent ainsi le procédé, de sorte qu'il demeure également fonctionnel avec de l'oxygène. Par liaison directe avec le processus d'hydrolyse photobiologique, devraient ainsi être atteints des taux de production d'hydrogène d'un facteur au moins 100 fois supérieur au taux maximal atteint jusqu'à présent avec des organismes photosynthétiques.

La condition préalable à ce procédé consiste à modifier le métabolisme énergétique de la cellule en plusieurs étapes, de sorte que les cellules d'algues bleues transforment plus de 75 % de l'énergie disponible pour produire de l'hydrogène à la place de la biomasse. La cellule de cyanobactérie est reconvertie en pratique en catalyseur vivant, qui se multiplie en continu par division et n'a aucune existence propre en dehors de l'eau, des sels nutritifs et de l'énergie solaire.

Les analyses de coûts menées par le Professeur Dr. Hermann-Josef Wagner (chaire des systèmes énergétiques et de l'économie énergétique, faculté de construction mécanique de la RUB) démontrent que l'hydrogène produit par ces "cellules-design" d'avenir peut être compétitif,

[Enerzine

^ Haut
Espace
Espace et Cosmologie
Simulation réussie pour le premier voyage virtuel vers Mars
Vendredi, 24/07/2009 - 00:00

Une fois quittée cette vallée de larmes, certains donnent leur corps à la science. D'autres n'attendent pas pour lui donner de leur temps. Beaucoup de leur temps. Ainsi ces six hommes - quatre Russes, un Français et un Allemand - pilote, cosmonaute, ingénieur ou médecin, sortis, mardi 14 juillet, de la maquette grandeur nature d'un vaisseau dimensionné pour faire le voyage vers la Planète rouge. Ils y étaient entrés le 31 mars, il y a cent cinq jours, et ont passé trois mois et demi dans des conditions de confinement à peu près total. Semblables à celles qui seront éprouvées par les astronautes qui, peut-être, voleront un jour vers Mars dans vingt, vingt-cinq ou trente ans.

Fruit d'une collaboration entre l'Agence spatiale européenne (ESA), son homologue russe (RosCosmos) et l'Institut des problèmes biomédicaux de Moscou (IBMP) - dans les bâtiments duquel est installé le module expérimental -, le programme Mars 500 doit permettre de mesurer les effets biologiques d'un isolement prolongé accompagné de privations sensorielles.

Les impacts sur le système immunitaire ou le métabolisme sont au centre de nombreuses questions. Il s'agit aussi d'en observer les effets psychologiques sur les individus et sur le groupe qu'ils forment. Etudier les situations qui suscitent les tensions, celles qui permettent au contraire l'harmonie et le partage des tâches, déterminer les configurations ou les profils psychologiques adéquats ou inadéquats. L'intérieur de la capsule est ainsi bardé de caméras de surveillance dont les enregistrements seront, dans les prochaines semaines, minutieusement décryptés.

Les conditions de vie peuvent mettre les humeurs à rude épreuve. Pas de jour, pas de nuit. Une vie réglée comme du papier à musique, régie par les tâches de contrôle médical, les expériences menées à bord et la maintenance des systèmes du module. En cas de problème grave ou de question, chaque message envoyé au centre de contrôle met vingt minutes à arriver, et la réponse met à son tour vingt minutes à être reçue. Les communications sont si longues que "nous avons pris de plus en plus de décisions de manière autonome", explique le cosmonaute Serguei Rianzanski, qui commandait la mission. De temps à autre, dans la serre sous éclairage artificiel, on cultive des légumes qui viendront améliorer le quotidien... Et à intervalles réguliers, quelques nouvelles de la Terre et des messages des proches.

Enfermés à six dans 180 m2, on pourrait penser que c'est la promiscuité qui a le plus pesé. Il semble n'en avoir rien été. "Nous avons eu un très bon relationnel, nous aurions pu tenir plus longtemps", assure Cyrille Fournier, 40 ans, pilote à Air France dans le civil. "Le plus difficile ça a été les problèmes de sommeil, perturbé par l'absence d'alternance jour/nuit et le fait qu'on est séparé de ses proches", a-t-il ajouté. Quant à Sergueï Riazanski, c'est de "la routine et de la monotonie des tâches à accomplir" qu'il dit avoir le plus souffert ; ainsi que du sentiment de n'avoir jamais "une minute pour soi" ou presque.

Les responsables du programme à l'IBMP ont invité les membres de l'équipage à revenir début 2010 pour, cette fois, demeurer cinq cent vingt jours confinés. "Ce sera cette fois la simulation d'un véritable aller-retour sur Mars en tenant compte de la mission d'un mois sur place", explique M. Fournier, qui a décliné l'invitation.

LM-20090715-[deroule]&ens_id=1218818]

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
La Grande-Bretagne dévoile son plan ambitieux carbone
Vendredi, 24/07/2009 - 00:00

Le secrétaire à l'Énergie Ed Miliband a dévoilé le 15 juillet 2009 plan énergétique de lutte contre le réchauffement climatique de la Grande-Bretagne. Avec un budget de 100 milliards de livres sterling, le gouvernement prévoit de doubler la production d'électricité issue des énergies renouvelables à l'horizon 2020. Le secrétaire du Changement Climatique et de l'Énergie Ed Miliband a annoncé le plan énergétique grâce auquel la Grande-Bretagne compte respecter son objectif de réduction de 34 % de ses émissions de CO2 par rapport à 1990 (d'ici 2020) puis de 80 % à l'horizon 2050.

Pour atteindre ces objectifs, Ed Miliband a annoncé que 40 % de l'électricité produite en Grande-Bretagne serait issue des sources renouvelables, du nucléaire et du charbon propre en 2020. 15 % de cette électricité sera produite au moyen des énergies renouvelables. Quelque 7000 éoliennes vont être construites en mer comme sur terre dans les dix prochaines années avec un budget de 120 millions de livres pour le développement de l'éolien offshore et de 60 millions de livres pour les énergies marines. Le charbon deviendra propre grâce à un système de captage et de stockage de CO2 dont toutes les nouvelles centrales devront être équipées en 2020.

Si le plan ambitieux de la Grande-Bretagne devrait permettre la création de 1,2 million d'emplois, la facture énergétique des ménages augmentera sensiblement en raison de l'impressionnant budget nécessaire à la mise en place du plan qui s'élève à près de 100 milliards de livres sterling. Si une hausse de 8 % est prévue, le secrétaire chargé de l'Énergie a assuré que les ménages les plus modestes seraient protégés.

Le gouvernement compte toutefois mettre la population à contribution au moyen de subventions permettant aux particuliers de s'équiper de panneaux solaires. En 2020, 1,5 million de foyers devraient ainsi produire leur propre énergie. "Notre plan renforcera notre sécurité énergétique, il cherche à être juste pour les plus vulnérables, il saisit les opportunités industrielles et il s'élève au défi moral du changement climatique" insiste Ed Miliband. Un plan qui fait la part belle à l'éolien, avec la construction de 7 000 éoliennes sur terre et dans la mer dans les dix ans, et qui devrait créer plusieurs centaines de milliers d'emplois.

La part de l'énergie britannique issue de sources renouvelables devrait passer de 2 à 15 % dans les douze prochaines années. Pour encourager les foyers et les entreprises, un chèque sera reversé à ceux qui produisent leur propre énergie grâce à des panneaux solaires. Jamais un plan de réduction des émissions de carbone n'avait été aussi ambitieux en Grande-Bretagne et le secrétaire à l'Énergie a reçu un drôle de compliment de la part des conservateurs, à travers la voix du porte-parole du parti pour le dossier de l'énergie, Greg Clark : «Je me sens fier que Miliband recycle nos idées.»

Seulement, ce plan a un coût : 100 milliards de livres d'ici à 2020 pour construire les infrastructures. La facture du contribuable va bondir de 25 % pour le gaz et 17 % pour l'électricité. Une réforme devra au passage être mise en place pour ne pas contrecarrer un autre objectif du gouvernement : à savoir mettre un terme à la «Fuel Poverty». En effet, 5 millions de foyers les plus démunis doivent dépenser plus de 10 % de leurs revenus pour se chauffer ou s'éclairer et ne peuvent donc pas assumer une hausse de leur déjà très écrasante facture. La hausse pour le reste de la population sera donc plus élevée, pouvant dépasser les 200 livres (230 euros) par an.

«Les factures d'énergie vont devoir augmenter, que le gouvernement dépense ou non des millions dans l'énergie verte», se défend Ed Miliband à la BBC. «Soit on ne change rien, et on reste exposé aux variations des prix du pétrole, soit on développe un plan pour émettre moins de carbone, ce qui implique des coûts de transition.»

UK Gov

La sévérité des ères glaciaires serait déterminée par l'océan
Vendredi, 24/07/2009 - 00:00

Pour le craindre depuis qu'ils croisent dans les quarantièmes rugissants, les navigateurs connaissent bien le courant des Aiguilles. Ce courant marin chaud passe au large des côtes orientales de l'Afrique du Sud. Contrarié par de forts vents d'ouest, il peut être à l'origine de hautes et puissantes vagues. Il inquiète les marins autant qu'il intéresse les climatologues : deux d'entre eux proposent même, jeudi 16 juillet dans la revue Nature, d'en faire la clé d'une persistante énigme climatique.

"Si l'on regarde toutes les périodes glaciaires qui se sont succédées depuis 800.000 ans, documentées grâce aux carottes de glace prélevées en Antarctique, on se rend compte que certaines ont été beaucoup plus intenses que toutes les autres ", explique Edouard Bard France, Cerege), auteur de ces travaux. Or, à lui seul, le dioxyde de carbone (CO2) atmosphérique, qui varie très peu d'un âge glaciaire à l'autre, n'explique pas cette différence. Celle-ci a pourtant dû être très sévère. En particulier, deux périodes glaciaires exceptionnellement froides intriguent les scientifiques : le niveau de la mer était alors "environ 30 mètres plus bas qu'au cours des épisodes glaciaires typiques", dit M. Bard. Soit autant d'eau stockée sous forme de glace...

Si le CO2 est hors de cause, comment expliquer la rigueur de ces deux épisodes ? Et, surtout, quel rapport avec le courant des Aiguilles ? Les chercheurs ont étudié une carotte sédimentaire prélevée au large des côtes sud-africaines : sa composition suggère que la "fuite" des Aiguilles s'est complètement tarie au cours de ces deux ères glaciaires très intenses. Or le courant sud-africain est un tronçon crucial de la circulation océanique globale : qu'il soit coupé et c'est tout le "tapis roulant" qui s'en trouve au moins largement ralenti, sinon totalement interrompu.

Les énigmatiques "coups de froids", d'il y a environ 400 000 ans, pourraient donc devoir leur sévérité à un arrêt de la circulation profonde de l'océan, qui a affaibli le transfert de chaleur depuis les tropiques jusqu'aux hautes latitudes, autour de l'Atlantique nord.

Quelle répercussion pour le présent et l'avenir ? "Les modèles prévoient que la circulation océanique dans l'Atlantique nord va ralentir en raison du réchauffement futur et de ses conséquences comme l'augmentation de l'apport d'eau douce vers l'océan : pluies, fonte des glaciers continentaux et du Groenland, etc., dit M. Bard. Mais on se rend compte que la circulation dans l'Atlantique nord est également déterminée par la "fuite" des Aiguilles, de l'océan Indien vers l'Atlantique."

De récents travaux, menés par l'Université du Cap) montrent que le débit de la "fuite" des Aiguilles a "significativement augmenté" depuis les années 1980. En sens opposé, il s'agit du même phénomène qui s'est produit à plusieurs reprises au Pléistocène... Ces derniers travaux suggèrent qu'une rétroaction de l'océan pourrait compenser les effets du réchauffement qui, eux, tendent à affaiblir la circulation profonde dans l'Atlantique nord.

LM

Le second « Plan national santé-environnement » est lancé
Vendredi, 24/07/2009 - 00:00

Conformément aux engagements du Grenelle Environnement, le deuxième Plan National Santé Environnement (PNSE2) qui couvrira la période 2009-2013 s'appuie sur les propositions d'un groupe de travail qui associe des représentants de l'Etat, des collectivités territoriales, des associations, des organisations syndicales, et des entreprises.

Le plan s'articule autour de deux axes principaux :

- La réduction des expositions responsables de pathologies à fort impact sur la santé ;

- La réduction des inégalités environnementales.

Il se décline en 63 mesures concrètes dotées, pour chacune d'entre elles, d'un pilote identifié, de partenaires associés, et d'indicateurs de suivi.

Les mesures envisagées visent notamment :

- La réduction des émissions de particules dans l'air ;

- La réduction de 30 % des rejets dans l'air et dans l'eau de 6 substances jugées hautement toxiques ;

- L'amélioration de la qualité de l'air intérieur des bâtiments ;

- La réduction des expositions aux substances cancérigènes, mutagènes ou reprotoxiques (CMR) en milieu de travail.

Afin de mettre en oeuvre efficacement ces mesures, le gouvernement consacrera 380 millions d'euros au PNSE 2 sur 5 ans, auxquels s'ajoutent 110 millions consacrés à la recherche.

Le premier Plan National Santé Environnement (PNSE) a vu le jour en 2004. Élaboré par quatre ministères (santé, environnement, travail, recherche), il a porté sur la période 2004-2008 et rassemble des actions visant à réduire les atteintes à la santé des Français liées à la dégradation de l'environnement (air, eau, produits chimiques). Trois objectifs principaux avait été définis : respirer un air et boire une eau de bonne qualité, prévenir les pathologies d'origine environnementale et notamment les cancers, mieux informer le public et protéger les populations sensibles. Au total 45 actions étaient programmées.

Des résultats concrets ont été obtenus, parmi lesquels :

- Une réduction des émissions atmosphériques industrielles en cadmium, plomb, benzène, dioxine et chlorure de vinyle monomère comprise entre 50 et 85 % entre 2000 et 2008 ;

- Des procédures de protection engagées ou réalisées sur près de 75 % des captages d'eau potable ;

- Le lancement de premières enquêtes sur la qualité de l'air dans les logements par l'observatoire de la qualité de l'air intérieur ;

- La création de l'Observatoire des résidus de pesticides le 28 juin 2006 et du Plan interministériel de réduction des pesticides ainsi que l'élaboration du plan Ecophyto 2018 par le ministère de l'agriculture et de la pêche

- Le financement, entre 2005 et 2007 de 114 projets de recherche en santé environnement, pour un montant global d'environ 25,4 M ? par l'Agence nationale de la recherche (ANR).

Ecologie.Gouv

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Alzheimer : un peu de vin pour réduire les risques
Vendredi, 24/07/2009 - 00:00

Une étude américaine réalisée par l'Université Wake Forest de Caroline du nord (Etats-Unis), présentée à Vienne en Autriche, semble montrer qu'une consommation réduite de vin diminue les risques de développer la maladie d'Alzheimer chez les sujets de 75 ans et plus.

Les scientifiques ont étudié la consommation de vin et la maladie d'Alzheimer. Les chercheurs de l'Université américaine Wake Forest ont étudié 3.069 personnes âgées de 75 ans et plus sur une période de six ans. Pendant cette période, relativement longue, les aînés ont été priés de noter précisément leur consommation d'alcool. En fonction de leurs réponses, et donc en fonction du niveau de leur consommation, ils ont ensuite été divisés en quatre groupes : ceux qui ne buvaient pas du tout, ceux qui consommaient entre un et sept verres par semaine, ceux qui consommaient de huit à quatorze verres et enfin, ceux qui buvaient plus de quatorze verres...

Résultat : les seniors qui consomment un ou deux verres d'alcool par jour (notamment du vin) diminuent de 37 % le risque de développer la maladie d'Alzheimer. Attention cependant ! Chez les personnes sujettes à de légers troubles de la mémoire et qui consomment plus de quatorze verres par semaine, le risque de développer Alzheimer est jusqu'à deux fois plus élevé que chez les individus qui ne boivent pas.

Wfubmc

Une avancée majeure dans la compréhension des mécanismes de régénération
Vendredi, 24/07/2009 - 00:00

Des scientifiques de Dresde ont ouvert de nouvelles perspectives en médecine régénérative grâce à leurs travaux sur la régénération de membres chez la salamandre axolotl. Cette régénération s'effectuerait non pas à partir de cellules pluripotentes, mais à partir de cellules dotées d'une capacité de différenciation limitée. Les résultats de l'équipe du Prof. Tanaka du Centre de recherche sur les thérapies régénératives de Dresde ont fait l'objet d'une publication dans la revue Nature de juillet 2009.

L'axolotl du Mexique a la capacité de pouvoir régénérer ses membres, organes et certaines parties de son cerveau. Jusqu'à présent les scientifiques pensaient que lors de la régénération, les tissus des membres se "dédifférenciaient" en cellules pluripotentes qui donnaient alors naissance à toutes les cellules requises. L'équipe du Prof. Tanaka, en collaboration avec l'Institut Max Planck de biologie cellulaire moléculaire et de génétique de Dresde et l'Institut d'anatomie de la faculté de médecine de l'Université technique de Dresde, a découvert que chaque tissu produit des cellules précurseurs avec un potentiel limité.

Lors des expériences de régénération, les cellules de peau ont engendré du cartilage et des tendons, mais pas de muscles ou de cellules de Schwann. Les cellules de cartilage n'ont pas engendré de muscles mais souvent de nouveau du cartilage ; de même, les cellules musculaires n'ont formé ni du cartilage ni de l'épiderme, mais presque exclusivement du muscle. En conclusion, la plupart des cellules sont limitées à la régénération de leur propre tissu, mise à part les cellules de la peau qui étaient les plus flexibles de toutes.

Un autre aspect essentiel de la régénération tissulaire est la position des cellules dans les tissus formés. Les chercheurs ont analysé les propriétés moléculaires et cellulaires de cellules du blastème provenant de différents tissus. Tandis que les cellules issues du cartilage garderaient ces "propriétés de position", les cellules de Schwann les perdraient. Ces résultats sont particulièrement importants pour la médecine régénérative car ils montrent que les cellules à l'origine de nouveaux membres ne doivent pas passer par un stade pluripotent dédifférencié, mais suivent une sorte de reprogrammation cellulaire direct.

BE

Un vaccin contre l'infection à cytomégalovirus
Vendredi, 24/07/2009 - 00:00

Un premier pas vient d'être franchi vers la prévention des infections à CMV, responsables de handicaps multiples chez le nouveau-né. Dans cette étude de phase 2, un nouveau vaccin recombinant contenant la glycoprotéine B de l'enveloppe virale et un adjuvant (MF59) a été évalué versus placebo. Trois doses ont été données à 0, 1 et 6 mois chez 464 femmes séronégatives dans l'année suivant une grossesse menée à terme.

La recherche d'une infection à CMV a été effectuée durant 42 mois (anticorps IgG contre les protéines du CMV) ; une infection a été confirmée par culture ou immunoblot. Après un suivi minimal de 1 an, 46 infections ont été confirmées, 18 dans le groupe vaccinal et 31 dans le groupe placebo, soit une efficacité vaccinale de 50 %.

JIM

^ Haut
Recherche
Recherche & Innovation, Technologies, Transports
Piles à combustion : percée dans le domaine des voitures à hydrogène
Vendredi, 24/07/2009 - 00:00

Une nouvelle génération de pile à combustible à hydrogène, développée par Horizon Fuel Cell Technologies a permis le développement de la première voiture à hydrogène économique et « réaliste » du monde.

Ce projet qualifié de « top secret », dévoilé récemment à Londres, est une voiture pour deux passagers « zéro émission » de carbone mue par une pile à combustible à hydrogène et des moteurs électriques. Sa consommation d'énergie équivaut à 0.94 lt/100 km ou 106 kilomètres par litre d'essence, soit six fois moins que la plus économe des voitures hybrides sur le marché actuellement.

Cette voiture sera Développée par Riversimple et disponible en leasing pour 315 $ par mois. Citadine, elle comprend une pile à combustible à hydrogène d'une puissance de 6KWh.

Cette voiture optimise l'efficience énergétique en utilisant des matériaux composites, en éliminant des pièces mécaniques lourdes, et en combinant la pile à combustible avec des ultra-capacités et 60 % de récupération de l'énergie de freinage. Le résultat est impressionnant : 390 Km d'autonomie sont parcourus avec un petit réservoir d'hydrogène contenant 1 Kg de H2.

Hugo Spowers, fondateur de Riversimple déclare : « le savoir-faire de Horizon dans la commercialisation des piles à combustible complémente parfaitement notre approche de la mise sur le marché d'une voiture à hydrogène. Grâce à ce partenariat, nous estimons être plus proches que quiconque de la mise sur le marché, du succès commercial d'une voiture à hydrogène dans le monde. Le concept unique de l'ensemble pile à combustible, ultra-capacités, moteurs, a permis de réduire la puissance nécessaire de 6 fois, par rapport à d'autres voitures de même performance. Une démonstration de la compétence de Horizon dans la production de piles à combustibles puissantes et à bas prix ».

« Beaucoup de personnes ont perdu de vue le fait que les voitures mues par des piles à combustible sont des voitures électriques ! En réalité, une pile à combustible permet de stocker et de produire de l'électricité comme les batteries conventionnelles; cependant, avec l'avantage de permettre une bien plus grande réserve d'énergie par rapport au poids. Par contre, les piles conventionnelles et les ultra-capacités offrent plus de puissance par unité de poids, mais bien moins de réserve d'énergie. » a déclaré Taras Wonkewycz, l'un des fondateurs de Horizon Fuel Cell Technologies.

Les technologies ont progressé, mais le plus significatif est que Riversimple les a intégrées dans un système, ce qui a permis de réaliser des synergies. Cette nouvelle génération de voitures électriques à hydrogène transpose les véhicules électriques dans une nouvelle étape de développement où l'autonomie, le temps de recharge et le coût ne représentent plus un obstacle au succès commercial.

Une pile à combustible transforme l'énergie chimique contenue dans l'hydrogène en énergie électrique utilisable, sans combustion, avec un peu d'eau pure comme seul résidu. Contrairement aux batteries ou aux piles usuelles, les piles à combustible différencient les fonctions de stockage d'énergie et de production d'énergie.

Lorsqu'elles sont utilisées comme source primaire d'énergie, comme dans la plupart des véhicules à pile à combustible actuels, celles-ci peuvent devenir prohibitives en coût car la puissance installée impacte leur prix. Cependant, en changeant la configuration du système et en combinant la haute densité énergétique des piles à combustible avec la haute concentration en puissance des ultra-capacités, il a été possible d'améliorer considérablement la performance des véhicules électriques tout en abaissant leur coût.

Les ultra-capacités sont également rechargées par l'énergie récupérée lors des freinages, ce qui donne un supplément de puissance pour les accélérations. Par la différenciation des besoins en puissance en phase d'accélération ou en mode de croisière, il est possible de rouler au moyen de piles à combustible de plus faible puissance, donc de manière plus économique.

Grâce à cette pile à combustible qui consomme moins d'hydrogène, le véhicule ne nécessite pas un grand réservoir. Ceci simplifie grandement la complexité et le prix de l'approvisionnement en hydrogène. Ces percées technologiques et conceptuelles rendent possible dès aujourd'hui ce que certains envisageaient dans un avenir de 20 à 30 ans.

Romandie

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top