RTFlash

RTFLASH Recherche & Technologie
NUMERO 416
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 01 Février 2007
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
Microsoft lance Vista et tourne une page de son histoire
Comment fonctionne une maison domotique
Avenir
Des robots-infirmiers en 2010 !
Des robots «canaris» devraient bientôt épauler les pompiers
Matière
Produire de l'hydrogène à partir de sucres
Sotavento produira de l'hydrogène à l'aide d'énergie éolienne
Portugal : nouvelle étape dans la construction de la centrale solaire de Moura
Espace
Les molécules de la vie dans les poussières de la comète Wild-2
Terre
Le réchauffement va causer famines et inondations
Vivant
Des "yeux bioniques" pourraient aider à combattre la cécité
L'énigme de la réplication de l'ADN élucidée
Cancer du côlon : le scanner, nouvelle technique de dépistage ?
Les poumons des enfants affectés durablement par le trafic routier
Une zone du cerveau serait liée au tabagisme
Recherche
Ford invente la voiture électrique hybride
Edito
Le passage à l'économie de l'hydrogène : un défi technologique mais surtout politique



«D'ici à deux générations, l'une des principales solutions aux problèmes énergétiques sera l'hydrogène, affirme Klaus Yvon, professeur au Laboratoire de cristallographie de l'Université de Genève mais cette révolution énergétique prendra une cinquantaine d'années.» Ce scientifique suisse travaille sur de nouveaux alliages métalliques capables d'absorber et de stocker de grandes quantités d'hydrogène dans des conditions de température et de pression ambiantes.

Mais l'hydrogène ne doit pas seulement pouvoir être stocké facilement, il doit également être produit de manière propre. Les chercheurs suisses ont donc imaginé une maison solaire énergétiquement autarcique à Carouge, sur le site du Centre universitaire d'étude des problèmes de l'énergie (Cuepe). Des panneaux solaires installés sur le toit du bâtiment généreront de l'électricité à partir de laquelle sera produit de l'hydrogène qui sera stocké dans les alliages de Klaus Yvon. Ceux-ci fonctionnent comme des «éponges» et permettront de fournir de l'énergie sous forme d'électricité et de chaleur au bâtiment durant toute l'année. Avantage de ce binôme énergétique : son rendement global est largement supérieur à celui de la photosynthèse, c'est-à-dire à la transformation de l'énergie solaire en biomasse telle que le bois.

Pour l'instant, l'utilisation de l'hydrogène à grande échelle pose encore de redoutables défis au niveau de la production, du stockage et de la distribution. Tout en étant un des éléments les plus abondants de la planète - il suffit de rappeler qu'il est présent dans l'eau -, il n'est pas disponible à l'état pur dans la nature. Le défi consiste donc à l'extraire. Aujourd'hui, 99 % de la production mondiale se fait à partir de gaz naturel, le méthane, par un processus qui nécessite des quantités d'énergie considérables et libère du gaz carbonique (CO2). Seule une très faible quantité est produite par électrolyse, un procédé qui consiste à scinder l'eau (H20) en hydrogène et en oxygène, en utilisant du courant électrique.

Si l'hydrogène devait représenter une proportion notable des besoins énergétiques mondiaux, par exemple 20 % en 2050, les capacités de production devraient être multipliées par un facteur de l'ordre de 25. Aujourd'hui en effet, il est surtout utilisé comme matière de base par l'industrie chimique et pétrochimique. Sa production représente 1,5 % seulement de la production mondiale d'énergie primaire.

Pour être économiquement et écologiquement rentable, l'électricité utilisée doit être bon marché et sans émission de CO2, c'est-à-dire produite à partir de barrages hydrauliques, d'éoliennes, de centrales solaires ou de centrales nucléaires. En effet, si elle provient de centrales thermiques fonctionnant avec des combustibles fossiles, la production d'hydrogène redevient source de gaz à effet de serre.

De son côté, Le professeur Jan Augustynski, de l'Université de Genève, cherche à extraire de l'hydrogène de l'eau en utilisant uniquement l'énergie solaire. L'utilisation des électrodes sensibles à la lumière permet de scinder l'eau en hydrogène et oxygène en utilisant moins d'énergie électrique que lors d'une électrolyse classique. Ce complément d'énergie est fourni par une cellule solaire faisant également partie du dispositif. Reste encore à améliorer le rendement d'un tel système pour le rendre compétitif.

«Le gaz naturel, bien qu'écologiquement plus avantageux que le pétrole ou le charbon, n'est pas renouvelable et sera épuisé à plus ou moins long terme», souligne Klaus Yvon. "Il faut donc trouver d'autres méthodes pour produire de l'hydrogène."

Autre défi à relever, un moyen de stockage dense et sûr. Dans ce domaine, de nombreuses méthodes sont actuellement en concurrence. L'hydrogène peut être stocké sous forme liquide. Pour le liquéfier, il doit alors être refroidi à -250 degrés Celsius, ce qui nécessite une dépense d'énergie très importante. Bien qu'ayant une bonne capacité volumique, le stockage liquide, qui a fait ses preuves dans les domaines spatial et de l'aéronautique, comporte des risques pour un usage intensif par un large public.

Autre méthode : le stockage dans des bouteilles pressurisées. Ce procédé consomme également de l'énergie pour comprimer l'hydrogène, mais la technologie est aujourd'hui bien maîtrisée. Le remplissage d'un tel réservoir est très rapide et il existe déjà des réseaux de distribution du gaz sous pression en Europe. Toutefois, cette méthode reste insatisfaisante car, même comprimé à 700 bars, 1 litre d'hydrogène n'équivaut du point de vue énergétique qu'à 0,2 litre d'essence. Il y a également un risque de fuites, et donc de sécurité, lié à la volatilité de l'hydrogène, surtout à très haute pression.

Enfin, il est possible de stocker l'hydrogène sous forme solide, dans des matériaux métalliques qui jouent le rôle d'éponges. Celles-ci absorbent ce vecteur d'énergie à une pression donnée et le restituent à une pression légèrement inférieure. Leur pouvoir de stockage dans un volume donné dépasse de deux fois celui de l'hydrogène liquide. Un réservoir rempli de ces éponges prend donc très peu de place, est extrêmement sûr et ne consomme pratiquement pas d'énergie lors des cycles de charge et de décharge. Il a cependant un inconvénient : son poids et son prix élevé. "Pour ma tondeuse à gazon à hydrogène, l'alliage pèse à lui seul 7 kilos. Pour une voiture, il faudrait un réservoir de 250 kilos !" souligne Klaus Yvon.

En matière de production, l'avenir à moyen et à long terme appartient très probablement à la production solaire ou biologique d'hydrogène. En décomposant des matières organiques - ordures domestiques, végétaux ou bois -, la biomasse produit naturellement de l'hydrogène mêlé à du monoxyde de carbone. Aidée par la photosynthèse de bactéries ou d'algues, la photolyse de l'eau est la dernière voie prometteuse.

En Espagne, à Sotavento, une expérimentation de production de l'hydrogène va débuter en 2007 et vise à obtenir de l'hydrogène à partir de l'eau en utilisant l'énergie éolienne. Cette expérimentation doit valider la possibilité d'emmagasiner l'énergie éolienne en la convertissant en hydrogène stocké dans des réservoirs. Pour obtenir l'hydrogène, l'énergie générée par les aérogénérateurs sera conduite jusqu'à un électrolyseur. Cet appareil décompose l'eau à l'aide d'un courant électrique en dihydrogène et en oxygène. L'oxygène sera relâché dans l'atmosphère et l'hydrogène sera conservé et utilisé pour obtenir de l'électricité réinjectée ensuite dans les turbines éoliennes. Si les tests sont concluants, les parcs éoliens pourraient alors absorber les surplus d'énergie en cas de forte production et produire de l'électricité malgré l'absence de vent.

On pourrait aussi gérer plus précisément la production éolienne, afin de l'adapter à la demande du réseau. Autre voie prometteuse : la production d'hydrogène par certaines bactéries. C'est ainsi que des chercheurs néerlandais ont découvert la bactérie Thermotoga neapolitana, qui, associée à des composés biochimiques, est capable de se protéger contre la toxicité de l'oxygène tout en produisant de l'hydrogène à partir de sucres.

Mais, à plus long terme, c'est peut être d'une algue que viendra le salut. Partout dans le monde, des dizaines d'équipes de recherche travaillent sur «Chlamy», le diminutif pour Chlamydomonas reinhardtii, une algue verte unicellulaire très commune dont le code génétique est entièrement connu. En effet, pendant la photosynthèse, certaines espèces peuvent produire de l'hydrogène sous l'action des hydrogénasses. Des travaux récents ont montré qu'une culture de 850 ml de micro-algue peut produire jusqu'à 3 ml d'hydrogène par heure.

En outre, cette production est totalement propre puisque l'algue pousse grâce à l'énergie solaire uniquement. En suisse, Unitec, le bureau de transferts de technologies de l'Université de Genève, a déposé un brevet sur cette technologie et la société américaine Phytotransgenics a déjà pris une licence pour exploiter commercialement ce brevet. Mais de là à imaginer des fermes d'algues qui fourniraient de l'hydrogène en masse, il y a un grand pas et la plupart des chercheurs restent prudents car il faudra multiplier par trente le rendement actuel (autour de 0,3 %) pour que le procédé soit véritablement rentable.

Mais la grande erreur que pourrait commettre notre pays serait de s'enfermer dans une vision purement technologique de la question complexe du passage à l'hydrogène. La Commission a publié, le 9 janvier, une étude prospective intitulée WETO-H2). Cette étude, effectuée par des scientifiques en France, en Belgique, aux Pays-Bas, au Royaume-Uni et en Pologne, ainsi que par le Centre commun de recherche de la Commission, élabore une projection de référence du système énergétique mondial à l'horizon 2050 ainsi que deux scénarios additionnels, à savoir un scénario sous contrainte carbone et un scénario projetant le développement de l'hydrogène.

Dans le scénario de référence, la consommation mondiale d'énergie double d'ici 2050. Les approvisionnements en pétrole et en gaz atteignent un plateau, c'est-à-dire qu'il n'y a pas de pic en ce qui concerne le pétrole, ni une offre abondante de pétrole et de gaz bon marché.

Les pays en développement représentent les deux-tiers de la consommation mondiale d'énergie et on assiste à un retour du charbon comme source d'énergie importante pour la production d'électricité. Dans ce scénario de référence, les niveaux mondiaux d'émissions de CO2 seront supérieurs à ceux jugés supportables en Europe, c'est-à-dire que les températures à la surface du globe augmenteront en moyenne de plus de 2°C par rapport aux niveaux de l'époque préindustrielle, bien qu'en Europe les niveaux d'émissions seront de 10 % inférieurs aux niveaux actuels et que 70 % de l'électricité sera produite à partir de sources autres que le charbon (sources d'énergie renouvelables, nucléaire et piégeage et stockage du dioxyde de carbone).

Le scénario prévoyant une restriction des émissions de carbone envisage des politiques beaucoup plus ambitieuses en la matière, tout d'abord dans les pays industrialisés, puis dans les pays en développement. Il s'appuie également sur une adoption accélérée des sources d'énergie renouvelables et du nucléaire et sur des progrès des technologies énergétiques.

Le scénario s'appuyant sur le développement de l'hydrogène part de l'hypothèse que de nouvelles avancées permettront d'augmenter la rentabilité des technologies utilisant l'hydrogène et de décupler la production d'hydrogène (dont 90 % à partir de sources autres que le charbon) entre 2030 et 2050. Dans ce scénario, l'hydrogène fournit environ un tiers de l'énergie consommée dans le secteur des transports.

On le voit, la généralisation de l'hydrogène comme principal vecteur énergétique ne représente pas seulement un défi techno-industriel majeur mais aussi, et je serais tenté de dire surtout, un défi politique et social car la place qu'occupera l'hydrogène, d'ici 25 à 30 ans, dans notre paysage énergétique dépend au moins autant de la volonté politique nationale et européenne sur le long terme que des progrès techniques à venir.

Face à la menace sans précédent pour l'humanité du réchauffement climatique, essentiellement lié à l'utilisation intensive des sources d'énergie fossiles, nous devons changer d'échelle temporelle et préparer et mettre en oeuvre dès à présent des programmes et des politiques économiques, fiscales, industrielles et technologiques beaucoup plus ambitieuses et volontaires afin que l'ensemble des sources et vecteurs d'énergies renouvelables -dont évidemment l'hydrogène comme clef de voûte- se soient pour l'essentiel substitués au pétrole et au gaz avant le milieu de ce siècle. Il faut en effet savoir qu'au rythme où l'humanité consomme le pétrole -aujourd'hui 4 milliards de tonnes par an mais 6 milliards de tonnes par an en 2025- nous aurons totalement épuisé l'ensemble de nos réserves pétrolières en 2080 !

Certes, l'effort économique, technologique et financier pour arriver à cet objectif est gigantesque et sera de toute façon difficile à atteindre mais nous devons dire à nos concitoyens qu'il coûtera toujours infiniment moins cher -comme l'a montré magistralement le récent rapport Stern et comme le confirme la dernière et alarmante étude du Groupe intergouvernemental sur l'évolution du climat- que l'attentisme ou les demi-mesures que trop d'états continuent de préconiser. L'avenir n'est jamais écrit et le pire n'est jamais sûr mais c'est dans les mois et les années qui viennent que va se jouer le sort de notre planète pour des siècles ou plus. A nous d'en être pleinement conscients et de préparer ce changement de civilisation au lieu de le subir.

René Trégouët

Sénateur honoraire

Fondateur du Groupe de Prospective du Sénat


TIC
Information et Communication
Microsoft lance Vista et tourne une page de son histoire
Vendredi, 02/02/2007 - 00:00

Depuis le 30 janvier, la plupart des nouveaux micro-ordinateurs vendus dans le monde sont équipés de Vista, le nouveau système d'exploitation de Microsoft, un pari majeur pour le groupe et un changement d'habitude pour des centaines de millions de consommateurs. Le patron et fondateur de Microsoft, Bill Gates, a lancé en fanfare le 29 janvier, à New York, son nouveau système d'exploitation, Vista. "Vista est la clé de la nouvelle ère digitale", a affirmé M. Gates devant plusieurs centaines de journalistes, que le groupe avait invité dans un théâtre de Broadway spécialement réservé pour cette occasion.

La principale innovation de Vista saute aux yeux. Il permet l'affichage d'icônes en trois dimensions et la superposition de plusieurs images dotées d'un pourtour transparent, un dispositif particulièrement adapté pour garder un oeil sur les programmes lancés auparavant. "L'interface évoque le meilleur d'Apple", observe un analyste.

Pour promouvoir Vista, Microsoft a lancé "la plus grande campagne de marketing jamais réalisée", a assuré le responsable de la communication, JB William, et prévoit 6,6 milliards de visiteurs dans 20 pays (cumul de l'audience des spots télévisés, de l'affichage, d'internet, des publicités au cinéma et dans la presse). Vista, jugé par les experts plus pratique et fiable, mais pas révolutionnaire, a été une entreprise colossale : il a coûté à Microsoft 6 milliards de dollars pour ses 5 années de développement, a révélé Bill Gates début janvier. Outre un nouvel aspect graphique, il inclut de nombreux logiciels : montage vidéo, navigation internet, e-mail, agenda, etc.

Lancé dès fin novembre pour les entreprises, c'est la version la plus aboutie de la série des logiciels Windows, moteurs de plus de 95 % des quelque 900 millions de micro-ordinateurs mondiaux. Concrètement, les nouveaux PC, portables ou non, seront progressivement tous prééquipés de Vista, quelle que soit leur marque -- sauf les "Mac", les ordinateurs du rival Apple, qui tournent sous un système différent. Le prix affiché d'un ordinateur inclut à la fois la machine et le logiciel.

Toute la question est de savoir à quel rythme les particuliers et les entreprises adopteront Vista et des ordinateurs assez puissants pour lui. Selon le cabinet IDC, Microsoft devrait en vendre 100 millions d'exemplaires dès 2007, équipant ainsi près de 10 % du parc mondial d'ordinateurs.

Vista remplacera les versions précédentes de Windows, surtout XP, sortie en 2001, utilisée par 87% des PC mondiaux, selon le cabinet OneStat. Windows domine la micro-informatique grand public : son seul rival, Apple (système d'exploitation MacOS) n'a conquis que 3 à 5 % du parc --même s'il a un peu grimpé ces derniers mois-- et les logiciels libres, comme Linux, moins de 1 %.

Pour Microsoft, l'enjeu est crucial, car les logiciels Windows représentent environ 30 % de son chiffre d'affaires (13 milliards de dollars sur 44 milliards en 2005-2006) et les deux-tiers de son bénéfice d'exploitation (10 milliards sur 16 milliards). Vista devrait mécaniquement accroître ses profits, car si la version basique coûte le même prix que XP (199 dollars), la version Premium, celle qui offre les vraies nouveautés, coûte 239 dollars, 20 % de plus. Microsoft espère qu'au moins 60 % des clients choisiront la version Premium.

Certains analystes prévoient que Vista rapportera à Microsoft 4 milliards de dollars supplémentaires dès 2007 et génèrera 70 milliards de dollars pour le secteur informatique mondial, ainsi que des dizaines de milliers d'emplois. Ce sont "les meilleurs 6 milliards que j'aie jamais dépensés", a lancé Bill Gates début janvier devant quelques journalistes.

Microsoft, les fabricants comme HP et Dell, ainsi que les détaillants espèrent un grand redémarrage du secteur, ralenti par la guerre des prix. Le retard de Vista, qui devait initialement sortir l'an dernier, a pesé sur les résultats de Microsoft fin 2006, car les consommateurs ont différé l'achat d'ordinateurs. Microsoft a également lancé le 30 janvier pour le grand public Office 2007, la nouvelle version de ses logiciels bureautiques (traitement de texte Word, tableur Excel), son autre produit-phare. En cumul, les versions de Windows et d'Office représentent les deux-tiers de ses ventes et 90 % de ses bénéfices.

Certains analystes prédisent que Vista sera l'apogée de Microsoft et des 22 ans d'histoire de Windows et que Vista représente la fin d'un chapitre dans l'histoire de Microsoft. Désormais, face au nouveau géant Google, la firme de Seattle est condamnée à changer de modèle techno-économique et s'oriente vers la vente et la location de logiciels et de services en ligne.

MS

FT

NYT

Comment fonctionne une maison domotique
Vendredi, 02/02/2007 - 00:00

Située au coeur de Paris, la "Maison A" préfigure ce que seront nos habitations dans quelques années. Température, gestion de l'énergie, vidéo, son, vidéo-surveillance, la domotique intervient à tous les niveaux. Pour entrer dans la Maison A, le visiteur doit d'abord passer par l'épreuve de l'interphone. Outre la classique caméra permettant d'identifier qui se trouve devant la porte d'entrée (fonction vidéophone), l'appareil intègre un lecteur d'empreintes digitales. Ce système d'identification biométrique peut gérer les empreintes de cent personnes. L'interphone est relié au réseau téléphonique général de la maison et l'utilisateur peut y répondre depuis n'importe quelle pièce. Le combiné distant permet également d'allumer l'éclairage extérieur.

La cuisine est représentative de ce que permet le réseau d'écrans vidéo. Avec l'écran tactile de Vity, le cuisinier peut regarder des chaînes de télévision ou visionner un DVD, qui peut d'ailleurs être visionné, dans une autre pièce, par exemple dans le salon (distribution vidéo multiroom). Cet écran fait ainsi office de centre de contrôle. Il permet aussi d'écouter un CD qui sera retransmis dans toute la maison intégralement sonorisée.

Le centre de contrôle est une application fonctionnant sous Windows XP. Elle permet donc de visionner de la vidéo ou d'écouter de la musique dans la pièce où l'on se situe ; l'utilisateur peut également paramétrer ce qui se passe dans les autres pièces. L'application va gérer la température ou la lumière de chaque pièce, commander les stores motorisés des fenêtres. Un rapport rend compte des dépenses énergétiques et des optimisations possibles. Outre l'électroménager, le chauffage et l'éclairage, il signale par exemple les appareils qui restent en veille.

La maison domotique est gérée par un simple PC central vers lequel convergent des informations récoltées par tous les appareils électriques de la maison. Ce vaste réseau domestique est constitué d'un câblage conséquent avec pas moins de 3 prises RJ45 par pièce pour y brancher, par exemple, son PC portable. L'utilisateur peut alors accéder au Net et aux services proposés via la LiveBox de France Télécom en bas à droite de l'image. Avec autant de prises, l'utilisateur gagne en souplesse pour l'utilisation des lieux. La chambre peut rapidement devenir un bureau. Chaque prise RJ45 fournit également l'accès à la téléphonie et à la télévision (réseau VDI : voix-données-images). Le réseau téléphonique domestique permet de communiquer d'un combiné à un autre, mais offre également une fonction de surveillance : il est possible d'être appelé dans sa chambre par le téléphone proche de l'entrée s'il capte du bruit.

En plus des écrans vidéo, le centre de contrôle de la maison est accessible depuis la télécommande sans fil fournie par Vity. Elle permet donc d'actionner les stores, lire le DVD ou de la musique, modifier l'éclairage, la température. Outre la gestion de l'accès à la maison, l'interphone intérieur permet de programmer des messages vocaux destinés aux autres occupants de la maison. L'utilisateur peut également créer un "scénario de départ", c'est-à-dire un programme qui va, par exemple, éteindre toutes les lumières et baisser la température à 18 degrés. Le lancement et la création de ce programme s'effectuent au moyen de l'écran tactile de l'interphone.

ZDNet

^ Haut
Avenir
Nanotechnologies et Robotique
Des robots-infirmiers en 2010 !
Vendredi, 02/02/2007 - 00:00

Le projet IWARD consiste en la création d'une chaîne de robot-infirmiers équipés de caméras, de capteurs performants et d'une certaine intelligence artificielle capable de guider patients comme visiteurs dans un hôpital, que ce soit pour trouver une chambre ou obtenir un renseignement important. Mis en chantier par les universités européennes de Dublin, Newcastle, Cardiff et Warwick, le projet a pour but d'alléger la charge de travail des humains travaillant dans le milieu hospitalier afin que le personnel médical passe plus de temps avec les patients, mais aussi dans le but de diminuer les infections qui se propagent dans ces lieux.

Chaque robot-infirmier pourrait également distribuer des comprimés et évaluer la température du corps d'un patient avec un thermomètre laser intégré. Encore plus impressionnant, les machines autonomes pourront communiquer entre elles afin de mieux planifier leurs tâches ; elles utiliseront la reconnaissance faciale et vocale.

IWARD semble provenir directement de Star Wars ou d'une autre série de science-fiction, mais le projet est pourtant bien réel et les premiers prototypes sont attendus au courant de 2010. Thomas Schlegel, qui est à la tête de l'équipe de recherche, explique au magazine Engineer que « le principe n'est pas que d'avoir des robots mobiles, mais bien de développer un système de bornes mouvantes offrant à la fois l'information et l'assistance aux gens, de façon à ce que l'hôpital devienne un lieu interactif et intelligent. »

Infi690

Cordis

Des robots «canaris» devraient bientôt épauler les pompiers
Vendredi, 02/02/2007 - 00:00

De l'extinction d'incendies industriels au traitement d'explosions et de leurs suites, la lutte contre le feu est par définition l'un des métiers les plus dangereux au monde. Une équipe de scientifiques vient de s'atteler à deux projets financés par l'UE dans le but de développer un essaim autonome de robots «canaris», conçus pour réduire les dangers et accélérer les recherches sur les lieux d'intervention.

Ces explorateurs miniatures seraient la première équipe à pénétrer dans les bâtiments pour recenser les dangers et transmettre ensuite les informations à un «chef d'escadron» humain et au poste de commandement.

Oeuvrant en partenariat avec les services de secours et de lutte anti-incendie du Sud Yorkshire (SYFRS) ainsi que quatre autres organisations européennes, Jacques Penders, maître de recherches à l'université Hallam de Sheffield, encadre ce projet ayant pour but de développer deux mini-robots. Baptisés «Guardians» et «Viewfinders», ces robots ne mesureront que 16 cm de diamètre et seront équipés d'une technique de communication mobile ainsi que de caméras de télévision/infrarouge (TV/IR), de radars laser (LADAR) et de deux types de capteurs permettant la détection de substances chimiques toxiques et la navigation. «Les opérations de secours et de lutte anti-incendie recèlent de nombreux dangers, tels que la stabilité structurelle des bâtiments ou la présence de fumée épaisse masquant les voies d'entrée et de sortie aux équipes de secours, ce qui peut fortement les désorienter»,a déclaré J. Penders.

«Les robots Guardian et Viewfinder appuieront la recherche de victimes et les secours en assurant la communication et en aidant l'équipe humaine à évaluer la sûreté de la voie empruntée et la meilleure direction à suivre», a-t-il poursuivi.

Les Guardians travailleraient par vastes équipes d'une trentaine de robots qui recueilleraient chacun des informations sur les substances chimiques toxiques, les flammes et les obstacles artificiels rencontrés en chemin, et retransmettraient le tout aux pompiers grâce aux techniques de communication mobile telles que réseau local sans fil (WLAN), Bluetooth et Zigbee. «Nous ne sommes pas au cinéma où les secouristes foncent tête baissée pour sauver des blessés.

En tant que commandant d'opérations de secours, je dois avant tout veiller à la sécurité de mon équipe si je veux sauver des vies. La mise au point de ces robots va nous permettre de gagner du temps et de mieux appréhender les dangers qui nous guettent sur les théâtres d'incident. Autant de minutes vitales que nous pourrons consacrer à secourir les victimes», déclare Neil Baugh, chef de station aux SYFRS.

Les robots Viewfinder seront quant à eux équipés de capteurs chimiques et de caméras infrarouges afin de recenser des passages sûrs permettant à l'équipe de se frayer un chemin à travers des sites industriels partiellement détruits. Opérant par équipe de trois, les robots relaieront ces informations vers un poste central humain, via une interface homme-robot spécialement conçue et développée par l'équipe de J. Penders. «Le terrorisme et notamment les attentats de Londres ont contraint les services de secours et de lutte anti-incendie à se sensibiliser davantage aux dangers liés aux substances chimiques. Mais il leur faudrait assimiler quantité d'informations ; or le métier de pompier est déjà un job à temps plein», déclare J. Penders. «La relation continue que nous entretenons avec les SYFRS va nous permettre de les épauler en partageant nos connaissances avec eux.»

Les deux projets ont démarré en janvier 2007 et devraient s'achever en 2010 avec des modèles de démonstration qui pourraient déboucher sur l'emploi de robots bel et bien réels par les pompiers, dans le cadre d'une profession où ils sont chaque jour amenés à braver la mort. «Au cours des trois prochaines années, nous allons poursuivre le développement des techniques et les ajuster aux besoins de la lutte anti-incendie. Ces techniques modernes ouvrent des perspectives d'applications domestiques, dans le cadre desquelles les robots pourraient assister des personnes non voyantes et à mobilité réduite», déclare J. Penders.

Cordis

^ Haut
Matière
Matière et Energie
Produire de l'hydrogène à partir de sucres
Vendredi, 02/02/2007 - 00:00

Le laboratoire Energy's Brookhaven National Laboratory, aux Pays-Bas, a construit le premier réacteur d'essai dans lequel les bactéries produisent de l'hydrogène gazeux en présence d'oxygène. Jusqu'à aujourd'hui, la production d'hydrogène par des bactéries anaérobies semblait impossible car celles-ci meurent en présence même minime d'oxygène dans le milieu. Cependant, le chercheur Niels van der Lelie et son équipe ont récemment mis en évidence que la bactérie Thermotoga neapolitana, associée à des composés biochimiques, est capable de se protéger contre la toxicité de l'oxygène tout en produisant de l'hydrogène à partir de sucres.

La bactérie Thermotoga est dite extrêmophile, c'est-à-dire qui se développe dans des conditions extrêmes comme les sources thermales dans ce cas précis. Elle est capable de décomposer les hydrates de carbone sans utiliser d'oxygène. Ces bactéries peuvent produire une grande quantité d'hydrogène à partir de déchets agricoles, à une température de 167°C, sous pression atmosphérique et avec un faible taux d'oxygène. Selon le chercheur, la découverte de cette bactérie est importante pour le marché de l'hydrogène, car elle permettra de construire des bioréacteurs agricoles capables de produire de l'hydrogène de façon continue et peu onéreuse.

BNL

Sotavento produira de l'hydrogène à l'aide d'énergie éolienne
Vendredi, 02/02/2007 - 00:00

Les expérimentations menées dans le parc expérimental de Sotavento à Monfera devraient débuter très prochainement. Leur but : obtenir de l'hydrogène à partir de l'eau en utilisant l'énergie éolienne. Les essais qui devraient se poursuivre tout au long de l'année sont financés à hauteur de 400.000 euros par le conseil de l'industrie et du gaz naturel.

On espère pouvoir fournir des données précieuses sur la possibilité d'emmagasiner l'énergie éolienne en la convertissant en hydrogène stocké dans des réservoirs. Pour obtenir l'hydrogène, l'énergie générée par les aérogénérateurs sera conduite jusqu'à un électrolyseur. Cet appareil décompose l'eau à l'aide d'un courant électrique en dihydrogène et en oxygène. L'oxygène sera relâché dans l'atmosphère et l'hydrogène sera conservé et utilisé pour obtenir de l'électricité réinjectée ensuite dans les turbines éoliennes. Si les tests sont concluants, les parcs éoliens pourraient alors absorber les surplus d'énergie en cas de forte production et produire de l'électricité malgré l'absence de vent. On pourrait aussi gérer plus précisément la production éolienne, afin de l'adapter à la demande du réseau.

BE

Portugal : nouvelle étape dans la construction de la centrale solaire de Moura
Vendredi, 02/02/2007 - 00:00

Le Portugal crée des usines de fabrication de panneaux solaires dans le cadre du projet de construction de la plus importante centrale solaire au monde. A la fin de l'année 2006, une usine a été lancée à Moura et deux contrats ont été signés pour la construction d'usines à Aveiro. A Moura, le 30 novembre 2006, le premier ministre M. José Socrates et le ministre de l'économie Manuel Pinho ont officiellement lancé la construction de l'usine de fabrication de panneaux solaires qui produira bientôt les éléments de la plus importante centrale solaire au monde, située au Portugal. L'usine de Moura représente un investissement de 7,6 millions d'euros et produira dès décembre 2007, 24 MW de panneaux solaires par an. Elle occupera un espace de 23.500 m2 et génèrera entre 90 et 115 postes de travail.

La création de l'usine s'inscrit dans un projet global qui prévoit la construction d'une centrale photovoltaïque à Moura, en 2 phases. La 1ère phase de la construction se déroulera entre janvier 2007 et décembre 2008 et prévoit l'installation d'une puissance de 42 MW répartie sur deux zones : 32 MW sur une zone équipée de 188.420 panneaux solaires fixes s'étendant sur 114 hectares et 10 MW équipée de 52.000 panneaux solaires capables de suivre le mouvement du soleil. La 2ème phase qui se déroulera entre début 2009 et 2010 prévoit l'installation de 20 MW de puissance supplémentaire. La centrale solaire de 62 MW produira, au total, 91 millions kW par an soit l'équivalent de la consommation d'une ville de 30.000 habitants au Portugal.

BE

^ Haut
Espace
Espace et Cosmologie
Les molécules de la vie dans les poussières de la comète Wild-2
Vendredi, 02/02/2007 - 00:00

Sept grains de poussière. C'est ce qu'ont reçu les chercheurs italiens de l'Institut National d'Astrophysique (INAF) de la part de la NASA, à la suite de la répartition des fragments de la comète Wild-2, arrivés sur Terre le 15 janvier 2006. Une poignée de poudre d'une valeur inestimable : le seul autre fragment de l'Univers recueilli hors de notre planète remonte à 1972, quand la mission américaine Apollo 17 ramena à Terre des fragments de matériau lunaire.

En six mois de travail intense, les 7 grains de poussière ont été soumis à diverses analyses, sous les yeux émus des chercheurs et ceux, objectifs, des instruments sophistiqués de l'INAF et de l'université de Naples "Parthenope", comme le spectromètre à radiation infrarouge et le microscope électronique à Naples, ou le spectromètre Raman à Catane. En sont ressorties de nombreuses confirmations, dont la plus importante est que l'on trouve dans les grains des traces d'amines et de longues chaînes de carbone indispensables à la formation de la vie. Une nouveauté également dans le domaine de l'évolution du système solaire : la forte présence de silicates sous forme cristalline remet en question les théories sur la formation des systèmes planétaires.

BE

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
Le réchauffement va causer famines et inondations
Vendredi, 02/02/2007 - 00:00

Entre 200 et 600 millions de personnes supplémentaires souffriront de famine et entre 1,1 et 3,2 milliards d'habitants manqueront d'eau d'ici 2080 en raison du réchauffement climatique, indique une étude du Groupe intergouvernemental sur l'évolution du climat (Giec). Sept millions d'habitations pourraient être inondées et la Grande Barrière de corail, plus grand organisme vivant au monde, pourrait complètement disparaître d'ici quelques décennies, écrivent les experts, selon des extraits du rapport publiés dans le quotidien The Age. L'étude doit être publiée dans les mois à venir, venant compléter le quatrième rapport du Giec.

La température du globe s'est déjà accrue de 0,7 à 0,8 degré depuis 1900. Si l'augmentation atteint deux à trois degrés, toujours par rapport à leur niveau de 1900, c'est jusqu'au système forestier de l'ensemble de l'Amazone qui est menacé. Les "Alpes australiennes" (sud-est), un système fragile en raison du manque d'eau chronique dont souffre le pays-continent, seraient quant à elles "complètement perdues". Pour la planète, il s'agit d'une "perte de biodiversité énorme", souligne le rapport.

Le coût humain et économique est lui aussi très lourd, en particulier dans les pays les plus pauvres, comme en Afrique, et dans les régions situées à fleur d'eau, comme le Bangladesh et les îles du Pacifique, avertit l'étude. Pour la Grande Barrière de corail, site classé au patrimoine mondial, cela signifie une disparition pure et simple. Le blanchiment du corail, qui touche déjà la Grande Barrière à certains endroits, se répètera tous les ans à partir de 2030, estime l'étude.

La Grande Barrière s'étend sur plus de 345.000 km2 au large de la côte nord-est de l'Australie. Le blanchiment corallien se produit lorsque les organismes vivants qui donnent aux coraux leurs couleurs meurent, ne laissant subsister que le squelette calcaire du corail. Il est provoqué par une hausse des températures de l'eau ainsi que des pluies acides.

The Age

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Des "yeux bioniques" pourraient aider à combattre la cécité
Vendredi, 02/02/2007 - 00:00

Des travaux scientifiques pour le moins étonnants aux Etats-Unis pourraient aider à lutter contre la cécité chez l'homme : des "yeux bioniques" sont implantés sur des chats atteints d'une forme de rétinite pigmentaire pour tenter de combattre cette maladie pouvant entraîner la perte de la vision. Gingersnap, une chatte abyssine de quatre ans, est touchée par l'affection qui détruit lentement ses rétines. "A cinq ans, elle sera probablement aveugle", pronostique le Dr Kristina Narfstrom, ophtalmologiste vétérinaire à l'université du Missouri-Columbia.

La maladie de Gingersnap est similaire à la rétinite pigmentaire, maladie génétique incurable chez l'homme qui conduit souvent à la cécité, et affecte un Américain sur 3.500 et environ 30.000 personnes en France. La rétinite attaque les cellules photoréceptrices de l'oeil. Le Dr Narfstrom implante des puces en silicium spéciales sur des chats en partie aveugles avec l'espoir que ces travaux aideront à remplacer, voire à réparer des rétines touchées par la maladie chez l'homme.

Ces puces ont déjà montré des résultats encourageants lors d'essais cliniques sur l'homme, améliorant dans certains cas la vision de personnes atteintes par la maladie ou ralentissant son développement. Selon le Dr Narfstrom, les puces ont été implantées sur 30 personnes à ce jour. Ses travaux devraient aider les chercheurs à optimiser les performances de ces implants et à former les médecins aux techniques chirurgicales permettant de les installer, car la structure des yeux chez le chat et l'homme est similaire.

Les puces de deux millimètres de large, mises au point par la société Optobionics de Naperville (Illinois), sont insérées à l'arrière de l'oeil. La surface de chaque puce est couverte de 5.000 microphotodiodes qui réagissent à la lumière, envoyant des signaux électriques via le nerf optique jusqu'au cerveau. "Nous les plaçons à l'endroit où se trouvent les photorécepteurs dont elles sont supposées prendre le relais si ceux-ci manquent", explique le Dr Narfstrom. Actuellement, elles permettent de voir des "impulsions de lumière" plutôt que des images, et "le but de l'étude est de leur faire livrer davantage d'informations".

Les puces peuvent non seulement aider à ralentir la maladie, mais pourraient aussi régénérer les photorécepteurs endommagés autour des implants grâce aux courants électriques qu'elles produisent, suggèrent des études. Le Dr Narfstrom devrait savoir dans deux ans environ si les implants favorisent réellement la croissance des cellules rétiniennes sur ses chats, précise-t-elle.

La puce d'Optobionics représente l'un des nombreux axes de recherche en matière de lutte contre la cécité. Outre la thérapie génique, considérée comme un bon outil pour combattre les maladies héréditaires, des chercheurs comptent également utiliser les cellules souches pour tenter de reconstruire les cellules rétiniennes endommagées.

Eurekalert

L'énigme de la réplication de l'ADN élucidée
Vendredi, 02/02/2007 - 00:00

Après plus de 20 ans d'efforts infructueux dans le monde entier, des chercheurs australiens dirigés par le Professeur Dixon ont réussi à élucider les mécanismes intervenant lors de l'étape finale de la réplication de l'ADN.

La réplication de l'ADN s'effectue grâce à un complexe multiprotéique appelé réplisome qui assure deux fonctions majeures simultanées : l'une est de 'dézipper' les doubles brins d'ADN et l'autre est de produire une copie exacte de chaque brin.

Chez certaines bactéries, il existe une protéine dite TUS qui se fixe sur la séquence terminale de l'ADN en voie de réplication appelée séquence Ter. L'ADN bactérien étant circulaire, deux réplisomes copient les doubles brins d'ADN en sens opposé jusqu'à ce qu'ils rencontrent TUS sur leur chemin. A partir de là, l'avancée du réplisome dépend de la direction selon laquelle il progresse : le réplisome peut en effet déloger TUS dans son avancée s'il approche d'un côté mais est bloqué lorsqu'il arrive de l'autre côté.

Les mécanismes responsables de ce blocage viennent d'être élucidés. En fait la séparation des brins d'ADN résultant de l'avancée du réplisome vers la face dite permissive du complexe TUS/Ter provoque le départ de TUS. Ceci est le résultat d'une cassure progressive des interactions spécifiques du complexe TUS/Ter. Quand au contraire, le réplisome approche de l'autre côté et rencontre la face dite non-permissive du complexe TUS/Ter, la séparation des brins d'ADN expose une base qui va pouvoir s'insérer dans TUS. La nouvelle liaison ainsi créée renforce le complexe TUS/Ter, TUS est verrouillé sur son site Ter et empêche la progression du réplisome.

Le Professeur Dixon souligne que cette découverte est « non simplement importante parce qu'elle a résolu une question scientifique fondamentale, mais également parce qu'elle révèle un nouveau mécanisme d'interaction entre une protéine et l'ADN ». « Cette interaction qui est extrêmement stable pourrait déboucher sur de nouvelles applications en nanotechnologie et biotechnologie comme, par exemple, la conception d'outils diagnostiques moléculaires ultrasensibles pour le dépistage précoce des maladies, » poursuit le professeur Dixon qui ajoute " Cette découverte illustre, s'il en était besoin, comment des avancées en matière de recherche fondamentale sont indispensables pour permettre des innovations technologiques de rupture."

Article @RTFlash

SD

Cancer du côlon : le scanner, nouvelle technique de dépistage ?
Vendredi, 02/02/2007 - 00:00

Non-invasive, moins contraignante et moins douloureuse pour le patient, la coloscopie virtuelle est une nouvelle méthode d'exploration de la muqueuse colique en scanner qui pourrait à terme devenir une procédé de premier plan pour le dépistage du cancer du colon. 2ème cause de cancer chez la femme et 3ème cause de cancer chez l'homme, le cancer du côlon, qui débute à l'âge de 50 ans environ, représente la 2ème cause de mortalité de cancer avec 16 000 décès/an. La coloscopie virtuelle -qui permet la reconstitution et la navigation en 3D à l'intérieur même du côlon- pourrait révolutionner le dépistage de ce cancer et ainsi faciliter la mise en place d'une politique de prévention beaucoup plus large.

A l'origine du décès de plus de 16.000 personnes par an, le cancer du côlon est la seconde cause de mortalité par cancer en France après le cancer du poumon. Peu médiatisé, peu évoqué car intime, le cancer du côlon touche pourtant une population aujourd'hui de plus en plus vaste. Le cancer du côlon est d'abord une question d'âge. L'âge moyen d'un patient diagnostiqué est de 70 ans, et le contrôle coloscopique régulier débute à l'âge de 50 ans environ. L'hérédité est également un facteur déterminant, puisque l'on sait que les patients ayant des antécédents familiaux auront de fortes probabilités d'y être exposés. Enfin, des facteurs à risques plus subtils ont été cernés. On suppose ainsi que l'alimentation de pays développés comme la France, riche en graisses animales, favorise le développement du cancer.

En 2005 Le National Institute for Health and clinical Excellence (NHS) du Royaume Unis a rédigé des recommandations en faveur de l'utilisation du scanner en colonographie virtuelle basée sur les preuves actuelles de l'efficacité et le confort apportés par cette nouvelle technique ». La France se classe parmi les pays ayant une fréquence élevée de cancer colique, juste derrière les Etats-Unis et l'Australie. Le nombre de cancer colorectal y est passé de 23.900 à 36.000 entre 1980 et 2000. Dans ce même laps de temps, le nombre de décès a augmenté de plus de 8%, passant de 14.727 à 15.973.

SA

Les poumons des enfants affectés durablement par le trafic routier
Vendredi, 02/02/2007 - 00:00

Les enfants vivant à proximité d'une autoroute ou d'une route à fort trafic ont un développement pulmonaire réduit et leur santé risque de s'en ressentir à l'âge adulte, selon une étude américaine publiée en ligne par la revue médicale britannique The Lancet. Plus de 3.600 enfants et adolescents résidant en Californie du sud ont été suivis pendant huit ans, entre 10 et 18 ans. Leurs fonctions pulmonaires ont été mesurées chaque année. Les enfants et adolescents ayant vécu à moins de 500 mètres d'une route à fort trafic avaient des "déficits substantiels" dans le développement de leurs fonctions respiratoires par rapport à ceux ayant vécu à plus de 1,5 km d'une voie à fort trafic.

Lors des examens, les enfants devaient inspirer à fond et expirer le plus fort possible l'air de leurs poumons, plusieurs mesures de volume et de débit étant effectuées. Le volume expiré maximal dans la première seconde (VEMS) des enfants ayant vécu à moins de 500 m d'une voie à fort trafic correspondait à 97 % de celui des enfants résidant à plus de 1,5 km, soit un déficit de 3 %. Pour une autre mesure de débit respiratoire (DEMM), le déficit dépasse 6 %. "Quelqu'un qui souffre dans l'enfance d'un déficit de fonctions pulmonaires aura probablement des poumons en moins bonne santé tout le reste de sa vie", souligne James Gaudeman (University of Southern California, Los Angeles).

A l'âge adulte, une fonction pulmonaire réduite est un "facteur de risque important pour les maladies respiratoires et cardiovasculaires", ajoute le principal auteur de l'étude. Des enfants non-asthmatiques et non-fumeurs "ont souffert de déficits significatifs de leurs fonctions respiratoires", ce qui suggère que tous les enfants en bonne santé "sont potentiellement affectés par l'exposition au trafic", précise le Pr Gaudeman.

Même lorsque la pollution est faible dans la région, les enfants vivant à proximité d'un axe routier important ont des risques de santé accrus. Compte tenu de l'importance des effets constatés, "une réduction de l'exposition aux polluants liés au trafic conduirait à des bénéfices substantiels pour la santé publique", soulignent les auteurs, invitant à en tenir compte dans la règlementation.

Evoquant la concentration en carbone des gaz d'échappement des moteurs diesel et la pollution due à des particules fines ou ultrafines, les auteurs précisent que d'autres études sont nécessaires pour définir la contribution de chaque polluant aux effets constatés sur le développement pulmonaire. "Ces résultats posent d'importantes questions de société sur la structure de notre système de transport, les moteurs, les carburants, la combustion et la poussière des routes dans les zones urbaines", relève Thomas Sandstrom (University Hospital, Umea, Suède) dans un commentaire publié dans Lancet. L'étude suggère que la pollution "primaire" récemment émise est plus dangereuse que la pollution ancienne stagnant sous forme de résidus.

Lancet

Une zone du cerveau serait liée au tabagisme
Vendredi, 02/02/2007 - 00:00

Des neurobiologistes américains des universités de l'Iowa et de Californie ont découvert que chez des fumeurs victimes d'une atteinte d'une zone très précise du cortex cérébral, l'insula ou île de Reil, l'arrêt du tabac est plus facile, rapide et sans rechute, que pour n'importe qui !

Les chercheurs savaient que les phénomènes addictifs se manifestent parce que certains centres et circuits cérébraux s'adaptent au long cours à l'imprégnation par des drogues. Ainsi, les amygdales cérébrales ou le télencéphale sont chez l'animal des zones qui favorisent l'autoadministration de substances.

Ces chercheurs ont découvert que chez certaines personnes, des lésions du cerveau liées à un accident vasculaire ont eu un effet aussi radical qu'inattendu sur leur tabagisme. Du jour au lendemain, l'envie de fumer avait disparu. Enquêtant sur ces cas d'anciens fumeurs ayant subitement laissé tomber la cigarette, les chercheurs ont alors constaté qu'une petite zone du cerveau, l'insula, serait l'un des rouages de l'addiction.

La question que s'est alors posée le chercheur Antoine Bechara (université de Californie du Sud) a été la suivante : l'insula est-elle nécessaire au maintien de l'addiction au tabac ? Si c'est le cas, lors de destruction ou de lésion de l'insula, on devrait observer un arrêt de la dépendance à la nicotine... Le chercheur a donc identifié 19 fumeurs qui avaient eu une destruction cérébrale comprenant l'insula de l'hémisphère droit ou gauche.

Pour comparaison, les chercheurs ont également recruté un groupe témoin de 50 fumeurs (plus de 5 cigarettes par jour depuis plus de 2 ans) ayant eu des lésions d'autres zones cérébrales. Bien entendu, une attaque cérébrale quelle qu'elle soit est un évènement suffisamment grave pour convaincre un fumeur d'arrêter sans que le mécanisme de sa dépendance soit forcement perturbé !

Les chercheurs ont donc décidé qu'il y avait une vraie et brutale rupture de la dépendance s'ils avaient arrêté moins de 24 heures après la destruction de leur insula, s'ils n'avaient pas rechuté ensuite, s'ils avaient cessé de fumer sans efforts, et s'ils ne ressentaient aucun phénomène de manque. Sur les 19 fumeurs du groupe identifié au départ, 16 réunissaient tous ces critères et avaient arrêté de fumer, alors que dans le groupe de 50 sujets ayant des lésions d'autres zones du cortex, 37 n'ont pas cessé de fumer.

D'autres travaux devront confirmer ces résultats et préciser le rôle de l'insula dans la dépendance au tabac et à d'autres drogues. Il ne serait évidemment pas question d'endommager l'insula chez les fumeurs pour les débarrasser de leur dépendance. Cependant, les chercheurs suggèrent que des molécules ciblant cette petite zone du cerveau pourraient aider les fumeurs qui veulent arrêter.

Science

^ Haut
Recherche
Recherche & Innovation, Technologies, Transports
Ford invente la voiture électrique hybride
Vendredi, 02/02/2007 - 00:00

Les constructeurs américains ont compris, avec l'éclatant succès de la "Prius", la voiture hybride de Toyota, qu'il fallait réagir pour ne pas rater le virage technologique des modes de propulsion moins polluants. Ford vient de présenter l'Edge HySeries, un concept qui associe de manière originale l'hydrogène pour la pile à combustible et des batteries Lithium-Ion de 336 V.

Au lieu de recharger les batteries à son domicile, ce qui reste possible, ou par le biais d'un moteur thermique, c'est la pile à combustible qui s'en charge ici ! Cette idée novatrice de Ford permet d'aller au delà des hybrides que nous connaissons aujourd'hui. Avant que la pile à combustible se mette en route pour recharger le pack de batteries, la Edge HySeries aura parcouru 300 km avec zéro émission. Par ce principe de fonctionnement, Ford contourne habilement le problème posé par le temps de démarrage d'une pile à combustible. La pile se met en température tranquillement, ce qui va favoriser sa durée de vie. Pendant ce temps, la voiture roule grâce au pack Litium-Ion ! CQFD !

Au démarrage, la voiture fonctionne sur l'électricité stockée dans les batteries pendant environ 40 km. Le temps pour la pile à combustible de se mettre à température. Dès lors, l'hydrogène sert à alimenter cette pile qui rechargera les batteries. Dans ce cas, l'autonomie est de 200 miles, soit 320 km, avant de refaire le plein des 4,5 kg d'hydrogène stockés sous pression à 350 bar.

Mais, les petits rouleurs profiteront davantage des 40 km de mise en route et peuvent espérer une autonomie totale de 400 miles (640 km) puisque après chaque démarrage, ils roulent pendant 40 km sur l'énergie stockée en batterie. Ce concept peut rouler jusqu'à 85 mph (136 km/h). L'architecture de la plate-forme de cette Ford Edge la rend facilement compatible avec d'autres systèmes d'alimentation. Ainsi, elle peut facilement devenir un hybride classique avec un moteur thermique. Sans que la voiture doive être redessinée.

Article @RTFlash

Ford

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top