RTFlash

RTFlash a besoin de vous pour continuer à exister !

Propulsé par HelloAsso

RTFLASH Recherche & Technologie
NUMERO 437
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 28 Juin 2007
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
L'Europe doit se mobiliser pour l'IPv6
Avenir
Mitsubishi lance son assistant robot humanoïde "Wakamaru"
Japon : un robot-ouvrier capable de travailler par tous les temps
Matière
Le DMF : biocarburant de l'avenir?
65 % d'économies dans un système de chauffage
Espace
Astrium dévoile son projet d'"avion-fusée"
Terre
2070 : coup de chaud sur la France
L'eau de pluie : une ressource dans la valorisation de l'espace urbain
Vivant
Des cellules souches auraient été créées sans tuer d'embryon
Maladie de Parkinson : un essai encourageant de thérapie génique
Clonage thérapeutique réussi chez un primate
L'insuffisance rénale mauvaise pour le coeur
Maladie d'Alzheimer : quatre fois plus de malades en 2050...
Maladie d'Alzheimer : les nouveaux neurones n'arrivent pas à survivre
Recherche
La voiture sans pilote, c'est pour 2015
Chevrolet Sequel : 482 km à l'hydrogène
Edito
Le génome n'a pas fini de dévoiler son étonnante complexité



Au-delà des gènes eux-mêmes, d'autres éléments de l'ADN jouent un rôle important, selon des travaux scientifiques qui soulignent la complexité des interactions et remettent en cause certains dogmes. La communauté scientifique va devoir réviser sa vision "de ce que sont les gènes et de ce qu'ils font" avec de possibles conséquences sur l'identification "des séquences d'ADN impliquées dans de nombreuses maladies humaines", résume le Docteur Francis Collins, directeur de l'Institut américain de recherche sur le génome humain (NHGRI).

Réhabilitant ainsi une grande partie de l'ADN, hâtivement qualifiée par le passé "d'ADN "poubelle", c'est-à-dire inutile, parce que sa fonction n'avait pas été identifiée, ces travaux conduisent à détrôner le gène, jusque là mis au premier plan. Ces découvertes remettent en question la vision d'un génome "consistant en un petit ensemble de gènes définis, à côté d'une grande quantité d'ADN +poubelle+ non biologiquement actif", souligne le consortium ENCODE (the ENCyclopedia Of DNA Elements) qui publie ces travaux dans les revues scientifiques Nature et Genome Research.

Ce projet ENCODE doit permettre d'établir une "encyclopédie des éléments de l'ADN". "L'objectif est d'identifier et de cataloguer tous les éléments qui jouent un rôle dans le génome humain", a expliqué le professeur Stylianos Antonarakis, de l'UNIGE. Les scientifiques ont déjà réussi à séquencer entièrement le génome humain en 2003. Mais il reste à découvrir quelles en sont les régions fonctionnelles. ENCODE, auquel s'associent 80 institutions dans 11 pays, a débuté par une phase-pilote consistant en l'analyse fonctionnelle de 1 % du génome.

Les recherches ont permis d'attribuer une fonction à la grande majorité des parties du génome qui n'avaient pas ou peu changé au cours de l'évolution. Les résultats sont décrits dans un article collectif de 20 pages publié dans "Nature".

Fruit de quatre années de recherches auxquelles ont participé 35 groupes de chercheurs de 80 organismes dans le monde, ces résultats "promettent de transformer notre compréhension du fonctionnement du génome humain" : "l'image traditionnelle" de notre génome, comme une "collection bien ordonnée de gènes indépendants" est remise en cause, ajoute le consortium.

Ces résultats laissent entrevoir "un réseau complexe dans lequel les gènes, des éléments régulant leur activité et d'autres types de séquences d'ADN" interagissent, résume le consortium ENCODE dans un communiqué. Le génome humain (ADN) compte quelque 3 milliards de paires de bases programmant, "directement ou indirectement, les instructions pour synthétiser presque toutes les molécules qui forment chaque cellule, tissu ou organe humains", rappellent les chercheurs.

Les gènes codant pour des protéines, c'est-à-dire programmant la formation de ces briques élémentaires de l'organisme, ne constituent qu'une très faible fraction du génome humain.

Le séquençage de celui-ci dans le cadre du Human Genome Project en 2003 a permis d'identifier quelque 22.000 gènes et les séquences régulant leur activité, soit environ 3 à 5 % du génome, note le Wellcome Trust Sanger Institute associé à ces travaux. Remettant en cause l'épithète d'ADN "poubelle", les nouvelles données montrent "que le génome contient très peu de séquences inutilisées, les gènes sont juste un des nombreux types de séquences d'ADN ayant un impact fonctionnel", selon le consortium et le Laboratoire européen de biologie moléculaire et de bioinfomatique (EMBL-EBI) qui a piloté l'analyse.

Selon ces travaux ayant porté sur près de 30 millions de paires de bases, soit 1 % du génome humain, les séquences d'ADN situées hors des gènes "ont un rôle de régulation essentiel", commente un expert dans Nature. La majorité de l'ADN (acide désoxyribonucléique) humain est transcrit sous forme d'ARN (acide ribonucléique), mais cet ARN ne sert pas toujours à fabriquer des protéines. Des études avaient déjà montré qu'à partir d'un même gène, différentes protéines pouvaient être produites, et non pas une seule comme on l'avait longtemps pensé.

L'ADN humain est composé de 3,3 milliards de paires de bases mais seul 1,5% de ce potentiel serait utilisé pour la synthèse des protéines de l'organisme tout entier. Le reste du génome, soit 3,25 milliards de paires de bases, était considéré jusqu'alors comme de "l'ADN poubelle", sans fonction significative. Mais ces recherches viennent de montrer, sur une partie représentative du génome, que même les ADN non-codants sont presque tous transcrits en ARN. En outre, ces ARN non-codants régulent de manière spécifique et très fine l'expression des protéines : si ce mécanisme de régulation se dérègle, entraînant une production insuffisante ou excessive de telle ou telle protéine dans une cellule, la conséquence sera l'apparition de pathologies. La découverte de ce mécanisme génétique global complexe de régulation ouvre évidemment de nouvelles perspectives diagnostiques et thérapeutiques et va accélérer l'avènement d'une médecine prédictive capable de détecter très précocement l'apparition de la plupart des grandes maladies.

Au cours des cinq dernières années, l'étude du génome humain a ainsi permis d'identifier des milliers de nouveaux biomarqueurs, ces molécules circulant dans le sang qui témoignent de la présence d'un cancer, d'une maladie cardiaque, ou d'un diabète par exemple. Ces biomarqueurs, dont le plus connu est l'antigène spécifique de la prostate (PSA), aident à détecter précocement une pathologie et ainsi à réduire les ravages qu'elle aurait pu entraîner.

Pour mettre en évidence ces variations génétiques présentes entre les humains et découvrir leur rôle, il faut donc analyser le génome de milliers de personnes. Jusqu'à présent, cette analyse comparative se heurtait à des obstacles technologiques et financiers insurmontables. Mais la firme californienne Illimina a mis au point depuis un an des outils d'analyse génomique d'une telle puissance qu'il est à présent possible de multiplier par cent la vitesse de séquençage, tout en réduisant d'autant les coûts. «Il y a un an, alors qu'on programmait la conférence actuelle, il en coûtait 10 millions de dollars pour séquencer le génome d'un être humain. Cela freinait énormément l'accessibilité de ces informations pourtant cruciales aux patients», a rappelé David Bentley, chercheur chez Illumina Inc. «Aujourd'hui, on peut déchiffrer le génome d'un humain pour 100 000 $.»

La puissance de ces nouveaux séquenceurs a donc accéléré de façon fulgurante la découverte des mutations responsables de diverses maladies. Depuis janvier dernier, l'existence de cinq nouveaux gènes associés au diabète adulte a été dévoilée et la présence de ces gènes a été confirmée chez des dizaines de milliers de personnes. Il y a deux semaines, les bases génétiques de sept maladies très répandues (hypertension artérielle, infarctus du myocarde, polyarthrite rhumatoïde, diabètes de types I et II, maladie de Crohn et troubles bipolaires) ont été identifiées grâce à une étude de grande envergure menée par un consortium créé par le Wellcome Trust, un organisme privé britannique de recherche médicale.

L'analyse du génome humain permet aussi de personnaliser le traitement pharmacologique à prescrire aux patients. Les chercheurs ont déjà réussi à identifier dans le génome humain 200 gènes synthétisant des enzymes qui sont responsables du métabolisme des médicaments.

On voit donc, à la lumière de ces nouvelles découvertes, que la cartographie complète du génome humain, terminée en 2003, n'était qu'une première étape, et sans doute pas la plus ardue, vers la compréhension intime de cet océan de complexité que dissimulent nos gènes. Ce sont sans doute des décennies de recherche qui seront nécessaires pour comprendre l'ensemble des interactions et du fonctionnement de nos gènes et pouvoir évaluer les prédispositions génétiques de chacun d'entre nous à développer telles ou telles maladies.

A présent la communauté scientifique est confrontée à tout un travail de reconstruction théorique mais aussi à un défi en terme de modélisation et de puissance informatiques pour mettre au point des outils et méthodes encore plus puissantes qui soient à la hauteur de cette nouvelle complexité biologique. Souhaitons que, face aux USA et au Japon, l'Europe sache mobiliser les moyens nécessaires à cette quête exaltante.

René Trégouët

Sénateur honoraire

Fondateur du Groupe de Prospective du Sénat


TIC
Information et Communication
L'Europe doit se mobiliser pour l'IPv6
Vendredi, 29/06/2007 - 00:00

L'Internet mondial est apparu aux Etats-Unis en 1969 et en Europe dans les années 1980. Il est basé sur une technologie fondamentale, permettant de transporter les informations. On la désigne par le terme d'IP ou Internet Protocol. Plusieurs versions se sont succédées. Aujourd'hui on travaille encore sur la version 4, ou IPv4. Celle-ci se caractérise par l' « adresse IP » permettant d'identifier chaque machine pour y accéder. Elle est composée de 10 chiffres. Sa taille définit la capacité d'adressage, c'est-à-dire le nombre de machines ou d'équipements connectables au plan mondial.

La capacité d'adressage avait été prévue en 1983 pour environ 250 millions d'utilisateurs alors que ce nombre est passé aujourd'hui à 950 millions et ne cesse de grandir. Il y a donc rareté potentielle. De plus les Etats-Unis, s'appuyant sur leur position dominante dans les TIC, se sont réservés 56 % des adresses, au détriment notamment des pays asiatiques dont la croissance Internet est pourtant exponentielle.

Devant la pénurie menaçante, les gestionnaires de l'Internet ont adopté plusieurs mesures pour étendre la capacité d'adressage au sein de l'IPv4. Mais ces mesures ne suffisent plus. Sur les cinquante prochaines années, la population mondiale passera de 6 à 9 milliards d'habitants, tandis que la croissance dans les pays émergents multipliera les besoins de connexion. Il faut donc définir un nouveau protocole respectant l'esprit égalitaire de l'Internet, mais permettant de supporter les interconnexions entre PC, téléphonie mobile, applications domotiques, capteurs industriels, automobiles, et bientôt tous les objets quotidiens, dont la plupart seront robotisés et reliés en réseau. On désigne ce dernier phénomène du terme d'Internet des objets. Chaque appareil doté d'un émetteur-récepteur Internet pourra communiquer avec de nombreux autres proches ou lointains. Les puces RFID joueront un rôle essentiel à cet égard. Ces différents objets offriront des services à la fois diversifiés et convergents (enseignement, commerce électronique, jeux, santé, etc.). Ils devront être de plus souvent mobiles, offrir une grande qualité de service, assurer la sécurité et la protection des données des utilisateurs, y compris à l'encontre des attaques terroristes.

Pour ces diverses raisons, l'organisme mondial de standardisation de l'Internet, l'Internet Engineering Task Force, a développé un nouveau protocole dénommé en 1995 IPv6, ou version 6 de l'IP. Celui-ci est conçu pour répondre à l'expansion prévisible des besoins résumés ci-dessus. Il intègre les améliorations requises aujourd'hui en termes de sécurité, qualité de service, auto-configuration, etc. (L'auto-configuration n'oblige plus à paramétrer les machines en leur indiquant leur adresse IP. Celle-ci est construite automatiquement par l'appareil).

Les connexions de bout en bout entre appelés et appelants pour tous types de transports d'images et de sons deviendront immédiatement possibles et les raccordements pourront être permanents - sauf interruptions volontaires pour raison de sécurité.

Le développement mondial du réseau IPv6 et des applications l'utilisant exige un important effort de recherche, entrepris par les universités et les industriels. Parallèlement, l'introduction de l'IPv6 dans l'éducation oblige à des collaborations entre établissements d'enseignements et laboratoires. En France, ces efforts se sont développés autour du réseau RENATER, des grandes écoles, de diverses universités et de certains opérateurs dont France Telecom. Différents projets applicatifs ont été entrepris, dans la domotique, le commerce électronique, l'automobile, avec les industriels des secteurs concernés.

En Europe, la Commission européenne a créé en 2001 une Task-force IPv6 dans le cadre du plan « e-Europe ». Un budget d'environ 100 millions d'euros a été progressivement alloué pour soutenir des projets de recherche (6Net, Euro61X, Eurov6). On notera en particulier le réseau GEANT qui interconnecte les institutions de recherche européen et se connecte aux grands réseaux mondiaux.

Cependant, les spécialistes considèrent que les Européens ne se préparent pas suffisamment à l'arrivée du nouvel Internet et aux impacts qu'il aura nécessairement sur la fourniture d'équipements et services l'utilisant. La compétitivité déjà critique des industriels européens risque de s'effondrer face aux nouvelles offres, dont la plupart viendront d'Asie.

Les Etats-Unis, du fait de leur réserve actuelle d'adresses en IPv4, se sont surtout jusqu'à présent intéressés aux applications militaires qui implémenteront systématiquement l'IPv6, dans le cadre du « netcentric warfare ». Le Département de la Défense a prescrit dès 2003 que les réponses à ses appels d'offres garantissent le support par les nouveaux produits des protocoles IPv6. Les systèmes de communication militaire devront tous l'intégrer en 2008. Le Département du Commerce a lancé de son côté une enquête auprès des acteurs industriels pour préparer une politique industrielle gouvernementale en ce sens. A la suite de laquelle le 2 août 2005, l'OMB (Office of Management & Budget) de la Maison Blanche a rendu publique la décision de convertir, non plus les seuls réseaux militaires, mais TOUS les réseaux de l'administration américaine à IPv6 d'ici juin 2008. Quand on connaît l'impact de telles démarches sur l'industrie et les télécommunications mondiales, on mesure le retard que prendront ceux qui n'auront pas anticipé les nouveaux développements.

Le Japon, fidèle à sa tradition de grands plans stratégiques à l'initiative gouvernementale, a défini en 2000 une stratégie « e-Japan », avec la création d'une Task force japonaise, le grand programme de recherche WIDE (Widely Integrated Distributed Environment) et le soutien à des projets industriels pilotes, notamment en transport et domotique. Tous les réseaux ont reçu la consigne de migrer en IPv6 pour 2005 au plus tard. Ces objectifs sont en train d'être tenus, voire améliorés. Taïwan et la Corée du Sud suivent cet exemple. Pour les industriels et les gouvernements asiatiques, IPv6 constitue véritablement le grand enjeu du 21e siècle, à ne pas manquer.

On ajoutera que les grands industriels mondiaux précèdent ou relaient les gouvernements dans cette approche. C'est d'abord le cas des opérateurs de télécommunication (par exemple NTT au Japon), des équipementiers (CISCO, 6WIND, Nokia, Sony), des fabricants de logiciels et offreurs de service, en tête desquels on retrouve comme à l'habitude les américains Microsoft et IBM.

En Europe et plus particulièrement en France, la prise de conscience du danger qui menace les opérateurs, les industriels et les utilisateurs européens n'est pas suffisante.

Rien n'est donc fait pour préparer les entreprises et les administrations aux investissements qui seraient nécessaires. Au mieux, on considère, comme on le fait à propos de tout ce qui concerne Internet, que le marché suffira à répondre aux besoins, que les Etats européens n'ont pas besoin de s'unir et que des actions concertées impliquant des ressources et des incitations publiques ne sont ni nécessaires ni utiles. Lorsque le réveil se fera, il sera trop tard.

Une première tâche s'impose donc à ceux qui en ont les moyens : alerter l'opinion et les gouvernements. Ceci suppose des articles, des séminaires, des interventions auprès des responsables. La Commission européenne prépare un nouveau colloque sur la question pour le printemps 2008. C'est une bonne initiative mais elle ne mobilisera que ceux déjà sensibilisés au problème. Des actions plus larges s'imposent, avec le relais des médias, notamment dans les Etats européens tels que la France où l'ignorance du problème semble actuellement maxima.

Admiroutes

^ Haut
Avenir
Nanotechnologies et Robotique
Mitsubishi lance son assistant robot humanoïde "Wakamaru"
Vendredi, 29/06/2007 - 00:00

Le groupe d'industrie lourde et de technologies aérospatiales japonais Mitsubishi Heavy Industries (MHI) a annoncé le lancement de la location au Japon de son robot humanoïde "Wakamaru" comme hôtesse d'accueil et assistant corvéable à merci. Ce bipède mécanique jaune d'un mètre de haut, truffé de technologies, est capable de se mouvoir de façon autonome, d'entretenir des conversations basiques avec des humains ou encore de leur donner des informations (météo, actualités) en piochant par liaison sans fil sur internet."Wakamaru" est proposé au tarif journalier de 120.000 yens (environ 750 euros) pour les locations de moins de cinq jours. Le prix descend par paliers jusqu'à à 20.000 yens par jour pour les périodes de trois semaines à un mois, hors autres prestations (mise en route, formation...)

MHI a déjà vendu plusieurs exemplaires de "Wakamaru" fin 2005 à des particuliers pour 1,575 million de yens (10.000 euros). Le groupe considère, à l'instar de nombreuses autres entreprises nippones et de l'Etat, que le marché des robots d'assistance à domicile ou en entreprise est plein d'avenir.

TDG

Japon : un robot-ouvrier capable de travailler par tous les temps
Vendredi, 29/06/2007 - 00:00

Des chercheurs japonais ont présenté le dernier spécimen en date de leurs robots humanoïdes, capable de travailler sous une pluie battante et sur des surfaces adverses pour libérer les hommes des tâches les plus harassantes. Semblant tout droit sorti d'un film de science-fiction japonais, "HRP-3 Promet MK-II" mesure 1,60 mètre pour une masse de 68 kilogrammes.

Il est capable de se déplacer sur des terrains pentus et sablonneux ou de supporter un déluge d'eau s'abattant sur ses épaules de travailleur robuste et imperturbable. HRP-3, descendant d'une lignée de divers prototypes, peut marcher pendant deux heures d'affilée et sait manipuler adroitement un tournevis en adoptant une posture qui lui permet de coupler ses forces, à la façon d'un humain.

Ce robot, doté de quelque 42 "degrés de libert" (articulations) a été développé conjointement par les entreprises Kawada Industries, Kawasaki Heavy Industries (KHI) et l'Institut national des sciences et technologies industrielles avancées, avec l'aide de l'Etat. Ses créateurs espèrent le vendre vers 2010 à des clients tels que des entreprises de construction, pour un prix qui devrait avoisiner les 15 millions de yens (95.000 euros). Le Japon est très activement engagé dans le développement d'une armée de robots afin de pallier le manque de main d'oeuvre redouté à l'avenir et d'aider les hommes dans l'accomplissement de tâches dangereuses, délicates ou ingrates. "Notre pays vieillit rapidement et il est urgent de concevoir des robots qui puissent remplir des fonctions que seuls les humains sont aujourd'hui à même de réaliser", ont souligné les chercheurs dans un communiqué.

24 heures

^ Haut
Matière
Matière et Energie
Le DMF : biocarburant de l'avenir?
Vendredi, 29/06/2007 - 00:00

Retenez bien son nom : le DMF. Cette molécule barbare, le 2,5-diméthylfurane, pourrait bientôt détrôner le bioéthanol. Le DMF, mis au point par quatre chercheurs américains de l'Université du Wisconsin, offre plusieurs avantages. Le DMF a une efficacité énergétique supérieure de 40 % à celle du bioéthanol. A quantité égale, le DMF produira donc plus d'énergie. Il est de par sa structure chimique moins volatile puisque son point d'ébullition est supérieur de 20°C à celui des autres biocarburants. Moins volatile donc moins de perte. Ce qui veut dire plus économe.

Et surtout, contrairement à l'alcool, la nouvelle molécule est insoluble dans l'eau : il n'y a donc pas de danger d'absorption par l'eau contenue dans l'atmosphère ; ce qui fait qu'il est moins polluant. Comment arriver au DMF ? Le processus d'obtention du 2,5-diméthylfurane est original. Les chercheurs américains ont combiné deux méthodes, une phase biologique et une phase chimique. Dans un premier temps, l'équipe de James Dumesic a cassé, avec des enzymes, des longues chaînes d'amidon contenu dans le blé ou le maïs. Mais au lieu de faire fermenter le sucre ainsi obtenu - et donc le transformer en éthanol - ils l'ont mué par action enzymatique en un autre sucre : le fructose. Un sucre présent dans les fruits, certains légumes et le miel.

Ensuite, le fructose subit deux autres opérations chimiques. L'objectif est d'extraire les six atomes d'oxygène de la molécule. Une fois l'oxygène libéré, on obtient un biocarburant utilisable. Le fait de passer par une méthode chimique permet de convertir les molécules de sucre «mille fois plus vite qu'auparavant». Au delà du cas «DMF», le protocole établi par l'équipe de James Dumesic pourrait donner des idées à d'autres pour accélérer les synthèses de molécules.

Nature

65 % d'économies dans un système de chauffage
Vendredi, 29/06/2007 - 00:00

Une équipe de l'AIST, avec la collaboration de la mairie de Sapporo, a réalisé une étude, montrant qu'une économie d'énergie de 65 % était possible en ajoutant un agent de surface à l'eau de circulation d'un système de chauffage. Le système utilisé pour l'étude fonctionne avec une pompe d'une puissance de 37 kW, faisant circuler 32 tonnes d'eau dans un circuit fermé, chauffant ainsi un bâtiment de vingt étages. Apres analyse des caractéristiques de la canalisation, l'équipe a injecté un tensioactif (le LSP-01A de LSP Cooperative Society) avec une concentration de 0,5 % afin de réduire la résistance entre l'eau et la paroi des tuyaux, créant ainsi un flux laminaire.

L'ajout de tensioactif diminuant les pertes dans les canalisations, la puissance électrique consommée par la pompe a été réduite de 65 % à débit égal. Rapporté sur une année, ceci représente 58.000 kWh d'économie, soit environ 630.000 yens (4.000 euros) en considérant que la pompe fonctionne 10 heures par jour, 240 jours par an. En terme d'émission de CO2, ceci équivaut à une réduction de 32 tonnes par an.

L'expérience a été menée de fin février à mi-mai, ne montrant aucun problème particulier. Comme le système d'air conditionné utilise les mêmes canalisations, l'équipe étudiera cet été l'effet du tensioactif sur la climatisation, relisant ainsi un bilan global annuel d'économie d'énergie. Le groupe souhaite maintenant que cette étude soit mise en pratique, notamment dans les futures constructions, puisque l'économie d'énergie et la réduction d'émission de CO2 ont été prouvées.

BE

^ Haut
Espace
Espace et Cosmologie
Astrium dévoile son projet d'"avion-fusée"
Vendredi, 29/06/2007 - 00:00

Le leader européen du transport spatial va constituer, à partir de 2012, une flotte d'une vingtaine d'appareils effectuant des vols suborbitaux pour faciliter l'accès à l'espace et ouvrir la voie à une « nouvelle industrie ». Astrium, la filiale spatiale du géant européen EADS, entend « réveiller l'ambition spatiale de l'Europe » à l'heure où les États-Unis, la Russie, mais aussi des pays émergents comme la Chine et l'Inde, envisagent de s'installer sur la Lune ou de conquérir, un jour, la planète Mars.

D'où l'idée lancée, il y a deux ans, par de jeunes ingénieurs d'Astrium de mettre à profit l'énorme savoir-faire acquis par leur société, leader européen du transport spatial (Ariane, modules ATV et Columbus, missiles balistiques de la force de frappe), pour investir le créneau du tourisme spatial jusque-là occupé par des milliardaires éclairés, mais inexpérimentés.

Concocté et testé dans le plus grand secret, l'avion-fusée, dont la cabine a été conçue par le designer Marc Newson, emportera quatre passagers plus un pilote jusqu'à 100 kilomètres d'altitude pour un vol d'environ une heure et demie, dont trois minutes en complète apesanteur. De là-haut, et à condition d'y mettre le prix (entre 150 000 et 200 000 euros), il sera possible, pour ceux qui en rêvent, de contempler la Terre à travers de larges hublots en éprouvant les mêmes sensations que les astronautes qui séjournent à bord de la Station spatiale internationale (ISS). Le tout sans avoir à subir une préparation intensive de six mois ni à débourser 25 millions de dollars pour embarquer sur un Soyouz (soit entre 100 et 150 fois plus cher !) : un luxe que seulement cinq personnes ont pu s'offrir à ce jour.

Avec ses deux réacteurs latéraux, l'appareil qu'Astrium compte mettre en service en 2012 ressemble à un jet d'affaires aux faux airs de Caravelle, avec de longues et fines ailes, placées très en retrait, quasiment au niveau de la queue.

Mais la comparaison s'arrête là. Car, une fois atteinte l'altitude de 12 000 m, au terme d'une phase aéronautique classique d'environ 45 minutes, le pilote coupe les réacteurs et actionne le « moteur fusée » à propulsion oxygène-méthane (donc très peu polluant) situé à l'arrière, dans l'axe de l'appareil, qui s'élève alors brusquement à la verticale. Pendant 80 secondes de vol hypersonique à la vitesse de Mach 3, le vaisseau subit une poussée allant jusqu'à 3 g, « parfaitement supportable par n'importe quelle personne en bonne santé », précise Robert Lainé, le responsable technique du projet.

À 60 km d'altitude, la propulsion fusée est coupée et l'engin poursuit sur sa lancée jusqu'à environ 100 km, c'est-à-dire aux portes de l'espace, avant de redescendre. Au terme de la phase d'apesanteur, l'appareil est freiné par les couches de plus en plus denses de l'atmosphère jusqu'à l'altitude de 15 km où les « réacteurs avions » prennent le relais pour la descente et l'atterrissage. Ce dernier, tout comme le décollage, s'effectue sur une piste classique.

« Nous avons choisi ce concept d'avion autonome capable d'assurer les deux phases de vol, aéronautique et spatial, parce que c'est incontestablement la meilleure solution en terme de sécurité, de confort et de coût », explique François Auque. Les projets concurrents font appel soit à des petits lanceurs soit à deux avions : un petit accroché sur un grand dont il se sépare au-delà d'une certaine altitude pour emmener les passagers vers l'espace.

Astrium se dit prêt à constituer progressivement, à l'horizon 2020, une flotte d'une vingtaine d'appareils, à un rythme de fabrication de cinq par an en mobilisant son infrastructure industrielle et celle d'EADS pour la partie aéronautique. Chaque appareil est conçu pour voler dix ans à raison d'un vol par semaine, moyennant le changement du moteur fusée tous les trente vols.

Figaro

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
2070 : coup de chaud sur la France
Vendredi, 29/06/2007 - 00:00

Le thermomètre à 42° et la Seine à sec. Paris vue par Météo France en 2070 est une fournaise. Toute la France aussi. La canicule de 2003 ? « Juste un petit coup de chaud », s'exclame Stéphane Hallegatte, climatologue chez Météo France. Ce spécialiste a mené une étude prospective, en coopération avec le Centre international de recherches sur l'environnement et le développement (Cired). Selon ce travail, que révèle Terra Economica, c'est la carte du climat de l'hexagone toute entière qui va être chamboulée dans les prochaines décennies. Et pas à moitié.

Exemple avec la ville de Paris, avec une hypothèse plutôt pessimiste sur la réponse du climat (celle proposée par les Anglais du Hadley Center). Si rien n'est fait pour limiter les émissions de gaz à effet de serre, alors le climat qui régnera sur la capitale sera équivalent vers la fin de ce siècle à celui du Sud de l'Espagne. En résumé, il fera aux alentours de 45° en plein été. Dans une hypothèse plus optimiste, proposée par Météo-France, Paris connaîtra dans une soixantaine d'années les températures actuelles de Biarritz ou de Rome.

Alors la plage et les palmiers toute l'année ? Pas aussi simple. Aujourd'hui, explique Stéphane Hallegatte, la France vit « isolée de la contrainte environnementale ». En gros, les infrastructures sont d'une qualité technique telle que le pays évolue quasiment à l'abri du chaud, du froid, du manque d'eau et de la plupart des inondations. Mais tout est en train de changer. La production d'énergie, les ressources en eau, le secteur de l'habitat vont devoir s'adapter à vitesse grand V. Concrètement, c'est la vie quotidienne des Parisiens, pour poursuivre l'exemple, qui va être bouleversée. L'étude menée en 2003 sur l'impact du changement climatique sur la Seine (Gicc) imaginait notamment le fleuve quasiment à sec en fin d'été. Ceci est problématique pour la faune et la flore, bien entendu, mais aussi pour le refroidissement des centrales nucléaires.

Ce n'est pas tout. Stéphane Hallegatte estime « fort probable » l'équipement « massif » des logements de la région parisienne en appareils de climatisation. Il juge aussi logique une « hispanisation » des modes de vie dans la capitale française. Quant à certains immeubles de bureaux en verre, même la climatisation pourrait ne pas suffire à les rendre fréquentables lors des étés de la fin de ce siècle.

Pour s'adapter, pas d'autre solution que sortir le carnet de chèques. La France et les autres pays européens devront adapter leurs infrastructures, mais aussi reconsidérer les zones d'agriculture, accroître la quantité de bassins de rétention d'eau, etc. Cette adaptation a un coût : « nos infrastructures et nos logements représentent environ 300 % du PIB de la France, estime le chercheur. Donc, remplacer 1% des ces infrastructures par an pour les adapter au changement climatique nous coûterait 3 % de notre PIB ! »

TE

L'eau de pluie : une ressource dans la valorisation de l'espace urbain
Vendredi, 29/06/2007 - 00:00

Longtemps considérées comme un déchet ou une menace, dont il fallait se débarrasser, les eaux de pluie sont désormais perçues comme une ressource et même comme un élément majeur de valorisation de l'espace urbain. Qualifiée par les spécialistes de la gestion des eaux pluviales de "rendez-vous incontournable", la 6ème conférence internationale Novatech à Lyon, vise à faire le point des techniques les plus innovantes dans ce domaine.

"Pendant 150 ans on a considéré l'eau de pluie comme une menace car elle risquait d'inonder la ville (...), depuis 20 ans on se dit que c'est une ressource", explique à l'AFP Bernard Chocat, président du comité scientifique de Novatech. Une ressource "en tant que matière" mais aussi "pour aménager l'espace". "C'est une façon de structurer la ville, de l'organiser autour d'espaces verts. On va construire un quartier autour d'un plan d'eau et organiser l'espace autour d'un relief", explique M. Chocat.

D'où "une très forte participation de paysagistes, d'architectes, d'urbanistes qui sont en train de s'approprier les (nouvelles) techniques", se félicite-t-il. "Les gens qui continuent à utiliser les vieilles technologies pour gérer l'eau de pluie sont sur le mauvais versant car le sens de l'Histoire c'est de changer les modalités de gestion et utiliser les techniques alternatives", assure-t-il. Dans ce domaine, la "compétence lyonnaise" fait figure de "référence internationale". "Ce qui est spécifique à Lyon, c'est la volonté d'asseoir ce développement technologique sur un effort de recherche et des connaissances scientifiques solides", explique ce professeur à l'INSA (Institut National des Sciences Appliquées).

Parmi les technologies développées à Lyon : l'utilisation de filtres plantés de roseaux, sorte de marécage artificiel construit pour épurer l'eau. "Ce n'est plus un ouvrage au sens traditionnel, il faut rajouter de la biologie, de l'écologie car c'est un système vivant qui évolue, et de la sociologie, - comment les gens acceptent ça en ville-", souligne M. Chocat. "Avant, l'assainissement consistait à drainer des marécages, et là c'est complètement inverse, l'assainissement c'est reconstruire des marécages", observe-t-il. C'est, selon l'expert, "une révolution au sens propre, qui a commencé il y a 25 ans et a évolué par niches".

Avec ses bassins d'eaux pluviales traités comme des lacs d'agrément, la Zone d'Activité de la Porte des Alpes, près de Lyon, est un exemple de l'intégration des eaux pluviales dans la conception urbaine. Il n'y a pas de solution unique pour limiter les risques d'inondation et diminuer la pollution. Toitures végétalisées stockantes, chaussées à structures réservoir dans les villes sont autant de "technologies douces" pour y parvenir.

AFP

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Des cellules souches auraient été créées sans tuer d'embryon
Vendredi, 29/06/2007 - 00:00

Des chercheurs d'une entreprise américaine ont annoncé être parvenus à développer des cellules souches embryonnaires humaines grâce à une méthode ne nuisant pas aux embryons. La nécessité de détruire un embryon pour produire des cellules souches constitue l'obstacle éthique majeur à la recherche sur cette technique médicale prometteuse. Les scientifiques de la compagnie Advanced Cell Technology (ACT) ont annoncé avoir produit plusieurs groupes de cellules souches à partir d'une seule cellule, prélevée sur un embryon qu'ils ont ensuite congelé sain et sauf.

"Nous avons généré trois lignées" a déclaré à Reuters le Docteur Robert Lanza. "Ce sont les premières cellules souches embryonnaires humaines existantes qui ne proviennent pas de la destruction d'un embryon."Lanza a brièvement résumé ces travaux lors d'une réunion de la société internationale pour la recherche sur les cellules souches en Australie. Il prévoit d'en publier les détails dans une revue médicale.

ACT espère que cette technique pourra permettre de contourner les objections éthiques à la recherche sur les cellules souches. Le président américain George Bush a opposé son veto cette semaine à un projet de loi qui proposait d'augmenter le financement fédéral pour ce type de recherches. Selon les scientifiques, les cellules souches, qui proviennent d'embryons âgés de quelques jours, pourraient permettre de régénérer tous types de tissus, des cellules sanguines et peut-être même des organes entiers.

ACT

Maladie de Parkinson : un essai encourageant de thérapie génique
Vendredi, 29/06/2007 - 00:00

Selon une étude américaine publiée dans la revue médicale The Lancet, un essai préliminaire de thérapie génique, sur douze patients volontaires atteints d'une maladie de Parkinson évoluée, a donné des résultats encourageants.Ce travail préliminaire représente un premier pas "encourageant", selon les responsables new-yorkais de l'étude Michael Kaplitt et Matthew During (Cornell University) qui voient là une base de travail pour élaborer des modèles de thérapies géniques pour diverses maladies neurodégénératives.

L'essai a porté sur 12 volontaires dont une femme à un stade avancé de la maladie. Il avait seulement pour but d'évaluer la sécurité et la bonne tolérance de cette thérapie, injectée directement dans un seul côté du cerveau, l'autre côté servant en quelque sorte de témoin. Il a néanmoins permis de constater une amélioration significative, trois mois après la thérapie génique, sur la moitié du corps gouvernée par la région du cerveau traitée. Cette amélioration a persisté pendant les douze mois de l'étude. Aucun effet indésirable n'a été enregistré dans les deux ans à trois ans de suivi des patients.

Lancet

Clonage thérapeutique réussi chez un primate
Vendredi, 29/06/2007 - 00:00

Jusqu'à présent, la technique de clonage utilisée pour reproduire la brebis Dolly en 1997 n'a donné aucun résultat chez les primates. L'annonce faite par des chercheurs américains, lors de la réunion de la Société de recherches sur les cellules souches (SSCR) à Cairns, en Australie, a donc eu son petit effet. L'équipe de Shoukhrat Mitalipov affirme avoir cloné un singe rhésus macaque grâce à la technique de transfert nucléaire, qui consiste à placer le noyau d'une cellule adulte dans un ovocyte énucléé.

Ces chercheurs du Centre de recherche sur les primates de l'Oregon ont utilisé des cellules de la peau d'un macaque âgé de 10 ans. Ils ont obtenu 20 blastocystes (des embryons de quelques jours) et dérivé deux lignées de cellules souches, qui précisent-ils, ont passé avec succès plusieurs tests confirmant leur statut de cellules pluripotentes.

Les échecs répétés de clonage des primates avaient amené certains chercheurs à penser que cette technique n'aboutirait jamais chez les singes et les hommes. Le premier singe rhésus cloné par l'équipe de Gerald Schatten début 2000 est issu d'un même embryon divisé en deux. Sont arrivés ensuite les premiers résultats du Professeur Hwang, en Corée du Sud, qui ont fait croire que le clonage thérapeutique était possible chez l'homme et que l'on pouvait fabriquer des cellules souches embryonnaires ''sur mesure'' pour une future médecine régénératrice. Une fois la fraude reconnue, les chercheurs sont revenus au point de départ.

Lors de la présentation de ses travaux à Cairns, Mitalipov a expliqué que son équipe avait amélioré la technique de transfert du noyau afin de ne pas endommager les facteurs de l'ovocyte qui permettent de reprogrammer le noyau de la cellule adulte, une étape cruciale pour la réussite du clonage qui semble particulièrement complexe chez les primates.Les détails des travaux de Shoukhrat Mitalipov et de ses collègues, qui n'ont pas encore été publiés, sont donc très attendus par la communauté scientifique. Ils devront être reproduits pour être validés.

S&A

L'insuffisance rénale mauvaise pour le coeur
Vendredi, 29/06/2007 - 00:00

Surprise pour le milieu scientifique : l'insuffisance rénale a le temps d'entraîner des lésions cardiaques chez un malade, bien avant l'apparition de symptômes, selon une nouvelle étude américaine. Ce travail, qui concerne plus de 50.000 patients américains, est publié dans le dernier numéro du journal "Archives of Internal Medicine". Il devrait inciter les médecins à diagnostiquer plus tôt une insuffisance rénale. Cela ne coûtera que le prix d'une analyse de sang et d'urine, soit moins de 25 dollars ou 18,5 euros. Un examen que ses défenseurs veulent rendre banal, tout comme le dosage du cholestérol.

"Le patient moyen connaît son taux de cholestérol", observe le Docteur Peter McCullough, directeur de médecine préventive à l'hôpital William Beaumont du Michigan. "En revanche, le patient moyen n'a aucune idée de l'état de sa fonction rénale." L'insuffisance rénale chronique est une épidémie silencieuse : on estime que des millions de personnes en sont atteintes sans le savoir. Les reins perdent leur capacité à filtrer le sang si lentement que les symptômes n'apparaissent que lorsque la maladie est installée. A ce stade, la phase terminale est rapidement atteinte. Aux USA, 400.000 personnes ont ainsi besoin d'une dialyse ou d'une transplantation pour survivre.

Alors que les insuffisants rénaux ont peur de la dialyse, en réalité la plupart vont mourir de complications cardiaques avant que leurs reins n'arrivent à ce stade. Une notion connue des spécialistes du rein mais ignorée du reste de la profession. McCullough et son équipe ont suivi près de 37.000 personnes âgées de 53 ans en moyenne qui s'étaient portées volontaires pour la surveillance de leur rein. Trois marqueurs de la fonction rénale ont été analysés : la filtration glomérulaire, le taux d'albumine urinaire et la recherche d'une anémie. Ils ont par ailleurs été interrogés sur l'existence d'une malade cardiovasculaire préalable.

Selon les résultats, plus les marqueurs affichaient des taux inquiétants et plus les risques d'avoir une maladie cardiovasculaire augmentaient. Bien qu'on ne meurt pas à cet âge, les personnes qui présentaient des problèmes rénaux associés à une maladie cardiovasculaire connue avaient trois fois plus de risques de mourir dans les deux ans et demi, et pour la majorité d'entre eux de problèmes cardio-vasculaires. McCullough explique ce phénomène par le fait que le coeur et les reins envoient des signaux à la moelle épinière qui, en réponse, fabrique une variété de cellules souches capables de les conserver en bon état. Mais quand l'un des deux organes se met à dysfonctionner, ce mécanisme ne fonctionne plus.

AP

Maladie d'Alzheimer : quatre fois plus de malades en 2050...
Vendredi, 29/06/2007 - 00:00

A l'échelle mondiale, 26 millions de personnes souffriraient de la maladie d'Alzheimer et ce chiffre impressionnant pourrait être multiplié par quatre d'ici 2050 et atteindre 106 millions. Une équipe américaine sonne l'alarme. Le Professeur Ron Brookmeyer de la Johns Hopkins University de Baltimore, travaille sur le sujet depuis de nombreuses années. Allongement de l'espérance de vie oblige, en 2050 une personne sur 85 sera frappée par la maladie d'Alzheimer. Près de la moitié de ces malades (43 %) « auront besoin d'un niveau de prise en charge et d'accompagnement élevés », prévient Brookmeyer.

Et l'auteur d'appeler les autorités sanitaires de tous pays à se mobiliser pour anticiper au mieux cette « épidémie à venir ». Selon Brookmeyer et ses co-auteurs, les mesures et traitements qui pourraient retarder le début de la maladie d'Alzheimer de seulement un an près réduiraient en effet de 12 millions le nombre de nouveaux cas en 2050.

La plus forte progression de l'incidence concernera -sans surprise- le continent asiatique. D'après les estimations de Brookmeyer, 63 millions de cas y seront recensés en 2050. Contre 12 millions actuellement, soit une multiplication par 5 ! En France d'après le ministère de la santé, 800 000 personnes sont concernées par la maladie. Mais 165 000 nouveaux cas surviennent chaque année.

JHU-

Maladie d'Alzheimer : les nouveaux neurones n'arrivent pas à survivre
Vendredi, 29/06/2007 - 00:00

La maladie d'Alzheimer, qui atteint plus de 25 millions de personnes dans le monde, est la première cause de démence chez l'adulte et la personne âgée. Cette maladie se caractérise entre autres par la formation dans le cerveau des malades, de plaques séniles contenant des formes insolubles du peptide β-amyloïde (Aβ), dérivé du précurseur APP (Aβ-containing precursor protein).

Un des symptômes les plus précoces de la maladie d'Alzheimer est le déficit de mémoire à court terme. Aujourd'hui il est clairement établi que l'hippocampe joue un rôle critique dans les processus de mémorisation à court terme. C'est justement dans le gyrus denté de l'hippocampe qu'ont récemment été découvertes des cellules progénitrices, c'est-à-dire capables de se diviser pour donner naissance à de nouvelles cellules nerveuses qui se différencient en neurones ou en cellules gliales. Ce phénomène, impliqué dans le développement du système nerveux et nommé neurogenèse, persiste tout au long de la vie adulte chez les mammifères. Il contribue à l'ajout d'un nombre significatif de nouvelles cellules au sein du DG.

Il est probable que la perturbation des processus de neurogenèse adulte dans le cerveau atteint de la maladie d'Alzheimer contribue à l'apparition des troubles comportementaux associés. De précédentes études ont montré que la présence du peptide Aβ inhibe la différenciation des nouvelles cellules in vitro en déclenchant des mécanismes de mort cellulaires au sein des cellules progénitrices, suggérant ainsi que l'accumulation de ce peptide constitue un facteur hostile à cette différenciation. Afin d'évaluer l'hypothèse selon laquelle le remplacement cellulaire via le mécanisme de neurogenèse du cerveau adulte est limité par un environnement délétère présent dans le cerveau atteint de la maladie d'Alzheimer, l'équipe de Claire Rampon, au Centre de recherches sur la cognition animale a examiné la neurogenèse chez des souris modèles de cette maladie.

Dans leur article, ces chercheurs montrent que la production de nouveaux neurones dans l'hippocampe est drastiquement réduite chez les souris porteuses de la mutation sur les gènes APP et APP/PS1 qui sont respectivement modèles des phases précoces et tardives de la maladie. La prolifération des progéniteurs neuraux de l'hippocampe n'est pas affectée par la sur-production des formes circulantes ni agrégées du peptide Aβ. Ces données suggèrent que cette capacité à produire de nouvelles cellules nerveuses pourrait potentiellement être utilisée comme stratégie thérapeutique pour compenser les pertes neuronales inhérentes à la maladie. En revanche, cette étude montre que la survie des cellules nerveuses nouvellement nées est fortement réduite dans le cerveau de souris possédant de nombreuses plaques amyloïdes, caractéristiques d'un stade avancé de la maladie d'Alzheimer.

Les auteurs de ce travail observent que les nouveaux neurones disparaissent spécifiquement et relativement tard au cours de leur processus de maturation. De façon inattendue, cette même observation a été faite non seulement chez les souris modèles des stades avancés de la maladie mais également chez les animaux mimant les stades précoces de la maladie d'Alzheimer.

La diminution de la production de nouveaux neurones hippocampiques est donc mesurable avant même que les troubles cognitifs ne soient détectés chez ces souris, suggérant que ce ralentissement du renouvellement neuronal pourrait contribuer au développement du déclin cognitif observé dans ce modèle animal. Dans ce contexte, et puisque la capacité à produire de nouveaux neurones est conservée dans cette pathologie, les stratégies telles que les stimulations environnementales, les traitements antidépresseurs ou l'exercice physique, connues pour augmenter la survie des nouveaux neurones, pourraient favoriser le ralentissement du déclin cognitif chez les modèles murins de la maladie d'Alzheimer. Il est désormais primordial de déterminer ce qui, dans le cadre de cette maladie, empêche les nouveaux neurones de se développer en neurones matures et fonctionnels.

CNRS

^ Haut
Recherche
Recherche & Innovation, Technologies, Transports
La voiture sans pilote, c'est pour 2015
Vendredi, 29/06/2007 - 00:00

Junior, c'est la nouvelle voiture sans pilote conçue par le labo d'IA (intelligence artificielle) de l'université de Stanford. Junior parce que cette VW Passat, passablement transformée, roule sur les traces d'un certain Stanley, qui remporta en 2005 le Grand Challenge, une épreuve infernale : traverser quelque 200 km de désert entre Californie et Nevada, sur des pistes improbables. Sans pilote, bien sûr.

L'équipe de chercheurs et d'étudiants de Stanford, déjà dirigée par Sebastien Thrun, démontra la supériorité de ses algorithmes. Junior est engagé dans une nouvelle course, Urban Challenge, organisée comme la précédente par la Darpa (Defense Advanced Research Projects Agency). Votre mission, si vous l'acceptez : circuler dans un environnement urbain. Peuplé d'autres véhicules et même de piétons. De quoi regretter le désert.

A quoi joue la Darpa ? Simple : le Pentagone a décidé que dès 2015, un tiers de ses véhicules terrestres devraient rouler sans pilote. Junior vient de passer sa première épreuve officielle. Des hommes de la Darpa lui ont imposé quelques tests : dépassement d'un véhicule arrêté, demi-tour, passage d'une intersection... Junior a eu une hésitation, mais a finalement emporté l'affaire. Les 53 équipes engagées dans cette course feront ainsi l'objet d'épreuves préliminaires, afin de désigner 30 demi-finalistes, qui doivent s'affronter pendant six jours à la fin octobre, la finale étant prévue le 3 novembre.

Stanford devrait rencontrer quelques adversaires coriaces, notamment les équipes de Carnegie Mellon, du MIT, de Georgia Tech et de Berkeley. Stanford ne s'endort pas sur ses lauriers de 2005. Junior est bien plus qu'un Stanley pour le bitume. La grande nouveauté est un oeil d'un nouveau genre, sur le toit. Il s'agit d'un "lidar", sorte de radar à laser. Mais celui-ci est bien supérieur à ceux qui équipaient Stanley. Il est rotatif, de marque Velodyne, et donne à Junior une vision sur 360°. Avec une perception précise des distances jusqu'à 50 mètres.

D'autres lidars (huit en tout), simples, voient plus loin ou plus près. S'y ajoutent notamment six caméras haute définition et deux GPS. Dans le coffre, deux puissants PC font tourner les logiciels qui donnent à Junior ce brin d'intelligence qui lui permet de "voir" un peu, de distinguer les éléments fixes du décor et les autres mobiles, de prendre des décisions comme freiner ou tourner, de commander les organes de la voiture pour obtenir le résultat escompté... Si l'on en croit le Pentagone, les descendants de Junior devraient sillonner les théâtres d'opération de 2015. Sebastian Thrun clame aussi que les premières voitures civiles autopilotées pourraient faire leur apparition vers 2030.

Rue 89.com

Chevrolet Sequel : 482 km à l'hydrogène
Vendredi, 29/06/2007 - 00:00

482 kilomètres : voilà ce qu'a pu parcourir le Chevrolet Sequel fonctionnant à l'hydrogène sans polluer et en ne produisant qu'un mince filet de vapeur d'eau. « Grâce à cette énergie écologique, General Motors a franchi une étape importante vers la commercialisation de véhicules « Fuel Cell », alliant une technologie avant-gardiste à un modèle répondant aux besoins des automobilistes » a déclaré Larry Burns, Vice-Président Recherche & Développement et du planning stratégique pour General Motors.

« De plus, l'hydrogène utilisé par le Chevrolet Sequel provenant des chutes du Niagara, est directement issu de l'énergie hydro-électrique, renouvelable et propre. Schématiquement, le CO2 est donc absent du cycle du fonctionnement du Sequel ».

Le Chevrolet Sequel, présenté en 2005 au Salon de l'Automobile de Detroit, fut le premier prototype roulant, ayant pu être essayé dès l'automne dernier. C'est aujourd'hui le seul véhicule au monde à avoir réussi à intégrer un système de propulsion fonctionnant à l'hydrogène. Il dispose d'une large palette de nouvelles technologies telles qu'une direction et un freinage contrôlés électroniquement, des batteries lithium-ion, une structure en aluminium allégée et quatre roues à motorisation indépendante.

Webcarnews

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top