RTFlash

RTFlash a besoin de vous pour continuer à exister !

Propulsé par HelloAsso

RTFLASH Recherche & Technologie
NUMERO 498
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 11 Décembre 2008
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
Internet de plus en plus présent dans le quotidien des Français
Avenir
Le robot fait office de médecin urgentiste
Embarquer de minuscules robots dans la lutte contre le cancer
Matière
Une bactérie E. coli modifiée pourrait produire un meilleur biocarburant
Energies renouvelables: l'avenir est en mer
La biomasse peut couvrir 10% des besoins énergétiques mondiaux
EDF met en service le "plus grand parc éolien" en Eure-et-Loir
De l'énergie électrique à partir de la chaleur d'échappement
Synthèse d'hydrogène à partir d'énergie solaire : premiers résultats très prometteurs
Espace
Hubble découvre du dioxyde de carbone sur une lointaine planète
Vivant
Paludisme: un vaccin enfin en vue
Un lien génétique entre la régulation du cycle circadien et le diabète de type 2.
Cellules gliales : Finis les rôles de figuration
La perception sensorielle donne du sens aux mots
Recherche
Berlin, ville pionnière en Europe pour les voitures à hydrogène
Edito
Comment la fibre optique va nous permettre d'entrer dans une ère nouvelle : celle de l'économie du Savoir qui permettra de créer plusieurs millions d'emplois en France



Notre Monde ne va pas bien. Des entreprises ferment. Les ventes stagnent et même régressent parfois. Les niveaux atteints par les stocks deviennent inquiétants. Le chômage augmente à une vitesse sidérante.

Les gens broient du noir. Ils sont « bougons » parce qu'ils sont inquiets : ils n'arrivent plus à imaginer de quoi l'avenir sera fait.

Et pourtant, jamais dans l'Histoire de l'Homme, l'avenir n'aurait été aussi radieux si l'Humanité dans sa globalité, tirant les leçons du choc auquel elle doit faire face actuellement, s'organisait pour utiliser au mieux toutes nos connaissances.

Si, pendant quelques instants, nous nous retournons pour regarder le chemin parcouru par l'Humanité, grâce aux technologies, depuis deux siècles, nous constatons l'immensité de l'oeuvre accomplie.

En 1808, pendant les guerres napoléoniennes, alors que l'espérance de vie, en France, était retombée à 30 ans (source INED), les objets qui entouraient le lit de mort d'un homme étaient les mêmes que ceux qui avaient été placés près de son berceau.

En ce début de XXIe Siècle, un enfant sur deux qui naissent à la chance statistique de devenir centenaire mais il aura un défi qu'aucun autre homme n'aura eu à relever avant lui : le Monde qui l'entourera au début du XXII° Siècle n'aura plus grand-chose à voir avec le Monde d'aujourd'hui.

Les deux plus grandes inventions qui changèrent de façon structurelle la vie de l'humanité dans ces deux derniers siècles furent la machine à vapeur et l'électricité. Elles permirent, dans nos pays avancés, à la machine de remplacer, progressivement, les muscles de l'homme et des animaux (cheval, boeuf, âne, etc...) qui nous permettaient de faire des travaux de force et de nous déplacer.

Aujourd'hui, nous n'allons plus tirer l'eau au puits, nos mères et nos soeurs ne vont plus au lavoir pour laver le linge. Grâce à l'électricité nous pouvons nous éclairer et réserver plus de temps à l'acquisition de connaissances. Grâce à l'électricité nous faisons tourner des milliards d'ordinateurs qui ont fait faire des bonds prodigieux à la condition humaine depuis quelques décennies.

Or, il y a une nouvelle technologie, celle de la communication globale et instantanée, qui changera encore plus profondément le sort de l'humanité, dans ce prochain siècle, que n'a su le faire l'électricité dans ces deux derniers siècles.

Qui aurait cru, en 1808, qu'une personne habitant Paris pourrait échanger une conversation, en temps réel, avec une personne habitant Tokyo ou Nouméa. Si vous aviez affirmé cela au début du XIXe Siècle, on vous aurait traité de fou tant cela dépassait, alors, l'entendement.

Si je vous dis aujourd'hui que notre enveloppe charnelle va devenir virtuelle et que notre cerveau, donc notre intelligence, notre mémoire, notre culture, nos savoirs, pourra se déplacer à la vitesse de la lumière (en attendant mieux !) vous serez quasi unanimes pour me dire aussi dérangé que l'humain qui aurait annoncé en 1800 la possibilité de converser, en temps réel, avec une personne placée aux antipodes.

Et pourtant, tous les travaux les plus avancés dans les laboratoires en pointe de la connaissance sont cohérents dans leurs prévisions : cela sera possible dans des temps maintenant relativement courts (deux décennies au plus).

Qu'est-ce que cela veut dire ?

Cela signifie, entre autres multiples applications, que l'enseignement initial et l'acquisition de connaissances vont être totalement bouleversés.

Ainsi, nos enfants et petits-enfants, pour apprendre une langue mais aussi pour participer à la nécessaire globalisation culturelle de notre planète, passeront, chaque jour, quelques heures avec des petits copains « virtuels » qui se trouveront dans leurs propres classes aux Etats-Unis, en Chine, au Mexique ou ailleurs. Les cerveaux des enfants étant, à cet âge là, de véritables éponges, tous les gamins du monde âgés de 5 à 8 ans pourraient avoir, dans quelques décennies plusieurs langues maternelles, si nous en avons la volonté.

Ces échanges qui fourniront aux enfants la sensation de réellement se rencontrer (car c'est ainsi que leur cerveau l'interprétera) vont multiplier par une valeur aujourd'hui non évaluable, tant elle sera grande, les capacités d'apprentissage et de relations entre les êtres humains.

A terme, il n'y aura pas un seul être humain qui ne sera pas concerné par cette révolution. Tous les métiers, sans exception, vont être profondément bouleversés par ces modifications profondes dans les façons de communiquer et de travailler.

Toutes les personnes qui n'ont pas de matière première à manipuler ou à transformer vont voir leurs métiers radicalement évoluer. Ainsi, la secrétaire, l'architecte, le médecin, tous les employés, tous les fonctionnaires, etc., etc. (il faudrait plusieurs dizaines de pages pour citer tous les métiers concernés) pourront exercer avec la même efficacité leur métier s'ils peuvent connecter leur cerveau au futur réseau global ultra haut débit mondial quel que soit l'endroit où se trouvera leur enveloppe charnelle.

Cela signifie que des centaines de milliards d'heures (20 milliards d'heures pour la seule France) perdues chaque année, en déplacements qui seront devenus inutiles, seront reconquises sur les vies de tous les êtres humains afin de leur laisser plus de temps pour acquérir des connaissances nouvelles (pétrole du Futur) et améliorer la qualité de leur vie.

Cette seule baisse drastique des déplacements physiques, pour les remplacer par des déplacements virtuels, aura un effet bénéfique majeur sur l'avenir de notre Planète : elle fera baisser, dans une proportion, aujourd'hui inimaginable, les pollutions liées à l'automobile, à l'avion, à tous les moyens de transport, qui ternissent tellement, dans les conditions actuelles, l'avenir du Monde.

Certains me rétorqueront immédiatement que ma vision du monde futur n'entraîne pas à l'optimisme car elle suggère la disparition de très nombreux emplois liés aux déplacements (automobile, avionique, industries des transports).

Cela est vrai, comme cela était vrai au XIXe Siècle pour les fabricants de diligences, les cochers et autres postillons.

Depuis l'origine de l'Homme, les activités humaines ont toujours été en perpétuel bouleversement. Des activités nouvelles ont toujours surgi, se sont développées, ont régressé et ont disparu.

Pourquoi notre époque ferait-elle exception à cette longue Histoire de notre Humanité ?

Mais ce qui met la révolution qui s'annonce au premier rang des bouleversements de l'humanité, c'est que la communication globale avec le déplacement instantané de nos cerveaux sur l'ensemble de notre planète (et bientôt, sûrement, sur d'autres planètes) fera que le marché d'expression, de valorisation de chaque être humain, ne sera plus seulement son village ou même son pays mais bien l'ensemble de la Terre.

Ainsi, un médecin qui soigne aujourd'hui un habitant de son quartier ou de son village pourra le faire avec la même efficacité avec un habitant du Burkina Faso ou de la Terre de Feu.

Il en sera de même pour tous les métiers qui s'appuient sur la connaissance.

Ainsi, à côté de leurs classes réelles constituées d'élèves bien en chair, tous les instituteurs et professeurs de France pourront accueillir dans leurs cours des classes virtuelles issues de toutes les régions du Monde dont les élèves seront représentés par des clones tridimensionnels hyperréalistes et qui participeront à l'enseignement du Maître comme les élèves physiquement présents.

Les architectes, les ingénieurs mais aussi les commerçants, les artisans et bien d'autres pourront partager et faire profiter de leurs connaissances tous les habitants de la Terre qui voudront bénéficier de leurs savoirs.

Ce sont ainsi des dizaines de millions d'emplois qui vont se créer dans nos pays développés bénéficiant d'un fort acquis de connaissances pour aider les habitants de tous les pays qui, eux, n'ont pas encore engrangé suffisamment de savoirs pour entrer dans la modernité.

Cette mise à niveau intellectuelle de l'ensemble de notre Planète va être la plus grande aventure humaine du XXIe Siècle. L'économie du Savoir est appelée à prendre la première place parmi toutes les économies mondiales, que ce soit celle des biens matériels comme celle des biens immatériels.

Avec cette virtualisation des cerveaux, la puissance d'une Nation ou d'un Continent ne se mesurera plus dans la puissance de ses forces armées, dans sa capacité de disposer de matières premières ou d'unités de production, ni même dans son PIB mais bien dans sa capacité de former au mieux ses citoyens, ses habitants, pour les rendre plus efficaces dans la compétition intellectuelle ardue qui s'annonce.

Mais d'ici là nous avons un siècle de formation, d'acquisitions, de transferts de connaissances qui devrait être un siècle de Bonheur pour nos Pays qui ont su, qui ont pu, engranger tant de connaissances depuis des siècles.

Pour relever ce défi, d'une ampleur jusqu'alors inégalée dans l'Histoire humaine, chaque être humain devra être connecté aux autres humains grâce à un réseau global « ultra haut débit » qui dans moins de 20 ans sera nécessaire pour entrer dans cette ère de communication globale et instantanée s'appuyant sur un monde virtuel profondément imbriqué dans notre monde réel.

Les chercheurs les plus en pointe évaluent à un 1 Gigabit (1000 mégabits) minimum la bande passante qui sera nécessaire à chaque être humain pour entrer dans cette ère du Futur. Seule l'opticalisation intégrale (fibre optique et optronique) des réseaux permettra d'atteindre de telles performances.

En raison de l'impérieuse nécessité d'investir, sans retard, dans ces réseaux du Futur, il est dommage que les Gouvernements européens dans les plans de relance par l'investissement qu'ils viennent d'annoncer, n'aient pas placé en tête de leurs priorités le lancement de grands travaux dans toute l'Europe pour construire partout des réseaux de fibres optiques qui relieraient, dans les 20 ans qui viennent, tous les habitants de notre Continent.

Ce n'est que partie remise mais il est dommage que nous ayons raté le coche...

En effet, dès le 20 Janvier prochain, lors de son arrivée à la Maison Blanche, le Président Barack OBAMA annoncera un programme de 1000 milliards de dollars dans lequel il y a de fortes chances que soit placée en tête de toutes les priorités la construction de réseaux optiques irriguant l'ensemble des Etats-Unis. Comme l'avait fait Franklin D. Roosevelt, en 1933, avec la décision de desservir en électricité tous les villages des Etats-Unis, même les plus isolés, comme l'avait fait Dwight D. Eisenhower en lançant, en 1956, la construction de 60.000 Km d'autoroutes avec le Federal Aid Highway Act, Barack OBAMA, le nouveau président des Etats-Unis veut, par un investissement massif préparant l'avenir, replacer son Pays en tête des Nations éclairant le Futur, place que les Etats-Unis avait perdue depuis quelques années.

Il est dommage que les Gouvernants de notre vieille Europe n'aient pas encore pris conscience de la puissance de cette économie de la connaissance qui, dans ces toutes prochaines décennies, permettra la création de dizaines de millions d'emplois sur notre Continent.

Mais l'espoir venant dorénavant de l'« Obamania » comme l'a dit avec sa passion habituelle Jean Michel BILLAUT, dans un récent colloque de Renaissance Numérique, nous sommes convaincus, que nos gouvernants prendront enfin conscience de l'importance déterminante que va prendre l'économie numérique pour l'avenir de l'Humanité et décideront, enfin, de procéder à des investissements massifs dans les réseaux optiques.

Oui, disons le avec force, l'avenir peut être radieux si nous en avons la volonté.

René TRÉGOUÉT

Sénateur Honoraire

Fondateur du Groupe de Prospective du Sénat

e-mail : tregouet@gmail.com


TIC
Information et Communication
Internet de plus en plus présent dans le quotidien des Français
Vendredi, 12/12/2008 - 00:00

En 2008, l'usage d'Internet s'est encore accru dans la société française, surtout grâce aux offres "triple play" qui permettent d'accéder à Internet, au téléphone et à la télévision avec la même connexion. Le Centre de recherche pour l'étude et l'observation des conditions de vie (Credoc) a rendu publics, mercredi 10 décembre, les résultats de son enquête sur la diffusion des technologies de l'information et de la communication dans la société française, réalisée pour le compte de l'Autorité de régulation des communications électroniques et des postes (Arcep) et du Conseil général des technologies de l'information (CGTI).

Ainsi, 67 % des Français de plus de 18 ans disposent d'un ordinateur à domicile contre 64 % en 2007. Parmi eux, quasiment tous sont connectés à Internet, puisque 58 % (contre 53 % en 2007) des personnes interrogées déclarent disposer d'une connexion. Le bas-débit a quasiment totalement disparu : seulement 2 % des Français l'utilisent encore. L'écrasante majorité des internautes dispose ainsi d'une connexion ADSL, souvent associée à une offre "triple play".

Ce sont les plus de 60 ans et les Français les plus pauvres qui sont les moins connectés. Ainsi, seuls 14 % des plus de 70 ans et un tiers des personnes qui appartiennent à un foyer disposant d'un revenu mensuel inférieur à 900 euros disposent d'une connexion à leur domicile.

Autre constat, l'Internet sur téléphone portable ne progresse toujours pas. Seulement 6 % des possesseurs de téléphone portable déclarent l'utiliser pour aller sur Internet, et encore moins pour regarder la télévision (2 %).

L'année 2008 est également marquée par le retour de la téléphonie fixe. Alors que le nombre de personnes qui disposent d'une ligne fixe ne cessait de reculer depuis 1997, il est remonté pour la première fois à 85 % de la population cette année. C'est encore une fois le développement des offres "triple play", qui passent par une ligne fixe, qui explique ce retour. A contrario, la téléphonie par ordinateur, via des logiciels comme Skype, plafonne à moins d'un Français sur dix. Le "triple play" fait également sentir ses effets sur la télévision : 17 % des Français déclarent recevoir la télévision par ADSL contre seulement 10 % l'année dernière.

Enfin, l'étude revient sur les pratiques des internautes français. Plus de sept millions de Français (14 % de la population) auraient un blog ou un site Internet en 2008. Le taux monte même à 53 % chez les adolescents.

LM

^ Haut
Avenir
Nanotechnologies et Robotique
Le robot fait office de médecin urgentiste
Vendredi, 12/12/2008 - 00:00

La télémédecine ne sert pas seulement à superviser à distance l'état de personnes ayant des maladies chroniques. Elle peut également être fort utile dans le cas d'urgences. C'est ainsi que le William Lehman Injury Research Center (WLIRC) a décidé de tester l'utilisation du robot RP-7 afin d'améliorer le traitement de personnes victimes d'accidents graves, tels qu'un accident vasculaire cérébrale. Défini à l'origine comme un robot de garde permettant aux malades de bénéficier de téléconsultations, le RP-7 devrait notamment être utilisé afin de réduire le délai de prise en charge des patients dans des hôpitaux où aucun spécialiste en traumatologie n'est disponible. "Il y a souvent pénurie de praticiens", explique Jonathan Linkous, le directeur de l'association américaine de télémédecine.

"Or il faut intervenir très vite dans le cas de certains traumatismes, comme par exemple un AVC : on dispose alors tout au plus d'une heure pour délivrer les premier soins". RP-7 permet justement de consulter à distance un médecin qui pourra évaluer la gravité de la situation. Le robot est connectable en haut débit à n'importe quel réseau 3G. Il est contrôlable à partir d'une interface facilement configurable sur n'importe quel ordinateur. Grâce à deux caméras et à un micro, le médecin peut observer le malade, zoomer, écouter le personnel hospitalier qui l'entoure etc. Il leur délivre les conseils nécessaires par l'intermédiaire d'un écran vidéo et de hauts-parleurs. De la sorte, le spécialiste le plus adéquat participe activement à la délivrance de soins.

Ce peut être en salle d'opération ou de réanimation, en soins intensifs etc. "Grâce à ce robot, un hôpital situé dans une zone rurale ou difficile d'accès peut enfin contacter le meilleur spécialiste qui soit afin qu'il aide le personnel soignant à faire le bon diagnostic et à mettre en place une stratégie thérapeutique". A l'inverse, le transfert par hélicoptère ou ambulance des patients vers un centre mieux équipé retarde souvent un traitement pourtant vital. Autre avantage de l'usage des robots en milieu hospitalier : ils réduiraient les risques d'infections nosocomiales.

Atelier

Embarquer de minuscules robots dans la lutte contre le cancer
Vendredi, 12/12/2008 - 00:00

Une nouvelle recherche européenne aura recours aux techniques de nanotechnologie les plus récentes en vue de mettre au point des nanoparticules capables de détecter et de localiser les tumeurs. Une fois la tumeur localisée, ces «nanites» de taille microscopique seront également en mesure de l'attaquer et de la neutraliser. Le projet NANOTHER («Integration of novel nanoparticle based technology for therapeutics and diagnosis of different types of cancer») est financé à hauteur de 8,5 millions d'euros par l'UE au titre du septième programme-cadre (7e PC).

Le cancer, parfois appelé «Big C» en anglais, constitue aujourd'hui l'une des premières causes de décès en Europe. Les données montrent que chaque année, la maladie est diagnostiquée chez près de 3,2 millions de personnes au sein de l'UE. En dépit des progrès récents réalisés dans le domaine de la lutte contre le cancer, le chemin qui reste à parcourir pour les scientifiques est semé d'embûches. L'UE est toutefois déterminée à trouver une solution. Elle envisage de faire appel à la discipline émergente de la nanotechnologie dans la lutte contre le cancer. Et NANOTHER est un projet qui répond à ses exigences.

La nanomédecine, à savoir le recours à la nanotechnologie dans le domaine de la médecine, demande encore à être pleinement exploitée. Les chercheurs nourrissent l'espoir de développer un système qui permettrait d'administrer le traitement destiné à combattre le cancer plus efficacement. À titre d'exemple, les dosages élevés seraient administrés en ciblant les cellules tumorales, permettant ainsi de réduire la posologie des médicaments utilisés.

En outre, un autre avantage consiste à réduire les effets secondaires qui se manifestent lorsque les méthodes actuelles de chimiothérapie et de radiothérapie sont utilisées. D'après les experts en nanomédecine, ces effets indésirables, associés à la mauvaise solubilité des médicaments, constituent parfois les facteurs qui empêchent ou limitent l'utilisation étendue des traitements actuels contre le cancer.

Ce qui fait de NANOTHER un projet unique est qu'il utilisera deux types de nanoparticules synthétiques: les nanoparticules polymériques et les nanoparticules magnétiques. Les nanoparticules polymériques contiennent des molécules qui permettent de reconnaître les cellules tumorales et d'orienter les médicaments vers les régions touchées. Les nanoparticules magnétiques aideront également à identifier les tumeurs et participeront à leur neutralisation en augmentant la température.

Les scientifiques expliquent que les nanoparticules présentent une superficie très élevée par rapport à leur volume, ce qui favorise la diffusion d'énergie de manière efficace, notamment dans des conditions où la température est élevée.

Le projet NANOTHER, d'une durée de 4 ans, comprend 18 partenaires de recherche d'Europe et d'ailleurs; le centre technologique espagnol GAIKER-IK4 est son coordinateur. Le groupe dispose d'une grande expérience dans la recherche et le développement d'instruments destinés à la détection précoce du cancer et d'autres maladies.

Cordis

^ Haut
Matière
Matière et Energie
Une bactérie E. coli modifiée pourrait produire un meilleur biocarburant
Vendredi, 12/12/2008 - 00:00

Des chercheurs américains ont mis au point une version synthétique de la bactérie intestinale très commune, Escherichia coli (E. coli), qui pourrait servir à produire des biocarburants de meilleure qualité. En modifiant la structure génétique de la bactérie, les chercheurs ont réussi à la stimuler pour faire en sorte qu'elle produise des alcools carbonés à longue chaîne, plus denses en énergie que ceux trouvés dans la nature, selon leurs travaux publiés par les Compte-rendus de l'Académie nationale des sciences.

L'éthanol, l'une des principales sources de biocarburant, contient deux atomes de carbone, et les alcools à longue chaîne les plus courants à l'état naturel ne contiennent pas plus de cinq atomes de carbone.Mais les alcools produits à l'aide d'E. coli dans le cadre de cette étude par un laboratoire de l'université de Californie à Los Angeles (ouest) contiennent jusqu'à huit atomes de carbone, ce qui les rend plus concentrés en énergie.

Ces alcools à longue chaîne sont également relativement aisés à séparer de l'eau, ce qui en fait des biocarburants idéaux."Un alcool à plus longue chaîne présente plusieurs avantages", explique le chercheur qui a dirigé ces travaux, James Liao. "Il produit plus d'énergie par gallon (un gallon = 3,79 litres), ne corrode pas le moteur et est plus facilement compatible avec le kérosène ou le diesel".

C'est la première fois que des chercheurs réussissent à synthétiser des alcools à longue chaîne.L'équipe de James Liao a inséré des chromosomes dans l'ADN de l'E.coli afin que la bactérie produise en plus grande quantité et dans une version plus longue un acide aminé. Deux gènes ajoutés aux chromosomes ont permis d'encoder des enzymes qui ont ensuite transformé ce composant en alcool à longue chaîne."La prochaine étape consistera à fabriquer des quantités suffisantes de ce composant et de passer la main à une entreprise pour la production", a expliqué M. Liao.

Yahoo

Energies renouvelables: l'avenir est en mer
Vendredi, 12/12/2008 - 00:00

Les océans qui couvrent 70% de la surface du globe sont une réserve inépuisable d'énergie, font valoir les scientifiques qui y voient une alternative crédible aux énergies fossiles responsables du changement climatique, enjeu de la conférence de Poznan. Les courants océaniques, les marées, la houle, les différences de températures entre la surface et le fond de la mer, peuvent être exploités pour fournir de l'électricité. Les projets se multiplient dans le monde, même si les technologies sont encore expérimentales.

"On en est au stade où il faut investir dans la recherche. Car à plus long terme, le potentiel est immense", souligne Jean-Louis Bal, directeur des énergies renouvelables à l'Agence de l'environnement et de la maîtrise de l'énergie (Ademe). L'Agence internationale de l'énergie (AIE) évalue à plus de 90.000 Térawatt heure (TWh) la puissance potentielle de l'ensemble de ces énergies marines dans le monde, un chiffre à comparer aux quelque 18.000 TWh de la production mondiale d'électricité.

Il faut cependant faire la différence entre le "potentiel naturel" théorique de ces énergies et leur "potentiel techniquement exploitable", nuance Michel Paillard, spécialiste des énergies marines à l'Ifremer. Il faut également tenir compte des contraintes socio-économiques et environnementales.Mais les perspectives restent "très intéressantes", souligne-t-il.

Des dizaines de projets de "houlomotricité" fleurissent en Europe.Les vagues permettent d'actionner des turbines génératrices d'énergie, l'électricité produite étant ensuite transportée par câbles sous-marins vers la côte pour un raccordement au réseau.Le Portugal expérimente actuellement le Pelamis britannique, sorte de serpent composé de trois tubes de 150 m de long récupérant l'énergie de la houle, et susceptible d'alimenter en électricité environ 2.000 foyers.

En France, le Centre national de la recherche scientifique (CNRS) a dans ses cartons un projet de "Système électrique autonome de récupération de l'énergie des vagues" (Searev) - un énorme flotteur à l'intérieur duquel est suspendu un pendule de 400 tonnes relié à un mécanisme permettant de convertir l'énergie mécanique en électricité et qui devra être testé en mer à l'été 2010.Sous l'eau, des hydroliennes pourraient produire de l'électricité en utilisant les courants pour faire tourner des turbines.Les courants marins constituent une ressource énergétique intéressante car l'eau est 1.000 fois plus dense que l'air, soulignent les experts.

Pour être fonctionnelles, ces éoliennes sous-marines nécessitent une vitesse de courant supérieure à 1 mètre par seconde.EDF a un projet d'installation d'hydroliennes entre 2011 et 2012 au large de Paimpol (Côtes d'Armor), en Bretagne, dans un secteur où l'intensité des courants atteint des niveaux parmi les plus élevés d'Europe.Par ailleurs, l'usine marémotrice de la Rance (240 MW) permet depuis 1960 de capter l'énergie des courants de marée à partir d'un barrage.

Mais le potentiel de ce type d'installations reste limité en raison notamment du faible nombre de sites capables de les accueillir.L'énergie thermique générée par la différence de température entre l'air et l'eau peut servir à la climatisation. L'hôtel Intercontinental de Bora-Bora en Polynséie française est climatisé grâce à une canalisation sous-marine permettant de refroidir les locaux en faisant remonter de l'eau de mer glacée puisée à plus de 800 m de profondeur.

Yahoo

La biomasse peut couvrir 10% des besoins énergétiques mondiaux
Vendredi, 12/12/2008 - 00:00

La biomasse peut couvrir à moyen terme 10% des besoins énergétiques mondiaux, selon une étude du Conseil sur les changements écologiques globaux, qui assiste le gouvernement allemand.

Ce rapport souligne qu'il est déterminant pour le succès durable de la biomasse que la production énergétique ne se fasse pas aux dépens de la production alimentaire et de la protection du climat et de l'environnement, selon un communiqué du ministère allemand de l'Environnement, un des récipiendaires de l'étude.La biomasse constitue une source d'énergie obtenue à partir de la combustion de bois, de déchets organiques, et de sous-produits du bois, de l'industrie et de l'agriculture.

Pour ménager l'avenir alimentaire et climatique, des normes internationales doivent être introduites afin de garantir des critères de durabilité dans la culture de la biomasse, selon les experts du Conseil (WBGU).En outre, les scientifiques suggèrent d'élaborer des bilans plus précis de l'impact sur les émissions de gaz à effet de la biomasse, en étudiant cette dernière au cas par cas, en fonction de l'espèce.

La secrétaire d'Etat parlementaire du ministère au Développement Karin Kortmann a estimé que cette étude "montre clairement (que les) efforts pour réduire le CO2 ne saurait conduire à la pauvreté, la faim, la destruction de l'environnement et l'affaiblissement de la diversité biologique"."Le droit à l'alimentation pèse plus lourd que le droit à la mobilité", a-t-elle ajouté.La biomasse, dont on tire une énergie considérée dans la plupart des cas comme renouvelable, est accusée de favoriser la déforestation et l'envolée des prix alimentaires. En effet, la part de surface cultivable qui y est consacrée va croissant, sa culture étant plus lucrative.

HN

EDF met en service le "plus grand parc éolien" en Eure-et-Loir
Vendredi, 12/12/2008 - 00:00

EDF Energies Nouvelles, la filiale énergies renouvelables du groupe d'électricité EDF, a mis en service en Eure-et-Loir le "plus grand parc éolien à ce jour", d'une capacité de 52 mégawatts (MW), Le parc du Chemin d'Ablis, situé sur huit communes du département, comprend 26 éoliennes qui longent l'autoroute A10 sur 17 km, une situation qui fait du parc une référence en matière d'insertion paysagère, a fait valoir le groupe dans un communiqué.

"Sa production est équivalente à la consommation annuelle de 70.000 habitants", a-t-il précisé. Avec 52 MW, il sera "le plus grand parc éolien français" en termes de capacités installées, a-t-il ajouté.Cette puissance a nécessité de raccorder directement le parc au réseau électrique à très haute tension (225.000 volts) pour la "première fois" en France.Le parc du Chemin d'Ablis est le deuxième d'envergure mis en service en 2008 en France, après celui de Villesèque (Lot) en juillet, doté d'une capacité installée de 50 MW, rappelle EDF EN.

Un troisième parc, celui de Salles-Curan (Aveyron), qui devrait être opérationnel d'ici la fin 2008, surpassera les capacités installées en Eure-et-Loir, avec 87 MW et 29 éoliennes, a précisé une porte-parole de la filiale d'EDF.A ce jour, EDF EN a développé et construit en France 258,3 MW dont 163,7 MW détenus en propre. Elle mène la construction d'une dizaine de projets supplémentaires.

Le parc éolien français comptait fin 2007 quelque 2.500 MW de capacités installées, selon l'Agence de l'environnement et de la maîtrise de l'énergie (Ademe). L'objectif est de les porter à 17.000 MW en 2015.Le parc éolien français est le troisième en Europe, derrière l'Allemagne et l'Espagne.Ses capacités restent toutefois embryonnaires par rapport à celles du parc nucléaire (62.600 MW), qui produit près de 80% de l'électricité française.

Yahoo

De l'énergie électrique à partir de la chaleur d'échappement
Vendredi, 12/12/2008 - 00:00

Le Centre allemand de recherche aérospatial (DLR) et le constructeur automobile BMW veulent débuter des travaux communs portant sur la production d'électricité à partir de la récupération de la chaleur des pots d'échappement. Un générateur thermoélectrique (TEG) servirait à convertir la chaleur perdue des gaz d'échappement en énergie électrique, alimentant ainsi l'électronique de bord et contribuant à la réduction des émissions de CO2. Un véhicule test a déjà été équipé d'un TEG et des tests ont été réalisés à l'Institut du DLR de concept de véhicules à Stuttgart.

L'effet sur lequel repose la transformation thermoélectrique a été découvert en 1821 par le physicien Thomas Seebeck. Entre deux points situé sur un conducteur électrique, une tension électrique apparaît lorsqu'ils présentent des températures différentes. "De grands progrès dans la recherche sur les matériaux ont permis d'envisager l'utilisation de la chaleur d'échappement dans les véhicules", explique le Prof. Dr. Horst Friedrich, Directeur de l'Institut de concept de véhicule à Stuttgart.

Le TEG intégré au système d'échappement des gaz du véhicule est constitué de 3 transformateurs de gaz chauds et 4 transformateurs de produit refroidissant, constitués eux-mêmes de 24 modules thermoélectriques (en tellurure de bismuth) montés en couche. Ainsi, la chaleur est extraite du gaz d'échappement, conduite à travers le matériau thermoélectrique : une partie du flux de chaleur est transformée en puissance électrique et le reste étant transmis au circuit refroidissant afin de réchauffer certains composants du véhicule.Le véhicule expérimental de BMW, testé à une vitesse de 130 km/h, a montré qu'à cette vitesse, une puissance électrique de 200 W pouvait être atteinte.

BE

Synthèse d'hydrogène à partir d'énergie solaire : premiers résultats très prometteurs
Vendredi, 12/12/2008 - 00:00

Des chercheurs du Centre allemand de recherche aérospatiale (DLR) sont parvenus à synthétiser de l'hydrogène grâce à de l'énergie solaire et sans émission de CO2 dans une installation pilote de 100 kilowatts, située en Espagne.

L'énergie solaire est, de loin, la forme d'énergie la plus largement disponible sur Terre. L'hydrogène est, quant à lui, une source d'énergie particulièrement intéressante, compte tenu de sa densité énergétique, d'autant que sa combustion ne libère que de la chaleur et de l'eau. Le succès des chercheurs du DLR ouvre de nouvelles possibilités de stockage de l'énergie solaire sous forme d'hydrogène.

Le département de recherche solaire de l'Institut de thermodynamique technique du DLR travaille depuis plus de 6 ans au développement de réacteurs innovants pour la décomposition thermochimique solaire de l'eau, dans le cadre des projets européens HYDROSOL I et II. Dans ces réacteurs, l'eau est clivée en hydrogène et oxygène à l'aide d'énergie solaire, sans passer par la production de courant électrique. Les résultats de leurs recherches, obtenus jusqu'à présent dans des installations de 10 kilowatts, ont désormais pu être observés avec succès pour une puissance de 100 kilowatts.

L'installation espagnole Plataforma Solar de Almería (PSA), équipée d'un réacteur solaire innovant développé par le DLR, constitue, de par sa taille et son automatisation, un prototype important pour les futures installations industrielles. Le réacteur est chauffé jusqu'à 800 à 1200 degrés Celsius grâce à un rayonnement solaire concentré. A ces températures, il est possible d'obtenir de l'hydrogène à partir d'eau. Après une qualification thermique détaillée de l'installation solaire, celle-ci a été récemment équipée d'absorbeurs solaires, dont le revêtement spécifique leur permet de cliver l'eau et de produire ainsi de l'hydrogène sans libérer de CO2. Les rendements atteints dépassent les attentes des chercheurs.

Dans les mois qui viennent, les tests de production d'hydrogène sur la tour SSPS (Small Solar Power System) de la PSA seront poursuivis et intensifiés. Il s'agit notamment d'optimiser les conditions d'exploitation et l'efficience de l'installation. Des tests complémentaires portant sur d'autres types de revêtements devraient permettre de déterminer quel matériau est le plus approprié.

NP

^ Haut
Espace
Espace et Cosmologie
Hubble découvre du dioxyde de carbone sur une lointaine planète
Vendredi, 12/12/2008 - 00:00

Le télescope spatial Hubble a détecté du dioxyde de carbone dans l'atmosphère d'une planète extrasolaire, un des signes soutenant l'hypothèse qu'une forme de vie peut exister hors de la Terre.La mise au jour de composés organiques pouvant résulter de processus vivants sur une planète semblable à la Terre "pourrait fournir un jour la première preuve de vie en dehors de notre planète", écrit l'agence spatiale américaine dans un communiqué, commentant la découverte de CO2 sur une planète de la taille de Jupiter située à 63 années-lumière de la Terre.

"Nous ne sommes pas en vue de la découverte de vie sur cette planète en particulier", a expliqué Ray Villard, du Space Telescope Science Institute, expliquant que cette planète baptisée HD 189733b, qui se présente uniquement à l'état liquide et gazeux, a une température trop élevée pour permettre que la vie s'y développe."Mais elle présente une composition chimique qui, sur la bonne planète, pourrait constituer un traceur biologique de la présence de vie", a-t-il expliqué.Les scientifiques ont décelé sur cette planète l'existence de molécules organiques de méthane ainsi que de la vapeur d'eau, a ajouté Ray Villard.

NASA

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Paludisme: un vaccin enfin en vue
Vendredi, 12/12/2008 - 00:00

Un vaccin expérimental contre le paludisme vient de faire l'objet de deux études encourrageantes. La première a permis d'obtenir une baisse de 65% du nombre d'infections et une réduction de 59% des accès palustres après infection. La seconde, qui portait sur un adjuvant particulier, a elle aussi permis une réduction significative des épisodes de paludisme.

Mis au point par le laboratoire GlaxoSmithKline (GSK), ce vaccin a été évalué en situation, en Tanzanie et au Kenya. Le premier travail a porté sur 340 petits Tanzaniens de moins d'un an, suivis pendant 6 mois. Outre les bons résultats que nous venons d'évoquer, il a également démontré que le nouveau candidat-vaccin ne compromet pas l'efficacité des autres vaccins de l'enfance. Ce point paraît acquis, à condition que tous les vaccins soient administrés en même temps.

La seconde étude -894 enfants kenyans et tanzaniens de moins de 17 mois- visait à évaluer l'efficacité et la sécurité du vaccin en association avec le nouvel adjuvant ASO1. Verdict : les épisodes de paludisme ont diminué de 53% sur une période de 8 mois. Un résultat supérieur à celui observé dans une étude menée au Mozambique avec un autre adjuvant (ASO2) et qui faisait ressortir une baisse de seulement 35% sur 18 mois.

Le directeur de la Malaria vaccine intiative Christian Loucq, ne cache pas son enthousiasme. « La mise au point d'un vaccin contre la paludisme n'a jamais été aussi proche », souligne t-il. Pour cette organisation financée par la Bill and Melinda Gates Foundation, la prochaine étape sera une étude de phase III, menée dans 7 pays africains dès 2009. Cet essai devrait être le dernier avant la demande d'autorisation de mise sur le marché.

Lancet

Un lien génétique entre la régulation du cycle circadien et le diabète de type 2.
Vendredi, 12/12/2008 - 00:00

Les mutations du gène produisant le récepteur 2 de la mélatonine (MT2) entraînent une élévation de la glycémie et augmentent le risque de diabète de type 2 : c'est ce que vient de découvrir l'équipe du professeur Philippe Froguel du laboratoire Génomique et physiologie moléculaire des maladies métaboliques (CNRS/ Université Lille 2 Droit et Santé/ Institut Pasteur de Lille) et Imperial College London, en collaboration avec des équipes françaises, finlandaises et danoises. Le lien génétique entre la régulation du rythme circadien par la mélatonine et le diabète de type 2 a pu être mis en évidence grâce à une étude génétique sur 23 000 personnes d'origine française, danoise et finlandaise. Ces résultats (confirmés par deux autres études internationales publiées simultanément) sont publiés le 7 décembre 2008 dans la revue Nature Genetics.

La mélatonine est l'une des hormones les plus anciennes produites sur Terre : on la trouve non seulement chez les animaux mais aussi chez certaines plantes et champignons.

La mélatonine participe à diverses fonctions physiologiques engendrant la propension à dormir, le rythme éveil/sommeil, le rythme circadien, la régulation de la pression sanguine, l'activité du système immunitaire, la désintoxication en radicaux libres et la protection des os entre autres. Chez l'homme, la mélatonine est principalement sécrétée par la glande pinéale (épiphyse) dans le cerveau, en fonction des perceptions de lumière et d'obscurité captées par la rétine. Le récepteur MT2 est lui-même présent dans la rétine, le nerf optique, la région du diencéphale et dans les cellules pancréatiques insulino-sécrétrices.

Le maintien des rythmes biologiques a une grande influence sur la santé humaine. De nombreuses hormones (dont la mélatonine) participent à la régulation des rythmes circadiens et contrôlent notamment la durée et la qualité du sommeil, l'humeur et jouent un rôle important dans le métabolisme. La perturbation de ces rythmes entraîne, entre autre, une production anormale de l'insuline et est associée à l'obésité. Les diabétiques par exemple sont souvent déprimés et leurs troubles psychiques apparaissent parfois avant même que le diabète ne se déclare. Cependant le lien moléculaire entre toutes ces pathologies était jusqu'à présent inconnu.

Les résultats de cette étude montrent que la glycémie est fortement régulée par un petit nombre de gènes et que les personnes porteuses de plusieurs mutations de ces gènes ont des glycémies de type pré-diabétique et sont donc à haut risque de développer un diabète et/ou des maladies cardio-vasculaires dans les prochaines années.

CNRS

Cellules gliales : Finis les rôles de figuration
Vendredi, 12/12/2008 - 00:00

Des chercheurs de l'Inserm ont démontré que l'organisation en réseau d'une population de cellules gliales, les astrocytes, joue un rôle important dans l'apport de substrats énergétiques qu'ils fournissent aux neurones. Cette fonction nutritive est dépendante de l'activité neuronale. Elle permet de maintenir la transmission synaptique dans des conditions d'hypoglycémie. Elle intervient également dans un modèle d'épilepsie, ce qui suggère que ces réseaux gliaux pourraient représenter une cible alternative d'intervention thérapeutique pour certaines neuropathologies. Les détails de ces résultats sont exposés dans l'édition du 5 décembre de la revue Science.

Cet article vient compléter des observations réalisées au Collège de France par l'équipe de l'Inserm U840 au cours de ces dernières années et qui a conduit les chercheurs à proposer la notion de réseaux astrocytaires. Ces réseaux sont composés par des groupes d'astrocytes qui échangent des informations et coordonnent leur activité par des jonctions communicantes (gap junctions).

Ainsi les neurones et les astrocytes auraient chacun leur mode propre de communication, la transmission synaptique pour les uns et la communication jonctionnelle pour les autres. Christian Giaume et ses collaborateurs ont largement contribué à caractériser la composition moléculaire de ces jonctions intercellulaires ainsi que leurs propriétés biophysiques. Ils ont également démontré que leur propriété de communication était contrôlée par l'activité neuronale et des neurotransmetteurs. Dans cet article publié dans Science, les chercheurs ajoutent une étape supplémentaire dans la physiologie de ces cellules gliales en identifiant un rôle métabolique pour les réseaux astrocytaires qu'ils forment, fondamental pour la transmission neuronale.

Caducée

La perception sensorielle donne du sens aux mots
Vendredi, 12/12/2008 - 00:00

A la lecture du mot "téléphone", une sonnerie retentit dans le cerveau. C'est ce qu'ont démontré, peu ou prou, les chercheurs de l'Université d'Ulm autour du psychologue Markus Kiefer. Selon les scientifiques, le cerveau recrée le sens d'un objet, d'un terme, d'une notion en reproduisant la perception sensorielle à laquelle le mot se rapporte.

D'après Markus Kiefer: "S'il n'existe pas d'association entre une notion et la perception sensorielle qu'elle évoque, que cette association n'a jamais été apprise, alors la compréhension de cette notion reste vague". Les découvertes des chercheurs d'Ulm sont de première importance, non seulement pour les parents, les éducateurs et les pédagogues qui sont tous les jours amenés à suivre les enfants dans leur apprentissage, mais elles concernent un public encore plus large car elles ont trait à des thématiques aussi majeures que l'apprentissage, le savoir, la mémoire et le langage. Les résultats de leur étude ont été publiés dans la revue scientifique, Journal of Neuroscience

Les mots ont-ils un écho intérieur qui leur est propre? La plupart des personnes sont capables, sans devoir réfléchir, de comprendre la signification des mots comme téléphone, tondeuse ou encore aspirateur. Derrière cette opération quotidienne simplissime se cache en réalité un traitement complexe de la part du cerveau, que les chercheurs commencent seulement à pouvoir décoder. D'après Kiefer, les mots et les notions auxquelles ils se rattachent sont véritablement ancrés dans le système sensoriel humain, les mots ne sont pas abstraits comme il a longtemps été prôné et comme certains l'affirment encore aujourd'hui.

Les chercheurs ont observé, par IRM fonctionnelle

L'étude met l'accent sur le rôle central de l'expérience sensorielle dans l'acquisition de concepts et de notions. Comme la compréhension de ces notions est étroitement liée aux perceptions sensorielles, il est donc préférable que les enfants aient, pour saisir un terme, le plus grand nombre d'interactions sensorielles possible avec leur environnement, recommande le psychologue qui soutient : "Lorsqu'au cours de l'apprentissage, il n'y a pas eu, pour l'enfant, la possibilité de voir, de toucher, de sentir un objet, la compréhension du mot qui s'y rapporte s'en trouve alors forcément appauvrie. Le savoir de l'enfant sur l'environnement qui l'entoure est alors dénué de sens".

Cette conclusion revêt une importance majeure sachant qu'aujourd'hui toujours plus d'enfants n'ont souvent, pour certains mots d'usage quotidien, comme les fleurs ou les animaux, que des images de livres ou télévisées en guise de références et comme seule aide à l'apprentissage. Cette déficience d'ordre sensoriel empêche donc ces enfants de développer une connaissance approfondie et certaines relations essentielles quant à leur environnement.

[BE">2], l'activité cérébrale de sujets en train de lire. Ce faisant, les scientifiques ont pu démontrer qu'à la lecture de mots impliquant un bruit caractéristique, comme téléphone par exemple, certaines zones du cerveau s'activaient. Il s'avère, par ailleurs, que certaines de ces régions cérébrales sont également stimulées à l'écoute du son émis par l'objet étudié (par exemple : une sonnerie de téléphone). L'étude indique, en revanche, que la lecture de mots auxquels n'est associé aucun son/bruit spécifique n'entraîne pas de hausse de l'activité cérébrale dans ces zones.

Kiefer et ses collègues de l'Université d'Ulm ont, de cette manière, prouvé que le traitement des notions reçues à travers la lecture consistait, au niveau du cerveau, en un rétablissement partiel de l'activité cérébrale observée au moment où l'objet et/ou l'action auxquels la notion se réfère sont perçus sensoriellement. Ceci se produit, selon les scientifiques, 150 millisecondes après avoir vu le mot, c'est-à-dire avant même que la conscience du concept lié à ce mot n'ait pu être traitée. De plus, l'activité des aires cérébrales spécifiques à la perception sensorielle est d'autant plus élevée que le sujet associe au mot un bruit/son significatif.

"Depuis des siècles, les philosophes spéculent, sans pouvoir tomber d'accord, sur la nature des mots. Certains d'entre eux ont pour théorie que ce qui n'a pu être perçu ne peut être compris. Nous pouvons aller plus loin : ce qui est en mesure d'être vu, entendu, senti, goûté, laisse des traces durables dans la mémoire, traces qui donnent la signification d'un mot, d'une notion.", commente Kiefer. Il est clair que l'homme ne peut être constamment conscient de ces associations : la planification et la réalisation d'actions se basent aussi sur la perception véritable de l'environnement dans lequel l'homme évolue, et non pas seulement sur des représentations mentales qui se produiraient dans sa tête.

L'étude met l'accent sur le rôle central de l'expérience sensorielle dans l'acquisition de concepts et de notions. Comme la compréhension de ces notions est étroitement liée aux perceptions sensorielles, il est donc préférable que les enfants aient, pour saisir un terme, le plus grand nombre d'interactions sensorielles possible avec leur environnement, recommande le psychologue qui soutient : "Lorsqu'au cours de l'apprentissage, il n'y a pas eu, pour l'enfant, la possibilité de voir, de toucher, de sentir un objet, la compréhension du mot qui s'y rapporte s'en trouve alors forcément appauvrie. Le savoir de l'enfant sur l'environnement qui l'entoure est alors dénué de sens".

Cette conclusion revêt une importance majeure sachant qu'aujourd'hui toujours plus d'enfants n'ont souvent, pour certains mots d'usage quotidien, comme les fleurs ou les animaux, que des images de livres ou télévisées en guise de références et comme seule aide à l'apprentissage. Cette déficience d'ordre sensoriel empêche donc ces enfants de développer une connaissance approfondie et certaines relations essentielles quant à leur environnement.

[BE

^ Haut
Recherche
Recherche & Innovation, Technologies, Transports
Berlin, ville pionnière en Europe pour les voitures à hydrogène
Vendredi, 12/12/2008 - 00:00

Partenariat public-privé, le clean énergy partnership qui réunit douze grandes entreprises (Opel, Vattenfall, BMW, Total...), avec le soutien de la ville, du gouvernement et de Bruxelles. Cette opération unique en Europe, dotée d'un budget de 500 millions d'euros, vise à tester les véhicules à hydrogène. C'est la deuxième phase de son déploiement, une première étape ayant vu notamment la mise en circulation de 14 bus à hydrogène.

La technologie utilise une pile à combustible alimentée par de l'hydrogène comprimé (700 bars) pour alimenter le moteur qui rejette de l'eau, ce qui est évidemment plus écologique que l'essence. Elle a été mise au point par le constructeur américain General Motors (GM). Les véhicules sont des adaptations du modèle Equinox de Chevrolet, un SUV, qui circulent sous la marque Opel, filiale de GM en Allemagne. Le groupe a commencé à explorer la technologie de l'hydrogène dès le milieu des années 60. Et cela fait plus de dix ans qu'il investit massivement - 1 milliard de dollars - dans la filière hydrogène, à laquelle sont dédiés quelque 600 collaborateurs.

Aujourd'hui, les modèles en circulation à Berlin représentent la quatrième génération de véhicules à hydrogène. Ils peuvent rouler à une température inférieure à zéro (et même de moins 25 degrés), ce qui était impossible sur la version précédente où l'eau gelait...D'ici à 2010, les dix voitures berlinoises vont être prêtées aux entreprises partenaires du programme. Toute une sérié de données sera enregistrée et analysée par les ingénieurs de GM pour améliorer encore la technologie. Les impressions des conducteurs seront aussi recueillies avec soin.

La cinquième génération de véhicules à hydrogène de GM est déjà en phase de conception. Une fois les technologies validées, le prochain défi sera surtout économique : il faudra faire baisser le prix des composants avant une production à grande série et une commercialisation, que le constructeur envisage à l'horizon 2015 aux Etats-Unis.

La technologie des véhicules à hydrogène est actuellement expérimentée dans plusieurs pays, comme les Etats-Unis, la Corée ou la Chine. D'autres constructeurs que GM sont sur les rangs, comme Honda avec le modèle Clarity. En France, la réglementation ne les autorise pas. Les constructeurs français n'ont pas misé jusqu'à présent sur l'hydrogène, privilégiant d'autres technologies « propres » comme le diesel et maintenant les voitures électriques.

Par rapport à leurs principales concurrentes que sont les voitures électriques, les voitures à hydrogène ont l'avantage d'offrir une plus grande autonomie et de ne pas nécessiter une immobilisation longue pour les alimenter en carburant, le plein d'hydrogène se faisant en quelques minutes.Selon une récente étude du conseil américain de la recherche, le marché des voitures à hydrogène se développera lentement : 2 millions de véhicules sur les routes du monde entier d'ici à 2020, et 200 millions en 2050, ce qui ne représenterait encore que 15% du parc automobile prévu à cette échéance.

Car de nombreux obstacles restent à surmonter : outre la nécessaire baisse du prix des véhicules, l'autre difficulté majeure concerne l'approvisionnement en hydrogène. Dans le cadre de l'expérience pilote de Berlin, Total a construit une station-pilote, représentant un investissement de 4 millions d'euros, dont 1,7 million de subventions.

Pour envisager un décollage du marché des véhicules à hydrogène, il faudra installer des dizaines de milliers de stations. Selon les experts de GM, pour 10 millions de véhicules à hydrogène circulant en Europe, il faudrait disposer de plus de 22 000 points d'alimentation en hydrogène.

Ce qui représenterait un investissement massif, nécessitant des aides publiques !Et aux Etats-Unis, il faudrait investir entre 10 et 15 milliards de dollars pour construire quelque 11 700 stations d'alimentation en hydrogène - dans les zones urbaines et le long des autoroutes - si 1 million de véhicules était en circulation. Reste aussi à voir comment l'hydrogène est produit. Pour un usage parfaitement écologique, il faut une production à partir d'énergies renouvelables.

GU

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top