RTFlash

RTFLASH Recherche & Technologie
NUMERO 503
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 29 Janvier 2009
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
Télé-échographie : la technologie spatiale entre à l'hôpital
Le haut débit issu de la fibre optique arrive chez les particuliers par antennes radio
Les opérateurs s'entendent pour expérimenter la fibre optique
Matière
Naissance de l'Agence internationale des énergies renouvelables
L'essor de l'énergie éolienne s'est poursuivi en 2008
Doublement des emplois dans l'éolien en Europe d'ici 2020, selon une étude
Espace
Une nouvelle théorie sur la formation des galaxies grâce à la simulation numérique
Terre
Impact du changement climatique : le point de non retour est-il atteint ?
L'Antarctique aussi se réchauffe
Un air moins pollué accroît de 5 mois l'espérance de vie de citadins
Vivant
Comprendre comment les cellules souches restent indifférenciées
Etats-Unis : feu vert au 1er essai de thérapie à base de cellules souches d'embryon
Stimuler un gène partagé par l'Homme et le ver pour réparer le système nerveux
L'aspirine protégerait le foie des effets de l'obésité
Des suppléments de vitamine D pourraient éviter la dégénérescence mentale
Des cellules pour réparer le cerveau
Recherche
Quand la voiture devient une centrale électrique
Edito
Climat : le réchauffement menace la moitié de l'humanité d'une crise alimentaire



Le réchauffement du climat risque de précipiter la moitié de la population mondiale dans une crise alimentaire d'ici la fin de ce siècle, anticipent des scientifiques américains qui préconisent des mesures d'adaptation pour en minimiser la sévérité. Ces projections sont basées sur des observations directes et des données provenant de 23 modèles informatiques sur l'évolution du climat terrestre. Selon ces chercheurs, la probabilité est supérieure à 90 % que d'ici 2100 les températures minimales de la saison des cultures dans les régions tropicales et subtropicales soient plus élevées que tous les maxima enregistrés jusqu'à présent, ce qui réduira considérablement les récoltes affectées par la chaleur.

"Nous prenons le pire de ce que nous avons vécu historiquement et nous disons qu'à l'avenir ce sera nettement plus grave sans une adaptation", explique Rosamond Naylor, directrice du programme sur la sécurité alimentaire à l'Université Stanford en Californie (ouest), co-auteur de cette étude parue dans la revue Science datée du 9 janvier.

"Nous devons repenser le système agricole dans son ensemble, pas seulement en recourant à de nouvelles variétés (mieux adaptées à la chaleur et à la sécheresse) mais aussi en reconnaissant qu'une grande partie de la population, surtout dans les pays pauvres, devra sortir de ce secteur d'activité" dont elle dépend aujourd'hui entièrement pour sa survie, ajoute-t-elle.

"Les conséquences sur la production alimentaire mondiale de la seule hausse des températures seront énormes et cela ne tient même pas compte de la diminution des quantités d'eau qui seront disponibles", relève David Battisti, professeur de science atmosphérique à l'Université de l'Etat de Washington (nord-ouest), le principal auteur de ces travaux. Dans les zones tropicales, les températures plus chaudes devraient réduire le rendement des principales récoltes alimentaires comme le maïs et le riz de 20 à 40 %, selon ces chercheurs. L'humidité moindre des sols devrait entraîner une réduction encore plus grande de ces cultures, soulignent-t-ils.

Actuellement, la moitié des habitants de la Terre, soit trois milliards, vivent dans les régions tropicales et subtropicales et leur nombre devrait doubler d'ici la fin du siècle. Ces régions vont du sud des Etats-Unis au sud du Brésil et recouvrent une partie de la Chine, de l'Australie, le nord de l'Argentine et de l'Inde ainsi que la totalité du continent africain. Un grand nombre des personnes concernées vivent dans des pays en développement avec moins de deux dollars par jour et dépendent largement de l'agriculture pour leur subsistance, relèvent les chercheurs.La population de cette ceinture équatoriale qui s'étend de 35 degrés de latitude nord à 35 degrés de latitude sud compte parmi la plus pauvre de la planète et s'accroît plus rapidement que partout ailleurs.

Ce réchauffement climatique accéléré a été confirmé en avril 2008 par James Hansen, le directeur du Goddard Institute for Space Studies (GISS) et son équipe. Ils évaluent le seuil de danger à 350 ppm de CO2 environ. Or ce niveau a été atteint en 1990. Il se situe aujourd'hui à 385 ppm. Et il augmente à raison d'une à deux unités chaque année. Au lieu d'utiliser des modèles théoriques pour estimer la variabilité du climat, lui et son équipe se sont attachés aux preuves fournies par l'histoire de la Terre. Les scientifiques ont étudié des échantillons de carottes prélevées sur le fond de l'océan, ce qui permet de reconstituer les niveaux de C02 sur une échelle de plusieurs millions d'années. Ces relevés montrent que lorsque le monde a commencé à se refroidir au début de la période glaciaire environ 35 millions d'années de cela, la concentration de CO2 dans l'atmosphère était alors d'environ 450 ppm.

« Si nous conservons ce niveau de 450ppm suffisamment longtemps, il va probablement entraîner la fonte de toute la glace - ce qui déclencherait une montée du niveau de la mer de 75 mètres. À des niveaux aussi élevés que 550ppm, la planète se réchaufferait de 6° Celsius, indiquent leurs travaux. Les estimations précédentes considéraient que le réchauffement induit à ce niveau là ne serait que de 3°C.

La raison fondamentale pour cette réévaluation a été motivée par ce qu'il appelle « la rétroaction lente » qui est à l'oeuvre dans des mécanismes qui ne deviennent pleinement compris qu'aujourd'hui. Ces mécanismes amplifient la hausse de température provoquée par l'augmentation de la concentration des gaz à effet de serre. Ainsi, la neige et la glace reflètent la lumière du soleil, et en fondant, elles laissent exposé au rayonnement solaire le sol qui lui absorbe plus de chaleur.

De ce fait, lorsque l'inlandsis recule, l'effet de réchauffement est aggravé. Les technologies d'observation par satellite devenues disponibles au cours des trois dernières années ont montré que les calottes glaciaires fondent beaucoup plus vite que prévu, avec les glaces du Groenland et de l'Antarctique de Ouest qui perdent de leur volume. Les dernières données satellitaires révélées fin 2008 montrent que plus de 2.000 milliards de tonnes de glaces terrestres ont fondu depuis 2003 au Groenland, en Alaska et dans l'Antarctique.

Contrairement à la fonte de la banquise, celle des glaces terrestres augmente le niveau des océans très légèrement. Dans les années 1990, le Groenland n'avait pas contribué à une hausse de ce niveau. Désormais, l'île arctique l'élève d'un demi-millimètre par an, souligne le glaciologue de la NASA Jay Zwally.Au total, la fonte des glaces au Groenland, en Alaska et dans l'Antarctique a fait monter le niveau de la mer d'environ un demi-centimètre ces cinq dernières années, selon M. Luthcke. Le niveau des océans augmente également sous l'effet de dilatation des eaux provoquée par leur réchauffement.

Une autre étude menée grâce aux satellites d'observation sur la période 1996 - 2006 montre que la fonte des glaces en Antarctique s'est accrue de près de 75 % en raison l'accélération du mouvement des glaciers vers la mer. M. Hansen déclare qu'il considère maintenant comme « peu plausible » l'avis des nombreux climatologues qui estimaient que le recul des glaciers prendrait des milliers d'années. « Si l'on conserve le même rythme je ne vois pas comment l'Antarctique de l'Ouest pourrait survivre un siècle. Nous sommes devant une élévation du niveau des mers d'au moins deux mètres durant ce siècle. »

"Il est possible de revenir à un taux de 350 ppm assure M. Hansen. Selon lui, il faut un moratoire sur les centrales à charbon, puis supprimer progressivement tous les usages de la houille d'ici à 2020-2030. Il faut aussi revoir nos pratiques agricoles et forestières de façon à séquestrer du carbone."

Cet avertissement est confirmé par l'évolution de l'"empreinte écologique" de l'homme en hectares terrestres. Cette empreinte mesure la superficie biologiquement productive nécessaire pour pourvoir aux besoins d'une population humaine de taille donnée". Les derniers calculs montrent que nous avons largement dépassé notre quota - globalement. La Terre ne peut aujourd'hui offrir que 1,78 hectare global (hag) par habitant, pas un centimètre carré de plus. Or la consommation mondiale actuelle exige 2,23 hag productifs par terrien. Et les calculs montrent que si l'ensemble de la population humaine adoptait aujourd'hui le mode de vie des Européens et des Américains, il lui faudrait disposer en surface de quatre à cinq planètes Terre.

Une autre étude publiée le 26 janvier aux Etats-Unis dans les Annales de l'Académie nationale américaine des sciences (PNAS) montre comment le changement de la température à la surface des océans, des précipitations dans certaines régions du globe et la montée du niveau des océans "sont largement irréversibles pour plus de mille ans après que les émissions de dioxyde de carbone (CO2) auront complètement cessé" (Voir article dans notre rubrique « Environnement »).

A la lumière de ces avancées scientifiques, on ne peut que rappeler l'enjeu majeur que constitue le futur traité qui doit succéder au protocole de Kyoto en 2012 et définir les nouveaux objectifs planétaires de réduction d'émissions de gaz à effet de serre. Un nombre croissant de scientifiques considèren que l'objectif généralement affiché des 50 % de réduction à l'horizon 2050 est insuffisant et qu'il faudrait déduire de 80 % nos émissions mondiales de GES d'ici le milieu de ce siècle pour avoir une chance d'empêcher un dérèglement majeur et catastrophique du climat terrestre.

Face à ce défi de civilisation sans précédent il devient de plus en plus évident que, ni l'utilisation massive des énergies renouvelables, ni l'amélioration technologique de l'efficacité énergétique de nos sociétés ne suffiront. Il faudra également réduire "à la source" et de manière considérable nos besoins en énergie dans tous les domaines de la production de biens et de services, ce qui suppose une mutation sociale, culturelle et politique de grande ampleur.

Nous allons devoir, en deux générations, réinventer notre mode de vie, nos moyens de déplacement, nos villes, notre organisation du travail et bien sur nos systèmes politiques et nos institutions démocratiques. La tâche est immense et presque inhumaine mais nous n'avons pas le choix et la crise financière sans précédent qui secoue la planète doit nous servir de révélateur pour accélérer la transition vers une civilisation durable, plus équitable et plus humaine.

René Trégouët

Sénateur honoraire

Fondateur du Groupe de Prospective du Sénat


TIC
Information et Communication
Télé-échographie : la technologie spatiale entre à l'hôpital
Vendredi, 30/01/2009 - 00:00

Face à une douleur abdominale suspecte, l'échographie est le premier examen médical qui s'impose. Seulement voilà, l'expert capable de manier une sonde échographique et d'interpréter les images n'est pas toujours sur place. Solution : réaliser un robot de télé-échographie. Cette idée du professeur Philippe Arbeille du CHU de Tours a reçu le soutien de l'ESA (Agence spatiale européenne) et du CNES (Centre national d'études spatiales). le projet se prépare à entrer dans sa phase opérationnelle. Un service complet de télé-échographie robotisée va prochainement être testé via le projet ARTIS (Advanced Robotic Tele-echography Integrated Service), financé par l'ESA. Alors que les derniers réglages sont apportés au robot, le projet se prépare à entrer dans sa phase opérationnelle.

le principe ? Un bras robotisé portant une sonde ultrasonore est placé sur le ventre du patient par un infirmier. De son côté, à plusieurs dizaines voire centaines de km de là, l'échographiste dirige les mouvements de la sonde à l'aide d'un joystick et réalise son diagnostic, en direct, grâce à un écran de contrôle.

Les communications entre les sites peuvent se faire par le biais de lignes téléphoniques au sol ou par voie satellitaire. La faisabilité du concept et les capacités techniques de différentes versions du robot ont déjà été démontrées. Pour autant, la validation en conditions réelles du service est encore nécessaire et sa pérennisation reste à évaluer. « Entre faire une démonstration technologique sur une journée et mettre en place un service pré-opérationnel sur plusieurs mois, il y a un grand vide que nous essayons de combler avec ARTIS », explique le français Didier Schmitt, responsable du projet au Centre de technologie de l'ESA aux Pays-bas. Démarré en novembre 2007, financé par l'ESA et piloté par le Medes (Institut de médecine et de physiologie spatiales) à Toulouse, ARTIS a donc pour objectif de concevoir un service complet de télé-échographie robotisée et d'en évaluer la pérennité.

« A travers le projet ARTIS, nous allons vérifier que le service d'échographie à distance fonctionne de bout en bout, poursuit Nathalie Ribeiro, responsable du programme « désenclavement sanitaire » au CNES. On va également étudier le marché, s'assurer que le service répond à une vraie demande. Il doit par ailleurs rester accessible ». La qualité de la liaison satellite, sur laquelle repose celle de l'examen, sera surveillée de prêt. Car si les lignes téléphoniques suffisent parfois, le satellite devient indispensable lorsque le patient se trouve géographiquement isolé. « Il faut que le débit soit suffisant pour que les images échographiques soient de qualité, c'est-à-dire interprétables par les médecins, et transmises en temps réel, précise Bernard Comet, responsable du projet au MEDES. Il faudra également vérifier s'il y a de véritables retombées médico-économiques pour l'hôpital et la caisse d'assurance maladie ». Le service de télé-échographie devrait permettre aux hôpitaux secondaires, en pénurie d'échographistes, de bénéficier de l'avis d'un expert et d'éviter le transfert systématique des patients vers de plus grands hôpitaux.

Les robots seront installés sur des sites pilotes dans le courant du 1er trimestre 2009 et le service testé tout au long de l'année. Si l'évaluation du service est positive, la télé-échographie pourrait être déployée dans divers hôpitaux secondaires mais pourrait également trouver sa place dans certains villages isolés d'Afrique ou d'Amérique du Sud. Combinée à des satellites de télécommunications, l'échographie assistée est donc de nature à améliorer sensiblement la qualité de l'accès aux soins de santé dans des localisations dépourvues de moyens terrestres ou de palier aux pénuries de spécialistes.

SG

Le haut débit issu de la fibre optique arrive chez les particuliers par antennes radio
Vendredi, 30/01/2009 - 00:00

Depuis 2004, la communauté urbaine d'Arras met son nez dans la couverture du territoire en Internet à haut débit, en construisant la boucle numérique. Un réseau radio la complète aujourd'hui. Avec un réseau de télécommunications en fibre optique, la communauté urbaine d'Arras et Arras Netwoks, la société qui l'exploite, visaient la desserte des treize zones d'activités du territoire.

Le 16 décembre 2005, soixante-quinze kilomètres de fibre étaient livrés pour une facture de 5,7 M E (4 M E par la CUA, et 1,7 M E par Vinci Networks à l'époque). « Trois ans après, nous sommes à 95 km de fibre, décrivent Frédéric Saison et Jean-Marc Dehooghe, d'Arras Networks. Le réseau s'enrichit régulièrement, au rythme de dix kilomètres par an et des raccordements clients finaux ».

Les clients finaux en question sont les entreprises, administrations ou hôpitaux, qui ne se relient cependant pas eux-mêmes à au réseau en fibre optique : c'est le métier d'opérateurs, qui ont candidaté pour « occuper » la boucle numérique. « On a un rôle capital, estime le directeur d'Arras Networks. On est là pour transporter tous les opérateurs dans la plus grande neutralité. Nous chiffrons la location de la fibre, identique pour tous. Il n'y a pas de débats, pas de de discussions. » À ce jour, treize opérateurs sont présents sur le marché de la boucle numérique arrageoise.

Laquelle trouve des prolongements avec la mise en service d'un réseau radio (par antennes), destiné notamment à arroser les secteurs périurbains et ruraux de la communauté urbaine. L'occasion aussi de résorber, d'après Frédéric Saison, des zones d'ombres, voire d'atteindre des entreprises en milieu rural. Des antennes, pour certaines raccordées directement à la boucle numérique, sont placées sur des points hauts.

Seize ont été installées sur des châteaux d'eau, immeubles ou églises : à Sainte-Catherine, Saint-Nicolas, Saint-Laurent-Blangy, Feuchy, Agny, Anzin-Saint-Aubin, Mercatel, Willerval, Bailleul-Sire-Berthoult, Wailly, Monchy-le-Preux, Athies, Neuville-Vitasse, Beaurains, Gavrelle, Arras (tour Voltaire) et Dainville (Archives départementales). L'opération, d'un coût de 798 000 E, a été supportée à 70 % par la communauté urbaine d'Arras et à 30 % par Arras Networks. Courant décembre, un des opérateurs radio a commencé à occuper le terrain, en diffusant dans les boîtes aux lettres ses offres commerciales destinées aux particuliers. La concurrence s'aiguise un peu plus...

VDN

Les opérateurs s'entendent pour expérimenter la fibre optique
Vendredi, 30/01/2009 - 00:00

Le déploiement de la fibre optique s'active enfin. Trois avancées majeures ont été décidées le 20 janvier : des expérimentations de fibre auront lieu avant le 31 mars, un tableau de bord sera publié régulièrement et un cadre réglementaire sera précisé au milieu de l'année. Orange, Free et SFR ont conclu un accord au cours d'une réunion organisée par l'Arcep afin d'expérimenter la fibre optique. "Nous avons incité et obtenu des opérateurs la signature de conventions d'expérimentation" a déclaré le nouveau président de l'Arcep, Jean-Claude Mallet à l'AFP. Les opérateurs se sont ainsi entendus pour tester le mono-fibre, dont FT et SFR sont partisans et le multi-fibres, poussé par Free.

Ces expérimentations auront lieu dans un premier temps dans une quinzaine de sites sur Paris, couvrant un peu moins de 2 000 foyers. Les opérateurs se sont engagés à fournir d'ici la fin du mois de janvier une liste complémentaire incluant des sites en province ainsi que des sites dont le point de mutualisation se situe en dehors des immeubles.

"C'est au vu de ces expérimentations que les choix sur les conditions de mutualisation de la fibre au sein des immeubles pourront être arrêtés par l'Autorité", précise l'Arcep, à la quelle François Fillon a demandé de préciser le cadre réglementaire de la mutualisation pour mi-2009. Par ailleurs, l'Arcep prévoit de publier le 31 mars un premier tableau de bord du déploiement de la fibre en France.

Trois décrets d'applications de la loi sur la Modernisation de l'économie, attendus par les opérateurs télécoms impliqués dans le très haut débit, viennent par ailleurs d'être publiés. Ils précisent la portée du "droit au très haut débit" : le propriétaire d'un immeuble ne pourra pas s'opposer à ce qu'un occupant soit raccordé à un réseau très haut débit, sauf "motif sérieux et légitime". Pour éviter toute démarche commerciale abusive, les relations entre propriétaires d'immeubles et opérateurs seront encadrées par voie de convention. "Le coût des travaux est bien à la charge des opérateurs", est-il précisé par décret.

Le gouvernement impose désormais le pré-câblage des immeubles neufs en fibre optique. Ainsi, tous les bâtiments de plus de 25 logements seront pré-câblés en fibre optique à partir de 2010. Cette mesure figurait déjà dans le "Plan de relance économique" plus global du gouvernement. Celui-ci maintient l'objectif d'afficher 4 millions d'abonnés au très haut débit d'ici à 2012.

VNT

JDN

^ Haut
Matière
Matière et Energie
Naissance de l'Agence internationale des énergies renouvelables
Vendredi, 30/01/2009 - 00:00

L'Agence Internationale des Energies Renouvelables (Irena) a officiellement vu le jour lundi 26 janvier 2009. Plus de 75 pays, dont la France, ont signé le traité fondateur de l'organisation à Bonn en Allemagne. L'IRENA aura pour but de favoriser une transition mondiale rapide vers les énergies renouvelables. Le principal objectif de l'Agence sera d'encourager et de promouvoir l'adoption des énergies renouvelables à l'échelle planétaire. Concrètement, l'IRENA s'intéressera au renforcement des activités de conseil en matière de cadres réglementaires sur les énergies renouvelables ou au transfert efficace des technologies et du savoir-faire en matière d'énergie solaire ou éolienne dans le monde.

Sur la centaine de pays représentés à Bonn, 75 ont adhéré au traité fondateur de l'organisation. Parmi eux l'Egypte, l'Inde, le Pakistan, la Serbie, la Turquie, la Syrie ou encore le Nigeria. Doté d'un budget de 25 millions de dollars, Irena devra faire la preuve de son utilité face aux organisations existantes, notamment l'Agence Internationale de l'Energie (AIE).

La capacité de production d'électricité renouvelable aurait atteint environ 240 gigawatts (GW) dans le monde en 2007, soit une augmentation de 50% par rapport à 2004. Aujourd'hui, avec plus de 1300 millions de TEP, les ER (incluant l'énergie hydraulique) représentent 16 % de la consommation totale d'énergie dans le monde (6,5 % dans l'Union Européenne) et 20 % de la production mondiale d'électricité. En France, les ER représentent déjà 6,6 % de notre consommation totale d'énergie (18 MTEP) et 13 % de notre consommation électrique nationale.

Hors hydraulique, la principale composante de la capacité de production d'énergie renouvelable est l'énergie éolienne, qui s'est accrue de 28 % dans le monde en 2007, pour atteindre environ 95 GW. La capacité additionnelle annuelle a augmenté plus encore, avec une hausse de 40 % en 2008. La production mondiale d'électricité éolienne a quadruplé depuis 6 ans et atteint environ 120 000 GWh, soit le quart de la consommation électrique de la france. En France, la production d'énergie éolienne française a atteint 5,6 TWh en 2008, soit plus de 1 % de notre consommation électrique.

Selon le Conseil Mondial de l'Energie eolienne, la capacité mondiale actuelle, 94 GW, permettrait d'économiser chaque année le rejet de 122 millions de tonnes de CO2, soit l'équivalent de 20 grandes centrales au charbon ou encore 1,5 % des émissions mondiales de carbone d'origine humaine. En 2007, plus de 100 milliards de dollars ont été investis dans les usines de production, la recherche et le développement liés aux énergies renouvelables, d'après le dernier rapport de REN 21, Réseau mondial de promotion des énergies renouvelables pour le 21ème siècle.

IRENA

L'essor de l'énergie éolienne s'est poursuivi en 2008
Vendredi, 30/01/2009 - 00:00

En 5 ans, l'électricité d'origine éolienne produite en France aura été multipliée par 14. En 2008, la puissance installée du parc éolien atteint 3300 MW. Elle augmente de plus de 1000 MW, dont près de 200 MW raccordés directement au réseau de transport de RTE. L'énergie maximale produite sur une journée a atteint 46 GWh le lundi 10 novembre 2008. Un maximum instantané de production éolienne a été atteint le vendredi 21 novembre 2008 à 8h20 avec une puissance de 2255 MW, ce qui correspond à un facteur de charge (énergie produite rapportée à la puissance installée) de plus de 70 %.

Sur l'année 2008, le facteur de charge mensuel des installations éoliennes est resté très variable, de 10 % à 37 %, pour une valeur moyenne sur l'année de 23 %. La grande variabilité des rendements est liée, par nature, à l'intermittence des conditions de vent. On remarque qu'en 2008, la production thermique a baissé de 3 % alors que celle des autres ENR (biomasse essentiellement) a augmenté de 6,6 % : les arguments des anti-éoliens affirmant qu'une augmentation de la production éolienne entraîne nécessairement une hausse de la production thermique se trouvent donc à nouveau contredits par les faits.

NV

Doublement des emplois dans l'éolien en Europe d'ici 2020, selon une étude
Vendredi, 30/01/2009 - 00:00

Le nombre d'emplois dans le secteur de l'énergie éolienne en Europe devrait plus que doubler d'ici 2020, passant de 154.000 en 2007 à 325.000, selon une étude de l'Association européenne de l'énergie éolienne. Au cours des cinq dernières années, le secteur a créé 33 nouveaux emplois par jour en Europe, selon cette étude "Wind at work - énergie éolienne et création d'emplois en Europe", a précisé dans un communiqué le Syndicat des énergies renouvelables (SER).

En 2007, le secteur employait 154.000 personnes, dont 108.600 emplois directs. Les fabricants d'éoliennes représentaient 37 % des emplois directs, devant les fabricants de composants (22 %), les développeurs de projets (16 %) et les opérations d'installation et de maintenance (11 %).

Les trois quarts de ces emplois (75 %) se trouvent concentrés dans les trois pays pionniers de l'éolien : Danemark, Allemagne et Espagne.

En France, le nombre d'emplois devrait plus que doubler dans ce secteur d'ici 2012, passant de 7.000 à 16.000, a précisé le SER. En 2020, avec un parc installé de 25.000 MW, conformément aux objectifs du Grenelle de l'environnement, environ 60.000 personnes travailleront dans ce secteur en France, estime le SER.

EWEA

^ Haut
Espace
Espace et Cosmologie
Une nouvelle théorie sur la formation des galaxies grâce à la simulation numérique
Vendredi, 30/01/2009 - 00:00

Les galaxies sont les constituants fondamentaux de l'univers. Chacune d'entre elles rassemble en moyenne 100 milliards d'étoiles et s'étend sur plus de 50 000 années-lumière. Chaque galaxie se trouve au coeur d'un halo quasi-sphérique de matière noire, constituant dont la nature nous échappe encore mais que nous détectons indirectement par sa signature gravitationnelle.

Les galaxies d'aujourd'hui, comme notre Voie Lactée, ont une morphologie spirale. Ce sont des disques en rotation, riches en hydrogène gazeux, qui forment continûment des étoiles (de l'ordre de deux masses solaires sur une année). Pour comprendre la formation de ces galaxies, le scénario standard se fonde sur une accrétion de gaz quasiment sphérique et sur des collisions entre galaxies plus anciennes. Il suppose que les étoiles se forment tout d'abord de façon lente et mesurée dans les galaxies spirales, puis de façon violente à l'occasion de collision entre deux spirales, conduisant à la formation d'un "starburst" de plusieurs centaines de masses solaires par an, et à la formation d'une galaxie elliptique.

Ce modèle a été récemment remis en question par de nouvelles observations réalisées par des télescopes géants, qui ont permis de sonder l'histoire de l'univers sur plus de 10 milliards d'années en arrière, soit 3 milliards d'années après le Big Bang. Ces galaxies massives forment des étoiles à un taux de plusieurs centaines de masses solaires par an, mais ne ressemblent pas à des systèmes en collision. Elles ressemblent plutôt à de grands disques de gaz, fragmentés en plusieurs grumeaux géants, au sein desquels les étoiles se forment activement. Comment est-il possible que ces galaxies forment des étoiles si efficacement, sans mettre en jeu des collisions cosmiques entre galaxies ?

L'équipe internationale de cosmologistes auteur de la publication dans Nature, propose une nouvelle théorie de la formation des galaxies qui explique ces observations mystérieuses. Cette théorie s'appuie sur une simulation numérique d'une puissance sans précédent, réalisée par le Projet Horizon. Cette percée a été rendue possible grâce à l'utilisation d'un programme informatique développé par le CEA-Irfu sur l'un des plus gros ordinateurs du monde, le 'MareNostrum' du Centre de Calcul de Barcelone. Les informaticiens et les astrophysiciens ont d'abord 'découpé' l'univers en plus de 3 000 mailles - la maille est le calcul de base de la simulation numérique - pour représenter sa structure ; ils ont ensuite modélisé les processus physiques en jeu dans un algorithme, pour montrer la façon dont les étoiles interagissent avec le gaz.

Après quatre semaines de calcul intensif, réalisées en parallèle sur plus de 2 000 processeurs, la simulation a fait apparaître plus de 100 000 galaxies massives à l'intersection d'un réseau complexe de filaments gazeux. « La précision et la taille de cette simulation ont permis pour la première fois d'étudier en détail comment les galaxies focalisent la matière qui les constitue et qui les conduit à former des étoiles », explique Romain Teyssier, responsable du projet Horizon.

« Dans cette nouvelle théorie, la plupart des galaxies croissent par accrétion continue de gaz venant de courants froids, plutôt que par des collisions entre galaxies satellites. Nous les avons donc baptisées "les Galaxies à Courants Froids". » En moyenne, on compte trois filaments froids par galaxie, qui s'inscrivent dans la structure à grande échelle de l'univers, ce que l'on appelle le "Cosmic Web". Comme on peut le voir sur l'image zoomée autour d'une de ces galaxies, ces courants froids pénètrent à travers le halo de matière noire et de gaz chaud jusqu'au centre, là où se trouve le disque galactique. Ainsi enrichi en gaz frais, ce dernier se fragmente en grumeaux massifs au sein desquels se forment les étoiles.

Grâce à leurs calculs, les astrophysiciens de l'équipe franco-israélienne ont pu vérifier que cette nouvelle théorie s'accorde avec les observations. Ces résultats se démarquent du scénario standard, en proposant un changement de paradigme cosmologique et une nouvelle explication pour la formation de la Voie Lactée.

CNRS

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
Impact du changement climatique : le point de non retour est-il atteint ?
Vendredi, 30/01/2009 - 00:00

Le changement climatique a déjà des conséquences largement irréversibles pour un millénaire et les décisions prises aujourd'hui seront cruciales pour en minimiser l'ampleur, mettent en garde des scientifiques dans une étude publiée le 26 janvier aux Etats-Unis dans les Annales de l'Académie nationale américaine des sciences (PNAS). Ces travaux menés par Susan Solomon principale scientifique de l'Administration océanique et atmosphérique américaine (NOAA), montrent comment le changement de la température à la surface des océans, des précipitations dans certaines régions du globe et la montée du niveau des océans "sont largement irréversibles pour plus de mille ans après que les émissions de dioxyde de carbone (CO2) auront complètement cessé".

"Notre recherche nous persuade que les choix faits actuellement concernant les émissions de CO2 auront des retombées qui changeront irrémédiablement notre planète", déclare Susan Solomon, une des principales scientifiques du Groupe intergouvernemental d'experts sur l'évolution du climat (Giec). "On savait que le CO2 provenant des activités humaines et émis dans l'atmosphère peut y rester pendant des milliers d'années", ajoute cette climatologue. "Mais cette nouvelle étude permet de faire avancer la compréhension de la manière dont ce phénomène affecte le système climatique", poursuit-elle.

Le réchauffement de la planète est freiné par les océans qui, tel un gigantesque radiateur, absorbent une grande quantité de la chaleur de l'atmosphère faisant monter leur température et fondre les glaces arctiques et antarctiques. Non seulement cet effet va s'atténuer avec le temps mais les océans contribueront à maintenir des températures plus chaudes en dégageant la chaleur emmagasinée et ce pendant très longtemps, expliquent ces scientifiques. Cette recherche examine les conséquences de laisser le CO2 s'accumuler dans l'atmosphère selon différents niveaux au-delà de la teneur actuelle moyenne de 385 parties par million (ppm) de CO2 et ce avant un arrêt complet de ces émissions. Avant le début de l'ère industrielle l'atmosphère contenait seulement 280 parties par million de CO2 .

Les auteurs de ces travaux, basés sur de nombreuses mesures et plusieurs modèles informatiques, ont conclu que les preuves scientifiques étaient suffisamment solides pour d'ores et déjà quantifier certaines conséquences irréversibles du réchauffement dont le changement de la pluviosité dans plusieurs régions clé du globe ainsi que la montée du niveau des océans. Laisser le CO2 atteindre de 450 à 600 ppm aurait pour conséquence une diminution persistante des précipitations en été. Cette diminution des pluies qui persistera plusieurs siècles aura différentes conséquences selon les zones géographiques.

Ces chercheurs citent une diminution de l'eau disponible, une plus grande fréquence des incendies, des changements de l'écosystème et une plus grande désertification. Avec une teneur de 600 ppm de CO2, les océans monteraient de façon irréversible en moyenne de 40 centimètres à un mètre d'ici l'an 3.000 et du double, si le CO2 atmosphérique atteignait 1.000 ppm, selon ces scientifiques.

Cette étude est publiée le jour même où le président Barack Obama a annoncé plusieurs décisions inversant la politique de son prédécesseur et qui visent à lutter sérieusement contre le réchauffement. Il a notamment demandé un réexamen immédiat du rejet par l'administration Bush de la décision de la Californie (ouest) d'imposer des normes plus strictes que celles de l'Etat fédéral pour réduire les émissions de CO2 des automobiles.

SD

L'Antarctique aussi se réchauffe
Vendredi, 30/01/2009 - 00:00

Les températures ont augmenté en moyenne de 0,5° Celsius en Antarctique depuis les années 1950, selon une étude réalisée par des scientifiques américains à partir de relevés météorologiques au sol et d'autres données transmises par satellites. "Ce qu'on entend tout le temps, c'est que l'Antarctique se refroidit, or ce n'est pas le cas", explique Eric Steig, de l'Université de l'Etat de Washington, à Seattle, auteur principal de l'étude, publiée dans la revue Nature. La hausse moyenne des températures en Antarctique est "très compatible avec la moyenne mondiale", a-t-il dit.

Ceux qui contestent le rôle des activités humaines dans le réchauffement planétaire ont par le passé brandi des rapports faisant état d'un refroidissement du climat de l'Antarctique, à l'appui de leur position consistant à nier tout réchauffement.

Un refroidissement en certains endroits comme le pôle Sud et l'extension de la banquise d'hiver autour du continent masquent une tendance globale au réchauffement sur un continent plus grand que les Etats-Unis, où la moyenne des températures annuelles oscille autour de -50°. Les scientifiques écrivent dans Nature que la hausse des températures dans l'Antarctique est "difficile à expliquer" sans faire le lien avec l'augmentation des émissions de gaz à effet de serre due aux activités humaines.

Jusqu'à présent, les scientifiques s'accordaient à dire que le réchauffement était circonscrit, en Antarctique, à la Péninsule antarctique, qui s'avance en direction de l'Amérique du Sud, où est située à la base scientifique britannique de Rothera. "La zone touchée par le réchauffement est bien plus importante que la seule Péninsule antarctique", écrivent les chercheurs dans Nature, en précisant qu'elle concerne l'ensemble de l'Antarctique Ouest.

La hausse des températures dans l'Ouest est, pour partie, compensée par un rafraîchissement automnal dans la partie est. Si la totalité des glaces de l'Antarctique fondait, le niveau moyen des mers du globe monterait de 57 mètres. Aussi, la fonte ne serait-ce que d'une petite partie de cette glace menacerait les Etats insulaires du Pacifique et de grandes métropoles côtières.

Depuis les années 1990, dix vastes plates-formes glaciaires au bord de la péninsule antarctique ont diminué voire se sont désintégrées. La plaque glaciaire Wilkins, dont la superficie a déjà diminué d'un tiers, est sur le point de se disloquer. Elle n'est maintenue en place que par un isthme de glace de 500 mètres de long, contre cent kilomètres dans les années 1950. L'étude publiée dans Nature a consisté à comparer les températures mesurées par les satellites au cours des 25 dernières années avec les relevés des 50 dernières années dans 42 stations météorologiques d'Antarctique, la plupart sur la côte.

Nature

Un air moins pollué accroît de 5 mois l'espérance de vie de citadins
Vendredi, 30/01/2009 - 00:00

L'amélioration de la qualité de l'air a permis d'accroître l'espérance de vie des habitants d'une cinquantaine de villes américaines d'environ cinq mois en vingt ans, révèle une étude publiée dans le New England Journal of Medicine. Selon les travaux de chercheurs de l'Université Brigham Young et de la Harvard School of Public Health, l'espérance de vie moyenne dans ces 51 villes américaines s'est accrue de près de trois ans, de 1980 à 2000, dont cinq mois attribués à une atmosphère moins polluée. "Une augmentation aussi significative de l'espérance de vie attribuable à une réduction de la pollution est remarquable", souligne le Dr Arden Pope, un épidémiologiste de l'Université Brigham, principal auteur des travaux. "Non seulement nous avons un air plus propre, ce qui améliore l'environnement, mais en même temps nous améliorons notre santé publique", se réjouit le médecin.

Ces chercheurs ont comparé les modifications du niveau de pollution de l'air de ces villes entre 1980 et 2000 et l'évolution de l'espérance de vie de leurs habitants durant la même période. Ils ont appliqué des modèles statistiques prenant en compte d'autres facteurs pouvant agir sur l'espérance de vie comme les revenus, la formation, la migration, la démographie et la consommation de tabac. Dans les villes les plus polluées au début des années 80 et qui ont fait l'objet du plus grand assainissement de l'air, le gain d'espérance de vie de l'habitant moyen a été de dix mois, précisent les scientifiques.

En moyenne, les citadins des 51 villes ont vécu 2,72 années de plus en 2000, dont cinq mois, ou 15 % de ce gain, directement liés à la réduction de la pollution. D'autres études montrent que cet allongement de la durée de vie résulte de la diminution des maladies cardiovasculaires et cardio-pulmonaires, souvent liées à la pollution. Pour chaque diminution de 10 microgrammes de particules de pollution par mètre cube dans un centre urbain, l'espérance de vie moyenne de ses habitants augmente de plus de sept mois, selon une autre étude.

Durant les années 80 et 90, les niveaux moyens de particules fines en suspension sont tombés de 21 à 14 microgrammes par m3. Cette recherche a été notamment financée par les Centres fédéraux américains de contrôle et de prévention des maladies (CDC) et l'Agence américaine de l'Environnement (EPA).

NEJM

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Comprendre comment les cellules souches restent indifférenciées
Vendredi, 30/01/2009 - 00:00

Une étude, publiée dans le journal Science, s'intéresse aux mécanismes de différenciation des cellules souches. Des scientifiques de la Carnegie Institution ont identifié un gène qui semble impliqué dans le maintien des cellules souches dans leur état indifférencié. Dans cette étude, Allan C. Sprading et ses collaborateurs Michael Buszczak and Shelley Paterno, ont découvert chez la drosophile un gène appelé scrawny, qui intervient dans la modification de l'histone H2B. L'histone H2B participe à la compaction de l'ADN dans la chromatine.

En contrôlant les protéines qui conditionnent l'expression génétique, scrawny peut "éteindre" l'expression des gènes qui conduisent la cellule à se différencier en cellule spécifique de type cellule intestinale ou cellule de peau. Les chercheurs ont observé les effets de scrawny sur tous les types de cellules souches connues chez la drosophile. D'après leurs résultats, les mutants de drosophile sans copies fonctionnelles de scrawny perdent prématurément les cellules souches indifférenciées au niveau de leur tissu reproductif, de la peau, et de l'intestin. Des gènes similaires au gène scrawny ont été identifiés dans tous les organismes multicellulaires, y compris les humains. Selon le Dr Spradling, "la compréhension du rôle de scrawny rend plus facile l'expansion des cellules souches en culture, et leur différentiation vers un tissu donné". Comprendre comment les cellules souches conservent dans le temps leur capacité à se différencier, donne l'accès à de nouvelles connaissances en biologie et ouvre la voie à de nouvelles applications en médecine.

L'Institution Carnegie est une organisation privée à but non lucratif regroupant six départements de recherche à travers les Etats-Unis dans les domaines de la biologie du développement, l'astronomie, l'écologie, les sciences de la matière. Les cellules souches ont la capacité de se multiplier à l'identique sur de longues périodes grâce au processus de prolifération, et peuvent donner naissance à différents types cellulaires sous certaines conditions, lors d'un processus appelé différenciation. Elles participent au renouvellement cellulaire et à la réparation de l'organisme. Elles maintiennent la vitalité des tissus et des organes en produisant de nouvelles cellules pour remplacer les cellules mortes et reconstruire les tissus endommagés.

Le gène scrawny (scny) code pour une protéase spécifique de l'ubiquitine, nécessaire aux cellules souches germinales, épithéliales et intestinales. Cette protéine supprime le signal ubiquitine de dégradation des histones H2B, et donc maintient les gènes dans un état réprimé. Cette étude suggère que l'inhibition de l'ubiquitinylation de l'histone H2B par la protéine codée par le gène scny, représente un mécanisme commun à l'intérieur des cellules souches utilisé pour réprimer l'expression prématurée de gènes de différenciation.

BE

Etats-Unis : feu vert au 1er essai de thérapie à base de cellules souches d'embryon
Vendredi, 30/01/2009 - 00:00

La société de biotechnologies américaine Geron Corporation a annoncé avoir obtenu l'autorisation de lancer le premier essai sur l'homme d'une thérapie utilisant des cellules souches embryonnaires. Cet essai concernera des patients paralysés à la suite de lésions de la moelle épinière.

Dans un communiqué, la firme californienne a indiqué que la FDA, l'agence américaine des médicaments, avait donné son accord pour un essai de phase I appelé GRNOPC1. Un essai de phase I est conduit sur un petit nombre de patients afin de montrer la bonne tolérance pour l'homme d'une thérapie innovante. "L'accord permet à Geron de lancer la première étude au monde sur l'homme utilisant une thérapie basée sur l'utilisation de cellules souches embryonnaires humaines", a indiqué la société.

L'annonce de la compagnie n'était pas confirmée sur le site internet de la FDA. L'objectif de l'essai GRNOPC1 est d'injecter sur des volontaires paralysés des cellules dérivées de cellules souches embryonnaires humaines, dans l'espoir qu'elle puissent régénérer les cellules nerveuses endommagées et, potentiellement, permettre à la personne paralysée de retrouver la sensibilité et la faculté de mouvement.

La société a indiqué qu'elle avait soumis à la FDA un dossier de 21.000 pages pour appuyer sa demande d'autorisation, arguant que la thérapie avait montré son efficacité sur des souris et des rats. Les cellules souches embryonnaires sont les seules cellules souches à avoir la capacité de se développer en n'importe quel type de cellules (elles sont pluripotentes). La principale difficulté pour les chercheurs est d'obtenir que les cellules souches embryonnaires "se différencient" pour devenir les cellules qu'ils souhaitent obtenir, sans risquer de se transformer en cellules indésirables comme des tumeurs.

AFP

Stimuler un gène partagé par l'Homme et le ver pour réparer le système nerveux
Vendredi, 30/01/2009 - 00:00

Un gène régénérant les nerfs chez les vers pourrait être stimulé chez l'Homme afin de réparer les cellules nerveuses endommagées. Le gène dlk-1, fait partie d'un réseau de quatre gènes essentiel à la réparation nerveuse et présent à la fois chez l'homme et le ver. "Nous avons mis en évidence une voie responsable de la régénération nerveuse chez le ver, mais qui existe également chez l'Homme, où elle remplit certainement les mêmes fonctions" explique le Dr Michael Bastiani, auteur de l'étude pour l'université de l'Utah.

En stimulant médicalement ce gène, le Dr Bastiani pense qu'il pourrait "améliorer significativement la capacité des neurones à se régénérer après une blessure", précisant cependant que pour être efficace, dlk-1 doit être stimulé peu de temps après l'endommagement du système nerveux. C'est en travaillant sur des vers nématodes que l'équipe de chercheurs réunie autour du Dr Bastiani a réalisé ces découvertes, expliquées dans la revue Science. En bloquant l'activité du réseau de gène incluant dlk-1, ils ont empêché les vers de réparer les dégâts infligés à leur système nerveux. A l'inverse, la stimulation de ces gènes conduisait à une régénération accélérée.

MS

L'aspirine protégerait le foie des effets de l'obésité
Vendredi, 30/01/2009 - 00:00

L'aspirine prise régulièrement protégerait de problèmes de foie affectant des millions de personnes et résultant d'abus d'alcool ou de surdoses de certains médicaments, ainsi que de maladies liées à l'obésité, selon une étude publiée lundi aux Etats-Unis. "Un grand nombre de substances comme les médicaments et l'alcool peuvent endommager le foie parfois très gravement et nous avons découvert deux façons de bloquer un important mécanisme responsable de ces dommages", explique le Dr Wajahat Mehal, du service d'immunobiologie de la faculté de médecine de l'Université Yale (Connecticut, nord-est), le principal auteur de cette recherche parue dans le Journal of Clinical Investigation daté du 26 janvier.

"Notre stratégie est une prise quotidienne d'aspirine pour protéger le foie et si les dommages se sont déjà produits, le recours à des substances stimulant les réactions immunitaires", ajoute-t-il. Ces recherches ont été menées sur des souris. Cette découverte pourrait ainsi permettre d'utiliser, en combinaison avec de l'aspirine, des traitements expérimentaux très prometteurs pour différentes maladies qui ont dû être abandonnés en raison de leur toxicité pour le foie, souligne ce médecin. Cette avancée "offre la possibilité de réduire les souffrance des patients atteints de maladies de foie avec une approche nouvelle et très simple", poursuit le Dr Mehal. Les vertus préventives de l'aspirine contre les maladies cardiovasculaires et certains cancers sont déjà reconnues par la médecine.

Yahoo

Des suppléments de vitamine D pourraient éviter la dégénérescence mentale
Vendredi, 30/01/2009 - 00:00

Le Dr Lang, de l'école médicale d'Exeter, pense que prendre des suppléments de vitamine D à l'âge adulte pourrait diminuer les risques de maladies d'Alzheimer plus tard dans la vie. La vitamine D, produite quand la peau est exposée au soleil, a déjà pour vertus de maintenir le système immunitaire et la solidité des os, mais aussi de prévenir certains types de cancers. Cette nouvelle étude est l'une des premières à suggérer que cette vitamine peut aussi préserver les facultés mentales à un âge avancé. Si ce lien est confirmé, le Dr Lang propose de donner des suppléments gratuits aux adultes. Il ajoute : « On peut produire de la vitamine D à un coût très faible, quelques centimes d'euros par jour.

Étant donné la charge croissante des soins accordés aux malades de démence, même si cela peut réduire le nombre de malades de 10 %, cela ferait une différence énorme. La quantité de vitamine D contenue dans un comprimé multivitaminé est suffisante. » Le Dr Lang a étudié la quantité de vitamine D contenue dans le sang d'environ 2 000 personnes de plus de 65 ans. Ceux qui ont les plus bas niveaux de vitamine D dans le sang sont deux fois plus susceptibles d'avoir des problèmes de mémoire et d'attention, par rapport à ceux qui ont les plus hauts niveaux. La production de vitamine D diminue avec l'âge. Elle serait responsable de la fabrication de nouvelles cellules dans le cerveau et protégerait celles qui existent déjà. Rien ne prouve en revanche qu'elle peut réparer les dégâts déjà causés par la maladie.

Yahoo

Des cellules pour réparer le cerveau
Vendredi, 30/01/2009 - 00:00

Les dommages au cerveau après un accident vasculaire cérébral (AVC) peuvent être réduits, selon les conclusions d'une recherche menée à la Faculté de médecine de l'Université Laval. Une équipe de chercheurs constate que la stimulation de la production de cellules régulatrices T peut contribuer à réparer des tissus nerveux et ainsi à limiter les effets secondaires d'un accident vasculaire cérébral. Les expériences menées en laboratoire démontrent que trois jours après un AVC, le cerveau des souris qui n'avaient pas de cellules régulatrices T avait subi 20 % plus de dommages que le cerveau des souris qui en étaient pourvues.

Selon le neuro-immunologue Serge Rivest, la stimulation de ces cellules immunitaires permettrait de réduire la paralysie, ainsi que la perte de la parole et de la vue. « Une fois qu'ils vont infiltrer le cerveau de façon adéquate, ils vont pouvoir empêcher les effets secondaires permanents et réparer le tissus nerveux une fois que toute la situation va être rétablie », explique le chercheur.

Ce dernier croit que cette découverte pourrait mener, d'ici quelques années, à un traitement des AVC et d'autres atteintes au cerveau. « L'intérêt pour ces cellules-là est très, très grand maintenant pour essayer de voir comment on peut favoriser spécifiquement la prolifération des cellules T-reg pour d'autres maladies comme la sclérose en plaques, des traumatismes de la moëlle épinière, des traumatismes crâniens, de la maladie d'Alzheimer aussi », dit-il. Les résultats sur la stimulation de la production des cellules régulatrices T sont publiés par la revue britannique spécialisée en recherche biomédicale.

RC

^ Haut
Recherche
Recherche & Innovation, Technologies, Transports
Quand la voiture devient une centrale électrique
Vendredi, 30/01/2009 - 00:00

Le Vehicle-to-Grid génère sa propre électricité. Il est ensuite capable de transférer celle qu'il n'utilise pas aux réseaux électriques via une simple prise. L'Université du Delaware travaille sur un véhicule entièrement électrique capable de générer sa propre électricité mais aussi la partager quand la voiture est inactive.

Pour les entreprises ou les administrations disposant d'une grande flotte de véhicules, on peut imaginer l'intérêt du système : si certaines voitures n'ont pas vocation à être rechargées immédiatement, l'énergie résiduelle de leur batterie pourrait être réinjectée dans leurs circuits électriques. Le système, baptisé Vehicle to Grid, se recharge grâce à des sources d'énergie alternatives comme le vent ou le solaire. Il peut ensuite fournir l'énergie stockée dans la batterie de la voiture aux opérateurs électriques. Ce, sans que les fonctions de la voiture soient impactées par ce transfert.

"Si l'on recharge pendant la nuit les véhicules grâce au vent, les opérateurs pourront ensuite utiliser cette énergie quand les conducteurs ne seront pas actifs et auront branché leur voiture", exprime Willett Kempton, l'un des responsables du projet. Et d'ajouter : "Ce service aidera à maintenir la fiabilité du réseau". Pour recevoir les reliquats automobiles, les opérateurs électriques exprimeront leurs besoins via divers protocoles sur IP, besoins transmis aux unités non utilisées. Une rémunération sera versée au propriétaire.

Bien évidemment, cette réduction du coût d'utilisation de son automobile a pour but de populariser l'usage de Vehicle-To-Grid. Avec en ligne de mire la généralisation de l'utilisation de sources d'énergie alternatives et la réduction de celles liées au carbone. Le transfert se fait par branchement.

Selon les créateurs du système, un conducteur américain moyen est au volant de sa voiture une heure par jour. Or l'énergie générée par la voiture est bien supérieure à ces besoins : une automobile électrique qui a chargé pendant une nuit entière peut générer jusqu'à 19 kW, soit la quantité d'électricité nécessaire pour alimenter plus d'une dizaine de foyers.

C'est la ville de Newark, dans le Delaware, qui est la première à adopter le véhicule et à adapter ses infrastructures pour permettre ce transfert d'énergie. D'ici la fin de l'année, la flotte devrait s'élever à six véhicules, répartis dans différentes villes de l'Etat. Ceux-ci seront utilisés pour démontrer l'efficacité du dispositif, qui permet aux autos de fonctionner normalement et de fournir de l'énergie selon les besoins.

UDEL

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top