RTFlash

RTFlash a besoin de vous pour continuer à exister !

Propulsé par HelloAsso

RTFLASH Recherche & Technologie
NUMERO 562
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 08 Juillet 2010
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
Les téléphones mobiles pour lutter contre les embouteillages
Le gouvernement veut diviser par 10 le nombre de ses sites Web
Matière
Tous les acteurs français s'associent pour développer les batteries du futur
Produire de l'hydrogène sans émissions de CO2
Un moteur à vapeur générateur d'électricité
Un nanomatériau idéal pour des applications photovoltaïques et thermoélectriques
Terre
La loi « Grenelle 2 » adoptée
Le "projet de loi portant engagement national pour l'environnement" (Grenelle 2) a été définitivement adopté par le Parlement, le 29 juin 2010.
CO2 : les émissions des émergents compensent les réductions des riches
Capture et séquestration de carbone : quatre projets français à la pointe de la technologie
Vivant
Quand l'ADN prédit un destin de centenaire
Des scientifiques sud-coréens identifient une cause de l'arthrose
Traitement du glaucome : EyeTechCare récompensée pour une innovation de rupture
Résultats prometteurs pour la radiothérapie per-opératoire mammaire
Dépendance aux drogues : une perte de souplesse du cerveau
Recherche
Edito
La vie serait apparue sur Terre il y a plus de deux milliards d'années !



Cette découverte est de celles qui n'arrivent qu'une fois dans la vie d'un chercheur et elle donne le vertige : une équipe internationale et pluridisciplinaire de chercheurs coordonnée par Abderrazak El Albani du laboratoire « Hydrogéologie, argiles, sols et altérations » (CNRS/Université de Poitiers) a découvert au Gabon plus de 250 fossiles en excellent état de conservation qui apportent, pour la première fois, la preuve de l'existence d'organismes pluricellulaires il y a 2,1 milliards d'années.

Jusqu'à présent, les premières formes de vie complexe (dotée de plusieurs cellules) remontaient à 600 millions d'années environ. (Voir article du CNRS et article de Nature ).

De formes et de dimensions diverses, ces nouveaux fossiles (près de 250 spécimens) sont des êtres au corps mou et gélatineux "qui ne présentent aucune ressemblance avec quoi que ce soit de connu", selon les chercheurs.

Cette découverte surprenante montre qu'il existait sur Terre une vie organisée et complexe il y a plus de deux milliards d'années !

Pour être certains qu'il s'agissait bien d'êtres vivants, les chercheurs, grâce à la microtomographie à rayons X, ont d'abord élucidé la structure interne de ces êtres, dévoilant une organisation spatiale complexe. Ils ont ensuite analysé le carbone et le soufre des fossiles et les différents isotopes de ces deux éléments confirment que ces empreintes sont bel et bien des traces de vie.

Les premières traces de vie sont apparues il y a environ trois milliards et demi d'années : il s'agissait d'organismes procaryotes, c'est-à-dire privés de noyau.

Autre événement majeur dans l'histoire de la vie, « l'explosion cambrienne », autour de 600 millions d'années, marque la prolifération du nombre d'espèces vivantes, accompagnée d'une hausse subite de la concentration en oxygène dans l'atmosphère.

Mais on sait encore très peu de choses sur ce qui s'est passé entre 3,5 milliards et 600 millions d'années. C'est pourtant au cours de cette immense période appelée le Protérozoïque que la vie a franchi une étape décisive en se diversifiant et se complexifiant : aux procaryotes se sont ajoutés les eucaryotes, organismes uni ou pluricellulaires dont l'organisation et le métabolisme sont plus complexes. De grande taille, ces êtres vivants se distinguent des procaryotes par la présence de cellules qui possèdent un noyau contenant l'ADN.

Pour pouvoir se développer il y a 2,1 milliards d'années et se différencier à un niveau jamais atteint auparavant, les auteurs pensent que ces formes de vie ont sans doute bénéficié de l'augmentation significative mais temporaire de la concentration en oxygène dans l'atmosphère.

Celle-ci s'est produite entre 2,45 et 2 milliards d'années. Puis, il y a 1,9 milliards d'années, le taux d'oxygène dans l'atmosphère a brusquement chuté.

Jusqu'à présent, on supposait que la vie multicellulaire organisée était apparue il y a environ 0,6 milliard d'années et qu'avant, la Terre était majoritairement peuplée de microbes (virus, bactérie...).

Cette nouvelle découverte recule l'âge de l'origine de la vie multicellulaire de 1,5 milliard d'années et révèle que des cellules avaient commencé à coopérer entre elles pour former des unités plus complexes et plus grandes que les structures unicellulaires.

Il reste à présent à comprendre l'absence de fossiles entre 2,1 milliards et 600 millions d'années, âge des plus anciens fossiles retrouvés jusqu'ici, dans les collines d'Ediacara, en Australie. Il est possible que les formes de vie fossilisées dans les argiles gabonaises aient simplement disparu sans descendance.

On le voit, cette découverte tout à fait extraordinaire bouleverse totalement le scénario jusqu'à présent bien établi de développement et de complexification du vivant.

Elle remet en cause la distinction entre procaryotes et eucaryotes et pose finalement plus de questions qu'elle n'apporte de réponses à la grande énigme de l'essor du vivant. A mon sens, il faut se sortir de la tête toute comparaison avec ce que nous appelons eucaryotes et procaryotes, estime Hervé Le Guyader, biologiste de l'évolution (université Paris-VI). C'est précisément cela qui est passionnant : ce sont peut-être des formes de vie qui n'ont rien à voir avec celles que nous connaissons." "C'est un peu comme si on découvrait des organismes extraterrestres !", renchérit M. Janvier.

"Il est envisageable que les formes de vie les plus complexes, donc les plus fragiles, aient disparu au profit des organismes les plus archaïques", souligne pour sa part M. El-Albani. Mais la nature, après de multiples tâtonnements et sans doute de multiples échecs dont nous ne savons rien, aurait finalement permis l'apparition, un peu plus d'un milliard d'années plus tard, de nouvelles formes de vie plus élaborées, dont les formes de vie actuelles descendraient.

On le voit, c'est bien un nouveau et passionnant chapitre au grand livre de la vie qui vient de s'ouvrir !

René Trégouët

Sénateur honoraire

Fondateur du Groupe de Prospective du Sénat


TIC
Information et Communication
Les téléphones mobiles pour lutter contre les embouteillages
Vendredi, 09/07/2010 - 00:00

Les téléphones mobiles, quand ils sont allumés, peuvent fournir des informations sur le comportement des automobilistes. Grâce à l'exploitation de ces données, les chercheurs sont aujourd'hui capables d'établir des prédictions sur l'encombrement des routes.

En situation d'embouteillage, les automobilistes peuvent s'informer sur la situation du trafic soit par radio, soit par des panneaux dynamiques placés au bord des routes, indiquant des itinéraires alternatifs. Les informations sur l'état de la circulation sur les autoroutes sont fournies par plus de 4.000 détecteurs infrarouges placés sur des ponts, et environ 5.000 boucles d'induction implantées dans la route.

L'objectif des chercheurs est de développer une technologie plus préventive, qui empêcherait la formation d'embouteillages. "Pour cela, nous devons en apprendre plus sur le comportement des conducteurs", explique Markus Friedrich, professeur à l'Université de Stuttgart. En coopération avec l'entreprise T-Mobile, les villes de Karlsruhe et Stuttgart, et le Ministère de l'intérieur du Land de Bade-Wurtemberg, il a examiné comment les informations sur la circulation fournies aux automobilistes influencent leur comportement. Les réponses ont été fournies par les téléphones mobiles présents à bord des véhicules.

Les téléphones émettent des signaux qui sont reconnus par l'antenne téléphonique la plus proche. Chaque antenne définit ainsi une cellule, correspondant à l'étendue des signaux qu'elle peut capter. 50 des ces cellules forment une unité, nommée "location area", qui correspond à la parcelle du réseau gérée par un centre de commutation numérique. Chaque téléphone allumé s'enregistre dans une de ces "location area", qui couvre environ 250 km carrés. Ainsi, selon la position du véhicule dans le réseau routier, il sera possible de détecter dans quelle parcelle il se trouve.

La région couverte par cette étude, qui s'étend entre Mannheim, Heilbronn, Karlsruhe et Stuttgart (Bade-Wurtemberg), est parsemée de 40 parcelles. M. Friedrich y a prélevé des données relatives à quelque 12 millions de téléphones mobiles par jour de juillet 2008 à mars 2009, en prenant soin de les rendre anonymes. Leur analyse a montré comment les automobilistes réagissent à certaines situations de circulation, et dans quelle mesure ils adaptent leur itinéraire. "En moyenne, 35 % des conducteurs suivent les informations et les itinéraires alternatifs qui leurs sont proposés".

Toutes ces données collectées peuvent par la suite être implantées dans des logiciels de simulation modélisant le trafic routier. Un tel programme a par exemple été développé par Michael Schreckenberg de l'Université de Duisbourg-Essen (Rhénanie-du-Nord - Westphalie). Celui-ci est capable de prédire des embouteillages avant même leur formation, et permettrait ainsi de proposer des itinéraires alternatifs aux usagers assez rapidement pour éviter tout encombrement.

BE

Le gouvernement veut diviser par 10 le nombre de ses sites Web
Vendredi, 09/07/2010 - 00:00

Afin de garantir la cohérence et la lisibilité de la communication gouvernementale et de lutter contre l'actuelle dispersion des moyens, le nombre de sites Internet publics, actuellement plus de 570, sera divisé par 10 d'ici à fin 2012 vient d'annoncer le ministère du Budget ; il existe un véritable « foisonnement des sites Internet de l'Etat », pas forcément efficace. L'information au public est jugée difficile d'accès, comme les démarches et les services en ligne. Pour résumer, l'Etat a multiplié les sites pour pas grand-chose. Ce qui ne veut pas dire que le Budget veuille mettre un frein aux services dématérialisés. Au contraire.

En parallèle de cette réduction drastique des sites publics, le rapport du ministère envisage des moyens de faciliter l'usage des services en ligne par les citoyens. Comme par exemple, la possibilité de se connecter en se servant toujours du même identifiant, que ce soit pour aller sur son espace personnel du site des Impôts, de la Caisse d'allocations familiales, de l'Assurance maladie ou d'autres sites. Un recentrage sur le site Service-public.fr est aussi prévu. Au lieu d'aller chercher les services sur leurs sites dédiés, l'internaute pourra y accéder à partir de son espace personnel de Service-public.fr. Le Budget pense en particulier à la déclaration d'impôts ou à la déclaration d'une association loi 1901.

D'ici à 2011, le ministère veut enfin instaurer un système d'évaluation de tous les sites publics par les usagers. En septembre prochain, il va mettre en ligne, pour une phase de test, des questionnaires permettant de noter Gouvernement.fr, Service-public.fr et le site de l'Education nationale. Cette rationalisation de la communication gouvernementale sur le Web n'est pas propre à la France. Le 25 juin dernier, le gouvernement britannique annonçait vouloir procéder à un audit de ses 820 sites Internet, afin de déterminer lesquels sont les plus efficaces et lesquels ne servent à rien. En 2009 et 2010, l'Etat d'outre-Manche a dépensé 94 millions de livres sterling (113,4 millions d'euros) en coûts de développement et de fonctionnement pour ses sites.

OINet

^ Haut
Matière
Matière et Energie
Tous les acteurs français s'associent pour développer les batteries du futur
Vendredi, 09/07/2010 - 00:00

L'ensemble des acteurs privés et publics de la recherche se sont réunis le 2 juillet pour annoncer la création du premier réseau français de recherche et technologie sur les batteries. Pour rivaliser avec l'Allemagne, les Etats-Unis et l'Asie, l'union sacrée est annoncée pour développer, en France, les batteries du futur. CEA, CNRS, IFP... Tous les acteurs français ont décidé de s'associer. Y compris des industriels (Renault, EDF, Arkema, SAFT, PSA...).

La France a été leader dans les accumulateurs et batteries. Mais toutes nos belles avancées scientifiques sont devenues des succès commerciaux à l'étranger", s'est insurgé Jean-Marie Tarascon, enseignant chercheur à l'Université de Picardi Jules Verne. Sollicité pour s'expatrier aux Etats-Unis, ce grand spécialiste français aura finalement de quoi s'occuper dans l'Hexagone. "Il assurera le leadership scientifique du nouveau réseau", a lancé Alain Fuchs, président du CNRS.

Pour accélérer l'innovation française dans les batteries, l'objectif est de "créer un continuum entre la recherche amont et les industriels, à l'instar de ce qui a été réussi Valérie Pécresse, ministre de l'enseignement supérieur et de la recherche.

Les enjeux sont multiples : éviter de dupliquer les projets ; faciliter l'industrialisation en France des nouvelles technologies de batteries ; concevoir des technologies de rupture à l'horizon 2020. Concrètement, des comités de pilotage ont été créés pour que les acteurs français du monde des batteries "se concertent en amont sur les programmes de R&D à lancer", a résumé Ronan Stephan, directeur général de la recherche et de l'innovation au ministère.

Le CEA et le CNRS seront les deux piliers du nouveau réseau. Piloté par le CNRS, le centre de recherche amont aura pour mission d'explorer les nouveaux concepts de batteries et particulièrement les matériaux à hautes performances. Piloté par le CEA, le centre de recherche technologique testera et validera ces concepts. Il s'appuiera notamment sur l'IFP, l'Ineris et l'Inrets. Le ministère a annoncé attribuer 1,5 million d'euros au réseau pour financer 15 contrats de post-doctorants. De son côté, le CNRS mobilisera, d'ici 2017, 19 chercheurs, 14 ingénieurs et techniciens. Les grands axes de recherche sont déjà établis :

-Les batteries lithium-ion, lithium-polymère, lithium-air

-La synergie batterie/supercondensateur

-Les analyses de cycle de vie et le recyclage des batteries.

"Nous sommes convaincus de pouvoir réduire de 30 % le coût des batteries et d'améliorer de 50 % leur densité énergétique d'ici 2020", a assuré Rémi Bastien, directeur de la recherche et des études avancées de Renault.

[I1T">...] dans le domaine des micro et nanotechnologies", a annoncé Valérie Pécresse, ministre de l'enseignement supérieur et de la recherche.

Les enjeux sont multiples : éviter de dupliquer les projets ; faciliter l'industrialisation en France des nouvelles technologies de batteries ; concevoir des technologies de rupture à l'horizon 2020. Concrètement, des comités de pilotage ont été créés pour que les acteurs français du monde des batteries "se concertent en amont sur les programmes de R&D à lancer", a résumé Ronan Stephan, directeur général de la recherche et de l'innovation au ministère.

Le CEA et le CNRS seront les deux piliers du nouveau réseau. Piloté par le CNRS, le centre de recherche amont aura pour mission d'explorer les nouveaux concepts de batteries et particulièrement les matériaux à hautes performances. Piloté par le CEA, le centre de recherche technologique testera et validera ces concepts. Il s'appuiera notamment sur l'IFP, l'Ineris et l'Inrets. Le ministère a annoncé attribuer 1,5 million d'euros au réseau pour financer 15 contrats de post-doctorants. De son côté, le CNRS mobilisera, d'ici 2017, 19 chercheurs, 14 ingénieurs et techniciens. Les grands axes de recherche sont déjà établis :

-Les batteries lithium-ion, lithium-polymère, lithium-air

-La synergie batterie/supercondensateur

-Les analyses de cycle de vie et le recyclage des batteries.

"Nous sommes convaincus de pouvoir réduire de 30 % le coût des batteries et d'améliorer de 50 % leur densité énergétique d'ici 2020", a assuré Rémi Bastien, directeur de la recherche et des études avancées de Renault.

[I1T

Produire de l'hydrogène sans émissions de CO2
Vendredi, 09/07/2010 - 00:00

L'hydrogène occupe une place prépondérante dans l'activité industrielle mondiale. Ce gaz est utilisé en grande quantité par l'industrie pétrochimique principalement pour la désulfurisation des carburants et par l'industrie chimique pour la synthèse de l'ammoniac, pour la production de méthanol et d'acide chlorhydrique. L'industrie l'agroalimentaire (hydrogénation des graisses et des huiles), l'électronique (semi-conducteurs), la métallurgie sont également de grandes consommatrices d'hydrogène. Sans compter que, pour palier à l'épuisement des combustibles fossiles, l'hydrogène est désormais amené à devenir un vecteur énergétique en complément de l'électricité.

Aujourd'hui, 90 % du gaz hydrogène est produit de manière industrielle soit par vaporeformage de méthane (craquage du gaz naturel par la vapeur d'eau à haute température), soit par oxydation partielle (production de l'hydrogène à partir d'hydrocarbures lourds et de dioxygène). Deux procédés qui émettent d'importantes quantités de CO2 : la production d'une tonne d'hydrogène par vaporeformage du gaz naturel génère ainsi 9 tonnes de CO2 et 18 tonnes de CO2 par oxydation partielle.

Un troisième procédé, l'électrolyse de l'eau, constitue la solution la plus "durable" de production d'hydrogène. Moyen de production d'hydrogène propre qui ne génère ni gaz à effet de serre (GES) ni CO2 pouvant être alimenté en énergie électrique d'origine renouvelable, il permet de stocker de l'électricité sous forme chimique. Deux technologies d'électrolyse sont actuellement utilisées : l'électrolyse alcaline avec l'utilisation comme électrolyte, d'une solution alcaline conductrice d'ions pour la dissociation de l'eau et l'electrolyse PEM qui utilise un électrolyte solide à membrane polymère échangeuse de protons (Proton Exchange Membrane ) à la place d'un électrolyte liquide (électrolyse alcaline).

C'est cette dernière que la Compagnie Européenne des Technologies de l'Hydrogène (CETH), spécialisée dans la conception et la fabrication de systèmes de production et de purification de l'hydrogène, a utilisé pour mettre au point la première solution mondiale d'électrolyseur PEM multistacks à régulation de charge.

Conçu et développé dans le centre de recherche de la société, l'électrolyseur PEM GENHY multistacks à régulation de charge produit de l'hydrogène pur à plus de 99,5 % de manière continue et en quantité industrielle. La CETH devient ainsi la première société au monde à avoir développé cette solution industrielle permettant, à la fois, une production d'hydrogène décarbonée et sans émission de gaz à effet de serre, tout en offrant une disponibilité très élevée de la production d'hydrogène sur des sites industriels décentralisés. Cet électrolyseur ayant été conçu pour fonctionner avec une alimentation intermittente, il est parfaitement adapté au stockage des énergies renouvelables.

La production de quantités importantes d'hydrogène et d'oxygène par électrolyse de l'eau nécessite l'association de plusieurs cellules individuelles PEM en empilement. Ces cellules jouent le rôle de séparateur physique des produits de l'électrolyse. A l'anode, l'eau se dissocie en oxygène et en protons. A la cathode les protons se recombinent aux électrons pour former l'hydrogène. L'empilement de ces cellules PEM est appelé stack. La CETH a développé une solution novatrice portant sur l'intégration de plusieurs stacks de cellules PEM, assemblés en parallèle avec régulation de charge.

Cette technologie propriétaire repose sur l'intégration de plusieurs stacks de cellules PEM avec régulation de charge. Ce procédé facilite la gestion des délestages internes sans interrompre le fonctionnement du générateur. La production d'hydrogène reste constante et continue 24h sur 24h. La maintenance peut être programmée en fonction des exigences du procédé industriel. Par ailleurs, il s'agit d'une solution compacte : pour une production équivalente au système alcalin, les électrolyseurs de la gamme GENHY sont trois fois moins volumineux.

Actuellement, la société CETH qui, en avril dernier, avait réalisé le premier prototype mondial de reformage à membrane de bioéthanol de deuxième génération permettant une production d'hydrogène de haute pureté sans recours à l'électricité, finalise dans ses locaux l'assemblage du premier pilote industriel d'une capacité de production de 8 Nm3 d'hydrogène par heure sous 16 bars de pression. En mode sans régulation de charge, ce pilote industriel est également dimensionné pour une production opérationnelle d'hydrogène de 12 Nm3 /h, ce qui représente un niveau de production d'hydrogène encore jamais atteint par un électrolyseur de type PEM multistacks.

TI

Un moteur à vapeur générateur d'électricité
Vendredi, 09/07/2010 - 00:00

La machine à vapeur a encore de beaux jours devant elle, pour peu qu'on en augmente le rendement. C'est l'objectif d'Exoes, une entreprise créée il y a un an pour exploiter des brevets appartenant à Exosun, spécialiste de l'énergie solaire, et Amoes, un bureau d'études. A la base, le système mis au point consiste à transformer en électricité toute source chaude d'au moins 200 degrés. L'intérêt étant de pouvoir la coupler avec n'importe quelle énergie renouvelable : solaire, biomasse...

La première application a été développée autour d'une chaudière à bois, alimentée par des granulés, dont la chaleur permet de produire non seulement de l'eau chaude sanitaire, mais également de l'électricité. Le système consiste à utiliser la flamme de la chaudière pour transformer l'eau en vapeur sous pression, utilisée pour alimenter un moteur qui fait alors tourner un alternateur produisant de l'électricité. Le brevet porte précisément sur le rendement élevé de ce moteur. La vapeur résiduelle permet ensuite, grâce à un condensateur, de réchauffer le circuit d'eau sanitaire. Le système peut produire 100 % du chauffage et de l'eau chaude d'un bâtiment et une part variable de sa consommation électrique pouvant aller jusqu' à 40 %.

« Nous arrivons à un rendement global de 90 % », assure Arnaud Desrentes, le président de la jeune société, fondée avec Thiébaut Kientz et Rémi Daccord, et qui a monté des partenariats avec le fabricant de chaudières bois Ökofen, le CEA et Leroy Somer. Basé sur la technopole de Bordeaux Montesquieu, Exoes a été aidé à hauteur de 300.000 euros par Oséo et une subvention de 100.000 euros de la région. Il vient de lever 300.000 euros auprès de deux fonds de « business angels », Wiseed et Marengo.

Echos

Un nanomatériau idéal pour des applications photovoltaïques et thermoélectriques
Vendredi, 09/07/2010 - 00:00

Une équipe de chercheurs de l'Université de Leipzig (Saxe) a développé un nouveau nanomatériau à haut rendement pour des applications photovoltaïques (PV) et thermoélectriques.

Il s'agit plus précisément d'une "nano-pelouse" en sulfure de métal dont les propriétés physiques devraient augmenter considérablement l'efficacité des cellules PV et thermoélectriques. Les matériaux de base sont le zinc et le plomb, qui, d'après Klaus Bente, directeur de l'Institut de minéralogie, cristallographie et science des matériaux à l'Université de Leipzig, "peuvent même se trouver dans des terrils en Allemagne". Ces métaux sont très peu coûteux en comparaison aux matériaux habituellement employés dans le PV comme le cuivre, l'indium et le gallium.

D'une structure similaire à celle du gazon, ce nanomatériau est synthétisé par vaporisation puis dépôt dans un dispositif spécialement conçu à cet effet permettant d'atteindre de très faibles pressions, proches du vide. Outre la composition chimique bien définie, le respect d'une orientation uniforme des nano-cristaux est fondamental.

Leurs calottes arrondies en zinc permettent d'autre part de réaliser des contacts électriques. La nano-pelouse, dont les "brins" atteignent une longueur de 600 nm et un diamètre de 100 à 200 nm (soit un 600ème d'un cheveu), peut ainsi être utilisée pour la transformation d'énergie solaire en électricité, ou la transformation de chaleur en électricité et inversement.

BE

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
La loi « Grenelle 2 » adoptée
Vendredi, 09/07/2010 - 00:00
Le "projet de loi portant engagement national pour l'environnement" (Grenelle 2) a été définitivement adopté par le Parlement, le 29 juin 2010.
Vendredi, 09/07/2010 - 00:00

Ce projet de loi s'inscrit dans le prolongement de la loi de programmation relative à la mise en oeuvre du Grenelle de l'environnement, dite "Grenelle I", qui a déterminé les objectifs de l'État dans le domaine environnemental.

Jean-Louis Borloo a salué "un monument législatif". Car "aucun pays du monde à cette heure ci ne s'est doté d'une législation aussi vaste, aussi engagée, aussi globale et aussi suivie par son Parlement". « La loi Grenelle 2 confirme, consolide et concrétise les objectifs fixés par la loi Grenelle 1.

Grâce au soutien sans faille du Parlement tout au long du processus, la France est désormais l'un des pays leaders de la croissance verte, ce que confirment les classements internationaux » a souligné le Ministre de l'Environnement qui a également rappelé qu'en trois ans, « 5 lois majeures sur l'environnement, regroupant 438 articles et comprenant 70 mesures de fiscalité écologique, avaient été votées. »

Au travers de ses 104 articles répartis en sept titres, il traduit les principes précédemment affirmés dans la loi de programmation « Grenelle1 ».

Énergie et climat figurent au coeur de la loi. Agir en faveur du développement des énergies renouvelables (hydroélectricité, photovoltaïque, éolien, biomasse...) et la réduction de la consommation énergétique. Objectif : réduire les gaz à effet de serre (GES) pour lutter contre le réchauffement climatique et avoir un emploi raisonné des ressources énergétiques.

-En matière de bâtiments et d'urbanisme (titre I), le projet de loi entend améliorer la performance énergétique des bâtiments.

Il modifie également le code de l'urbanisme afin de le rendre davantage compatible avec les initiatives en faveur de la production d'énergie renouvelable et d'adapter les documents d'urbanisme aux objectifs environnementaux.

-En matière de transports (titre II), le projet de loi porte sur des mesures en faveur du développement des transports collectifs urbains et périurbains, les péages autoroutiers et entend favoriser le développement des modes alternatifs à la route pour le transport de marchandises.

-Concernant l'énergie et le climat (titre III), le projet de loi entend favoriser la réduction de la consommation énergétique et la prévention des émissions de gaz à effet de serre ainsi que le développement des énergies renouvelables.

-Afin de préserver la biodiversité (titre IV) le projet de loi comprend des dispositions relatives à l'agriculture, à la protection des espèces et des habitats ainsi qu'à l'assainissement et aux réserves en eau.

Afin de garantir la santé et de mieux gérer les déchets, le projet de loi comprend des dispositions relatives aux nuisances lumineuses ou sonores et renforce la responsabilité des producteurs de déchets.

-La loi a également pour ambition de mettre en oeuvre une nouvelle gouvernance écologique. Il s'agit de placer la concertation en amont des projets en développant l'information des consommateurs-citoyens à travers notamment la rénovation des enquêtes publiques.

Une gouvernance écologique qui doit considérer les collectivités locales dans leurs spécificités.

La responsabilité des entreprises, publiques comme privées, de plus de 500 salariés est également renforcée, notamment par l'obligation qui leur est faite de présenter dans leur rapport annuel un "bilan social et environnemental". (Titre VI)

Loi « Grenelle 2»

Dossier législatf

CO2 : les émissions des émergents compensent les réductions des riches
Vendredi, 09/07/2010 - 00:00

Selon une étude de l'Agence néerlandaise d'évaluation environnementale (NEAA), en 2009, les émissions de gaz carbonique anthropiques ont stagné à 31,1 milliards de tonnes de CO2 : un tout petit peu moins (- 300 millions de tonnes équivalent CO2) que l'année précédente. Cette diminution peut sembler modeste mais c'est la première depuis 1992 !Ces 6 dernières années, les rejets carbonés mondiaux affichaient plutôt une croissance moyenne de 3,5 % par an.

Les rejets des pays de l'OCDE ont chuté, l'an passé, de 7 %. Ce qui représente une économie d'émission de 800 Mtéq.CO2 par rapport à 2008 : l'équivalent de 18 mois de rejets français. En Europe et aux Etats-Unis, les rejets industriels ont dégringolé de 11 %. Au Japon et en Russie, ce sont les émissions nationales (industries, transports et habitat) qui ont reculé de 11 %.

Largement imputable à la récession économique (les grosses industries émettrices, comme le ciment, la sidérurgie, la chimie, le raffinage ou l'électricité ; ont tourné au ralenti), cette bonne performance climatique a malheureusement été « compensée » par la croissance des émissions des pays émergents.

En 2009, la Chine a conforté sa place de premier émetteur mondial de gaz à effet de serre (GES) avec 8,1 milliards Mtéq.CO2 rejetées, en progression de 9 % (+ 600 Mtéq.CO2) en un an. Avec 1,7 milliard Mtéq.CO2, l'Inde voit son empreinte carbone s'alourdir de 6 % (+ 100 Mtéq.CO2). Ce qui a pour conséquence immédiate de rétrograder la Russie à la 6e place mondiale des plus gros émetteurs.

D'autant que les émissions per capita tendent, elles aussi, à converger. Depuis 1990, les rejets de CO2 de chaque Chinois sont passés de 2,2 tonnes par an (t/an) à 6,1 t/an. L'an passé, un Européen a émis en moyenne 7,9 t/an, contre 9,1 t/an, 20 ans plus tôt.

L'impact de la déforestation, les feux de forêt et le carbone émis par la décomposition de la biomasse ne sont pas pris en compte dans l'étude alors qu'ils représentent 20% d'émission de GES supplémentaire dans le monde.

NEAA

Capture et séquestration de carbone : quatre projets français à la pointe de la technologie
Vendredi, 09/07/2010 - 00:00

Il y a deux ans, presque jour pour jour, le Fonds Démonstrateur Recherche consacré aux Nouvelles technologies de l'énergie (NTE) était lancé par le ministèrede l'écologie (MEEDDM), le ministère de l'économie (MEIE) et le ministère de l'enseignement supérieur (MESR). L'une des cinq cibles majeures de ce fonds, doté de 325 M? sur quatre ans et piloté par l'Ademe, est le captage et stockage du CO2 (CSC).

En janvier 2009 et, plus récemment, en mai 2010, l'Ademe, conformément à son calendrier d'objectifs, a retenu quatre projets CSC : Pil_Ansu, projet de captage (post-combustion) par antisublimation sur les fumées d'une centrale à charbon, subventionné à hauteur de 6 M?, C2A2, projet de captage (post-combustion) par lavage aux amines sur une centrale thermique charbon du Havre (22 M? dont 5 M? Ademe), Ulcos - TGR-BF, projet de captage, transport et stockage du CO2 sur une unité sidérurgique à Florange (étude et exploration : 30 M? dont 11 M? Ademe), France Nord, projet de stockage en aquifère salin profond dans la région Centre-Nord (54 M?, dont 22 M? Ademe).

Les projets retenus permettront de tester et de valider en conditions réelles d'utilisation ces technologies de rupture. Des technologies inédites On pourrait s'étonner que deux des projets retenus concernent la capture de CO2 dans les fumées de centrales thermiques quand la France s'appuie sur l'énergie nucléaire. Mais, comme le rappelait dans L'Usine à GES, en octobre 2009, François Moisan, directeur exécutif de la stratégie et de la recherche à l'Ademe, « la France vise essentiellement le marché de l'export, ses propres besoins, hormis quelques secteurs industriels, étant moindre grâce au nucléaire ».

Et de rappeler également que le soutien aux démonstrateurs s'inscrit dans la ligne des recommandations de la plate-forme européenne Zéro Émissions (ZEP) qui « souhaite la mise en oeuvre, d'ici à 2015, de 10 à 12 démonstrateurs intégrés de CCS en Europe », incitant en parallèle à « valider de nouveaux concepts (.) pour une mise en oeuvre en 2020 ». S'il existe aujourd'hui plusieurs centaines d'expérimentations dans le monde et des pays leaders comme la Norvège ou le Canada, les projets hexagonaux se caractérisent, au-delà de l'étude de faisabilité, par leur caractère inédit et/ ou par leur visée économique : la réduction drastique des coûts. Selon François Moisan, il faut parvenir à « une réduction de la déperdition énergétique liée au captage qui oscille autour de 20 % du rendement et (.) des coûts du stockage (100 ?/TeqCO2 en 2009) ».

GES

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Quand l'ADN prédit un destin de centenaire
Vendredi, 09/07/2010 - 00:00

Publiée vendredi 2 juillet dans la revue américaine Science, une étude montre qu'une longévité exceptionnelle n'est pas due à une seule mais à de multiples particularités génétiques.

L'influence du mode de vie sur la longévité est attestée, par exemple, par l'espérance de vie élevée des adventistes du Septième Jour : 88 ans en moyenne. Le comportement des adeptes de cette religion favorise la longévité. Mais, à l'évidence, des facteurs génétiques sont aussi à l'oeuvre chez les personnes dépassant de dix à trente ans le cap des 80 ans.

"Dans les pays industrialisés, une personne sur 6 000 est centenaire, et ceux que l'on appelle les supercentenaires - ayant plus de 110 ans - représentent un individu sur 7 millions. Mais il faut noter que 90 % des centenaires n'ont pas de handicap sur le plan de la santé avant l'âge de 93 ans", souligne Thomas Perls. Le gériatre rappelle qu'il existe une forte influence familiale dans le fait de devenir centenaire et qu'un tel destin met en jeu des voies complexes.

L'équipe italo-bostonnienne a lancé une étude portant sur l'analyse complète du génome de 1 055 centenaires nés entre 1890 et 1910 (801 ayant précédemment participé à une étude sur les centenaires en Nouvelle-Angleterre et 254 autres ayant été inclus dans une étude pour un laboratoire pharmaceutique) et de 1 267 sujets servant de comparaison. Disposer de deux groupes de centenaires permettait de chercher à répliquer les observations faites sur le premier groupe dans le second. Un tiers environ des centenaires du premier groupe avaient un parent au premier degré ayant lui aussi une extrême longévité.

Les chercheurs ont bâti un modèle prenant en compte 150 variants génétiques portant chacun sur un seul nucléotide. "Soixante-dix d'entre eux se retrouvent chez des centenaires du premier groupe et pour 33 d'entre eux dans le second groupe", précise Thomas Perls.

"Nous avons abouti à trois constats, explique Paola Sebastiani. Tout d'abord, lorsque l'on soumet les informations génétiques d'un individu à notre modèle informatisé, nous pouvons déterminer de manière exacte dans 77 % des cas sa prédisposition à devenir centenaire, ce qui est un taux élevé pour un modèle prédictif."

Pour la biostatisticienne, le fait que dans 23 % des cas le modèle ne donne pas le bon résultat tient à ce qu'"il reste encore beaucoup à découvrir dans le génome et que nous ignorons encore certains traits génétiques associés à la longévité. Mais le fait que nous ayons une capacité prédictive importante simplement avec des données génétiques atteste fortement du caractère héréditaire de la longévité".

Deuxième constat, le modèle fournit un profil individuel qui reste à interpréter en fonction de nombreuses variables associées. Les chercheurs ont ainsi défini 19 groupes, en fonction de la présence de certains facteurs de risque (cancer, maladies cardiovasculaires, etc.) parmi les centenaires étudiés. Dans certains groupes, on retrouve une survie plus longue ; dans d'autres une apparition plus tardive de la maladie. "Il y a donc plusieurs voies permettant d'atteindre une extrême longévité", remarque Paola Sebastiani.

Troisième constat, qui peut surprendre, l'étude de la présence de variants génétiques associés à des maladies ne met pas en évidence de différence marquée entre les centenaires et les sujets contrôles.

"Cela signifie que ce n'est pas l'absence de prédisposition pour des maladies qui fait vivre longtemps, mais bien le fait d'être porteur de variants favorisant la longévité, conclut Paola Sebastiani. Cela implique aussi que si l'on veut calculer le risque de développer une maladie, il ne faut pas seulement s'appuyer sur la présence de variants génétiques qui lui sont associés, mais tenir compte du patrimoine génétique plus global."

LM

Des scientifiques sud-coréens identifient une cause de l'arthrose
Vendredi, 09/07/2010 - 00:00

Une équipe de scientifiques sud-coréens a annoncé fin mai la découverte d'une des causes de l'arthrose ainsi qu'une possible méthode de traitement de cette affection des articulations. Ces travaux ont été publiés dans le dernier numéro de "Nature Medicine" par l'équipe du Gwangju Institute of Science and Technology (GIST) dirigée par le professeur Chun Jang-soo.

Les chercheurs ont démontré que l'activation du gène HIF-2a (Hypoxia-inducible factor-2a) provoquait la dégradation des articulations et des pertes de cartilage sur un modèle animal. L 'équipe a ensuite montré que la suppression de ce gène prévenait l'apparition des symptômes chez les animaux tests. Le professeur Chun indique continuer de travailler sur ce sujet et va tenter de mettre au point un traitement. Pour mémoire, l'arthrose touche aujourd'hui près de 80 % des plus de 65 ans et provoque des douleurs voire des blocages articulaires.

BE

Traitement du glaucome : EyeTechCare récompensée pour une innovation de rupture
Vendredi, 09/07/2010 - 00:00

Caractérisé par une augmentation de la pression intraoculaire, le glaucome est la 2ème cause de cécité mondiale. Or il n'existe toujours pas de traitement efficace et définitif à 100 %. Un problème d'autant plus préoccupant que 70 millions de personnes dans le monde en sont atteintes et que ce chiffre est en constante augmentation en raison du vieillissement de la population.

Dans ce contexte, EyeOP1, le dispositif de traitement non-invasif du glaucome, développé par EyeTechCare, une petite entreprise créée en 2008 par 3 managers expérimentés aux compétence complémentaires en matière médicale, industrielle et réglementaire, apparaît comme une solution très prometteuse. Cette innovation de rupture, qui devrait être mise sur le marché fin 2010, début 2011, vient d'ailleurs de recevoir le premier prix du Concours des Technologies Médicales Innovantes 2010. Organisé par l'Alliance pour le Génie Biologique et Médical (AGBM), ce prix est accordé aux PME dont les projets sont porteurs de grandes avancées pour le système de soins.

Ce nouveau mode de traitement non-invasif est basé sur l'utilisation des HIFU (Ultrasons Focalisés de Haute Intensité), une technologie qui permet de réaliser un traitement ambulatoire précis, rapide, efficace, bien toléré et non opérateur-dépendant, qui limite les coûts et le risque pour le patient. Une étude multicentrique internationale devrait être mise en place entre 2011 et 2013, l'objectif étant de recueillir des données cliniques sur un nombre important de patients avec un recul suffisant. "Nous avons été séduits par la technologie, développée par EyeTechCare, car elle apporte un espoir de solution à un problème de santé publique mondial", a déclaré Mathias Fink, membre de l'Académie des Sciences et du Collège de Fance, qui présidait le jury de ce prix.

BE

Résultats prometteurs pour la radiothérapie per-opératoire mammaire
Vendredi, 09/07/2010 - 00:00

L'Université de médecine de Hanovre (MHH, Medizinische Hochschule Hannover) a étendu son spectre de traitements contre le cancer du sein grâce à un procédé innovant : la radiothérapie per-opératoire (IORT, IntraOperative RadioTherapie). Depuis mai, la clinique de gynécologie et d'obstétrique mène un projet commun avec la clinique de radiothérapie et cancérologie pour introduire cette nouvelle méthode de traitement du cancer du sein.

L'IORT est une méthode de traitement du cancer qui permet de préserver le sein. Contrairement à la radiothérapie traditionnelle, le tissu touché est irradié de l'intérieur pendant l'opération après extraction de la tumeur. La radiation est appliquée très précisément sur le lit tumoral grâce à un appareillage mobile de radiothérapie. Lors du traitement traditionnel du cancer du sein, un "boost" (augmentation locale de la dose) est administré au lit tumoral dans le cadre d'une irradiation totale du sein.

Ce traitement est généralement administré par cinq à huit irradiations complémentaires. A l'inverse, une seule irradiation à plus haute dose est nécessaire lors de l'IORT. Cette méthode épargne plusieurs semaines de thérapie aux femmes concernées. L'IORT ne peut pas être utilisée chez toutes les femmes présentant un cancer du sein. "La tumeur doit être positionnée telle qu'il y ait assez d'écart avec la peau mais aussi avec les côtes" explique Ursula Hille, médecin-chef à la clinique de gynécologie et d'obstétrique.

Cette nouvelle technique de traitement existe en Allemagne depuis sept ans environ. Elle a été développée à l'Université de médecine de Mannheim par le professeur Wenz, directeur de la clinique universitaire pour radiothérapie et de radio-oncologie, en coopération avec le groupe Zeiss Meditec. L'INTRABEAM de Zeiss, utilisé pour l'IORT, comprend une source miniaturisée de rayons X, un statif hautement flexible et une large palette d'options d'applications de radiation. L'applicateur étant directement placé dans le lit tumoral, la dose de radiation est appliquée précisément.

Les résultats de l'essai clinique TARGIT-A ont été révélés début juin. Cette étude, lancée en 2000 et menée dans 28 centres répartis dans 9 pays, compare la radiothérapie externe standard de l'ensemble du sein (EBRT, External Beam RadioTherapy) à la radiothérapie per-opératoire ciblée (TARGIT). Le système de radiothérapie INTRABEAM de Carl Zeiss a été utilisé dans ce but. Cette étude examine si la dose unique réduit le risque de récidive du cancer dans le sein affecté de manière aussi efficace que la méthode de traitement habituelle d'environ six semaines. La moitié des femmes a été traitée par radiothérapie traditionnelle, l'autre moitié par radiothérapie per-opératoire.

Les résultats de la recherche TARGIT-A ont été publiés sur "The Lancet Online". Pour des patientes présentant un cancer du sein au stade précoce, une dose unique de radiothérapie per-opératoire ciblée peut être considérée comme une alternative à la radiothérapie externe suivie pendant plusieurs semaines.

BE

Dépendance aux drogues : une perte de souplesse du cerveau
Vendredi, 09/07/2010 - 00:00

Alcool, nicotine, morphine, ecstasy, cocaïne, héroïne, et d'autres drogues procurent du plaisir quand on les consomme une première fois, car elles modifient l'activité du système cérébral dit de la récompense. Mais ce système est étroitement couplé au circuit cérébral dit de la dépendance. Toutes ces substances peuvent en effet rendre la personne dépendante à la drogue consommée, soit après quelques prises, soit après quelques semaines de consommation, soit jamais.

De fait, seules certaines personnes consommant de la drogue deviennent toxicomanes. Pour quelles raisons ? Des travaux sur le rat effectués par Fernando Kasanetz et ses collègues, du Neurocentre Magendie de Bordeaux (Unité INSERM 862), apportent un élément de réponse : le cerveau des toxicomanes serait moins « souple », c'est-à-dire moins plastique, les connexions entre neurones ne pouvant pas s'habituer à la présence de la drogue.

Le circuit de la dépendance dans le cerveau fait intervenir quatre zones qui participent aussi au système de la récompense : le noyau accumbens et le pallidum ventral seraient le siège de la récompense et du plaisir ; l'amygdale cérébrale et l'hippocampe interviennent dans les réactions de conditionnement ; le cortex orbitofrontal participe à la motivation et à l'évaluation des stimulus ; et le cortex préfrontal et l'aire cingulaire freinent les comportements inadaptés.

Ces régions interagissent et, normalement, l'inhibition exercée par le cortex préfrontal est efficace. Chez une personne dépendante, les signaux émis par le noyau accumbens sont amplifiés et le contrôle inhibiteur du cortex préfrontal est quasi-inexistant. Cela aboutit à un état de motivation non contrôlé qui mène à la prise compulsive de la drogue, sans anticipation de ses conséquences néfastes.

Alors que se passe-t-il dans ces structures cérébrales chez la personne dépendante ? Les neurobiologistes français ont proposé régulièrement de la cocaïne à des rats : ceux-ci ont appris à mettre leur nez dans un trou d'une paroi de la cage pour recevoir une injection de drogue. Un groupe de rats est devenu dépendant à la cocaïne en moins de deux mois : les rats mettaient sans arrêt leur nez dans le trou pour avoir leur dose et ne pouvaient plus s'arrêter de demander de la cocaïne, même quand il n'y en avait pas ou quand son administration était associée à une punition. En revanche, l'autre groupe de rats contrôlait sa prise de drogue et n'était pas devenu dépendant.

Les chercheurs ont enregistré chez les rats les signaux électriques des neurones du noyau accumbens, à différentes étapes de l'expérience. Ils ont notamment exploré la force des connexions entre neurones, au niveau des synapses : quand un neurone envoie de façon répétée un même signal, le neurone cible - de l'autre côté de la synapse - émettra un signal au début, puis finira par ne plus réagir à l'activation présynaptique. On dit que le neurone postsynaptique s'est habitué au signal avec le temps : c'est la « dépression à long terme ». Ce genre de plasticité des connexions cérébrales permet au cerveau de s'adapter à un contexte toujours changeant.

Au début de l'expérience, tous les rats présentaient une diminution de la dépression à long terme après la prise de cocaïne. Cet effet persistait chez les rats devenus dépendants, alors que la dépression à long terme est réapparue dans le noyau accumbens des rats contrôlant leur consommation de cocaïne.

Le noyau accumbens des rats toxicomanes ne se serait pas adapté à la présence de la drogue et serait peu plastique, ce qui ne permet pas à l'animal d'avoir un comportement flexible et d'arrêter de consommer de la cocaïne quand il le désire. Mais pourquoi la cocaïne modifie-t-elle de façon persistante la dépression à long terme uniquement chez certains rats ? Des facteurs génétiques et environnementaux (par exemple une exposition prénatale aux drogues) sont probablement en cause.

PLS

^ Haut
Recherche
Recherche & Innovation, Technologies, Transports
Une voiture électrique parcourt 1000 km sans charger ses batteries
Vendredi, 09/07/2010 - 00:00

Le Japan Electric Vehicle Club, une association de citoyens qui se consacrent au développement des véhicules électriques, a réussi à rouler avec une voiture légère sur une distance dépassant les 1000 km, sans effectuer une seule recharge des batteries.

Le gouvernement japonais a fait du développement des véhicules électriques une de ses priorités pour réduire les émissions de gaz à effet de serre du pays. Si les moteurs électriques ont depuis longtemps prouvé qu'ils n'étaient en rien inférieurs aux moteurs thermiques (le projet Eliica de l'Université Keio a permis notamment de construire une voiture qui atteint les 370 km/h), il est régulièrement reproché aux véhicules électriques de manquer d'autonomie. De fait, celle des voitures actuellement vendues dans le commerce ne dépasse guère les 150 km.

En réalisant ce type de démonstration, l'association espère faire prendre conscience aux populations que le problème de l'autonomie pourra être réglé et qu'il ne sera plus longtemps un frein au développement des véhicules électriques.

L'association avait ainsi réalisé un premier voyage entre Tokyo et Osaka, parcourant les 555,6 km qui séparent les deux villes sans recharger les batteries de sa Daihatsu "Mira EV". Cependant, les aléas du trafic multiplient les accélérations et les freinages, ce qui entraine une décharge prématurée des batteries. L'équipe a donc décidé de retenter l'aventure, cette fois sur une piste de 689 m de circonférence située à Shimotsuma, dans le département d'Ibaraki (Est de Tokyo).

La voiture dispose de batteries lithium-ion composées au total de 8 320 éléments cylindriques fournis par Sanyo. La capacité totale maximale est de 74 kWh. 17 pilotes se sont succédé pour effectuer 1 456 tours de piste, parcourant ainsi 1003,184 km à une vitesse moyenne de 40 km/h, et consommant au total 63 kWh (soit une consommation moyenne de 62,8 Wh/km).

Même s'il ne s'agit que d'un prototype, c'est la première fois au monde qu'un véhicule électrique parcourt une distance supérieure à 1.000 km sans qu'il soit nécessaire de recharger ses batteries.

BE

2{Les taxis londoniens rouleront tous à hydrogène d'ici 2020

2}

Les taxis seront probablement les ambassadeurs des nouvelles technologies dans les villes. Dernier exemple en date : les taxis londoniens qui passeront à l'hydrogène en 2012. Véritables symboles de la capitale britannique, les Black Cabs conserveront leur look inchangé depuis 1959.

Les modifications interviendront surtout sous le capot puisqu'ils devraient être équipés de moteurs à hydrogène. Présenté à Londres, le premier prototype reprend la technologie de la pile à combustible. L'hydrogène stocké dans la voiture sert à alimenter les batteries qui font tourner un moteur électrique.

Sous une carrosserie classique de taxi londonien, les sociétés Intelligent Energy, Lotus Engineering, LTI Vehicles et TRW Conekt ont installé une motorisation de 136 chevaux (pic maximal, 75 « courants ») alimentée par des batteries lithium-ion de 14 kWh. La pile à combustible, qui fonctionne comme un moteur d'extension d'autonomie, est censée apporter assez de « jus » pour que le taxi puisse rouler toute la journée (400 kilomètres) sans recharger. Le tout avec une vitesse maximale de 130 km/h et un temps de 14 secondes pour passer de 0 à 100 km/h.

Plus propre qu'un véhicule traditionnel, le taxi à l'hydrogène aura une autonomie de 400 km. Destiné à un usage urbain, sa vitesse maximale de 129 km/h sera largement suffisante et le silence de son moteur sera certainement très apprécié dans les rues de Londres. Lancé en présence de Kit Malthouse, député-maire de Londres, le Black Cab à hydrogène aura un impact limité puisqu'il n'émettra que de l'eau. Les premiers exemplaires seront mis en service dès 2012 à l'occasion des Jeux Olympiques et la totalité de la flotte sera convertie d'ici 2020.

Après les bus c'est donc au tour des taxis de devenir plus propres. Une décision de Londres qui s'engage clairement en faveur de l'écologie tout en prenant de l'avance par rapport aux autres capitales européennes.

BBC

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top