|
|
|
|
|
NUMERO 536 |
|
|
|
|
|
|
|
Edition du 03 Décembre 2009
|
|
|
|
|
Edito
La forte augmentation des émissions mondiales de CO2 confirme l'épuisement de notre crédit-carbone
Alors que va s'ouvrir le sommet de Copenhague qui doit définir les objectifs mondiaux de réduction d'émissions de gaz à effet de serre pour l'après Kyoto (2012), une étude internationale mérite d'être méditée. Elle vient de montrer que les émissions de dioxyde de carbone (CO2) provenant des combustibles fossiles ont augmenté de 29 % depuis l'an 2000, et un nombre croissant de preuves suggèrent une diminution de la capacité des puits naturels de carbone à absorber ce surplus. Ces faits font partie des principaux résultats obtenus par une importante initiative internationale pour calculer le "budget carbone" de notre planète. L'étude, publiée en ligne par la revue Nature Geoscience le 17 novembre 2009 (Trends in the sources and sinks of carbon dioxide), a été soutenue par l'UE dans le contexte du projet CARBOOCEAN («Marine carbon sources and sinks assessment»). Selon les chercheurs, le taux de carbone atmosphérique a augmenté de 1,8 ppm (partie par million) en 2008, atteignant 385 ppm. C'est une augmentation de 38 % par rapport au taux préindustriel de CO2, qui était de 280 ppm. En fait, le taux de CO2 atmosphérique est plus élevé aujourd'hui qu'il ne l'a jamais été au cours des 2 derniers millions d'années. La majeure partie de l'augmentation des émissions peut être attribuée à la combustion de combustibles fossiles tels que le charbon, le pétrole et le gaz naturel. Les émissions correspondantes ont augmenté de 29 % depuis l'an 2000 et de 41 % depuis 1990, l'année de référence du protocole de Kyoto. De plus, alors que les émissions de CO2 n'ont augmenté, en moyenne, que de 1 % par an, au cours des années 90, elles ont augmenté d'environ 3,6 % chaque année entre 2000 et 2007. » «Les émissions suivent la moyenne des pires scénarios avancés par le Groupe d'experts intergouvernemental sur l'évolution du climat (GIEC)». En étudiant les changements escomptés du Produit intérieur brut (PIB), l'équipe s'attend à ce que les émissions pour 2009 redescendent au niveau des taux de 2007 avant d'augmenter de plus belle en 2011. Quelle est donc la cause de cette augmentation ? Le responsable principal est le charbon, qui a devancé le pétrole comme premier combustible fossile. Le charbon est responsable de 40 % des émissions de CO2 provenant des combustibles fossiles en 2008, contre 37 % pour la période de 1990 à 2000. À l'opposé, la contribution du pétrole dans le total des émissions de CO2 de combustibles fossiles est tombée de 41 % dans les années 1990 à 36 % pour 2008. Alors que les émissions des pays développés restaient relativement stables au cours des dernières années, les émissions des pays en développement ont augmenté brusquement. Néanmoins, près d'un quart de l'augmentation des émissions provenant des pays en développement est due à la production de biens et services destinés aux pays développés. Les économies émergentes ou en développement émettent désormais davantage de gaz à effet de serre que les pays développés, précisent les chercheurs, et cela est dû à l'évolution des échanges internationaux et à la délocalisation d'un grand nombre d'activités industrielles vers des pays en développement. En Chine par exemple, 50 % de l'augmentation des émissions de CO2 entre 2002 et 2005 est liée aux exportations. Autre exemple, le Royaume-Uni, où les émissions du pays ont diminué de 5 % entre 1992 et 2004, tandis que les émissions fondées sur les biens consommés en partie produits dans les pays du Sud ont augmenté de 12 %. L'activité des cimenteries, la combustion des fossiles liée au transport, à la production énergétique ou à l'activité industrielle, ne sont pas seules en cause. Les changements d'usage des sols comptent aussi pour environ 1,2 GtC. "Il s'agit pour l'essentiel des conséquences de la déforestation dans les régions tropicales", explique le climatologue Philippe CIAIS (Laboratoire des sciences du climat et de l'environnement), coauteur de l'étude. Que sont devenues les quelque 10 GtC émises au total en 2008 ? Les auteurs estiment que 40 % ont été fixées par les écosystèmes terrestres ou marins. "Le puits qui fonctionne le mieux est encore la végétation terrestre, dit M. Ciais. Mais l'océan donne des signes relatifs de faiblesse." Les émissions provenant de l'exploitation des sols tels que la déforestation et les feux de forêts ont peu changé au cours de la dernière décennie. Suite à l'augmentation des émissions provenant des combustibles fossiles, la proportion des émissions de CO2 libérées par l'exploitation des sols a diminué ces dernières années : en 2008, elle ne représentait que 12 % du total des émissions de CO2. De 1959 à 2008, les puits naturels de carbone ont absorbé en moyenne 57 % des émissions de CO2 d'origine anthropique chaque année. Toutefois, des preuves confirment que l'efficacité de ces puits diminue ; il y a 50 ans, ils absorbaient 60 % de nos émissions, ces dernières années, ils sont à environ 55 %, soit une perte d'efficacité de 8 % en 50 ans (0,16 % par an). Les modèles informatiques suggèrent que cet affaiblissement des puits de carbone serait une conséquence du changement climatique. Pourtant, davantage de travaux sont nécessaires afin de mieux déterminer où va le carbone et quelles sont les causes du changement de l'efficacité des puits de carbone. «La seule manière de maîtriser le changement climatique est de réduire sérieusement les émissions de CO2 mondiales», commente l'auteur principal de l'étude, le professeur Corinne Le Quéré de l'université d'East Anglia au Royaume-Uni et du Groupe d'études britanniques de l'Antarctique. L'étude souligne que «la réduction durable des émissions après la crise économique passe par la restructuration de l'utilisation énergétique primaire afin de découpler les émissions de CO2 et le PIB». Une autre étude réalisée sur la fonte des glaces par l'université d'Utrecht aux Pays-Bas montre que la fonte rapide des calottes glaciaires du Groenland et d'une partie de l'Antarctique va entraîner une hausse du niveau des mers bien plus forte qu'on ne le pensait. Cela provoquera par exemple des inondations qui bouleverseront radicalement la configuration de certaines villes de la côte est des Etats-Unis, de Miami à Baltimore, d'après cette étude. Le réchauffement du climat de la planète fera monter d'au moins un mètre le niveau des mers du globe d'ici la fin du XXIe siècle. Cette prévision très sombre vient malheureusement d'être confirmée par le Groupe d'experts intergouvernemental sur l'évolution du climat (Giec), dans son dernier rapport intitulé « Le diagnostic de Copenhague » qui souligne que "Si l'on tient compte des calottes glaciaires et des glaciers, la montée du niveau des mers pourrait excéder un mètre en 2100, voire deux mètres. C'est bien plus que ce qui avait été prévu (Voir rapport du GIEC). Enfin, une étude publiée le 23 novembre par le WWF et l'assureur Allianz montre qu'en cas d'augmentation du niveau de la mer d'un demi-mètre d'ici à 2050, le coût planétaire lié aux dommages d'inondations dans plus d'une centaine de grandes villes côtières pourrait s'élever à 28 000 milliards de dollars, soit 18 840 milliards d'euros, soit dix fois plus que ce qu'a coûté la crise financière et environ 20 % du produit mondial brut prévu en 2050. Ces études comme deux autres publications publiées le 30 avril 2009 dans la prestigieuse revue britannique Nature, confortent le bien fondé d'une nouvelle approche et d'un renversement de perspective qui consisterait à considérer le carbone comme un compte bancaire. Cette approche consiste à déterminer le maximum de carbone qu'il est possible de rejeter dans l'atmosphère pour ne pas dépasser une hausse globale de température de 2°C, calculée depuis la révolution industrielle. Ces récentes études montrent que plutôt que de fixer des taux d'émission (des baisses en pourcentage comme le proposent de nombreux pays) ou une teneur maximale en gaz carbonique dans l'atmosphère, mieux vaut déterminer le crédit total de carbone que l'on peut dépenser sans prendre le risque d'un réchauffement supérieur à 2°C. Ils calculent que cette limite a 50 % de chances d'être atteinte quand les activités humaines auront rejeté mille milliards de tonnes de carbone (depuis la révolution industrielle). La moitié de ce solde a déjà été atteint en 2008. Mais il ne faudra que 20 ans au rythme actuel pour que le seuil de mille milliards de tonnes de carbone soit franchi. Dans le second article publié en avril 2009, les scientifiques parviennent à la même conclusion. C'est bien le total des émissions de carbone qui représente le mieux l'ampleur du réchauffement climatique. Ils calculent qu'il faut impérativement limiter à 190 milliards de tonnes (190 gigatonnes) nos émissions de carbone d'ici 2050 pour avoir une probabilité de 75 % que le réchauffement soit inférieur à 2°C en 2100. Cela représente seulement vingt ans d'activités humaines au rythme actuel. Enfin, le GIEC, dans son rapport du 24 novembre souligne que « Pour limiter le réchauffement à 2 degrés, il faut que les émissions cessent d'augmenter entre 2015 et 2020 et diminuent ensuite rapidement. "Une société mondiale "décarbonée" - avec zéro émission de CO2 et d'autres gaz à effet de serre durables - doit être atteinte bien avant la fin du siècle". Ce quasi-consensus scientifique au niveau mondial nous amène à revoir à la hausse nos objectifs de réductions d'émissions de Co2 : à présent nous savons que, si nous voulons avoir une chance de limiter à "seulement" deux degrés, l'augmentation de la température, c'est bien l'ensemble de la planète qui va devoir diviser par quatre ses émissions de gaz à effet de serre et notamment de carbone et de méthane. Nous devons donc non seulement réorganiser nos sociétés développées autour de ces objectifs vitaux mais également repenser complètement nos relations politiques, économiques et commerciales et nos modes de coopération et d'aides avec les pays pauvres ou en voie de développement, de manière à leur donner les moyens de réaliser cette transition énergétique, tout en assurant leur nécessaire développement économique. Ce défi mondial est immense et nous devons, dès à présent, en prendre la mesure et changer radicalement nos comportements et nos orientations économiques si nous voulons éviter la catastrophe climatique annoncée par les scientifiques. René Trégouët Sénateur honoraire Fondateur du Groupe de Prospective du Sénat
|
|
|
|
|
|
|
|
TIC |
|
|
Information et Communication
|
|
|
|
|
|
|
|
|
L'Assemblée nationale a adopté la proposition de loi qui vise à lutter contre la fracture numérique. La proposition de loi de Xavier Pintat (UMP), adoptée le 20 juillet par la haute assemblée, vise à favoriser le développement des réseaux à très haut débit sur tout le territoire et à aider au passage progressif de la télévision analogique vers la TNT avant le 30 novembre 2011. Ce texte prévoit notamment la création d'un fonds d'aide complémentaire pour les foyers situés dans les zones noires et qui devront donc acheter une parabole pour avoir accès à la TV numérique. "Au total, environ 100 millions d'euros seront consacrés à accompagner ces foyers qui recevaient la télévision analogique par l'antenne râteau et qui, ne pouvant plus capter la télévision numérique par ce procédé, devront s'équiper d'une parabole. Nous demanderons aux chaînes de participer à ce nouvel effort, comme le réclament à juste titre de nombreux élus" a expliqué la secrétaire d'État au Développement de l'Economie numérique, Nathalie Kosciusko-Morizet. Et d'ajouter que d'ici le 30 novembre 2011, "100 % des foyers recevront la TNT. D'après la secrétaire d'État, 150.000 à 200.000 foyers seraient actuellement en zone d'ombre et comme le prévoit un amendement adopté par l'Assemblée nationale, le fonds d'aide complémentaire n'exigera aucune "condition de ressources au nom du principe d'équité territoriale". Nathalie Kosciusko-Morizet a rappelé que la commission sur le grand emprunt avait proposé de réserver 2 milliards d'euros pour le très haut débit et que le gouvernement allait accorder 277 millions d'euros à "un dispositif national d'accompagnement" pour le passage progressif à la TNT. Google
|
|
|
|
|
|
|
|
Le monde du spectacle utilise déjà les systèmes holographiques pour donner l'illusion qu'une personne est sur scène alors qu'elle est située dans une autre pièce. Musion veut désormais adapter le procédé en entreprise. Elle a développé une technique appliquée dans le cadre de présentations professionnelles. La personne apparaît sur scène comme si elle était vraiment dans la salle. A terme, celle-ci pourra être utilisée pour réaliser des téléconférences. "Lors de réunions à distance, toute une partie des échanges se fait de manière non verbale", explique à L'Atelier Jean-Luc Metzger, sociologue et directeur d'étude chez Orange Labs. "Un tel système permettrait de faire passer ces messages mieux qu'à travers un simple écran". Pour donner l'illusion de présence, l'individu est filmé contre un fond noir, dans une salle éclairée par des lampes LED. Il faut un nombre conséquent de lumières de fonds pour créer un effet de halo", explique au New Scientist Ian O'Connell, directeur de Musion. "Cela permet un rendu final impeccable". A l'autre bout, une installation spéciale est également nécessaire. L'image est d'abord affichée au sol sur une surface réfléchissante par un projecteur haute définition. Elle est reflétée à travers un film transparent incliné à 45° du sol. C'est cela qui donne un rendu en trois dimensions. Comme Ian O'Connell l'explique au New Scientist, Musion utilise un film en polyester étiré et d'une épaisseur d'à peine un dixième de millimètre. "La surface doit être parfaitement lisse et plate pour que l'image réfléchie ne soit pas déformée", explique-t-il. Atelier
|
|
^ Haut |
|
|
|
|
|
|
|
Matière |
|
|
Matière et Energie
|
|
|
|
|
|
|
|
|
Renault, CEA et le Fonds stratégique d'investissement (FSI) ont signé à Flins une lettre d'intention sur la création d'une coentreprise pour produire sur le site des Yvelines 100.000 batteries lithium-ion par an à partir de 2012. Le FSI contribuera à l'investissement initial de 600 millions d'euros à hauteur de 125 millions, la Banque européenne d'investissement (BEI) ayant par ailleurs accepté d'étudier un prêt qui pourra représenter jusqu'à 50 % des 280 millions d'euros d'emprunts totaux. Ces batteries, qui pourront être vendues à tous les constructeurs, équiperont en premier lieu la gamme de véhicules électriques de Renault, dont le futur modèle Zoé ZE également produit à Flins. La technologie lithium-ion a pris une longueur d'avance, mais le groupe Bolloré mise pour sa part sur une autre solution, le lithium-métal-polymère, pour sa voiture électrique Bluecar. Et Revolt Technology, une société suisse créée en 2004, vient d'annoncer de son côté une batterie basée sur la technologie zinc-air. Fruit de six années de recherche et développement réalisés par un centre norvégien spécialisé dans le CO2, elle serait capable de stocker trois fois plus d'énergie que des batteries au lithium-ion, pour un prix divisé par deux. Revolt a levé 24 millions d'euros entre 2005 et 2008 et développé ses activités en Irlande, en Allemagne et aux États-Unis. La société a annoncé en juillet dernier un partenariat avec le chimiste allemand BASF pour accélérer le développement et la commercialisation de ses batteries. La technologie zinc-air de Revolt permet de générer de l'énergie grâce à l'oxygène présent dans l'air. À l'intérieur de la batterie se trouve une électrode poreuse qui attire l'oxygène. Une oxydation se réalise ensuite au contact d'une électrode de zinc et génère un courant électrique. Pour la recharge, le procédé inverse se réalise. Ce procédé breveté garantit la stabilité de la batterie, à l'inverse du lithium-ion, qui présente des risques de surchauffe ou même d'explosion en raison de la présence de matériaux volatils. Mais la batterie de Revolt pourrait pécher par manque de longévité. Après une centaine de cycles de recharge, l'électrode qui attire l'air fatigue et la batterie peut se dessécher ou se dégrader au niveau du zinc. Tribune
|
|
|
|
|
|
|
|
Après une course de 7,3 milliards d'années, les photons de différente énergie d'un sursaut gamma viennent de franchir la ligne d'arrivée - celle du détecteur du télescope spatial à rayons gamma Fermi - avec moins de 0,9 seconde d'écart. Selon Peter Michelson, responsable du télescope Fermi, et de ses collègues, cette arrivée groupée va à l'encontre des théories de la gravitation quantique qui prédisent que la vitesse de la lumière dépend de l'énergie des photons. L'un des piliers de la théorie de la relativité générale d'Einstein est l'invariance de la vitesse de la lumière dans le vide pour tous les observateurs et quelle que soit l'énergie des photons. Mais dans certaines théories de la gravitation quantique proposées pour englober et unifier la relativité générale et la physique quantique, cette invariance (dite de Lorentz) est remise en cause : les photons voyageraient d'autant moins vite que leur énergie est grande. À très petite échelle, en effet, l'espace-temps ne serait plus « lisse » comme c'est le cas dans la relativité générale, mais accidenté. En conséquence, la propagation d'un photon énergétique, de petite longueur d'onde, serait plus entravée par la granulosité de l'espace-temps que celle d'un photon peu énergétique, de grande longueur d'onde, tout comme un camion est moins sensible aux chaos de la route qu'un vélo à petite roues. Comment mettre en évidence le minuscule retard attendu ? En observant des photons venant de l'autre bout de l'Univers : un infime retard cumulé sur des milliards d'années de trajet devrait être détectable. Pour tester cette hypothèse, P. Michelson et ses collègues ont donc examiné les sursauts gamma, de colossales bouffées de rayons gamma produites par la naissance d'un trou noir ou la collision d'étoiles à neutrons, et qui sont les sources lumineuses les plus lointaines et les plus énergétiques dans l'Univers. Les chercheurs ont identifié dans le sursaut gamma bref GRB 090510, détecté le 10 mai dernier par le télescope Fermi, d'une durée de 2,1 secondes, un photon d'une énergie de 31 gigaélectronvolts arrivé quelques dixièmes de seconde seulement après la majeure partie des photons, qui sont jusqu'à un million de fois moins énergétiques, et moins d'une seconde après le début supposé du sursaut. Les calculs montrent que si cette différence de temps de trajet est due à une vitesse de propagation différente, alors l'influence de la structure à petite échelle de l'espace-temps sur la vitesse de la lumière est très limitée, en tout cas plus que ne le prévoient la plupart des théories de la gravitation quantique. PLS
|
|
|
|
|
|
|
|
Le gestionnaire du réseau de transport électrique français RTE a annoncé qu'un milliard d'euros serait investi pour raccorder l'ensemble de la production d'électricité via l'éolien et le photovoltaïque au réseau. Réseau de Transport d'Electricité (RTE) vient d'inaugurer un système qui lui permettra d'insérer l'énergie du vent et du soleil dans le système électrique français. "Les opérateurs de RTE peuvent désormais suivre en temps réel l'évolution des productions de l'éolien et du grand photovoltaïque des parcs intégrés au système" explique le gestionnaire du transport de l'électricité. Le système permettra notamment d'anticiper la production d'électricité éolienne grâce aux prévisions de Météo-France. Les opérateurs "visualisent les prévisions de production heure par heure pour la journée en cours et le lendemain, accèdent aux données techniques de ces parcs, notamment celles qui permettent de prévoir leur comportement en cas de situations instables" précise RTE. La production d'électricité éolienne atteint actuellement 4 300 mégawatts (MW), avec 95 % des éoliennes qui sont raccordées au réseau : les objectifs fixés dans le cadre du « Grenelle » sont la production de 19 000 MW en 2020 via l'éolien, et 5 400 MW pour l'énergie solaire photovoltaïque (qui ne représente actuellement que 140 MW). Une baisse de la température d'1°C l'hiver entraîne une augmentation de la consommation de 2 100 MW supplémentaire, le niveau maximal de consommation française atteignant les 75 000 MW. RTE a annoncé début novembre que l'équivalent de la production d'électricité de 4 centrales nucléaires (4 000 MW) allait devoir être importé cet hiver, avec des pics d'importation pouvant atteindre jusqu'à 9 000 MW. Verdura
|
|
^ Haut |
|
|
|
|
|
|
|
Terre |
|
|
Sciences de la Terre, Environnement et Climat
|
|
|
|
|
|
|
|
|
Cet automne s'est révélé exceptionnellement chaud dans l'Hexagone, généralement bien ensoleillé et relativement sec. Avec une température moyenne dépassant de 1,5 degré Celsius la normale, cette saison se classe au deuxième rang des automnes les plus chauds depuis 1900, l'année au cours de laquelle les services climatologiques ont commencé à établir des statistiques homogènes dans ce domaine. Se situant derrière l'automne 2006 (+2,8°C) et devant celui de 1949 (+1,3°C), il fait suite à un printemps et un été déjà très doux. Si septembre et octobre ont connu des températures légèrement supérieures aux normales, le mois de novembre a été exceptionnellement chaud, selon Météo France. La pluviométrie de l'automne 2009 a été contrastée : les précipitations ont été sensiblement inférieures aux normales sur la moitié est du pays, mais assez nettement excédentaires sur les régions proches de l'Atlantique et de la Manche, note également Météo-France. Dans l'extrême Sud de la France, les pluies ont été particulièrement rares sur le Languedoc-Roussillon où les cumuls ont été près de trois fois inférieurs à la normale. Pendant l'automne, le soleil s'est montré généreux sur les deux tiers sud de la France. En revanche, l'ensoleillement a été plus proche de la moyenne au nord de la Seine. AP
|
|
|
|
|
|
|
|
La communauté internationale a émis depuis le début du XXIe siècle un excédent de 13 milliards de tonnes de dioxyde de carbone par rapport au seuil fixé pour éviter les pires conséquences du réchauffement climatique, montre un rapport du cabinet PriceWaterhouseCoopers (PwC) publiée à quelques jours de la conférence de Copenhague sur le réchauffement climatique. Selon ce rapport,la majeure partie des grands pays de ce monde, y compris les Etats membres de l'Union européenne, sont à la traîne dans la réduction de leurs émissions de gaz carboniques depuis 2000. "Pour la période 2000-2008, le dépassement cumulé du crédit mondial, ou 'dette carbone', est estimé à environ 13 milliards de tonnes de dioxyde de carbone, soit à peu près l'équivalent des émissions annuelles de carbone cumulées de la Chine et des Etats-Unis en 2008", écrit PwC dans son étude. Le cabinet spécialisé dans les études environnementales estime qu'à ce rythme la communauté internationale aura épuisé l'intégralité de son 'crédit' carbone de 1.300 milliards de tonnes pour la période 2000-2050 d'ici 2034, soit 16 ans avant la date limite. Le seuil de 1.300 milliards de tonnes est considéré comme le maximum permis pour maintenir le réchauffement climatique sous les deux degrés Celsius par rapport à l'ère pré-industrielle et éviter ainsi les pires scenarios pour la planète. Avec respectivement 6,8 et 6,4 milliards de tonnes de gaz à effet de serre émises chaque année, la Chine et les Etats-Unis sont les deux pays les plus pollueurs au monde. Le rapport de PwC précise que depuis le début du siècle, la communauté internationale a amélioré son "intensité carbone" de 0,8 % par an alors qu'une baisse annuelle de 3 % est nécessaire pour revenir à des taux de pollution raisonnables. L'"intensité carbone" se définit par la quantité de gaz à effet de serre rejetés pour chaque unité du revenu national produit. PwC a calculé que la communauté internationale devrait diminuer son "intensité carbone" de 85 % entre 2008 et 2050 pour éviter les pires conséquences du réchauffement climatique : cyclones puissants, désertification, feux de forêts et montée du niveau des mers. Reuters
|
|
|
|
|
|
|
|
Améliorer l'efficacité du secteur agricole, limiter sa dépendance envers les énergies fossiles et multiplier les puits de carbone ne permettra pas d'atteindre les objectifs de réduction des émissions, assurent les scientifiques. En revanche, combiner ces mesures à une réduction d'un tiers de la production et de la consommation de viande apportera "des bénéfices importants en terme de santé publique" et de réduction des émissions, assurent-ils. En Grande Bretagne, une réduction de 30 % de la consommation d'acides gras saturés d'origine animale réduirait de 17 % les décès prématurés dus aux maladies cardiovasculaires, ce qui épargnerait 18.000 personnes par an, selon les chercheurs. Selon l'Agence des Nations unies pour l'agriculture et l'alimentation (FAO), la production de viande représente 18 % des émissions de gaz à effet de serre dans le monde. L'augmentation de la consommation dans les pays émergents pourrait en outre se traduire par une hausse de 85 % des cheptels d'ici 2030, avec 2000 pour année de référence. Une initiative mondiale est nécessaire pour renforcer les bienfaits d'une réduction de la production et de la consommation de viande, soulignent les auteurs de l'enquête, ajoutant que les gains environnementaux "pourraient être limités aux pays qui ont déjà des niveaux élevés de production". Reuters
|
|
|
|
|
|
|
|
La diminution des émissions de dioxyde de carbone pourrait sauver des millions de vies, essentiellement via la réduction des maladies pulmonaires et cardiaques qui peuvent être prévenues, précisent les scientifiques. La réduction des émissions de dioxyde de carbone entraînerait également une baisse d'autres types de pollution atmosphérique, en particulier celui lié à de fines particules qui se logent dans les poumons et causent des dommages directs sur le plan de la santé. D'autres bénéfices pourraient découler d'initiatives encourageant les gens à pratiquer davantage d'exercices et à moins consommer de viande pour améliorer la santé cardiaque, selon les chercheurs, dont les études ont été financées par l'Institut national de sciences de la santé environnementale (NIEHS) aux Etats-Unis, le Wellcome Trust et d'autres organisations internationales de santé publique. Au lieu de se pencher sur les maladies provoquées par un futur réchauffement climatique, comme cela a été le cas lors de précédentes enquêtes, les recherches se sont intéressées aux bénéfices immédiats qui pourraient être retirés de mesures visant à répondre au problème. Et pour des pays tels que les Etats-Unis, les bénéfices issus d'une réduction des maladies cardiaques et pulmonaires sont plus importants que les futurs dommages sanitaires liés à une aggravation du climat, souligne Christopher Portier, directeur associé du NIEHS. Certains des avantages ne découleraient que de changements spectaculaires -et de mesures qui pourraient être jugées improbables- dans la vie quotidienne, tels des déplacements accrus à vélo et à pied, et une moindre consommation de viande. D'autres propositions sont plus concrètes et réalisables, comme l'élimination des fourneaux de cuisine alimentés au charbon de bois et autres combustibles polluants en Inde et dans le reste des pays en développement. Toutes font partie d'une liste de mesures examinées par les chercheurs pour réduire les émissions de gaz à effet de serre (GES) de 50 % d'ici 2050. "Là résident les moyens pouvant permettre de s'attaquer aux grands problèmes de santé et de s'occuper en même temps du changement climatique", observe l'un des auteurs, le Dr Paul Wilkinson, un épidémiologiste de la London School of Hygiene and Tropical Medicine, qui comme Christophe Portier, reconnaît la difficulté d'entraîner un changement des modes de vie. Par exemple, le choix de véhicules faiblement polluants à Londres et New Delhi permettrait de sauver 160 ans de vie perdus dans la capitale britannique et près de 1.700 dans la capitale indienne par million d'habitants, selon les conclusions d'une étude. Et si les habitants prenaient aussi moins la voiture, marchaient plus ou se déplaçaient davantage à vélo, le nombre des années supplémentaires qui pourraient être sauvées grimperait à plus de 7.300 ans à Londres et à 12.500 ans à Delhi en raison d'une réduction des maladies cardiaques. AP
|
|
|
|
|
|
|
|
Depuis des années, on cherche comment limiter les émissions de CO2 ou comment les stocker. On ne cherche pas assez comment transformer ou utiliser le CO2. Rich Diver, du Sandia National Labatory a testé le prototype d'un appareil qui pourrait transformer le CO2 en carburant : le Counter-Rotating-Ring Receiver Reactor Recuperator (CR5). Ce cylindre, qui fonctionne à l'énergie solaire, récupère le dioxyde de carbone (CO2) pour le convertir en monoxyde de carbone, qui, combiné à de l'hydrogène crée du gaz synthétique (syngas), puis du carburant type méthanol ou diesel. Mais comment ? Grâce à une réaction thermochimique. Ce transformateur contient deux chambres et 14 anneaux rotatifs couverts d'oxyde de fer : chauffé à 1500°C par l'énergie solaire, l'oxyde de fer se trouvant dans ces chambres réagit chimiquement avec le dioxyde de carbone, et le transforme. Imaginez le nombre de solutions qu'apporterait une telle machine ! D D'après ses créateurs, elle pourrait également servir à ôter l'oxygène de l'eau et produire de l'hydrogène sans électrolyse et surtout, offrir une solution durable à la séquestration de carbone, dont les limites sont peu à peu mises à nu. Pour l'instant, les chercheurs doivent augmenter la puissance et l'efficacité de la machine, qui, si elle voit le jour, ne sera commercialisable que dans 15 ou 20 ans... Expansion
|
|
^ Haut |
|
|
|
|
|
|
|
Vivant |
|
|
Santé, Médecine et Sciences du Vivant
|
|
|
|
|
|
|
|
|
Une équipe de chercheurs du RIKEN et de l'université de Yokohama a identifié une protéine clé dans le déclenchement de la réponse immunitaire contre certaines bactéries au niveau des muqueuses intestinales. Le système immunitaire intestinal représente environ 70 % du système immunitaire chez l'être humain. Il contient une grande quantité de lymphocytes, et sécrète quotidiennement plusieurs grammes d'immunoglobuline A, anticorps dont la fonction est de protéger les muqueuses contre l'infection et la colonisation par des agents pathogènes. La production d'anticorps par les muqueuses intestinales est déclenchée par la capture des antigènes, puis par leur acheminement jusqu'à des structures spécialisées. L'opération de transport, ou transcytose, est effectuée par certaines cellules, baptisées cellules M. Jusqu'ici, les chercheurs n'avaient pas réussi à trouver de marqueur permettant de les reconnaître et avaient des difficultés à comprendre leur fonctionnement à cause de leur relative rareté. L'équipe est parvenue à identifier une protéine, la glycoprotéine 2 (ou GP2) qui s'exprime spécifiquement sur la membrane apicale des cellules M. Elle a constaté que GP2 est capable de se lier à un certain nombre d'entérobactéries pathogènes ou commensales, telles qu'Escherichia Coli ou Salmonella enterica serovar Typhimurium, la bactérie responsable de la salmonellose. Plus précisément, GP2 reconnait FimH, un constituant de certaines structures surfaciques bactériennes (les pili). Les chercheurs ont ainsi observé qu'un manque de FimH chez les bactéries ou de récepteurs GP2 chez les cellules hôtes entraîne une diminution de la réponse immunitaire. Cette découverte permet d'apporter de nouveaux éléments pour décrire le fonctionnement du système immunitaire intestinal, et de nouvelles pistes pour l'élaboration de traitements. En particulier, GP2 représente une cible intéressante pour de potentiels vaccins par voie orale. BE
|
|
|
|
|
|
|
|
Le taux de mortalité par cancer en Europe a baissé de manière régulière ces dernières années. De nouvelles statistiques publiées dans la revue Annals of Oncology ont montré une baisse de 9 % entre la première moitié des années 1990 et la période 2000-2004 dans les 27 États membres de l'UE (UE-27). Cependant, les chercheurs constatent des différences entre pays et entre sexes. Le nombre moyen de décès par cancer pour 100 000 personnes entre 1990 et 1994 était de 185,2 chez les hommes et 104,8 chez les femmes. Entre 2000 et 2004, ce nombre est passé à 168 pour les hommes et à 96,9 pour les femmes. «Le message principal de notre article est que les tendances favorables en termes de mortalité par cancer en Europe se sont poursuivies ces dernières années», explique le Dr Cristina Bosetti, chef de l'unité Epidémiologie du cancer à l'institut Mario Negri en Italie. «Cela s'explique principalement par la baisse des cancers des poumons ou d'autres cancers liés au tabagisme chez les hommes, par le déclin persistant des cancers de l'estomac, mais également par la diminution non négligeable des cancers colorectaux.» «Le dépistage et le diagnostic précoce ont énormément contribué à la baisse des cancers du col de l'utérus et du sein, bien que la baisse du taux de mortalité par cancer du sein réside principalement dans l'amélioration des traitements», poursuit le Dr Bosetti. «Les progrès thérapeutiques ont également eu un impact important sur la réduction du taux de mortalité par cancer des testicules, par paragranulome de Hodgkin et par leucémie ; cependant, la baisse du taux de mortalité est plus faible et différée en Europe de l'Est.» Cordis
|
|
|
|
|
|
|
|
Certaines maladies génétiques graves sont dues à des mutations touchant un seul gène. Ces maladies sont souvent fatales, car on ne dispose généralement pas de traitements efficaces. Il y a quelques années, les généticiens ont estimé qu'il serait possible de remplacer les gènes défectueux par des gènes correcteurs, ou « gènes médicaments ». Cette forme de traitement, la thérapie génique, a d'abord semblé prometteuse, mais a connu un coup d'arrêt après la mort d'un malade ainsi traité, aux États-Unis, en septembre 1999. Puis, après plusieurs années d'échecs et d'incertitudes, l'équipe d'Alain Fischer, à l'Hôpital Necker, et celle de Claudio Bordignon, à l'Institut Saint Raphaël de Milan, ont réussi à guérir des déficits immunitaires combinés sévères chez des enfants, les « bébés bulles », qui ne peuvent se défendre contre les agents pathogènes. Certains des enfants ainsi traités ont toutefois développé une leucémie, car le gène thérapeutique s'était inséré dans le génome à proximité d'un proto-oncogène, un gène susceptible d'entraîner une prolifération cellulaire de nature cancéreuse quand ils sont activés par cette insertion. Récemment, deux résultats ont confirmé que cette méthode thérapeutique présente un réel potentiel pour traiter certaines maladies génétiques. La première étude a utilisé un mode dit ex vivo, au cours duquel les cellules à traiter sont prélevées chez le patient, et génétiquement corrigées grâce un vecteur viral porteur du gène fonctionnel, avant d'être réinjectées. Elle concerne l'adrénoleucodystrophie (ALD), une maladie rare due aux mutations d'un gène nécessaire à la formation de la gaine de myéline, qui enveloppe les fibres nerveuses. Sans cette gaine de myéline, l'influx nerveux ne se propage pas. Cette maladie touche un enfant sur 20 000. La seule forme de traitement possible est la greffe de cellules souches susceptibles de se différencier en cellules productrices de myéline, et issues de moelle osseuse ou de sang de cordon ombilical. Mais compte tenu du manque de greffons compatibles disponibles, et des risques de rejet, l'option consistant à utiliser les propres cellules souches de moelle osseuse du malade et de les corriger avec un gène thérapeutique semble appropriée. Début novembre, l'équipe de Nathalie Cartier et Patrick Aubourg, à l'Hôpital Saint-Vincent de Paul, à Paris, a publié des résultats montrant que c'est bien le cas. Trois enfants de sept ans atteints d'adrénoleucodystrophie ont reçu, il y a trois ans, leurs propres cellules souches de moelle osseuse, modifiées ex vivo par l'insertion du gène fonctionnel. Chez deux d'entre eux, l'imagerie cérébrale a révélé que la perte de myéline caractéristique de la maladie s'interrompait 16 mois après la greffe (les résultats du troisième enfant traité ne sont pas encore connus). Les cellules souches transformées ont, semble-t-il, donné naissance aux cellules nécessaires à la formation de myéline. Reste à vérifier que la correction perdure et qu'elle n'est pas à l'origine d'effets indésirables à long terme. Une seconde étude concerne une maladie rare et héréditaire de la rétine évoluant vers la cécité, l'amaurose congénitale de Leber. Dans ce cas, l'insertion du gène correcteur a été réalisée dans des cellules rétiniennes, in vivo, grâce à une injection localisée, sous la rétine, d'un vecteur viral porteur d'un gène correcteur. Jean Bennett et ses collègues de l'Université de Pennsylvanie ont observé chez 12 patients que les réponses de l'oeil à la lumière étaient améliorées par le traitement deux ans après l'injection. Quatre enfants âgés de 8 à 11 ans ont progressé dans leur capacité à déambuler entre des obstacles, les progrès étant moins évidents chez les adultes traités. Un suivi est prévu pour vérifier si l'amélioration constatée reste stable au cours du temps. PLS
|
|
|
|
|
|
|
|
Actuellement, la chimiothérapie, la radiothérapie et la chirurgie présentent des résultats « limités » dans les stades avancés du cancer, « raison pour laquelle il est urgent de trouver de nouvelles thérapies, et la thérapie génique a émergé comme une plate-forme thérapeutique avec un énorme potentiel », explique Ana Rosa Rama du Département d'Anatomie et d'Embryologie Humaine de l'Université de Grenade (UGR). Son travail a démontré qu'il « est possible d'employer la thérapie génique comme appui à la chimiothérapie, améliorant ses résultats au moment d'attaquer le cancer, en réduisant la dose des agents employés et, en conséquence, en contribuant à la diminution de leurs effets secondaires chez les patients. » Les scientifiques de l'UGR ont utilisé le gène suicide dénommé E du bactériophage phiX174 pour induire la mort des cellules tumorales. Les chercheurs ont étudié diverses techniques dans le but de comprendre le mécanisme d'action du gène E. Leurs résultats indiquent que le gène E induit dans les cellules un phénomène d'apoptose (mort cellulaire programmée), probablement par lésion mitochondriale. Ils suggèrent également la possibilité de réduire les concentrations d'agents chimiothérapiques utilisés actuellement. Ainsi, dans le cas du cancer du poumon, les chercheurs ont obtenu un peu plus de 14 % d'inhibition de croissance tumorale et une réduction de cent fois la dose de l'agent Paclitaxel (chimiothérapie) une fois le traitement combiné avec le gène E. Dans le cas du cancer du côlon, les résultats obtenus ont été similaires. Cependant, la donnée la plus importante concerne le cancer du sein, où la dose de l'agent chimiothérapique, la Doxorubicine, a pu être réduite cent fois, obtenant presque 21 % d'inhibition de la prolifération tumorale. Ces nouveaux résultats semblent encourageants et confirment l'intérêt de la thérapie génique dans le traitement de certaines tumeurs. NO
|
|
|
|
|
|
|
|
Les chercheurs des universités de Fribourg et Münster en Allemagne, ainsi que de l'Université médicale du Wisconsin aux États-Unis, viennent d'identifier un gène qui diminue l'hypertension lors de situations de stress. Il s'agit du gène phosducine qui agit sur la pression artérielle. On a d'abord comparé des souris de laboratoire n'ayant pas ce gène à d'autres qui l'avaient. Les souris sans phosducine ont développé de la pression artérielle lorsqu'elles étaient soumises à des situations stressantes. Ensuite, 1 000 volontaires humains se sont prêtés à l'expérience. On a analysé leur ADN en les exposant à des activités stressantes, comme répondre à un examen de mathématiques. Les résultats obtenus sur les souris se sont confirmés chez les humains. Ceux ayant le gène phosducine avaient une pression artérielle moins élevée. Cela confirme que ce gène a des effets bénéfiques sur l'hypertension. Cette découverte pourrait mener à de meilleurs traitements de ce trouble de santé. Rappelons que l'hypertension est l'une des causes de nombreuses maladies, dont les troubles cardiovasculaires. Canoe=
|
|
|
|
|
|
|
|
Un nouveau traitement du comportement visant des enfants autistes dès l'âge de 18 mois a permis de nettement améliorer leur quotient intellectuel et leur capacité de s'exprimer et de communiquer socialement, selon une recherche publiée lundi 30 novembre. "Il s'agit de la première étude contrôlée d'une thérapie intensive ciblant des enfants autistes ayant moins de deux ans et demi", souligne Geraldine Dawson, professeure de psychologie à l'Université de Washington à Seattle (dans le nord-ouest des Etas-Unis), principale auteure de ces travaux parus dans la version en ligne du journal Pediatrics. Cette approche combine des méthodes d'enseignement fondées sur l'analyse du comportement appliqué à des techniques visant à développer une relation avec l'enfant. Cette recherche qui a duré cinq ans a porté sur quarante-huit enfants autistes âgés de 18 à 30 mois. A la fin de l'étude, les enfants traités selon le nouveau programme ont vu leur quotient intellectuel et leur capacité d'écoute et de compréhension orale progresser de façon bien plus nette que le groupe ayant suivi un programme classique. Sept des enfants du groupe ayant bénéficié de la nouvelle méthode d'intervention ont même fait assez de progrès pour que les médecins modifient leur diagnostic et ne les considèrent plus comme "atteints d'autisme" mais atteints d'un syndrome plus bénin de développement mental. LM
|
|
^ Haut |
|
|
|
|
|
|
|
Recherche |
|
|
Recherche & Innovation, Technologies, Transports
|
|
|
|
|
|
|
|
|
Le constructeur haut de gamme allemand Daimler compte commercialiser d'ici 2015 une voiture à pile à combustible, affirme son directeur de la recherche. "Le prix d'un tel véhicule sera aux environs de celui d'un diesel hybride", déclare Herbert Kohler, dans le magazine Wirtschaftswoche. Le lancement d'un tel véhicule est prévu "d'ici 2015", a précisé un porte-parole. Daimler, propriétaire de la marque Mercedes-Benz, est en passe, selon M. Kohler, de surmonter l'un des principaux obstacles à la production en série de ces véhicules : l'utilisation d'environ 60 grammes de platine, un métal précieux et donc très coûteux, par moteur. Le constructeur a déjà réussi à réduire cette quantité de platine, et espère arriver à ne pas en utiliser plus par véhicule que dans un pot catalytique, soit environ 10 grammes. En septembre, les constructeurs Daimler, Toyota, Renault/Nissan, Ford, General Motors, Honda, Hyundai et Kia ont signé un accord pour encourager l'entrée sur le marché des véhicules à pile à combustible, et le développement d'une infrastructure pour distribuer de l'hydrogène, d'abord en Allemagne puis aux Etats-Unis, au Japon et en Corée du Sud. NO
|
|
^ Haut |
|
|
|
|
|
VOTRE INSCRIPTION |
|
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
|
|
|
|
|
|