RTFlash

RTFlash a besoin de vous pour continuer à exister !

Propulsé par HelloAsso

RTFLASH Recherche & Technologie
NUMERO 496
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 27 Novembre 2008
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
Le haut débit progresse rapidement au niveau mondial
Le positionnement s'affranchit des limitations du GSM et du GPS
Une nouvelle protéine fluorescente pourrait révolutionner les ordinateurs
Avenir
Des robots toujours plus humains
Matière
L'électronique s'assouplit pour coller au corps
Voitures électriques : changer de batteries comme on fait son plein !
Le CEA dévoile une technologie de stockage de l'hydrogène
Une batterie géante d'énergie éolienne testée aux Etats-Unis
Espace
Découverte de vastes glaciers enterrés sur Mars
Terre
Chaque Français peut facilement produire 20 % de déchets en moins
2008 sera la dixième année la plus chaude depuis 1850
La mer monte encore mais pas toujours pour les mêmes raisons
La production de biocarburants à partir d'algues devient réalité
Vivant
Première mondiale pour une greffe de trachée
USA : recul confirmé de la mortalité et de l'incidence des cancers
L'injection jet : une nouvelle thérapie génétique dans la lutte contre le cancer
Le yogourt contre le cancer de la vessie
Ressusciter le mammouth laineux, un rêve de généticien
L'autisme pourrait être dépisté sur un comportement inhabituel dans l'exploration des objets à l'âge d'un an
Edito
Les changements climatiques en cours sont sans précédents depuis 5000 ans



Depuis l'aube des civilisations humaines il y a environ 5.000 ans, c'est au cours des dernières décennies que les changements climatiques ont été les plus marqués, selon des travaux de chercheurs américains conduits sur l'Arctique et l'Atlantique Nord. "Le réchauffement que nous observons est sans précédent dans l'histoire humaine", souligne Charles Greene, océanographe de l'Université Cornell (New York), principal auteur de cette étude parue dans l'édition de novembre du journal Ecology.

Si ces changements se poursuivent dans l'Arctique et l'Atlantique nord, les modifications dans la circulation des eaux océaniques pourraient se produire à l'échelle du globe avec des conséquences potentielles importantes sur le climat mondial et la biosphère, selon ces scientifiques. Au cours des cinquante dernières années, la fonte des glaces arctiques et des glaciers a périodiquement précipité l'écoulement d'eau froide et faiblement saline de l'océan Arctique dans l'Atlantique Nord.

Ce phénomène a bouleversé des écosystèmes jusqu'en Caroline du Sud et du Nord (sud-est des Etats-Unis), provoquant des déplacements géographiques étendus de nombreuses espèces végétales et animales, montre cette recherche. Des algues microscopiques communes dans l'océan Pacifique ont aussi réapparu dans l'Atlantique nord ces dix dernières années après plus de 800.000 ans d'absence, précise l'étude. Ces chercheurs ont analysé les données climatiques à partir de carottes de glace et de couches sédimentaires portant sur les 65 derniers millions d'années.

Durant cette période, la Terre a connu plusieurs épisodes de réchauffement et de refroidissement majeurs qui ont été largement atténués par l'expansion et la contraction des glaces arctiques. "Quand l'Arctique se refroidit et que la banquise et les glaces s'étendent, la réflexion des rayons du soleil sur la glace s'accroît", explique Charles Greene. "Et quand davantage de rayons solaires sont réfléchis qu'absorbés par l'eau, cela conduit à un refroidissement général", ajoute-t-il. Cette étude montre aussi qu'avec le réchauffement de nombreuses espèces du nord se sont en fait déplacées vers le sud, contrairement à ce qu'attendaient la plupart des écologistes, souligne Charles Greene.

Autre indicateur alarmant : l'Océan Arctique est entré dans une mutation climatique profonde et irréversible": telle est la principale conclusion des travaux du programme européen Damoclès

dont le bilan scientifique a été rendu public le 1 3 novembre à Paris, à l'occasion de l'escale dans la capitale du voilier polaire Tara. La goélette, qui est amarrée au pied du pont Alexandre III jusqu'en janvier 2009, fut le support logistique du programme Damoclès tout au long des 507 jours de sa dérive arctique, de septembre 2006 à janvier 2008.

La première observation -déjà enregistrée par Damoclès en janvier 2008 lorsque Tara acheva sa dérive, puis confirmée en 2008- laisse envisager "une fonte totale de la banquise arctique en été à l'orée des années 2015, alors que les précédents modèles pointaient 2050", a indiqué l'océanographe et directeur de recherches au CNRS Jean-Claude Gascard, coordinateur du programme scientifique réalisé dans le cadre de l'Année Polaire Internationale (API 2007-2008). "Les étés 2007 et 2008 ont marqué les deux plus importantes fontes de la banquise depuis le début des observations satellitaires, il y a trente ans. Mais notre grande découverte à bord de Tara fut de constater que plus de 50 % de la superficie glacée restante (environ 4 millions de km2 contre 14 millions en hiver) était constituée de +mares de fonte+. En d'autres termes, la banquise d'été est +trouée comme un gruyère+, ce qui précipite le processus de délitement", a ajouté le coordinateur de Damoclès.

Deuxième observation cardinale: "L'effet de serre n'est plus le seul responsable du réchauffement climatique. Il est désormais secondé, voire dépassé par l'effet Albédo, qui mesure le rapport de l'énergie solaire réfléchie par une surface sur l'énergie solaire incidente", a souligné l'océanographe.

Explication : "8O % de l'énergie solaire est réfléchie par une surface de glace ou de neige, contre seulement 10 % par l'océan. Ainsi, moins il y a de surface gelée pour renvoyer les rayons du soleil, plus la température augmente et se maintient sur et sous la surface en question. L'océan a de la mémoire et le réchauffement provoque... du réchauffement. Ce mécanisme est maintenant durablement enclenché", a assuré Jean-Claude Gascard.

Selon les nouveaux modèles mis en avant par Damoclès (ce ne sont que des "modèles", soulignent les scientifiques qui restent très prudents), les conséquences d'une fonte totale de la banquise pendant les six mois d'été (elle se reforme l'hiver) seraient multiples. La plus préoccupante serait une fonte partielle, mais accélérée, des glaces du Groenland (eau douce) qui pourrait à la fois provoquer une élévation d'un mètre du niveau des océans avant la fin du siècle, mais aussi ralentir la montée des eaux du Gulf Stream, qui réchauffe les côtes et l'atmosphère de l'Europe occidentale.

Ce dernier phénomène, qualifié de "contre-réaction négative" par l'océanographe, aurait alors, et sur le long terme, la singulière conséquence de provoquer a contrario un sensible refroidissement du climat sur la façade Est de l'Atlantique Nord. "Dans ce cas de figure, c'en est fini des mimosas en Bretagne", résume Jean-Claude Gascard. Enfin, l'ensemble du scénario pourrait se compliquer avec une fonte accélérée du pergélisol (sol gelé en permanence), notamment en Sibérie, qui pourrait libérer des quantités considérables de méthane (gaz à effet de serre) enfouies et augmenter la production de dioxyde de carbone par processus de biodégradation.

Pourtant, en dépit de cette situation alarmante, et malgré les engagements pris dans le cadre du protocole de Kyoto, les émissions de gaz à effet de serre continuent à progresser dans les pays industrialisés, indique le secrétariat exécutif de la Convention-cadre des Nations Unies sur les changements climatiques (CCNUCC) dans son rapport annuel publié le 17 novembre. Entre 2000 et 2006, elles ont ainsi augmenté de 2,3 %, passant de 17,6 à 18 milliards de tonnes de dioxyde de carbone, précise l'ONU.

Selon les experts internationaux du GIEC, les émissions de GES doivent cesser de croître dans les quinze ans puis diminuer de moitié d'ici 2050 pour contenir la hausse de température en deçà de 2 degrés en 2100. Malheureusement, nous n'avons pas encore pris toute la mesure du péril planétaire qui nous menace et les objectifs du futur traité qui succédera au protocole de Kyoto à partir de 2013 doivent absolument être plus ambitieux et plus contraignants si nous voulons limiter les conséquences désastreuses de cette catastrophe climatique annoncée.

René Trégouët

Sénateur honoraire

Fondateur du Groupe de Prospective du Sénat


TIC
Information et Communication
Le haut débit progresse rapidement au niveau mondial
Vendredi, 28/11/2008 - 00:00

Au 30 juin 2008, il y avait 382 millions d'abonnés haut débit dans le monde selon le cabinet Point Topic. Le taux de pénétration du haut débit dans le monde s'élevait ainsi à6,6 % au 30 juin 2008. Panorama du haut débit dans le monde.

L'Europe de l'Ouestest la première région du monde en nombre d'abonnés à l'Internet haut débit, avec 26,19 % du parc total au 30 juin 2008. Elle est talonnée par la régionAmérique du Nord (22,46 % du parc), et l'Asie du Sud-Est (21,98 %). La région Asie Pacifique occupe la quatrième position avec 15,89 % du parc total d'abonnés haut débit dans le monde. Les régions Europe de l'Est, Amérique Latine et Afrique et Moyen-Orient représentent quant à elles trois moins de 14 % du parc mondial.

JDNet

Le positionnement s'affranchit des limitations du GSM et du GPS
Vendredi, 28/11/2008 - 00:00

4TS, une société spécialisée dans les services de localisation, a développé une nouvelle solution, Global MPS (MPS pour "système de positionnement mobile à technologie étendue"). Celle-ci fonctionne comme les services existants de positionnement par GPS. À une différence près : Global MPS localise en effet tout objet y compris à l'intérieur d'un bâtiment ou d'un véhicule de livraison. La principale limitation du Global Positioning SystemMPS se démarque aussi des solutions par GSM. Celles-ci sont toujours dépendantes d'un opérateur et presque impossibles à utiliser si l'on doit passer un réseau à l'autre. A l'inverse, Global MPS fonctionne indépendamment de tout opérateur particulier, partout où un réseau mobile est disponible. , incapable d'obtenir des informations dans ces environnements clos, est ainsi éliminée. Si bien qu'il est possible d'obtenir un véritable positionnement en temps réel.

Selon la société finlandaise, la technologie Global MPS permet d'atteindre une précision de positionnement comparable au niveau atteint par GPS. Cette solution peut elle-même être combinée à un système de positionnement par satellite. Avantage de cette alliance : pouvoir localiser facilement n'importe quel objet par réseau mobile sans avoir à chercher de localisation par GPS économise la batterie des dispositifs mobiles. "Notre objectif consiste à faire en sorte que tous les objets soient localisables en direct quel que soit leur direct, dans un endroit fermé, mais aussi d'un pays à l'autre, sur terre, sur mer, dans l'air ou sous terre", déclare Jyrki Paananen, le PDG de 4TS. La solution Global MPS servira bien sûr à améliorer la sécurité et la qualité des marchandises pendant leurs transports.

La nouvelle technologie de positionnement sera bientôt incorporée à toute une gamme de produits de monitoring que 4TS commercialise déjà. Grâce à un système de capteurs, les produits dSeal permettent déjà de contrôler la température, l'humidité, l'accélération, la pression de l'air et d'autres paramètres relatifs à la livraison. Le dispositif donne immédiatement l'alerte en cas de dépassement d'un niveau de tolérance prédéterminé des marchandises contrôlées.

Atelier

Une nouvelle protéine fluorescente pourrait révolutionner les ordinateurs
Vendredi, 28/11/2008 - 00:00

Des chercheurs allemands, anglais et français viennent de mettre au point une protéine pouvant être "allumée", "éteinte" en différentes couleurs, à des fins médicales mais aussi informatiques, avec comme perspective d'augmenter considérablement la mémoire des ordinateurs. Cette protéine fluorescente, appelée Iris-FP, est dérivée d'une autre protéine, la GFP, dont les inventeurs ont été récompensés le mois dernier par le prix Nobel de chimie. La GFP, de couleur verte, avait été modifiée génétiquement par l'un de trois Nobel, l'Américain Roger Tsien, qui en avait produit de toutes les couleurs de l'arc-en-ciel.

L'Iris-FP, dont l'architecture est décrite par les chercheurs est capable de "changer de couleur de façon contrôlée" et d'être non seulement allumée, mais aussi éteinte sur commande grâce à un laser. "Ces résultats apportent de nouvelles perspectives en nanoscopie", une technique de microscopie en plein essor qui permet l'observation d'objets de l'ordre du milliardième de mètre, selon un communiqué publié mercredi par le Commissariat à l'énergie atomique. Pour étudier par exemple une tumeur cancéreuse, deux protéines, l'une fluorescente et l'autre d'intérêt médical sont collées l'une à l'autre, la fluorescente permettant de suivre le parcours et le devenir de celle d'intérêt médical, a expliqué Dominique Bourgeois, de l'Institut de biologie structurale.

En informatique, l'Iris-FP permet de développer des mémoires de stockage sur des volumes beaucoup plus petits que les mémoires actuellement les plus performantes, en faisant changer de couleur de minuscules cristaux. Le changement de couleur correspond à une opération. "On peut envisager de stocker un téraoctet (soit mille gigaoctets d'informations)" sur un cube de 0,1 mm de côté "bien que cela soit encore du domaine du rêve", selon Dominique Bourgeois.

PNAS

^ Haut
Avenir
Nanotechnologies et Robotique
Des robots toujours plus humains
Vendredi, 28/11/2008 - 00:00

Le projet FEELIX GROWING est européen, il coordonne des expériences issues de divers laboratoires avec en ligne de mire le développement de robots capables d'interagir avec des humains dans notre environnement quotidien, d'apprendre, de développer des émotions et des réactions adaptées aux besoins et aux personnalités des individus auxquels ils sont attachés. Au menu de l'ICT 2008 (qui traitera en fait de nombreux sujets), un robot animal de compagnie explorera son environnement et gérera son stress, plusieurs têtes robots reproduiront des expressions faciales en réponse à des stimulations visuelles et vocales d'humains, des robots humanoïdes entreprendront d'assimiler des tâches simples par imitation ou par stimulation visuelle. Enfin, des vidéos rapporteront le comportement de chimpanzés face à de tels robots.

_ Voici pour finir un avant-goût de la chose, avec entre autres dans cette assez longue séquence une tête-robot dotée d'expressions, face à un enfant notamment.

Ln

^ Haut
Matière
Matière et Energie
L'électronique s'assouplit pour coller au corps
Vendredi, 28/11/2008 - 00:00

Réussir à produire des circuits électroniques flexibles. C'est l'exploit d'une équipe des universités de Northwestern et de l'Illinois. Ce n'est pas qu'une prouesse théorique. Cela devrait s'avérer très utile pour concevoir des systèmes de capteurs capables d'être placés au contact de la peau sans subir de déformation à cause des mouvements du corps. Voire des périphériques, à l'instar du Morph de Nokia. C'est imaginable, car selon les chercheurs, les circuits qu'ils ont obtenus multiplient leur souplesse de plus de 140 %. "Un grand nombre des applications dédiées au corps se doivent d'être flexibles si elles veulent être réellement performantes", souligne ainsi Yonggang Huang, l'un des responsables du projet.

Pour y parvenir, les chercheurs ont amélioré une technologie qu'ils avaient préalablement développée, et qu'ils appellent "pop up". Celle-ci consiste à relier tous les composants entre eux par des fils métalliques qui n'apparaissent que quand deux éléments sont tendus. "Cette avancée rend le circuit résistant à la déformation", ajoute le chercheur. En règle générale, les équipements électroniques sont plats, en raison du silicone qui les compose, et qui n'est pas flexible.

Dans un premier temps, l'équipe avait développé un circuit capable d'être étiré dans une direction sans perdre ses propriétés de transmetteur électrique. Elle avait ensuite réussi à placer ces mêmes circuits sur des surfaces incurvées, sans qu'ils se cassent. Ce, en créant des dispositifs de si petite taille qu'il était possible de plier un système de capteur sans incurver un circuit électrique en même temps. Le nouveau système permet d'envisager différentes tailles de circuits. Il s'intègrera à des solutions de capteurs, mais aussi à des transmetteurs et à des appareils photovoltaïques. Autant de dispositifs qui s'adressent au secteur de la santé, pour gérer au quotidien l'état d'un patient ou les performances d'un athlète.

Atelier

Voitures électriques : changer de batteries comme on fait son plein !
Vendredi, 28/11/2008 - 00:00

En s'associant avec EDF, Renault et PSA souhaitent favoriser la généralisation en France d'infrastructures de recharge des batteries électriques, afin de soutenir l'essor des véhicules roulant à l'électricité. Si un tel réseau voit le jour, deux obstacles à l'émergence d'un marché de la voiture électrique subsisteraient : le temps de chargement des batteries, et le coût excessif de celles-ci. Mais des entreprises comme Better Place ou FAM Automobiles apportent une réponse originale : abandonner le concept de la batterie rechargeable au profit de la batterie amovible, qu'il suffit de remplacer dans une station à chaque fois qu'elle se vide.

Proposer dès 2011 aux Français des véhicules électriques performants, faciles d'usages et à des prix abordables. Tels sont les objectifs des partenariats signés le mois dernier entre les constructeurs automobile Renault et PSA et l'énergéticien EDF, dans le cadre du Mondial de l'Automobile. Ces accords visent non seulement à commercialiser des voitures électriques et des véhicules hybrides rechargeables, mais également à proposer des solutions de stockage plus performantes, et à résoudre le problème de l'infrastructure de recharge des batteries. EDF entend sur ce point « jouer un rôle clé pour la conception et la normalisation des infrastructures de recharge qui sont une condition du succès du développement du véhicule électrique », selon le PDG d'EDF, Pierre Gadonneix. De fait, la rareté des points de recharge des batteries constitue un frein majeur à l'essor des véhicules à motorisation électrique.

Mais la mise en place d'un véritable réseau de « recharge » ne suffirait pas à faire décoller la voiture électrique. D'autres verrous subsisteraient longtemps, comme le temps de chargement des batteries, qui nécessite d'immobiliser les véhicules pendant plusieurs heures. Ou encore le coût exorbitant des nouvelles technologies de batteries, (NiMh, LiIon, etc...), qui rend à lui seul presque inabordables les voitures électriques les plus récentes. Et pourtant...Une solution élémentaire à ces deux derniers problèmes existe. Shai Agassi, PDG de l'entreprise Better Place, partenaire de Renault pour la commercialisation en masse de « méganes » électriques, est un des premiers à avoir résolu la quadrature du cercle de la recharge électrique. Comme l'explique Philippe Chican, directeur des programmes de R&D du pôle de compétitivité Véhicules du futur, « l'idée est simple : au lieu de considérer que la batterie fait partie intégrante du véhicule électrique, il suffit d'imaginer qu'elle représente en fait l'équivalent d'un plein. En partant de ce principe, et en mettant au point des batteries amovibles, on ne s'arrête plus dans une station pour recharger pendant des heures sa batterie, mais pour la remplacer par une autre, déjà pleine. » Le concept de la batterie démontable résout à la fois le problème du temps de chargement, et celui du coût de la batterie, qui n'est plus à la charge du propriétaire de la voiture électrique.

L'idée est en train d'être mise en oeuvre par Better Place en Israël, au Danemark et au Portugal. Shai Agassi, qui souhaite développer un réseau interconnecté de stations pour voitures électriques en Europe, a fait part de son souhait d'être associé au récent partenariat entre EDF et les deux constructeurs français. Le principe de la batterie démontable est également développé en France par la société FAM Automobiles, dans le cadre du projet de voiture « F-City » porté par le pôle de compétitivité Véhicules du futur.

JDI

Le CEA dévoile une technologie de stockage de l'hydrogène
Vendredi, 28/11/2008 - 00:00

Le CEA a présenté, dans le cadre du projet européen StorHy (Hydrogen Storage Systems for Automotive applications), une technologie de stockage de l'hydrogène à base de matériaux polymères composites destinée à équiper les futurs véhicules roulant à l'hydrogène. Les réservoirs, développés en partenariat avec la société Ullit, stockent l'hydrogène sous forme gazeuse, indique le CEA. La partie interne du réservoir, ou liner, pour l'étanchéité de l'hydrogène est réalisée en polymère selon un procédé de synthèse et transformation simultanées. Cette technologie a fait l'objet de brevets par le CEA et Air Liquide et est licenciée à la société Ullit pour son industrialisation.

Quant à la coque composite externe, le CEA note qu'elle assure la résistance et la protection mécaniques. Elle est constituée par enroulement filamentaire et utilise des matériaux issus de l'aéronautique comme les fibres de carbone. Selon le CEA, l'utilisation de trois réservoirs compacts, soit 3 fois 34 litres de volume interne, permettrait d'embarquer environ 4,5 kg d'hydrogène. Cette configuration permet d'envisager avec les technologies actuelles une autonomie d'environ 500 km pour une voiture familiale équipée d'une pile à combustible PEMFC de 70 à 80 kW.

CEA

Une batterie géante d'énergie éolienne testée aux Etats-Unis
Vendredi, 28/11/2008 - 00:00

La révolution énergétique passe par le stockage. Xcel Energy, le plus gros producteur d'énergie éolienne aux Etats-Unis, va tester une première dans le pays : une batterie géante pour stocker l'énergie éolienne. D'une taille de deux semi-remorques empilés l'un sur l'autre, cet appareil a été fabriqué au Japon par le groupe de céramiques industrielles NGK Insulators. Composée d'une série de 20 modules de 50 kW, cette batterie géante au sodium-soufre, - un type de batteries pourvues d'électrodes liquides, utilisées dans les installations à grande échelle - pèse environ 80 tonnes et a une capacité de 1 MW. Complètement chargée, elle pourra stocker 7,2 MW-heures d'électricité, de quoi alimenter 500 foyers pendant 7 heures environ.

Il en coûtera plus de 5,4 millions de dollars à Xcel pour l'acheter, l'installer, et analyser ses performances. Cette batterie, vise à résoudre le plus gros handicap de l'éolien : sa dépendance au vent. L'idée est de stocker une partie de l'électricité produite quand il y a du vent, et de la diffuser dans le réseau quand le vent tombe.

UN

^ Haut
Espace
Espace et Cosmologie
Découverte de vastes glaciers enterrés sur Mars
Vendredi, 28/11/2008 - 00:00

La surface de Mars contient de vastes glaciers enterrés à des latitudes moyennes, selon des observations de la sonde américaine MRO, une découverte importante pour la quête d'une éventuelle vie passée et une future exploration habitée de la planète rouge. "Ensemble, ces glaciers représentent probablement le plus grand réservoir d'eau gelée en dehors de la calotte glaciaire arctique", souligne le géophysicien John Holt de l'Université du Texas, principal auteur de cette étude publiée dans la revue américaine Science.

"Un des glaciers est trois fois plus étendu que Los Angeles pour une épaisseur par endroits de près de 800 mètres", précise-t-il."Ces résultats sont la partie émergée de l'iceberg et attestent la présence de vaste quantités de glace à ces latitudes", selon Ali Safaeinili, un des membres de l'équipe internationale de recherche du Propulsion Laboratory (JPL) de la Nasa à Pasadena (Californie).

Dans la mesure où l'eau est l'une des conditions sine qua non de la vie telle que nous la connaissons, la découverte de grands réservoirs d'eau gelée sur Mars est un signe encourageant pour les savants, relève John Holt. Leur présence à des latitudes moyennes, donc dans des régions moins froides, faciliterait une éventuelle colonisation de Mars. "Outre leur valeur scientifique, ces glaciers pourraient être de précieuses sources d'eau pour les futures missions d'exploration de la planète rouge", souligne-t-il.

La sonde américaine Phoenix, qui s'est posée dans l'Arctique martien en mai, avait confirmé que la glace était bien de l'eau.Ces grands glaciers rappellent ceux détectés sous des socles rocheux dans l'Antarctique, note John Holt. Ils se situent dans la région du bassin de Hellas, dans l'hémisphère sud de Mars. Le radar de la sonde MRO en orbite autour de Mars a détecté des formations rocheuses similaires dans l'hémisphère nord.

Selon Jeffrey Plaut, membre du JPL et de l'équipe d'étude des données fournies par le radar, "il existe des volumes d'eau gelée encore plus importants sous les dépôts de roches et sédimentaires dans l'hémisphère nord". "Le fait que ces glaciers se situent dans les mêmes latitudes entre 35 et 60 degrés dans les deux hémisphères laisse penser qu'ils ont résulté d'un mécanisme climatique", explique-t-il.

Une variation de l'obliquité de Mars autour de son axe explique ce changement de climat et la formation de ces glaciers, relève James Head de l'Université Brown. "L'obliquité de Mars a été beaucoup plus grande dans le passé et les modèles climatiques informatiques montrent que des couches de glace pouvaient alors recouvrir des latitudes moyennes", explique le chercheur. Selon lui, ces glaciers enterrés sont les restes préservés d'un âge glaciaire remontant à plusieurs millions d'années.

Science

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
Chaque Français peut facilement produire 20 % de déchets en moins
Vendredi, 28/11/2008 - 00:00

Chaque Français peut réduire sa quantité de déchets produits d'environ 20 % grâce à une série de gestes simples tels que privilégier l'eau du robinet plutôt que l'eau minérale, a souligné l'Agence de l'environnement et de la maîtrise de l'énergie. Une étude menée sur 370 foyers témoins (1.064 personnes) montre qu'il est possible de réduire de 22 % les déchets produits en optant pour 4 gestes de prévention qu'ils ne pratiquaient pas auparavant. "Cette étude montre qu'on peut, en s'organisant un peu, réduire ses déchets de 80kg par an", a de son côté souligné le ministre de l'Ecologie Jean-Louis Borloo, qui a rappelé que la réduction des déchets était un des piliers du Grenelle de l'environnement.

Parmi les dix gestes simples de "prévention", l'Ademe suggère de choisir les produits au détail ou en vrac qui permettent d'éviter les emballages superflus, d'utiliser des sacs réutilisables pour faire les courses, ou encore de mettre un autocollant Stop Pub sur sa boîte aux lettres.Chaque Français produit en moyenne 353 kg de déchets par an. L'un des objectifs du Grenelle est de réduire la production d'ordures ménagères de 5kg par personne et par an pendant 5 ans.

Pour Clara Osadtchy, de l'association Agir pour l'environnement, l'absence de réglementation "contraignante" pour les industriels, en termes d'emballages, rend difficile de réels progrès."L'Etat donne l'illusion que ce sont les gestes individuels qui vont permettre de parvenir à cette réduction (de 5kg par personne et par an). Mais, en plus de la sensibilisation, il faut vraiment que les industriels soient contraints réglementairement", a-t-elle estimé.Actuellement en France, environ 20% des déchets ménagers sont recyclés, 4O% partent en décharge et 40% sont incinérés.

Yahoo

2008 sera la dixième année la plus chaude depuis 1850
Vendredi, 28/11/2008 - 00:00

L'année 2008 est en passe de devenir la dixième année la plus chaude depuis 1850, a déclaré mardi un éminent scientifique spécialiste du climat, prévenant que la communauté internationale sous-estimait le réchauffement climatique. L'année la plus chaude depuis que les mesures de température existent fut 1998, suivie par 2005 et 2003. La dixième place fait de 2008 l'année la moins chaude depuis 1999.

Phil Jones, directeur de l'Unité en recherche climatique de l'Université d'East Anglia, explique ce relatif 'ralentissement' dans le réchauffement par l'influence exceptionnelle cette année du phénomène de refroidissement naturel dans l'océan Pacifique connu sous le nom de La Nina. "La Nina dans le Pacifique a duré plus longtemps que nous ne l'avions envisagé", a déclaré Jones dans un entretien à Reuters.

Jones estime par ailleurs que les mesures de température sous-estiment le réchauffement climatique en raison de l'absence de relevés dans l'Arctique entre 1961 et 1990, des années témoin pour juger de l'évolution. "Le monde est probablement un peu plus chaud que nous ne le mesurons", a-t-il dit. La banquise arctique a fondu à son plus bas niveau à l'été 2007 et a presque égalé ce record cette année. Selon l'Onu, cette région pourrait subir un réchauffement deux fois plus rapide que le reste de la surface terrestre. Selon Jones, les mesures actuelles sous-estiment également la température des océans d'environ 0,5 degré celsius.

Yahoo

La mer monte encore mais pas toujours pour les mêmes raisons
Vendredi, 28/11/2008 - 00:00

La fonte accélérée des glaces continentales explique en grande majorité la hausse du niveau marin au cours de la période 2003-2008, c'est ce que vient de découvrir des chercheurs du Laboratoire d'études en Géophysique et océanographie spatiales (CNRS/Université Toulouse 3/CNES/IRD) et d'une filiale du CNES, minimisant l'effet de la dilatation thermique des eaux des océans. Cette question a pu être résolue grâce aux données du satellite franco-américain Jason-1, des deux satellites de la mission spatiale gravimétrique GRACE et des bouées du système Argo. Ces résultats déjà en ligne sont publiés sur le site de la revue Global and Planetary Change.

Entre 1993 et 2003, le niveau moyen global de la mer, mesuré de façon très précise par les satellites franco-américains Topex/Poséidon et son successeur Jason-1, était monté à un rythme relativement constant de 3 mm/an. Le dernier rapport du GIEC, publié en 2007, avait montré que plus de la moitié de cette hausse (environ 1.5 mm/an) était due à la dilatation des eaux océaniques qui se réchauffent (contribution stérique), alors que 1.2 mm/an provenait des pertes de masse des calottes polaires et des glaciers de montagne. Renversement de situation : depuis 2003, on constate toujours une hausse assez rapide (2.5 mm/an) du niveau marin. Mais pendant cette même période le réchauffement de l'océan semble faire une pause, sa contribution à la hausse du niveau des mers n'étant que de 0.4 mm/an.

Ainsi c'est surtout l'accroissement de la masse d'eau de l'océan plutôt que de son contenu thermique qui est à l'origine de la hausse de son niveau observée depuis 2003. L'augmentation de masse de l'océan est équivalente à une hausse de 1.9 mm/an du niveau moyen des mers. D'où provient cette masse d'eau supplémentaire dans les océans ? De la fonte des glaces continentales : les données GRACE ont permis aussi de mesurer les variations de masse des deux calottes polaires antarctique et groenlandaise.

Celles-ci contribuent pour 1 mm/an à la hausse du niveau des mers (soit 2 fois plus qu'au cours de la décennie précédente). Pour les glaciers de montagne, les plus récentes estimations des glaciologues indiquent une contribution de 1.1 mm/an (elle aussi plus importante qu'au cours des années antérieures). Ces pertes de masses glaciaires expliquent bien que la masse d'eau océanique augmente et sont responsables de 80 % de la hausse du niveau moyen des mers des dernières années. Compte tenu de cette fonte accélérée des glaciers et des calottes, si la contribution stérique revenait aux valeurs des années 1990, une hausse du niveau marin de l'ordre de 4 mm/an ne serait pas à exclure.

CNRS

La production de biocarburants à partir d'algues devient réalité
Vendredi, 28/11/2008 - 00:00

Face aux réactions négatives et aux doutes grandissants vis-à-vis de l'impact des biocarburants de 1ère génération, chercheurs et industries spécialisées se sont penchés sur le potentiel d'un nouveau type de biocarburants dit "avancés" produit à partir de micro-algues.

Les Etats-Unis ont développé deux principales filières de biocarburants de 1ère génération afin de réduire leur dépendance vis-à-vis du pétrole : le bioéthanol obtenu à partir de sucre et de céréales (maïs, blé, betterave...), et le biodiesel à partir d'oléagineux (huile de colza, huile de soja...). Ces deux filières sont aujourd'hui confrontées à des contraintes de disponibilité de la matière première et de concurrence vis-à-vis de la production alimentaire ; à cela s'ajoutent les problèmes de déforestation, d'abus de biocides et d'engrais.

Depuis 2007, l'USDA dispose d'un budget de 1.6 milliard de dollars pour la recherche sur les biocarburants. La loi de 2007 sur la sécurité et l'indépendance énergétique a fixé des objectifs quantitatifs ambitieux avec un volume de production de biocarburants de 9 milliards de gallons pour 2008, objectif qui devrait progressivement passer à 36 milliards de gallons d'ici 2022. Sur ces 36 milliards de gallons, 21 milliards devront provenir de biocarburants "avancés", dont 16 milliards tirés de la biomasse cellulosique et 5 milliards de biocarburants avancés indifférenciés.

Une nouvelle filière de production, qui ne rentre pas en compétition avec les ressources alimentaires, est en phase de développement à partir de micro-algues. Les algues représentent une source très intéressante pour la production de biodiesel, du fait de la teneur importante des cellules en lipides (jusqu'à 50 à 80% de la matière sèche). La production d'huile par unité de surface cultivée pourrait être jusqu'à 600 fois plus élevée que celle obtenue à partir de soja. Les recherches et les développements sont axés en priorité sur les procédés de culture des algues et d'extraction de l'huile, dans un objectif de réduction des coûts liés à l'industrialisation. Les experts estiment qu'une commercialisation est possible d'ici 3 à 6 ans avec un coût compétitif par rapport à celui du diesel issu du pétrole.

Les micro-algues adaptées à la production de biocarburants seront sélectionnées en fonction de leur teneur en lipides, leur vitesse de développement et leur tolérance à des milieux riches en oxygène. Plusieurs groupes taxonomiques sont à l'étude : des Chlorophycées (Chlorella, Parietochloris incisa), des Diatomées (Amphora sp., Nitzchia sp.) ou des Chrisophycées. Le process de fabrication de carburant à partir d'algues consiste à les cultiver dans des grandes cuves de fermentation industrielles (photobioréacteurs), à l'obscurité, et de les alimenter en continu avec un milieu nutritif contenant du glycérol et de la cellulose.

En comparaison avec la filière cellulosique, il semble que les microalgues soient en passe de gagner cette course du biocarburant de nouvelle génération. En effet, le biodiesel issu des algues paraît aujourd'hui plus proche du stade de l'industrialisation que le bioéthanol obtenu à partir de sources ligno-cellulosiques.

BE

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Première mondiale pour une greffe de trachée
Vendredi, 28/11/2008 - 00:00

Des médecins européens ont réalisé une première mondiale en greffant chez une femme une trachée dotée de tissus cultivés à partir des propres cellules de la malade, une procédure qui rend inutile le recours à un traitement anti-rejet, souligne une étude publiée en ligne dans la revue médicale "The Lancet". "Cette procédure est très prometteuse", observe le Dr Eric Genden, qui a réalisé une transplantation de trachée en 2005 à l'hôpital Mont Sinaï à New York. Seules quelques greffes de trachée ont été pratiquées à ce jour. Si son succès se confirme, la nouvelle technique pourrait donner lieu à un nouveau mode de traitement, estime le Dr Genden, qui n'a pas participé aux travaux.

La greffe a été réalisée en Espagne sur Claudia Castillo, une Colombienne de 30 ans, résidant à Barcelone, atteinte de tuberculose depuis des années. Après un affaissement grave de son poumon gauche en mars, elle devait se rendre régulièrement à l'hôpital pour faire dégager ses voies respiratoires et ne pouvait plus s'occuper de ses deux enfants.

Les médecins ont d'abord estimé que la seule solution était une intervention chirurgicale pour lui retirer le poumon gauche. Mais le Dr Paolo Macchiarini, chef du département de chirurgie thoracique à l'hôpital clinique de Barcelone, a proposé à la place la greffe de trachée.

Une fois obtenu l'organe, fourni par un donneur, des scientifiques de l'université de Padoue en Italie l'ont dépouillé de ses cellules, ne laissant qu'un tube de tissu conjonctif. De leur côté, des médecins de l'université de Bristol ont apporté leur contribution à cette première en prélevant sur Claudia Castillo un échantillon de moelle osseuse, dont ils ont utilisé les cellules souches pour créer des millions de cellules cartilagineuses et épithéliales destinées à la trachée. Des experts de l'université de Milan ont ensuite utilisé un appareil pour déposer ces cellules dans le greffon, transplanté en juin sur la patiente.

Les chercheurs "ont créé une structure fonctionnelle, biologique qui ne peut être rejetée (par l'organisme)", souligne le Dr Allan Kirk de la Société américaine de transplantation. "C'est une avancée importante, mais fabriquer un organe entier n'est pas encore pour demain. "Fabriquer des tissus avec les propres cellules souches du patient est une piste prometteuse, note le Dr Patrick Warnke, chirurgien à l'université de Kiel qui travaille lui-même sur cette technique. Il estime que les médecins pourraient un jour être capables de produire des organes en laboratoire à l'aide des cellules souches des malades. "Il faudra encore des années, et nous avons besoin d'approches pionnières comme celle-ci", ajoute-t-il en référence à la nouvelle étude.

AP

USA : recul confirmé de la mortalité et de l'incidence des cancers
Vendredi, 28/11/2008 - 00:00

Pour la première fois,l 'incidence des cancers et le taux de mortalité due à cette maladie a régressé aux Etats-Unis chez les deux sexes de 1999 à 2005. Bien que la mortalité due au cancer soit en nette baisse depuis la publication de ce premier rapport annuel il y a dix ans, celui de 2008 montre pour la première fois un recul simultané de l'incidence des cancers et du taux de mortalité chez les femmes et les hommes, soulignent les auteurs. Le taux de tous les cancers combinés a diminué de 0,8 % par an de 1999 à 2005 dans les deux sexes et le taux de mortalité a reculé en moyenne de 1,8 % par an de 2002 à 2005, selon des statistiques basées sur l'incidence et la mortalité à long terme (1975-2005).

L'incidence de tous les cancers a diminué de 1,8% par an de 2001 à 2005 parmi les hommes et de 0,6 % annuellement de 1998 à 2005 chez les femmes.

Le recul à la fois de l'incidence des cancers et du taux de mortalité pour tous les cancers s'explique surtout par une diminution des trois cancers les plus fréquents chez les hommes. Il s'agit des cancers du poumon, colorectal et de la prostate ainsi que du cancer du sein et du colon/rectum, les deux plus communs chez les femmes.

Une réduction du taux de décès résultant du cancer du poumon chez les femmes a également contribué à cette tendance favorable depuis ces dernières années. "La baisse de l'incidence des cancers dont fait part le dernier rapport annuel était attendue depuis longtemps", relève le Dr Otis Brawley, médecin en chef de l'American Cancer Society (ACS).

"Nous devons toutefois faire preuve de prudence dans l'interprétation de ces changements dans l'incidence qui ne pourraient que refléter une réduction des facteurs de risques et aussi des changements dans les examens de détection", ajoute-t-il. "Mais quoi qu'il en soit, la baisse continuelle de la mortalité par cancer démontre les progrès accomplis dans la lutte contre cette maladie ainsi que de véritables gains dans la prévention, la détection précoce et le traitement", juge ce médecin.

"Il est très prometteur de voir les progrès réalisés dans la lutte contre le cancer mais malheureusement l'usage du tabac continue à accabler notre pays responsable du décès d'un trop grand nombre de personnes", souligne le Dr Julie Gerberding, directrice des Centres américains de contrôle et de prévention des maladies (CDC). "Nous devons nous engager de nouveau dans la mise en oeuvre de programmes efficaces contre l'usage du tabac", ajoute-t-elle.

La Californie, qui a été le premier Etat aux Etats-Unis à mettre en place de telles mesures étendues, est aussi le seul Etat dans lequel l'incidence de cancer de poumons et de mortalité par ce cancer a diminué chez les femmes. Selon le médecin en chef des Etats-Unis (U.S. Surgeon General), la cigarette est responsable de 30 % de tous les décès par cancer dont 80 % par cancers du poumon. Les cancers de la cavité buccale, du pharynx, du larynx, de l'oesophage, du foie, du rein et la leucémie myéloïde sont aussi attribués au tabac.

JNCI

L'injection jet : une nouvelle thérapie génétique dans la lutte contre le cancer
Vendredi, 28/11/2008 - 00:00

Des chercheurs berlinois du Centre Max Delbrück (MDC) de médecine moléculaire et de l'Université de médecine de la Charité ont mis au point un nouveau type de traitement anti-tumoral. Ce procédé inédit, l'injection jet, consiste à injecter, sous haute pression, de l'information génétique dans un tissu tumoral. Lors de l'étude clinique réalisée avec succès sur 17 sujets, les scientifiques sont parvenus à injecter, de manière précise et efficace, un gène directement dans la tumeur des patients. Après l'intervention, aucun effet secondaire indésirable n'a pu être observé chez les 17 patients participant à l'étude. Les résultats des travaux du Dr. Walther et du Prof. Schlag, tous deux en fonction au MDC et à la Charité, ont été publiés dans la revue scientifique Clinical Cancer Research .

Contrairement aux méthodes utilisant des virus inoffensifs porteurs d'un message génétique qui sera ensuite dirigé vers une tumeur pour la traiter, la technique d'injection jet n'emploie pas de support protecteur, le gène se suffit à lui-même pour être appliqué à la tumeur. Ce procédé requiert par ailleurs des quantités bien moins importantes de matériel génétique. D'après le Dr. Walther, l'utilisation d'un traitement génétique dépouillé de toute enveloppe biologique présenterait deux avantages. Dans un premier temps, il permettrait d'éviter les problèmes que peuvent parfois causer les traitements anti-tumoraux utilisant un virus comme vecteur biologique. D'autre part, l'injection jet comporte des coûts d'intervention moins élevés, cette technique sera donc préférée par les hôpitaux et les cliniques.

Les scientifiques désirent maintenant, grâce à la méthode d'injection jet, programmer le gène introduit afin qu'il provoque l'apoptose (la mort cellulaire) des cellules tumorales. Ce procédé pourra être appliqué en complémentarité d'une chimiothérapie, par exemple, afin d'améliorer les chances de guérison. "Les expérimentations animales ont montré une réduction réelle de la taille de la tumeur grâce à cette méthode", commente le Dr. Walther qui espère obtenir les mêmes résultats chez les êtres humains.

BE

Le yogourt contre le cancer de la vessie
Vendredi, 28/11/2008 - 00:00

Les yogourts occupent une place de plus en plus importante sur les rayons de nos épiceries. À nous d'en profiter, car ces produits valent vraiment la peine qu'on les consomme régulièrement pour leurs nombreux effets positifs sur la santé, notamment leur potentiel à améliorer l'efficacité de notre système immunitaire. Des études récentes suggèrent également que le yogourt pourrait être une arme efficace pour la prévention de certains cancers. Étant donné que l'activité du système immunitaire joue un rôle important non seulement dans notre défense contre les microbes mais également dans notre protection face au développement de certains cancers, ces observations illustrent bien l'importance des bactéries lactiques dans le maintien d'une bonne santé.

L'impact positif des produits de lait fermenté sur la santé a récemment été mis en évidence par une étude scandinave sur le lien entre la consommation régulière de yogourt et la prévention du cancer de la vessie. Dans cette étude réalisée auprès de 82 002 personnes âgées de 45 ans à 83 ans, les chercheurs ont observé que les personnes qui consommaient quotidiennement deux portions de yogourt ou autres produits à base de lait fermenté avaient 38 % moins de risque d'être atteints d'un cancer de la vessie que celles qui n'en consommaient pas du tout.

Cet effet protecteur est seulement associé au yogourt, car aucune réduction du risque de cancer n'a pu être observée chez les consommateurs réguliers de produits laitiers non fermentés comme le lait ou le fromage. Bien que les mécanismes responsables de cet impact extrêmement positif du yogourt demeurent à être élucidés, des études antérieures ont suggéré que les bactéries lactiques présentes dans cet aliment réduisaient l'apparition de mutations génétiques dans les cellules qui tapissent l'intérieur de la vessie.

Canoe

Ressusciter le mammouth laineux, un rêve de généticien
Vendredi, 28/11/2008 - 00:00

La revue Nature a publié, jeudi 20 novembre, une série d'articles décrivant la façon dont l'ADN du mammouth laineux a pu être presque entièrement séquencé. Et présenté une recette pour ressusciter le pachyderme. Certes, il n'est pas question, comme l'avait imaginé Crichton, de créer un zoo de dinosaures engendrés à partir d'ADN prélevé dans des moustiques ayant sucé le sang des sauriens avant d'être piégés dans de l'ambre. Mais l'idée générale est la même : séquencer le génome de plusieurs mammouths retrouvés dans le pergélisol ; en tirer un génome de synthèse ; introduire ces chromosomes dans un noyau de cellule d'éléphant ; implanter cet embryon dans une éléphante porteuse ; voir ce qui en sort.

"Aucune de ces étapes n'est actuellement possible", convient Henry Nicholls, qui, dans Nature, détaille chacune d'elles. Au Muséum national d'histoire naturelle, Pascal Tassy estime que le clonage de mammouth est une vue de l'esprit, "même si l'enjeu technologique est bien circonscrit". Mais il reconnaît que la marche de la science peut surprendre parfois les spécialistes eux-mêmes : "J'avais dit qu'on ne pourrait pas séquencer l'ADN mitochondrial (non nucléaire) du mammouth, avant d'être démenti", note-t-il. D'autant qu'une solution intermédiaire pourrait consister à s'inspirer du génome du mammouth pour modifier à la marge celui de l'éléphant moderne, afin de lui conférer des attributs de son cousin disparu. Un mammouth au rabais, qui écraserait les prix, comparé à sa version de synthèse, dont le coût hypothétique de production se mesure en millions de dollars.

Mais trêve de science-fiction : pour l'heure, l'équipe de Stephan Schuster (Pennsylvania State University) est parvenue à séquencer 3,3 milliards de paires de base d'ADN de Mammuthus primigenius, soit 70 % environ du génome du mammouth laineux. La comparaison avec l'éléphant moderne suggère que diverses espèces de mammouth ont pu diverger il y a environ 1,5 à 2 millions d'années.

LM

L'autisme pourrait être dépisté sur un comportement inhabituel dans l'exploration des objets à l'âge d'un an
Vendredi, 28/11/2008 - 00:00

Le dépistage de l'autisme et des troubles du spectre de l'autisme (TSA) avant 2 ans est dans l'air du temps. Pour les cliniciens, le plus simple serait que l'examen psychomoteur du nourrisson permette de déceler des anomalies évocatrices. L'intérêt de S Ozonoff et coll. s'est centré sur les comportements explorateurs vis-à-vis des objets lors de la 1ère année de vie. Leur étude a inclus 66 enfants (dont 35 cadets de patients autistes). A l'âge de 1 an, ces nourrissons ont été filmés alors qu'ils accomplissaient « une tâche d'exploration d'objets » (TEO). On leur présentait en effet successivement un couvercle en métal, un anneau, un râteau et un biberon en plastique.Les manipulations et les regards ont été codifiés « en aveugle » sur les vidéos.

Le niveau de développement cognitif et relationnel a été ensuite évalué à 2 ans, et pour 37, à 3 ans, avec ADOS (Autism Diagnostic Observation Schedule), les échelles d'apprentissage précoce de Mullen et le SCQ (Social Communication Questionnaire). Neuf enfants ont alors été classés en autismes et TSA, dix autres comme ayant des retards de développement, l'état des 47 derniers étant jugé « rassurant ».

Quatre comportements, tous inhabituels à 1 an, avaient une distribution intergroupes qui différait de l'hypothèse nulle : faire rouler l'objet (p <0,05), le tourner et le retourner (p <0,05), le faire pivoter (p <0,01), regarder latéralement (p <0,001). Dans les comparaisons 2 à 2, les enfants autistes faisaient pivoter plus souvent, tournaient/ retournaient plus longtemps, et regardaient en coin plus longtemps les jouets que ceux des deux autres groupes.

En revanche, pour les comportements habituels à 1 an (secouer, taper, porter à la bouche et jeter) il n'y avait pas de différences intergroupes significatives. De tous les comportements inhabituels, c'était le regard latéral qui prédisait le mieux un autisme. Par rapport à la moyenne des performances des sujets rassurants, son z-score moyen valait 4,22 dans le groupe des autismes.

Les comportements inhabituels semblaient préfigurer les gestes répétitifs et stéréotypés des autismes. En effet, la durée du regard latéral dans la TEO était corrélée positivement aux deux scores d'ADOS et négativement aux quatre échelles de Mullen.

Pour dépister précocement les enfants suspects d'autisme ou de TSA, les cliniciens ont besoin d'outils simples et fiables. Les résultats de l'étude ci-dessus suggèrent que des comportements inhabituels au cours de l'exploration des objets à l'âge de 1 an peuvent précéder un autisme ou des TSA. L'approche proposée est basée sur l'observation du nourrisson au cours d'une TEO. Elle peut être complémentaire d'une approche par un questionnaire parental, comme la M-CHAT, mais elle demande au préalable à être validée.

JIM

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top