RTFlash

RTFlash a besoin de vous pour continuer à exister !

Propulsé par HelloAsso

RTFLASH Recherche & Technologie
NUMERO 508
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 12 Mars 2009
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
Microsoft lance l'ordinateur de surface
Puces photoniques : Infinera promet 75 % d'économie d'énergie
Intel croit au Wimax
Avenir
Un robot professeur pour les élèves japonais
Matière
Le parc éolien maritime français a le vent en poupe
Espace
L'eau a bien coulé sur Mars
Le télescope spatial Kepler en quête de «nouveaux mondes»
Terre
La hausse du niveau des mers pourrait dépasser un mètre d'ici à 2100
Réchauffement climatique : hors de la taxe carbone, point de salut
L'Amazonie, un puits de carbone menacé par la sécheresse
Les pays riches revoient à la hausse leurs émissions de CO2
Vivant
Une percée majeure dans la recherche sur les cellules souches
Le bêta-carotène protégerait les fonctions mentales masculines
Un "ADN synthétique" pour lutter contre la criminalité
Une meilleure thérapie contre les tumeurs du cerveau
Cancer de l'ovaire : tests de détection précoce prometteurs
Nouvelle stratégie des bactéries pour neutraliser des antibiotiques
La dépression, facteur de risque à part entière d'infarctus, selon une étude
Un nouveau type de détecteur de mensonges presque infaillible !
Edito
Le cerveau et la conscience : vers une nouvelle approche globale



Mieux comprendre notre cerveau constitue l'un des défis majeurs du XXIème siècle. Les enjeux médicaux et sociaux sont en effet considérables, surtout dans le contexte démographique de nos sociétés vieillissantes : outre les bénéfices que l'on peut en attendre dans le domaine de la santé et des neurosciences (progrès en neurochirurgie, neurologie et psychiatrie...), la compréhension du cerveau permet de mieux connaître la façon dont les individus interagissent entre eux ou avec leur environnement.

C'est en 1860 que le Français P. Broca découvrit que le cerveau fonctionnait par région et que l'hémisphère gauche et l'hémisphère droit n'étaient pas identiques et avaient des rôles différents. Le cerveau fait aujourd'hui l'objet de nombreuses recherches et est loin d'avoir livré tous ses secrets. Dans cette quête du cerveau humain, l'imagerie neurofonctionnelle tient aujourd'hui une place unique. Grâce à elle, il est possible d'obtenir, in vivo et in situ, une somme d'informations sur le fonctionnement des organes, et ce, de manière non invasive, c'est-à-dire sans chirurgie et sans créer de traumatisme. Elle permet d'étudier le fonctionnement cérébral sans interférer avec son fonctionnement normal.

Grâce aux fantastiques progrès de l'imagerie fonctionnelle il devient à présent possible de cartographier de plus en plus précisément les aires cérébrales qui sous-tendent les fonctions cognitives. On peut également comprendre le cheminement et le mode de traitement de l'information dans le cerveau, en visualisant l'ordre d'activation des régions cérébrales dans le traitement d'une information et en montrant les faisceaux de connexions qui permettent la transmission de l'activation entre les différentes régions cérébrales.

Enfin, on commence à élucider le « code neural », c'est-à-dire à comprendre comment l'information codée dans le cerveau. Ce codage, comme le code génétique pour l'ADN, doit reposer sur une organisation très structurée dans l'espace des assemblées de neurones. Cette organisation est en même temps d'une prodigieuse souplesse pour permettre l'adaptation à l'environnement et l'apprentissage, au cours du développement et ce tout au long de la vie.

On le voit, nous sommes loin de la conception du cerveau de Selon Ramon y Cajal, père fondateur des neurosciences modernes et Prix Nobel de médecine en 1906, pour qui le cerveau adulte était un organe immuable, constitué de neurones voués à une mort inéluctable car incapables de se diviser pour se multiplier. Puis, dans les années 1980, c'est la révolution ! On découvre que le cerveau adulte a la capacité de réorganiser son réseau de neurones pour tracer un chemin privilégié de circulation de l'information. Cette plasticité, que l'on croyait réservée aux jeunes cerveaux immatures, opère dans les synapses.

Ces « ponts » de connexion entre les neurones ont en effet la capacité de se renforcer ou au contraire de se dégrader, ainsi que de former de nouvelles connexions. On sait depuis 1984 que de nouveaux neurones naissent dans le cerveau adulte des mammifères. Plus récemment, on a observé qu'ils s'intègrent aux réseaux ultra-complexes formés par leurs pairs ! Les cellules gliales, autres cellules nerveuses du cerveau, dix fois plus nombreuses que les neurones, font parler d'elles en révélant leurs étonnantes capacités. Il s'agit en particulier de certaines d'entre elles, qui ont de nombreux « prolongements », les bien nommés astrocytes, à la forme étoilée. Ceux-ci sont eux aussi organisés en réseau et participent de manière capitale, mais à une autre échelle temporelle beaucoup plus longue, à la communication dans les synapses.

Sir John Eccles était l'un des plus grands neurologues du XXe siècle qui a contribué de façon décisive à l'accroissement de nos connaissances concernant notre cerveau et a obtenu le prix Nobel de médecine en 1964. Il pensait qu'il est possible de concevoir une conscience indépendante du cerveau. Seulement, celle-ci ne serait pas, comme dans l'ancienne vision dualiste, totalement séparée du corps, elle interviendrait sur les constituants des synapses du cerveau pour influencer les événements en cours. La physique quantique nous montre que de telles influences peuvent exister sans violer les lois connues de la matière et de l'énergie.

Antonio Damasio insiste, pour sa part, sur la nécessité de l'interaction aussi bien des fonctions cérébrales individuelles que du cerveau lui-même avec le reste du corps. Son livre, "L'erreur de Descartes" a pour objectif de tenter de corriger le dualisme de l'esprit et du corps remontant au grand philosophe français.

Selon lui, aucune fonction cérébrale ne structure à elle seule le comportement humain. Damasio décrit des exemples tirés de son expérience clinique, par lesquels des patients, réussissant les tests d'intelligence, deviennent néanmoins des personnes handicapées à cause de déficiences neuronales touchant certaines facultés de sensation. Damasio a montré sous un jour nouveau l'importance structurante des émotions dans les prises de décision trop souvent considérées comme des actes purement rationnels. L'émotion, selon lui, joue un rôle aussi fondamental que la raison dans nos actes et décisions.

Pour Damasio, il existe donc bien un continuum entre le corps, le cerveau, l'esprit, les émotions et la conscience. En accord avec Damasio, mais travaillant sur le plan philosophique, John R. Searle, remet également en cause le dualisme et pense que la conscience est le produit de processus neurologiques. Pour Searle, la conscience est une propriété émergente du cerveau et du système nerveux et notre cerveau est qualitativement différent d'un ordinateur car il a conscience de lui-même et produit des actes intentionnels, ce qu'est incapable de faire une machine.

On voit donc que, face à l'océan de complexité que révèlent les récents progrès dans la connaissance de notre cerveau, les frontières disciplinaires traditionnelles éclatent et les neuro-sciences doivent aujourd'hui dialoguer avec les sciences humaines et les philosophes pour penser notre cerveau dans toutes ses dimensions physiques, biologiques, sociales et spirituelles.

René Trégouët

Sénateur honoraire

Fondateur du Groupe de Prospective du Sénat

e-mail : tregouet@gmail.com


TIC
Information et Communication
Microsoft lance l'ordinateur de surface
Vendredi, 13/03/2009 - 00:00

En surface, la table basse à écran tactile de Microsoft, n'a plus rien du prototype futuriste. Le géant de Redmond la commercialise depuis plusieurs mois en Amérique du nord auprès des hôtels et des casinos, à environ 10 000 dollars l'unité. Après ce coup d'essai, l'éditeur se décide à exporter Surface dans une douzaine de pays d'Europe et du Moyen-Orient, dont la France. Microsoft vient d'en faire l'annonce en préambule du CeBIT, qui se tient à Hanovre du 3 au 8 mars 2009, sans donner aucun prix. Surface consiste en une table surmontée d'un écran tactile de 30 pouces, à usage collectif. « Le premier ordinateur de surface », selon Microsoft.

Grâce à ses caméras infrarouges, la table détecte les mouvements des utilisateurs et les objets qu'ils posent dessus. L'interface tactile, multitouch, permet de manipuler, redimensionner, glisser-déposer ou cliquer sur des documents, des photos, des vidéos ou des musiques. Selon Panos Panay, responsable de Microsoft Surface, la table interactive aurait suscité l'engouement des entreprises outre-Atlantique. Sa disponibilité est donc étendue aux principaux marchés européens l'Autriche, l'Allemagne, la France, la Grande-Bretagne mais aussi le Qatar ou les Emirats arabes unis. Une version grand public de Surface a été promise par Microsoft dans les années à venir.

OINet

Puces photoniques : Infinera promet 75 % d'économie d'énergie
Vendredi, 13/03/2009 - 00:00

Fabricant de systèmes de réseau optique numérique pour les opérateurs de télécommunications (opérateurs, hébergeurs et fournisseurs de services internet), Infineraa mis au point des puces photoniques qui remplacent les fonctionnalités de 50 composants électroniques.

Cette miniaturisation réduit la consommation électrique lors de la transmission de données via la fibre optique. L'économie est de 50 % par longueur d'onde de 10Gb/s par rapport aux systèmes optiques traditionnels. Le rapport sera de 80 % avec l'arrivée de la prochaine génération de systèmes optiques supportant 40 Gigabits/s par longueur d'onde.

Les puces photoniques d'Infinera rassembleront bientôt les fonctionnalités de 230 composants. Ce qui veut dire qu'au lieu de permettre 50 % d'économie d'énergie par rapport à un système utilisant des composants discrets, la prochaine génération de puces (400 Gb/s) ne consommera plus que 25 % de l'énergie dépensée par les systèmes optiques traditionnels.

Au rythme actuel (+75 % de trafic / an) durant les 10 prochaines années, les systèmes optiques, même fonctionnant sur des lignes en cuivre de 100 Gb/s, nécessiteront 3,3 Gigawatts d'électricité, c'est-à-dire l'équivalent de 7 nouvelles centrales électriques de taille moyenne. Et ce chiffre ne s'applique qu'aux réseaux longue distance (WAN).

ZDNet

Intel croit au Wimax
Vendredi, 13/03/2009 - 00:00

La technologie Wimax (pour « Worldwide Interoperability for Microwave Access ») offre un accès haut débit sans fil par faisceau hertzien, et permet de couvrir les zones les plus reculées. N'empêche, elle ne porte pas bonheur... Le canadien Nortel a interrompu ses développements l'été dernier et noué un partenariat avec le spécialiste israélien Alvarion, un accord aujourd'hui caduque suite à la mise en faillite de Nortel en janvier. Dans le cadre de sa réorganisation, Alcatel-Lucent vient quant à lui d'annoncer qu'il entend réduire ses investissements dans la technologie Wimax, laquelle n'est plus « stratégique » à ses yeux. Côté opérateurs, les projets des français Free et Bolloré Télécom, les seuls acteurs à détenir des licences leur permettant de couvrir l'essentiel du territoire hexagonal, sont toujours en attente, faute de disponibilité et d'installation des équipements réseaux adaptés.

Mais Intel - l'un des principaux fournisseurs de puces Wimax, destinées à être embarquées dans les terminaux portables - y croit dur comme fer. A la veille du salon Mobile World Congress de Barcelone, du 16 au 19 février, il fait même valoir plusieurs partenariats censés l'aider à tirer partie de ce marché qu'il juge juteux.

Lors d'une conférence téléphonique, Sriram Viswanathan, vice-président d'Intel, a estimé que le Wimax est « l'évolution naturelle du Wi-Fi », rappelant qu'Intel a commencé dès 2003 à intégrer des équipements Wi-Fi dans les PC avec sa technologie Centrino. En est-il de même aujourd'hui avec les puces Wimax ? Selon lui, Acer, Asus, Lenovo, Panasonic ou encore Toshiba ont déjà franchi le pas pour certains portables et « près de 100 modèles compatibles devraient être disponibles d'ici 2010 ».

La population mondiale couverte par les réseaux Wimax devrait aussi doubler d'ici 2010. Des déploiements sont en cours au Japon (par l'opérateur UQ, dont Intel est l'un des investisseurs), en Russie (Comstar), en Corée du sud (KT), aux Pays-Bas (WorldMax), au Venezuela (Movilmax) et en Bulgarie (Max Telecom). Et la crise ne devrait pas mettre fin au mouvement, selon Sriram Viswanathan, qui considère que les opérateurs continueront de déployer des réseaux en période de crise et que la technologie Wimax est moins coûteuse à mettre en oeuvre que les réseaux existants.

UN

^ Haut
Avenir
Nanotechnologies et Robotique
Un robot professeur pour les élèves japonais
Vendredi, 13/03/2009 - 00:00

Elle s'appelle Saya, fait l'appel, est polyglotte, donne des exercices, sourit, s'énerve aussi parfois. Un peu comme tous les professeurs. Mais Saya diffère toutefois du reste du corps enseignant japonais, car elle est articulée par 18 moteurs dissimulés derrière un masque en latex. Ce robot-professeur est actuellement à l'essai dans une école primaire de Tokyo, rapporte le quotidien britannique Telegraph. Il aura fallu quinze années à Hiroshi Koyabashi, scientifique de l'Université de Tokyo, et à son équipe, pour développer ce robot. En janvier 2009, l'Université avait déjà présenté Saya la secrétaire, qui sait utiliser 700 mots. Et en 2005, M. Koyabashi avait fièrement dévoilé Saya la réceptionniste. "J'ai presque l'impression qu'elle est une personne réelle" avait-il alors déclaré. "Elle a du tempérament...et parfois elle fait des erreurs, spécialement quand elle manque d'énergie" avait-il précisé.

Un projet qui peut paraître tiré d'un livre de science-fiction, mais répond pourtant à une préoccupation réelle du gouvernement japonais. Pour faire face à une population vieillissante, et donc à une population active en baisse, et maintenir le pays à la pointe de la technologie, il soutient activement la recherche en robotique. Il a récemment investi un peu plus de 27 millions d'euros dans ce secteur et voudrait que les robots entrent dans les foyers japonais d'ici à 2015.

ALJ

^ Haut
Matière
Matière et Energie
Le parc éolien maritime français a le vent en poupe
Vendredi, 13/03/2009 - 00:00

Le plan de développement des énergies renouvelables en France, issu du Grenelle Environnement, a pour objectif de porter à au moins 23 % la part des énergies renouvelables dans la consommation d'énergie à l'horizon 2020. A cet effet, il prévoit notamment une accélération du développement de l'énergie éolienne en mer, et vise l'installation d'une capacité de 5 000 à 6 000 MW d'ici à 2020.

Afin de faciliter l'atteinte de ces objectifs, le gouvernement a décidé de prendre différentes mesures facilitant le développement du parc éolien maritime français : les procédures de mise en place seront ainsi simplifiées et, pour chaque façade maritime, une instance de concertation et de planification, rassemblant l'ensemble des parties prenantes, aura pour mission d'identifier des zones propices au développement de l'éolien en mer, au regard des différentes contraintes existantes (usage de la mer, radars, réseau électrique, ...). Jean-Louis Borloo a demandé aux préfets de bien vouloir lui transmettre le document de planification avant le 15 septembre 2009.

MS

^ Haut
Espace
Espace et Cosmologie
L'eau a bien coulé sur Mars
Vendredi, 13/03/2009 - 00:00

Il y avait vraisemblablement de l'eau sur Mars il y a 1,25 million d'années. C'est ce que viennent de mettre en évidence des scientifiques de l'Université Brown de Providence dans le Rhode Island. Des analyses de photos prises par la caméra Hirise (NASA), montrent des ravines qui auraient, de toute évidence, été formées par de l'eau venant de la fonte de neige et de glace. Les photos ont été prises dans l'hémisphère Sud de la planète rouge, sur les flancs du cratère Promethei Terra.

Pour les chercheurs, c'est une nouvelle preuve de la présence d'eau sur Mars, l'élargissement de la période pendant laquelle l'eau a coulé et que l'apparition de formes de vie primaires était donc possible. Samuel Schon, l'un des auteurs de l'étude, indique que le déplacement de sédiments par l'eau se serait produit à quatre reprises. Les chercheurs pensent donc que l'eau était présente sur Mars à une époque encore «récente» et que cette découverte représente un pas très important pour constituer cette preuve.

Canoe

Le télescope spatial Kepler en quête de «nouveaux mondes»
Vendredi, 13/03/2009 - 00:00

Sommes-nous seuls dans l'univers ? C'est à cette question primordiale, qui fascine l'humanité depuis des siècles, que Kepler, le télescope spatial de la Nasa, doit répondre en recherchant pendant plus de trois ans des planètes «jumelles» de la Terre, sur une large portion de la Voie lactée, située entre les étoiles Deneb et Vega. L'engin, d'un peu plus d'une tonne et doté d'un objectif de 95 centimètres de diamètre, a été placé sur une orbite solaire d'un an et sept jours, par une fusée Delta II lancée depuis la base militaire de Cap Canaveral, en Floride. «Nous espérons trouver au moins 100 planètes telluriques (ou rocheuses, NDLR), dont beaucoup de la taille de la Terre,» confie William Borucki, le responsable scientifique de la mission, dans une interview au magazine Ciel & Espace de ce mois-ci.

Les 337 planètes extrasolaires identifiées depuis 1995 sont, pour la majorité d'entre elles, des géantes gazeuses, comparables à Jupiter et à Saturne. Leur taille est donc très supérieure à celle de la Terre. En outre, elles sont toutes situées en dehors de la zone dite habitable, c'est-à-dire la région autour d'une étoile où les conditions physiques rendent possibles la présence d'eau liquide, indispensable à l'émergence et au développement de la vie.

La plus petite exoplanète connue à ce jour, CoRot-Exo-7b, est à peine deux fois plus grosse que la Terre, mais c'est une véritable fournaise dont la température de surface dépasse les 1 000°C ! Elle a été détectée par le satellite franco-européen Corot, mis en orbite en décembre 2006. D'un coût total de 572 millions de dollars (lancement compris), Kepler, baptisé ainsi en hommage au célèbre astronome allemand Johannes Kepler (1571-1630), va scruter jusqu'en 2013 plus de 100 000 étoiles de la Voie lactée ressemblant à notre Soleil.

Grâce à son puissant récepteur, doté de 95 millions de pixels, et à sa position privilégiée dans l'espace, loin des perturbations provoquées par la Terre (gravité, magnétisme, atmosphère...), le télescope sera capable de mesurer l'éclat des étoiles à 0,002 % près ! Soit une précision largement suffisante pour détecter l'infime baisse de luminosité (0,1 %) provoquée par le passage devant son étoile d'une planète similaire à la Terre. Kepler devra mesurer au moins trois transits consécutifs pour certifier la présence d'une planète. En outre, l'amplitude de la variation de l'éclat lumineux et sa fréquence permettront de déduire la taille de l'exoplanète et la durée de sa rotation autour de son astre. La Nasa s'appuiera également sur les télescopes terrestres de Lick, en Californie, et du Keck, à Hawaï, pour calculer la densité et la masse de ces «nouvelles Terres» et s'assurer qu'il s'agit bien de planètes rocheuses comme la nôtre.

Selon Jon Morse, directeur de la division d'astrophysique de la Nasa, «le recensement planétaire que doit effectuer Kepler sera d'une grande importance pour savoir si des planètes de la même catégorie de taille que la Terre sont fréquentes dans la Voie lactée».

Si des planètes de type terrestre sont nombreuses dans la zone dite habitable, Kepler pourrait en découvrir des dizaines. Et fournir à l'humanité la certitude que d'autres mondes comparables au nôtre, où la vie est en théorie possible, existent ailleurs dans l'univers.

Figaro

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
La hausse du niveau des mers pourrait dépasser un mètre d'ici à 2100
Vendredi, 13/03/2009 - 00:00

La hausse du niveau des mers pourrait dépasser un mètre d'ici à la fin du siècle, ont mis en garde à Copenhague des scientifiques, soulignant l'absolue nécessité d'aboutir à un accord international sur le climat dans neuf mois dans la capitale danoise. Sur cette problématique cruciale, qui pourrait rayer de la carte nombre d'Etats insulaires et contraindre des dizaines de millions de personnes à l'exil, les évaluations du groupe des experts mondiaux du climat (Giec) sont en-deçà de la réalité, ont estimé plusieurs d'entre eux. "Je pense que la hausse du niveau des mers pourrait dépasser un mètre d'ici à 2100 si nous continuons sur notre rythme d'émission (de gaz à effet de serre)", a déclaré Stefan Rahmstorf, de l'Institut de recherche de Potsdam (Allemagne) sur le climat, présentant les résultats de sa dernière étude.

"Quand nous appliquons les différents scénarios d'évolution de température du Giec, nous arrivons à une fourchette de hausse du niveau de la mer en 2100 qui va de 75 cm à 190 cm", a-t-il expliqué. Dans son dernier rapport, publié en 2007, le Giec tablait sur une élévation du niveau des mers allant de 18 à 59 cm d'ici à 2100, tout en prenant soin de préciser que cette évaluation ne prenait pas en compte le comportement futur des calottes glaciaires de l'Antarctique et du Groenland. Or, plusieurs études récentes ont mis en lumière des évolutions significatives sur ce point.

"La vision traditionnelle était que les calottes glaciaires évoluent de manière très très lente sur des centaines ou des milliers d'années, or les choses qu'on voit en ce moment sont beaucoup plus rapides", a expliqué Eric Rignot, professeur à l'UC Irvine, en Californie. "Si cette tendance se poursuit, nous assisterons probablement à une hausse du niveau de la mer d'un mètre ou plus d'ici à 2100", a-t-il jugé, soulignant que les modèles classiques avaient sous-estimé le rôle de "l'écoulement des glaces" vers la mer par rapport à la "simple fonte". Nombre de scientifiques rassemblés à Copenhague ont par ailleurs rappelé que la fin du siècle était simplement une date de référence mais qu'elle ne marquerait en aucun cas un inversement de tendance.

"Nous sommes en train d'enclencher des processus qui entraîneront une hausse des océans pour les siècles à venir", a martelé Stefan Rahmstorf. D'après John Ashton, représentant spécial sur le changement climatique pour le Royaume Uni, le monde a besoin d'un "sens de l'urgence beaucoup plus fort" sur cette question. "Si vous regardez la part de la production chinoise qui est faite sur des basses terres le long de la côte Est, une montée du niveau de la mer d'un ou deux mètres serait une catastrophe absolue. Et ce qui est catastrophique pour la Chine est catastrophique pour le monde". "Le monde a très très peu de temps", est de son côté venu rappeler à la tribune l'Indien Rajendra Pachauri, président du Giec, organisation qui a reçu le Prix Nobel de la Paix en 2007.

En décembre, la communauté internationale se réunira à Copenhague pour tenter de donner une suite au protocole de Kyoto et trouver un accord mondial sur les réductions des émissions de gaz à effet de serre au-delà de 2012. A moyen terme, l'objectif affiché est d'aboutir à une diminution d'au moins 50 % des émissions mondiales de gaz à effet de serre d'ici à 2050, soit une réduction d'au moins 80 % de la part des pays riches.

AFP

Réchauffement climatique : hors de la taxe carbone, point de salut
Vendredi, 13/03/2009 - 00:00

Réduire les émissions de gaz à effet de serre dans l'atmosphère passe nécessairement par la création d'une taxe carbone, juge James Hansen, climatologue de la Nasa. L'équation est simple, rappelle le scientifique américain : si l'humanité consomme toutes les énergies fossiles (pétrole, gaz, charbon) à sa disposition, elle va droit à la catastrophe. Pour modifier les comportements en profondeur et ainsi réduire drastiquement les quantités de CO2 émises dans l'atmosphère, il faut les taxer, vite et fort, estime-t-il. "La taxe carbone est le mécanisme qui permet de rendre un accord international efficace à l'échelle mondiale dans un délai très court", explique M. Hansen à l'AFP, en marge d'une réunion d'experts à Copenhague.

Pour ce spécialiste du climat, si les négociations internationales -qui s'articulent autour d'un "marché du carbone" où s'échangent des permis d'émission de CO2 (ou "droits à polluer")- ne sont pas fondamentalement repensées, elles seront vaines. "S'il s'agit d'un marché carbone, je préférerais qu'aucun accord ne soit conclu à Copenhague et qu'on prenne une ou deux années de plus", lâche M. Hansen, l'un des premiers climatologues à avoir tiré la sonnette d'alarme dans les années 80 en témoignant avec force devant le Congrès américain.

"Le problème du marché carbone est que cela prend des années à négocier, que vous faites des compromis de toutes sortes, et que cela ne fonctionne pas", explique-t-il. Son analyse prend un relief particulier au moment où, sur le marché européen du carbone, le prix de la tonne de CO2 s'effondre en raison de la crise économique, mettant crûment en lumière ses limites. Devant plusieurs centaines de spécialistes du climat rassemblés à Copenhague, l'économiste américain William Nordhaus, de l'université de Yale, lui a donné un écho remarqué.

Qualifiant le marché carbone d'"inefficace", il a lancé : "il est préférable de changer maintenant, et de le remplacer rapidement par une taxe sur les émissions de gaz à effet de serre". Selon M. Hansen, cette denière pourrait être facilement mise en place. "Vous pouvez commencer avec l'UE les Etats-Unis et la Chine. cela serait suffisant", explique-t-il, jugeant que les autre pays seront rapidement contraints de suivre.

MS

L'Amazonie, un puits de carbone menacé par la sécheresse
Vendredi, 13/03/2009 - 00:00

L'augmentation des périodes de sécheresse provoque des "baisses massives" des capacités des forêts tropicales à jouer le rôle de puits de carbone, indique une étude menée par une équipe internationale. "L'accentuation récente des sécheresses provoque des baisses massives de la réserve de carbone dans les forêts tropicales, notamment du fait de la mortalité des arbres", soulignent les chercheurs à la suite d'une enquête menée en Amazonie.

A partir notamment des données de croissance de plus de 100.000 arbres de la forêt amazonienne, enregistrées depuis 30 ans, ils ont constaté que la sécheresse de 2005 a "provoqué une inversion brutale des absorptions de carbone réalisées pendant des décennies" et que "la mort des arbres s'est accélérée là où la sécheresse a le plus frappé".

Selon leur analyse, ce phénomène a diminué de 5 milliards de tonnes la séquestration de CO2 par la forêt amazonienne. "L'effet sur l'atmosphère est donc équivalent à celui qui résulte annuellement des déforestations au profit d'activités agricoles dans le monde entier", estiment-ils.

"Pendant des années, la région amazonienne à aidé à ralentir le réchauffement climatique (et) si ce puits de carbone est amoindri, voire fonctionne à l'envers, le niveau de dioxyde de carbone dans l'atmosphère augmentera encore plus", souligne le principal auteur de l'étude, Oliver Phillips de l'université de Leeds (Royaume-Uni).

Science

Les pays riches revoient à la hausse leurs émissions de CO2
Vendredi, 13/03/2009 - 00:00

Plusieurs pays industrialisés, dont la France, ont revu à la hausse leurs émissions de gaz à effet de serre en 1990, année qui sert de référence pour évaluer les réductions requises aux termes du Protocole de Kyoto. Les émissions annoncées par 34 pays pour l'année 1990 ont été portées à 17,6 milliards de tonnes dans les données les plus récentes. La première compilation de l'Onu, en 1996, faisait état de 17 milliards de tonnes. La différence d'environ 600 millions de tonnes, soit 3,5 %, est supérieure aux émissions annuelles actuelles d'un pays comme la France.Les révisions à la hausse les plus fortes émanent des Etats-Unis et de la Russie. La France et le Japon ont aussi procédé à de fortes révisions à la hausse.

Les gouvernements révisent chaque année leurs estimations, ajoutant dans certains cas de nouvelles sources d'émission. Dans de nombreux cas, à la révision du total de 1990 s'ajoute une révision des années ultérieures. Dix-huit pays ont soumis en 1996 des données sur 1990 qui ont par la suite été révisées à la hausse, tandis que 16 autres, parmi lesquels l'Australie, l'Irlande et l'Italie, ont révisé leurs données à la baisse.

Le président Barack Obama veut réduire d'ici 2020 les émissions aux Etats-Unis à leur niveau de 1990. Les autorités américaines ont souligné que les révisions à la hausse ne portaient pas seulement sur 1990 mais aussi sur les années ultérieures, ce qui ne facilite pas l'atteinte de l'objectif. Les Etats-Unis, premier pollueur derrière la Chine selon de nombreux experts, ont, depuis le milieu des années 1990, revu à la hausse leurs émissions pour 1990 de 290 millions de tonnes, à 6,1 milliards de tonnes. Entre 1990 et 2006, les émissions américaines ont progressé de 14,4 %.

Quelque 190 pays tenteront en décembre à Copenhague d'élaborer sous l'égide de l'Onu un nouveau traité sur le climat afin d'intensifier la lutte contre le réchauffement climatique à l'origine de canicules répétées, de sécheresses, d'inondations et d'une montée du niveau des océans.La plupart des pays développés se sont engagés, aux termes du Protocole de Kyoto, à réduire d'au moins 5 % d'ici 2008-2012 leurs émissions de gaz à effet de serre par rapport à 1990. Toujours sous le coup de l'effondrement de l'Union soviétique, en 1991, les émissions de l'ensemble des pays industrialisés restaient inférieures de 4,7 % en 2006, dernière date disponible, aux niveaux de 1990.

Express

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Une percée majeure dans la recherche sur les cellules souches
Vendredi, 13/03/2009 - 00:00

Le Dr Nagy a trouvé un moyen de créer des cellules souches pluripotentes (c'est-à-dire capables de se développer en divers autres types de cellules), sans perturber les gènes sains. Sa méthode ne requiert pas de virus, utilisés par d'autres techniques pour transporter les gènes nécessaires afin de reprogrammer les cellules différenciées en cellules souches.Cette méthode surmonte donc un obstacle majeur pour l'avenir de thérapies sûres et personnalisées à base de cellules souches, pour l'Homme. Le Dr Nagy se confie :

"Nous espérons que ces cellules souches formeront la base de traitements contre de nombreuses maladies et pathologies considérées comme incurables. Cette nouvelle méthode ne requiert pas d'embryons comme point de départ et pourrait être utilisée pour créer des cellules à partir de nombreux tissus adultes comme la peau du patient. "Le Dr Nagy avait déjà créé, en 2005, la première lignée de cellules souches embryonnaires, à partir d'embryons que des couples, ayant suivi un traitement pour la fertilité, ne désiraient plus conserver. Sa découverte laisse espérer des traitements pour les blessures de la moelle épinière, la dégénération maculaire liée à l'âge (DMLA), les diabètes ou la maladie de Parkinson.

Ms

Le bêta-carotène protégerait les fonctions mentales masculines
Vendredi, 13/03/2009 - 00:00

L'hôpital Brigham and Women, affilié à l'École de médecine d'Harvard, montre par une étude qu'un supplément de bêta-carotène empêche, à long terme, le déclin cognitif des hommes. L'équipe du Dr Rosenbaum a étudié deux groupes d'hommes complétant leur alimentation tous les deux jours avec du bêta-carotène, l'un pendant dix-huit ans, l'autre pendant un an.

Comparé à un groupe témoin, le groupe qui avait pris des compléments à long terme avait un meilleur fonctionnement cognitif alors que le groupe complémenté à court terme avait le même fonctionnement que le groupe témoin. Pour le Dr Rosenbaum, « Le corps produit une unité de vitamine A pour 10 à 12 unités de bêta-carotène. » Les deux composés sont en effet primordiaux pour la santé et la protection des cellules. La vitamine A influe notamment sur la vue, la croissance des os, les facultés reproductrices ou la division cellulaire.

Elle protège aussi contre les infections en permettant la production de globules blancs. Le bêta-carotène a, lui, des facultés antioxydantes qui empêchent les radicaux libres d'attaquer les cellules de la peau et d'accélérer le vieillissement.

MS

Un "ADN synthétique" pour lutter contre la criminalité
Vendredi, 13/03/2009 - 00:00

Parmi les villes de plus de 200.000 habitants, Brême est une de celles qui détiennent le record de "vols avec circonstances aggravantes", comme par exemple les effractions et les vols de voitures. Pour lutter contre cette criminalité, la ville a donc décidé de suivre l'exemple de l'Angleterre et des Pays-Bas en testant l'efficacité du marquage par "ADN synthétique"

Ce liquide invisible permet de marquer les objets de façon individuelle (avec un code enregistré dans une base de données), de manière à retrouver facilement le propriétaire en cas de vol. Il marque les doigts ou vêtements du voleur et facilite ainsi les recherches de la police.

Cet "ADN synthétique" adhère aux objets de façon permanente et à la peau humaine pendant 6 semaines. Fluorescent sous la lumière ultraviolette, il peut donc être facilement repéré par les policiers à l'aide d'une lampe de poche spécifique. En Angleterre, il est utilisé depuis 8 ans déjà et a permis de réduire de 80% le nombre d'effractions. L'utilisation de l'"ADN synthétique" est accompagnée par une forte communication dissuasive (étiquetage des objets protégés, panneaux d'avertissement devant les maisons ...) ; la police anglaise a même informé par courrier les délinquants répertoriés.

Les zones résidentielles de Brême où la criminalité est particulièrement élevée devraient être choisies avant avril 2009 pour participer au projet pilote. La police cherche en outre des sponsors et partenaires pour financer l'"ADN synthétique" à hauteur de 60 euros par foyer. Les habitants devront alors appliquer le liquide sur leurs objets de valeur et placer des panneaux prévenant de l'utilisation de l'"ADN synthétique" afin de dissuader les voleurs.

BE

Une meilleure thérapie contre les tumeurs du cerveau
Vendredi, 13/03/2009 - 00:00

Des chercheurs de l'Université de Bonn sont parvenus à améliorer la thérapie contre certaines tumeurs au cerveau en combinant l'utilisation de deux médicaments. En traitant 39 patients présentant un glioblastome, ils sont parvenus à faire survivre les malades 23 mois en moyenne, alors que cette valeur est de 14,6 mois avec la thérapie standard. Sans traitement, les personnes atteintes par ce genre de tumeurs ne survivent pas plus de quelques semaines.

Le glioblastiome est la tumeur du cerveau la plus fréquente et la plus agressive. Il est aujourd'hui encore incurable, même avec cette nouvelle thérapie. Toutefois, le Prof. Dr. Ulrich Herrlinger de la Clinique universitaire de neurologie de Bonn se réjouit de ces résultats : "Nous avons été surpris de la forte augmentation de la durée de vie apportée par notre traitement. Nous devons maintenant étendre notre étude à un plus grand nombre de patient afin d'optimiser la thérapie".

Jusqu'à aujourd'hui, les médecins traitent les glioblastomes par radiothérapie et chimiothérapie. Le principe actif utilisé est le témozolomide. Dans leur nouveau traitement, les chercheurs de Bonn ont associé ce produit à une autre substance active, le lomustine, tout en poursuivant la radiothérapie. Les 39 patients traités ainsi ont survécu en moyenne 23,1 mois. Sept d'entre eux ont vécu plus de 4 ans.

Le facteur décisif pour un succès de la thérapie est génétique, comme l'affirme Herrlinger : "Nous avons identifié chez 11 participants certaines modifications sur un gène. Ces patients ont survécu en moyenne 34 mois, alors que chez les autres, l'administration de médicaments ne semble pas améliorer le traitement par la seule radiothérapie. Un test génétique pourrait nous permettre de savoir quand une chimiothérapie est adaptée".

BE

Cancer de l'ovaire : tests de détection précoce prometteurs
Vendredi, 13/03/2009 - 00:00

Des tests de détection précoce, un test sanguin et un d'échographie, sont réalisables à grande échelle pour détecter des cancers de l'ovaire, et dans pratiquement la moitié des cas alors que ces tumeurs n'en sont qu'à leurs premiers stades, selon un essai publié par la revue spécialisée Lancet Oncology. Le cancer de l'ovaire est souvent décrit comme un "tueur silencieux", car il donne peu ou pas de symptômes à ses débuts. 70 % des femmes sont diagnostiquées à un stade avancé du cancer, avec une survie de l'ordre de 20 à 30 % à cinq ans du diagnostic. Mais, lorsqu'il est détecté précocément, il est à 90 % curable.

Les progrès récents - concernant l'échographie transvaginale et le développement d'un score de risque pour interpréter les résultats d'un test sanguin de marqueur de tumeur (test "CA125") ont suggéré qu'un dépistage précoce de masse était possible. Le professeur Ian Jacobs de Londres a, avec des collègues, lancé un essai pour évaluer l'efficacité des deux méthodes et à terme leur effet sur la mortalité due à ce cancer génital. Les participantes seront testées jusqu'à fin 2012 et suivies médicalement jusqu'à fin 2014. Les premiers résultats sont encourageants. Entre 2001 et 2005, 202.638 femmes ménopausées, ayant entre 50 et 70 ans, au Royaume-Uni, ont été réparties par tirage au sort dans des groupes avec dépistage soit avec les deux méthodes, soit avec une seule. Un autre groupe (101.359 femmes) sans ces tests de dépistage, servant à la comparaison.

Selon les résultats, le programme de dépistage a permis de détecter la plupart des femmes qui développaient un cancer de l'ovaire. Près de la moitié des cancers ont été détectés aux premiers stades (stade I/II). Alors que seuls 28 % des cancers invasifs sont repérés au tout premier stade selon les études, le dépistage a permis d'en détecter 48 %. Au total 87 cancers ont été détectés grâce au dépistage avec des résultats similaires avec les deux méthodes associées ou l'échographie seule.

AFP

Nouvelle stratégie des bactéries pour neutraliser des antibiotiques
Vendredi, 13/03/2009 - 00:00

Des chercheurs français ont découvert une nouvelle stratégie de résistance aux antibiotiques développée par des bactéries consistant à détourner des corps gras présents dans le sang humain pour assurer leur propre croissance. Ces travaux associant des chercheurs d'organismes publics -Inserm, Université Paris Descartes, INRA, CNRS - et de l'Institut Pasteur de Paris ont été publiés dans la revue scientifique britannique Nature.

Claire Poyart (Institut national de la santé et de la recherche médicale), Patrick Trieu-Cuot (Pasteur) et leurs collègues ont montré que des bactéries dites "à Gram positif" pathogènes majeures pour l'homme (streptocoques, entérocoques et staphylocoques) sont capables d'utiliser les acides gras présents abondamment dans le sang humain pour constituer leur membrane. Elles peuvent ainsi échapper à l'activité des antibiotiques, comme par exemple le triclosan, censés les empêcher de fabriquer leurs propres acides gras.

"Nous sommes partis d'observations effectuées sur les streptocoques du groupe B, principale cause d'infection chez les nouveau-nés", explique Claire Poyart. A cours de leurs travaux, les chercheurs ont constaté que des streptocoques incapables de satisfaire à leur propre synthèse d'acides gras, faute de disposer des enzymes adéquates, sont incapables de croître dans les milieux de culture habituels in vitro en laboratoire.

En revanche, ces streptocoques mutants se développent très bien si l'on ajoute du sang humain à la culture en laboratoire et leur virulence est normale chez l'animal. A la lumière de ces résultats révélant le "parasitisme" de ces bactéries pathogènes, les chercheurs soulignent l'importance d'évaluer l'activité des antibiotiques en se servant de tests qui miment les conditions réelles de l'infection et du traitement.

Nature

La dépression, facteur de risque à part entière d'infarctus, selon une étude
Vendredi, 13/03/2009 - 00:00

Chez une femme en apparente bonne santé, une dépression sévère peut être la cause d'un infarctus, selon les résultats d'une nouvelle étude américaine dont les résultats sont publiés dans le dernier numéro du "Journal of the American College of Cardiology". On savait depuis longtemps qu'une dépression est fréquente après un infarctus ou un accident vasculaire cérébral et qu'elle en aggrave les conséquences. Mais c'est la première étude à mettre en lumière la responsabilité à part entière de la dépression dans la survenue d'un infarctus.

Les scientifiques ont suivi 63.000 femmes appartenant à la vaste étude sur la santé des infirmières (Nurses' Health Study), entre 1992 et 2004. Aucune ne présentait de signe de maladie cardiaque lorsque l'étude a démarré, mais près de 8 % présentaient des signes de dépression sévère.

A la surprise des responsables, le nombre d'infarctus était plus important dans le groupe des femmes traitées par antidépresseurs que dans le groupe des femmes déprimées, mais non traitées. Un phénomène que le Dr William Whang, responsable de la recherche, explique par la plus grande sévérité des dépressions traitées par antidépresseurs. Il estime toutefois que ces découvertes méritent une recherche supplémentaire.

Toutefois, les études menées sur les derniers antidépresseurs, les plus utilisés aujourd'hui, n'ont pas révélé de risque supplémentaire de trouble du rythme cardiaque. Certains d'entre eux assuraient même une meilleure protection cardiaque, selon le Dr Redford Williams, de la Duke University, un spécialiste du retentissement sur la santé des facteurs psychosociaux.

Mise à part la question du traitement, le Dr Williams observe que la nouvelle étude ne fait que renforcer l'hypothèse selon laquelle la dépression représente un facteur de risque indépendant de maladie cardiovasculaire, en plus des risques classiques que sont l'hypertension artérielle, le diabète, trop de cholestérol ou encore le tabac. Pour Redford Williams, il est temps de passer à l'étape suivante : une étude qui évaluerait l'influence du traitement de la dépression sur la réduction du risque.

Pourquoi la dépression aurait-elle cet effet ? L'étude souligne que plus les symptômes décrits par les femmes sont sévères, plus le risque de facteurs de maladie cardiovasculaire traditionnels est important. De plus, la dépression a été liée à des manifestations physiques telles qu'une accélération du rythme cardiaque. Autre raison : la dépression peut amener les patients à se négliger. L'Association américaine du coeur (AHA) a ainsi recommandé l'an dernier que toute personne atteinte de maladie cardiaque soit régulièrement dépistée pour dépression, les patients déprimés pouvant abandonner leur traitement, ne plus faire d'exercice et se sous-alimenter.

AP

Un nouveau type de détecteur de mensonges presque infaillible !
Vendredi, 13/03/2009 - 00:00

L'énorme scanner bourdonne comme un essaim d'abeilles autour de ma tête. L'infirmière de ce centre d'imagerie médicale américain m'a abandonné dans le tunnel de la machine, allongé, immobile, la tête coincée par une sorte de casque en plastique, un clavier posé sur le ventre. Pas très rassuré, je réponds, en pressant les touches "oui" ou "non", aux questions qui s'affichent sur un miroir placé devant mes yeux. Les unes, presque naïves, sont destinées à régler l'appareil tout en mettant le sujet en confiance ; d'autres, plus ambiguës, visent au contraire à le déstabiliser. J'ai la très désagréable impression d'être enterré vivant dans un cercueil de métal. Pris par une furieuse envie de me gratter le nez, je me demande si je ne vais pas utiliser le bouton "panique" prévu à cet effet. De l'autre côté des vitres, dans la salle de contrôle, un technicien imperturbable surveille l'écran de l'ordinateur où s'affichent les images de mon cerveau, censées révéler la sincérité de mes déclarations.

Voilà donc le nec plus ultra des détecteurs de mensonge : un procédé issu des laboratoires de neurologie américains, qui sonde les pensées des individus en analysant le fonctionnement de leurs neurones. Le rêve des policiers, des juges et des joueurs de poker. Aux Etats-Unis, deux sociétés privées commercialisent cette technologie censée reléguer aux oubliettes les antiques polygrapheset autres sérums de vérité: l'une basée en Californie, l'autre ici, dans la banlieue de Boston.

"C'est un système auquel on ne peut rien cacher : le taux de fiabilité dépasse les 95 %", affirme fièrement Steve Laken, fondateur et PDG de Cephos, un quadragénaire replet aux cheveux en brosse qui scrute l'âme de ses clients dans un centre d'imagerie médicale à Framingham (Massachusetts). "Contrairement aux détecteurs de mensonge classiques, le sujet n'est pas face à un interrogateur, qui influence forcément la procédure. Ici, tout est entièrement automatisé : c'est l'ordinateur qui pose les questions et interprète les résultats en fonction de ce qui se passe dans le cerveau.

"L'examen coûte la bagatelle de 4000 dollars et près d'une centaine de personnes auraient déjà eu recours aux services de Cephos depuis la fondation de la société, en 2004. "Certains viennent de très loin, parfois même d'Europe", assure l'homme d'affaires, qui travaillait auparavant dans le "business de la génétique", pour une société commercialisant des tests de prédisposition au cancer du côlon. "Nos clients ne cherchent pas à accuser quelqu'un mais à prouver leur bonne foi. Il peut s'agir par exemple d'une épouse désirant prouver sa fidélité, d'un homme accusé d'inceste par son ex-femme, d'un chef d'entreprise en conflit avec son associé ou d'un détenu en liberté conditionnelle qui doit repasser devant le juge pour la fin de sa période probatoire."

Express

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top