RTFlash

RTFlash a besoin de vous pour continuer à exister !

Propulsé par HelloAsso

RTFLASH Recherche & Technologie
NUMERO 746
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 11 Avril 2014
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
Avenir
Un implant électrique au service des patients paralysés
Matière
Une avancée majeure en chimie : l'activation des liaisons carbone-carbone
Vers la détection précoce olfactive des maladies ?
Espace
Une lune de Saturne pourrait abriter une vie extraterrestre…
Découverte d'une nouvelle planète dans notre système solaire !
L'Espace, nouvelle frontière de l'Humanité pour Stephen Hawking
Terre
Les entrailles de la Terre recéleraient d'énormes quantités d'eau sous forme minérale
La fonte des glaces s'accélère au Groenland
Vivant
Une nouvelle arme anticancer issue du tabac ?
La stimulation du nerf vague efficace contre les migraines rebelles
La vitamine A pourrait inverser l'évolution des cellules précancéreuses du sein
IBM met Watson au service de la recherche en génétique
Les statines pourraient ralentir l'évolution de certaines sclérose en plaques
Une nouvelle méthode pour détecter précocement le cancer du pancréas
La biologie marine pourrait détenir la clé du sang artificiel !
Edito
Les six plaies fatales qui menacent l’Humanité



Depuis le 7 avril, les représentants des 195 pays membres du Groupe intergouvernemental d'experts sur l'évolution du climat (GIEC) sont réunis à Yokohama, au Japon, en vue d’adopter avant Dimanche prochain, un "résumé pour décideurs", c’est-à-dire une synthèse de quelque dizaines de pages du dernier et énorme rapport que vient de publier le GIEC.

Cette organisation internationale de recherche sur le climat a en effet adopté, le 31 mars, son 5e rapport sur les impacts du changement climatique, un document qui s’appuie sur un immense travail de lecture et de compilation de douze mille publications scientifiques (Voir IPCC-WG2).

Au-delà de leur intérêt scientifique inestimable, ces recherches ont également une finalité politique majeure puisqu’elles vont éclairer les dirigeants et responsables politiques du monde entier qui doivent absolument parvenir à conclure un accord international global et contraignant sur les réductions d'émissions de gaz à effet de serre d’ici la fin 2015, à Paris, pour prolonger et surtout amplifier les résultats réels mais insuffisants obtenus grâce au Protocole de Kyoto qui vient à expiration.

Il faut en effet rappeler qu’entre 2008 et 2010, les 37 pays soumis à cet accord signé en 1997 ont émis, en moyenne annuelle, 16,8 MtéqCO2 (millions de tonnes équivalent CO2/an), soit 10 % de moins qu'en 1990 mais 17 pays (dont 8 de l'Union européenne) n'ont pas atteint leur objectif et la concentration de CO2 dans l'atmosphère a augmenté de 10 % depuis 20 ans, notamment à cause du fait que les deux tiers des émissions proviennent à présent des pays émergents qui ne sont pas soumis à cet accord international.

Fin 2013, les émissions annuelles mondiales de CO2 (qui représentent un peu plus de 70 % de l’ensemble des gaz à effet de serre) atteignaient, selon le Global Carbon Project, 39 gigatonnes (déforestation incluse) et avaient augmenté globalement de plus de 60 % depuis 1990, année de référence pour le Protocole de Kyoto. Quant à l’ensemble des gaz à effet de serre, on estime que leurs émissions auraient atteint 53 gigatonnes en 2013, contre 29 gigatonnes en 1970, soit une hausse de 83 % en un peu plus de 40 ans… Il est toutefois intéressant de souligner que les émissions moyennes annuelles de gaz à effet de serre par terrien ont légèrement baissé depuis 1970 passant de 7,8 tonnes à 7,4 tonnes mais la population mondiale ayant pratiquement doublé au cours des 40 dernières années, les émissions globales de gaz à effet de serre ne pouvaient qu’exploser !

Si l’on se concentre à présent sur le CO2 et que l’on raisonne en termes de concentration atmosphérique, les derniers chiffres publiés il y a seulement quelques jours par l’Agence américaine océanique et atmosphérique (NOAA) nous apprennent que le seuil symbolique de 400 parties par million (ppm) a été atteint deux mois plus tôt cette année que l’an passé, ce qui confirme que la Planète continue à connaître un réchauffement climatique accéléré.

Rappelons qu’avant l’ère industrielle, à la fin du XVIIIe siècle, la concentration atmosphérique en CO2 était de l’ordre de 280 PPM et, comme le souligne James Butler, l’un des responsables de la NOAA, «Ce taux de 400 ppm nous rappelle que le CO² continue d’augmenter dans l’atmosphère, et à des niveaux toujours plus rapides. Et cette hausse coïncide avec l’augmentation des émissions provenant des énergies fossiles».

La NOAA souligne également que si la concentration en CO² de dioxyde de carbone a augmenté de 120 ppm depuis le début de l’ère industrie, les deux tiers de cette augmentation (90 ppm) ont eu lieu au cours du dernier siècle.

Cette évolution est d’autant plus alarmante que l’immense majorité des scientifiques souligne qu’il sera impossible de limiter la hausse des températures mondiales à 2°C si la concentration atmosphérique de CO² dépasse le seuil des 450 PPM en 2050.

Si l’on raisonne en valeur absolue, les précédents travaux du GIEC, s’appuyant sur des études scientifiques très solides, avaient montré que la quantité totale de carbone émise par l’homme depuis le début de l’ère industrielle ne devait pas excéder au total 790 gigatonnes si l’Humanité voulait avoir une chance raisonnable de maintenir le réchauffement climatique sous la barre des 2°C. Sachant que les activités humaines ont déjà provoqué l’émission de 550 gigatonnes de carbone dans l’atmosphère depuis la révolution industrielle, le « solde » disponible - environ 240 gigatonnes de carbone- correspond à peine à 23 ans d’émissions de CO² au rythme actuel et encore, en supposant que ces émissions restent au niveau de 2013…

S’appuyant sur ce calcul implacable, l’économiste indien Rajendra Pachauri, membre éminent du GIEC et le climatologue mondialement réputé James Hansen plaident pour leur part pour un objectif encore plus draconien visant à retrouver le niveau de 350 PPM d’ici 2050, sous peine de provoquer un emballement incontrôlable du climat mondial.

Selon Michael Mann, spécialiste du climat à l’Université de Penn State, le défi majeur que doit affronter l’Humanité est la vitesse avec laquelle les concentrations de CO² augmentent. «Il n’y a aucun précédent dans l’histoire de la Terre où on a assisté à une augmentation aussi abrupte dans les concentrations de gaz à effet de serre. Il a fallu à la nature des centaines de millions d’années pour modifier les concentrations de CO2 à travers des processus naturels, comme l’enfouissement du carbone. Et nous, nous le déterrons, mais pas sur 100 millions d’années. Nous le déterrons et le brûlons sur une échelle de 100 ans, un million de fois plus vite ».

Cette situation est d’autant plus inquiétante que plusieurs études récentes ont montré que depuis une trentaine d’années, la capacité globale des océans - qui absorbent près de la moitié de nos émissions de CO² - à stocker le carbone semble affectée par le réchauffement climatique et commence à diminuer sensiblement dans les zones subtropicales. Ce phénomène est notamment visible dans l'acidité des océans qui a progressé de 30 % depuis le début de la révolution industrielle.

C’est dans ce contexte scientifique qu’il faut mesurer la gravité et l’importance des conclusions et recommandations exprimées de manière particulièrement argumentée par ce 5ème rapport du GIEC, consacré aux conséquences du réchauffement climatique. Pour la première fois, le GIEC précise que la mutation du climat et des écosystèmes provoquée par l’activité humaine constitue une sérieuse menace pour l’approvisionnement alimentaire mondial. « Tous les aspects de la sécurité alimentaire sont potentiellement affectés », précise cette étude.

Le rapport souligne que de nombreuses cultures alimentaires absolument vitales, comme le blé, le maïs ou le riz, risquent de connaître une diminution de leur rendement de l’ordre de 2 % par décennie, alors que la demande devrait augmenter d’au moins 14 % d’ici à 2050. L’étude prévoit  « Moins d’eau et de ressources alimentaires ainsi que des migrations accrues, cela va indirectement augmenter les risques de conflits violents ».

Le GIEC souligne que, dans de nombreuses régions, le changement dans les régimes de précipitations et la fonte des neiges et des glaciers ont déjà modifié les systèmes hydrauliques, « affectant les ressources en eau en quantité et en qualité et que le changement climatique a également eu un impact plus négatif que positif sur la production alimentaire ». Dans son rapport, le GIEC prévoit également une baisse globale des ressources des océans ainsi qu’une diminution sensible de la production de blé, de maïs et de riz. L’étude ajoute qu’une augmentation de « seulement » 2°C par rapport à la période préindustrielle pourrait entraîner une perte allant jusqu’à 2 % des revenus annuels mondiaux.

À partir de la deuxième moitié de ce siècle, ce dernier rapport du GIEC précise que l’Humanité, si nous restons sur le rythme actuel de réchauffement climatique, va se retrouver simultanément confrontée à six défis majeurs presque insurmontables : le premier concerne les ressources disponibles en eau qui risquent de diminuer sensiblement alors que les besoins augmenteront du fait de l’évolution démographique, des besoins agricoles et des épisodes de sécheresse de plus en plus fréquents et intenses dans de vastes régions du monde.

Le deuxième défi concerne l’impact de ce réchauffement climatique qui risque de pénaliser gravement le développement et la croissance économique et de rendre très difficile la réduction de la pauvreté au niveau mondial.

Le troisième défi concerne la montée des tensions et des conflits résultant de la raréfaction des ressources en eau et en alimentation et de l’augmentation considérable des migrations de population directement provoquées par le changement climatique. On estime en effet que ces migrations d’origine climatique pourraient être multipliées par 20 d’ici 40 ans, pour atteindre 1 milliard de « déplacés climatiques ».

Le quatrième défi a trait à la très forte augmentation prévue des inondations et de l’érosion, notamment sous l’effet accéléré de la hausse du niveau des mers qui pourrait dépasser 80 cm d’ici la fin de ce siècle, affectant gravement la vie de plusieurs centaines de millions de personnes vivant dans des régions côtières très fortement urbanisées.

Le cinquième défi concerne l’impact de ce réchauffement sur le plan sanitaire et médical avec, d’une part, une modification de la géographie des maladies dues aux changements du régime des pluies et des températures et, d’autre part, l’apparition dans les pays tempérés comme le nôtre de certaines pathologies d’origine tropicale dont l’essor sera favorisé par le réchauffement des températures.

Enfin, le sixième défi pointé par le GIEC concerne le risque d’extinction accélérée et de disparition complète de nombreuses espèces végétales et animales qui n’auront pas le temps ou la capacité de s’adapter à des modifications brutales et rapides de leur environnement. À cet égard, l’acidification à un rythme sans précédent des océans est déjà en train de menacer gravement de nombreuses espèces marines.

Il faut également préciser, pour ceux (ils sont heureusement de moins en moins nombreux) qui seraient encore sceptiques vis-à-vis des dernières conclusions alarmantes du GIEC, que d’autres organisations très sérieuses et peu suspectes de sympathie écologistes, tirent  également le signal d’alarme pour alerter le monde sur les périls de très grande ampleur qui menacent l’humanité si nous n’agissons pas plus vigoureusement pour limiter les effets dévastateurs de la rupture climatique mondiale en cours.

C’est ainsi que la Banque mondiale, dans un rapport publié en juin 2013, confirme que la hausse des températures mondiales, qui pourrait atteindre 4°C dès 2060, constitue bien, dans la perspective, une menace majeure pour la santé et les moyens de subsistance des populations les plus vulnérables. Une telle situation «déclencherait une cascade de changements cataclysmiques, dont des vagues de chaleur extrême, une chute des stocks alimentaires et une montée du niveau de la mer frappant des centaines de millions de personnes», précise la Banque mondiale. Le Président de cette institution, Jim Yong Kim, souligne « qu’il est urgent d'agir, non seulement pour réduire les émissions des gaz à effet de serre, mais aussi pour aider les pays à se préparer à de graves extrêmes climatiques et météorologiques. »

Selon ce rapport de la Banque mondiale, malheureusement pleinement confirmé par les toutes dernières publications du GIEC, les sécheresses et la chaleur risquent de rendre 40 % des terres cultivées en maïs inexploitables en Afrique subsaharienne et la proportion de population sous-alimentée pourrait augmenter dans les années 2050 de 25 à 90 % par rapport à la situation actuelle.

En Asie, la perturbation du régime des moussons, va entraîner à la fois une accélération de la fréquence des inondations catastrophiques, comme celles du Pakistan en 2010, et des sécheresses extrêmes, comme celles que connaissent l’Inde et l’Australie de plus en plus régulièrement.

Ce rapport très alarmiste de la Banque mondiale ne fait lui aussi que confirmer malheureusement une précédente étude du même organisme publié en 2006 par l’éminent économiste Nicholas Stern et qui estimait à 20 % du produit annuel mondial brut (soit 5 500 milliards d’euros), le coût économique global de l’inaction contre le réchauffement climatique.

Reste que ce défi mondial du réchauffement climatique est d’autant plus redoutable qu’il faut toujours le replacer dans un double contexte : géopolitique d’une part et économique et social d’autre part. Sur le plan géopolitique, le grand basculement s’est produit en 2006 quand la Chine est devenue le principal émetteur mondial de CO² devant les États-Unis, avec plus de 20 % des émissions mondiales de carbone. Par ailleurs, l’ensemble des pays émergents sont devenus depuis 2010 les principaux émetteurs de gaz à effet de serre en valeur absolue et, même si l’on raisonne par habitant, il faut rappeler qu’un Chinois émet à présent pratiquement autant de CO² par an qu’un Français (environ 6 tonnes) et pas beaucoup moins qu’un Européen moyen (environ 8 tonnes).

Il est donc clair qu’aucun accord international ne pourra avoir un impact réel sur la diminution des émissions de gaz à effet de serre au niveau mondial s’il n’inclut pas non seulement l’Europe, les États-Unis, la Russie et Japon mais également les grandes économies émergentes que sont la Chine, l’Inde, le Brésil, l’Indonésie, l’Afrique du Sud ou encore le Mexique.

Mais une difficulté supplémentaire est liée à la grande hétérogénéité, sur le plan économique, des sources humaines d’émissions de gaz à effet de serre. Il faut en effet rappeler que, contrairement à beaucoup d’idées reçues, les activités liées à la production d’énergie ne représentent qu’un peu plus d’un tiers des émissions humaines de gaz à effet de serre. Le solde est constitué pour un quart par les activités agricoles et forestières, pour un cinquième par les activités industrielles et pour un sixième par le secteur des transports.

Se concentrer uniquement sur la transition énergétique et sur la substitution des énergies renouvelables aux énergies fossiles est donc nécessaire mais en aucun cas suffisant. C’est pourquoi la très grande majorité des scientifiques soulignent que la nécessaire réduction de moitié, d’ici 2050, des émissions globales de gaz à effet de serre d’origine humaine (ce qui suppose de diviser par trois les émissions de gaz à effet de serre dans les pays industrialisés), devra également passer par de profonds bouleversements des habitudes alimentaires et des pratiques agricoles et par un effort politique sans précédent au niveau mondial pour mettre fin à la déforestation dans les zones tropicales et accélérer parallèlement le reboisement partout où cela est possible, de manière à obtenir au final un solde à nouveau positif de croissance forestière.

Parallèlement à ces efforts, l’industrie devra utiliser pleinement les ruptures technologiques en cours pour multiplier au moins par trois son efficacité énergétique. Quant au secteur des transports, il devra également accomplir une véritable révolution en accélérant sa transition vers des carburants propres de faible niveau d’émissions de CO² et en intégrant massivement l’utilisation des technologies numériques de manière à accroître très sensiblement son efficacité et son utilité sociale sans augmenter le nombre de véhicules et la taille des infrastructures.

Mais, face à un défi d’une telle ampleur, l’ensemble de ces efforts ne suffiront pas. La décarbonisation accélérée de l’économie mondiale devra également combiner de manière beaucoup plus puissante et systématique des systèmes d’échange de quotas d’émissions (les « bourses » du carbone) et les dispositifs réglementaires et fiscaux contraignants qui pénaliseront directement, dans tous les secteurs d’activité, les émissions de gaz à effet de serre et notamment de CO² et conféreront à chaque tonne de carbone utilisé une valeur correspondant à son coût économique, social et environnemental.

À cet égard, un article très intéressant, intitulé « Réchauffement climatique : Améliorer les modèles économiques du changement climatique », a été publié il y a quelques jours dans la prestigieuse revue américaine « Nature » (Voir Nature). Après avoir rappelé les conclusions alarmantes du dernier rapport du GIEC, cet article souligne que les sciences économiques doivent se réformer profondément de manière à intégrer pleinement les coûts réels, environnementaux, sanitaires et sociaux, liés aux émissions massives de gaz à effet de serre d’origine humaine

L’article souligne que le gouvernement américain a récemment évalué la valeur économique d’une tonne de CO2 à 37 dollars (43 dollars en 2020), en y incluant le coût social des dommages évités grâce aux politiques qui réduisent ces émissions de CO2.

Mais si cet article se félicite de cette prise de conscience du coût économique et social global des émissions de gaz à effet de serre, il rappelle avec pertinence que les coûts futurs du changement climatique pourraient être encore plus élevés, pour trois raisons. Tout d'abord, l’Histoire des civilisations nous montre que les économies et les sociétés peuvent être plus vulnérables au changement climatique qu’elles ne l’imaginent, notamment à cause des effets de rupture qui peuvent se produire en matière de rendement agricole et de production alimentaire si nous franchissons un certain seuil de réchauffement global.

Deuxièmement, la plupart des modèles économiques utilisés ne tiennent pas compte des pertes sensibles en productivité du travail mais également en capitaux, notamment dans le domaine des infrastructures. 

Troisièmement, la plupart de ces modèles supposent que la valeur des écosystèmes restera constante mais cela est loin d’être certain car les services rendus gratuitement par les écosystèmes sont susceptibles de diminuer à mesure que le réchauffement va les dégrader. Résultat : il est très probable que les coûts des dommages provoqués par le changement climatique sur les écosystèmes soient bien plus importants que prévu…

Cette question liée à la difficulté d’évaluer le coût économique et social global des mesures d’adaptation au changement climatique est également présente dans le rapport final du GIEC qui estime notamment que la transition inévitable vers des sources d’énergie faiblement émettrices de gaz à effet de serre (dont la part dans le mix énergétique mondial pourrait passer de 17 % en 2010 à plus de 50 % en 2050) coûtera entre deux et six pour cent du PIB mondial d’ici 2050.

À ce stade de la réflexion, il est intéressant d’évoquer les conclusions d’un travail que vient de publier le CNRS, à l’occasion de la semaine du développement durable et qui concerne le développement de technologies moins polluantes et la valorisation économique possible de gaz à effet de serre et notamment du CO².

Le texte met en avant trois principaux axes de recherche pour la valorisation du CO² : en premier lieu, le captage et le stockage du CO² qui nécessitent le développement de technologies compétitives permettant d’extraire, de purifier et de stocker le CO².

Le deuxième axe consiste à trouver le moyen de transformer le CO², de le valoriser en utilisant des procédés biotechnologiques très prometteurs. À cet égard, de récentes recherches ont montré que le CO² pouvait servir « d’aliment » à certains micro-organismes (bactéries ou levures) pour produire du méthane ou encore des composés chimiques pouvant servir à l’assemblage de produits à haute valeur ajoutée, notamment dans les domaines industriel, médical et pharmaceutique.

Troisième axe, complémentaire des deux premiers, il repose sur l’utilisation de procédés thermochimiques, tels que hydrogénation, qui permet également de produire de nombreux composés chimiques ayant de nombreux champs d’application dans l’industrie ou les transports.

Cette étude du CNRS est extrêmement intéressante car elle montre que le défi du changement climatique et l’impérieuse nécessité de réduire les émissions humaines de gaz à effet de serre, en les divisant par deux d’ici le milieu de ce siècle (Ce qui signifie, compte tenu de l’évolution démographique, que chaque habitant de la planète devra diviser en moyenne par trois ses émissions de GES), ne doivent pas seulement être envisagés sous l’angle de la destruction de valeur économique globale pour l’Humanité mais peuvent aussi, à condition que nous y mettions les moyens humains et financiers nécessaires, devenir des moteurs d’innovation scientifique et technique et de croissance économique.

Il en va de même dans le domaine de la production d’énergie décarbonée et de la nécessaire transition des énergies fossiles aux énergies renouvelables. Si l’on veut en effet que l’ensemble des énergies renouvelables (éolien, solaire, biomasse et énergies des mers) puissent couvrir la moitié de la consommation énergétique totale de la Planète à l’horizon 2050, cela suppose non seulement un saut quantitatif en termes d’équipement et de taille d’installation mais également de véritables ruptures technologiques qui permettront de multiplier par trois ou quatre l’efficacité énergétique de ces différentes sources d’énergie.

Je suis convaincu qu’un tel objectif n’est pas hors de portée, surtout si nous intégrons l’apport décisif des nanotechnologies, des biotechnologies, des nouveaux matériaux et de la puissance de calcul phénoménal dont les scientifiques disposeront avant la fin de cette décennie avec l’arrivée des machines exaflopiques. En revanche, il est certain qu’il va falloir complètement réorganiser les structures et le fonctionnement de la recherche fondamentale et appliquée de manière à pouvoir transférer plus rapidement les avancées théoriques sur le plan technique et industriel.

Mais il faut bien être conscient du fait que, face à l’ampleur du défi qui nous attend, l’ensemble de ces mesures économiques, sociales et politiques très volontaristes ne suffiront pas si elles ne sont pas accompagnées par une profonde réorganisation de nos modes de production et de distribution des biens et des services et par une mutation non moins considérable dans l’organisation et le fonctionnement politique de nos Etats et de leurs composantes territoriales.

Même si cette perspective peut aujourd’hui paraître encore utopique, je pense en effet que ce défi sans précédent que représente pour l’espèce humaine le changement climatique va entraîner l’effondrement des anciennes structures de pouvoir et l’émergence de nouveaux modes d’expression et d’action démocratique qui s’imposeront au niveau mondial, comme au niveau local, en utilisant le levier irrésistible que représente l’Internet, les réseaux sociaux et collaboratifs et l’intelligence numérique qui va devenir omniprésente.

Le Secrétaire général de l’ONU, Ban Ki-moon, vient d’appeler solennellement à la mobilisation mondiale pour prendre à bras-le-corps ce défi de civilisation du changement climatique et il a eu parfaitement raison de rappeler «qu’on ne négocie pas avec la nature ». Ban Ki-moon vient également d’appeler la Commission Européenne à amplifier l’effort déjà accompli et à réduire d’ici 2030 ses émissions de CO² de 40 % par rapport à leur niveau de 1990, à porter à au moins 27 % la part des énergies renouvelables dans le bouquet énergétique de l'UE et à réaliser 25 % d'économies d'énergie à cette échéance.

Cette « feuille de route » correspond à une réduction d’environ 2 gigatonnes de CO2 d’ici 2030, soit un peu plus de 5 % des émissions mondiales actuelles ou encore l’équivalent de 5 fois les émissions annuelles françaises. Cet objectif, même s’il peut sembler ambitieux, est tout à fait à la portée de l’Union européenne qui en a les moyens économiques, technologiques et humains et il faut souhaiter qu’il soit prochainement confirmé et mis en œuvre par les états-membres, en dépit de la réticence de certains d’entre eux qui relève d’une vision à court terme.

Il nous appartient à présent, sans succomber à un catastrophisme ou un pessimisme stérile et démobilisateur, mais en prenant pleinement conscience de notre responsabilité historique face aux générations futures, de faire face à notre destin et de construire ensemble sans plus attendre ce nouveau monde qui permettra à l’espèce humaine de poursuivre son aventure en concluant une « Nouvelle Alliance » avec notre Planète et en jetant les bases d’une nouvelle civilisation dans laquelle l’esprit, l’intelligence, la solidarité et la créativité l’emporteront sur la matière, l’ignorance, l’égoïsme et le conformisme.

René TRÉGOUËT

Sénateur Honoraire

Fondateur du Groupe de Prospective du Sénat


Avenir
Nanotechnologies et Robotique
Un implant électrique au service des patients paralysés
Jeudi, 10/04/2014 - 08:00

Dans le cadre d'un programme mis en place à l’Institut Frazier, des chercheurs américains de l'Université de Louisville (Kentucky, Etats-Unis) sont parvenus, contre toute attente, à restaurer en partie les fonctions motrices chez quatre patients entièrement paralysés. Pour parvenir à ce résultat présenté dans la revue "Brain" du 8 avril, les chercheurs ont implanté à ces sujets des stimulateurs épiduraux qui envoient un courant électrique en continu, comme le ferait normalement le cerveau, dans la partie basse de la colonne vertébrale.

C'est en 2011 que ces essais ont commencé sur Rob Summers (âgé de 28 ans et paralysé à la suite d'un accident). Après l’intervention, il a récupéré une partie de sa fonction motrice. Les trois autres patients, implantés il y a quelques mois, ont également pu bouger leurs jambes immédiatement après l’activation du stimulateur.

Les chercheurs sont d'autant plus surpris de ces résultats que ces quatre patients souffraient de handicaps lourds et anciens. « Après nos travaux, l’idée longtemps admise selon laquelle aucune récupération n’est possible chez certaines personnes paralysées est sérieusement remise en question », estime le Professeur Susan Harkema, auteur de la première étude.

En outre, les améliorations constatées vont bien au-delà de la restauration de la fonction motrice et les chercheurs ont pu s'apercevoir que l'état général des participants s’est nettement amélioré, notamment en ce qui concerne la fonction cardio-vasculaire, la masse musculaire et la forme physique générale. C'est ainsi que Rob Summers a retrouvé l’usage de ses mains et le contrôle de sa vessie mais, selon lui, le plus extraordinaire est le retour de certaines sensations qu'il croyait perdues. "Je peux à nouveau sentir le chaud et le froid et le vent sur mes jambes et c'est pour moi inespéré" déclare-t-il…

Article rédigé par Georges Simmonds pour RT Flash

Brain

NIH

^ Haut
Matière
Matière et Energie
Une avancée majeure en chimie : l'activation des liaisons carbone-carbone
Mercredi, 09/04/2014 - 14:56

Deux grandes avancées ont marqué la chimie de synthèse depuis quelques années : l'activation des liaisons carbone-hydrogène et l'activation des liaisons carbone-carbone. L'équipe du professeur Ilan Marek du Technion - Israël Institute of Technology - vient de présenter une nouvelle méthode qui a l'originalité de combiner les deux précédentes.

Pour parvenir à la fusion de ces deux types de liaison, C-H (hydrogène) et C-C (carbone), les chercheurs ont utilisé le "zirconium walk", un complexe organométallique de zirconium qui permet d'interagir avec une double liaison présente sur une molécule donnée, puis avec une liaison C-H voisine pour déplacer la double liaison.

Concrètement, le zirconium va s'insérer dans un cyclopropane (un cycle de trois carbones très réactif) et remplacer sa liaison C-C par deux liaisons carbone-zirconium. Ces deux liaisons vont ensuite réagir avec des électrophiles pour produire les molécules finales désirées.

L'avantage de cette nouvelle technique du Professeur Marek est qu'elle utilise un métal bon marché, le zirconium. En outre, elle permet de réaliser en une étape unique plusieurs transformations chimiques et de créer ainsi plusieurs nouvelles liaisons.

Article rédigé par Georges Simmonds pour RT Flash

Chemistry

Nature

Vers la détection précoce olfactive des maladies ?
Mercredi, 09/04/2014 - 14:49

La firme japonaise Toshiba, spécialisée dans l'électronique des appareils domestiques, a présenté le prototype d'un outil diagnostic d’un nouveau genre : un analyseur d’haleine. Cet appareil pourrait aider à l’avenir les médecins à repérer certaines maladies.

En utilisant un dispositif électronique d'analyse des molécules par un faisceau laser infrarouge, cet outil est capable de quantifier la présence d'acétaldéhyde, de méthane ou encore d'acétone, caractéristiques de certaines pathologies (diabète, problèmes stomacaux...).

Comme d'autres fluides corporels, l'haleine contient aussi des informations médicales, comme des métabolites produits par le métabolisme du corps. Ces molécules sont assez petites pour passer du sang aux voies respiratoires et se retrouvent ainsi dans le souffle en quantités infimes. Or, il  existe une corrélation importante entre ces molécules et la présence de certaines pathologies.

L'acétaldéhyde serait par exemple caractéristique des maux de tête ; l’acétone pourrait être le signe d'un diabète et de risques d’obésité et le méthane révèlerait des problèmes digestifs. Les différents gaz composant l'haleine sont mesurés grâce à une analyse du spectre des molécules.

Toshiba va à présent tester cliniquement son prototype en hôpital pour en évaluer l'efficacité et l'aptitude à détecter certaines maladies, en complémentarité avec les outils d'analyses classiques.

Article rédigé par Georges Simmonds pour RT Flash

InventorSpot

^ Haut
Espace
Espace et Cosmologie
Une lune de Saturne pourrait abriter une vie extraterrestre…
Lundi, 07/04/2014 - 01:30

La NASA vient d'annoncer le 3 avril que des données recueillies par la sonde Cassini et par le Deep Space Network, le réseau de communication avec l'espace lointain de l'Agence spatiale américaine, ont permis de confirmer l'existence sur Encelade, l'une des lunes de Saturne, d'un important océan souterrain, composé d'eau liquide.

La présence d'un tel océan avait été envisagée depuis que la sonde Cassini avait détecté en 2005 de la vapeur d'eau et de la glace s'échappant par des fissures près du pôle sud de cette lune. Les chercheurs avaient formé l'hypothèse que cette eau pouvait provenir d'un océan sous la surface.

La sonde Cassini est passée près d'Encelade 19 fois, et en a effectué trois survols entre 2010 et 2012, permettant des mesures de trajectoire précises. Les variations dans la trajectoire de la sonde dues au champ gravitationnel de la lune et les données géophysiques recueillies par cette sonde confirment qu'il y aurait bien sur Encelade un océan de 10 kilomètres de profondeur, abrité sous une couche de glace épaisse de 30 à 40 kilomètres. Cet océan aurait environ 500 km de large et serait équivalent en taille au Lac Supérieur, l'un des Grands Lacs au nord des Etats-Unis. Il contiendrait en outre de nombreuses roches dans son fond, une caractéristique propice au développement de microorganismes…

"L'eau salée et les molécules organiques présentes dans cet océan sont les ingrédients chimiques élémentaires pour créer la vie" et  les matériaux éjectés en jets du pôle sud contiennent de l'eau salée et des composés organiques. On a là les ingrédients de base qui rendent la vie possible, conclut la responsable du projet Cassini, Linda Spilker.

Encelade relance donc la course à la découverte, dans notre système solaire, d'une possible vie extraterrestre. Mais cette lune de Saturne n'est pas la seule susceptible d'abriter la vie. Il n'est pas impossible en effet qu'Europe, l'une des lunes de Jupiter, puisse également contenir des formes de vie dans son vaste océan liquide de 150 km de profondeur bien protégé du froid par une couche de glace de plus de 20 km. Reste à présent à la NASA à financer des expéditions d'exploration vers ces lunes lointaines (1,2 milliard de km pour Encelade et 600 millions de km pour Europe).

Article rédigé par Georges Simmonds pour RT Flash

Nature

NASA

Découverte d'une nouvelle planète dans notre système solaire !
Lundi, 07/04/2014 - 01:15

Grâce à leurs observations réalisées à l'aide du télescope Blanco de l'Observatoire interaméricain du Cerro Tololo au Chili, les astronomes américains Scott Sheppard et Chad Trujillo ont découvert une nouvelle planète aux confins de notre système solaire, dans le nuage d'Oort.

Les chercheurs ont identifié cette planète fin 2012 en analysant des photographies prises à l'aide d'un appareil photo de 520 mégapixels placé sur le télescope Blanco au Chili.

La nouvelle planète dénommée 2012 VP113 fait 450 km de diamètre (cinq fois moins que Pluton) et est classée dans la catégorie des "planètes naines", distinctes des astéroïdes. Elle se situe à environ 12 milliards de km du Soleil et appartiendrait tout comme Sedna, une autre planète naine de 1000 km de diamètre découverte il y a dix ans,  au nuage d'Oort, qui forme la frontière du système solaire.

Sachant que l'orbite de 2012 VP113 s'éloigne jusqu'à 68 milliards de kilomètres, les scientifiques se demandent toutefois comment cette planète peut rester sous l'influence gravitationnelle  du Soleil. Selon les chercheurs, ce "Nuage d'Oort", situé au-delà de la "ceinture de Kuiper", dans laquelle se trouve notamment Pluton (déclassée de son rang de planète en 2006), compterait environ 900 corps célestes de différentes dimensions mais ceux-ci sont très difficiles à observer et à caractériser en raison de leur distance par rapport à la Terre.

"C'est une grande découverte qui montre qu'il y a encore beaucoup de choses inconnues concernant notre système solaire" a déclaré Chad Trujillo. 

Article rédigé par Georges Simmonds pour RT Flash

Nature

L'Espace, nouvelle frontière de l'Humanité pour Stephen Hawking
Lundi, 07/04/2014 - 01:00

Au cours d'une émission de télévision britannique, le célèbre astrophysicien Stephen Hawking s'est dit convaincu que, dans 50 ans, l'humanité sera en train de coloniser la Lune et commencera à explorer Mars.

"J'ai peur pour notre futur. Notre planète la Terre est menacée par la surpopulation et le manque de ressources. Nous avons besoin d'un plan B. Si notre espèce veut survivre aux 100 prochaines années, sans parler des 1000 prochaines, il est alors impératif que nous colonisions d'autres mondes à travers le Cosmos", a notamment déclaré Stephen Hawking.

"La coopérations scientifique internationale à l'œuvre dans le cadre de l'ISS (la Station spatiale internationale) va nous permettre de développer les technologies nécessaires aux voyages dans l'Espace lointain et je suis convaincu que, d'ici un demi-siècle, il y aura des colonies sur la Lune et qu'à la fin de ce siècle des hommes vivront en permanence sur Mars", a conclu Stephen Hawking.

Article rédigé par Georges Simmonds pour RT Flash

Daily Mail

CNET

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
Les entrailles de la Terre recéleraient d'énormes quantités d'eau sous forme minérale
Jeudi, 10/04/2014 - 08:10

Selon des chercheurs canadiens dirigés par Graham Pearson (Université de l’Alberta à Edmonton, Canada), il y aurait d'énormes quantités d’eau emprisonnées dans la « zone de transition », cette région du manteau terrestre située entre 410 et 660 km sous la surface de la Terre.

Leur hypothèse s'appuie sur le fait qu'un diamant découvert au Brésil en 2009 contient un minéral formé dans la zone de transition et comprenant 1 % d’eau. Par extrapolation, ces chercheurs en déduisent que la quantité d’eau présente dans la zone de transition pourrait être plus importante que l’eau de tous les océans actuels réunis.

Toutefois, ces scientifiques insistent sur le fait que ces gigantesques quantités d’eau, peut-être présentes dans la zone de transition, ne se présentent pas sous la forme de masses d’eau liquide, en raison des conditions de pression et de température qui règnent à de telles profondeurs. Cette eau serait donc à l’intérieur des minéraux.

Ces chercheurs précisent que le petit diamant (un dixième de gramme) qu'ils ont étudié s'est formé dans une région très profonde du manteau terrestre : la « zone de transition », située à une profondeur comprise entre 410 à 660 km. En analysant par diffraction aux rayons X la nature d’un fragment de minéral inclus dans ce petit diamant, ces scientifiques ont ensuite découvert qu’il s’agissait d’un fragment de ringwoodite, une forme d'olivine qui ne peut se former qu'à très grande profondeur.

Mais la découverte majeure de cette équipe est que cette ringwoodite contenait 1 % d’eau. Selon le géochimiste Graham Pearson, si l’on se base sur cette proportion de 1 %, alors cela signifie que la zone de transition pourrait même contenir à elle seule plus d’eau que tous les océans du monde réunis…

Article rédigé par Georges Simmonds pour RT Flash

Nature

La fonte des glaces s'accélère au Groenland
Mardi, 08/04/2014 - 10:19

Le nord-est de la calotte glaciaire du Groenland aurait perdu dix milliards de tonnes de glace par an entre 2003 et 2012, selon des chercheurs danois, américains et britanniques. Leur étude, publiée le 16 mars dans la revue Nature Climate Change, montre que le nord-est du Groenland n'est plus épargné par les effets du changement climatique. Selon ces travaux, la fonte des glaciers du Groenland a été l'un des principaux contributeurs à l'élévation du niveau de la mer sur les vingt dernières années alors que les scientifiques pensaient jusqu'à présent que le nord-est était une région stable. Ces travaux vont donc conduire à réviser les modèles de prédictions, en intégrant désormais la fonte de ces grandes masses de glace.

En juillet 2012, la Nasa annonçait la fonte d'environ 97 % de la surface gelée du Groenland. Ce dégel sans précédent contribuerait donc de manière sensible à la hausse du niveau de la mer observée ces 20 dernières années, représentant 0,5 mm par an sur une hausse moyenne globale de 3,2 mm par an.

Selon cette étude, « Il semble que maintenant tous les bords de la calotte glaciaire sont instables », une observation qui devrait conduire à prendre en compte cette fonte glaciaire dans les projections à long terme sur la hausse du niveau de la mer. Autre conséquence : la fonte des calottes glaciaires a également un impact sur la modification du climat en accentuant le phénomène du réchauffement.

Article rédigé par Georges Simmonds pour RT Flash

Nature

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Une nouvelle arme anticancer issue du tabac ?
Jeudi, 10/04/2014 - 08:05

Des chercheurs australiens de l'Université Latrob à Melbourne, dirigés par Mark Hulett, ont découvert qu'une molécule présente dans les fleurs de tabac (nicotiana sylvestris) et baptisée NaD1, possède non seulement une action antibactérienne mais semble agir de manière intéressante contre les cellules cancéreuses en déchirant littéralement la membrane de ces cellules malignes grâce à sa structure particulière en forme de pinces.

"La prochaine étape est d’effectuer des études cliniques préliminaires afin d’évaluer le rôle potentiel de la NaD1 dans le traitement du cancer", précise Mark Hulett qui ajoute "Il serait paradoxal et même ironique que le tabac puisse nous fournir une nouvelle arme efficace contre le cancer mais nous devons avoir l'esprit ouvert et explorer cette voie prometteuse".

Article rédigé par Georges Simmonds pour RT Flash

UPI

La stimulation du nerf vague efficace contre les migraines rebelles
Mercredi, 09/04/2014 - 14:42

Une étude américaine dirigée par le Professeur Goadsby (Université de Californie à San Francisco) et portant sur 30 patients a montré que l'utilisation de la thérapie non-invasive de stimulation du nerf vague (SNV) d'ElectroCore peut constituer un traitement efficace et bien toléré de la migraine chez certains patients.

Dans cette étude ouverte, conduite sur 30 patients, 27 ont utilisé la thérapie SNV pour traiter 80 crises de migraine au total. Les patients souffrant de crises de migraines modérées ou graves ont signalé une absence de douleur ou un soulagement dans vingt-trois crises sur cinquante-quatre (43 %).

En outre, dans dix crises de migraine sur vingt-six - correspondant à une douleur modérée - les patients ont signalé une absence de douleur deux heures après le traitement (38 %). Cette thérapie SNV semble mieux tolérée que le traitement de référence par triptans.

Cette thérapie de stimulation électrique non-invasive agit en activant les fibres spécifiques situées dans le faisceau du nerf vague. Cette stimulation entraîne la libération de neurotransmetteurs inhibiteurs au sein du système nerveux central, ce qui permet de réduire la production excessive du glutamate, un neurotransmetteur excitateur impliqué dans un certain nombre de troubles divers.

Article rédigé par Georges Simmonds pour RT Flash

National Post

La vitamine A pourrait inverser l'évolution des cellules précancéreuses du sein
Mardi, 08/04/2014 - 10:31

Des chercheurs américains de l’Université Thomas Jefferson à Philadelphie, dirigés par la Professeure Sandra V. Fernandez, ont montré qu’un dérivé de la vitamine A, l’acide rétinoïque, présent notamment dans les carottes, les abricots, les poivrons ou encore la mache, contribue à inverser des cellules précancéreuses en cellules mammaires normales et saines.

Mais les chercheurs précisent que cet effet n’a été constaté qu’au stade précancéreux et non pas aux stades plus avancés du cancer. Ce dérivé, qui reste à tester chez l’Homme, pourrait donc inverser l’évolution des lésions précancéreuses, ces lésions qui peuvent évoluer vers un cancer.

Cette étude expliquerait pourquoi d'autres travaux antérieurs n’ont pas montré de bénéfice anti-cancer de la vitamine A. Il semble en effet que la vitamine A ne modifie pas l’évolution du cancer mais seulement celle des cellules précancéreuses pendant une "fenêtre temporelle" étroite.

Pour parvenir à ces conclusions, les chercheurs ont travaillé sur 4 types de cellules correspondant à une étape différente du cancer du sein : cellules saines et normales, précancéreuses, cancéreuses et de cancer agressif. En exposant ces types de cellules mammaires à différentes concentrations d’acide rétinoïque, un composé dérivé de la vitamine A, les chercheurs ont observé d'importantes modifications des cellules précancéreuses et constaté que celles-ci redevenaient semblables, sur le plan structurel, à des cellules normales, ce que confirme notamment la modification de leur signature génétique.

Reste à savoir comment appliquer cette découverte aux patientes et quelle est la dose optimale de vitamine A à administrer pour obtenir le meilleur effet thérapeutique.

Article rédigé par Georges Simmonds pour RT Flash

Science Daily

IBM met Watson au service de la recherche en génétique
Mardi, 08/04/2014 - 10:24

IBM vient d’annoncer sa décision de s’associer au programme du New York Genome Center (NYGC) sur la recherche de traitements personnalisés contre le cancer. Concrètement, la firme américaine utilisera son super-ordinateur Watson pour parcourir les revues médicales, les nouvelles études et les données cliniques et relier tous ces résultats à l'ensemble des variations et mutations génétiques observées chez les patients.

« Les médecins n'ont pas les outils nécessaires pour proposer des traitements basés sur leur ADN à leurs patients », soulignent IBM et le New York Genome Center. Mais l'ordinateur Watson, grâce à sa capacité d'apprentissage, permettra ainsi de mettre à jour les bases de données sur lesquelles les médecins s'appuient pour proposer des traitements à leurs patients.

Cet ordinateur de nouvelle génération Watson est devenu célèbre auprès du grand public après sa victoire en 2011 dans le jeu télévisé Jeopardy. Le super calculateur avait gagné contre deux joueurs humains considérés comme des ténors du jeu en gagnant deux manches sur trois.

Article rédigé par Georges Simmonds pour RT Flash

IBM

Les statines pourraient ralentir l'évolution de certaines sclérose en plaques
Vendredi, 04/04/2014 - 16:24

Une étude britannique dirigée par le Professeur Jeremy Chataway de l'University College London Hospital, vient de montrer que les statines, des médicaments utilisés pour baisser le taux de cholestérol dans le sang, pourraient ralentir l'évolution de certaines formes de sclérose en plaques (SEP), une maladie neurologique chronique souvent invalidante, qui touche le système nerveux central.

La plupart des scléroses en plaques commencent sous forme de poussées suivies de rémissions, mais chez près de la moitié des patients cette phase "rémittente" évolue en phase chronique secondaire appelée "forme secondaire progressive de SEP". A ce jour, aucun traitement n'est efficace pour lutter contre ces formes progressives de la SEP.

Pour évaluer l'effet thérapeutique des statines, les chercheurs britanniques ont recruté 140 patients atteints de cette forme de la maladie, âgés de 18 à 65 ans, répartis aléatoirement en deux groupes. Le premier groupe a reçu 80 mg de simvastatine par jour et le second a reçu un placebo pendant deux ans. A l'issue de cet essai randomisé en double aveugle, les chercheurs ont eu la surprise de constater que les patients ayant reçu le médicament avaient subi une atrophie du cerveau de 0,3 % par an en moyenne, contre 0,6 % par an pour ceux qui avaient reçu le placebo.

Le Professeur Chataway souligne cependant qu'il faut rester prudent, éviter toute "sur-interprétation" des résultats et poursuivre les recherches en prévoyant de nouveaux essais plus larges.

Article rédigé par Georges Simmonds pour RT Flash

The Lancet

Une nouvelle méthode pour détecter précocement le cancer du pancréas
Vendredi, 04/04/2014 - 16:18

Des chercheurs suédois de l'Université de Göteborg ont mis au point une nouvelle méthode pour diagnostiquer plus tôt le cancer du pancréas. Grâce à cette technique, les signes précurseurs peuvent être détectés avec 97 % de certitude, ce qui permet de mettre en œuvre immédiatement les traitements adaptés.

« Cette technique s'apparente à une endoscopie ordinaire mais la différence est qu'un tube émet des ultrasons et permet de voir l'organe beaucoup mieux afin d'extraire du liquide », précise Karolina Jabbar qui dirige ces recherches. Ce procédé, qui réduit le recours à la chirurgie, a été expérimenté avec succès pour analyser des tumeurs déjà existantes.

La méthode pourrait permettre de distinguer beaucoup plus rapidement les patients qui doivent être opérés dans l'immédiat, de ceux dont les kystes peuvent faire l'objet d'un simple suivi dans un premier temps.

Article rédigé par Georges Simmonds pour RT Flash

The Local

La biologie marine pourrait détenir la clé du sang artificiel !
Vendredi, 04/04/2014 - 16:13

La start up bretonne Hemarina, spécialisée dans la mise au point de produits issus de la biotechnologie marine, a développé un substitut sanguin fabriqué par un petit ver marin. Cette molécule qui est semblable pour 90 % de ses constituants à de l'hémoglobine humaine remplit les fonctions de transporteur d'oxygène, un rôle habituellement rempli par les hémoglobines contenues dans les globules rouges.

Ce composant présente le grand avantage d'être 250 fois plus petit qu'un globule rouge ; il peut transporter 50 fois plus d’oxygène que l’hémoglobine humaine et est compatible avec tous les groupes sanguins. Enfin il n'est ni immunogène, ni allergène.

Ces propriétés lui permettent de faire circuler et de délivrer de l'oxygène dans les zones ou la circulation est réduite par un traumatisme comme un œdème cérébral, mais aussi d'oxygéner les personnes souffrant d'hémorragies.

Ancien chercheur au CNRS, le fondateur d'Hemarina, Franck Zal, a découvert cette molécule en 2007 et sa société basée à Morlaix, dans le Finistère, travaille actuellement sur trois utilisations complémentaires de ce composant issu du ver marin : un substitut sanguin permettant de traiter les AVC en urgence, un système d'oxygénation des greffons avant les transplantations et enfin un pansement destiné à accélérer la cicatrisation.

Les premiers essais cliniques sur l'homme devraient débuter fin 2014 et quand on sait qu'il manque chaque année plus de 100 millions de litres de sang dans le monde pour répondre aux besoins médicaux, on mesure mieux à quel point cette innovation majeure pourrait contribuer à apporter une solution au défi mondial que représente la pénurie de sang.

Article rédigé par Georges Simmonds pour RT Flash

Hemarina

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top