RTFlash

RTFLASH Recherche & Technologie
NUMERO 726
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 29 Novembre 2013
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
Google déploie une nouvelle technologie contre la pédopornographie
Avenir
Les nanotechnologies s'imposent contre le crime
Vivant
L'huile de poisson diminue le risque de cancer de la prostate mais…
La flore intestinale : une alliée inattendue contre le cancer
Une nouvelle molécule contre le mélanome
La reconnaissance des visages est intimement liée au contexte social
Les personnes à tendance dépressive présenteraient des risques de vieillissement accéléré
La pratique d'un instrument de musique améliorerait les performances cognitives
Un risque cardio-vasculaire sensiblement accru pour les adolescents ayant eu un cancer dans l'enfance
Un risque accru de troubles du comportement pour les enfants exposés au tabac avant leur naissance
Les bactéries magnétotactiques dévoilent leurs secrets
Sevrage alcoolique : un antiépileptique ouvre une nouvelle voie thérapeutique
L'abus de boissons sucrées augmenterait l'agressivité de certains enfants
L'analyse du mouvement des yeux pour détecter précocement l'autisme
Comment le monoxyde d'azote produit par les globules rouges protège le cœur !
Edito
En 2100, nos petits enfants devront-ils vivre avec une température qui aura augmenté de 5°C ?



La Conférence internationale sur le climat de Varsovie s’est achevée le 23 novembre sur un double échec : non seulement aucune nouvelle décision n’a été prise pour durcir les objectifs de réduction des émissions mondiales de gaz à effet de serre dans la perspective du futur accord international qui doit remplacer le protocole de Kyoto en 2015 mais en outre, à la demande expresse de certains pays comme l’Inde et la Chine, le terme « d’engagement » a été remplacé dans le texte final par celui de « contribution », trop vague et peu contraignant.

On peut se demander combien de temps encore va pouvoir s’élargir ce fossé -qui devient abyssal- entre les mises en garde de la communauté scientifique internationale et l’immobilisme, pour ne pas dire l’aveuglement, qui semble prévaloir, tant au niveau des états que sur le plan international. Il est vrai que depuis 2008, l’onde de choc de la crise mondiale n’en finit pas de déstabiliser la planète et a fait passer la lutte contre le réchauffement climatique loin derrière les objectifs de retour à la croissance et de reprise économique.

Pourtant, le 11 novembre dernier, le Giec (Groupe d’experts intergouvernemental sur l’évolution du climat) a publié la version finale et corrigée de son dernier rapport sur l’évolution climatique mondiale. Ce rapport rappelle que l’humanité a déjà émis 515 gigatonnes de dioxyde de carbone (CO2) depuis le début de l’ère industrielle, si l’on tient compte du cumul de toutes les émissions d’origine humaine jusqu’en 2011.

Le GIEC souligne que l’Humanité a déjà émis plus de la moitié des 1 000 gigatonnes qui constituent, selon une étude de référence parue en avril 2009 dans nature  (voir Nature) le seuil limite en termes d’émissions cumulées depuis la période 1861-1880 pour contenir, de façon probable, le réchauffement à moins de 2°C. Pour ne rien arranger, le charbon - la source d’énergie fossile la plus polluante et la plus émettrice de GES - devrait devenir en 2020 la première des sources d'énergie devant le pétrole (avec 4 500 gigatonnes d’équivalent-pétrole par an) de l'économie mondiale

Or, pour parvenir à limiter le réchauffement mondial à 2°C, le GIEC rappelle dans son rapport qu’il faudrait que les émissions de GES plafonnent en 2020 à 44 gigatonnes contre environ 50 gigatonnes par an aujourd'hui, et soient ensuite divisées par deux d'ici 2050. Quant aux prévisions du Giec relative à l’élévation de la température (+0,3°C à +4,8°C d’ici 2100 selon le rythme des émissions de GES) et du niveau des mers (26 à 82 cm), elles demeurent inchangées (Voir Climate Change 2013).

Tout nous indique donc que si nous restons sur le rythme actuel d’augmentation des émissions humaines de gaz à effet de serre, non seulement nous n’aurons aucune chance de rester dans la limite de l’augmentation moyenne des températures de 2°C mais nous risquons de voir augmenter ces températures de 4° à 5°C d’ici la fin du siècle, tout en assistant à une multiplication des événements météorologiques extrêmes et catastrophiques.

Ce sombre scénario, prévu par le dernier rapport du Giec, est également partagé par les autres grandes organisations internationales. Récemment, les experts de la Banque mondiale ont ainsi rappelé que le changement climatique affecte fortement la cryosphère, c’est-à-dire les chaînes de montagnes couvertes de neige, les glaciers et les régions recouvertes par le pergélisol.

La Banque mondiale rappelle, dans son rapport «Glaces éphémères : l’élimination des polluants peut ralentir le réchauffement climatique et sauver des vies», que la réduction rapide et massive des émissions de suie et de méthane est indispensable, non seulement pour lutter efficacement contre le réchauffement climatique mais pour sauver de nombreuses vies humaine.

Autre signal d’alarme : le dernier rapport de l’Organisation Météorologique Mondiale (OMM), publié le 6 novembre dernier. Celui-ci confirme que la concentration dans l'atmosphère des principaux gaz à effet de serre -CO2, méthane et protoxyde d'azote- se serait accrue de 32 % entre 1990 et 2012. Cette évolution préoccupante serait principalement due à une consommation accrue d'énergie fossile et notamment de charbon au niveau mondial.

L'OMM précise que la concentration de CO2, le gaz à effet de serre d'origine humaine le plus abondant dans l'atmosphère, a progressé de 0,56 % entre 2011 et 2012. La concentration de méthane a pour sa part augmenté de 0,33 % au cours de cette période est celle de protoxyde d'azote a progressé de 0,28 %.

Commentant ces résultats, Michel Jarraud, secrétaire général de l'OMM a souligné que "si le monde continuait sur cette voie et si aucune décision n'était prise pour arrêter cette tendance à la hausse, la température moyenne du globe à la fin du siècle pourrait augmenter de 4,6° par rapport à celle qui prévalait avant la révolution industrielle". L'OMM rappelle que, depuis le début de l'ère industrielle, en 1750, la concentration moyenne de CO2 dans l’atmosphère du globe a augmenté de 41 %, celle du méthane de 160 % et celle du protoxyde d’azote de 20 % (Voir OMM).

Selon le dernier rapport du Global carbon project, publié le 20 novembre, les émissions humaines de CO2 ont atteint au total (déforestation comprise), 39 milliards de tonnes en 2012, dont 36 milliards de tonnes résultent de notre consommation énergétique (Voir Phys.org). Aujourd’hui, les trois quarts des gaz à effet de serre sont émis par les cinq grands pôles géoéconomiques de la planète (23 % des émissions de GES sont émis par la Chine, 15 % par les USA, 11 % par l’Union européenne, 5 % par l’l'Inde, 5 % par la Russie.

Ces émissions vont continuer à progresser au rythme de 2 % par rapport à l’année précédente mais dans certains pays émergents, cette progression est bien plus forte : 6 % en Chine et 7,7 % en Inde, principalement à cause de la très forte part du charbon dans le mix énergétique de ces deux nouveaux géants économiques. A cet égard, l’Agence Internationale de l’Energie rappelle d’ailleurs que le charbon est à présent responsable de 44 % des émissions de CO2 liées à l’énergie (35,3 % pour le pétrole, et 20,2 % pour le gaz).

Cette étude montre de manière édifiante que dans certains pays les émissions de CO2 liées au charbon progressent plus vite que les émissions au niveau mondial. C’est par exemple le cas en Allemagne, souvent citée comme modèle écologique mais dont les augmentations de CO2 liées au charbon ont augmenté de 4,2 % en 2012 ! Même au niveau européen, si les émissions de CO2 sont globalement en baisse de 1,3 % en 2012, celles liées au charbon progressent au rythme moyen de 3 % par an.

Plus inquiétant encore, selon cette étude, les émissions mondiales globales de CO2 dues aux activités humaines (y compris la déforestation) auraient progressé de 61 % depuis 1990, année de référence du protocole de Kyoto dont le champ d’application ne représente plus, il est vrai, que 15 % des émissions de CO2 de la planète !

Ces recherches montrent que les émissions cumulées de CO2 depuis 1870 devraient atteindre 2015 gigatonnes en 2013, dont 70 % proviennent de l’utilisation des énergies fossiles et 30 % de la déforestation et des activités agricoles. Pour le professeur Friedlingstein, de l'Université d'Exeter, "Nous avons déjà épuisé 70 % des chances qui nous auraient permis d’éviter un changement climatique mondial majeur et au rythme actuel de nos émissions, nous allons vers le scénario le plus pessimiste du Giec, c’est-à-dire une augmentation globale de température de 2° à 5° centigrades d’ici la fin de ce siècle ».

Une autre étude de l’AIE, publiée le 12 novembre dernier, va dans le même sens et indique que la planète risque un réchauffement «de long terme» de 3,6 degrés si les gouvernements se contentent de leurs objectifs actuels (Voir IEA).

Dans le scénario «central» établi par l’Agence énergétique des pays développés, les émissions de gaz à effet de serre liées à l’énergie augmenteront de 20 % en 2035, même en intégrant les derniers objectifs de réduction des émissions de GES annoncés par les États. Cette hausse de 20 % des émissions liées directement à l’énergie d’ici 20 ans «place le monde sur une trajectoire cohérente avec un réchauffement moyen de long terme des températures de 3,6°C, bien au-delà de l’objectif affiché internationalement des 2 degrés», souligne l’AIE.

Les projections de l’AIE à 2035 montrent également que les énergies fossiles devraient encore représenter 75 % de l’ensemble de l’énergie consommée en 2035, contre 82 % actuellement. L’AIE prévoit notamment une hausse de la consommation de charbon de 17 % d’ici 2035 et rappelle que la Chine consomme désormais autant de charbon que le reste du monde. Et selon cet organisme, il ne faut pas compter sur la capture et le stockage souterrain du CO2 pour limiter le réchauffement climatique annoncé car, à l’horizon 2035, l’Agence estime que seulement 1 % des centrales thermiques seront équipées de ce type de dispositif !

En revanche, les énergies renouvelables devraient poursuivre leur irrésistible montée en puissance dans le mix énergétique mondial et l’AIE prévoit qu’en 2035 près du tiers de la production électrique mondiale sera issue des énergies renouvelables mais cette part sera encore trop faible pour permettre une réduction suffisante des émissions mondiales de CO2 liées à l’utilisation de l’énergie.

En septembre dernier, une étude américaine intitulée "Les causes des phénomènes météorologiques extrêmes dans la perspective du changement climatique", a montré que la moitié des phénomènes météorologiques extrêmes observés en 2012 aurait été provoquée par le réchauffement résultant des émissions de gaz à effet de serre, produites par les activités humaines (Voir NOAA).

Selon cette étude, ces événements catastrophiques seraient largement liés au changement climatique mondial et aux activités humaines.

Cette étude souligne par ailleurs que l'épisode de chaleur extrême qui a touché les États-Unis au printemps 2012 est très probablement lié au réchauffement climatique mondial. Ce rapport précise par ailleurs qu'à l'avenir, des ouragans moins puissants risquent d'entraîner des dommages au moins aussi grands que les plus puissants actuels, en raison du niveau plus élevé des mers résultant de la fonte accélérée des glaces arctiques, elle-même liée au réchauffement climatique planétaire.

La situation pourrait être encore plus préoccupante que prévu, si l’on en croit une étude de l’Agence américaine de protection de l’environnement publiée il y a quelques jours (Voir PNAS) qui montre, à partir de 12 000 mesures effectuées sur 190 sites de production de gaz naturel, que les émissions de méthane liées à l’exploitation de cette énergie fossile seraient supérieures d’au moins 50 % à celles officiellement déclarées. Par ailleurs, une autre étude américaine publiée dans Nature en janvier 2013 (Voir Nature) montrent que les fuites de méthane liées à l’exploitation des gaz de schiste aux États-Unis, seraient de l’ordre de 9 %, au lieu des 2,4 % précédemment estimées. Il est donc malheureusement à craindre que les émissions anthropiques de méthane (6,8 gigatonnes d’équivalent-CO2 par an en 2010) soient sensiblement plus importantes que prévu et que la part de ces émissions dans le réchauffement climatique (aujourd’hui estimée à environ 15 %) soit également à réévaluée à la hausse.

C’est dans ce contexte pour le moins préoccupant, pour ne pas dire alarmiste, que quatre scientifiques américains de réputation mondiale, Ken Caldeira, Kerry Emanuel, James Hansen et Tom Wigley, viennent d’écrire une lettre aux dirigeants politiques mondiaux dans laquelle ils défendent le nucléaire, en dépit de la vive opposition des mouvements écologistes (Voir Lettre).

Ces quatre chercheurs préconisent d’accentuer les efforts en faveur de l’ensemble des énergies renouvelables mais soulignent que cela ne suffira pas pour répondre à l’explosion de la demande en électricité au niveau mondial et que « Dans le monde réel, il sera impossible, compte tenu de l’accroissement de la demande en électricité de lutter efficacement contre le réchauffement climatique sans recourir au nucléaire. »

Enfin, il faut évoquer le remarquable rapport que vient de publier l’OCDE et qui s’intitule (« Les prix réels du carbone » (Voir OECD iLibrary).

Ce rapport analyse le rapport coût-efficacité des différentes mesures utilisées par les gouvernements de 15 pays pour réduire les émissions de gaz à effet de serre (GES). Cette étude a notamment calculé le prix moyen payé dans les différents pays pour réduire d'une tonne ces émissions de gaz à effet de serre.

Concrètement: lorsque, par exemple, un particulier bénéficie d'un crédit d'impôt pour installer une chaudière à gaz plus performante, le montant de ce crédit d'impôt divisé par la diminution des émissions permise représente le coût de la tonne de carbone évitée.

L'étude montre que les deux leviers qui sont de loin les plus efficaces pour réduire les émissions de gaz à effet de serre sont le marché du carbone (appelé également pour l’Europe système d’échanges de quota d’émissions de CO2) et la taxe carbone.

Les systèmes d'échange de permis d'émission reposent sur la fixation d'un plafond d'émissions dans une région donnée. Chaque secteur d'activité dispose de permis d'émission échangeables librement sur un marché : une raffinerie qui parvient à réduire ses émissions pourra ainsi revendre ses permis devenus excédentaires à un producteur d'asphalte.

Quant à la taxe carbone, elle s’impose à l’ensemble des industries et du transport et son montant est proportionnel à la quantité d’émissions de gaz à effet de serre (harmonisée en équivalent-carbone). Si la production d'électricité à partir de charbon émet deux fois plus de CO2 qu'en utilisant du gaz, elle sera deux fois plus taxée. Le principe est le même dans les transports où l'idée est de taxer les différents modes de transport directement en fonction de la quantité de CO2 qu'ils émettent par passager transporté ou tonne de marchandises acheminées.

Pour la plupart des économistes, ces deux outils -bourse d'échange de permis d'émissions et taxe-carbone - sont les plus efficaces, si l'on raisonne en termes de rapport coût-efficacité, pour réduire massivement les émissions de CO2 liées à l'utilisation d'énergie, à l'industrie et au transport.

Cette étude montre notamment que pour éviter l'émission d'une tonne de gaz à effet de serre grâce à des systèmes d'échange de quotas, il faut compter en moyenne 10 euros. Pour les outils de taxation spécifique, comme la taxe carbone, le coût moyen reste attractif et se situe autour de 30 euros la tonne. En revanche, le choix qui consiste à subventionner les investissements ou à prévoir des tarifs d'achat préférentiels est beaucoup plus coûteux : 170 euros en moyenne par tonne de carbone évitée !

Les conclusions de ce rapport de l’OCDE vont dans le même sens que celles de William Nordhaus, économiste proche du prix Nobel Paul Kruger. Ce dernier développe ses idées dans un remarquable livre, intitulé « La roulette climatique, risques et incertitude du réchauffement ». S’appuyant sur les travaux du GIEC qui recommande que le prix mondial du carbone évolue de 50 et 100 $ la tonne d’équivalent CO2 entre 2010 et 2030, Nordhauss propose pour sa part une taxe carbone « universelle », qu’il considère également comme le moyen le plus efficace de réduire fortement les émissions humaines de GES. Son montant serait fixé à 42 $ la tonne en 2015 et augmenterait progressivement dans le temps pour atteindre 90 $ en 2050 et 220 $ en 2100.

Ce rapport de l’OCDE va dans le même sens qu’un autre remarquable rapport réalisé en 2009 par McKinsey, qui montre qu’en utilisant l’ensemble des solutions technologiques existantes, il serait tout à fait possible, d’ici 2030, de réduire de 40 % nos émissions mondiales de gaz à effet de serre et de rester ainsi dans la limite des deux degrés d’augmentation de température.

Cette étude de Mc Kinsey précise que le coût global d’un tel plan mondial serait de l’ordre de 300 milliards d’euros par an à l’horizon 2030, soit moins de 1 % du Produit Brut Mondial, dans l’hypothèse improbable où le baril de pétrole ne dépasse pas 60$ à cette échéance mais ce coût deviendrait nul avec un baril à plus de 100 dollars, ce qui est une hypothèse beaucoup plus réaliste pour 2030.

Basée sur une analyse économique et financière rigoureuse, cette étude montre que ces mesures auraient un coût très faible par rapport à leur très grande efficacité. Elles coûteraient en moyenne seulement 4 euros par tonne de CO2 évitée et, ce qui est encore plus étonnant, 40 % d'entre elles, notamment celle qui concerne l’efficacité énergétique et les économies d’énergie, ont même un coût négatif, ce qui signifie que les économies d'énergie qu'elles permettent produisent une valeur plus importante que leurs coûts initiaux !

Les conclusions de ces études -qui reposent toutes sur des approches économiques et non technologiques- sont très intéressantes et convergent pour remettre en cause un grand nombre d’idées reçues et montrer qu’il est possible, en actionnant vigoureusement et judicieusement les leviers économiques, commerciaux, financiers et fiscaux, de faire d’une pierre deux coups : réduire massivement et rapidement nos émissions de gaz à effet de serre liées à l’utilisation intensive des énergies fossiles et rendre compétitives et rentables plus vite l’ensemble des énergies renouvelables, non seulement l’éolien et le solaire mais également d’autres sources d’énergie renouvelable très prometteuses mais qui nécessitent encore de forts investissements en recherche-développement, comme la géothermie, l’ensemble des énergies marines, les sources naturelles d’hydrogène les biocarburants de nouvelles génération, issus du bois ou des algues.

Si nous voulons éviter la catastrophe climatique de grande ampleur annoncée par la quasi-totalité de la communauté scientifique internationale et liée directement à notre incapacité à réduire drastiquement et rapidement nos émissions de gaz à effet de serre et notamment nos émissions de CO2 liées à l’utilisation des énergies fossiles, nous devons mettre en place sans tarder les instruments et outils économiques et fiscaux nécessaires, et notamment une taxe carbone européenne, puis mondiale, complétée par une bourse rénovée et organisée, à l’échelle planétaire, d’échange de quotas d’émissions de gaz à effet de serre.

Mais au niveau des Etats, il faudra aller encore plus loin et réformer la nature même de notre fiscalité en la réorientant sur ce double impératif économique et écologique, de façon à encourager massivement, au niveau des ménages et des individus une réduction de la consommation d’énergie et une amélioration considérable de l’efficacité énergétique. Mais une telle révolution fiscale ne sera viable qu’à condition de s’inscrire dans un réalisme économique qui dépasse des incantations idéologiques actuelles et d’être perçu par les contribuables comme socialement équitable.

À cet égard, il faut saluer l’innovation « éco financière » présentée le 25 novembre par une jeune entreprise du Finistère. Celle-ci vient de lancer le premier « compte-épargne carbone » (Voir Compte Epargne CO2).

L’idée est simple mais ingénieuse : il s’agit non plus de pénaliser mais de récompenser les ménages, entreprises, mais aussi les collectivités en leur distribuant des kg de CO2 virtuels lorsqu'ils réduisent leurs émissions. Ces kilos de CO2 ainsi « épargnés » peuvent ensuite, soit être utilisés comme une monnaie pour acheter des biens et services à faible intensité carbone (billets de train, vélo électrique), soit valorisés à hauteur de 52 euros la tonne !

Souhaitons que les responsables économiques et les dirigeants politiques soient suffisamment lucides et responsables pour lancer rapidement, au niveau national, européen et mondial cette révolution copernicienne avant que les conséquences du réchauffement climatique et la pression de leurs opinions publiques ne les y contraignent…

René TRÉGOUËT

Sénateur Honoraire

Fondateur du Groupe de Prospective du Sénat


TIC
Information et Communication
Google déploie une nouvelle technologie contre la pédopornographie
Mardi, 26/11/2013 - 10:56

Le PDG de Google, Eric Schmidt, a annoncé, dans un article publié lundi 18 novembre par le quotidien britannique Daily Mail, la mise au point d'une nouvelle technologie visant à lutter contre la pornographie pédophile sur Internet.

Selon lui, la pédopornographie sera expurgée des résultats de plus de 100 000 types de recherche. Les restrictions s'appliqueront dans un premier temps aux pays de langue anglaise, puis s'étendront dans les six mois au reste du monde et à 158 autres langues.

Cette annonce est intervenue avant le sommet sur la sécurité de l'Internet qui vient de se tenir à Londres et qui a réuni notamment Google et Microsoft.

Selon Eric Schmidt, "Notre société n'arrivera sans doute jamais à éliminer une telle dépravation, mais nous devrions faire tout ce qui est en notre pouvoir pour protéger les enfants du mal". Dans le Daily Mail, il indique qu'au cours des trois derniers mois, Google a mobilisé plus de 200 salariés sur le développement de cette nouvelle technologie.

Google précise qu'il a "réglé Google Search avec précision pour empêcher de faire apparaître dans nos résultats les liens avec les abus sexuels infligés aux enfants". Cette nouvelle mesure a  permis de nettoyer les résultats de très nombreuses demandes potentiellement liées à des abus sexuels d'enfants."

Article rédigé par Georges Simmonds pour RT Flash

Daily Mail

^ Haut
Avenir
Nanotechnologies et Robotique
Les nanotechnologies s'imposent contre le crime
Mardi, 26/11/2013 - 11:05

Imaginez une scène de crime : la victime est retrouvée dans une mare de sang et à côté d'elle il y a une feuille de papier sur laquelle a été écrit un message confus avec des phrases qui se chevauchent et semblent avoir été écrites par plus d' une seule main.

Aujourd'hui, l'analyse d'une telle scène de crime complexe nécessite encore plusieurs jours de travail, voire plusieurs semaines. Il faut détecter les nombreuses empreintes présentes, collecter et analyser les échantillons de sang et de fluides biologiques, recueillir les traces d'ADN et analyser les substances chimiques présentes dans l'encre du message retrouvé sur place.

Mais dans un futur proche, comme l'explique Ian Turner, professeur de médecine légale à l'Université de Berby, "les enquêteurs pourront, en utilisant quasiment le même matériel qu'aujourd'hui, analyser en quelques minutes une scène de crime complexe en recourant aux outils existants de microfluidique, de nanotechnologie et d'informatique.

Les applications les plus avancées dans ce domaine concernent les empreintes digitales. En remplaçant les matériaux utilisés à l’heure actuelle pour révéler les empreintes digitales (tels que le noir de carbone ou la poudre de paillettes d'aluminium) par des nanoparticules permettant de gagner plusieurs ordres de grandeur en sensibilité, il deviendra possible d'identifier des empreintes digitales très anciennes ou très altérées, comme celles laissées sur les surfaces adhésives ou texturées.

Mais les nanotechnologies permettront d'aller encore plus loin et de révéler certaines informations cruciales, mais aujourd'hui inaccessibles, présentes dans les empreintes digitales identifiées. Par exemple, il deviendra possible d'identifier certains métabolites spécifiques contenus dans la sueur révélant  la consommation de produits stupéfiants.

Un autre outil va faire son entrée dans les technologies criminelles : le microscope à force atomique (AFM). Dans le cas de la scène de crime fictive que nous avons évoquée, ce puissant microscope capable de mesurer les forces exercées contre sa pointe très fine et les atomes de la surface à explorer pourrait permettre de déterminer dans quel ordre chronologique ont été écrites les différentes lignes. Ce même microscope pourrait également permettre d'évaluer avec une grande précision lors d'un crime en analysant les échantillons de sang recueilli sur place.

Récemment, une nouvelle nanotechnologie a été mise au point et permet, en utilisant un révélateur constitué de nanoparticules d'or,  l'analyse spectrographique par laser des échantillons d'urine et la détection de certaines substances et notamment des benzodiazépines, des molécules parfois utilisées par les violeurs pour endormir leurs victimes.

Il existe également depuis quelques mois un autre procédé utilisant un microfluidique et permettant d'identifier l'ADN d'un individu en 25 minutes (au lieu de plusieurs jours actuellement) en mesurant 13 régions particulières du génome.

Enfin, l'utilisation massive des nanotechnologies en criminologie et en médecine médico-légale devrait permettre de connaître très rapidement, et avec un haut niveau de fiabilité, les caractéristiques phénotypiques des propriétaires des ADN recueillies et analysées et notamment  la taille, l'origine géographique ou encore la couleur des yeux, de la peau ou des cheveux.

Article rédigé par Georges Simmonds pour RT Flash

The Guardian

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
L'huile de poisson diminue le risque de cancer de la prostate mais…
Jeudi, 28/11/2013 - 11:47

Selon une étude menée par l’Université de Californie-Los-Angeles (UCLA), l’huile de poisson maigre serait très bénéfique en prévention et en traitement du cancer de la prostate. Ce travail montre que cette substance aide à combattre la progression des cellules cancéreuses.

Cette étude a travaillé sur deux groupes : le premier astreint à un régime allégé en lipides, avec de l’huile de poisson maigre (15 % des calories viennent de lipides), le second suivant  un régime américain standard (40 % de calories viennent de lipides).

Pour évaluer l'impact biologique de ces différents régimes sur les cellules, le professeur Aronson, qui a dirigé ces travaux, a utilisé le score CCP, un outil qui permet d'analyser l’évolution des cellules, de leur naissance à leur division.

Cette méthode a permis d'observer que les hommes souffrant d'un cancer de la prostate et pratiquant un régime peu gras ont un score CCP moins élevé que ceux de l’autre groupe, ce qui montre que leurs cellules cancéreuses évoluent moins rapidement et que leur cancer a moins de risques d'être agressif.

Un régime faible en graisses et la consommation en compléments alimentaires d’huile de poisson aiderait donc à combattre le cancer de la prostate et permettrait également de réduire le risque.

Néanmoins, une autre étude récente, publiée en 2011, a montré pour sa part que le mécanisme par lequel les acides gras oméga-3 provenant du poisson modifient le risque de cancer de la prostate est plus complexe que prévu et qu’il n'était pas forcément souhaitable pour les hommes de consommer trop d’huile de poisson, notamment sous forme de compléments alimentaires.

Ces études récentes montrent donc que le meilleur compromis entre risque accru et effet protecteur en matière de cancer de la prostate semble être pour les hommes de consommer, soit une portion de 150 g de poisson maigre ou demi-gras (sole, cabillaud, merlan, thon), deux fois par semaine, soit une portion hebdomadaire de 150 g de poisson gras (saumon, hareng, sardines).

Article rédigé par Georges Simmonds pour RT Flash

Cancer Prevention Research

La flore intestinale : une alliée inattendue contre le cancer
Jeudi, 28/11/2013 - 11:36

Décidément, notre "Microbiote" (Flore intestinale) n'en finit pas de révéler son rôle majeur dans de multiples pathologies. Des chercheurs français de l'Institut Pasteur, de l'Inserm et de l'INRA, dirigés par Laurence Zitvogel, viennent ainsi de démontrer que les bactéries présentes en grand nombre dans notre intestin joueraient un rôle très important pour stimuler et mobiliser notre système immunitaire contre le cancer et rendre plus efficaces les traitements chimiothérapiques.

Pour parvenir à ces conclusions étonnantes, les chercheurs ont montré que la flore intestinale stimulait les réponses immunitaires pour combattre un cancer lors d'un traitement à base de cyclophosphamide (CTX), l'un des médicaments les plus utilisés en chimiothérapie contre les cancers du sein, les lymphomes et certains cancers du cerveau.

L'efficacité de ce médicament repose en partie sur sa capacité à entraîner le passage de certaines bactéries intestinales vers la circulation sanguine et les ganglions. Une fois dans les ganglions lymphatiques, ces bactéries (du groupe «Gram négatif») stimulent de nouvelles défenses immunitaires qui aident l'organisme à mieux combattre la tumeur cancéreuse.

La flore intestinale - ou «microbiote intestinal» -, composée de 100 000 milliards de bactéries, exerce des fonctions cruciales pour notre santé comme la dégradation des aliments ingérés pour une meilleure absorption intestinale et un métabolisme optimal.

Une fois dans la circulation, les bactéries provoquent une réaction de défense immunitaire, qui mène au recrutement de cellules, des lymphocytes T, différentes de celles mobilisées par la chimiothérapie. Comme le souligne Laurence Zivogel, "De façon surprenante, la réponse immunitaire dirigée contre ces bactéries va aider le patient à lutter encore mieux contre sa tumeur en stimulant de nouvelles défenses immunitaires".

Reste à présent à identifier l'ensemble des bactéries «bénéfiques» et à mettre au point des traitements à base de probiotiques qui puissent stimuler le système immunitaire des malades.

Article rédigé par Georges Simmonds pour RT Flash

Science Mag

Une nouvelle molécule contre le mélanome
Jeudi, 28/11/2013 - 11:22

Une équipe de recherche française, dirigée par le Docteur Caroline Robert (Institut Gustave Roussy, Villejuif) vient de présenter une nouvelle molécule d’immunothérapie, le MK-3475 (anti-PD-1), qui a donné des résultats prometteurs dans le traitement du mélanome.

Dans cette étude de phase 1, 135 patients atteints d’un mélanome métastatique ont été suivis et les premiers résultats montrent un taux de réponse tumorale global de 41 %.

Autre point positif : l’effet du MK-3475 perdure chez 88 % des patients répondeurs, avec un suivi médian de 14,5 mois. Ces réponses thérapeutiques ont été observées à la fois chez les patients ayant été pré-traités à l’ipilimumab (anti-CTLA4, autre molécule d’immunothérapie) et chez les patients ayant bénéficié d'un autre traitement.

L'étude précise que les effets secondaires observés (13 % des patients) restent contrôlables par l’arrêt ou la modification du traitement.

L'arivée de nouveaux traitements immunothérapiques est en train de bouleverser la prise en charge du mélanome avec métastases en permettant une meilleure élimination de la tumeur par les cellules du système immunitaire. Dans ce nouveau traitement, les anti-PD-1 (Programmed cell Death1) viennent se fixer sur les récepteurs PD-1 présents à la surface des lymphocytes T pour débloquer une réponse immunitaire spécifiquement orientée vers les cellules tumorales.

Article rédigé par Georges Simmonds pour RT Flash

Cancer Commons

La reconnaissance des visages est intimement liée au contexte social
Mercredi, 27/11/2013 - 14:49

On sait depuis longtemps que le contexte dans lequel nous reconnaissons un visage joue un rôle très important et que nous mettons plus de temps pour reconnaître quelqu'un dans un contexte inattendu qu'en situation prévisible. Mais il restait à savoir pourquoi. C'est à cette question qu'ont essayé de répondre des chercheurs britanniques de l'Université de Londres dirigés par Matthew A. J. Apps et Manos Tsakiris.

Ces scientifiques ont montré que deux processus cognitifs distincts étaient impliqués dans la reconnaissance faciale. Pour parvenir à ces conclusions, les scientifiques ont présenté à des volontaires des visages de gens qu’ils n'avaient jamais vus auparavant. Ils ont constaté que les participants parvenaient assez bien à reconnaître les visages vus à plusieurs reprises.

Mais les chercheurs ont également observé que cette capacité de reconnaissance dépendait étroitement du contexte dans lequel les participants avaient déjà vu ces visages. Il a notamment été constaté que lorsque les participants avaient vu successivement un grand nombre de visages inconnus, il leur était plus difficile de reconnaître un visage vu à plusieurs reprises et déjà reconnu auparavant.

L'observation du fonctionnement cérébral par imagerie des participants à cette expérience a montré qu'il existait une activité spécifique, au cours de cette reconnaissance faciale, dans 2 régions du cerveau : d'une part, le gyrus fusiforme, impliqué dans l’acquisition de nouvelles informations sur les visages et d'autre part, le sillon temporal supérieur, impliqué, lui, dans l'interprétation des émotions, qui tient essentiellement compte du contexte et non du fait que le visage observé soit connu ou non.

Ces recherches confirment à quel point le contexte relationnel et social joue un rôle important dans le déroulement des différents processus cognitifs.

Article rédigé par Georges Simmonds pour RT Flash

Nature

Les personnes à tendance dépressive présenteraient des risques de vieillissement accéléré
Mercredi, 27/11/2013 - 14:41

Selon une étude réalisée par des chercheurs néerlandais dirigés par Josine Verhoeven, de l'Université d'Amsterdam, des épisodes dépressifs répétés pourraient conduire à un vieillissement prématuré du cerveau et de l'organisme.

Pour parvenir à ces conclusions, les chercheurs ont travaillé sur une population de 2 407 volontaires âgés de 18 à 65 ans. Ces volontaires ont été répartis en trois groupes : le premier groupe était constitué de sujets dépressifs lors du commencement de l'étude, le second groupe comportait des personnes qui avaient déjà connu la dépression dans le passé mais qui étaient guéries et enfin, le troisième groupe rassemblait des sujets qui n'avaient jamais connu la dépression.

En s'appuyant sur l'analyse des cellules sanguines de ces volontaires, les chercheurs ont pu montrer que les personnes déprimées au moment de l'étude ou celles ayant connu par le passé un épisode dépressif présentaient des télomères sensiblement plus courts que les personnes n'ayant jamais connu de dépression. L'étude souligne que cette différence persiste après ajustement d'autres facteurs de risque, tels que la consommation de drogue, d'alcool et de tabac.

Ces travaux soulignent cependant que s'il existe apparemment une corrélation entre dépression et vieillissement cellulaire, on ne peut pas parler d'un véritable lien de causalité. L'étude souligne également "Qu'une question importante reste posée : celle de savoir si ce processus de vieillissement peut être inversé et si un changement de mode de vie est susceptible d'augmenter l'activité de la télomèrase, l'enzyme qui permet d'allonger les télomères en ajoutant des nucléotides à l'extrémité des chromosomes".

Pour Josine Verhoeven, "Un mode de vie sain, comportant notamment de l'exercice physique et une bonne alimentation, doit être systématiquement recommandé aux personnes à tendance dépressive".

Article rédigé par Georges Simmonds pour RT Flash

Live Science

Nature

La pratique d'un instrument de musique améliorerait les performances cognitives
Mercredi, 27/11/2013 - 14:28

Selon plusieurs études présentées récemment à l'occasion du Congrès annuel de l'association américaine des neurosciences qui vient de se tenir à San Diego, en Californie, la pratique d'une activité musicale pendant l'enfance aurait des effets réels et durables sur les performances de notre cerveau.

Une étude réalisée par le professeur Yunxin Wang, de l'Université de Pékin a montré, grâce à l'examen par imagerie médicale du cerveau de 48 Chinois âgés de 19 à 21 ans ayant suivi des cours de musique pendant au moins un an lorsqu'ils étaient enfants, que la pratique musicale précoce modifiait de manière structurelle le volume de matière grise du cerveau et avait un impact positif dans l'exécution des tâches cognitives complexes ainsi que dans l'acquisition des langues.

Une autre étude réalisée par des chercheurs suédois, et présentée à l'occasion du congrès, a par ailleurs montré, en s'appuyant sur l'analyse par imagerie du fonctionnement cérébral de 39 pianistes, que les aires cérébrales du lobe frontal de ces musiciens présentaient un plus haut niveau d'd'interconnexion que celui observé chez des sujets n'ayant aucune pratique musicale.

Article rédigé par Georges Simmonds pour RT Flash

SFN

Psych Central

Un risque cardio-vasculaire sensiblement accru pour les adolescents ayant eu un cancer dans l'enfance
Mardi, 26/11/2013 - 11:10

Selon une étude réalisée par Donald R. Dengel, professeur à l'Université du Minnesota et qui vient d'être révélée à l'occasion du dernier congrès de l'association américaine de cardiologie, les adolescents ayant eu un cancer au cours de leur enfance ont un risque accru de maladies cardio-vasculaires et nécessitent un suivi médical spécifique.

Ces recherches montrent que les adolescents ayant été traités pour un cancer lorsqu'ils étaient enfants présentent des modifications structurelles au niveau des vaisseaux et des artères qui constituent des facteurs de risque spécifique de développer des maladies cardio-vasculaires.

Pour arriver à ces conclusions, les chercheurs américains ont mesuré la rigidité et l'épaisseur des artères de 319 filles et garçons, âgés de 9 à 18 ans et ayant eu un cancer au moins cinq ans auparavant. Les scientifiques ont ensuite comparé ces résultats à ceux d'un groupe témoin, constituée par 200 adolescents qui n'avaient pas eu de cancer.

Cette comparaison montre que les enfants ayant été touchés par le cancer ont un risque sensiblement plus important de connaître des problèmes cardio-vasculaires ou artériels à l'adolescence et a fortiori à l'âge adulte.

L'étude suggère donc que ce risque spécifique soit pris en compte chez l'enfant dès la fin du traitement contre la maladie.

Article rédigé par Georges Simmonds pour RT Flash

AHA

Un risque accru de troubles du comportement pour les enfants exposés au tabac avant leur naissance
Samedi, 23/11/2013 - 08:20

Décidément, la liste des nombreux méfaits directs et indirects du tabac en matière de santé ne cesse de s'allonger. Après la découverte de l'ampleur des dégâts liés au tabagisme passif (sans doute responsable d'environ 5 000 morts par an dans notre Pays), une équipe de chercheurs britanniques vient de montrer que les futures mères qui continuent à fumer pendant leur grossesse augmentent sensiblement leurs risques d'avoir des enfants qui présenteront ultérieurement certains troubles du comportement.

Pour faire la part de manière rigoureuse entre les facteurs génétiques et les facteurs environnementaux, ces chercheurs de l’Université de Leicester ont analysé les conséquences du tabagisme maternel pendant la grossesse sur le comportement des enfants en comparant l'impact de cette consommation de tabac chez des enfants biologiques et chez des enfants adoptés, n'ayant aucun lien génétique avec leur famille d'accueil.

Après ajustement des différents facteurs de risque, l'étude montre qu'il existe bien une corrélation très nette, à la fois pour les enfants biologiques et les enfants adoptés, entre la consommation tabagique pendant la grossesse et les troubles ultérieurs du comportement chez les enfants.

Article rédigé par Georges Simmonds pour RT Flash

JAMA

Les bactéries magnétotactiques dévoilent leurs secrets
Samedi, 23/11/2013 - 08:10

Une équipe internationale de recherche associant le CEA et le CNRS est parvenue à déterminer la structure et la fonction d’une protéine impliquée dans la production de nano-aimants de magnétite chez les bactéries dites magnétotactiques.

Baptisée MamP, cette protéine confère à la magnétite ses propriétés d’aimant. On savait déjà que les bactéries magnétotactiques pouvaient synthétiser des nano-cristaux de magnétite leur permettant notamment de se repérer par rapport au champ magnétique de la Terre en utilisant ces cristaux comme nous le ferions avec une boussole.

Mais ces recherches ont permis de montrer pour la première fois que cette protéine MamP se caractérisait par une structure particulière appelée « magnétochrome », une structure qui n'existerait que chez les bactéries magnétotactiques.

Ces recherches fondamentales devraient permettre de mieux comprendre le processus complexe de biominéralisation du fer et de la synthèse de nano-aimants par ce type de bactéries magnétotactiques.

Cette découverte pourrait avoir des retombées économiques et industrielles nombreuses dans de multiples domaines. Il serait par exemple envisageable d'utiliser ce type de Nano aimants pour développer des systèmes d'imagerie médicale très performants.

On peut également imaginer que ces bactéries magnétotactiques, après modification par génie génétique, puissent s'attaquer de manière très efficace et très sélective à certains polluants très dangereux, avant d'être récupérées par voie magnétique.

Article rédigé par Georges Simmonds pour RT Flash

Nature

Sevrage alcoolique : un antiépileptique ouvre une nouvelle voie thérapeutique
Samedi, 23/11/2013 - 08:00

Des chercheurs américains du Scripps Research Institute, La Jolla, dirigés par le Professeur Mason, ont découvert qu'un antiépileptique utilisé pour combattre les douleurs neuropathiques, la  gabapentine, donnait des résultats très encourageants dans le sevrage alcoolique.

Pour parvenir à ces conclusions, ces scientifiques ont réalisé un essai de trois mois en double aveugle contre placebo sur 150 adultes alcoolo-dépendants qui recevaient chaque jour, soit 900 mg/j de gabapentine, soit 1800 mg/j, soit un placebo.

Au terme de l'essai, les chercheurs ont observé que 17 % des participants recevant 1800 mg par jour étaient restés abstinents, contre 11,1 % pour ceux prenant 900 mg par jour et seulement 4,1 % pour les sujets sous placebo. En outre, la gabapentine semble exercer un effet thérapeutique sur les symptômes dépressifs et les troubles du sommeil.

Le Professeur Mason souligne que "les bénéfices de la gabapentine sur le sevrage alcoolique sont au moins aussi importants que ceux des traitements déjà disponibles aux Etats-Unis et ce médicament est le seul traitement pour l'instant capable d'améliorer le sommeil et l'état dépressif des personnes qui arrêtent de boire".

Article rédigé par Georges Simmonds pour RT Flash

JAMA

L'abus de boissons sucrées augmenterait l'agressivité de certains enfants
Vendredi, 22/11/2013 - 15:23

Selon une étude américaine réalisée dans le cadre d’un programme intitulé : "Etude sur les familles fragiles et le bien-être des enfants", les boissons non alcoolisées sucrées -soft drinks- largement consommées par les enfants, pourraient augmenter le risque de troubles du comportement et de dépression chez ces enfants.

Selon ces recherches, l'importance de ces troubles augmenterait de manière proportionnelle à la consommation de ce type de boisson. L'étude a porté sur près de 5 000 enfants qui ont été suivis en matière de comportement (concentration, relations sociales et agressivité) de leur naissance jusqu'à l'âge de cinq ans.

Globalement, l'étude révèle que 43 % des enfants buvaient au moins une boisson de ce type quotidiennement et 4 % en buvaient tous les jours au moins quatre. Les chercheurs ont pu établir une nette corrélation entre le niveau de consommation de ce type de boissons par les enfants et la fréquence de comportements agressifs et asociaux.

De manière intéressante, ces résultats ne sont pas modifiés même après ajustement des différents facteurs qui participent également à ces troubles du comportement : niveau scolaire, situation familiale, consommation de télévision notamment.

D'autres études plus poussées seront cependant nécessaires pour essayer d'identifier plus précisément, parmi les nombreuses substances que contiennent ces types de boissons, quelles sont celles (aspartame, fructose, caféine) qui peuvent entraîner ces troubles importants du comportement chez les enfants.

Article rédigé par Georges Simmonds pour RT Flash

The Journal of Pediatrics

L'analyse du mouvement des yeux pour détecter précocement l'autisme
Vendredi, 22/11/2013 - 15:15

Deux chercheurs américains, Ami Klin et Warren Jones du Children's Healthcare of Atlanta et de l'Emory University à Atlanta, ont mis au point ou nouvel outil d'analyse du mouvement des yeux des très jeunes enfants qui permettrait de détecter de manière fiable l'autisme. C’est la première fois qu’un indicateur précoce et non clinique permet de déterminer le risque d’apparition de la maladie.

Il faut rappeler que la précocité de la prise en charge de l’autisme est un facteur très important qui augmente sensiblement les chances d'amélioration de l'état mental du patient. Mais jusqu'alors, il était admis qu'il était impossible d'établir un diagnostic fiable de ce trouble avant trois ans.

La nouvelle technique de dépistage mise au point par les chercheurs américains repose sur le suivi oculaire (eye tracking) qui permet l'analyse fine  des mouvements oculaires. Cette méthode permet de savoir très précisément à quel moment surviennent les « décrochages visuels » , un comportement qui révèle une des caractéristiques de l'autisme, le refus du lien relationnel et social.

Concrètement, cet outil permet de voir si le bébé, lorsqu'il est en relation avec une personne qui communique avec lui, regarde une région particulière de son visage ou préfère regarder des objets situés à proximité.

Dans ces travaux, les scientifiques ont travaillé sur deux groupes d'une cinquantaine d'enfants de 2 mois à 2 ans. Le premier groupe comportait des enfants ayant déjà un frère ou une sœur autiste et donc ayant eux-mêmes un risque important de développer ce trouble. L'autre groupe regroupait des enfants n'ayant aucun autiste parmi leurs proches et présentant un faible risque de développer cette pathologie.

Grâce à cette méthode, le diagnostic d'autisme a pu être confirmé chez 13 enfants à 3 ans. Mais ces recherches ont également permis de découvrir un autre fait très intéressant : les enfants diagnostiqués autistes présentaient tous, jusqu'à l'âge de six mois, une attention visuelle normale qui s'est ensuite dégradée. Cela signifie qu'il serait possible, en théorie, d'envisager une prise en charge encore plus précoce des jeunes enfants présentant un fort risque d'autisme.

Article rédigé par Georges Simmonds pour RT Flash

The New York Times

Nature

Comment le monoxyde d'azote produit par les globules rouges protège le cœur !
Vendredi, 22/11/2013 - 15:06

Des chercheurs de l'Institut Karolinska ont montré que les globules rouges jouent un rôle important en matière de protection du cœur contre l'infarctus du myocarde en produisant du monoxyde d'azote.

Le monoxyde d'azote (NO) est une molécule libérée principalement par les cellules endothéliales, les cellules hépatiques, les neurones et également les globules rouges. Cette molécule polyvalente joue un rôle important, bien que longtemps sous-estimé, dans le métabolisme cellulaire et la transmission de l'influx nerveux. Une variété particulière de globules blancs, les macrophages, produisent également du monoxyde d'azote pour détruire certains agents pathogènes.

Cette étude s'est plus particulièrement focalisée sur la fonction vasodilatatrice du NO. On sait en effet que l'endothélium des vaisseaux sanguins utilise du NO pour provoquer une puissante vasodilatation ainsi qu'une augmentation du débit sanguin dans les artères coronaires, ce qui diminue très sensiblement le risque de caillots sanguins.

Mais les chercheurs suédois ont découvert que les globules rouges, chez l'animal et chez l'homme, sont capables de produire du NO grâce au mécanisme de régulation de l'arginase. Ces scientifiques ont notamment montré que ce monoxyde d'azote produit par les globules rouges bloquait l'arginase, une action qui réduit notablement le risque d'infarctus du myocarde.

"Nos travaux montrent clairement et pour la première fois que les globules rouges possèdent l'étonnante propriété de produire et de libérer du NO pour bloquer le mécanisme de l'arginase et cette découverte devrait nous permettre de mieux comprendre les causes d'infarctus du myocarde", souligne le professeur John Pernow, responsable de cette étude.

Article rédigé par Georges Simmonds pour RT Flash

Karolinska Institutet

PNAs

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top