RTFlash

RTFLASH Recherche & Technologie
NUMERO 811
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 04 Septembre 2015
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
Avenir
HSR le robot d'assistance à la personne de Toyota
Vivant
Eczéma : bientôt un traitement efficace ?
Autisme : un lien entre intolérance chimique chez les mères et autisme
Cancer du sein : cinq heures de sport par semaine pourraient prévenir la maladie
Une gélule filoguidée pour détecter le cancer de la gorge ?
La France en pointe dans le traitement chirurgical du cancer du rein
Généralisation des gels anti-bactériens : les chercheurs tirent la sonnette d'alarme
Le bruit des voitures pourrait augmenter la mortalité
Vers un vaccin contre Helicobacter pylori
Nous sommes inégaux face au vieillissement
Découverte d'une molécule qui accélère le déclin cognitif
Recherche
Ford prépare un nouveau système d'éclairage intelligent
Edito
Climat : où en est-on trois mois avant la conférence internationale décisive de Paris ?



Alors que dans trois mois aura lieu à Paris la conférence mondiale décisive sur le climat « COP21 » qui doit fixer le nouveau cadre d’action contre le réchauffement climatique, les états et gouvernements commencent à se mobiliser et à dévoiler leurs intentions.

Le 8 juin dernier, à l’issue du sommet du G7 en Bavière, les dirigeants des sept pays-membres ont fait savoir qu'ils réclamaient une diminution importante des émissions de CO2 au cours de ce siècle. Concrètement, les sept puissances mondiales se sont engagées, "dans le haut de la fourchette", pour une réduction des émissions de 40 % à 70 % d'ici à 2050, par rapport à 2010. Cet objectif est censé correspondre à une réponse mondiale au changement climatique. 

Mais en calculant les « contributions nationales » annoncées au cours des derniers mois, l’organisme scientifique Climate Action Tracker en arrive à une conclusion beaucoup moins optimiste : les objectifs annoncés devraient repousser l’atteinte d’une hausse de 2°C, par rapport à l’ère préindustrielle, d’à peine deux ans.

Cet organisme indépendant estime en effet que la planète atteindra le point limite du réchauffement fixé par la communauté internationale pour le présent siècle dès 2038. Sans les engagements pris par un total de 36 États depuis le début de l’année, la barre des 2°C serait franchie en 2036. Dans ce contexte, l'attitude des principaux pays pollueurs que sont la Chine, l’Inde, la Russie ou le Brésil sera donc décisive. Il faut en effet rappeler que les pays du G7 (États-Unis, Canada, Japon, France, Allemagne, Italie, Royaume-Uni) ne représentent plus que le quart des émissions de GES. 

L’Agence internationale de l’énergie (AIE) confirme ce scénario et, dans un rapport publié le 15 juin dernier, elle dresse un premier bilan éclairant des contributions nationales à la COP21 (Voir IEA).

Selon ce travail, si aucune mesure plus forte n’est prise après 2030, le monde va vers une augmentation moyenne de la température de 2,6°C d'ici 2100, et de 3,5°C d'ici 2200. 

Dans la perspective de la COP 21 de Décembre prochain, l’AIE propose pour sa part que la communauté internationale s’engage à stabiliser ses émissions dès 2020, avant d’engager leur diminution. L’Agence souligne avec force que cet objectif peut être atteint sans révolutions technologiques majeures mais en portant l’effort sur l’efficacité énergétique et le développement des, énergies renouvelables. 

Au niveau économique, un consensus de plus en plus fort se dégage pour diminuer puis supprimer les subventions à la production et à la consommation d’énergies fossiles. Un récent rapport du FMI estime le montant total de ces subventions à 5 600 milliards de dollars, soit 7 % du Produit mondial brut. L’argent ainsi dégagé pourrait notamment permettre d’augmenter les investissements en faveur des énergies renouvelables qui devraient atteindre les 400 Md$/an (365,5 Md€) à l’horizon 2030, contre 270 en 2014.

L’AIE préconise par ailleurs de réduire l’utilisation des centrales au charbon à faible rendement avant d’interdire la construction de nouvelles installations. Actuellement, le rendement moyen de ces centrales tourne autour de 33 % : chaque mégawattheure ainsi produit émet 1,6 tonne de CO2.

Les centrales de nouvelle génération, dites ultra-supercritiques, atteignent un meilleur rendement (45 %) et cela diminue sensiblement la pollution induite par une centrale à charbon puisqu’un mégawattheure n’émet plus que 0,7 tonne de CO2. Si l’ensemble de la production électrique à partir du charbon utilisait cette nouvelle technologie, cela permettrait d’éviter le rejet de deux milliards de tonnes de CO2 par an, soit l’équivalent des émissions annuelles de l’Inde…

Pendant ce temps, le réchauffement climatique poursuit son inexorable progression : les derniers relevés mondiaux de température indiquent une élévation moyenne de 0,75°C de la température mondiale pour le mois de juillet, par rapport à la moyenne calculée sur la période 1951-1980. Cette élévation est sans précédent depuis 136 ans ! Si l’on considère la période qui va d’août 2000 à juillet 2015, l’écart par rapport à la moyenne s’élève à 0,80° centigrades. 

C’est dans ce contexte pour le moins alarmant qu’une étude de l’institut Grantham publiée il y a quelques semaines confirme que l’ensemble des engagements des promesses de réduction des émissions de gaz à effet de serre des principaux pays de la planète ne suffiront pas pour limiter à 2°C le réchauffement planétaire.

En effet, si ces engagements qui serviront de base aux négociations lors de la conférence de décembre prochain sont effectivement mis en œuvre, les émissions mondiales continueront d’augmenter pour atteindre 60 gigatonnes en 2030 (contre 50 gigatonnes en 2014). Or pour avoir de bonnes chances de limiter à 2°C le réchauffement climatique mondial, les émissions de CO2 doivent impérativement descendre à moins de 36 gigatonnes à l’horizon 2030. 

Le climatologue de réputation mondiale Jean Jouzel confirme la gravité de la situation en rappelant que l’Humanité doit réduire au moins de moitié ses émissions de gaz à effet de serre d’ici le milieu de ce siècle, ce qui suppose que chaque terrien devra diviser en moyenne par 2,5 ses émissions de CO2 d’ici 2050, compte tenu de la progression démographique mondiale. Cette réduction drastique des émissions anthropiques de CO2 est d’autant plus impérieuse que de récents travaux ont montré que la capacité d’absorption du carbone par les océans et les forêts tropicales (qui absorbent ensemble et stockent environ 60 % du CO2) avait atteint ses limites et avait même probablement diminué d’environ 10 % au cours du dernier demi-siècle. 

Et pourtant, l’équation climatique et énergétique est à présent bien cernée et elle est imparable : comme l’a montré l’AIE qui rappelle dans son étude World Energy Outlook 2012, que l’Humanité doit absolument laisser dans le sol plus des deux tiers des réserves prouvées de combustibles fossiles pour avoir une bonne chance de limiter le réchauffement global à deux degrés. Cette étude est très claire et rappelle que « notre consommation, d'ici à 2050, ne devra pas représenter plus d'un tiers des réserves prouvées de combustibles fossiles afin de ne pas dépasser les 2°C de réchauffement global maximal d'ici la fin du siècle ». 

Pour en arriver à cette conclusion, l’AIE a repris les travaux du Potsdam Institute for Climate Impact Research qui ont montré qu’il ne fallait pas émettre plus de 565 gigatonnes de CO2 ou équivalents CO2 d'ici à 2050 pour avoir quatre chances sur cinq de ne pas dépasser la barre fatidique des 2°C. Or, la combustion de toutes les réserves prouvées de pétrole, charbon et gaz de la planète engendrerait 2 795 gigatonnes de CO2, soit cinq fois plus.

Cela signifie que 80 % des réserves d'énergies fossiles actuelles ne doivent pas être extraites et consommées si l'on veut respecter les objectifs de stabilisation du climat fixés par la communauté internationale. 

Ce constat de l’AIE est globalement partagé par l’OCDE qui souligne, dans un récent  rapport intitulé « adapter les politiques à une économie à faible intensité carbone » (Voir Rapport) que les Etats ont des politiques énergétique qui manquent de cohérences et de vision à long terme : ils cherchent à introduire un prix sur le carbone mais, dans le même temps, ces états consacrent encore aux énergies fossiles les deux tiers des investissements réalisés dans le secteur énergétique.

Ce rapport confirme également que « La consommation de combustibles fossiles par l'industrie, pour la production d'électricité ou le chauffage, « est très peu taxée au regard de leurs émissions de CO2 ». Autre incohérence, un tiers de la production agricole vivrière produite annuellement est perdu et n’arrive pas jusqu’au consommateur final. Eviter ce gaspillage permettrait donc de réduire sensiblement la part mondiale des émissions de CO2 provenant de ce secteur d'activité, qui s’élève aujourd’hui à plus de 25 %. 

Les travaux de l’OCDE montrent également que la part d'argent public injecté dans la R&D dans le domaine énergétique a été divisée par trois depuis 1985 et cet organisme souligne que sans un prix fort du carbone, on ne parviendra pas à décourager l'investissement dans les combustibles fossiles. "La tonne de CO2 qui ne vaut que 8 euros, devrait coûter 40 euros pour décourager le charbon au profit du gaz », souligne ce rapport.

L’OCDE rappelle qu’investir dans des infrastructures faiblement carbonées est une nécessité absolue pour contenir la hausse du réchauffement climatique dans la limite acceptable des 2°C. Pour atteindre cet objectif, l’OCDE préconise d’actionner simultanément quatre leviers principaux : alourdissement des coûts d’émission de gaz à effet de serre, fin des subventions à la consommation d’hydrocarbures et de charbon, incitations fiscales spécifiques en faveur des technologies propres et bien sûr hausse des objectifs nationaux et mondiaux de réduction des émissions de GES.

Comme le souligne avec conviction Robert Stiglitz, Prix Nobel d’économie, la lutte contre le réchauffement climatique peut en outre à la fois renforcer l’économie mondiale, accélérer la sortie de crise et réduire les inégalités sociales. Cet économiste réputé pense qu’il faut dépasser l’approche du protocole de Kyoto, qui était fondé sur des mécanismes de marché carbone, l’allocation des droits d’émissions et des objectifs de réduction basés sur des niveaux antérieurs d’émissions.

Il propose, pour atteindre l’objectif des 2°C de réchauffement par rapport au niveau préindustriel, de mettre en place progressivement une tarification mondiale du carbone, que chaque pays pourrait mettre en œuvre sur son territoire comme il l’entend : par des réglementations contraignantes, par un marché d’émissions ou par une taxe carbone… Stiglitz propose également la mise en place d’une taxe carbone aux frontières, afin que les pays fassent payer le coût en carbone des biens qu’ils importent.

Une partie des sommes récoltées par ce mécanisme pourrait notamment alimenter le Fonds vert, à destination des pays en développement. Dans ce système global et cohérent, les pays qui voudraient rester à l’écart de cet effort de réduction des émissions verraient leurs produits taxés aux frontières, en fonction de leur coût excessif en carbone.

Pascal Canfin, Conseiller du World Resources Institute, est d’accord avec cette nouvelle approche et propose, pour sa part, la constitution d’un club de pays volontaires, -ceux qui taxent déjà les émissions de CO2 ou qui ont ouvert un marché de quotas d’émissions - ayant la volonté de faire converger les prix entre 14 et 18 € la tonne, en 2020, puis 54 à 72 € en 2030. Mais pour lui, ce signal prix ne sera jamais intégré à un accord international et doit donc être négocié de manière spécifique.

Dans un article publié il y a quelques jours, Michel Barnier rappelle pour sa part à juste titre que pour être efficace le prix du carbone devrait se situer dès maintenant autour de 25 à 30 euros, alors que ce prix se maintient depuis 2012 à moins de 8 euros, ce qui incite notamment l’Allemagne, qui possède quatre des cinq centrales à base de charbon les plus polluantes en Europe, à accroître sa production d'électricité à base de charbon.

Michel Barnier souligne également avec beaucoup de bon sens que le marché du carbone n'a aucune utilité s'il ne garantit pas un niveau de prix élevé afin de décourager les activités et les technologies les plus polluantes et de donner aux entreprises une « visibilité » à long terme suffisante en matière d’investissements. L’ancien Commissaire européen propose que l’Europe s’engage dès à présent en faveur d’une taxe-carbone aux frontières, taxe qui viendrait se substituer au système européen d’échanges de quotas d’émissions qui a montré ses limites et ses insuffisances en dépit de plusieurs tentatives de réformes… 

Un autre instrument innovant pourrait jouer un rôle non négligeable dans cette lutte globale contre les émissions de carbone : le compte épargne CO2. Il s’agit d’une solution d'épargne originale, qui permet de calculer ses émissions de dioxyde de carbone puis de mettre de côté les émissions non émises. Le compte épargne est crédité en kilos de CO2, pour chaque démarche tendant à économiser du dioxyde de carbone. Promu en France par la start-up brestoise « 450 », le compte épargne CO2 permet de transformer en espèces sonnantes et trébuchantes ses kilos de CO2 non émis, en les revendant à des entreprises, qui compensent alors leur propre bilan carbone. Le compte épargne permet aussi, lorsque des CO2 ont été économisés, de bénéficier de chèques pour faciliter certains achats.

Mais la réduction massive des émissions de GES et la lutte contre le changement climatique passe également par un développement considérable et une diversification des sources d’énergies renouvelables. A cet égard, une étude publiée en juin dernier dans la revue Energy and Environmental Science balaie certaines idées reçues.

Cette étude très sérieuse, menée par l'équipe de Mark Jacobson, Professeur d'ingénierie civile et environnementale à l'Université de Stanford, montre en effet qu’il est possible de couvrir complètement les besoins énergétiques aux Etats-Unis à partir d'énergies renouvelables à l'horizon 2050 (Voir Stanford).

L'étude de Mark Jacobson se trouve confortée par un rapport publié en juin 2015 par le Brattle Group, entreprise d'expertise et de conseil, et commandé par The Advanced Energy Economy Institute en réponse aux commentaires de la North American Reliability Corporation (NERC) qui estimait au début de l'année que le Clean Power Plan de l'administration Obama pourrait menacer la sécurité énergétique du pays en favorisant l'utilisation des énergies renouvelables.

Ce rapport souligne, en s’appuyant sur des exemples concrets, qu'il est aujourd'hui possible d'intégrer massivement sur le réseau électrique américain les énergies renouvelables sans que cela nuise à la fiabilité et la sécurité énergétique. Mais Mark Jacobson estime que cette révolution ne pourra pas se faire sans une volonté politique forte.

Ce basculement massif vers les énergies renouvelables pourrait être bien plus rapide que prévu non seulement à cause de l’efficacité et de la rentabilité accrue de ces sources d’énergie - qui deviendront globalement compétitives par rapport aux énergies fossiles au cours de la prochaine décennie - mais également grâce à une percée techno-industrielle majeure en matière de stockage et de régulation, dont on ne mesure pas encore toutes les potentialités considérables : le « Power to Gas » (PtG).

Cette technologie, à présent bien maîtrisée, permet de transformer et de stocker à très grande échelle l'excédent d'énergie renouvelable sous forme d’hydrogène ou en méthane de synthèse qui peuvent, sans difficultés majeures, être injectés dans le réseau de gaz naturel afin de ne pas gaspiller le surplus. Des démonstrateurs voient le jour un peu partout dans le monde, principalement en Europe, en pointe sur cette technologie. L'Allemagne est ainsi dotée de 18 pilotes à ce jour, dans des secteurs aussi variés que les transports, le logement ou encore l'industrie.

En France, l'Agence de l'Environnement et de la Maîtrise de l'Energie (ADEME) a publié en avril 2015 un rapport fournissant des recommandations sur la manière dont le pays pourrait avoir 100 % de son énergie provenant de l'énergie verte d'ici 2050. Selon l'ADEME, un tel objectif est tout à fait réaliste car le « gisement » exploitable de production d'énergies renouvelables est de l’ordre de 1268 Terrawattsheure (TWh) en France, pour une consommation moyenne annuelle d’environ 480 TWh. Le scénario proposé par l'ADEME implique cependant l'implantation de 46000 nouvelles éoliennes terrestres, 5000 éoliennes de mer et de nombreuses centrales solaires au sol. Mais le plus étonnant est que le coût de ce basculement vers le tout renouvelable, dans le scenario qui privilégie l’éolien terrestre, ne serait pas beaucoup plus élevé que le prix actuel de l'énergie : 119€/MWh, à comparer avec 91/MWh aujourd'hui…

A ceux qui s’inquiètent du coût excessif de la transition énergétique en France, il faut par ailleurs rappeler que, dans son rapport du 15 juillet dernier, intitulé « Pollution de l’air : le coût de l’inaction » la commission d’enquête du Sénat estime que la pollution de l’air coûterait plus de 100 milliards d’euros par an à la France, en dépenses de santé, absentéisme dans les entreprises, ou baisse des rendements agricoles. Le passage sur 20 ou 25 ans à un système de production d’énergie très largement décarbonée pourrait donc au final avoir un coût collectif négatif, si l’on soustrait le coût sanitaire et environnemental considérable lié à l’utilisation énergétique des énergies fossiles et si l’on tient compte également des nombreux emplois qui pourraient être créés dans ce secteur stratégique.

Mais il faut bien comprendre que la transition énergétique massive vers les énergies propres et décarbonées, pour indispensable qu’elle soit, ne représente au mieux qu’un tiers de l’immense défi planétaire qui nous attend. Le deuxième tiers de ce défi mondial est celui du doublement de l’efficacité énergétique de notre système économique et social, dans les domaines de la production, des transports et du chauffage des bâtiments. Il s’agit en effet de proposer au consommateur final plus de services et plus de confort en consommant toujours moins d’énergie, ce qui est à présent possible, en combinant les technologies numériques, l’emploi des nouveaux matériaux intelligents et les nanotechnologies.

Enfin, le dernier tiers, mais non le moindre, concerne la réorganisation et la réorientation des activités agricoles et la reforestation qui peuvent permettre, pour un coût global modeste, de lutter de manière très efficace à la fois contre le changement climatique et les inégalités d’accès aux ressources alimentaires, ces deux défis étant intimement liés.

Si nous savons adopter cette vision globale et multidimensionnelle, inscrire notre action dans la durée, faire preuve d’audace et d’imagination et nous affranchir des dogmes et des idéologies du passé qui nous empêchent trop souvent de penser la complexité du monde qui est en train de naître sous nos yeux, je suis certain que nous parviendrons à accomplir d’ici le milieu de ce siècle cette mutation historique sans précédent qui transformera notre civilisation et nous permettra de laisser à nos descendants un monde plus propre mais également plus prospère et plus juste.

René TRÉGOUËT

Sénateur honoraire

Fondateur du Groupe de Prospective du Sénat


Avenir
Nanotechnologies et Robotique
HSR le robot d'assistance à la personne de Toyota
Jeudi, 03/09/2015 - 14:54

Selon l’Organisation Mondiale de la Santé, d’ici 2050, plus de 22 % de la population mondiale sera âgée d’au moins 60 ans. Au Japon, la situation est encore plus préoccupante, puisque selon l’OMS, d’ici 2060, c’est près de 40 % de la population qui aura passé le seuil des 65 ans.

Pour prendre en charge cette population vieillissante de plus en plus nombreuse, Toyota mise sur les robots. C’est la raison pour laquelle l’entreprise japonaise a dévoilé son robot d’assistance, appelé Human Support Robot, pour Robot d’Assistance à la Personne. Conçu pour ramasser des objets à terre ou sur des étagères élevées, HSR peut également servir de robot de téléprésence grâce à un emplacement pour une tablette sur sa tête.

HSR est un robot pesant un peu plus de 30 kilos. Son corps télescopique lui permet de mesurer entre 80 cm et 1 mètre 30. Il possède de plus un bras de 70 cm, terminé par une main à deux doigts, qui se replie, lorsqu’il n’est pas utilisé, contre le corps du robot. HSR est capable de soulever jusqu’à 1,2 kilo et de se déplacer à une vitesse de 80 centimètres par seconde. Il peut en outre se déplacer sur un terrain inégal et passer au-dessus d’une bosse de 7 millimètres, soit assez pour passer d’un plancher à un tapis.

HSR est équipé d’un capteur Prosense et de caméras stéréo, ce qui lui permettrait d’avoir un sens de la profondeur et de pouvoir identifier des personnes et des objets. Toyota conduit des tests cliniques avec HSR dans le centre de réhabilitation de Yokohama depuis 2011.

Article rédigé par Georges Simmonds pour RT Flash

Digital Trends

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Eczéma : bientôt un traitement efficace ?
Jeudi, 03/09/2015 - 18:41

L’eczéma, encore appelé dermatite atopique, reste une maladie de peau déroutante qui touche près de 15 millions de Français. Actuellement, il n’existe aucun traitement efficace pour en guérir totalement. Mais cette situation pourrait changer, selon une étude américaine réalisée par des chercheurs de l’école de médecine de l’Université de Yale.

Ceux-ci ont découvert qu'un traitement, utilisé actuellement pour traiter l’arthrite rhumatoïde, le citrate de tofacitinib, pourrait guérir ou améliorer sensiblement en inhibant la réponse immunitaire à l’origine de cette affection.

Six patients atteints d’eczéma modéré et sévère, qui ne répondaient pas aux thérapies conventionnelles, ont vu une amélioration spectaculaire de leur état grâce à ce traitement. Les plaques et rougeurs sur la peau ont diminué considérablement. « Ces patients étaient non seulement ravis des résultats mais ont également exprimé le sentiment d'être bien dans leur peau pour la première fois depuis longtemps », commente l’auteur principal.

Ce médicament est donc porteur d’espoir pour de nombreuses personnes. Il a d’ailleurs déjà montré son efficacité pour soigner le vitiligo, une autre maladie de la peau, et la calvitie. La prochaine étape des chercheurs est de vérifier sur le long terme l’efficacité et l’innocuité du traitement.

Article rédigé par Georges Simmonds pour RT Flash

JAAD

Autisme : un lien entre intolérance chimique chez les mères et autisme
Jeudi, 03/09/2015 - 18:25

Des chercheurs américains de l’Université de Texas Health Science Center de San Antonio ont montré que les mères souffrant d’intolérances chimiques sont deux à trois fois plus susceptibles que les autres femmes d’avoir un enfant atteint de troubles autistiques ou d’hyperactivité.

Selon ces recherches, menées par la professeure Lynne P. Heilbrun, l’intoxication chimique affecte environ 10 à 30 % de la population américaine. En outre, les troubles de l’autisme et de l’attention (hyperactivité) concernent 1 enfant sur 6. Les produits concernés par l’intolérance sont les médicaments, mais aussi les pesticides, l’essence, les gaz d’échappement des moteurs, les composants des peintures et des vernis à ongles…

Les résultats de ces travaux montrent que les mères chimiquement intolérantes sont trois fois plus susceptibles d’avoir un enfant atteint d’autisme et ont 2 à 3 fois plus de risques d’avoir un enfant souffrant d’hyperactivité. Pour parvenir à ces conclusions, l’étude a rassemblé 282 mères d’enfants autistes, 258 mères d’enfants diagnostiqués hyperactifs et 154 mères d’enfants n'ayant aucun trouble (groupe témoin). Toutes ont dû remplir un questionnaire de 50 questions, le "QEESI" utilisé par les médecins du monde entier pour diagnostiquer l’intolérance chimique.

Ces recherches ont par ailleurs montré que les enfants autistes et hyperactifs étaient plus fragiles que la moyenne. Ceux atteints d’hyperactivité avaient 1,7 fois plus de risques que les enfants du groupe témoin d’avoir des infections et 2 fois plus d’avoir des allergies, des nausées, des maux de tête, des étourdissements ou une difficulté à respirer.

Article rédigé par Georges Simmonds pour RT Flash

JABFM

Cancer du sein : cinq heures de sport par semaine pourraient prévenir la maladie
Jeudi, 03/09/2015 - 18:13

Une étude réalisée par des chercheurs de l’Alberta Health Services à Edmonton (Canada) a montré que le fait de doubler la durée hebdomadaire d’activité physique pour une femme ménopausée pourrait lui permettre de mieux prévenir le risque de cancer du sein. Ces travaux ont également montré que le taux de graisse corporelle était associé à un risque accru de développer un cancer du sein après la ménopause.

Les résultats de leur étude confirment que le fait de passer de 150 à 300 minutes de sport par semaine (soit 5 heures) réduit la masse graisseuse et diminue les risques de cancer du sein. "Nos travaux confirment le lien entre l’activité physique des femmes ménopausées et risques de développer un cancer du sein" souligne le Professeur Christine Friedenreich, qui a dirigé ces recherches. "Notre étude nous fournit donc des éléments pour encourager les femmes ménopausées à faire au moins 300 minutes d’activités sportives par semaine".

Article rédigé par Georges Simmonds

JAMA

Une gélule filoguidée pour détecter le cancer de la gorge ?
Jeudi, 03/09/2015 - 15:22

Des chercheurs britanniques de l'Université de Cambridge ont conçu une gélule filoguidée qui a montré son efficacité pour déceler les premiers signes de cancer de la gorge et permettrait d'éviter le recours à la biopsie. Une fois ingérée, la gélule se dissout en éponge à même de recueillir des cellules de la gorge. L'un des premiers symptômes du cancer de la gorge est en effet que l'œsophage se tapisse de cellules anormales.

Les chercheurs ont collecté 73 échantillons de patients cancéreux sur une période de trois ans avec ce procédé. Moins invasif qu'une biopsie, la gélule au bout d'un fil serait aussi plus efficace car l'éponge balaye entièrement le fond de la gorge alors que la biopsie opère un prélèvement ciblé. En dépistant plus précocement le cancer, le traitement peut commencer plut tôt.

Article rédigé par Georges Simmonds pour RT Flash

Cambridge

La France en pointe dans le traitement chirurgical du cancer du rein
Jeudi, 03/09/2015 - 15:17

Les équipes du CHU d’Angers ont réalisé la 1ère néphrectomie (ablation) partielle du rein avec occlusion hypersélective des vaisseaux irriguant la tumeur par voie endovasculaire.

L’intervention d’une durée d’environ une heure et demie au lieu des trois à quatre heures nécessaires habituellement, s’est déroulée dans la nouvelle salle hybride de l’établissement. Le patient qui a bénéficié de cette technique novatrice a pu sortir 2 jours après l’intervention sans aucune complication hémorragique et sa santé est tout à fait satisfaisante.

Cette technique a permis de réduire les pertes sanguines, les douleurs post-opératoires et la durée d’hospitalisation. Réalisée sous cœlioscopie, l’intervention consiste à introduire des « pinces » à travers de petites incisions cutanées, sans ouvrir la paroi abdominale afin de prélever une partie du rein (néphrectomie partielle). Pour limiter l’afflux de sang pendant cette incision, le chirurgien clampe l’artère reliée au rein en pinçant le principal vaisseau sanguin qui alimente l’organe.

Cette interruption momentanée peut faire souffrir le rein ; prolongée, elle peut provoquer des anomalies parfois définitives de la fonction rénale. Une fois la tumeur retirée, le chirurgien suture les petits vaisseaux qui irriguaient jusqu’alors les tissus. Cette étape complexe nécessite fréquemment de faire basculer la coelioscopie vers une chirurgie à ciel ouvert, avec une incision dans l’abdomen.

Pour contourner cet obstacle, les Docteur Pierre Bigot, de l’équipe du Professeur Abdel-Rahmene Azzouzi (chirurgie urologique) et Docteur Antoine Bouvier de l’équipe du Professeur Christophe Aubé (radiologie interventionnelle) du CHU d’Angers ont combiné leurs compétences et imaginé une solution thérapeutique inédite à l’échelle mondiale.

Cette technique s’effectue en deux temps au cours d’une seule et même intervention de néphrectomie rénale. Juste avant l’ablation de la tumeur, le radiologue interventionnel cathétérise l’artère rénale puis embolise, de l’intérieur, les vaisseaux sanguins alimentant la tumeur, tout en respectant les autres vaisseaux. Ainsi, seule la partie du rein à extraire sera dévascularisée. Le chirurgien ne touche pas à l’artère rénale. Le reste du rein continue d’être vascularisé, l’organe est préservé de façon optimale et le risque hémorragique est maîtrisé.

Cette technique a été rendue possible grâce à la salle hybride du CHU d’Angers et à sa très haute qualité d’imagerie. Pour ces gestes, un travail de fusion des images scanner est réalisé en amont, afin de repérer les vaisseaux à emprunter. Des images radiologiques 3D permettent au radiologue interventionnel d’effectuer une cartographie artérielle du rein et un repérage optimal de la tumeur.

Article rédigé par Georges Simmonds pour RT Flash

CHU Angers

Généralisation des gels anti-bactériens : les chercheurs tirent la sonnette d'alarme
Jeudi, 03/09/2015 - 15:10

Un nombre croissant de Français a pris l'habitude de se laver les mains avec un gel hydro-alcoolique, que ce soit en sortant des transports, à la pause-déjeuner ou encore au retour des toilettes.

Mais une étude menée par des chercheurs de l'Université du Missouri (Etats-Unis) a permis de découvrir que les gels anti-bactériens pourraient augmenter l'absorption de Bisphénol A par la peau, une molécule soupçonnée d'être un perturbateur endocrinien. Cette étude parue dans la revue médicale Plos One révèle que son utilisation régulière (hormis ceux utilisés en milieu hospitalier) pourrait avoir des effets néfastes pour la santé sur le long terme. De précédents travaux avaient déjà montré qu'un usage régulier et prolongé de certains agents contenus dans les gels anti-bactériens (le triclosan et le triclobarban) pourrait déclencher une résistance bactérienne ou même provoquer des dérèglements hormonaux.

Parmi les effets néfastes possibles du Bisphénol A, on observe notamment une dégradation de la qualité et de la quantité du sperme chez l'homme. Il serait également à l'origine de fausses couches. En 2013, l'association de médecins Santé environnement France avait déjà alerté sur les dangers de l'utilisation de ces gels, en rappelant qu'un lavage soigné des mains avec de l'eau et du savon était aussi efficace que l'utilisation d'un gel antibactérien.

Article rédigé par Georges Simmonds pour RT Flash

PLOS

Le bruit des voitures pourrait augmenter la mortalité
Jeudi, 03/09/2015 - 15:01

Des chercheurs de l'Université d'Oxford ont examiné les effets de l'exposition à long terme au bruit du trafic routier. Ils ont comparé la fréquence des séjours à l'hôpital entre une population londonienne particulièrement exposée et la population globale et ont essayé de mesurer le risque de mort anticipée en cas d'exposition accrue au bruit.

Résultat : il existe une corrélation entre l'exposition au trafic intense à certaines heures et des admissions à l'hôpital pour des troubles cardiovasculaires.

Autre constatation : un lien a aussi été observé entre cette exposition au bruit et une mortalité précoce liée à des troubles cardiovasculaires, non seulement chez les personnes âgées mais aussi chez l'ensemble des adultes. Globalement, cette augmentation a été estimée à environ 5 % par rapport à l'ensemble de la population. 

Article rédigé par Georges Simmonds pour RT Flash

European Heart Journal

Vers un vaccin contre Helicobacter pylori
Jeudi, 03/09/2015 - 14:49

Identifiée seulement en 1983, Helicobacter pylori (HP) est une bactérie infectant près de la moitié de la population mondiale. C'est un facteur de risque prouvé de gastrite, d'ulcère peptique, d'adénocarcinome gastrique et de lymphome. D'où l'intérêt d'un vaccin préventif contre cette bactérie très répandue.

Une équipe chinoise vient d'annoncer des résultats encourageants d'une étude de phase 3 conduite avec un tel candidat vaccin. Ce vaccin, administrable en 3 doses orales, a déjà franchi avec succès les phase 1 et 2, a été testé en double aveugle chez 4 403 enfants de 6 à 15 ans indemnes d'infections présentes ou passées par HP. Le critère principal de jugement était la survenue d'une infection à HP dans l'année suivant la vaccination.

14 infections sont survenues dans l'année dans le groupe vaccin contre 50 dans le groupe placebo, soit une efficacité vaccinale de 71,8 %. La fréquence des effets secondaires mineurs et majeurs a été similaire dans les deux groupes et aucun effet indésirable majeur n'a été considéré comme en rapport avec le vaccin. Toutefois, cette protection contre l'infection semble s'estomper avec le temps, ce qui nécessiterait des rappels à des intervalles à déterminer.

Article rédigé par Georges Simmonds pour RT Flash

The Lancet

Nous sommes inégaux face au vieillissement
Jeudi, 03/09/2015 - 14:44

Les scientifiques dirigés par Daniel Belsky, professeur adjoint de médecine gériatrique à l'Université Duke, ont étudié la distribution de 18 marqueurs de l'âge chez 954 personnes nées en 1972 à Dunedin, en Nouvelle-Zélande, qui ont accepté d'être suivies dès l'âge de 26 ans et jusqu'à 38 ans.

Chaque participant a été testé sur la base de 18 facteurs liés au vieillissement : la pression artérielle, la fonction pulmonaire, le cholestérol, l'indice de masse corporelle, l'inflammation et l'intégrité de l'ADN, etc. En se basant sur le score de chaque personne, les chercheurs ont calculé un âge biologique pour chacun. Ils ont refait tous les tests lorsque les personnes étaient âgées de 32 et 38 ans. Ils ont ensuite combiné toutes les données pour calculer la vitesse à laquelle chaque personne avait vieilli.

Le résultat est étonnant : à 38 ans, l'âge biologique des participants variait de 28 à 61 ans. Certaines personnes avaient donc vieilli plus vite que d'autres. De nombreux participants avaient déjà une cinquantaine d'années et dans un cas extrême l'un d'entre eux avait déjà 61 ans. Durant les douze dernières années, son corps avait donc vieilli de 3 ans chaque année.

En comparant les groupes de personnes qui avaient vieilli plus vite à celles qui avaient vieilli moins vite, les chercheurs veulent maintenant déterminer les facteurs qui déterminent le vieillissement. Selon les conclusions de Belsky, 80 % des facteurs qui accélèrent le vieillissement ne sont pas génétiques et peuvent donc être influencés. L'équipe a l'intention de continuer ses recherches avec le même panel et de réévaluer les différents marqueurs lorsqu'ils auront 45 ans.

Article rédigé par Georges Simmonds pour RT Flash

PNAS

Découverte d'une molécule qui accélère le déclin cognitif
Jeudi, 03/09/2015 - 14:38

Selon des travaux américains réalisés par des chercheurs de l'Université de Californie San Francisco, une protéine qui s'accumule dans le sang serait liée aux pertes de mémoire et difficultés d'apprentissage chez les personnes âgées, ce qui ouvrent de nouvelles perspectives sur les moyens de combattre le déclin cognitif.

Cette molécule appelée B2M (pour bêta2-microglobuline) serait un élément du sang qui « influence négativement les fonctions cognitives et leurs régénérations » chez l'adulte.

Les concentrations de B2M sont plus "élevées" dans le sang des personnes âgées. Il en va de même pour les souris qui dans le cadre de cette recherche ont été soumises à plusieurs expérimentations.

Dans l'une d'elles, l'injection de doses de B2M dans le sang ou bien directement dans le cerveau de souris encore jeunes a eu pour effet de nuire aux tâches d'apprentissage et de mémoire et a réduit le processus de renouvellement des neurones. L'action de cette molécule ne semble pas durer puisque 30 jours après ces injections, le déficit d'apprentissage et de mémoire induits n'était plus apparent. "Ces résultats suggèrent que les effets de la protéine sur le déclin cognitif sont potentiellement réversibles, ce qui ouvrent de nouvelles perspectives médicales pour inverser les troubles cognitifs liés à l'âge", a déclaré Saul Villeda (Université de Californie San Francisco), associé à ces recherches.

Le vieillissement est associé à une baisse progressive de la fonction cognitive et au ralentissement progressif du processus de renouvellement des neurones dans le cerveau. "Une prochaine étape serait de développer une molécule pour bloquer les effets de la protéine B2M ou bien pour l'éliminer du sang des personnes âgées", souligne Saul Villeda...

Article rédigé par Georges Simmonds pour RT Flash

Nature

^ Haut
Recherche
Recherche & Innovation, Technologies, Transports
Ford prépare un nouveau système d'éclairage intelligent
Jeudi, 03/09/2015 - 18:34

Pour la conduite de nuit sur routes non éclairées, les voitures actuelles sont dotées de systèmes d’éclairage beaucoup plus performants qui ont considérablement amélioré le confort visuel dans les conditions de faible visibilité. Mais Ford veut aller encore plus loin et travaille sur un système d’éclairage qui s’adapte aux routes non éclairées afin de détecter la présence de piétons et d’animaux et sait aussi anticiper les virages et intersections.

Cette technologie baptisée Advanced Front Lighting System est actuellement en phase d'essai dans le centre de recherche et développement Ford à Aachen (Allemagne). Elle repose sur deux innovations existantes mises au point par le constructeur : un éclairage adaptatif et un système de détection des panneaux de signalisation.

En combinant les deux technologies avec le GPS de la voiture, le nouveau système est capable d’interpréter la signalisation et d’anticiper le profil de la route afin d’adapter l’éclairage en conséquence. Et lorsque les informations GPS sont indisponibles, une caméra vidéo prend le relais pour détecter le marquage au sol afin de prévoir les virages. Par ailleurs, le système est doté d’une mémoire grâce à laquelle il saura se rappeler d’une route sombre déjà empruntée pour déclencher automatiquement l’éclairage le plus performant.

En ce qui concerne la détection des piétons et d’animaux de grande taille tels que les chiens, elle repose sur une caméra infrarouge placée dans la calandre de la voiture dont la portée est de 120 mètres. D’après Ford, ce système permettrait de gagner deux à trois secondes supplémentaires pour anticiper ce genre d’événement et pouvoir freiner ou tourner.

Le système permet également de lire les panneaux de signalisation et de détecter les intersections ainsi que les ronds-points. À l’approche de ces derniers, les phares élargissent le rayon lumineux en éventail afin de pointer dans la direction que va prendre le véhicule mais aussi éclairer le trafic éventuel provenant de la direction opposée.

Article rédigé par Georges Simmonds pour RT Flash

Extreme Tech

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top