RTFlash

RTFlash a besoin de vous pour continuer à exister !

Propulsé par HelloAsso

RTFLASH Recherche & Technologie
NUMERO 716
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 20 Septembre 2013
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
Avenir
Kompai : un robot polyvalent au service des personnes âgées
Matière
Une fenêtre intelligente qui filtre à volonté chaleur et lumière
Une puce qui a 110 cœurs !
Terre
La formation de la calotte polaire livre ses secrets
Vivant
Un nez électronique pour détecter le cancer du côlon
Obésité : la piste bactérienne se précise !
Cancer du côlon : le facteur bactérien se confirme !
Migraine : des dommages irréversibles sur le cerveau ?
Maladie d'Alzheimer : vers un test de détection génétique précoce
Mélanome : un nouveau traitement à l'essai pour renforcer le système immunitaire
Une nouvelle approche chirurgicale contre le cancer du rein
Production des premières cellules pluripotentes in vivo, chez des souris !
Cancer des ovaires : vers un test sanguin de dépistage
Le rôle-clé des neutrophiles dans la lutte contre le cancer
Myopathie de Duchenne : un nouveau traitement à l'essai
Edito
Face au réchauffement climatique et à la pollution mondiale, le nucléaire est-il l’ennemi absolu ?



Au niveau mondial, on estime que la part du nucléaire représente un peu plus de 5 % de la consommation globale d’énergie et  environ 11 % de la consommation mondiale d'électricité en 2012 (soit 2 350 TWh).

Même s’il est vrai que cette part, après être montée à 16 %, est retombée à son niveau de 1999, en raison du gel ou du ralentissement des projets consécutif à la catastrophe de Fukushima, en mars 2011, il n’en demeure pas moins que la production électronucléaire mondiale représente encore, en valeur absolue, une quantité considérable d’énergie : à titre de comparaison, les 2 350 TWH par an produit par le nucléaire mondial représentent cinq fois la consommation électrique annuelle totale de la France !

En matière d’énergie, les choses ne sont jamais simples et l’exemple allemand est là pour nous le rappeler. En 2011, le gouvernement allemand décidait la sortie définitive du nucléaire, une décision qui va obliger l’Allemagne à accélérer considérablement le rythme de développement, déjà très soutenu des énergies renouvelables, principalement l’éolien et le solaire.

En 2013, on estime que l’Allemagne produit déjà 23 % de son électricité à partir des différentes énergies renouvelables mais, en raison du cadre législatif allemand qui garantit sur le long terme le prix d’achat des énergies renouvelables aux producteurs, la facture moyenne de ces énergies ne cesse de s’alourdir depuis quelques années, surtout pour les ménages.

En Allemagne, la facture moyenne annuelle d’électricité d’une famille est ainsi passée de 488 à 1006 euros entre 2000 et 2013 et aujourd’hui, pour un foyer allemand moyen de quatre personnes, le surcoût, lié à la taxe en faveur des énergies renouvelables, est estimé à plus de 200 € par an et devrait passer à 250 € dès l’an prochain.

Si l’on compare à présent le prix de l’électricité pour les consommateurs dans les différents pays de l’Union européenne, on constate qu’il existe un écart considérable entre les pays, en fonction de leurs choix énergétiques. C’est ainsi qu’en France le prix de l’électricité reste l’un des plus bas d’Europe avec 14,5 centimes TTC du KWh, contre 18,4 en moyenne dans l’Union européenne et 26 centimes pour l'Allemagne…

Le paradoxe de cette transition énergétique allemande est qu’elle ne se traduit pas pour autant par une réduction massive des émissions allemandes de CO2. Celles-ci, en dépit de la montée en puissance des énergies renouvelables, après avoir diminué de 3 % en 2011 (pour atteindre tout de même 917 millions de tonnes par an) ont même augmenté outre-Rhin de 2 % en 2012 !

La raison de cette situation est assez simple : le cours du charbon mondial est tombé à un niveau historiquement bas et les producteurs d’énergie se détournent des centrales à gaz, performantes mais chères, et ouvrent à tour de bras de nouvelles centrales à charbon, beaucoup moins coûteuses mais bien plus polluantes et désastreuses pour le climat.

Rappelons que la production mondiale de charbon a augmenté de 40 % au cours des 10 dernières années et que le charbon, sera, d’ici cinq ans, devenu la première source mondiale d’énergie, devant le gaz et le pétrole !

Bien que cette vérité ne soit pas souvent rappelée, un Allemand émet aujourd’hui 11,5 tonnes de CO2 par an, contre seulement 6 pour un Français ! La différence est tout simplement considérable puisqu’elle varie presque du simple au double.

Quant au coût global réel de sortie du nucléaire en Allemagne, il s’annonce pour le moins abyssal et varie dans une fourchette qui va de 150 milliards d’euros (selon RWE) à…1 700 milliards d’euros, selon une récente estimation du groupe Siemens qui prend en compte non seulement le coût de substitution à l’énergie nucléaire mais également le coût de démantèlement des centrales nucléaires et les investissements nécessaires à l’adaptation du réseau électrique aux énergies renouvelables.

En France, pays européen qui se distingue en produisant les trois quarts de son électricité à partir de l’énergie nucléaire, le gouvernement a annoncé en 2012 sa décision de réduire la part du nucléaire dans la production nationale électricité de 75 % à 50 % d’ici 2025.

Si cette réduction peut sembler raisonnable, exprimée en pourcentage, on semble avoir oublié qu’en valeur absolue elle s’élève tout de même à 134 TW heure par an (soit pratiquement l’équivalent de la consommation totale d’électricité des foyers français), ce qui représente 17 fois la production électrique annuelle actuelle du parc éolien français !

Le dernier rapport de l’Office parlementaire d’évaluation des choix scientifiques et technologiques (OPECST), publié le 11 septembre dernier (Voir Assemblée Nationale) s’interroge d’ailleurs sur le réalisme du calendrier de cette forte réduction de la part du nucléaire dans notre production électrique et rappelle à juste titre la nécessité de définir une « trajectoire raisonnée » dans la réduction de la part du nucléaire, afin de prendre en compte les réalités technologiques, industrielles, économiques et sociales qui conditionnent une telle décision politique.

Au niveau mondial, une étude mérite d’être évoquée, celle publiée il y a quelques semaines dans la revue « environnement sciences et technologies » par deux climatologues mondialement réputés, Pushker Kharecha, et James Hansen et intitulée « L’impact de l’énergie nucléaire sur la prévention de la mortalité produite par les émissions de gaz à effet de serre » (Voir American Chemical Society).

Cette étude très sérieuse visait à évaluer les avantages pour la planète, en termes d'émissions de gaz à effet de serre et de mortalité globale, de l'utilisation de l'énergie nucléaire par rapport à l'ensemble des énergies fossiles.

Dans cette étude de 13 pages, intitulée "Analyses prospectives de la mortalité et des émissions de gaz à effet de serre liées à l'utilisation d'énergie nucléaire", les deux scientifiques rappellent que l'augmentation considérable des émissions de CO2 (qui ont été multipliées par 10 depuis un siècle) a porté la concentration de CO2 dans l'atmosphère à un niveau sans précédent depuis au moins 800 000 ans - 400 ppm - . Aujourd'hui, le stock de carbone présent dans l'atmosphère s’élève à 830 gigatonnes dont au moins le quart provient de l'utilisation des énergies fossiles.

Ce travail a essayé d'évaluer le plus rigoureusement possible, en partant de l'ensemble des données disponibles, l'impact réel de l'utilisation d'énergie nucléaire depuis sa création, en matière d'environnement et de santé humaine.

Cette étude montre que, même en prenant en compte les accidents nucléaires, cette énergie a évité au bas mot 1,8 million de décès dans le monde depuis 40 ans. Selon ces recherches, l'utilisation de l’énergie nucléaire a permis d'éviter bien plus de décès qu'elle n'en a provoqués.

Ce travail confirme également que l'énergie nucléaire a globalement permis d'économiser en moyenne l'émission nette de 64 gigatonnes d'équivalent CO2 depuis 40 ans, ce qui correspond à deux années d'émissions mondiales de CO2 (au niveau de 2012) ou encore à sept années d'émissions européennes de carbone (valeur 2012). Ce sont ainsi plusieurs centaines de centrales thermiques au charbon, très polluantes et fortement émettrices de CO2, que l’utilisation de l’énergie nucléaire a permis d’éviter, indiquent Pushker Kharecha et James Hansen.

Cette étude souligne également qu’une sortie totale du nucléaire au niveau mondial risquerait de provoquer une mortalité supplémentaire de 420 000 à 7 millions de personnes et se traduirait par une augmentation sensible des émissions humaines de CO2, ce qui risquerait de faire basculer le réchauffement climatique au-delà de la limite des 2°C considérée comme le seuil tolérable.

En conclusion, Pushker Kharecha et James Hansen considèrent que « L'énergie nucléaire, malgré les différents défis qu'elle pose, doit continuer à être utilisée dans la production globale d'électricité afin de réduire les conséquences catastrophiques que pourrait avoir un réchauffement climatique incontrôlable ».

Il faut en effet rappeler, en supposant que la consommation électrique mondiale reste à son niveau actuel, ce qui est peu probable, compte tenu du fort développement économique en Asie (l'AIE prévoit au contraire une augmentation de la consommation mondiale d'électricité de 70 % d'ici 2030), que la substitution de la production électronucléaire mondiale actuelle par des centrales utilisant les énergies fossiles (gaz et charbon à parité), entraînerait au bas mot une augmentation annuelle des émissions mondiales de CO2 de 500 millions de tonnes, équivalent d’environ 12 % des émissions de CO2 de l’Union européenne !

Et encore cette prévision d’augmentation des émissions de CO2 se base sur l’hypothèse d’une substitution pour moitié par centrales à gaz et pour moitié par centrales au charbon. Dans l’hypothèse probable où cette substitution se ferait essentiellement à l’aide de centrales au charbon, moins coûteuses mais deux fois plus émettrices de CO2 que les centrales à gaz, l’impact sur les émissions mondiales de CO2 serait encore plus catastrophique.

On peut bien sûr balayer les conclusions de cette étude d’un revers de main et en nier les résultats parce que ceux-ci sont dérangeants et ne vont pas dans le sens de l’opinion dominante. Ce travail rigoureux d’analyse, réalisé par des scientifiques à la réputation incontestable, doit cependant nous conduire à nous interroger sur la place que l’énergie nucléaire doit avoir dans le bouquet énergétique mondial au cours des prochaines décennies, si nous souhaitons réellement limiter de manière drastique les émissions humaines de CO2 liées à la production croissante d’électricité au niveau planétaire.

Sans nier ou minimiser le moins du monde la dimension tout à fait particulière de l’énergie nucléaire qui comporte effectivement des risques spécifiques et pose des problèmes considérables de gestion, notamment en matière de retraitement et de stockage des déchets radioactifs à très longue durée de vie, nous devrions peut-être commencer à admettre que cette énergie s’est avérée, depuis son origine, globalement bien moins nocive, en termes de mortalité réelle et d’impact sur le climat, que l’ensemble des énergies fossiles (charbon, gaz et pétrole), dont l’utilisation massive entraîne chaque année plusieurs millions de décès (directs et indirects) dans le monde et accélère le réchauffement climatique.

Sait-on par exemple qu’en Chine, on estime qu’au moins 700 000 personnes décèdent chaque année des suites de la pollution provoquée par l’utilisation intensive des centrales à charbon et qu’en Europe, selon une étude de l’Université de Stuttgart publiée en 2012, les 350 centrales thermiques en service entraîneraient le décès prématuré d’au moins 25 000 personnes par an !

Une autre étude scientifique publiée dans le Lancet fin 2012 estime pour sa part que la pollution, au niveau mondial, principalement liée à l’utilisation des énergies fossiles dans les transports et l’industrie, est responsable d’environ 3,2 millions de décès par an et qu’elle est à présent devenue, si l’on additionne les effets de la pollution atmosphérique à ceux de la pollution intérieure, la deuxième cause planétaire de mortalité, juste derrière l’hypertension artérielle !

Le temps est venu de regarder ces réalités en face et de sortir de nos visions réductrices, souvent guidées par des cadres idéologiques, simplistes et dépassés.

Au lieu de succomber aux incantations et aux idées reçues, nous devons nous poser la question de savoir si une sortie rapide du nucléaire, au niveau mondial comme au niveau national, est vraiment possible, compte tenu de la nécessité de réduire dès à présent très rapidement nos émissions de CO2 liées à la production électrique (un objectif qui va être très difficile à atteindre même en imaginant une forte montée en charge des énergies renouvelables dans la production électrique) et de ne pas augmenter la pollution et l’impact sur l’environnement déjà considérable, liés à l’utilisation accrue des énergies fossiles, notamment depuis le décollage de la production mondiale de gaz de schiste et de pétrole non conventionnel.

Même si cet objectif de sortie totale du nucléaire au niveau mondial peut apparaître comme souhaitable et nécessaire pour de multiples raisons scientifiques, techniques mais également sociales et morales, l’arrêt complet de la production d’énergie nucléaire me semble tout simplement impossible à court et moyen terme, compte tenu de l’évolution démographique mondiale, de l’explosion de la demande mondiale en énergie, du grand virage énergétique marqué par l’irruption de nouvelles sources d’énergie fossile et bien entendu de la nécessité absolue de réduire au moins de moitié nos émissions mondiales de gaz à effet de serre d’ici 2050.

Qui peut en effet sérieusement croire, en dépit de la progression réelle et nécessaire des énergies renouvelables et des progrès en matière d'efficacité énergétique, que la consommation mondiale d'énergie et d'électricité va comme par magie se ralentir ou se stabiliser dans les années à venir alors que la population mondiale va augmenter de plus de 2 milliards d'habitants d'ici 2050 et que, partout sur la planète, de vastes régions, en Asie, en Amérique du Sud mais également -et cela est nouveau- en Afrique, sont en train de sortir du sous-développement et connaissent un  rythme de croissance économique bien supérieur à la moyenne mondiale.

Si nous considérons que la question du réchauffement climatique constitue bien le défi majeur et prioritaire que doit relever à tout prix l’Humanité, alors nous devons faire preuve de réalisme et intégrer, au moins comme énergie de transition, l’énergie nucléaire comme l’un des facteurs qui permettra, en dépit de tous les problèmes qu’il peut entraîner, d’éviter un basculement climatique catastrophique au cours de la deuxième partie de ce siècle.

Confucius aimait à dire que « Quand le sage désigne la Lune, l’idiot regarde le doigt ». Par cette maxime, il voulait faire comprendre à ses contemporains que, lorsqu’ils sont confrontés à une situation nouvelle, ils doivent sortir de leurs carcans mentaux, dépasser leurs préjugés et combattre leurs idées reçues pour appréhender cette situation inédite dans toutes ses dimensions et trouver des solutions appropriées.

Telle est, me semble-t-il, l’attitude que nous devons avoir pour considérer les dangers mais également les potentialités de l’énergie nucléaire, dans la perspective de l’échéance intangible du changement climatique mondial qui doit être notre priorité absolue et guider l’ensemble de nos choix énergétiques, économiques et politiques.

René TRÉGOUËT

Sénateur Honoraire

Fondateur du Groupe de Prospective du Sénat


Avenir
Nanotechnologies et Robotique
Kompai : un robot polyvalent au service des personnes âgées
Lundi, 16/09/2013 - 19:44

Dans le cadre du projet européen de recherche Mobiserv, qui a regroupé neuf pays européens dont la France pendant trois ans, des chercheurs ont développé Kompai, un robot polyvalent conçu pour aider et assister les personnes âgées. Ce robot est à moitié humanoïde et ses jambes sont remplacées par des roues, pour le rendre plus mobile et moins coûteux à fabriquer. Muni de toute une batterie de capteurs mais également de plusieurs caméras et d'un écran tactile, il sera opérationnel en 2015 et destiné à l'assistance médicale et psychologique aux personnes âgées.

Cet androïde présente la particularité d'être totalement paramétrable, ce qui lui permet de pouvoir mieux s'adapter aux besoins spécifiques de chaque patient et à leur situation médico psychologique.

Ce robot devrait pouvoir remplir une multitude de tâches pour aider au quotidien des personnes âgées dépendantes. Sur le plan médical, il pourra bien entendu leur rappeler de prendre leurs médicaments et pourra également, si besoin est, prendre la tension ou le pouls. Mais ce robot pourra par ailleurs apporter un soutien psychologique en parlant de manière appropriée à ces personnes âgées, dans le but de faire travailler leur mémoire ou de leur prodiguer des conseils personnalisés.

Enfin, si le robot détecte une anomalie dans le comportement ou l'état de la personne, il pourra également déclencher une alerte en contactant un médecin ou un membre de la famille.

Ce robot peut communiquer simultanément par la voix de son écran tactile et les premiers essais en situation réelle chez les personnes dépendantes ont donné de bons résultats et montré un bon niveau d'interactivité et d'acceptation "coopérative" par les participants.

Interrogées sur leur ressenti face à la présence de cette machine, la plupart des personnes âgées ont indiqué qu'elles avaient rapidement "adopté" ce robot et qu'elles le considéraient un peu comme un animal de compagnie.

Le développement de robots fiables d'assistance et de compagnie pour les personnes âgées dépendantes constitue un enjeu majeur dans la perspective du vieillissement accéléré des sociétés européennes. On estime en effet que, d'ici 2060, le nombre de personnes âgées de plus de 65 ans aura doublé dans l'Union européenne. Quant au nombre d'octogénaires européens, il devrait pour sa part tripler à cette échéance.

Article rédigé par Georges Simmonds pour RT Flash

Mobiserv

Gizmag

^ Haut
Matière
Matière et Energie
Une fenêtre intelligente qui filtre à volonté chaleur et lumière
Jeudi, 19/09/2013 - 08:57

Des chercheurs américains du prestigieux Laboratoire national Lawrence Berkeley, dirigés par Delia Milliron, ont mis au point un nouveau type de vitrage intelligent, capable de filtrer de manière distincte et contrôlée chaleur et lumière visible.

Pour y parvenir, les chercheurs ont inséré dans un verre spécial - qui contient de l'oxyde de niobium - des cristaux nanométriques d'oxyde d'indium-étain (ITO), un alliage métallique qui possède la propriété de rester transparent lorsqu'il est déposé en couches très minces. Il est par exemple utilisé par l'industrie dans les écrans plats ou tactiles. Ils ont ensuite placé en sandwich avec une autre couche de verre au niobium un électrolyte, une substance conductrice d'électricité.

Lorsqu'aucun courant électrique ne la traverse, la vitre est semblable à n'importe quelle autre et laisse passer indistinctement lumière et chaleur (rayonnements de l'infrarouge proche).

Mais si l'on génère un faible courant dans cette vitre, seule la lumière peut alors la traverser, tandis que la chaleur reste bloqée à l'extérieur. Enfin, si le courant est plus fort (2,5 volts environ), la vitre devient totalement opaque. Grâce à ce "nano-sandwich",  les chercheurs ont obtenu des performances en matière d'isolation et de filtrage cinq fois supérieures à celles du seul verre au niobium, avec en outre une excellente stabilité du matériau dans la durée.

"La régulation de la lumière et du chauffage dans les bâtiments requiert d'importantes quantités d'énergie, et une part non négligeable de cette énergie pourrait être économisée avec des fenêtres plus intelligentes et efficaces", rappelle Delia Milliron, du Laboratoire national Lawrence Berkeley américain, qui ajoute "Bien que notre matériau soit d'abord destiné au secteur du bâtiment et du logement, il pourrait avoir de nombreuses applications dans d'autres domaines, comme l'industrie, l'automobile ou encore l'aéronautique."

Article rédigé par Georges Simmonds pour RT Flash

Nature

The Daily Californian

Une puce qui a 110 cœurs !
Vendredi, 13/09/2013 - 13:58

Des chercheurs du célèbre MIT (Massachusetts Institute of Technology) ont développé une puce électronique intégrant pas moins de 110 coeurs !

Baptisée Execution Migraine Machine, cette puce a été développée dans le cadre d'un projet de recherche visant à améliorer les performances des composants électroniques, tout en réduisant leur consommation électrique.

Comme le souligne Mieszko Lis, le concepteur de ce composant d'un nouveau genre, "notre puce s'auto évalue en permanence de manière à optimiser et à réduire les flux d'informations qu'elle doit gérer. Cette nouvelle technologie permet à la fois de gagner en puissance tout en réduisant sensiblement la consommation électrique. Toutefois, il s'agit encore d'un composant expérimental et vous n'en trouverez pas dans le commerce !

Concrètement, cette puce aux 110 coeurs ne comporte plus l’habituelle mémoire tampon mais un pool de mémoire partagée, ce qui permet de réduire considérablement les canaux de transfert de données. Ce composant est également doté d'une capacité de prédiction de la circulation de données, ce qui diminue également sensiblement le temps de transfert de ces informations.

Après avoir été testée, cette puce expérimentale a prouvé son efficacité et ses concepteurs ont pu diviser par 10 le trafic de données sur leur puce, ce qui a permis de réduire sensiblement sa température de fonctionnement.

Pour l'instant, Les "fondeurs" de puces produisent essentiellement des composants comptant entre 12 et 16 cœurs. Néanmoins, Intel travaille sur une puce gravée  en 45 nm (comme la puce expérimentale du MIT) et comptant 80 coeurs.

De tel composants seront indispensables dans quelques années pour pouvoir traiter toujours plus rapidement, sans consommer plus d'énergie, de grosses quantités d'informations, que ce soit dans les serveurs, les tablettes ou les smartphones.

Article rédigé par Georges Simmonds pour RT Flash

Computer World

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
La formation de la calotte polaire livre ses secrets
Jeudi, 19/09/2013 - 08:46

Depuis deux millions d'années, notre planète a connu de longues périodes glaciaires, entrecoupées de périodes interglaciaires beaucoup plus courtes et plus chaudes.

Cette alternance est notamment provoquée par les changements d'insolation résultant des variations cycliques de la distance entre la Terre et le Soleil mais également des fluctuations dans l'inclinaison et la direction de l'axe de de la terre par rapport au soleil. La dernière période glaciaire, qui a pris fin il y a 12 000 ans, a commencé il y a environ 80 000 ans.

Selon les scientifiques, le niveau global des mers aurait baissé d'environ 80 mètres, ce qui prouverait notamment qu'il y aurait eu une forte accumulation de neige aux hautes latitudes.

Mais les climatologues savent bien que les périodes très froides s'accompagnent le plus souvent de faibles précipitations et d'une faible humidité. Dans ce cas, comment expliquer une telle accumulation de neige au pôle Nord ?

Afin de tenter de répondre à cette question, les scientifiques ont analysé la composition de carottes de sédiments marins prélevées au large de la Galice espagnole. Ces prélèvements contenaient notamment des pollen et des micro-organismes marins, deux formes de vie qui constituent des indicateurs précieux sur l'évolution des températures océaniques et terrestres.

Ces recherches ont permis de montrer qu'il s'était produit un surprenant découplage entre la température du golfe de Gascogne et celle de l'Europe occidentale. Selon cette étude, l'Océan Atlantique serait resté relativement chaud (en raison de l'influence du Gulf Stream et de l'inertie thermique des mers) alors que l'Europe occidentale connaissait des températures très froides correspondant au début de l'ère glaciaire.

Ce différentiel important de température entre les eaux de l'Atlantique et la façade occidentale de l'Europe aurait provoqué une forte humidité qui se serait propagée jusqu'au Pôle Nord, entraînant de fortes et longues précipitations neigeuses qui auraient constitué la calotte polaire.

Article rédigé par Georges Simmonds pour RT Flash

Science Daily

Nature

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Un nez électronique pour détecter le cancer du côlon
Jeudi, 19/09/2013 - 08:37

Des chercheurs néerlandais de l'Université d'Amsterdam ont mis au point un nez électronique qui pourrait, d'ici quelques années, permettre d'analyser les excréments humains afin d'y déceler la présence du cancer du côlon au stade précoce.

Pour parvenir à ce résultat prometteur, les chercheurs ont chauffé 157 échantillons de selles puis ont procédé à l'analyse des vapeurs dégagées à l'aide d'un nez électronique. Ils ont alors pu constater que la composition chimique des odeurs provenant des excréments de patients atteints d'un cancer du côlon était sensiblement différente de celle des personnes saines.

Ces recherches ont également pu montrer que la signature chimique des odeurs provenant de patients atteints de polypes bénins du côlon et de patients souffrant d'un cancer était également différente.

Comme le souligne le professeur  Karen Geboes, "bien que ces recherches en soient encore à un stade préliminaire, elles montrent déjà qu'il est envisageable de concevoir un système de détection chimique fiable et rapide du cancer du côlon à partir des odeurs des selles du patient. Mais bien entendu, ce nouveau mode de détection devrait alors être confirmé par d'autres types d'analyses plus conventionnelles."

Article rédigé par Georges Simmonds pour RT Flash

De Redactie

Obésité : la piste bactérienne se précise !
Mercredi, 18/09/2013 - 11:28

Décidément, le rôle pathogène des bactéries ne cesse de s'étendre. Après de récentes découvertes américaines qui montrent que les bactéries pourraient jouer un rôle majeur dans le déclenchement de certains types de cancer du côlon , deux autres études viennent de montrer le rôle-clé de certaines bactéries de la flore intestinale dans le déclenchement de l'obésité.

Selon ces travaux, les personnes présentant un déficit pour certaines bactéries intestinales présenteraient un risque sensiblement plus important d'excès de poids et d'obésité.

La première étude, réalisée au Danemark a montré qu'il existait des différences très marquées entre les sujets possédant une flore intestinale "riche" et ceux présentant une flore intestinale "pauvre". En analysant le microbiome de 292 individus (123 non-obèses et 169 obèses), les chercheurs ont découvert que le nombre de gènes microbiens était très différent selon les individus. Ils ont également constaté que les personnes qui présentent la plus faible diversité bactérienne avaient un risque d'obésité beaucoup plus grand.

Une seconde étude réalisée en France confirme cette hypothèse. Dans ce travail, réalisé sur 49 adultes obèses, les chercheurs ont pu établir quels types d’aliments seraient à même d’améliorer la richesse de la flore intestinale.

Selon cette étude, le groupe de patients soumis à un régime pauvre en graisses et comportant essentiellement des fibres et des protéines a vu la composition de sa flore intestinale modifiée et enrichie.

Cette étude souligne que "ces résultats laissent penser que l'obésité peut très probablement être corrigée ou peut-être même prévenue, grâce à une détection précoce des déséquilibres bactériens du microbiote et une correction de ces déséquilibres à l'aide d'un régime approprié."

Les conclusions de ces deux études pourraient conduire à une nouvelle médecine préventive de l'obésité mais également d'autres maladies chroniques, un enjeu considérable de santé publique au niveau mondial quand on sait que le nombre de personnes obèses va passer de 40 à 700 millions entre 2005 et 2015.

INSERM

Nature

Nature

Cancer du côlon : le facteur bactérien se confirme !
Mercredi, 18/09/2013 - 11:19

Le cancer du côlon, quatrième cancer par sa fréquence dans le monde, pourrait-il résulter principalement de la présence d'une bactérie ? Peut-être, si l'on en croit plusieurs études récentes.

En 2011 l'équipe de Matthew Meyerson à Harvard (Boston) puis une autre équipe américaine ont annoncé avoir décelé une bactérie spécifique, Fusobacterium nucleatum, dans des tumeurs du côlon.

Cette bactérie était jusqu'alors connue comme facteur d'inflammations pouvant notamment provoquer des parodonties et des déchaussements de dents. Mais ces travaux confirment l'hypothèse selon laquelle cette bactérie pourrait également jouer un rôle-clé dans le déclenchement de certains cancers du côlon.

Ces travaux ont notamment permis de montrer sur un modèle de souris présentant ce type de cancer, que le nombre de tumeurs dans le côlon augmente sensiblement en présence de cette bactérie. En outre, cette bactérie provoque une réaction inflammatoire dans le côlon qui pourrait favoriser la propagation de ce type de cancer.

Cette hypothèse est par ailleurs confortée par les travaux d'autres chercheurs américains de la Case Western Reserve University (Cleveland) qui ont montré que cette bactérie se lie à un récepteur spécifique des cellules épithéliales, ce qui a pour effet le déclenchement d'une prolifération cancéreuse au niveau du côlon.

S'appuyant sur ces découvertes, l'équipe de Matthew Meyerson tente à présent de bloquer la liaison spécifique de cette bactérie avec les cellules du côlon pour ralentir ou stopper le processus inflammatoire et le mécanisme de cancérisation qui en résulte.

Il reste cependant à déterminer quels types de cancer du côlon sont provoqués par cette bactérie, ce qui ne sera pas simple et va nécessiter de vastes études car les scientifiques ont récemment établi qu'il existait au moins, du point de vue moléculaire, six types spécifiques de cancer du côlon.

Article rédigé par Georges Simmonds pour RT Flash

CHM

Migraine : des dommages irréversibles sur le cerveau ?
Mercredi, 18/09/2013 - 11:10

Selon une étude danoise, la migraine, qui affecte 10 à 15 % de la population, pourrait provoquer des dommages et lésions permanentes dans le cerveau des sujets atteints par cette pathologie.

"Jusqu'à présent, on considérait la migraine comme un trouble bénin, n'entraînant pas de séquelles durables sur le cerveau", souligne le docteur Messoud Ashina qui a dirigé ces recherches. Mais celui-ci ajoute "nos travaux montrent que la migraine altère très probablement de façon permanente certaines structures cérébrales."

Ces recherches qui se sont appuyées sur 19 études, ont en effet montré que la migraine augmente sensiblement le risque de lésion cérébrale, d'anomalie de la matière blanche et d'altération du volume du cerveau, par rapport à des sujets sains.

Ces études montrent une augmentation de 68 % du risque de lésions de la matière blanche du cerveau chez les personnes souffrant de migraine avec aura, et de 34 % chez celles avec une migraine sans aura, par rapport aux sujets n'ayant pas de céphalée. Quant aux risques de lésions cérébrales, il s'accroît de 44 % chez les patients souffrant de migraine avec aura.

Cette méta-analyse a également révélé que les personnes souffrant fréquemment de migraines présentent des modifications sensibles du volume de leur cerveau.

Article rédigé par Elisa Tabord

Neurology

BBC

Maladie d'Alzheimer : vers un test de détection génétique précoce
Mardi, 17/09/2013 - 12:10

Alors que des chercheurs allemands annonçaient au début du mois d'août pouvoir détecter précocement la maladie grâce à une simple prise de sang, une équipe de chercheurs espagnols de l'Institut biomédical CSIC de Barcelone vient de mettre au point une nouvelle technique de dépistage encore plus prometteuse.

Ils sont en effet parvenus à identifier un marqueur biologique capable de détecter la maladie d'Alzheimer jusqu'à 10 ans avant son apparition, ce qui ouvre la voie à la prise en charge très précoce de cette pathologie neurodégénérative grave contre laquelle il n'existe pour l'instant aucun traitement réellement efficace.

Ces recherches ont non seulement permis de montrer qu'une faible concentration d'ADN mitochondrial dans le liquide céphalorachidien constitue un bon marqueur précoce de la maladie, mais elles ont également démontré que ce marqueur est l'une des causes de cette maladie sévère.

Article rédigé par Georges Simmonds pour RT Flash

Medical Daily

Daily Mail

Mélanome : un nouveau traitement à l'essai pour renforcer le système immunitaire
Mardi, 17/09/2013 - 12:03

Des chercheurs américains du Moffitt Cancer Center, basés à Tampa (Floride) et dirigés par Paul Toomey, viennent de montrer que le rose de Bengale, un produit utilisé pour colorer les cellules lésées des yeux, présentait un grand potentiel thérapeutique contre le mélanome.

Selon cette étude, une préparation baptisée  PV-10 et élaborée à partir de ce colorant, posséderait un puissant effet stimulant sur le système immunitaire.

Une seule injection de ce composant, expérimenté sur l'animal, aurait permis de réduire sensiblement les lésions cancéreuses de la peau et les métastases aux poumons, sans entraîner des effets secondaires indésirables.

"L’injection de ce produit dans la tumeur provoque une forte augmentation de la production d’interféron gamma", souligne l'étude qui est cependant incapable d'expliquer par quel mécanisme se produit un tel réveil du système immunitaire.

Cette substance, développée par le laboratoire Provectus Pharmaceutical, a déjà fait l'objet de plusieurs essais cliniques de phase I et II chez 217 malades atteints de cancer du sein, de cancer métastatique du foie et de mélanomes. Compte tenu de ces résultats très encourageants, des essais cliniques de phase 3 devraient prochainement débuter.

Article rédigé par Georges Simmonds pour RT Flash

PVCT

Une nouvelle approche chirurgicale contre le cancer du rein
Mardi, 17/09/2013 - 11:57

Une première chirurgicale vient d'avoir lieu au CHU de Bordeaux. Un malade ayant déjà subi l'ablation de son rein gauche, touché par une tumeur cancéreuse, a été victime d'une récidive de sa maladie sur le rein droit.

Compte tenu de la situation particulière et complexe de ce patient, les médecins ont décidé de combiner, pour la première fois, deux techniques innovantes : d'une part la laparoscopie robotisée et d'autre part la cryothérapie qui consiste à détruire la tumeur par le froid.

L'association de ces deux techniques a permis un geste chirurgical plus efficace, moins lourd et moins générateur d'effets secondaires, puisque le malade a pu quitter l'hôpital quatre jours après l'opération. 

Article rédigé par Georges Simmonds pour RT Flash

CHU

Production des premières cellules pluripotentes in vivo, chez des souris !
Lundi, 16/09/2013 - 19:51

C'est une étape décisive qui vient d'être franchie dans l'exploitation de l'immense potentiel des cellules souches induites qui sont prélevées sur des adultes puis reprogrammées pour les rendre pluripotentes, c'est-à-dire capables de produire les différentes cellules qui constituent un organisme.

Des chercheurs espagnols du Centre national de recherche sur le cancer de Madrid, dirigés par Maria Abad, viennent en effet de réussir pour la première fois à produire ce type de cellules in vivo, chez la souris.

Jusqu'à présent, et depuis leur découverte en 2006 par le chercheur japonais Shinya Yamanaka (prix Nobel de médecine 2012), ces cellules souches induites, généralement appelées iPS (Induced Pluripotent Stem Cells ou cellules souches pluripotentes induites), avaient pu être obtenues uniquement "in vitro", c'est-à-dire en laboratoire.

Pour réussir à produire ces cellules "in vivo", les chercheurs espagnols ont travaillé sur des souris transgéniques possédant les différents facteurs de croissance nécessaires à la reprogrammation de cellules adultes en iPS.

Ces travaux ont abouti à la présence de cellules souches pluripotentes induites dans le sang des souris reprogrammées, ainsi que l'atteste la détection de différents marqueurs de ces cellules dans les organes de ces rongeurs.

Mais à leur grande surprise, les chercheurs ont constaté que ces cellules souches produites semblaient avoir des capacités de différenciation plus importantes que leurs "cousines", obtenues en laboratoire mais également que les cellules souches embryonnaires.

Ces scientifiques indiquent en effet que leurs cellules souches peuvent non seulement se différencier en n'importe quel type de cellule embryonnaire, mais également se transformer en cellule précurseur de l'embryon, comme le placenta.

Reste que la découverte de ces nouvelles propriétés fascinantes n'avait pas du tout été envisagée par les chercheurs et ceux-ci vont à présent essayer de comprendre pourquoi les cellules souches qu'ils ont produites possèdent de telles caractéristiques.

Même si les chercheurs soulignent que ces travaux demeurent très fondamentaux, cette découverte confirme l'immense potentiel des cellules souches pour ouvrir le chemin vers une véritable médecine régénérative qui permettra un jour de reconstruire des organes complets.

Article rédigé par Georges Simmonds pour RT Flash

Nature

Cancer des ovaires : vers un test sanguin de dépistage
Lundi, 16/09/2013 - 19:31

À l'issue d'une étude portant sur 4051 femmes, suivies pendant 11 ans, des chercheurs américains de l'Université du Texas, dirigée par les professeurs Lu, Skates et Hernandez, ont mis au point un test sanguin efficace qui permet le dépistage précoce du cancer des ovaires.

Dans ces recherches, les scientifiques ont exploité un test sanguin qui permet d'identifier la présence dans le sang d’une protéine, baptisée CA125, dont le niveau de concentration augmente chez les femmes atteintes d'un cancer de l’ovaire. Mais la difficulté à surmonter pour ces chercheurs a été la présence de "faux positifs", c'est-à-dire d'un niveau excessivement élevé de cette protéine chez certaines femmes sans qu'il y ait pour autant de cancer.

Afin de surmonter cette difficulté récurrente, les chercheurs ont imaginé un protocole qui fait de ce test sanguin une première étape permettant de sélectionner les patientes en fonction de leur niveau de risque.

Cette méthode permet ainsi de trier les patientes considérées "à faible risque". Celles-ci ne sont pas à opérer immédiatement, pour éviter les interventions inutiles et sont à nouveau soumises à un test dans l'année qui suit.

Les patientes appartenant au deuxième groupe, "à risque modéré" sont, quant à elles, soumises à un test dans les trois mois et les patientes du troisième groupe, qui présentent un haut risque de cancer de l'ovaire, sont soumises immédiatement à différents examens par imagerie àfin de repérer la tumeur.

Cette nouvelle approche dans la détection du cancer de l'ovaire pourrait permettre une détection précoce et à grande échelle de ce type de cancer, tout en réduisant très sensiblement le problème récurrent des "faux positifs", qui conduit parfois à des interventions inutiles.

On comprend mieux l'intérêt d'une telle stratégie quand on sait que le cancer des ovaires peut être guéri dans neuf cas sur 10 lorsqu'il est détecté très précocement. Mais, dans la plupart des cas, lorsque ce type de cancer est détecté chez la femme, il est déjà assez avancé et les chances de guérison tombent alors à environ 30 %.

Article rédigé par Georges Simmonds pour RT Flash

Medical Daily

Wiley

Le rôle-clé des neutrophiles dans la lutte contre le cancer
Vendredi, 13/09/2013 - 14:22

Des chercheurs de l’Institut Pasteur, de l’Inserm et de l'Université de Californie, dirigés par de Pierre Bruhns et Clifford A. Lowell, ont identifié le groupe de cellules du système immunitaire qui joue un rôle-clé dans l'efficacité thérapeutique des immunothérapies en matière de cancer du sein.

Ces travaux ont notamment permis de montrer chez l'animal que l’action des neutrophiles (les globules blancs les plus répandus) suffit, dans les cancers du sein et de la peau, pour éliminer les cellules malignes.

Cette découverte est importante car environ 30 % des cancers du sein peuvent faire l'objet d'un traitement immunothérapeutique par injection d’anticorps.

Les chercheurs ont également montré que la réduction de la tumeur ne se produisait pas sur des sujets présentant une absence ou un déficit sévère de neutrophiles. Ces recherches ont enfin montré sur la souris que l'action thérapeutique anticancéreuse d'une immunothérapie pouvait être rétablie après injection de neutrophiles provenant de souris normales.

Ces découvertes, transposées à l'homme, devraient permettre de disposer à terme de nouveaux traitements immunothérapeutiques plus efficaces contre un grand nombre de cancers.

Article rédigé par Georges Simmonds pour RT Flash

Blood

Myopathie de Duchenne : un nouveau traitement à l'essai
Vendredi, 13/09/2013 - 14:13

La dystrophie musculaire de Duchenne est provoquée par un dysfonctionnement génétique qui bloque la synthèse de la dystrophine, une protéine musculaire.

Des chercheurs américains du prestigieux Nationwide Children's Hospital (Colombus-Ohio) on réalisé une étude menée sur 12 garçons, âgés de 7 à 13 ans,  atteints d’une myopathie de Duchenne. Ce travail a montré que l’étéplirsen, qui utilise une technique de « saut d’exon »,  permettait de corriger en partie le dysfonctionnement du gène impliqué dans cette grave pathologie.

Les enfants étaient capables de marcher 200 à 400 mètres au test de marche de 6 minutes. Ils devaient être porteurs d’une mutation du gène de la dystrophine, susceptible d’être corrigée par le saut d’exon 51.

Les enfants ont été répartis en 3 groupes de 4. Ceux du premier groupe recevaient chaque semaine 30 mg/kg d’étéplirsen, ceux du second groupe 50 mg/kg et enfin ceux du dernier groupe recevaient un placebo.

Au bout de six mois de traitement, les chercheurs ont effectué des biopsies musculaires sur ces patients et ils ont alors constaté une augmentation moyenne de 23 % des fibres de dystrophine. En revanche, aucune augmentation n'a été notée chez les sujets qui avaient reçu le placebo.

Au bout de 11 mois de traitement, l’augmentation des fibres contenant de la dystrophine a été en moyenne de 52 % chez les enfants ayant reçu une dose de 30 mg/kg et de 43 % chez les enfants ayant reçu 50 mg/kg, ce qui montre une efficacité thérapeutique qui persiste dans le temps.

Dernier élément très encourageant : lors du test consistant à marcher pendant six minutes, les enfants traités ont effectué en moyenne 67 mètres de plus que les enfants qui avaient pris le placebo.

Article rédigé par Georges Simmonds pour RT Flash

News Medical Net

Science Daily

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top