RTFlash

RTFLASH Recherche & Technologie
NUMERO 731
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 03 Janvier 2014
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
Avenir
La NASA présente Valkyrie, son robot d'exploration spatiale
Terre
L'exposition aux particules fines est néfaste pour la santé
Vivant
Le marché de la -Santé mobile- s'annonce gigantesque !
L'exercice physique : première prévention contre le cancer du sein ?
Survie relative des patients atteints de cancer en Europe : la France bien placée
Le cerveau serait capable de produire directement des estrogènes…
Première implantation mondiale de Carmat, cœur artificiel révolutionnaire !
Au palmarès des avancées scientifiques de 2013, l'immunothérapie se taille la part du Lion !
Le sang serait un vecteur de transmission de la maladie de Creutzfeld-Jakob
Cancer de la prostate : la nouvelle jeunesse du radium
Edito
Le stockage massif de l'énergie : un enjeu majeur



Aujourd’hui, les énergies fossiles (pétrole, charbon et gaz) dominent le paysage énergétique mondial et resteront encore majoritaires dans le mix énergétique mondial pendant plusieurs décennies, puisque l’Agence Internationale de l’Energie (AIE) prévoit qu’elles devraient encore représenter près des trois-quarts de la consommation énergétique de la planète à l’horizon 2035.

Mais en dépit de cette persistance des énergies fossiles, liée à des facteurs économiques et technologiques, la part des énergies renouvelables ne cesse de croître et cette tendance devrait s’accélérer dans les années à venir car le coût moyen d’exploitation de ce type d’énergie a continué à diminuer et rejoindra dans une dizaine d’années celui des énergies conventionnelles.

En outre, face au défi environnemental et climatique et à la nécessité absolue de réduire drastiquement les émissions humaines de CO2 d’ici le milieu de ce siècle, tous les grands pays industrialisés mais également les pays émergents se sont à présent engagés dans la transition énergétique, même si celle-ci se déroule à des rythmes très différents en fonction du niveau de développement et des contraintes économiques et sociales de chaque État.

Aujourd’hui, il faut savoir que plus de 20 % de l’électricité mondiale est déjà produite à partir de sources d’énergie peu émettrices de CO2 (hydraulique, biomasse, éolien et solaire), y compris le nucléaire. Cette production électrique mondiale qui est l’ordre de 22 000 TWh par an va, selon toute probabilité, continuer à croître deux fois plus vite que la production énergétique mondiale et la plupart des experts s’accordent à penser que les énergies renouvelables pourraient assurer environ un tiers de la production électrique de la planète à l’horizon 2035.

L’AIE souligne d’ailleurs dans son rapport 2012 que le développement des énergies renouvelables va s’accélérer dans les deux prochaines décennies et que celles-ci répondront à près de 50 % des nouveaux besoins liés à la croissance de la production électrique dans le monde d’ici à 2035. 

S’agissant de l’Union européenne, les derniers chiffres dont nous disposons nous indiquent que l’ensemble des énergies renouvelables représente à présent environ 13 % de la consommation totale d’énergie en Europe, contre seulement 8 % il y a 10 ans et les pays de l’Union se sont fixé comme objectif de monter cette part des énergies renouvelables à 20 % de leur consommation énergétique totale à l’horizon 2020 (23 % pour la France).

Mais face à cette double montée en puissance, celle de la part de la consommation électrique dans le bilan énergétique global et celle de la forte progression de l’ensemble des énergies renouvelables dans la production électrique, la question du stockage massif et efficace de l’énergie est en train de devenir tout à fait capitale et mobilise les chercheurs et les industriels du monde entier.

Intrinsèquement, l’électricité ne se stocke pas ; il est donc nécessaire d’ajuster en temps réel sa production à sa consommation. Tant que la majorité de cette production électrique est assurée par des sources d’énergie fossile qui, par définition, sont stables et prévisibles, cette caractéristique reste facilement maîtrisable. Mais à partir du moment où la part des énergies renouvelables et notamment de l’éolien et du solaire devient significative (au-delà de 10 %), les choses se compliquent singulièrement.

Les énergies solaires et éoliennes restent en effet soumises à l’évolution météorologique et, de ce fait, elles peuvent connaître de brusques chutes de production, ce qui peut tout simplement entraîner un effondrement du réseau de distribution électrique si des solutions massives de stockage de l’énergie n’ont pas été prévues. Un tel scénario catastrophe s’est déjà produit en Allemagne par exemple, pays où la part de l’énergie éolienne dépasse à présent, en moyenne, les 8 % de la consommation électrique totale.

Mais dans le domaine de la production électrique, un pic de production est également très difficile à gérer, comme le montre l’exemple récent de la tempête Xaver en Allemagne le 5 décembre 2013. Ce jour-là, grâce aux vents exceptionnels résultant de cet événement météorologique extrême, le parc éolien allemand a assuré pendant quelques heures 40 % de la consommation électrique totale outre-Rhin. Au cours de cette journée « historique », la production éolienne d’électricité a été 50 fois plus importante que la production moyenne journalière constatée le mois précédent ! Comme l’Allemagne a peu de barrages et de grandes installations hydrauliques pour lisser ses fluctuations de production électrique, elle a dû fermer en catastrophe de nombreuses centrales thermiques et se résoudre à vendre à perte de l’électricité à ses voisins…

On voit donc à quel point le développement massif des énergies renouvelables est lié à la mise au point de nouvelles solutions technologiques permettant de stocker pour un coût raisonnable de grandes quantités d’énergie pour les redistribuer plus tard, en fonction de la demande. 

Mais dans ce domaine les solutions miracles n’existent pas et chaque moyen industriel de stockage de l’énergie présente ses avantages et ses inconvénients : les accumulateurs géants ou les batteries liquides ont un coût d’utilisation qui reste trop élevé ; quant au stockage par air comprimé, son rendement reste faible et son coût énergétique important.

C’est pourquoi, jusqu’à présent, ce sont les barrages et les stations de transfert d’énergie par pompage qui représentent la quasi-totalité des outils massifs de stockage de l’énergie dans le monde. Cette solution hydraulique présente en effet l’avantage d’avoir un excellent rendement et d’être économiquement rentable. Mais elle présente également un très gros inconvénient : elle n’est évidemment réalisable que sur certains sites, ce qui en réduit sensiblement les possibilités d’utilisation.

Il y a quelques jours, les autorités, conscientes de cet enjeu, ont lancé un appel à manifestation d'intérêt (AMI) « Stockage et conversion de l'énergie » dans le cadre du programme d'investissements d'avenir piloté par l'Ademe pour le compte de l'État. Cet AMI s'appuie sur une étude récente sur le potentiel de stockage de l'énergie et sur le programme « Démonstrateurs et plates-formes technologiques en énergies renouvelables et décarbonées et chimie verte », doté de 1,12 milliard d'euros de crédits. Ce programme vise à explorer prioritairement deux vois technologiques, le stockage d’énergie et le stockage sous forme d’hydrogène, qui présentent deux atouts majeurs : elles ne supposent pas de transformation radicale des réseaux de distribution et elles n’entraînent pas d’augmentation des émissions de CO2.

Du côté des chercheurs et des industriels, des solutions innovantes à ce problème-clé du stockage massif de l’énergie commencent à apparaître. Fin décembre, Alstom a ainsi présenté une solution reposant sur le stockage de l'énergie grâce à des batteries et permettant d'optimiser l'équilibrage du réseau pour gérer la distribution d’électricité en fonction de la demande - elle aussi très fluctuante - des consommateurs.

Baptisée MaxSineTM eStorage, cette solution a été spécialement développée pour pouvoir gérer, dans le réseau électrique, l’instabilité intrinsèque induite par la part croissante des énergies renouvelables intermittentes comme l’éolien et le solaire. Concrètement, chaque module est connecté à une batterie d'une puissance de 2 MW. Ce système modulaire permet d’atteindre jusqu'à 12 MW de capacité de stockage. L'électricité ainsi stockée peut être mobilisée immédiatement pour répondre à une brusque augmentation de la demande, ce qui permet d’éviter les risques de black-out du réseau. Autre avantage de ce procédé : il permet aux consommateurs de gérer plus efficacement leur consommation d’électricité en achetant celle-ci de préférence pendant des périodes où son prix est plus bas.

Cette solution d’Alstom comprend notamment un convertisseur de puissance qui relie la batterie en courant continu et convertit l'électricité qui sera stockée ou envoyée dans le réseau en courant alternatif. Un logiciel de gestion de stockage d'énergie en temps réel permet de concevoir un plan de production d'électricité personnalisé qui va tenir compte de l’état du réseau en fonction de la demande enregistrée et des conditions météorologiques. Ce système innovant devrait être expérimenté d’ici quelques mois dans le cadre du projet européen « Nice Grid », qui vise à créer un micro réseau local reliant 200 sites de panneaux solaires.

Mais alors qu’Alstom présentait son innovation pour le stockage de l’énergie, UTRC (United Technologies Research Center), le centre Recherche et Innovation du groupe américain UTC, basé à Hartford (Connecticut) a présenté « Purestorage », une nouvelle technologie de stockage de l'énergie de batterie à flux qui a nécessité plusieurs années de recherche (Voir UTC). Cette nouvelle technologie de stockage aurait une densité 5 à 10 fois supérieure à celle des batteries à flux traditionnelles et semble particulièrement bien adaptée au « lissage » de la production de la distribution électrique issue des énergies renouvelables, par nature diffuse et intermittente, comme l’éolien ou le solaire.

Selon UTRC, sa solution technologique serait capable de répondre aux besoins spécifiques de capacité énergétique et de stockage des différents producteurs et distributeurs et permettrait de diviser par deux ce coût de stockage par rapport aux solutions de stockage concurrentes : batteries lithium-ion, les batteries à sels fondus ou encore stockage par air comprimé.

Mais il existe également une autre voie très prometteuse qui pourrait permettre de convertir et de stocker l’énergie pour la réutiliser ultérieurement, soit dans les réseaux de distribution de gaz et d’électricité, soit comme carburant dans les transports propres : la transformation en hydrogène. Du fait de sa très haute densité énergétique (33kWh/kg), l’hydrogène constitue en effet un vecteur d’énergie sans rival, à condition d’arriver à en maîtriser parfaitement la production, le stockage et l’utilisation.

Ce défi n’est pas simple à relever car l’hydrogène est d’une extrême volatilité et le stocker de manière sûre et rapide demande de grandes précautions et nécessite beaucoup d’énergie. Mais ce verrou technologique est en train de sauter. Une entreprise drômoise, McPhy Energy, a en effet réussi à stabiliser l’hydrogène à l’état solide sous forme d’hydrures métalliques facilement utilisables par les industries.

Cette solution très innovante permet de fixer l’hydrogène à du magnésium, qui se comporte un peu à la manière d’une éponge. Le résultat se matérialise sous la forme de galettes facilement transportables et utilisables sans risque. Le procédé mis au point par Mac Phy permet de produire 12 m3 d’hydrogène par heure. Mais il y a mieux : ce système est réversible et permet également de transformer l’hydrogène en électricité avec un taux de rendement énergétique de l’ordre de 90 %.

Pour l’instant, le prototype existant est limité à une puissance de 3,3 MWh mais McPhy pense pouvoir, d’ici quelques années, proposer des stations de stockage de 16,5 MWh. Si cette solution de transformation et de stockage par hydrogène à l’état solide parvient rapidement à un stade industriel, elle pourrait bien révolutionner l’ensemble de la chaîne de production et de distribution de l’énergie et imposer l’hydrogène comme vecteur incontournable dans le nouveau paysage énergétique mondial.

Mais l’hydrogène présente également un autre avantage peu connu et qui ouvre de vastes perspectives. Il peut être injecté dans une proportion d’au moins 5 % - et peut-être plus - dans les réseaux de distribution de gaz naturel, sans qu’il faille procéder à des transformations majeures et coûteuses de ces réseaux, comme l’ont montré plusieurs expérimentations de longue durée en Europe du Nord.

Cette intégration de l’hydrogène au réseau gazier s’intègre dans un procédé plus vaste, baptisé "Power to gas" (ou production d'énergie à partir du gaz) qui permet d’utiliser l'électricité excédentaire produite par les énergies renouvelables (biomasse, éolien et solaire) pour produire de l'hydrogène et du méthane qui pourront être stockés et utilisés ultérieurement, comme vecteur énergétique.

Outre-Rhin, les ingénieurs de MicrobEnergy GmbH sont en train d’améliorer ce procédé. Ils ont conçu une chaîne de production dans laquelle la transformation s'effectue directement dans le fermenteur. Le CO2 présent dans le biogaz et l'hydrogène peut ainsi être transformé en méthane supplémentaire. Ce procédé permet non seulement d’atteindre un taux de méthanisation de 95 % mais il est également mieux adapté au stockage de l'électricité excédentaire produite à partir de sources d'énergie renouvelable intermittentes.

En septembre 2013, une étape décisive dans le développement massif de cette solution « Power to Gas » a été franchie : le fournisseur d'électricité allemand E.On a inauguré sa première unité de transformation industrielle de l'électricité en gaz, ouvrant ainsi une nouvelle voie dans le stockage de l'énergie produite de façon intermittente par des énergies d'origine renouvelable.

Jusqu'à présent, on réalisait l'opération inverse : la transformation du gaz en chaleur et en électricité. Mais ce processus est réversible, comme vient de le montrer E.On qui a inauguré à Falkenhagen (Allemagne) une unité de transformation de l'électricité en hydrogène. Cette usine "Power-to-Gas" utilise directement l'électricité produite par des éoliennes pour décomposer l'eau par électrolyse et obtenir ainsi de l'oxygène d'une part et de l'hydrogène, d'autre part. L'hydrogène ainsi obtenu peut être stocké puis réinjecté ensuite dans le réseau de distribution de gaz. L’unité a une puissance de 2 MW et peut produire 360 m3 d'hydrogène par heure. Depuis le mois de juin, cette centrale a commencé à injecter dans le réseau de gaz son hydrogène (à 2 %, sous une pression de 55 bars).

Mais d’autres recherches méritent également d’être signalées. En Suisse, des chercheurs de l'Ecole polytechnique fédérale de Lausanne (EPFL) ont mis au point, fin 2012, une technique permettant de produire de l'hydrogène à partir d'énergie solaire, d'eau et de rouille. Dans le prolongement de ces recherches, il y a quelques semaines, l'équipe de Michael Grätzel, directeur du Laboratoire de photonique et interfaces de l'EPFL, en collaboration avec une équipe de chercheurs du Technion (Israël Institute of Technology), est parvenue à concevoir des nanostructures d'oxyde de fer qui ouvrent la voie à une production industrielle et à faible coût d'électricité en utilisant le vecteur Hydrogène.

Chercheur de réputation internationale, Michael Grätzel est déjà l'inventeur d'une cellule solaire qui porte son nom et qui permet, par un processus photoélectrochimique, de produire directement de l'hydrogène à partir d'eau.

Cette fois, la nouvelle technologie développée par ces chercheurs permet de produire de l'hydrogène avec un rendement acceptable à partir d'énergie solaire, d'eau et d'oxyde de fer. Grâce à leur découverte, les chercheurs de l'EPFL se disent en mesure de produire de l'hydrogène pour un prix de revient égal à 5 euros/kg, contre 15 euros/kg avec les meilleurs systèmes actuels.

Nous sommes donc bel et bien en train de vivre un tournant scientifique et technologique et nous devrions enfin disposer d’ici quelques années d’un ensemble cohérent de procédés et de solutions permettant le stockage massif et économique de l’électricité et plus largement de l’énergie. Il deviendra alors possible, en recourant notamment au vecteur hydrogène, d’utiliser sans aucune limite et de manière bien plus efficace et rentable qu’aujourd’hui l’ensemble des sources d’énergie renouvelable, éolien, solaire mais également biomasse, géothermie profonde et énergies des mers, une source d'énergie encore embryonnaire dont le potentiel est immense.

Il est évidemment capital que la France et l’Europe prennent toute la mesure de ces enjeux scientifiques, technologiques et industrielles et développent un effort de recherche particulier dans ce domaine stratégique, qui sera un élément clé de la lutte contre le réchauffement climatique, faisant intervenir de multiples disciplines, dans les domaines de la physique, de la chimie, des nanotechnologies et de la biologie et combinant recherche fondamentale et recherche appliquée.

Notre Pays a en effet la chance rare de pouvoir exploiter à grande échelle cinq grandes sources d'énergie propre : l'hydraulique, l'éolien, le solaire, la biomasse et les énergies marines et, si nous parvenons à relever ce défi du stockage massif de l'énergie, nous pourrons dans un génération être la pointe mondiale de la transition énergétique vers le "zéro carbone", un domaine technologique et industriel qui sera l'un des grands moteurs de la croissance économique au cours de ce siècle.

René TRÉGOUËT

Sénateur Honoraire

Fondateur du Groupe de Prospective du Sénat


Avenir
Nanotechnologies et Robotique
La NASA présente Valkyrie, son robot d'exploration spatiale
Mardi, 31/12/2013 - 11:19

La NASA a présenté il y a quelques jours son nouveau robot d'exploration spatiale baptisé Valkyrie. Ce robot qui mesure 1,90 mètre et pèse 125 kg est une version améliorée du Robonaut de la NASA, développé il y a deux ans.

Cette machine possède des membres interchangeables - son bras droit peut aussi servir de bras gauche et inversement. Ses bras possèdent des articulations similaires à celles des êtres humains et ses mains comportent trois doigts et un pouce. Valkyrie est également équipé de plusieurs détecteurs et caméras qui lui permettent de se déplacer avec une grande aisance.

Pour l'instant, Valkyrie a été conçu pour rester sous le contrôle des êtres humains. Mais à plus long terme, ce robot sera en mesure d'accomplir de manière autonome des tâches qui sont dangereuses pour l'homme.

Valkyrie devrait prochainement participer à une compétition de robots organisée par la DARPA, l'agence gouvernementale américaine chargée de la recherche et du développement en matière de nouvelles technologies militaires.

Article rédigé par Georges Simmonds pour RT Flash

Spectrum

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
L'exposition aux particules fines est néfaste pour la santé
Samedi, 28/12/2013 - 17:43

Selon une étude britannique publiée dans la revue Lancet et portant sur une population de 360 000 personnes suivies pendant 14 ans, une exposition prolongée aux particules fines présentes dans l'atmosphère aurait « des effets néfastes importants sur la santé », même lorsque les concentrations ne dépassent pas la norme européenne.

La directive européenne sur l'air de 2008 a imposé aux Etats membres un plafond moyen annuel de 25 microgrammes par mètre cube de particules en suspension, tandis que l'Organisation mondiale de la santé (OMS) préconise comme valeur limite 10 microgrammes par mètre cube.

Pourtant, cette étude montre qu'une corrélation persiste  entre l'exposition prolongée aux PM 2,5 et un risques de décès prématuré, même après ajustement des autres facteurs de risque tels que le tabagisme, le statut socio-économique, l'activité physique, le niveau d'éducation, et l'indice de masse corporelle.

Selon ces travaux, chaque augmentation annuelle de 5 microgrammes par mètre cube de la concentration en PM 2,5 augmente le risque de décès par an naturel (hors accident ou suicide) de 7 %.

Cette étude précise que cet écart de pollution de 5 microgrammes par mètre cube correspond à celui qui existe entre un axe urbain très fréquenté par les voitures et un endroit situé à l'écart du trafic. Rappelons que, pour la première fois, la pollution de l'air extérieur a étée officiellement classée en octobre 2012 comme facteur cancérigène certain pour l'homme par le Centre international de recherche sur le cancer (CIRC), basé à Lyon.

Article rédigé par Georges Simmonds pour RT Flash

The Lancet

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Le marché de la -Santé mobile- s'annonce gigantesque !
Jeudi, 02/01/2014 - 08:20

Selon une étude réalisée par le cabinet conseil Accenture, à l'occasion du récent sommet consacré à la santé mobile, il serait possible de faire économiser environ 23 milliards de dollars (17 milliards d'euros) au système de santé américain (2 500 dollars en moyenne par Américain et par an) grâce à la généralisation des technologies de santé mobile.

En France, le cabinet PWC considère pour sa part que ces technologies permettraient à notre Pays d'économiser environ 11,5 milliards d'euros à l'horizon 2017, soit plus de 4000 € par an et par foyer français. Cette étude souligne notamment que l'ensemble de ces outils, en améliorant la prévention, pourraient enfin diminuer de 70 % les arrêts pour maladies chroniques (diabète, insuffisance respiratoire).

Il faut enfin évoquer les prévisions de Research2Guidance qui évalue à 500 millions, le nombre d'utilisateurs de Smartphones qui utiliseront régulièrement des applications de santé mobile en 2015 et à 1,5 milliard à l'horizon 2018.

Article rédigé par Georges Simmonds pour RT Flash

mHealth Summit

L'exercice physique : première prévention contre le cancer du sein ?
Jeudi, 02/01/2014 - 08:10

Une étude réalisée par des chercheurs américains du Lawrence Berkeley National Laboratory de Berkeley, en Californie, a analysé le taux de mortalité par cancer du sein de près de 80.000 femmes durant 11 années pour tenter d'évaluer précisément le bénéfice d'un exercice physique régulier sur le risque de ce type de cancer.

Ce travail a pu montrer que la pratique d'une activité physique quotidienne, même de courte durée, de la marche à la course à pied, pouvait diminuer le risque de décès par cancer du sein d'environ 40 %, un gain sensiblement supérieur aux précédentes estimations qui tablaient sur une diminution d'environ 25 %.

L'étude est d'autant plus intéressante qu'elle montre que ce gain en termes de diminution de la mortalité peut être obtenu avec seulement 11 km de marche rapide par semaine, ou 7,5 km de course à pied !

Article rédigé par Georges Simmonds pour RT Flash

Plos One

Survie relative des patients atteints de cancer en Europe : la France bien placée
Jeudi, 02/01/2014 - 08:00

L’étude Eurocare 5 sur la survie des malades du cancer s’est appuyée sur les données de 29 pays et concerne plus de 10 millions de patients, diagnostiqués jusqu’en 2007. Ce travail, d'une ampleur sans précédent, confirme une augmentation des taux de survie à 5 ans du cancer pour l'ensemble de l'Europe.

Le projet Eurocare, créé en 1989, a pour objet le suivi de l'évolution de la survie en matière de cancer sur l'ensemble de l'Union européenne. Cette étude, la cinquième du genre, a permis de calculer l'évolution des taux de survie relative pour 46 cancers, issus des données de patients âgés de 15 ans et plus, diagnostiqués entre 2000 et 2007. Elle présente également, pour les dix cancers les plus fréquents, les évolutions de ces taux sur les périodes 1999-2001, 2002-2004 et 2005-2007.

Quels sont les principaux enseignements de cette vaste analyse ? D'abord la confirmation d'une progression générale de la survie relative à 5 ans, au niveau européen, avec des augmentations significatives entre 1999-2001 et 2005-2007, notamment pour le cancer de la prostate (de 73,4 % à 81,7 %), le lymphome non-hodgkinien (de 53,8 % à 60,4 %) et le cancer du rectum (de 52,1 % à 57,6 %).

L’étude montre de manière révélatrice que pour un tiers des cancers, le taux de survie est désormais supérieur en moyenne à 80 %. Il s'agit des cancers du testicule, de la lèvre, de la thyroïde, de la prostate, le mélanome de la peau et le lymphome de Hodgkin.

Cette étude révèle également, sans surprise, que ces taux de survie sont sensiblement plus élevés dans les pays du Nord de l'Europe. S'agissant de la France, elle est très bien notée pour les cancers du sein (2ème rang avec 86,1 %), le lymphome malin non-hodgkinien (2ème rang avec 65,9 %), les cancers de la prostate (6ème rang avec 88,9 %) et du rein (5ème rang avec 64,1 %).

Pour le cancer du côlon, le taux de survie à 5 ans en France est estimé à 59,7 % (57% pour la moyenne européenne). C'est un résultat un peu inférieur à celui de l’Allemagne et l’Autriche (respectivement 62,2 et 61,2 %) mais nettement meilleur que celui de la Grande-Bretagne (51,2 %).

Pour le redoutable cancer du poumon, le taux de survie à cinq ans en France est estimé à 13,8 % (pour une moyenne européenne de 13 %). Là aussi, ce résultat est un peu inférieur à celui de l'Allemagne (15,6 %) mais nettement supérieur à celui de la Grande-Bretagne (9 %).

Pour le cancer de la prostate, ce taux de survie à 5 ans en France est estimé à 88,9 % (pour une moyenne européenne de 90 %). L'Allemagne fait un tout petit peu mieux avec 89,4% et le Royaume-Uni beaucoup moins bien avec 80,6 %.

Cette étude souligne également, de manière intéressante, que les taux de survie sont plus faibles au Royaume-Uni, en Irlande et au Danemark qu'en France, ce qui pourrait s'expliquer par des diagnostics plus tardifs et des inégalités dans l’accès à certains traitements.

Article rédigé par Georges Simmonds pour RT Flash

The Lancet

Le cerveau serait capable de produire directement des estrogènes…
Mardi, 31/12/2013 - 11:14

Selon de récentes recherches de l’Université américaine de Wisconsin-Madison, une région de notre cerveau, l'hypothalamus, serait en mesure de produire directement des estrogènes et pourrait donc contrôler la fonction de reproduction…

Les estrogènes sont produits essentiellement dans les ovaires et circulent dans l'ensemble de l'organisme, jouant un rôle majeur sur de nombreuses fonctions, comme la reproduction, la mémorisation ou encore l'apprentissage. Si l'on savait déjà que l'hypothalamus était impliqué dans la régulation du cycle menstruel et la reproduction et que les estrogènes pouvaient être présents dans les neurones, on ignorait que le cerveau avait la capacité de produire directement cette hormone.

Pour parvenir à cette découverte surprenante, des scientifiques américains ont mené une série d'expériences sur des singes rhésus, privés de leurs ovaires et ont notamment montré qu’une injection d'estradiol dans l'hypothalamus stimule la libération des gonadotrophines (GnRH), une hormone indispensable au bon déroulement du cycle menstruel.

Dans une autre expérience, ces chercheurs ont montré qu'il était possible de provoquer une libération d'œstrogènes et de GnRH en stimulant électriquement l'hypothalamus. Enfin, une dernière expérience a permis de découvrir que le blocage de la synthèse d'œstrogènes entraîne également un blocage de la production de GnRH dans le cerveau.

Cette découverte majeure devrait permettre de mieux comprendre les modifications hormonales qui accompagnent les différentes périodes de la vie et qui caractérisent notamment le vieillissement.

Selon le professeur Ei Terasawa qui a dirigé ces recherches, cette mise en lumière du rôle central de l'hypothalamus dans le contrôle de la production d'œstrogènes devrait déboucher sur des avancées thérapeutiques importantes dans le traitement des troubles liés au déséquilibre hormonal et devrait également permettre d'ouvrir de nouvelles voies de recherche pour les maladies neuroendocrines ainsi que pour certaines pathologies neurodégénératives, comme la maladie d'Alzheimer.

Article rédigé par Georges Simmonds pour RT Flash

CJDN

Première implantation mondiale de Carmat, cœur artificiel révolutionnaire !
Mardi, 31/12/2013 - 11:01

Le cœur artificiel total Carmat, mis au point par le professeur Alain Carpentier, a été implanté pour la toute première fois chez l'homme mercredi 18 décembre. L'intervention qui a eu lieu sur un homme de 75 ans souffrant d'une insuffisance cardiaque en phase terminale a duré une dizaine d'heures et a été réalisée par l'équipe de l'Hôpital européen Georges-Pompidou (Paris), l'une des trois retenues pour cette phase initiale d'essais cliniques qui portera au final sur quatre patients en insuffisance cardiaque terminale. Pour l'instant, le patient opéré se porte bien et continue à récupérer tout à fait normalement.

20 ans de recherche ont été nécessaires pour développer, en coopération avec EADS et Airbus qui ont apporté un savoir-faire technologique décisif, ce cœur artificiel de nouvelle génération qui pèse à peine un kilo et utilise deux moteurs miniatures, des capteurs et un système de valves permettant de reproduire de manière parfaite le fonctionnement du cœur naturel  pendant 5 ans, soit 230 millions de battements de cœur. Grâce à une gestion informatique très sophistiquée, ce cœur artificiel de nouvelle génération est capable d'adapter son rythme en permanence, en fonction de l'activité du patient.

En outre, ce nouveau type de cœur artificiel présente la caractéristique unique d'être entièrement biocompatible dans sa conception interne, qu'il s'agisse des valvules ou des revêtements. Ce progrès décisif devrait permettre d'éviter la formation de caillots et de réduire le recours à des traitements anticoagulation très lourds.

Bien que ce cœur ne soit pas encore autonome du point de vue énergétique et nécessite pour l'instant une source d'énergie externe, sa mise au point représente tout de même une avancée technologique tout à fait majeure et ouvre un nouveau chapitre dans l'histoire de la médecine réparatrice.

Carmat assure que son cœur artificiel pourrait sauver chaque année la vie de dizaines de milliers de patients sans risque de rejet et en leur redonnant une qualité de vie presque normale. A terme, ce cœur artificiel pourrait devenir une alternative aux greffes chez les patients en insuffisance cardiaque chronique terminale, ou en défaillance cardiaque aiguë irréversible due à un infarctus massif.

Après cette première opération prometteuse, il faudra cependant au moins un an de recul pour disposer d'une première évaluation médicale et scientifique sérieuse quant aux performances réelles et au potentiel d'utilisation de cette merveille technologique.

Article rédigé par Georges Simmonds pour RT Flash

CSB

The Guardian

Au palmarès des avancées scientifiques de 2013, l'immunothérapie se taille la part du Lion !
Samedi, 28/12/2013 - 18:03

L'utilisation de l'immunothérapie pour combattre le cancer a été l'avancée scientifique la plus significative en 2013, selon le palmarès annuel des 10 découvertes les plus importantes de l'année publié le 20 décembre par la prestigieuse revue américaine Science.

L'éditorial de cette revue souligne que "La recherche sur le cancer a connu un véritable bouleversement cette année grâce aux avancées de l'immunothérapie qui, après des décennies de tâtonnements, a finalement révélé son potentiel thérapeutique".

Science souligne que plusieurs essais cliniques d'immunothérapie, mobilisant notamment les lymphocytes T pour qu'ils s'attaquent aux tumeurs, se sont avérés très prometteurs contre certaines formes graves de cancers. Cet éditorial plein d'optimisme évoque le cas de plusieurs patients qui ont été sauvés grâce à ces progrès spectaculaires de l'immunothérapie : une femme avec une métastase pulmonaire de la taille d'un pamplemousse, à la suite d'un mélanome, est toujours vivante 13 ans après la découverte de son cancer initial, un enfant de six ans, atteint d'une forme de leucémie presque toujours mortelle, est toujours en vie et en bonne santé depuis trois ans et enfin un homme, atteint d'un cancer du rein métastatique, dont la tumeur a continué à régresser, même longtemps après l'arrêt du traitement.

L'article insiste sur le fait qu'il s'agit bien d'une approche totalement nouvelle dans la manière de combattre le cancer puisqu'elle consiste à remobiliser le système immunitaire et à lui donner les informations nécessaires pour qu'il puisse combattre sélectivement et efficacement telle ou telle forme de cancer.

La prestigieuse revue rappelle que cette exaltante aventure scientifique et médicale a commencé il y a plus de 30 ans, avec les premières découvertes de l'immunologiste James Allison, à présent chercheur au Centre Anderson de Houston contre le cancer. Mais "Science" souligne également l'apport décisif des chercheurs français qui ont découvert, à la fin des années 80, les récepteurs sur les lymphocytes T qui désarment ces derniers et les empêchent d'attaquer et de détruire les cellules cancéreuses.

La revue rappelle qu'en 2006, des chercheurs japonais ont identifié un nouveau récepteur bloquant lui aussi la capacité des cellules immunitaires à combattre le cancer et qu'en 2011, des chercheurs américains sont parvenus à reprogrammer certains types de lymphocytes T afin qu'ils combattent efficacement une forme mortelle de leucémie.

L'article se termine en soulignant que cette révolution scientifique et thérapeutique ne fait que commencer et que le grand défi des années à venir sera de comprendre pourquoi ces nouveaux traitements très prometteurs fonctionnent très bien chez certains patients et pas du tout chez d'autres…

Article rédigé par Georges Simmonds pour RT Flash

Science

Le sang serait un vecteur de transmission de la maladie de Creutzfeld-Jakob
Samedi, 28/12/2013 - 17:56

Des chercheurs de l’Institut national de la recherche agronomique (INRA), en collaboration avec l’Ecole nationale vétérinaire de Toulouse, ont découvert que le sang des malades atteints par la forme sporadique de la maladie de Creutzfeldt-Jakob (MCJ), ainsi que par le nouveau variant de la MCJ, serait susceptible de permettre la transmission de la maladie.

La maladie de Creutzfeldt-Jakob (MCJ) est une maladie neurodégénérative qui se caractérise par l’accumulation de prions, un agent infectieux de nature protéique, dans les tissus cérébraux des patients atteints.

Actuellement, on connaît trois formes de cette infection : la forme familiale (origine génétique), la forme sporadique (origine inconnue) et la forme variante. Cette dernière a été identifiée en 1996 et est à l’origine de la crise de la vache folle. On sait également que la consommation d’aliments contenant l’agent responsable de l’encéphalopathie spongiforme bovine (ESB) peut, dans certains cas, provoquer cette pathologie.

Pour tenter de vérifier l'hypothèse selon laquelle le sang des malades atteints de MCJ est porteur d'infectiosité, les chercheurs ont injecté dans le cerveau de souris du sang prélevé sur des patients atteints de la MJC, quelle que soit sa forme.

Ces travaux ont ainsi pu montrer que dans le cas de la forme sporadique ou dans le cas du nouveau variant de la maladie, on observait bien une infection chez certains rongeurs, ce qui montre qu'il existe un risque de transmission inter-humaine par le biais des transfusions sanguines ou des greffes de moelle.  Il faut enfin rappeler que, selon de récentes études britanniques, une personne sur 2000 pourrait être porteuse de cette maladie.

Article rédigé par Georges Simmonds pour RT Flash

INRA

Cancer de la prostate : la nouvelle jeunesse du radium
Samedi, 28/12/2013 - 17:48

Le radium, élément chimique découvert par Pierre et Marie Curie, n’en finit pas de nous surprendre. En 1911, Marie Curie recevait le prix Nobel de chimie pour ses travaux sur le polonium et le radium.

Plus d'un siècle après cette découverte, les scientifiques découvrent toujours de nouvelles applications thérapeutiques pour cet élément. C'est ainsi qu'un essai clinique sur l'homme a montré récemment que le radium-223 (dont la dénomination commerciale est Xofigo) augmente la survie et réduit la douleur chez les patients atteints de cancer de la prostate métastatique résistant au traitement hormonal.

L'efficacité de ce nouveau traitement tient au fait que le radium, lorsqu'il est injecté par voie intraveineuse, va se fixer préférentiellement au niveau des métastases osseuses qu'il va alors pouvoir détruire plus efficacement.

Fort de ce succès, les chercheurs poursuivent leurs travaux et vont à présent essayer de voir dans quelle mesure ce nouvel outil thérapeutique ne pourrait pas être étendu dans le traitement des métastases provoquées par d'autres types de cancer, comme le cancer du sein par exemple.

Article rédigé par Georges Simmonds pour RT Flash

Institut Curie

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top