RTFlash

RTFlash a besoin de vous pour continuer à exister !

Propulsé par HelloAsso

RTFLASH Recherche & Technologie
NUMERO 848
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 20 Mai 2016
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
Du graphène pour booster les télécommunications
Matière
La photosynthèse inverse, un nouveau moyen de créer du biocarburant ?
Vivant
Recycler un antihypertenseur pour combattre les tumeurs du cerveau
Cinq centimètres d'œsophage régénérés sans cellules-souches
Lutte contre le cancer : IBM conçoit un outil de conseil patient basé sur Watson
De l'aspirine pour prévenir les cancers et les maladies cardio-vasculaires ?
Quand l'alimentation influence nos gènes...
Paludisme : une nouvelle voie d'accès au cœur du parasite
Le mécanisme d'activation des -gènes sauteurs- livre ses mystères
Traitement des cancers de la tête et du cou : la chirurgie pourrait être évitée dans huit cas sur dix
Des enfants ayant des parents déprimés augmentent leurs risques d'échec scolaire
Une avancée majeure vers la médecine régénérative
La vitamine D réduirait les risques de cancer et de maladies cardiovasculaires
Une avancée majeure contre l'angiosarcome
Les antibiotiques perturbent le métabolisme
Edito
Les conséquences humaines, économiques et financières du changement climatique ont été gravement sous-estimées !



En 2006, le rapport dirigé par Nicolas Stern, ancien directeur de la Banque mondiale avait fait l’effet d’un coup de tonnerre en évaluant pour la première fois de manière rigoureuse et argumentée, dans une étude de 700 pages, le coût pour l’économie mondiale de l'inaction face aux bouleversements climatiques en cours : jusqu'à 5500 milliards d'euros, soit 20 % du produit mondial brut !

Pour la première fois, une étude rigoureuse, conduite par un économiste réputé montrait que le coût de l’inaction serait bien plus important que celui de la mise en œuvre d’un plan mondial global et cohérent pour atténuer les effets du changement climatique. En effet, selon l'étude, agir pour réduire les émissions de gaz à effet de serre suppose une dépense de l'ordre de 1 % du PIB mondial chaque année à condition d'agir sans tarder.

Ce remarquable rapport ne s’était pas contenté de faire le constat du coût économique prévisible du réchauffement climatique pour notre planète, il avait également esquissé des pistes de solutions pour dégager les nouveaux moyens nécessaires à cette adaptation climatique. Ce travail avait notamment préconisé le doublement de l'effort mondial en faveur de la recherche & développement et la multiplication par cinq de l'aide aux technologies à faible émission de carbone.

Autre point capital qui sera repris par la suite dans d’autres travaux : ce rapport Stern montrait que la perte des forêts naturelles dans le monde contribuait davantage aux émissions mondiales de gaz à effet de serre que la totalité des activités liées aux transports. L’idée maîtresse de ce rapport, plus que jamais d’actualité, est qu’il ne faut pas opposer la lutte contre le changement climatique à la croissance économique mais au contraire utiliser le levier de l’innovation dans les technologies énergétiques pour relancer la croissance et l’emploi sur de nouvelles bases.

A la suite de ce rapport Stern, les grandes institutions économiques et financières économistes ont commencé à essayer d’estimer sérieusement le coût des dommages liés au réchauffement climatique. C’est ainsi que la Banque mondiale a calculé en 2013 qu’au cours des trente dernière années, les pertes et dommages annuels liés à des événements climatiques sont passés de 50 milliards à près de 200 milliards.

En 2014, le Giec a évalué à son tour à 1 050 milliards d'euros, le coût global du changement climatique à l'horizon 2100. Pour parvenir à cette estimation, les chercheurs du Giec se sont basés sur un scenario de hausse de la température globale de 2,5°C d'ici à 2100, une hypothèse réaliste et assez probable, si l’on extrapole la tendance actuelle. Fin 2014, le Programme des Nations unies pour l'environnement (PNUE) a également livré son estimation du coût global de l'adaptation au changement climatique et celui-ci est astronomique puisqu’il pourrait atteindre les 150 milliards de dollars par an en 2025-2030 et 250 à 500 milliards en 2050.

Deux études indépendantes récentes sont venues confirmer ces dernières semaines les conséquences économiques et financières désastreuses et très concrètes que risque d’avoir le réchauffement climatique en cours dans un avenir proche. La première étude, publiée début avril dans la revue « Nature Climate Change » par le cabinet Vivid Economics et par le Grantham Institute on Climate Change and the Environment, estime à 2.500 milliards de dollars le montant des actifs financiers qui pourraient s’évaporer du fait d’un réchauffement climatique de 2,5 degrés d’ici à la fin de ce siècle. Si ce montant ne représente « que » 1,8 % de la valeur total des actifs financiers dans le monde, il équivaut aussi à 50 % de la capitalisation boursière des sociétés d’énergies fossiles (Voir Nature).

Mais Simon Dietz, l’un des auteurs de ce rapport, met en garde et souligne qu’en cas de réchauffement de 2,5 degrés, l’impact financier pourrait atteindre les 24.000 milliards de dollars, soit 16,9 % du total des actifs gérés. En revanche, rester sous les deux degrés permettrait de contenir la destruction des actifs financiers dans une fourchette allant de 1 700 milliards à 13 200 milliards, dans la pire des hypothèses… L’étude souligne également que « couper les émissions de gaz à effet de serre pour limiter l’impact du réchauffement mondial réduit substantiellement la « valeur du risque climatique », particulièrement en ce qui concerne le risque de perte extrême ». Autrement dit, les fonds d’investissement doivent dès à présent privilégier les actifs vertueux en matière climatique et renoncer à ceux pouvant contribuer à l’augmentation des émissions de gaz à effet de serre.

Cette nouvelle ligne stratégique est également celle du Forum économique mondial qui souligne dans son dernier rapport sur les risques mondiaux que « Le risque lié au changement climatique est maintenant assimilé comme un des plus importants risques de long terme auxquels doit faire face l’économie mondiale, aussi bien en termes de probabilité de concrétisation que de gravité au niveau économique ».

Une autre étude, publiée fin avril par l'Organisation Internationale du travail (OIT), le Programme des Nations Unies pour le développement (PNUD) et l'Organisation mondiale de la santé (OMS), montre également que le réchauffement climatique risque aussi d'avoir des conséquences beaucoup plus importantes que prévues sur la vie de plus d’un milliard de travailleurs, avec des effets majeurs tant sur leur santé que sur leur productivité (Voir UNDP).

Selon l'étude, la hausse des températures pourrait ainsi coûter à l'économie mondiale jusqu'à 2.000 milliards de dollars par an à l'horizon 2030. Les pays les plus vulnérables subiront notamment une perte d'environ 10 à 15 % des heures travaillées, à savoir plusieurs milliards de dollars, et cela, même si les engagements pris lors de la COP21 devaient être respectés, calculent les auteurs du rapport.

Non seulement les pics de chaleur augmentent les risques d'accidents professionnels, mettant carrément en danger la vie des travailleurs lorsque la température corporelle dépasse les 40,6 degrés Celsius. Surtout, la productivité horaire va baisser : pour atteindre les mêmes résultats, les entreprises devront alors payer des heures supplémentaires aux salariés, souligne le rapport.

Parmi les pays les plus touchés par l’augmentation des températures, l’étude pointe l’Inde, l’Indonésie, le Nigéria, le Cambodge, le Pakistan, le Burkina Faso et certaines régions d’Afrique de l’ouest. En Inde par exemple, les canicules à répétition ont tué plusieurs milliers de personnes au cours de ces dernières années et ont perturbé de nombreuses activités économiques, notamment dans le secteur du BTP et de la construction.

Si rien n’est fait, de nombreux pays en développement qui ont déjà perdu beaucoup de produit national depuis trente ans risquent d’en perdre 5 à 6 % d’ici 2050, si le réchauffement climatique continue à s’accélérer au rythme actuel. En Afrique de l’Ouest, le nombre de jours très chauds par an a déjà doublé depuis un demi-siècle, avec dix jours très chauds supplémentaires chaque décennie, d’après le rapport.

Ces recherches confirment pleinement les conclusions d’une autre étude publiée en septembre 2012 par le DARA and Climate Vulnerable Forum, un partenariat de vingt pays établi en 2009. Cette étude avait en effet déjà montré que le changement climatique ralentissait de 1,6 % par an la production économique mondiale, un pourcentage qui pourrait doubler d’ici 2030…

Cette étude souligne toutefois que la mise en œuvre d’une politique internationale ambitieuse contre le changement climatique permettrait de générer des profits économiques majeurs pour la planète, qu'il s'agisse des grandes économies comme des nations pauvres. L'étude met aussi en avant des estimations selon lesquelles les économies fortement émettrices de carbone sont responsables de cinq millions de morts par an, essentiellement dues à la pollution de l'air. "L'inaction relative contre le changement climatique coûte déjà à l'économie mondiale, comme je viens de le dire, 1,6 % de son PIB, soit 1 200 milliards de dollars par an de prospérité et, si nous ne faisons pas plus qu’actuellement, ce coût mondial risque de doubler pour atteindre 3,2 % du PIB de la planète d'ici à 2030" précise ce rapport, qui ajoute « Pour la Chine, le coût économique de ce changement climatique pourrait être bien plus important que la moyenne mondiale ».

Il faut également évoquer l’étude du PNUE publiée fin 2014 qui rappelle que les dépenses mondiales d’adaptation au changement climatique sont actuellement de l’ordre de 26 milliards de dollars par an alors que les coûts d’adaptation au changement climatique pourraient atteindre 150 milliards de dollars par an en 2025-2030 et 250 à 500 milliards en 2050. Des montants largement supérieurs à la précédente estimation qui s'élevait de 70 à 100 milliards de dollars.

Le rapport propose plusieurs voies pour dégager des moyens financiers nouveaux d’ici 2050 : taxe carbone, taxe sur les transports, mise aux enchères internationale des quotas d'émissions, une mise aux enchères des quotas dans les systèmes nationaux d'échange d'émissions, redevance sur les câbles électriques, taxes sur les transactions financières.

Enfin il faut évoquer deux rapports de l’IRENA (Agence internationale pour les énergies renouvelables), publiés en janvier et mars 2016. Le premier montre que le doublement de la part des filières vertes dans le bouquet énergétique mondial, d’ici à 2030, aurait pour effet une hausse du PIB mondial comprise entre 0,6 % et 1,1 %, soit un gain de croissance de 700 à 1 300 milliards d’euros par an (voir IRENA).

Le second rapport estime pour sa part qu’en portant de 18 % (chiffre de 2014) à 36 % la part des filières alternatives dans la consommation totale d’énergie, à l’horizon 2030, ce qui suppose un investissement annuel de l’ordre de 700 milliards d’euros, il serait possible de réaliser une économie de quatre à quinze fois supérieure (entre 1 100 et 3 800 milliards d’euros par an), notamment en réduisant les effets sanitaires très néfastes de la pollution de l’air, ce qui se traduirait par au moins quatre millions de vies sauvées chaque année dans le monde.

Début mars, une nouvelle inattendue est cependant venue confirmer qu’un tournant historique majeur est peut-être en train de s’amorcer : l’Agence Internationale de l’Energie a en effet annoncé que, pour la première fois depuis plus de 30 ans, le monde avait réussi à stabiliser deux années de suite ses émissions de CO2 (32,1 gigatonnes en 2013 et 2014), en dépit d’une économie en nette reprise.

Selon l’AIE, « On commence à voir un découplage entre économie et émissions de dioxyde de carbone, ce qui signifie qu’on peut envisager une ère de croissance du PIB avec une stagnation des émissions, alors que la tendance jusqu’à présent était que l’augmentation du PIB entraînait, quasi automatiquement, par un accroissement de l’activité économique, une pollution atmosphérique toujours plus forte ».

Reste que les gisements rentables de réduction rapides de nos émissions mondiales de CO2 ne sont pas toujours là où on l’imagine, comme l’a montré le rapport tout à fait éclairant publié en 2009 par le cabinet McKinsey. Cette étude montrait qu’il était possible, en dépensant seulement 1 % par an du produit mondial brut, de réduire de 40 % nos émissions mondiales de gaz à effet de serre et de rester ainsi dans la limite des deux degrés d’augmentation de température.

Mais la vraie révélation tout à fait surprenante de ce rapport est que, si l’on raisonne en terme de dépenses par tonne de CO2 évitée, les mesures de loin les plus rentables n’étaient pas celles touchant au développement des énergies renouvelables ou à la modernisation des centrales à charbon mais celles concernant le reboisement, la protection des forêts, l’isolation des bâtiments et l’efficacité énergétique, notamment dans les transports.

En s’appuyant sur cette étude tout à fait éclairante, il serait donc judicieux, tout en continuant bien sûr de développer l’ensemble des énergies renouvelables grâce à une taxe carbone européenne suffisamment incitative (au moins 30 euros la tonne au lieu des 6 euros actuels), d’encourager la mise en œuvre plus rapide et plus forte des mesures d’efficacité énergétique, de protection des forêts, de reboisement et d’agriculture durable qui peuvent faire baisser massivement et pour un coût faible ou même négatif nos émissions de CO2.

Pour actionner ce levier puissant, la seule taxe carbone ne suffit pas et il faut également prévoir une incitation positive, comme par exemple des crédits d’impôts ou des bonus qui pourraient prendre la forme de « dividendes climatiques » qui seraient versés par la puissance publique aux particuliers et aux entreprises qui font sur la durée un effort particulier en matière d’économie d’énergie et d’efficacité énergétique.

En juillet 2015, à l’occasion du vote de la loi de transition énergétique, le Sénat a réussi à faire adopter un amendement très novateur : celui-ci prévoit en effet que la contribution climat-énergie (CCE) passe cette année à 22 euros par tonne de CO2 puis augmente progressivement jusqu’à atteindre les 26 euros en 2020 et les 100 euros en 2030. Il serait souhaitable que, dans chaque grande région économique de la planète, les acteurs économiques et politiques définissent également une « trajectoire-carbone » qui fixe, en fonction du niveau économique, le prix de la tonne de carbone à atteindre d’ici 2030.

Nous savons à présent que les conséquences humaines, économiques et financières de la rupture climatique en cours ont été très largement sous-estimées et qu’elles deviendront incalculables et insupportables si nous ne faisons rien ou pas assez. Ce que nous disent à présent les plus grands économistes et les études scientifiques les plus rigoureuses c’est que, quels que soient les coûts des dépenses publiques d’adaptation et de lutte contre le changement climatique, ils seront toujours infiniment moins importants que ceux de l’inaction qui risque d’entraîner l’Humanité dans une régression de civilisation sans précédent.

Le temps est donc venu de cesser de tergiverser car on ne négocie pas avec la nature. Nous devons prendre nos responsabilités devant l’histoire et les générations futures et faire de la transition énergétique et de la lutte contre le changement climatique le moteur de notre développement économique et de notre capacité d’innovation et la finalité politique et morale de nos sociétés.

René TRÉGOUËT

Sénateur honoraire

Fondateur du Groupe de Prospective du Sénat


TIC
Information et Communication
Du graphène pour booster les télécommunications
Vendredi, 13/05/2016 - 14:44

Des scientifiques suisses de l’EPFL (Lausanne) et de l’UNIGE (Genève) ont développé un microprocesseur utilisant du graphène qui pourrait permettre aux télécommunications sans fil de partager des données à un débit dix fois plus rapide qu'actuellement.

« Notre microprocesseur à base de graphène est une étape essentielle dans la perspective de télécommunications sans fil plus rapides dans des bandes de fréquences auxquelles les appareils mobiles actuels ne peuvent pas accéder », précise le scientifique de l’EPFL Michele Tamagnone. Ce microprocesseur agit en protégeant les sources de données sans fil - qui sont essentiellement des sources de rayonnement invisible - du rayonnement indésirable, ce qui assure que les données demeurent intactes, en réduisant la dégradation de la source.

Ces chercheurs ont montré que le graphène peut filtrer le rayonnement largement de la même manière que des lunettes polarisantes. La vibration du rayonnement a une orientation. Comme avec des verres polarisants, le microprocesseur au graphène veille à ce que seul le rayonnement qui vibre d’une certaine manière puisse passer. De la sorte, le graphène est à la fois transparent et opaque au rayonnement, selon l’orientation du rayonnement et la direction du signal.

Les scientifiques de l’EPFL et leurs collègues de Genève ont mis à profit cette propriété pour créer un appareil appelé isolateur optique. De plus, leur microprocesseur travaille dans une bande de fréquences actuellement vide, appelée la gamme du terahertz. Les appareils sans fil fonctionnent aujourd’hui en transmettant des données dans la bande des gigahertz, ou à des fréquences optiques.

Mais si les appareils sans fil pouvaient utiliser la bande des terahertz, votre téléphone mobile du futur pourrait potentiellement envoyer ou recevoir des données dix fois plus vite que maintenant, ce qui signifie une meilleure qualité de son et d’image, et des téléchargement plus rapides.

Article rédigé par Georges Simmonds pour RT Flash

EPFL

^ Haut
Matière
Matière et Energie
La photosynthèse inverse, un nouveau moyen de créer du biocarburant ?
Vendredi, 13/05/2016 - 15:21

Des chercheurs danois et suédois ont réalisé une « photosynthèse inverse ». Cette réaction dégrade des molécules organiques grâce à la lumière du soleil et pourrait notamment permettre de produire des biocarburants. Concrètement, ces chercheurs ont réussi à utiliser un cycle de réactions biochimiques baptisé "Photosynthèse inverse", utilisé par des champignons, des bactéries et des virus. Cette cascade de réactions chimiques permet de transformer cent fois plus vite qu'actuellement la matière végétale (“biomasse”) en méthanol grâce à l’énergie solaire.

En effet, la photosynthèse des plantes transforme le dioxyde de carbone de l’air (CO2) et les photons du Soleil en oxygène et en de longues chaînes carbonées qui constitueront notamment la cellulose des plantes. Or, la réaction découverte par les chercheurs fait l’inverse : elle casse ces longues chaînes carbonées en consommant de l’oxygène et des photons solaires pour produire de petites molécules (du méthanol), de l’eau et surtout pas de CO2 ! C’est aussi simple que cela.

Pour l’un des auteurs, Klaus Benedikt Møllers, de l'Université de Copenhague, « nous utilisons le terme de "photosynthèse inverse" parce que les enzymes utilisent de l'oxygène atmosphérique et les rayons du soleil pour décomposer et transformer les liaisons carbone, dans les plantes entre autres choses, au lieu de construire des plantes et de produire de l'oxygène comme on le comprend généralement avec la photosynthèse ».

Grâce à cette méthode, il deviendrait plus facile de dégrader de longues chaînes de glucides en plus petites molécules, utilisables pour diverses applications : production d’éthanol, de biogaz ou du méthanol. Ce procédé pourrait donc trouver des applications pour la conversion de biomasse en carburants ou en produits chimiques.

Sans la lumière du soleil, il faudrait des jours pour aboutir à la même transformation. À la lumière du soleil, le processus est beaucoup plus rapide, comme l’explique David Cannella, de l’Université de Copenhague : « La découverte signifie qu'en utilisant le soleil, nous pouvons produire des biocarburants et produits biochimiques pour des choses comme les matières plastiques – plus rapidement, à des températures plus basses et avec une meilleure efficacité énergétique. Certaines réactions, qui prennent actuellement 24 heures, peuvent être accomplies en seulement 10 minutes en utilisant le soleil ».

L’équipe ne sait pas si ce phénomène est répandu dans la nature mais plusieurs indices suggèrent que des champignons et des bactéries utilisent la photosynthèse inverse pour utiliser les nutriments et les sucres des plantes.

Article rédigé par Georges Simmonds pour RT Flash

Nature

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Recycler un antihypertenseur pour combattre les tumeurs du cerveau
Jeudi, 19/05/2016 - 14:04

Une collaboration internationale de chercheurs, coordonnée par Marie-Pierre Junier et Hervé Chneiweiss du laboratoire Neurosciences Paris-Seine, étudie les gliomes qui sont les tumeurs malignes les plus fréquentes se développant à partir de cellules du cerveau. Elles sont également la 4e cause de mort par cancer chez l'adulte et la 2e chez l'enfant. En cause : les traitements actuels, inefficaces. En effet, un gliome peut résister et renaître à partir d'un très petit nombre de cellules tumorales, les cellules initiatrices de gliome (GIC). Ce sont ces cellules, dont les caractéristiques et les propriétés ressemblent à celles des cellules souches, que l'équipe a ciblées.

Au lieu de tenter de découvrir de nouvelles molécules, l'équipe a opté pour la stratégie du repositionnement de médicament. Autrement dit, ils ont testé une collection de molécules utilisées depuis tellement longtemps pour d'autres traitements que leur brevet d'exploitation est tombé dans le domaine public.

Cette méthode permet de développer à moindre coût et sur un temps très court de nouveaux principes actifs. 1200 molécules ont été testées sur des cellules souches neurales humaines normales et sur les cellules initiatrices de gliome issues de différentes tumeurs agressives.

Douze d'entre elles présentaient un effet toxique sur les GIC sans avoir d'effet sur les cellules souches neurales normales. La plus efficace était la prazosine. Testée sur des souris porteuses de cellules initiatrices de gliome, la prazosine a permis une nette diminution des tumeurs et une survie des souris prolongée de plus de 50 %.

Cette molécule, utilisée depuis de nombreuses années pour traiter l'hypertension, est un inhibiteur des récepteurs alpha-adrénergiques (α-AR). Surprise cependant : les expériences des chercheurs montrent que ce type de récepteur n'existe pas sur les cellules initiatrices de gliome. La molécule agit donc via un mécanisme hors-cible (« off-target »), c'est-à-dire par une autre voie que l'interaction classique. Les chercheurs ont ainsi identifié une molécule de signalisation intracellulaire, la PKCδ, surexprimée dans les GIC par rapport aux cellules souches neurales normales. En présence de la prazosine, elle est clivée uniquement dans les GIC, ce qui conduit à leur mort.

Pour confirmer ces résultats, des essais cliniques commenceront dans l'année. S'ils sont concluants, la molécule pourrait être rapidement utilisée en complément des traitements actuels et améliorer la prise en charge des patients atteints de cancer du cerveau. D'ores et déjà, les chercheurs ont identifié que d'autres cellules cancéreuses ont une signalisation altérée de la PKCδ, comme celles du cancer colorectal, du pancréas, du foie. La compréhension du mécanisme d'action de la prazosine laisse donc également entrevoir de nouvelles pistes de traitements pour d'autres cancers.

Article rédigé par Georges Simmonds pour RT Flash

CNRS

Cinq centimètres d'œsophage régénérés sans cellules-souches
Jeudi, 19/05/2016 - 13:54

Depuis le début des années 2010, plusieurs équipes tentent de nouvelles approches moins invasives reposant sur la reconstruction de l'œsophage par voie endoscopique transluminale.

Dans un article paru dans le « Lancet », le Professeur Kulwinder Dua de l'école universitaire de médecine du Wisconsin et ses collègues décrivent la première reconstruction d'un œsophage basée sur la médecine régénérative, utilisant une matrice extracellulaire et de stents disposant d'une autorisation de mise sur le marché accordée par l'Agence américaine des produits alimentaires et médicamenteux (FDA). Une approche presque rudimentaire, et simple à mettre en place puisque les médecins n'ont pas eu à recourir à des cellules-souches pour aider l'œsophage à « repousser » le long de la matrice.

Le patient, âgé de 24 ans, souffrait d'une discontinuité de l'œsophage de 5 cm suite à un abcès du médiastin, lui-même étant une complication d'un accident de voiture. Selon les auteurs, il était impossible de rétablir la connexion à l'aide d'un morceau du côlon ou de l'estomac car le trou à combler était trop large.

Ils l'ont donc opéré à l'aide d'un stent autoexpansible de 18 mm de diamètre et 120 mm de longueur. Le dispositif, posé via une endoscopie rétrograde, a ainsi maintenu la communication entre l'hypopharynx et le médiastin.

Dans un deuxième temps, les chirurgiens ont pratiqué une incision au niveau du cou afin de recouvrir le stent d'une matrice extracellulaire disponible dans le commerce (AlloDerm, commercialisé par LifeCell) normalement utilisée pour régénérer la peau. Cette matrice a été imprégnée d'un gel adhésif contenant un concentré de plaquettes provenant du patient, chargé de stimuler la repousse tissulaire. L'ensemble a été recouvert par le muscle sterno-cléido-mastoïdien du patient.

Au bout de 4 semaines, trois stents télescopiques articulés ont dû être posés à la place du premier stent qui s'était déplacé. Il était prévu de les retirer au bout de 12 semaines, mais le patient a souhaité différer l'opération.

Les trois stents ont été retirés au bout de 3 ans et demi, quand le patient a commencé à ressentir une gêne alimentaire et se plaindre de phénomènes de régurgitation. L'œsophage reconstitué était pleinement fonctionnel, comme l'ont montré les examens endoscopiques, la biopsie, l'échoendoscopique et la manométrie œsophagienne.

Il s'agit de la première opération de reconstruction complète d'un œsophage se basant sur cette technique pratiquée chez un humain. "Il faudra attendre longtemps avant que l'on puisse recourir à cette méthode en routine", explique le Professeur Kua. "Il faudra des essais de phase 1 et 2 très rigoureux. Notre approche est particulièrement nouvelle car elle s'appuie sur des produits déjà autorisés et ne requiert pas de phase d'ingénierie très complexe".

Les Docteurs Martin Birshall et Paolo De Coppi, de l'hôpital national d'oto-rhino-laryngologie de Londres sont frappés par la simplicité du processus : « Ces données semblent indiquer que les 5 couches de l'œsophage peuvent être entièrement régénérées sans recourir à des cellules-souches, ce qui est un résultat remarquable compte tenu de la complexité de cet organe », expliquent-ils.

Cette technique n'est pas sans rappeler la première mondiale réalisée en octobre 2012 par l'équipe du Professeur Marc Barthet, du service d'hépatogastroentérologie et oncologie digestive de l'hôpital Nord (AP-HM). Les médecins marseillais avaient procédé à une reconstruction œsophagienne par voie endoscopique transluminale sans thoracotomie et à double abord : un premier endoscope empruntant la voie buccale, et le deuxième la voie rétrograde à l’aide d’une gastrostomie chirurgicale.

Article rédigé par Georges Simmonds pour RT Flash

Eurekalert

Lutte contre le cancer : IBM conçoit un outil de conseil patient basé sur Watson
Mercredi, 18/05/2016 - 17:38

En partenariat avec l'association américaine de lutte contre le cancer, IBM va concevoir un outil de conseil au patient permettant de fournir des informations aux personnes atteintes d'un cancer au travers de la technologie d'apprentissage de l'intelligence artificielle Watson.

En partenariat avec l'American Cancer Society (ACS), IBM développe un outil basé sur Watson qui utilise l'apprentissage machine pour apporter aux patients de l'information et des conseils personnalisés sur la maladie. Dans un premier temps, le conseiller va s’informer sur le type de cancer dont souffre le patient, sur le stade de sa maladie et sur les traitements qui lui ont été administrés.

À partir de ces éléments et d'autres données, il essayera de donner des conseils au patient et de répondre à ses questions. Grâce aux capacités de reconnaissance vocale et de compréhension du langage naturel de Watson, les utilisateurs pourront poser des questions et avoir des réponses vocales.

Par exemple, une personne atteinte d’un cancer du sein pourra demander au conseiller de lui expliquer les raisons de la douleur qu’elle ressent à un moment donné. Pour lui répondre, l’outil se basera sur ce qu’il a appris, notamment les expériences d’autres malades souffrant des mêmes symptômes, et il proposera des solutions de soin personnalisées en fonction de la situation du patient.

Plus il en saura sur le malade, plus le conseiller pourra affiner la demande de l’utilisateur et ses recommandations correspondront de plus en plus aux préférences du malade, à l’image de ce que font les groupes de soutien qui travaillent par téléphone.

Pour créer l’outil, IBM et l'American Cancer Society vont exploiter leurs entrepôts massifs de données et les utiliser pour former Watson. Parmi ces données, le supercalculateur aura également accès aux 14.000 pages du site cancer.org dans lesquelles il pourra trouver des informations détaillées sur plus de 70 types de cancer, plus des données agrégées provenant du Centre national d'information sur le cancer de l’ACS où il trouvera des informations sur la prise en charge, les groupes de soutien, les activités de bien-être et l'éducation sur le cancer.

L'outil pourra également puiser dans le Watson Health Cloud d’IBM. « Il s’agit de fournir la bonne information aux bonnes personnes au bon moment », comme l’a déclaré Gary Reedy, CEO de l'American Cancer Society. Toujours dans le domaine de la santé, IBM a également lancé un nouveau programme appelé IBM Health Corps dont l’ambition est d’aider les populations à relever les défis de santé publique dans le monde entier.

Article rédigé par Georges Simmonds pour RT Flash

Healthcare IT News

De l'aspirine pour prévenir les cancers et les maladies cardio-vasculaires ?
Mercredi, 18/05/2016 - 17:26

L'USPSTF, un groupe d'experts indépendants consultés par le gouvernement fédéral américain, recommande de prendre régulièrement de l'aspirine à faible dose pour réduire les risques d'infarctus, d'accident vasculaire cérébral et de cancer colorectal. Cet organisme recommande ainsi que des personnes de 50 à 69 ans avec un risque accru de maladies cardiovasculaires dans les dix prochaines années et qui ne sont pas sujettes à des saignements, prennent de l'aspirine comme moyen de prévention primaire contre ces pathologies.

Selon cette étude, les personnes dans cette tranche d'âge n'ayant pas de risque accru d'hémorragie, dont l'espérance de vie est d'au moins dix ans et qui sont prêtes à prendre de faibles doses d'aspirine tous les jours (de 70 à 81 mg), sont celles qui peuvent probablement le plus bénéficier de cette prévention.

Les maladies cardiovasculaires et le cancer du côlon sont les principales causes de mortalité aux Etats-Unis. En 2011, plus de la moitié de tous les décès dans le pays ont résulté d'une crise cardiaque, d'un accident vasculaire cérébral ou d'un cancer. Le cancer colorectal est la troisième tumeur la plus souvent diagnostiquée chez les hommes et les femmes et la première cause de mortalité par cancer.

Toutefois, l'USPSTF souligne le risque d'hémorragie grave de l'estomac, des intestins et dans le cerveau, que représente l'aspirine chez certaines personnes. Le groupe d'experts a également estimé que davantage de recherches étaient nécessaires pour évaluer les bienfaits préventifs de l'aspirine pour les personnes de moins de 50 ans et de plus de 70 ans.

Ces travaux montent en outre que l'aspirine améliore également la qualité de vie et réduit l'incidence de maladies chez la plupart des personnes qui commencent à en prendre régulièrement en petites doses entre 40 et 69 ans. L'aspirine devrait accroître l'espérance de vie pour la plupart des personnes qui commencent à en prendre tous les jours entre 40 et 59 ans, ainsi que pour celles avec un risque élevé de maladies cardiovasculaires entre 60 et 69 ans, estiment ces experts. Pour les sujets avec un faible risque de ces pathologies, les bienfaits de l'aspirine ne paraissent pas surpasser les effets néfastes potentiels, selon l'étude.

Article rédigé par Georges Simmonds pour RT Flash

Medical Daily

Quand l'alimentation influence nos gènes...
Mercredi, 18/05/2016 - 17:17

Des chercheurs de l'Université Cornell ont montré que notre régime alimentaire a une influence sur le fonctionnement de certains de nos gènes. En étudiant des populations qui ont adopté un régime alimentaire à base de plantes depuis des centaines de générations (en Inde, en Afrique et certaines régions de l'Asie de l'Est), ils ont découvert une mutation génétique. Celle-ci permet aux végétariens de traiter efficacement les oméga-3 et les oméga-6 et de les transformer en composants essentiels pour le développement du cerveau et pour lutter contre les inflammations. Cette mutation a donc constitué un avantage pour le développement de ces populations.

Une mutation a également été observée chez les Inuits du Groenland qui se nourrissent principalement de fruits de mer, mais elle agit de manière opposée. Il s'agit donc dans les deux cas d'une adaptation du gène en fonction du milieu et du régime alimentaire des populations. Selon les chercheurs, deux enzymes sont essentiels pour la conversion des oméga-3 et des oméga-6 en composants nécessaires pour le développement du cerveau et la lutte contre les inflammations. Les mangeurs de viande et de produits de la mer ont besoin de ces enzymes en moins grande quantité pour avoir un régime équilibré, car leur processus de conversion des omega-3 et des oméga-6 est plus simple et nécessite moins d'étapes.

Cette mutation végétarienne a été observée chez 68 % des Indiens, 18 % des Américains, 53 % des Africains, 70 % des Asiatiques du Sud, 29 % des Asiatiques de l'Est, 53 % des Africains et 17 % des Européens. Les Européens du Nord ont un long historique de consommation de lait qui leur permet de ne pas devoir augmenter leur capacité à synthétiser les acides gras, ont observé les chercheurs. "Ces résultats pourraient nous permettre d'adapter notre alimentation pour qu'elle corresponde à notre génome", concluent les scientifiques.

Article rédigé par Georges Simmonds pour RT Flash

Cornell

Paludisme : une nouvelle voie d'accès au cœur du parasite
Mercredi, 18/05/2016 - 17:11

Des chercheurs du CNRS (Laboratoire "Architecture et réactivité de l'ARN" de Strasbourg), en collaboration avec l'unité d'Infection et immunité paludéennes de l'Institut Pasteur (Paris), viennent d'identifier un talon d'Achille du parasite responsable du paludisme, en montrant que son développement optimal dépend de sa capacité à dérober des molécules d'ARN aux cellules infectées – une interaction hôte-pathogène encore jamais observée. Si la fonction exacte de ce détournement reste mystérieuse, les résultats ouvrent de nouvelles perspectives pour acheminer des agents thérapeutiques de manière spécifique au cœur du parasite.

Les parasites unicellulaires du genre Plasmodium sont les agents infectieux responsables du paludisme et constituent l'une des menaces principales pour la santé humaine et le développement dans les pays du Sud. Leur cycle de vie se déroule pour partie chez le moustique Anophele (tube digestif, glandes salivaires), et pour l'autre partie chez l'Homme ou d'autres mammifères (foie, cellules sanguines).

Dans cette étude, des biologistes ont identifié une protéine (tRip) localisée à la surface du parasite et capable d'importer à l'intérieur de celui-ci des ARN de transfert (ARNt, des molécules-clés impliquées dans la production de protéines) de l'hôte. C'est la première fois qu'est démontré l'import, à l'intérieur de cellules, d'ARNt exogènes. Les chercheurs ont aussi montré qu'en l'absence de tRip, le parasite n'importe plus d'ARNt, que sa synthèse protéique est réduite et que son développement est sévèrement ralenti dans les cellules sanguines des souris infectées.

Selon ces recherches, le parasite pourrait requérir des ARNt supplémentaires pour mener à bien la synthèse des protéines nécessaires à son développement. Selon une autre hypothèse, les ARNt de l'hôte pourraient agir comme de petits ARN régulateurs, et moduler l'expression des gènes du parasite.

La découverte de ce mécanisme permet d'envisager des moyens de faire entrer spécifiquement des molécules thérapeutiques dans le parasite, pour une meilleure efficacité de traitement. D'autant que la protéine tRip – et donc peut-être aussi ce mécanisme d'import – est retrouvée chez les autres parasites de la famille de Plasmodium, les apicomplexes, parmi lesquels les pathogènes humains Toxoplasma et Cryptosporidium.

Article rédigé par Georges Simmonds pour RT Flash

Science Daily

Le mécanisme d'activation des -gènes sauteurs- livre ses mystères
Mercredi, 18/05/2016 - 17:03

Les éléments transposables, aussi appelés "gènes sauteurs", sont des fragments d’ADN capables de se déplacer ou de se copier d’un endroit à un autre sur les chromosomes. Ils sont à l'œuvre dans le génome de la plupart des organismes vivants, des bactéries aux humains, en passant par les plantes. Lorsqu’ils sautent, ils provoquent des modifications complexes des gènes près desquels ou dans lesquels ils s’insèrent, ce qui peut modifier ou bloquer leur fonction. Ce phénomène contribue à l’évolution et à l’adaptation des espèces.

Mais au niveau individuel, ces "gènes sauteurs" peuvent avoir des effets néfastes. Chez l’Homme, la seule famille actuellement active, les rétrotransposons de type LINE-1, est à l’origine de nouveaux cas de maladies génétiques, comme des hémophilies ou des dystrophies musculaires. C’est pourquoi leur activité est normalement strictement contrôlée. Cependant, dans près de la moitié des cancers épithéliaux, ils parviennent à échapper aux nombreux mécanismes de défense cellulaires qui protègent notre ADN, et ils sautent activement, contribuant à l’émergence et à la progression des cancers. D’ailleurs de nombreuses études les utilisent comme biomarqueurs tumoraux à des fins diagnostiques ou pronostiques.

L’une des difficultés majeures soulevée par l’étude des "gènes sauteurs" est liée à leur nature extrêmement répétée. Notre ADN en contient des centaines de milliers de copies presque identiques entre elles, et chaque individu possède des centaines de copies non répertoriées dans la carte de référence du génome humain. Aussi, jusqu’à présent, il était impossible de savoir si l’activation des "gènes sauteurs" résultait d’un dérèglement général conduisant à une mobilisation massive de toutes les copies, ou si, au contraire, seul un petit nombre d’entre elles parvenaient à échapper aux contrôles de protection.

Grâce à une nouvelle approche, publiée dans la revue eLife, et intégrant séquençage à haut-débit, génomique, épigénomique et bioinformatique, l’équipe de Gaël Cristofari, chargé de recherche à l’Inserm, et ses collaborateurs de l’Unité 1081 « Institut de Recherche sur le Cancer et le Vieillissement de Nice (IRCAN) », sont parvenus à mesurer l’activité des "gènes sauteurs" dans des cellules normales ou cancéreuses à une résolution inégalée.

D’après leurs résultats, seul un petit nombre de copies seraient réellement coupables : celles situées dans des régions permissives de nos chromosomes. Or ces régions seraient différentes selon les types cellulaires. Qui plus est, toutes ces copies actives ne sont pas présentes chez tous les individus !

Ces travaux ont montré que le petit groupe de LINE-1 qui échappe au contrôle est différent d’un type cellulaire à un autre : "dans certains cancers, tel groupe est important, dans un autre type de cancer, ce sera un autre groupe de copies. Cette observation suggère qu’il y a derrière chaque groupe de LINE-1 un mécanisme et des signaux qui sont propres à un type d’organe ou de tissu particulier" explique Gaël Cristofari.

Ces résultats permettent de mieux comprendre comment de nouvelles mutations peuvent apparaître, suggèrent l’existence de facteurs génétiques derrière ce phénomène, et apportent des données nouvelles pour utiliser de façon rationnelle les rétrotransposons LINE-1 comme biomarqueurs en cancérologie en se focalisant sur les copies actives dans un type cellulaire donné.

Article rédigé par Georges Simmonds pour RT Flash

Inserm

Traitement des cancers de la tête et du cou : la chirurgie pourrait être évitée dans huit cas sur dix
Mercredi, 18/05/2016 - 16:51

Selon une étude anglaise, 80 % des suivis après le traitement de cancers de la tête et du cou pourraient être conduits par une imagerie PET (tomographie par émission de positons) combinée au scanner CT, plutôt que par chirurgie. Les cancers de la tête et du cou, appelés aussi "cancers des voies aérodigestives supérieures", sont traités par chimiothérapie et radiothérapie. Ensuite, une opération chirurgicale est menée pour vérifier que la tumeur a bien disparu. Or, cette intervention chirurgicale pourrait être évitée dans bien des cas, selon les auteurs.

Des chercheurs des Universités de Birmingham et Warwick ont recruté 564 patients venant d’être traités pour un cancer des voies aérodigestives supérieures. Ils ont testé et comparé deux types de suivi et en ont conclu que dans 80 % des cas, un suivi par examen PET-CT était suffisant. Seuls 20 % des patients avaient effectivement besoin d’une intervention chirurgicale pour retirer des tissus cancéreux résiduels. Cette étude suggère les bénéfices de ce suivi non invasif en première intention. Cette nouvelle technologie permettrait d’éviter une opération aux patients n’en ayant pas besoin. Par ailleurs, elle permettrait également de détecter précisément avant une intervention chirurgicale, les cellules cancéreuses résiduelles restées cachées parmi les cellules détruites par le traitement.

Article rédigé par Georges Simmonds pour RT Flash

NEJM

Des enfants ayant des parents déprimés augmentent leurs risques d'échec scolaire
Mercredi, 18/05/2016 - 16:42

Une vaste étude réalisée sur une cohorte de plus d’un million d’enfants nés en Suède entre 1984 et 1994 (48,9 % de filles et 51,1 % de garçons) montre que les problèmes psycho-éducatifs peuvent aussi être liés à des facteurs transgénérationnels.

Chez ces enfants, le diagnostic d’une dépression éventuelle chez leurs parents a été établi selon les critères d’une des trois éditions successives de la Classification Internationale des Maladies (CIM-8, CIM-9 ou CIM-10) et d’après les informations des registres statistiques, collectées en Suède depuis 1969 pour les hospitalisations et depuis 2001 pour les traitements ambulatoires. Diverses périodes ont été considérées pour repérer une dépression parentale : avant ou après la naissance de l’enfant, entre 1 et 5 ans, entre 6 et 10 ans, ou entre 11 et 16 ans. Des modèles de régression linéaire ont permis d’ajuster des caractéristiques des enfants ou des parents.

Les auteurs constatent qu’une dépression chez un parent (affectant aussi bien la mère que le père, à l’une quelconque des périodes envisagées, d’avant la naissance jusqu’à l’âge de 16 ans) se trouve « généralement associée à une dégradation des résultats scolaires ». On observe aussi que le sexe de l’enfant influe sur l’association entre une dépression maternelle et cette altération des performances scolaires chez l’enfant : dans les analyses comparatives entre filles et garçons, une dépression chez la mère présente une « incidence négative plus prononcée » sur les résultats scolaires des filles que sur ceux des garçons.

Cette enquête épidémiologique permet donc aux auteurs de conclure qu’une dépression chez les parents est effectivement associée à de plus mauvais résultats scolaires chez leurs enfants, au terme de la scolarité obligatoire. Elle prouve aussi que le développement des enfants peut (au moins en termes d’incidence psycho-éducative, puis ensuite socio-économique, en raison d’une formation initiale plus médiocre) souffrir des effets d’une dépression parentale, vraisemblablement plus durables et prononcés qu’on ne l’estime a priori.

Article rédigé par Georges Simmonds pour RT Flash

JIM

Une avancée majeure vers la médecine régénérative
Vendredi, 13/05/2016 - 15:13

Des chercheurs australiens ont réussi, en deux semaines à peine, à transformer les cellules de la graisse ou des os en cellules souches multipotentes ou cellules souches induites (iMC), c’est-à-dire une catégorie de cellules capables de régénérer toutes sortes de tissus endommagés par des accidents, des maladies ou par le simple vieillissement.

Obtenues à partir des organes adultes, à l’aide d’un traitement biochimique, elles conservent le formidable potentiel thérapeutique des cellules souches tirées des embryons humains, sans pour autant poser de problème sur le plan éthique. Elles écartent aussi le risque de développer des tumeurs, fréquemment observé lors de traitement avec les cellules embryonnaires.

Résultat : un petit morceau de graisse ou d’os, opportunément cultivé en laboratoire, génère une quantité virtuellement inépuisable de cellules souches ! Mieux : les cellules iMC mises au point à l’Université de Nouvelle-Galles du Sud (Australie) sont les premières à pouvoir régénérer chacune plusieurs types de tissus, tout simplement selon l’emplacement où elles sont injectées dans l’organisme. Elles fonctionnent à la manière des cellules de la salamandre, également multipotentes, qui reconstruisent entièrement les membres sectionnés de l’animal : os, muscle, peau…

Prélevées dans l’os ou dans la graisse de souris par l’équipe du professeur John Pimanda, les cellules adultes (dites “différenciées”) ont été traitées deux jours durant avec de l’azacytidine, une substance qui efface en quelque sorte leur mémoire. En d’autres termes, elle remet à zéro les réglages épigénétiques intervenus au cours de leur développement à la surface des gènes, qui ont induit leur transformation de cellules souches à cellules adultes (un processus appelé “différenciation”).

Ainsi revenues à l’état de cellules souches, elles ont été cultivées en laboratoire pendant deux semaines sous l’effet d’un facteur de croissance dérivé des plaquettes, PDGF. Ensuite, les biologistes ont testé chez des souris leur capacité de réparation de lésions des disques vertébraux. Actuellement, la même équipe teste des cellules iMC prélevées chez l’humain pour réparer des lésions chez la souris. Les essais sur l’homme sont prévus pour 2017.

Si les recherches se poursuivent avec succès, cette nouvelle technique devrait grandement bénéficier aux personnes souffrant de douleurs chroniques, de lésions aux disques vertébraux ou en cas de greffes compliquées concernant les os et les articulations. Plus globalement, cette technique pourrait à terme être appliquée à d’autres types de cellules pour réparer, potentiellement, tous les types de tissus du corps humain !

Article rédigé par Georges Simmonds pour RT Flash

UNSW

La vitamine D réduirait les risques de cancer et de maladies cardiovasculaires
Vendredi, 13/05/2016 - 15:05

Une nouvelle étude réalisée par des scientifiques de l’école de médecine de San Diego (université de Californie), a montré un lien entre une carence en vitamine D et le risque de développer certains types de cancer. La vitamine D, qui est naturellement produite par l’organisme avec l’exposition au soleil, aide également à contrôler le niveau de calcium et de phosphate dans l’organisme. une autre étude réalisée en 1980 avait montré que les personnes ayant peu accès à la lumière du soleil étaient plus susceptibles de développer un cancer.

Le professeur Cedric Garland, l’un des auteurs de cette nouvelle étude, explique que c'est la première fois qu'il est possible d'établir un lien quantifiable entre le niveau de vitamine D et la prévention du cancer. « Nous avons quantifié les niveaux suffisants de vitamine D pour prévenir tous les types de cancer invasif, ce qui était resté terra incognita jusqu’à la publication de ce document. »

Le Docteur Garland affirme que le but de l’étude n’était pas d’indiquer les dispositions d’apport quotidien de vitamine D en dose optimale, que ce soit par l’exposition au soleil ou par l’alimentation et/ou la supplémentation. Elle a toutefois permis de découvrir que la réduction du risque de cancer devient mesurable à partir de 40 nanogrammes par millilitre de vitamine D dans l’organisme.

Une autre étude britannique a par ailleurs montré qu'une supplémentation en vitamine D améliore l’action de pompage du cœur des patients atteints d’insuffisance cardiaque. À l’issue de cinq ans de travaux, les chercheurs de l’Université de Leeds au Royaume-Uni ont prouvé l’efficacité de la vitamine D3 (ou cholécalciférol, la forme naturelle de la vitamine D) sur l’insuffisance cardiaque chronique. Cette vitamine est essentiellement élaborée par la peau sous l’action des rayons ultraviolets.

Or, les personnes malades, âgées en moyenne de plus de 75 ans, intègrent moins bien la source naturelle apportée par l'exposition au soleil. Pour compenser, la vitamine D peut se trouver – au-delà des compléments alimentaires – dans les oeufs, les laitages entiers, les poissons gras ou encore l’huile de foie de morue. Pour l’étude, 160 patients déjà traités pour insuffisance cardiaque avec des bêtabloquants (régulateurs du rythme cardiaque) ont été testés.

Résultat : les personnes qui ont reçu une supplémentation en vitamine D3 chaque jour pendant un an ont vu leur fonction cardiaque s’améliorer de 26 à 34 %, contrairement à celles qui ont pris un placebo. Les chercheurs estiment qu’un apport régulier en vitamine D chez ces patients pourrait même éviter l’implantation d’un défibrillateur cardiaque, une opération lourde et coûteuse. En France, plus d’un million de personnes sont atteintes d’une insuffisance cardiaque. Cette maladie constitue la première cause d’hospitalisation chez l’adulte.

Article rédigé par Georges Simmonds pour RT Flash

Science Daily

Univeristy of Leeds

Une avancée majeure contre l'angiosarcome
Vendredi, 13/05/2016 - 14:53

Une équipe marseillaise a mis au point un traitement inédit contre l'angiosarcome, un cancer vasculaire très rare et agressif. Combinant chimiothérapie métronomique et repositionnement de médicaments déjà commercialisés, l'approche a obtenu de premiers résultats cliniques surprenants. Des essais multicentriques sont lancés pour mieux évaluer cette nouvelle stratégie.

L'angiosarcome est une tumeur maligne d'origine vasculaire, très rare et au diagnostic très sombre. Exceptée la chirurgie lorsque la tumeur est encore localisée, il n'existe aucun consensus sur le traitement de ce cancer résistant aux chimiothérapies. Une équipe Inserm de l'hôpital de la Timone (Marseille) vient toutefois de concevoir et utiliser avec succès une stratégie thérapeutique associant deux approches nouvelles.

L'une découle d'une découverte fortuite survenue en 2008 à l'hôpital des Enfants de Bordeaux. Traitant des enfants atteints d'hémangiome, une tumeur vasculaire bénigne mieux connue sous le nom de tache de naissance, des chercheurs ont constaté que le propranolol, un antihypertenseur administré pour pallier les effets secondaires du traitement classique (corticoïdes à haute dose), faisait rapidement régresser les tumeurs.

Le repositionnement du propranolol dans le traitement des hémangiomes a complètement révolutionné la prise en charge des patients atteints de ces tumeurs bénignes. "J'ai alors imaginé que le propranolol pourrait être également efficace sur des tumeurs malignes, et mes résultats expérimentaux l'ont confirmé dès 2011", se souvient Eddy Pasquier, Marie Curie Fellow au sein de l'unité Inserm 911.

L'autre principe utilisé, la chimiothérapie métronomique, est apparu en clinique au début des années 2000. "En chimiothérapie classique, les séances sont espacées de deux à trois semaines pour permettre au patient de récupérer des effets toxiques du traitement.

Or la tumeur en profite pour se revasculariser et progresser. La thérapie métronomique consiste donc à administrer des doses plus fréquentes, pour empêcher la progression de la tumeur, mais plus faibles pour limiter la toxicité", explique Eddy Pasquier. Au total, le patient peut recevoir au moins autant de produit qu'en thérapie classique, mais avec une tolérance améliorée.

Contacté par un chercheur du Tata Memorial Hospital (Mumbay, Inde), qui traite des patients atteints d'angiosarcome, Eddy Pasquier a combiné le repositionnement du propranolol et la chimiothérapie métronomique. Une première phase a consisté à déterminer, sur des modèles cellulaires d’angiosarcome, quelle molécule anticancéreuse associer à l'antihypertenseur pour obtenir les meilleurs résultats.

Deux agents classiquement utilisés en clinique dans cette pathologie, la doxorubicine et le paclitaxel, n'ont présenté que des effets additifs (voire légèrement antagonistes) avec le propranolol. En revanche, ce dernier entre très fortement en synergie avec la vinblastine, un agent de chimiothérapie déjà ancien, dérivé de la pervenche de Madagascar. C'est donc une combinaison de propranolol oral et d'injections métronomiques de vinblastine qui a été administrée à sept patients indiens souffrant d'angiosarcomes au stade avancé, voire métastasés.

"Tous les patients ont répondu, avec une régression parfois importante, voire complète, de la tumeur. Nous avons été surpris d'un tel résultat", souligne le chercheur. La survie a atteint 16 mois en moyenne, une durée inespérée avec les thérapies classiques pour des patients à ce stade de la maladie. A ce jour, douze patients ont été traités avec succès à Mumbay.

Article rédigé par Georges Simmonds pour RT Flash

Inserm

Les antibiotiques perturbent le métabolisme
Vendredi, 13/05/2016 - 14:38

Des chercheurs grecs de l’Université d’Athènes viennent de montrer que les antibiotiques consommés par de très jeunes enfants pouvaient les prédisposer à un risque de prédiabète à l’adolescence, en provoquant des troubles du métabolisme. Les résultats de cette étude ont été présentés au Congrès ENDO 2016 (Congrès de l’Association d’endocrinologie) à Boston, aux Etats-Unis.

"La prise accrue d'antibiotiques jusqu'à l'âge de 3 ans semble diminuer les microbes intestinaux bénéfiques et altérer l'absorption des nutriments et l'équilibre métabolique. Cela peut conduire au prédiabète, un stade précoce associé à un risque élevé de diabète de type 2", explique le Docteur Charikleia Stefanaki, chercheur en endocrinologie pédiatrique à l'Université d'Athènes.

Pour établir ce lien, l'équipe de scientifiques a analysé les selles de 10 adolescents prédiabétiques et de 14 participants sains, âgés de 12 à 17 ans. Les résultats ont révélé que les jeunes pré-diabétiques avaient pris en moyenne 3 fois plus d'antibiotiques durant leur petite enfance, entre leur naissance et l'âge de 3 ans, par rapport aux participants sans prédiabète.

Selon les chercheurs, une prise excessive d'antibiotiques chez les jeunes enfants entraînerait un déséquilibre durable de la composition bactérienne de leur microbiote, ce qui pourrait expliquer le développement du prédiabète. Les auteurs de l'étude suggèrent que certains prébiotiques pourraient contribuer à rétablir le bon équilibre du microbiote et à réduire ce risque de prédiabète lié à l'"excès" d'antibiotiques durant la petite enfance.

Article rédigé par Georges Simmonds pour RT Flash

Endo 2016

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top