RTFlash

RTFLASH Recherche & Technologie
NUMERO 1078
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 20 Novembre 2020
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
Le calcul intensif pour réduire les coûts de l’éolien flottant
Une intelligence artificielle capable de diagnostiquer la maladie d’Alzheimer grâce à un simple dessin
Matière
Une nouvelle pile à combustible sans membrane
Une veste productrice d'énergie de source solaire
A Lyon, un collège se chauffe à l’énergie solaire
Espace
Aurait-on découvert la matière cachée de l’Univers ?
Terre
Covid-19 : une diminution sans précédent des émissions de gaz à effet de serre…
Vivant
Premier essai de phase 3 pour un vaccin antigrippal produit à partir de cellules végétales
GaToroid pourrait révolutionner l'avenir du traitement du cancer
Cancer du pancréas : une nouvelle piste pour empêcher les métastases
Maladie d’Alzheimer : les goûters sucrés pourraient augmenter le risque pour les personnes prédisposées
Une nouvelle piste thérapeutique contre l'hépatite C
Le microbiote, une nouvelle arme contre le cancer
Mélanome : un marqueur sanguin permet d’optimiser le traitement
Les particules fines, probables facteurs de troubles neurologiques
Edito
Le développement durable et l’innovation globale pourraient nous permettre d’affronter les défis de ce siècle



Avant propos :

Chers lecteurs de RT Flash, veuillez m'excuser !

Pour la première fois depuis 22 ans, je n'ai pas remis à temps mon éditorial à notre système informatique. N'ayant pas encore une IA (Intelligence Artificielle) suffisamment développée, cette machine n'a pas su m'avertir de mon retard et a remis en ligne le même édito que la semaine précédente. Je vous demande de bien vouloir m'en excuser.

Cette erreur a eu aussi comme conséquence de stopper net notre campagne d'adhésion à notre petite association ADIST qui seule a la capacité de donner à RT Flash les moyens de continuer à vivre. Vous n'avez été que 15 dans ces deux dernières semaines à adhérer et apporter un don à l'ADIST. Au moment où je rédige cet édito, la cagnotte de l'ADIST s'élève à 15.132 €. Il faudrait que celle-ci atteigne 20.000 € pour que nous puissions traverser 2021 sans souci.

Vous êtes déjà 212 à avoir adhéré à notre association et la moitié parmi ces 212 ont apporté un don supplémentaire dont le montant, comme l'année dernière, pour certains, s'est élevé à plusieurs centaines d'euros.

 Je suis reconnaissant auprès de tous les lecteurs de RT Flash qui ainsi nous apportent leur soutien. C'est bien grâce à eux que nous allons poursuivre la publication de notre Lettre électronique hebdomadaire.

Si vous voulez aider RT Flash, Lettre d'Informations Scientifiques, gratuite et sans publicité depuis 1998,

appuyez sur le lien suivant : Adhérez à notre Association ou faites un DON pour sauver RT Flash, vous bénéficierez d'une réduction fiscale de 66 %

EDITO :

Il a fallu un siècle, de 1870 à 1970, pour que le produit mondial brut passe de 2.000 milliards à 15.000 milliards de dollars. Mais, depuis 1970, en seulement 50 ans, ce PMB est passé de 15.000 à 84.000 milliards de dollars. Au niveau mondial, la richesse moyenne produite par habitant aura donc fait un bond sans précédent dans l’histoire humaine, passant, en à peine plus de deux générations, de 4000 dollars à 10 500 dollars, soit une multiplication par deux et demi. Et cette augmentation considérable de la richesse globale produite s’est traduite par une amélioration du niveau et des conditions de vie comme l’Humanité n’en avait jamais connu depuis l’apparition d’Homo Sapiens, il y a 300 000 ans.

Qu’on en juge : presque 30 ans d’espérance de vie à la naissance gagnés au niveau mondial depuis 1970, la part de la population mondiale touchée par la malnutrition divisée par trois au cours de la même période, l’illettrisme et la mortalité à la naissance réduites dans les mêmes proportions. Il y a 50 ans, moins d’un terrien sur deux avait accès à l’eau potable et à l’électricité ; à présent, selon l’AIE et l’ONU, c’est presque neuf sur dix. Cette croissance économique, accompagnée d’un progrès scientifique et technique sans précédent dans l’histoire, s’est également traduite par un basculement rapide de la planète dans l’ère numérique. Alors qu’il y a 50 ans, moins d’un habitant de la planète sur cinq avait accès à un téléphone, près des trois quarts des terriens possèdent ou utilisent aujourd’hui un mobile et 55 % ont un accès à l’Internet, né il y a seulement 30 ans.

Mais l’imprévisible pandémie mondiale de Covid-19 qui est apparue fin 2019, puis a déferlé sur le monde entier, contaminant 40 millions de personnes et en tuant plus d’un million, a complètement fait dérailler l’économie de la planète, qui devrait connaître une diminution historique de croissance de plus de 5 % en 2020 et perdre 7000 milliards de dollars.

Mais le monde ne doit pas seulement faire face à cette pandémie dont nul ne sait combien d’années elle va durer et affecter nos vies et nos sociétés : il est également, comme nous en avons chaque jour de nouvelles preuves, touché de plein fouet par le réchauffement climatique dont les manifestations catastrophiques deviennent de plus en plus nombreuses et violentes. Et le coût humain et économique de ce changement climatique brutal va également être pharamineux, si nous ne sommes pas capables de changer radicalement de modèle de développement et de production dans tous les domaines : agriculture, industrie, transports, urbanisme…

Déjà en 2006, Sir Nicolas Stern avait évalué, dans un rapport qui avait fait date, à 5 400 milliards de dollars le coût de notre inaction face au changement climatique. Mais, depuis, ces estimations du coût du réchauffement climatique ont dû être revues à la hausse, car ce phénomène s’est accéléré plus vite que prévu : le dernier rapport en date, intitulé « Futur global » et sorti en début d’année, estime à présent à 10 000 milliards de dollars au moins le coût de ce changement climatique pour l’économie mondiale, d’ici 2050 (Voir Rapport).

Le dernier rapport du GIEC est venu confirmer que le changement climatique risque d’être irréversible, à moins que nous accélérions de manière décisive la mutation vers un nouveau modèle de croissance économique, reposant sur l’abandon des énergies fossiles, la valorisation des ressources naturelles, l’économie circulaire et la fabrication additive, ce qui suppose des ruptures technologiques majeures dans les domaines de l’énergie, des biotechnologies, du numérique et des matériaux. C’est l’élaboration et la mise en œuvre de ce nouveau modèle de développement qu’appellent de leur vœu les deux Nobel d'économie, William Nordhaus et Paul Romer, dont les travaux ont montré le rôle-clé de l'innovation comme moyen de croissance respectueuse de l'environnement. Nordhaus et Romer considèrent, non sans arguments, que le concept de "décroissance", tel qu'il est présenté par certains écologistes, est en fait la solution la plus égoïste possible, émanant exclusivement des habitants des pays développés.

Pour ces éminents scientifiques, la croissance, à condition bien entendu d’être durable et de s’appuyer sur un processus dynamique d’innovation, est un objectif à poursuivre car elle permet une meilleure création et une réelle redistribution des richesses à travers toutes les couches de la population. C'est notamment ce mécanisme qui a permis de diminuer la part de la population mondiale vivant dans l'extrême pauvreté qui s'est réduite de 35 % en 20 ans, d'augmenter de 30 ans l'espérance de vie moyenne mondiale à la naissance (qui atteint 71 ans) et de sortir une large partie de l’Asie du sous-développement endémique dans lequel elle se trouvait. Ces deux chercheurs font valoir que, pour les deux tiers de l’Humanité, la vraie question n’est pas de savoir comment décroître, mais bien de savoir comment répondre, sans détruire leur capital naturel et environnemental précieux, aux besoins d’une population croissante en produisant plus de ressources alimentaires, de routes, de voies ferrées, d’hôpitaux, d’écoles, de services de santé et d’éducation…

Nordhaus et Paul Romer s'appuient sur les travaux de Simon Kuznets (Nobel d'économie 1971) qui a montré l'existence d’une relation inverse entre la dégradation de l'environnement et le ratio de PIB par habitant. Au début du processus de croissance, la dégradation de l'environnement augmente, puis se stabilise lorsque le revenu par tête se situe à un certain seuil de croissance au-delà duquel elle diminue, jusqu'à entrer dans une dynamique de conciliation entre croissance et préservation de l'environnement.

Romer a notamment montré que la connaissance et l'innovation jouent un rôle-clé pour favoriser une croissance durable et non destructrice de l'environnement. Il a par ailleurs montré que les entreprises, en augmentant leur stock de capital, apprennent simultanément à produire de façon plus efficace, en valorisant les ressources naturelles, et à augmenter leur capital cognitif, qui devient alors un bien collectif auquel n'importe quelle entreprise peut avoir accès à un coût nul et que l'on peut utiliser en synergie avec d'autres facteurs pour produire de nouveaux biens et services finaux.

Rompant avec la conception classique du progrès technique, considéré comme une variable exogène de la croissance économique, ces éminents économistes ont développé une théorie de la croissance endogène, qui considère que le progrès technique peut être orienté, amplifié et stimulé par les relations qui forment les échanges entre individus. C’est pourquoi il faut élargir notre vision du concept d’innovation qui ne concerne pas seulement le champ technologique, mais également le champ social et organisationnel.

Une étude menée par l’Office européen des brevets (OEB) et l’Observatoire européen de la propriété intellectuelle (UEIPO), et portant sur la période 2014-2016, a identifié 353 secteurs d’activité plus intensifs en droits de propriété intellectuelle (DPI) que la moyenne. Sur la période étudiée, ces secteurs ont non seulement produit 45 % de la valeur ajoutée de l’Union européenne (UE), ce qui représente 6 600 Md€, mais ont aussi contribué pour plus de 80 % aux échanges extérieurs de l’UE. En matière d’emplois, ils ont également permis l’embauche d’un tiers des nouveaux embauchés sur 2014-2016, pour atteindre 63 millions de salariés sur 216 millions. L’étude précise qu’en comptabilisant les emplois indirects, ce sont au final 84 millions de personnes qui travaillent dans ces secteurs fortement créateurs de richesse et d’activités.

L’étude met aussi en avant deux secteurs particulièrement actifs : l’industrie du futur et les technologies d’atténuation du changement climatique. La première comprend les activités liées à l’IA, la robotique et l’internet des objets (IoT) ; elle représente, à elle seule, presque 4 % du PIB de l’UE et 2 % de ses emplois. Le second, qui regroupe principalement les « clean tech » emploie déjà 2,5 % des salariés européens soit plus de 5 millions de personnes.

Rappelons qu’au niveau mondial, les énergies renouvelables emploient déjà 12 millions de personnes et ont permis la création de 500 000 emplois en 2019 selon le « Renewable Energy and Jobs-Annual Review 2020 » publié par l'Agence internationale de l'énergie renouvelable. Et ce n’est qu’un début, car l’Irena, l’Agence des énergies renouvelables, estime que la décarbonation du système énergétique peut devenir l’un des principaux moteurs de l’économie mondiale et créer jusqu’à 28 millions d’emplois d’ici à 2050, dans un scenario de transition des énergies fossiles vers les ressources renouvelables, qui prévoit de couvrir les deux tiers de la demande mondiale d’énergie, contre à peine 20 % aujourd’hui, à l’aide d’énergies décarbonées en 2050.

En France, un collège d’experts, issu du conseil de l’Innovation, a été chargé d'identifier les marchés émergents sur lesquels positionner la France. Ce groupe de réflexion vient de rendre au Gouvernement son rapport « Faire de la France une économie de rupture technologique » qui vise à définir une stratégie claire pour l’avenir du pays, afin de relever les grands défis économiques et sociaux de demain : protéger l’environnement, être en bonne santé, mieux se nourrir ou garantir notre souveraineté.

Ce rapport a pointé dix marchés clés prioritaires, pour lesquels la France est en mesure de jouer un rôle de premier plan au niveau mondial. Parmi ces 10 secteurs-clés, figurent la santé numérique, l’agriculture de précision et les technologies quantiques. Ce travail signale plusieurs technologies transversales stratégiques : l’intelligence artificielle (IA), la robotique-cobotique, l’Internet des objets, les systèmes de stockage et de traitement des données, les interfaces homme-machine immersives, à base de réalité virtuelle.

Pour surmonter les immenses défis qui attendent l’Humanité au cours de ce siècle, qu’il s’agisse de la maîtrise de nouvelles et redoutables pandémies, comme le Covid-19, du changement climatique, ou encore de l’accès pour tous à une alimentation suffisante et saine et à une énergie propre et respectueuse de l’environnement, nous devons réorganiser en profondeur nos économies et nos sociétés pour favoriser, au niveau individuel comme au niveau collectif, un processus croissant d’innovation, couplé à une formation individualisée tout au long de la vie, dans quatre domaines essentiels : d’abord l’énergie, avec l’abandon rapide et définitif des énergies fossiles et la transition vers des énergies durables, solaire (y compris dans l’espace), éolien marin, énergies des mers, fusion thermonucléaire, hydrogène.

Ensuite, les biotechnologies, au sens le plus large, c’est-à-dire incluant à la fois la médecine et la santé, mais également les outils agronomiques permettant de maintenir la biodiversité, de réparer les dégradations de notre environnement naturel et d’augmenter suffisamment, sans avoir à recourir aux pesticides, à surface égale cultivée, la productivité pour pouvoir nourrir les 9,5 milliards d’êtres humains qui peupleront la planète dans 30 ans.

Troisième domaine stratégique, les technologies de l’information et de l’intelligence artificielle qui, s’appuyant sur l’informatique et l’internet quantique, pourront enfin nous permettre de disposer de la puissance de calcul phénoménale dont nous aurons besoin pour développer en quelques mois, et non en plusieurs années, les nouvelles molécules, les nouveaux vaccins et nouveaux matériaux qui révolutionneront la santé, les transports, l’habitat… Enfin, le dernier domaine dans lequel nous devons redoubler d’efforts pour innover est celui des technologies de l’espace. Ces technologies et infrastructures spatiales seront demain essentielles et omniprésentes pour produire de l’énergie propre, permettre une production agricole sur mesure de haute précision, assurer la gestion globale de l’environnement et des ressources naturelles et peut-être même, à plus long terme, contrôler globalement le climat et prévoir les catastrophes naturelles, face auxquelles l’homme est impuissant depuis la nuit des temps.

Ces technologies spatiales permettront également à nos successeurs, à l’horizon du siècle prochain, grâce à des technologies révolutionnaires très prometteuses, comme le moteur ionique à plasma, et l’hibernation contrôlée, de franchir une nouvelle étape dans l’exploration de notre système solaire, en préparant non seulement la colonisation de Mars, mais également des vols habités vers des mondes plus lointains, encore inaccessibles, mais qui abritent peut-être des formes de vie inconnues. En cet instant, je pense à certaines lunes de Saturne ou Jupiter, comme Europe, Titan ou Encelade.

C’est en retrouvant foi dans un progrès scientifique et technologique, non pas sacralisé et opaque, mais partagé, démocratiquement défini et orienté et mis au service de tous, que nous pourrons exploiter de manière propre, circulaire et durable des ressources inépuisables de notre environnement et aborder avec force et confiance un nouveau chapitre de l’aventure humaine !

René TRÉGOUËT

Sénateur honoraire

Fondateur du Groupe de Prospective du Sénat

e-mail : tregouet@gmail.com


TIC
Information et Communication
Le calcul intensif pour réduire les coûts de l’éolien flottant
Jeudi, 19/11/2020 - 00:00

L’IFP Energies nouvelles (Ifpen) a utilisé l'énorme puissance de calcul du supercalculateur Jean Zay du Grand équipement national de calcul intensif (Genci) pour simuler le comportement d’une structure flottante pour l’éolien en mer. Hébergé à l’Institut du développement et des ressources en informatique scientifique (Idris), la machine a fourni 6 millions d’heures de calcul - l'équivalent de 80 années de calcul sur un ordinateur standard - pendant 5 jours. Obtenues dans le cadre d’un appel à projet, ces heures ont permis à l’Ifpen de pousser son étude du comportement et de la durée de vie d’éoliennes offshore flottantes, et d’ouvrir la voie vers de nouvelles méthodes de conception.

L'objectif est d’éviter de surdimensionner les flotteurs comme c’est généralement le cas pour pallier les limites des approches de simulation conventionnelles. Ayant accès à des volumes de calcul restreints, ces dernières ont généralement recours à des simplifications lors du choix des jeux de conditions environnementales considérées comme représentatives – houle, vent, courants. Or l’environnement marin est complexe. « C’est la première fois que nous avons regardé le comportement des éoliennes flottantes avec un jeu de données exhaustif par rapport à leur environnement pour aboutir à la réponse la plus précise possible », explique M. Le Corre. « Cela nous fournit une référence dont nous avions besoin pour développer des méthodes de conception innovantes ».

Peu coûteuses en temps de calcul, ces nouvelles méthodes de conception sont basées sur des « plans d’expériences adaptatifs ». C’est-à-dire que les conditions environnementales pour le calcul sont choisies de manière dynamique plutôt qu’a priori. L’idée est que les conditions environnementales s’adaptent, en fonction des premiers résultats de calcul, vers celles où les incertitudes sont les plus fortes pour y réaliser plus de calcul. « Ces méthodes nous permettront de trouver le bon compromis entre les régimes (houle, vent, courants) les plus fréquents où les dommages sont généralement faibles, et les régimes plus rares où les dommages sont plus forts », ajoute M. Le Corre.

Réalisées avec le logiciel Deeplines Wind que l’Ifpen co-développe avec l’entreprise Principia, ces simulations en calcul intensif ont pris comme modèle le flotteur TLP – plate-forme à lignes tendues – développé avec SBM Offshore. Celui-ci a notamment été choisi par EDF Renouvelables pour équiper la ferme éolienne pilote au large de Port-Saint-Louis-du-Rhône (Bouches-du-Rhône).

« Les résultats de nos calculs sur Jean Zay ont confirmé la très grande qualité comportementale de ce flotteur », assure M. Le Corre. Maintenus par des lignes d’ancrage tendues, les éléments de flottaison sont sous l’eau et attirés très fort vers la surface. « Cela génère une très grande stabilité et très peu de mouvement au niveau de la nacelle », poursuit-il. « Ce qui perturbe très peu la production, et fatigue beaucoup moins l’ensemble des composants au niveau de la turbine ».

Pour le développement des futures fermes éoliennes flottantes commerciales, le besoin de réduire les coûts va toutefois au-delà du flotteur, conclut M. Le Corre : « Il représente certes un coût important, mais le défi consiste à rendre l’ensemble de la filière compétitive ». L’ambition est d’atteindre un prix de l'électricité de 80 à 100 euros par mégawattheure pour les premières fermes commerciales européennes à horizon 2023-2025, selon WindEurope.

Article rédigé par Georges Simmonds pour RT Flash

Industrie & Technologies

Une intelligence artificielle capable de diagnostiquer la maladie d’Alzheimer grâce à un simple dessin
Mercredi, 18/11/2020 - 08:08

Les chercheurs d’IBM et de Pfizer ont mis au point une intelligence artificielle destinée à diagnostiquer la maladie d'Alzheimer avec un simple test. Concrètement, le test de dépistage consiste à décrire un dessin en quelques phrases. L'image montre deux enfants qui se servent dans un pot à biscuit pendant que leur mère est occupée à faire la vaisselle. L'intelligence artificielle analyse ensuite les descriptions orales des patients.

La manière dont les individus décrivent et perçoivent l'image contient des indices qui augurent l'apparition de la maladie d'Alzheimer. Parmi les principaux symptômes de la maladie, on trouve les pertes de mémoire, la difficulté à comprendre des images ou à communiquer des informations simples. L'IA repère des changements subtils dans la langue, tels que des erreurs grammaticales et une structure de phrase différente, ce qui indique un déclin cognitif.

En fait, le test du dessin est déjà utilisé depuis les années 40 dans le diagnostic de la démence et d'autres maladies cognitives. Mais jusqu'ici, l'interprétation des résultats était laissée à l'appréciation des médecins. Grâce à l'intelligence artificielle, les résultats sont plus précis. Ainsi, l'IA peut « déterminer avec 70 % d'exactitude si les gens développeront la maladie d'Alzheimer », affirme Ajay Royyuru, vice-président de la recherche médicale chez IBM.

« L'étude comprenait 703 échantillons provenant de 270 participants », expliquent les chercheurs d'IBM et de Pfizer dans leur rapport. Étalée sur plusieurs années, cette étude a analysé les descriptions fournies par des patients âgés de plus ou moins 65 ans. Les modèles de prédiction automatique de l'IA étaient programmés pour déterminer si le patient risque de souffrir de l'Alzheimer d'ici ses 85 ans. Pour améliorer la précision des algorithmes, IBM suggère de coupler l'analyse de descriptions orales avec des descriptions écrites.

IBM et Pfizer ne sont pas les seules entreprises à miser sur l'IA pour détecter la maladie d’Alzheimer. L'an dernier, une IA développée par des chercheurs de l’Université de San Francisco s'est notamment montrée capable de diagnostiquer la maladie 6 ans avant un médecin avec une précision de 100 %. Actuellement, le diagnostic de la maladie reste particulièrement complexe. Si les médecins combinent souvent plusieurs tests psychologiques et de mémoire, leur verdict n'est jamais établi avec certitude.

Article rédigé par Georges Simmonds pour RT Flash

The Lancet

^ Haut
Matière
Matière et Energie
Une nouvelle pile à combustible sans membrane
Mercredi, 18/11/2020 - 08:04

L’équipe de recherche du professeur Mohamed Mohamedi de l’Institut national de la recherche scientifique (INRS) a conçu une pile à combustible verte sans membrane qui fonctionne avec l’oxygène de l’air. Les piles à combustible, au fil de leur utilisation, perdent de la tension et cessent de fonctionner. Ce problème survient lorsque des molécules d’alcool (méthanol ou éthanol) contenues dans le compartiment anodique de la pile traversent la membrane qui les sépare du compartiment cathodique. Ce dernier contient des molécules d’oxygène et c’est leur réaction indésirable avec l’alcool qui provoque la chute de tension.

De nombreux scientifiques se sont penchés sur le développement d’une membrane qui empêcherait les molécules d’alcool de la traverser, mais sans succès. Le professeur Mohamed Mohamedi, auteur principal de l’étude publiée le 8 septembre, a choisi une autre approche : développer une pile sans membrane.

Cette nouvelle solution permet de réduire les coûts et les étapes de fabrication, mais elle comporte un défi majeur. « En enlevant la membrane, l’éthanol ou le méthanol réagit toujours avec l’oxygène, ce qui revient au problème de la pile conventionnelle. Pour éviter les chutes de tension, il nous fallait développer des électrodes sélectives dans le compartiment cathodique. Ces électrodes, conçues par mon doctorant Juan Carlos Abrego-Martinez, sont inactives face aux molécules d’alcool, mais sensibles à l’oxygène qui génère l’électricité », explique le chercheur. Il souligne une autre originalité de sa pile sans membrane : l’oxygène qu’elle utilise vient directement de l’air.

Pour concrétiser son nouveau concept, le groupe de recherche a d’abord recouru à des simulations numériques, réalisées par Alonso Moreno Zuria, postdoctorant à l’INRS et premier auteur de l’étude. La modélisation a permis aux chercheurs d’intégrer les électrodes sélectives dans la pile et de tester différentes configurations. « La pile conventionnelle prend la forme d’un sandwich, avec la membrane au centre, et nous avons plutôt choisi de travailler sur un seul plan. Nous devions donc déterminer l’organisation et la distance entre les électrodes qui permettaient d’avoir la meilleure efficacité énergétique, tout en tenant compte de la concentration d’oxygène dans l’air », rapporte le professeur Mohamedi.

Une fois la configuration choisie, les chercheurs ont testé un prototype leur servant de preuve de concept. La pile sans membrane a pu alimenter une DEL (LED) pendant quatre heures avec seulement 234 microlitres de méthanol. Éventuellement, les chercheurs veulent optimiser la pile pour utiliser de l’éthanol, un carburant plus vert, puisqu’il peut être produit à partir de biomasse et de déchets agricoles. Cet alcool fournit aussi davantage de puissance pour un volume équivalent.

Avec sa pile à combustible sans membrane, l’équipe cible l’électronique portable telle que les cellulaires ou les microsystèmes comme des capteurs de pollution de l’air. Contrairement aux batteries conventionnelles qui emmagasinent l’électricité et nécessitent une recharge, les piles à combustible produisent de l’énergie en continu, tant que le carburant est fourni. « Cette méthode d’alimentation serait particulièrement efficace lorsque la recharge est impossible. Imaginez être dans le désert, sans électricité. Vous pourriez recharger votre cellulaire avec une petite capsule d’éthanol que l’on connecte à l’appareil », souligne le professeur Mohamedi.

Article rédigé par Georges Simmonds pour RT Flash

INRS

Une veste productrice d'énergie de source solaire
Mardi, 17/11/2020 - 08:27

À l'avenir, l'électricité proviendrait alors directement de nos propres vêtements. Grâce à un nouveau polymère qui est utilisé sur les fibres textiles, les vestes, les T-shirts, etc., ces derniers pourraient bientôt fonctionner comme des capteurs solaires et donc comme un fournisseur d'énergie mobile.

Aujourd'hui déjà, l'industrie solaire utilise des matériaux capables d'utiliser la lumière indirecte ou ambiante pour la production d'énergie. Ces matériaux contiennent des matériaux luminescents spéciaux et sont connus sous le nom de "luminescent solar concentrators", ou LSC. Les matières luminescentes des LSC captent les rayons lumineux indirects, c'est-à-dire la lumière ambiante diffuse, et les transmettent à la cellule solaire proprement dite, qui convertit ensuite la lumière en énergie électrique.

Cependant, les LSC ne sont actuellement disponibles que sous forme de composants rigides et ne conviennent pas à l'utilisation dans les textiles car ils ne sont ni flexibles ni perméables à l'air et à la vapeur d'eau. Une équipe interdisciplinaire de chercheurs dirigée par Luciano Boesel du département "Biomimetic Membranes and Textiles" a maintenant réussi à incorporer plusieurs de ces substances luminescentes dans un polymère qui offre exactement cette flexibilité et cette perméabilité à l'air.

Ce nouveau matériau est basé sur les "Amphiphilic Polymer Co-Networks", en français "réseau de polymères amphiphiles" ou APCN, un polymère connu depuis longtemps dans la recherche et déjà disponible sur le marché sous forme de lentilles de contact en silicone-hydrogel. Les propriétés particulières du polymère - perméabilité à l'air et à la vapeur d'eau ainsi que flexibilité et stabilité - sont également bénéfiques pour l'œil humain et résultent des propriétés chimiques particulières.

En collaboration avec des collègues des départements "Thin Films and Photovoltaics" et "Advanced Fibers" de l'Empa, l'équipe de Luciano Boesel a ajouté deux substances luminescentes différentes au tissu de gel, ce qui en fait un capteur solaire flexible. Tout comme sur les collecteurs de grande surface, les matériaux luminescents captent ici un spectre de rayons lumineux beaucoup plus large que ce qui est possible avec le photovoltaïque classique.

Les nouveaux capteurs solaires peuvent être appliqués aux fibres textiles sans que le textile ne devienne cassant et susceptible de se fissurer ou que la vapeur d'eau sous forme de sueur ne s'accumule à l'intérieur. Les capteurs solaires portés sur le corps offrent d'immenses avantages pour répondre à la demande d'énergie toujours croissante, notamment pour les appareils portables.

Article rédigé par Georges Simmonds pour RT Flash

Eurekalert

A Lyon, un collège se chauffe à l’énergie solaire
Lundi, 16/11/2020 - 13:19

Doté d’une installation vieillissante, le système de chauffage du collège Revaison, à Saint-Priest (69), va bénéficier d’une rénovation du réseau qui reliera la nouvelle centrale photovoltaïque de production d’énergie installée sur le toit d’un des bâtiments et assurera ainsi le chauffage de l’ensemble de la structure. La Métropole de Lyon en tant que maîtrise d’ouvrage, ainsi qu’Eiffage - La Forézienne, en charge de l’installation, ont fait le choix d’un produit local et made in France avec les solutions Terrendis pour raccorder le réseau de chauffage à la centrale photovoltaïque.

Depuis le mois de juin, des canalisations pré-isolées hyper-flexibles équipées de tubes caloporteurs en polyéthylène réticulé Terrendis ont été mises en place pour réhabiliter une première partie du réseau, qui sera entièrement raccordé d’ici 2021, pour la livraison du collège.

Le choix des produits pour rénover le réseau s’est porté sur la gamme Terrendis, d’abord pour leurs performances. En effet, les tubes, très flexibles grâce à l’isolant PER (Polyéthylène Réticulé) qui n’est pas collé ni à la gaine, ni aux tubes caloporteurs, assurent une performance thermique constante dans le temps. Autre avantage, la rapidité de la livraison et de l’installation des tubes en grandes longueurs pour un gain de temps sur le chantier important.

Les canalisations étant isolées par de la mousse PER hydrophobe, elles assurent une performance thermique constante dans le temps, permettant aux bureaux d’études d’assurer le calcul, même après la mise en oeuvre du produit. « Le soin particulier apporté à la fabrication et la garantie de la durée de vie de nos produits nous permettent d’apporter des solutions respectueuses de l’environnement à nos clients, ainsi qu’une qualité de produit irréprochable à long terme », a souligné Marc-Antoine Blin, président du Groupe Elydan.

Article rédigé par Georges Simmonds pour RT Flash

Cayola

^ Haut
Espace
Espace et Cosmologie
Aurait-on découvert la matière cachée de l’Univers ?
Lundi, 16/11/2020 - 13:17

Les astrophysiciens estiment que près de 40 % de la matière ordinaire qui constitue les étoiles, planètes et galaxies ? demeure inobservée, cachée sous la forme d’un gaz chaud dans les méandres de la toile cosmique. Des scientifiques de l’Institut d’astrophysique spatiale (CNRS/Université Paris-Saclay) auraient pour la première fois mis en évidence cette matière cachée grâce à une étude statistique innovante de données âgées de 20 ans.

Les galaxies se distribuent dans l’univers sous la forme d’un réseau complexe de nœuds connectés entre eux par des filaments, eux même espacés par des vides. C’est ce qu’on appelle la toile cosmique. Ses filaments renfermeraient la quasi-totalité de la matière ordinaire, appelée baryonique, sous la forme d’un gaz diffus et chaud. Mais le faible signal provenant de cette phase clairsemée de gaz fait qu’en pratique, 40 à 50 % des baryons1 manquent à l’appel.

Ce sont ces baryons manquants, cachés dans la structure filamentaire de la toile cosmique, que traquent Nabila Aghanim, chercheuse du CNRS à l’Institut d’astrophysique spatiale (CNRS/Université ParisSaclay), Hideki Tanimura, son post-doctorant, et leurs collègues.

Dans une nouvelle étude, financée par le projet ERC ByoPiC, ils font état d’une analyse statistique qui révèle pour la première fois l’émission, dans le domaine des rayons X, de baryons chauds peuplant les filaments. Ce résultat se fonde sur l’empilement du signal dans le domaine des rayons X, issu du relevé ROSAT2, d’environ 15 000 filaments cosmiques de grande taille, identifiés dans le relevé de galaxies SDSS3.

L’équipe a ainsi tiré parti de la coïncidence spatiale entre la position des filaments et l’émission X qui y est associée pour apporter des preuves tangibles de la présence du gaz chaud dans la toile cosmique et en mesurer pour la première fois la température.

Ce résultat conforte de précédentes analyses de la même équipe de recherche, fondées sur des détections indirectes du gaz chaud dans la toile cosmique via son effet sur le rayonnement fossile. Il ouvre la voie à des études plus détaillées qui permettront grâce à des données de meilleure qualité de tester l’évolution du gaz dans la structure filamentaire de la toile cosmique.

Article rédigé par Georges Simmonds pour RT Flash

CNRS

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
Covid-19 : une diminution sans précédent des émissions de gaz à effet de serre…
Lundi, 16/11/2020 - 13:24

Une étude réalisée par des scientifiques de l'Institut de recherche sur l'impact du changement climatique à Potsdam (Allemagne), a permis de constater une baisse sans précédent des émissions de dioxyde de carbone observée au cours de la première partie de l'année 2020.

Selon l’équipe qui a supervisé les travaux, les émissions de dioxyde de carbone ont diminué de 8,8 % par rapport à la même période en 2019, soit une baisse totale de 1551 millions de tonnes. Parue dans Nature Commucations, cette recherche offre un aperçu précis de l'influence de la Covid-19 sur la consommation mondiale d'énergie. Elle suggère également les mesures fondamentales qui pourraient être prises pour stabiliser le climat mondial au lendemain de la pandémie.

« En avril, au plus fort de la première vague de l'épidémie, lorsque la plupart des grands pays ont mis fin à leur vie publique et à certaines parties de leur économie, les émissions ont même diminué de 16,9 %. Dans l'ensemble, les différentes épidémies ont entraîné des baisses d'émissions que nous ne constatons normalement qu'à court terme lors de fêtes comme Noël ou le festival chinois du printemps », explique l'auteur principal, Zhu Liu, du département des sciences du système terrestre de l'Université de Tsinghua à Pékin.

L’étude montre également quelles parties de l'économie mondiale ont été les plus touchées. La plus grande réduction des émissions a ainsi été observée dans le secteur des transports terrestres, avec une réduction des émissions de CO2 de 40 % dans le monde entier. Une baisse provoquée en grande partie par les mesures de confinement et le travail à domicile, supposent les chercheurs.

En revanche, les secteurs de l'électricité et de l'industrie ont moins contribué à cette baisse, avec respectivement -22 % et -17 %, tout comme les secteurs de l'aviation et du transport maritime. De manière surprenante, même le secteur résidentiel a connu une légère baisse des émissions de 3 %, ce que les scientifiques expliquent par des températures hivernales anormalement élevées dans l'hémisphère Nord (et donc une consommation réduite de chauffage pour les particuliers).

A l'exception d'une diminution continue des émissions provenant du secteur des transports, la plupart des économies ont repris leurs niveaux habituels d'émissions de CO2 en juillet 2020, dès la levée des mesures de confinement. Même s'ils restaient à leurs niveaux historiquement bas, cela aurait un effet plutôt minime sur la concentration de CO2 dans l'atmosphère à long terme, estiment les scientifiques.

Selon ces derniers, la seule stratégie valable pour stabiliser le climat est une refonte complète du secteur de l'industrie et du commerce. « Si la baisse du CO2 est sans précédent, la diminution des activités humaines ne peut pas être la réponse », souligne le co-auteur de l’étude Hans Joachim Schellnhuber, directeur fondateur de l'Institut de recherche sur l'impact du changement climatique à Potsdam.

« Nous avons plutôt besoin de changements structurels et transformationnels dans nos systèmes de production et de consommation d'énergie. Le comportement individuel est certainement important, mais ce sur quoi nous devons vraiment nous concentrer est la réduction de l'intensité en carbone de notre économie mondiale », conclut le chercheur.

Article rédigé par Georges Simmonds pour RT Flash

Nature

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Premier essai de phase 3 pour un vaccin antigrippal produit à partir de cellules végétales
Mercredi, 18/11/2020 - 08:06

Un vaccin antigrippal quadrivalent produit à partir d’un système d’amplification virale végétal a montré une efficacité durable contre les infections respiratoires et les syndromes grippaux chez les 18-64 ans. Cette efficacité était au moins similaire à celle des vaccins commercialisés au cours de l’épidémie 2017-18. La non-infériorité par rapport aux vaccins inactivés a été démontrée chez les 65 ans et plus pour l’épidémie grippale 2018-19.

La plupart des vaccins antigrippaux utilisés actuellement sont produits à partir de cellules d’embryons de poulet. Les recherches se poursuivent pour améliorer la capacité et la rapidité de production, mais aussi pour limiter les mutations susceptibles d’être induites par ces systèmes d’amplification virale qui peuvent affecter l’immunogénicité et donc l’efficacité du vaccin.

Des chercheurs canadiens et finlandais ont utilisé un système d’amplification virale végétal utilisant les cellules d’une variété de plant de tabac d’origine australienne (Nicotiana benthamiana) pour produire un vaccin antigrippal quadrivalent. Ce système permet une production rapide (6 à 8 semaines) et fiable d’hémagglutinine recombinée (protéine présente à la surface du virus de la grippe) sans être dépendant de la production d’œufs. Une publication parue dans The Lancet présente les résultats de deux essais pivots de phase 3 évaluant l’efficacité et la sécurité de ce nouveau vaccin.

Dans un premier essai, le vaccin a été testé chez des sujets de 18 à 64 ans en bonne santé et dans l’autre chez des sujets de 65 ans et plus sans problème de santé aigu ni maladie évolutive. Ces deux essais ont été réalisés sur différents sites en Asie, en Europe et en Amérique du Nord. Les participants de la cohorte 18-64 ans étaient randomisés pour recevoir soit le vaccin quadrivalent (30 µg/souche, n=5.077, 4 souches définies par l’OMS pour l’épidémie grippale de 2017-18), soit un placebo (n=5.083). Les 65 ans et plus recevaient le vaccin quadrivalent (n=6.396, 4 souches recommandées pour l’épidémie 2018-19) ou un vaccin quadrivalent inactivé (n=6.398).

Chez les 65 ans ou plus (âge moyen 72,2 ans), l’analyse a montré une efficacité relative de +8,8 % par rapport au vaccin inactivé, confirmant la non-infériorité de ce vaccin dans la prévention des syndromes grippaux, quelle que soit la souche virale concernée. La protection vaccinale apparaissait de façon plus importante chez les plus de 75 ans. Le mécanisme d’action de ce nouveau vaccin semble différent de celui des vaccins inactivés, passant à la fois par la production d’anticorps et par une immunité cellulaire médiée par les lymphocytes T CD4+, dans les deux groupes d’âge étudiés.

Article rédigé par Georges Simmonds pour RT Flash

NIH

GaToroid pourrait révolutionner l'avenir du traitement du cancer
Mardi, 17/11/2020 - 08:36

La recherche doctorale menée conjointement par le CERN et l’EPFL a abouti à la conception d’une nouvelle machine permettant d’utiliser une technique de pointe, l’hadronthérapie, pour traiter le cancer. En 2017, Enrico Felcini a commencé son doctorat en supraconductivité appliquée sous la supervision de Bertrand Dutoit, responsable du groupe de supraconductivité appliquée de l’EPFL. Ses travaux portaient sur un concept de portique d’hadronthérapie révolutionnaire inventé par Luca Bottura, qui dirige le groupe Aimants du CERN. Trois ans plus tard, il est le cocréateur d’une nouvelle conception de portique, basée sur des aimants supraconducteurs, qui pourrait changer l’avenir du traitement du cancer.

L’hadronthérapie suscite un grand intérêt auprès de la communauté médicale. Il s’agit de la première radiothérapie à utiliser des particules chargées pour délivrer une dose très précise dans une tumeur. Contrairement à la radiothérapie conventionnelle, les tissus environnants sont moins irradiés, ce qui peut limiter les effets secondaires et éviter le développement de métastases.

Toutefois, un hadron étant composé de particules chargées, un champ magnétique est nécessaire pour garantir qu’il atteigne la zone visée dans le corps du patient. Cela requiert un assemblage complexe d’aimants dans de gigantesques machines. Cet ensemble doit également tourner autour du patient avec une précision de l’ordre de 0,5 mm (l’équivalent de 5 cheveux), ce qui en fait un élément d’ingénierie incroyablement complexe. Actuellement, il n’existe que deux équipements de ce type dans le monde, à Heidelberg en Allemagne où la machine mesure environ 13 mètres de haut, 25 mètres de long pour un poids de plus de 600 tonnes, et à Chiba au Japon où elle mesure 11 mètres de haut, 13 mètres de long pour un poids de 250 tonnes, car ils sont supraconducteurs.

Le premier modèle de démonstration est en cours de fabrication. Ses dimensions ont été divisées par trois, mais l’objectif est de créer une machine à dimension réelle au cours de la prochaine décennie.

Article rédigé par Georges Simmonds pour RT Flash

EPFL

Cancer du pancréas : une nouvelle piste pour empêcher les métastases
Mardi, 17/11/2020 - 08:34

Un nouveau traitement ciblé contre le cancer du pancréas est en cours de développement aux États-Unis : le defactinib. Utilisé en association avec d’autres médicaments, il inhibe une protéine qui est surexprimée dans les cellules cancéreuses et participe au développement de la maladie, la protéine FAK (pour focal adhesion kinase).

Au Centre de recherche en cancérologie de Toulouse, Christine Jean et ses collaborateurs estiment que cette nouvelle molécule pourrait être doublement efficace, en permettant aussi de lutter contre l’apparition de métastases. En effet, cette équipe vient de montrer que, au moins chez certains patients, la protéine FAK est également suractivée dans les fibroblastes du microenvironnement tumoral et que ce phénomène promeut l’apparition de métastases.

Pour arriver à ces conclusions, les chercheurs ont d'abord travaillé à partir d’échantillons de tumeurs de patients atteints de cancer du pancréas, issus de résections chirurgicales. Ils ont constaté que l’activité de FAK dans des fibroblastes présents dans ces échantillons était en forte augmentation par rapport à celle mesurée dans des fibroblastes issus de tissus sains. L’association entre le niveau d’activité de FAK dans les fibroblastes associés à la tumeur et l’espérance de vie de 140 patients a ensuite été étudiée, révélant que les personnes chez lesquelles FAK était plus fortement activée décédaient plus tôt que les autres.

Dans un second temps, les chercheurs ont utilisé un modèle de souris pour étudier les conséquences de la suractivation de FAK dans les fibroblastes sur différentes propriétés de la tumeur : la quantité des cellules cancéreuses, leur capacité de migration ou encore la composition du système immunitaire au sein de la tumeur. Il est apparu que l’aspect et la quantité de cellules cancéreuses n’étaient pas impactés. En revanche, la composition et la structure de la "matière" présente entre les cellules (la matrice extracellulaire) étaient modifiées, facilitant la migration des cellules cancéreuses.

De plus, les macrophages M2 protumoraux, des cellules immunitaires qui favorisent la croissance tumorale, étaient davantage recrutés au sein de la tumeur lorsque FAK était suractivée. « Les fibroblastes qui présentent une FAK fortement activée libèrent des signaux moléculaires qui modifient le comportement des cellules voisines et l’organisation des fibres de collagène qui servent de rail pour la migration des cellules cancéreuses », détaille Christine Jean.

En dernier lieu, les chercheurs ont voulu évaluer l’impact de la suractivité de FAK sur la progression du cancer. Pour cela, ils ont coadministré à des souris des cellules cancéreuses et des fibroblastes qui expriment une protéine FAK active ou inactive. Dans le premier groupe, de nombreuses métastases ont été retrouvées dans les poumons des animaux alors qu’elles étaient rarissimes chez les seconds.

« La suractivation de FAK semble donc associée de façon déterminante à la diffusion des cellules cancéreuses dans l’organisme et à l’apparition de métastases. Or, c’est la présence de ces dernières qui augmente et accélère le risque de décès en cas de cancer du pancréas. C’est pourquoi nous avons bon espoir que cibler cette protéine protégera contre l’apparition de métastases. En outre, le niveau d’activation de FAK dans les fibroblastes pourrait même devenir un marqueur de réponse au traitement. Cela méritera d’être évalué », estime Christine Jean.

Article rédigé par Georges Simmonds pour RT Flash

Inserm

Maladie d’Alzheimer : les goûters sucrés pourraient augmenter le risque pour les personnes prédisposées
Mardi, 17/11/2020 - 08:32

Des chercheurs français ont mis en évidence une association entre les collations sucrées et le risque de développer la maladie d’Alzheimer chez les personnes possédant l’allèle E4 du gène APOE. Selon les auteurs de ces travaux publiés dans la revue Alzheimer’s and Dementia, ces nouvelles connaissances ouvrent la voie à une meilleure compréhension des liens entre facteurs de risques environnementaux et génétiques. Elles pourraient également permettre d’améliorer les stratégies de prévention des démences.

Il faut savoir qu’il existe deux façons de développer la maladie d’Alzheimer. La forme dite sporadique est due à un ensemble complexe d’éléments touchant à la génétique, à notre environnement et à notre style de vie. L’allèle E4 du gène APOE est associé à cette forme, qui apparaît habituellement après 65 ans. Les résultats obtenus par la chercheuse Sylvaine Artero et ses collègues de l’Université de Montpellier concernent cette forme.

L’autre forme, celle qui est héréditaire, est beaucoup plus rare et représente 1 % de tous les cas. Une altération de trois gènes est associée à cette forme : les gènes PSEN1, PSEN2 et APP. Cette forme provoque les mêmes symptômes que la forme sporadique, mais peut se développer à tout âge.

Article rédigé par Georges Simmonds pour RT Flash

Alzheimer's & Dementia

Une nouvelle piste thérapeutique contre l'hépatite C
Mardi, 17/11/2020 - 08:30

Des virologistes de l'Institut national de la recherche scientifique (INRS), au Québec, ont révélé le rôle clé d'une protéine dans la progression de l'hépatite C, ce qui ouvre la voie à un traitement plus efficace. Actuellement, aucun vaccin n'existe contre cette maladie qui affecte plus de 130 millions de personnes à l'échelle de la planète. Par ailleurs, les antiviraux existants coûtent cher et restent peu accessibles dans les pays en développement, où la prévalence est élevée.

L'équipe du professeur Terence Ndonyi Bukong, en collaboration avec le professeur Patrick Labonté, a révélé une potentielle cible thérapeutique. En effet, les virologistes ont mis au jour le rôle d'une protéine dans le processus de déclenchement et de développement de la maladie, appelé pathogenèse. Cette découverte prometteuse pourrait permettre de mieux traiter l'hépatite C qui tue environ 500.000 personnes chaque année.

Habituellement, le système immunitaire doit reconnaître les virus pour les attaquer et prévenir une infection. Or, les virus de l'hépatite C sont doués pour jouer à la cachette. Ils se déplacent incognito dans des exosomes, des véhicules de transport et d'expulsion de composants cellulaires chez la cellule hôte. Pour insérer leur ARN viral dans le cargo exosomal, les virus interagissent avec une zone clé de la protéine RTN3.

« Nous sommes les premiers à montrer le rôle exosomal de cette protéine dans le processus de la pathogenèse de l'hépatite C. En ayant identifié les sections responsables de la formation d'un exosome infectieux, nous pouvons maintenant trouver les molécules distinctives qui bloquent l'interaction avec l'ARN viral. Ce dernier n'aurait plus la possibilité d'entrer dans les exosomes et de se cacher du système immunitaire », souligne le virologiste Bukong.

La découverte de l'interaction entre le virus et la protéine RTN3 ouvre la porte à des recherches sur d'autres virus qui utilisent la voie exosomale pour éviter la détection. « Par exemple, des études ont montré que le VIH, le Zika et le virus de l'hépatite B se cachent aussi dans les exosomes. Cela cause un problème dans l'utilisation de vaccins puisque, même si des anticorps sont développés, ils ne peuvent pas bloquer l'infection ou la transmission des virus », explique le chercheur. « Si la protéine RTN3 joue aussi un rôle important pour ces autres maladies, cela pourrait permettre d'améliorer l'efficacité des traitements et, éventuellement, l'efficacité des vaccins ».

Article rédigé par Georges Simmonds pour RT Flash

L'Actualité

Le microbiote, une nouvelle arme contre le cancer
Lundi, 16/11/2020 - 13:28

Une nouvelle étude vient de confirmer le rôle de médiation essentiel du microbiote intestinal dans l’efficacité de certaines thérapies anticancéreuses. Les chercheurs du Lawson Health Research Institute (Western University, Ontario) ont en effet montré le rôle du microbiome intestinal dans la réponse à un médicament oral chez les patients atteints d'un cancer de la prostate. Ces recherches montrent comment le principe actif (ici l'acétate d'abiratérone) est métabolisé par les bactéries intestinales de manière à réduire les organismes nuisibles et à favoriser les organismes qui combattent le cancer.

« Notre recherche illustre la manière dont le microbiome humain peut influencer le développement, la progression et le traitement du cancer », explique l’auteur principal, Brendan Daisley, chercheur à la Schulich School of Medicine & Dentistry de la Western University. L’étude met en effet en évidence une interaction clé entre un médicament anticancéreux et le microbiome intestinal, qui se traduit par la production de composés bénéfiques aux propriétés anticancéreuses.

Les thérapies traditionnelles du cancer de la prostate vont priver le corps d'hormones androgènes, responsables de la croissance du cancer de la prostate. Cependant, ces thérapies de privation d'androgènes ne sont pas toujours efficaces et dans certains cas d’autres thérapies doivent être utilisées : l'acétate d'abiratérone fait partie de ces thérapies alternatives et le médicament se montre très efficace dans le traitement du cancer de la prostate réfractaire à d'autres traitements. Si l'acétate d'abiratérone vise également à réduire les androgènes dans le corps, il le fait par un mécanisme différent et, contrairement aux thérapies traditionnelles, le médicament est pris par voie orale.

Prise par voie orale, implication du tractus intestinal : les médicaments pris par voie orale, et qui traversent le tractus intestinal, entrent directement en contact avec les milliards de micro-organismes du microbiote intestinal. Il est donc primordial de se poser la question de leurs interactions possibles avec le microbiome intestinal.

L’étude a été menée sur 68 patients atteints d'un cancer de la prostate, dont un groupe de participants traités avec l'acétate d'abiratérone et un groupe de patients traités avec des thérapies traditionnelles de privation d'androgènes. L'équipe a recueilli et analysé des échantillons de selles de patients.

Cette analyse constate que les microbiomes intestinaux des patients changent radicalement après la prise du médicament ; les bactéries intestinales métabolisent le médicament, ce qui entraîne l’augmentation significative d'une bactérie en particulier, appelée Akkermansia muciniphila : cette bactérie considérée comme un « probiotique de nouvelle génération », a déjà été impliquée dans plusieurs grandes études sur le cancer. Ces travaux montrent également que cette augmentation des niveaux d’Akkermansia muciniphila conduit à une production accrue de vitamine K2, connue pour ses propriétés anticancéreuses car pouvant inhiber la croissance tumorale.

Il se confirme donc que le microbiome intestinal joue un rôle important dans la réponse au traitement, à travers différentes interactions qui doivent à présent être identifiées et explorées.

Article rédigé par Georges Simmonds pour RT Flash

Nature

Mélanome : un marqueur sanguin permet d’optimiser le traitement
Lundi, 16/11/2020 - 13:26

Des chercheurs américains ont constaté qu’un biomarqueur permet de déterminer avec plus de précision la dose de traitement à administrer dans le cas d’un mélanome. « Sélectionner le bon traitement pour traiter le mélanome est très complexe, et cela s’appuie sur un certain nombre de facteurs, dont les caractéristiques de la tumeur et la manière dont elle s’est propagée dans le corps », explique Elin Gray, directrice de la recherche.

Le taux d’ADN tumoral circulant est l’un des indicateurs du cancer : il s’agit de l’ADN des cellules cancéreuses qui circule dans le sang. Dans cette recherche, Elin Gray et son équipe ont réalisé des analyses de sang chez 125 patients atteints d’un mélanome métastatique, avant qu’ils reçoivent une immunothérapie. Ils ont relevé les taux d’ADN tumoral circulant chez chacun d’entre eux. Leur recherche montre que plus le taux est élevé, plus les chances de réussite d’un traitement agressif contre la tumeur sont importantes. Ce constat est valable lorsque le traitement est administré en première intention, mais dans le cas d’une deuxième administration, le taux d’ADN tumoral circulant ne permet pas de déterminer les chances de réussite de l’immunothérapie.

Cette découverte donne l’espoir aux chercheurs de pouvoir augmenter le taux de survie des patients souffrant d'un mélanome. « Nous nous sommes battus pour trouver de nouveaux médicaments et de nouvelles thérapies pour traiter le mélanome, mais si nous pouvons prouver qu’un certain médicament peut fonctionner dans le cas de certaines tumeurs, cela pourrait nous permettre d’utiliser des traitements déjà existants de manière plus ciblée et plus précise », souligne Elin Gray.

Le mélanome est un cancer de la peau, peu fréquent mais grave car il y a des risques importants de métastases. 10 000 nouveaux cas sont détectés chaque année en France. La première étape de traitement est la chirurgie, puis les patients reçoivent généralement une immunothérapie ou une chimiothérapie, voire une radiothérapie.

Article rédigé par Georges Simmonds pour RT Flash

CCR

Les particules fines, probables facteurs de troubles neurologiques
Lundi, 16/11/2020 - 13:22

Une étude menée conjointement par les écoles de santé publique des universités Emory et Columbia (Etats-Unis) s’est intéressée aux effets de la pollution par des particules fines (PM2.5) et les maladies neurodégénératives.

Pour comprendre le lien entre l’aggravation de la démence et la pollution atmosphérique, les chercheurs ont examiné les données relatives aux admissions à l’hôpital entre 2000 et 2016 de 63 millions de bénéficiaires de l’Assurance maladie aux Etats-Unis. Ces données ont été croisées avec les relevés de concentrations de particules fines PM2.5 et les codes postaux des personnes concernées. Tous les patients de cette étude étaient âgés d’au moins 65 ans.

Ainsi, ils ont constaté que pour 5 microgrammes d’air supplémentaire pollué par les particules fines, il y avait un accroissement de 13 % des admissions à l’hôpital, aussi bien pour la maladie d’Alzheimer que pour la maladie de Parkinson et les autres démences.

« Notre étude s'appuie sur la base de preuves, petite mais émergente, indiquant que les expositions à long terme aux PM2,5 sont liées à un risque accru de détérioration de la santé neurologique, même à des concentrations de PM2,5 bien inférieures aux normes nationales actuelles », indique Xiao Wu, doctorants en biostatistique et coauteur de l’étude.

Les femmes, les personnes caucasiennes et la population urbaine seraient particulièrement touchées par ce phénomène selon l’étude. De même, en ce qui concerne les Etats-Unis, les cas de maladie de Parkinson sont plus élevés dans le nord-est du pays, tandis que les cas de maladie d’Alzheimer et d’autres démences se concentraient plus dans le Midwest.

« Notre étude à l'échelle des États-Unis montre que les normes actuelles ne protègent pas suffisamment la population américaine vieillissante, ce qui souligne la nécessité de normes et de politiques plus strictes qui contribuent à réduire davantage les concentrations de PM2,5 et à améliorer la qualité de l'air en général », souligne Antonella Zanobetti, chercheuse en santé environnementale et coautrice de l’étude.

Article rédigé par Georges Simmonds pour RT Flash

The Lancet

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top