RTFlash

RTFLASH Recherche & Technologie
NUMERO 1255
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 26 Avril 2024
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
Un nouveau modèle d'IA modulaire
Matière
Des plastiques durables fabriqués à partir de déchets agricoles
La réparation magnétique des plastiques pourrait augmenter leur durée de vie
Du béton autochauffant qui fait fondre la neige de façon autonome
Un nouveau mode de stockage de l’hydrogène deux fois plus compact
Des « photoswitches » polymères qui se déforment sous la lumière
Vivant
Localiser les neurones qui régulent le cœur et les poumons
Le régime MIND semble réduire le vieillissement physique et cognitif
Des exercices aérobiques réguliers réduisent sensiblement les risques d'hospitalisation
Un test sanguin pour aider à détecter le trouble bipolaire
Vers un diagnostic métabolomique des pensées suicidaires
Cancer du sein triple négatif : moins de rechutes si des cellules immunitaires sont dans la tumeur
L'édition génomique s'attaque au Sida
Le vaccin contre l'hépatite E montre son efficacité à long terme
Des vaches génétiquement modifiées avec de l'ADN humain produisent du lait à l'insuline
Edito
La révolution biométrique est en marche...



La biométrie est aussi vieille que notre civilisation puisqu'à Babylone, il y a 5000 ans, les commerçants utilisaient déjà l'empreinte de leur pouce comme signature, pour authentifier leur identité. Il y a deux siècles, en 1823, un médecin et anatomiste tchèque, Johan Evangelista Purkinje, montra qu'une empreinte digitale pouvait identifier de manière quasi-absolue un individu. Dans les années 1870, le médecin écossais Henry Faulds utilisa pour la première fois les empreintes digitales à des fins d’identification. Un peu plus tard, reprenant les travaux de Faulds, le scientifique anglais Francis Galton, renommé pour ses travaux en anthropologie, réalisa de nombreuses études sur les mensurations des êtres humains, et commença à établir des statistiques sur la taille, le poids, et d’autres caractères du corps humain. Galton étudia tout particulièrement les empreintes digitales et mit au point une nouvelle méthode d’identification dans son célèbre ouvrage « Fingerprints », publié en 1892, où il montrait la permanence et l'unité des figures cutanées. Il établit également qu'il n’y avait qu'une chance sur 64 milliards que deux individus aient les mêmes figures digitales.

A la même époque en France, Alphonse Bertillon, qui allait devenir le père de la criminologie moderne et travaillait depuis 1879 à la Préfecture de Paris, mis au point en 1883 une méthode scientifique révolutionnaire, l'anthropologie judiciaire, reposant sur 14 mensurations, ainsi que sur des photographies anthropométriques et le relevé des empreintes digitales. Cet outil s'avéra rapidement d'une efficacité redoutable pour identifier de manière rapide et précise des criminels récidivistes et Bertillon fut nommé en 1892 chef du service de l’identité judiciaire de la préfecture de police.

Dès 1952, les laboratoires Bell mettaient Audry  sur le marché, le premier système de reconnaissance vocale fiable, capable d'identifier les chiffres de 0 à 9, avec un taux de réussite de 99 % En 1987, la France se dota de son premier Fichier Automatisé des Empreintes Digitales (FAED), qui permettait le traitement automatisé des traces papillaires et des empreintes digitales par les services de police et de gendarmerie française. En 1991, le MIT mit au point le premier outil de reconnaissance faciale, Eingenfaces. Le premier téléphone portable doté d'un lecteur d'empreintes digitales, développé par Motorola, fut lancé en 2011. En 2012 la banque japonaise, la Ogaki Kyoritsu Bank, fut la première à s’équiper de distributeurs de billets équipés d'un système mis au point par Fujitsu, permettant l’authentification biométrique par analyse du schéma vasculaire de la paume pré-enregistré dans le serveur de la banque. La même année fut mis en service le premier outil français de comparaison d’images de visages, couplé au nouveau fichier du traitement des antécédents judiciaires (TAJ). Depuis 2014, Facebook est capable d'identifier votre visage grâce à son algorithme maison, Deepface. Enfin, en 2018, la police chinoise réussissait à arrêter un suspect grâce à l’utilisation, en direct, de la reconnaissance faciale. Dans un scenario digne d'un film de science-fiction et rappelant le film de science-fiction « Ennemi d'Etat », l’homme avait été repéré dans une foule de plus de 50 000 personnes, alors qu'il assistait à un concert pop à Nanchang.

Aujourd'hui, avec l'apparition récente de la carte biométrique avec lecteur d'empreintes digitales intégré, il suffit de poser le doigt pour valider la transaction sans limite du montant, tant qu'elle est autorisée. Les données biométriques de la carte sont stockées de manière sécurisée sur la puce, et ne sont pas envoyées sur les serveurs bancaires, ni communiquées aux commerçants. Mais une société basée à Las Vegas, Startmetric, vient d'annoncer le lancement imminent d'une nouvelle génération de cartes bancaires biométriques encore plus sécurisées. Baptisées SMME, ces nouvelles cartes disposeront de leur propre système interne et sécurisé de capture et stockage d'empreintes digitales et rendront inutile le déplacement à la banque pour y déposer ses empreintes. L'utilisateur pourra enregistrer son empreinte sur la carte directement à domicile. Autre innovation, ces cartes posséderont leur propre source d'énergie (une petite batterie rechargeable intégrée) et seront capables de se recharger automatiquement par induction, en convertissant les ondes radio en électricité.

Depuis 2019, la banque espagnole CaixaBank développe des distributeurs automatiques de billets qui reposent sur l'identification par reconnaissance faciale, par le biais d'une caméra intégrée dans l'automate et d'un écran de contrôle. Ce dispositif unique au monde permet de valider jusqu'à 16.000 points sur l'image du visage de l'utilisateur, ce qui garantit une identification totalement sécurisée. Pour pouvoir utiliser ces nouveaux distributeurs, les clients doivent simplement aller dans leur agence pour s’enregistrer, en quelques minutes. La société française Ingenico produit déjà le tiers des terminaux de paiement en circulation actuellement dans le monde. Cette société veut aller encore plus loin dans la sécurisation des transactions commerciales et bancaires et table sur un outil encore plus fiable, l'identification par reconnaissance de la paume de sa main. Ingenico a en effet développé une nouvelle technologie qui repose sur la configuration veineuse de son utilisateur. Pour effectuer un paiement, il suffit d’approcher sa main à une dizaine de centimètres du scanner, qui va alors analyser le réseau de veines pour identifier le client et valider le paiement. Michel Léger, vice-président exécutif mondial du développement des solutions chez Ingenico, assure que la paume de la main est « l’élément le plus sûr d’un point de vue biométrique, devant l’iris, les veines du doigt ou l’empreinte digitale ». On mesure mieux l'enjeu que représentent ces nouveaux outils de paiement biométriques quand on sait que, selon une étude récente du Cabinet Juniper Research, le volume des transactions effectuées via des terminaux de point de vente (POS) biométriques devrait connaître une croissance substantielle de 138 % et atteindre les 46 milliards de dollars en 2028.

Les avancées remarquables de la biométrie devraient également permettre l'essor du vote électronique sécurisé et de la démocratie numérique, qui n'en est encore qu'à ses prémices, tant les enjeux de sécurité restent imparfaitement relevés à ce jour. De manière révélatrice, de nombreux pays, USA, Allemagne, Pays-Bas, Belgique notamment, qui voulaient basculer vers le vote entièrement électronique, ont fait machine arrière au cours de ces dernières années, faute de pouvoir garantir un haut niveau de sécurité et après avoir constaté des failles et anomalies dans certains scrutins électroniques. Pour Véronique Cortier, spécialiste des systèmes de vote électronique, très peu de systèmes électroniques de vote offrent aujourd'hui des garanties de scrutin équivalentes à celles du vote manuel. Cette chercheuse pointe deux points faibles dans cet outil électronique : le premier est celui des codes de connexion, qui sont envoyés par mail ou SMS, et donc très faciles à transmettre à un tiers. Le second a trait à l’ordinateur personnel à partir duquel l’électeur vote. Il est en effet très difficile de se protéger contre une infection sophistiquée de son ordinateur par un virus destiné à modifier son vote avant l’envoi, par exemple.

Le seul pays au monde qui semble avoir relevé ce difficile défi de la sécurisation du vote électronique est à ce jour l'Estonie. Après avoir introduit, dès 2005, le vote électronique par ordinateur, qui a été utilisé pour la première fois par plus de 50 % des votants lors des dernières législatives en 2023, l’Estonie a autorisé le vote à partir de terminaux mobiles dès le prochain scrutin européen, en juin 2024, ce qui serait une première mondiale, et une nouvelle avancée dans ce pays déjà à la pointe de l’utilisation des technologies numériques. Pour assurer la sécurité du vote, le système est testé avant chaque scrutin et repose sur un code source public qui est accessible par tous. Le vote s’étale sur une durée de dix jours et l’électeur peut modifier son choix (chaque bulletin étant signé numériquement et horodaté) car seul son dernier bulletin électronique est pris en compte. Pour voter, chaque électeur est identifié grâce à une carte d’identité électronique à deux codes secrets, notamment pour apposer sa signature électronique.

En fait, selon la majorité des spécialistes, le vote électronique sécurisé devra, pour se généraliser en toute sécurité, combiner de manière ingénieuse deux technologies, d'une part, la technologie blockchain, qui garantit qu’une donnée vraie en entrée le restera durant l’intégralité de son cycle de vie et d'autre part, la biométrie, qui permet de relier de manière forte une donnée à une caractéristique physique unique et immuable d’un individu. L'ajout de la biométrie dans le processus de vote électronique pourrait donc permettre de s'assurer que la donnée stockée dans la blockchain est vraie et un système combinant ces deux technologies peut en théorie permettre de garantir dans le temps la véracité des informations et l'identité des émetteurs de ces données.

En France, la généralisation du vote électronique n'est pas envisagée pour l'instant et nécessiterait une nouvelle carte d'identité numérique hautement sécurisée. Celle-ci, annoncée depuis des années mais régulièrement repoussée, vient d'être confirmée par le Gouvernement comme projet prioritaire et devrait fusionner la carte d'identité et la carte vitale, ce qui ne va pas sans poser de sérieux problèmes de sécurité et de confidentialité des données. L'année dernière, la CNIL a émis un avis concernant cette future carte qui préconise notamment que le numéro de sécurité sociale à 15 chiffres ne devra pas être inscrit sur la carte d'identité, mais stocké de manière cryptée « dans un compartiment cloisonné » de la puce électronique qui équipera ces futures cartes. Cette carte devrait donc comporter deux unités de stockage indépendantes, l'une contenant les informations d'identité pour les forces de l'ordre et l'autre les informations concernant la Sécurité sociale, consultables uniquement par les professionnels de santé. Cette carte duale, qui devrait réduire sensiblement les fraudes et autres usurpations d'identité, devrait être elle-même dématérialisable, via l'application France Identité, et stockable sur son mobile ou sa tablette.

La société Veintree propose une méthode d’authentification biométrique qui repose, comme celle d’Indigo, sur l’analyse des veines des mains, et présente l’avantage de ne pas conserver les données personnelles des utilisateurs. La solution proposée par Veintree est capable de générer des serrures numériques différentes pour chaque application. Ces serrures sont uniques et totalement personnalisées ; elles ne peuvent être ouvertes qu’à l’aide des mains du possesseur, sans qu’il soit besoin de connaître son identité. Ce système d’authentification anonyme permet une très forte protection des données personnelles et de la vie privée des utilisateurs, et peut, si nécessaire, être couplé avec la blockchain pour sécuriser l’ensemble de la chaîne d’informations. Le scanner développé par Veintree pourrait trouver une multitude d’applications dans de nombreux secteurs où il est essentiel de garantir à la fois l’authenticité originelle des données, leur intégrité au cours de la transmission et la confidentialité sur l’émetteur des informations : c’est notamment le cas dans le secteur médical, le commerce électronique mais également les démarches administratives en ligne et bien sûr le vote électronique sécurisé.

Je souligne qu’en novembre dernier, le Conseil et le Parlement européen sont parvenus à un accord sur la mise en place d'une Identité Numérique européenne, destinée à garantir une identité numérique fiable et sécurisée pour tous les Européens. A terme, ce nouvel outil sera proposé aux citoyens et aux entreprises, sous forme de portefeuilles numériques qui permettront de prouver leur identité et partager des documents électroniques à partir de leur portefeuille numérique, en cliquant sur une touche sur leur téléphone portable. Ces portefeuilles européens d'identité numérique permettront à tous les Européens d'accéder aux services en ligne à l'aide de leur identification numérique nationale, qui sera reconnue dans toute l'Europe, sans avoir à partager des données à caractère personnel.

Le secteur des transports connaît également une révolution avec l'arrivée massive de nouveaux outils biométriques comme Parafe qui permet en France, dans certains aéroports, un contrôle automatisé des voyageurs munis d’un passeport biométrique, ou les “Smart Gates”, comme celles de l'aéroport de Dubaï, qui utilisent la reconnaissance faciale pour vérifier l’identité des voyageurs en quelques secondes. Au cours de cette année, l'aéroport Changi de Singapour va déployer un nouveau système de contrôle biométrique, qui permettra aux passagers de quitter la cité-État sans passeport ni carte d'embarquement, en utilisant uniquement des données biométriques. Cet outil repose sur la création d'un "jeton d’authentification unique" (Token) qui sera utilisé pour les différentes opérations d'embarquement, dépôt des bagages, contrôle d’immigration, et rendra inutile la présentation de documents physiques.

Il y a un an, une société américaine, Biofire, a dévoilé un pistolet biométrique conçu pour ne pouvoir être utilisé que par son propriétaire. L'arme, vendue 1500 dollars, reconnaît le propriétaire grâce à ses empreintes digitales, mais aussi en identifiant son visage. Dès que son maître lâche l'arme, personne ne peut s’en servir. Toutes les données biométriques restent dans le téléphone, assure Biofire, qui précise que l’arme ne comporte ni puce Wi-Fi, ni GPS. Le pistolet dispose d'une batterie lithium-ion, comme les téléphones. L’enjeu de ces armes biométriques est particulièrement fort, tant sur le plan économique que politique, dans un pays qui compte plus d’armes que d’habitants, où le nombre d’homicides est quatre fois plus élevé qu’en France, ramené à la population…

Il est intéressant de souligner que le champ des marqueurs biométriques utilisables de façon pertinente ne cesse de s'étendre, de façon parfois surprenante. Outre l'analyse numérique des empreintes digitales, de la voix, de l'iris, de la paume de la main ou encore de la forme du visage, d'autres caractéristiques plus étonnantes pourraient être intégrées dans les futurs outils biométriques et venir en renforcer encore l'efficacité et la sécurité. En 2022, des chercheurs japonais des universités de Kyushu et de Tokyo (Japon) ont développé un capteur olfactif capable d'identifier une personne en analysant les molécules présentes dans son souffle. Combiné à un programme d'apprentissage automatique, leur capteur est capable de discriminer une vingtaine d'individus avec un taux de réussite de plus de 97 % ! Récemment, des chercheurs de Mahesh Panchagnula et de l’institut indien de technologie de Madras, travaillaient initialement sur un projet consistant à repérer les personnes qui souffrent de problèmes respiratoires, afin de les prendre en charge. Il était question de concevoir un modèle d’IA pour automatiser le processus. Ces scientifiques ont alors découvert que le souffle pouvait servir à identifier avec certitude une personne donnée, non en se focalisant sur l’haleine et sa composition, mais sur le flux d’air lui-même, qui est produit de manière différente par chaque individu en fonction de sa morphologie et la forme de ses voies respiratoires. L'outil expérimental d'analyse du souffle permet de les identifier avec une précision de 97 % …

Au Canada, des chercheurs de l'Institut de génie biomédical de l’Université du Nouveau-Brunswick travaillent sur l'utilisation de la démarche, propre à chaque personne, pour améliorer les systèmes biométriques actuels. Selon eux, il existe des caractéristiques repérables et propres à chaque individu, qui rendent chaque démarche unique, même en cas de changement d'allure, de changement de chaussures ou de difficultés temporaires à marcher, à la suite d'un accident par exemple. Ces scientifiques se disent persuadés qu'il est possible, en utilisant l'apprentissage profond et l'IA, de mettre au point des outils fiables et précis qui pourront identifier à coup sûr une personne grâce à son "empreinte" de déplacement...

Je note enfin qu’il est parfaitement possible de combiner différents paramètres biométriques (voix, empreintes digitales, iris, veines de la main) pour parvenir, dans le cas de transactions hautement sensibles, à un très haut niveau de protection, sachant que forcer de tels outils nécessitent des moyens humains et techniques considérables qui dissuadent grandement les tentatives de fraudes. Et sans aller, dès maintenant, jusqu’à imaginer une société de contrôle ou chacun possèderait une puce biométrique sous la peau, il est probable que nous allions rapidement vers des outils biométriques ultra-miniaturisés, dématérialisés, multicritères et portables qui, combinés à la blockchain, permettront de concilier le contrôle de l’intégrité des données générées et transmises avec le respect de la vie privée et de l’anonymat des utilisateurs, ce qui constitue une condition sine qua non au développement d’une société numérique de confiance, respectueuse à la fois des droits individuels, des principes et des libertés démocratiques.

René TRÉGOUËT

Sénateur honoraire

Fondateur du Groupe de Prospective du Sénat

e-mail : tregouet@gmail.com


TIC
Information et Communication
Un nouveau modèle d'IA modulaire
Mardi, 23/04/2024 - 05:40

Tout le monde a entendu parler des grands modèles de langage (LLM). Ce sont des modèles d’apprentissage profond à grande échelle entraînés sur d’immenses quantités de texte qui constituent la base des chatbots tels que ChatGPT d’OpenAI. Les modèles multimodaux (MM) de nouvelle génération peuvent apprendre à partir d’entrées autres que du texte, y compris la vidéo, les images et le son.

La création de modèles multimodaux à plus petite échelle soulève des défis majeurs, dont celui de la fiabilité face aux informations manquantes non aléatoires. Il s’agit d’informations dont ne dispose pas un modèle, souvent en raison d’une disponibilité biaisée des ressources. Il est donc essentiel de veiller à ce que le modèle n’apprenne pas les schémas d’absence biaisés en faisant ses prédictions.

Pour remédier à ce problème, des chercheuses et chercheurs du Laboratoire d’apprentissage machine pour l’éducation (ML4ED) et du Laboratoire d’apprentissage machine et d’optimisation (MLO) de la Faculté informatique et communications de l’EPFL ont développé et testé l’exact opposé d’un grand modèle de langage. Créé sous l’impulsion de la professeure Mary-Anne Hartley, responsable du Laboratory for intelligent Global Health Technologies, hébergé conjointement au Laboratoire MLO et à l’École de médecine de Yale, et de la professeure Tanja Käser, responsable du Laboratoire ML4ED, MultiModN est un modèle multimodal modulaire unique, récemment présenté lors de la conférence NeurIPS2023.

À l’instar des modèles multimodaux actuels, MultiModN peut apprendre à partir de textes, d’images, de vidéos et de sons. Contrairement aux modèles multimodaux existants, ce dernier est composé d’un nombre de modules plus petits, autonomes et spécifiques aux entrées, qui peuvent être sélectionnés selon les informations disponibles, puis enchaînés dans une séquence de n’importe quel nombre, combinaison ou type d’entrée. Il peut ensuite produire n’importe quel nombre ou combinaison de prédictions. « Nous avons évalué MultiModN dans dix tâches réelles, dont l’aide au diagnostic médical, la prédiction des résultats scolaires et les prévisions météorologiques. Grâce à ces expériences, nous pensons que MultiModN est la première approche de la modélisation multimodale intrinsèquement interprétable et résistante aux données manquantes de façon non aléatoire (MNAR) », explique Vinitra Swamy, doctorante aux Laboratoires ML4ED et MLO et co-autrice principale du projet.

Le premier cas d’utilisation de MultiModN sera un système d’aide à la décision clinique destiné au personnel médical dans les environnements à faibles ressources. Dans le domaine de la santé, les données cliniques sont souvent manquantes, peut-être en raison de contraintes de ressources (un patient ou une patiente n’a pas les moyens de passer le test) ou d’une abondance de ressources (le test est redondant en raison d’un test supérieur qui a été effectué). MultiModN peut apprendre à partir de ces données réelles sans adopter ses biais, et adapter ses prédictions à n’importe quel nombre ou combinaison d’entrées. « L’absence est une caractéristique des données dans les environnements à faibles ressources. Lorsque les modèles apprennent ces schémas d’absence, ils peuvent encoder des biais dans leurs prédictions. Le besoin de flexibilité face à des ressources disponibles de manière imprévisible est à l’origine de MultiModN », précise Mary-Anne Hartley, qui est également médecin.

La publication n’est toutefois que la première étape de la mise en œuvre. Mary-Anne Hartley travaille avec des collègues du Centre hospitalier universitaire vaudois (CHUV) et Inselspital, de l’hôpital universitaire de Berne uBern pour mener des études cliniques axées sur le diagnostic de la pneumonie et de la tuberculose dans des environnements à faibles ressources et recruter des milliers de patientes et patients en Afrique du Sud, en Tanzanie, en Namibie et au Bénin. Les équipes de recherche ont entrepris une vaste initiative de formation pour apprendre à plus de 100 médecins à collecter systématiquement des données multimodales, y compris des images et des vidéos d’échographie. L’objectif est d’entraîner MultiModN à être attentif aux données réelles provenant de régions à faibles ressources.

EPFL

^ Haut
Matière
Matière et Energie
Des plastiques durables fabriqués à partir de déchets agricoles
Jeudi, 25/04/2024 - 05:30

Des chercheurs de l’EPFL ont mis au point une approche innovante pour la fabrication de plastiques haute performance à partir de ressources renouvelables. Il s'agit d'une nouvelle méthode pour créer des polyamides – une classe de plastiques réputés pour leur résistance et leur durabilité, dont les plus connus sont les nylons – en utilisant un noyau de sucre dérivé de déchets agricoles. Cette technique utilise une structure de sucre omniprésente dans la nature et généralement non toxique, pour apporter la rigidité et les propriétés de performance.

« Les plastiques types, d’origine fossile, ont besoin de groupes aromatiques pour leur apporter une rigidité et des propriétés de performance comme la dureté, la solidité et la résistance aux températures élevées », déclare Jeremy Luterbacher. « Nous obtenons ici des résultats similaires, mais nous utilisons une structure de sucre omniprésente dans la nature et généralement non toxique, pour apporter la rigidité et les propriétés de performance ».

Lorenz Manker, principal auteur de l’étude, et ses collègues, ont mis au point un procédé sans catalyseur pour transformer le diméthylglyoxylate xylose – un hydrate de carbone stabilisé produit directement à partir de biomasse telle que le bois ou les épis de maïs – en polyamides de haute qualité. Ce procédé atteint un rendement atomique impressionnant de 97 %. Autrement dit, la quasi-totalité du matériau de départ est utilisée dans le produit final, ce qui réduit considérablement les déchets.

Les polyamides biosourcés possèdent des propriétés qui peuvent rivaliser avec celles de leurs homologues fossiles, offrant ainsi une alternative prometteuse pour diverses applications. Par ailleurs, les matériaux ont montré une grande résilience au cours de plusieurs cycles de recyclage mécanique, en conservant leur intégrité et leurs performances, ce qui est un facteur indispensable pour la gestion du cycle de vie des matériaux durables.

Les applications potentielles de ces polyamides innovants sont vastes, allant des pièces automobiles aux biens de consommation, le tout avec une empreinte carbone considérablement réduite. D’après l’analyse technico-économique et l’évaluation du cycle de vie réalisées par l’équipe, le prix de ces matériaux pourrait être compétitif par rapport aux polyamides traditionnels, y compris les nylons (par exemple le nylon 66), avec une diminution du potentiel de réchauffement planétaire pouvant atteindre 75 %.

Article rédigé par Georges Simmonds pour RT Flash

EPFL

La réparation magnétique des plastiques pourrait augmenter leur durée de vie
Jeudi, 25/04/2024 - 05:20

La sobriété matérielle, qui consiste à limiter la consommation de matériaux, constitue donc un levier majeur pour diminuer l’impact de nos sociétés sur l’environnement. Bien qu’il semble désormais utopique de se passer des plastiques, l’espoir réside néanmoins dans le fait qu’une grande partie d’entre eux, dits thermoplastiques, ont la faculté de se déformer ou de s’écouler lorsqu’ils sont chauffés.

Cette propriété permet de les remodeler, offrant ainsi la possibilité de les réparer et de les réutiliser directement, ce qui présente une alternative moins coûteuse qu’un recyclage chimique. Parmi les diverses méthodes qui existent pour chauffer et réparer les plastiques, le chauffage par induction magnétique constitue un moyen rapide et efficace d’échauffer localement la matière. Cette technique, notamment utilisée comme traitement contre certains cancers, peut être également employée pour réparer les plastiques, permettant ainsi d’accroître leur temps de vie.

Une rapide rétrospective montre que la réparation des matériaux plastiques est un sujet qui passionne la communauté scientifique depuis quelques décennies. Ce sujet a connu un véritable "boom" en 2008 avec la découverte d’un nouveau type de matériau capable de s’autoréparer à température ambiante : les vitrimères. On parle alors d’autoréparation, d’autocicatrisation ou de self-healing en anglais. Bien que de nombreux progrès en chimie ont depuis lors permis de diversifier les solutions, les matériaux autoréparables ne sont pour autant pas véritablement sortis des laboratoires de recherche et peinent toujours, plus de 15 ans après, à trouver leur place dans l’industrie.

Si la raison principale de leur manque d’applicabilité est parfois à chercher au niveau de leur prix et de leur complexité chimique, une autre raison plus fondamentale réside dans l’incompatibilité entre capacité à s’autoréparer et rigidité élevée – la première nécessitant une grande mobilité moléculaire et la seconde de fortes liaisons entre les constituants de la matière. En outre, l’industrie du plastique et ses procédés de fabrication étant arrivés à maturation, c’est tout un écosystème qu’il faut repenser pour inclure la production d’une part significative de matériaux innovants.

Contrairement au cas des matériaux autocicatrisants qui ne nécessitent aucune intervention extérieure, une stratégie alternative, appelée le stimulus-healing, consiste à apporter de l’énergie pour chauffer et réparer les matériaux thermoplastiques. En fonction du matériau et de l’application visée, le mode de chauffage peut prendre plusieurs formes telles qu’un transfert thermique (par contact direct ou via l’air environnant), une onde acoustique, une micro-onde, un laser ou un champ magnétique oscillant appliqué grâce à une bobine (électro-aimant).

Dans le dernier cas, l’opération consiste à intégrer dans le matériau plastique une faible quantité de particules magnétiques (1 à 5 % de son volume). Ces particules sont en effet capables de transformer le stimulus magnétique oscillant en chaleur au sein même de la matière, grâce à un phénomène appelé hyperthermie magnétique. Pour atteindre des températures de l’ordre de 150-200°C, il est commun d’utiliser des champs magnétiques ayant une intensité de quelques milliteslas (l’équivalent d’un aimant de réfrigérateur) et une fréquence d’environ 500 kHz (contre 20 à 100 kHz pour une plaque induction standard).

Cette technologie a l’avantage de pouvoir être utilisée sur des matériaux dotés de propriétés mécaniques très différentes, ce qui permet de l’appliquer sur une large gamme de plastiques. En effet, elle a récemment été employée pour traiter des matériaux de grande consommation tels que le polypropylène (utilisé pour faire des pare-chocs de voiture) ou certains polyuréthanes souples (employés comme gaine d’isolation électrique).

Un autre avantage que présente cette technique est de pouvoir lisser une pièce rugueuse pour effacer ses défauts en surface. Cela est particulièrement utile pour des pièces imprimées en 3D dont la rugosité diminue sensiblement les performances mécaniques et rend l’aspect peu attractif. Cette technique offre la possibilité de chauffer sans contact ni besoin de faire parvenir la lumière, et fonctionne donc dans des matériaux opaques. Elle offre un grand contrôle, étant donné que la quantité de chaleur dégagée peut être contrôlée par les caractéristiques du champ magnétique, mais aussi par la quantité et la nature des particules stimulables. La localisation des particules permet également de chauffer sélectivement une zone désirée.

Article rédigé par Georges Simmonds pour RT Flash

The Conversation

Du béton autochauffant qui fait fondre la neige de façon autonome
Mercredi, 24/04/2024 - 05:40

La gestion et l’entretien des routes en période hivernale dans les régions enneigées coûtent très cher aux administrations publiques. Aux États-Unis par exemple, le budget annuel consacré aux processus de déneigement et de déverglaçage s’élèverait à plus de 2 milliards de dollars. Ces opérations incluent le salage — consistant à répandre du sel sur les routes enneigées ou verglacées —, qui est efficace, mais qui met à rude épreuve l’intégrité des revêtements routiers.

En vue de proposer une meilleure alternative à base de béton, des chercheurs de l’Université Drexel en Pennsylvanie ont développé un béton autochauffant capable de maintenir sa température de surface au-dessus du point de congélation. L’idée derrière l’innovation est de faire fondre la neige et la glace qui s’y accumulent afin de prévenir le processus de gel sur et à l’intérieur du sol. Cette solution pourrait non seulement améliorer la sécurité des habitants en hiver mais également réduire considérablement les dépenses publiques. En outre, elle pourrait prolonger la durée de vie des infrastructures en béton. Cette technologie a déjà été testée dans un environnement contrôlé en laboratoire, pour évaluer son efficacité. Suite à la réussite des tests antérieurs, les chercheurs ont ainsi mené une étude plus approfondie dans le cadre d’essais en conditions réelles.

Le matériau à changement de phase derrière cette technologie est la paraffine. Lorsque la température ambiante baisse, cette dernière commence à se solidifier, libérant ainsi de la chaleur. Ce processus permet au béton de maintenir une température au-dessus du point de congélation. Pour intégrer le matériau dans le béton, les chercheurs ont utilisé deux techniques différentes. La première consiste à immerger des agrégats rocheux dans de la paraffine liquide avant de les mélanger au béton. Dans la deuxième approche, les chercheurs ont directement intégré de petites capsules contenant de la paraffine dans le mélange. À noter que les chercheurs n’ont pas révélé l’origine du MCP utilisé dans l’expérience. Si un jour ils comptent déployer leur technologie (c’est-à-dire avec une production à grande échelle), il faudra tenir compte de l’origine du matériau. En effet, il existe un type de paraffine issue du pétrole brut. Il serait cependant avantageux d’explorer l’utilisation de paraffines synthétiques, qui sont respectueuses de l’environnement, renouvelables, et biodégradables.

Afin de mettre à l’essai la technologie, les scientifiques ont exposé des dalles aux conditions extérieures réelles, et ce depuis 2021. Celles-ci ont ainsi subi 32 cycles de gel-dégel et cinq épisodes de neige d’au moins 2,5 cm. Au cours de ces deux années, les dalles de béton à changement de phase ont maintenu leur température de surface entre 5,6°C et 12,8°C pendant 10 heures dans des conditions de gel. Les dalles ont même fait fondre plusieurs centimètres de neige à une vitesse d’environ 6,35 mm par heure. Le béton aux composants immergés dans de la paraffine liquide s’est avéré plus efficace. Toutefois, pour être efficace, la paraffine doit « se recharger » entre les épisodes de gel-dégel. Pour cela, elle doit absorber suffisamment de chaleur pour assurer sa capacité à en libérer lorsque la température diminue.

Article rédigé par Georges Simmonds pour RT Flash

ASCE

Un nouveau mode de stockage de l’hydrogène deux fois plus compact
Mercredi, 24/04/2024 - 05:10

L'hydrogène (H2) est l'élément chimique le plus léger actuellement connu, ce qui en fait la solution énergétique la plus prometteuse, notamment comme alternative écologique pour la mobilité (voitures, camions, bateaux) et l'utilisation stationnaire (stockage d'énergie renouvelable intermittente, industrie lourde, ...). Le problème majeur rencontré aujourd’hui pour une utilisation à grande échelle, c’est sa densité importante, rendant son stockage très compliqué. A titre d’exemple, l'H2 comprimé nécessite une pression élevée, alors que l'hydrogène liquide nécessite l'utilisation de températures extrêmement basses (-253°C).

La solution ? L’utilisation de matériaux poreux, capables de fixer les molécules d'hydrogène à la surface de pores moléculaires, réduisant la pression requise et augmentant la température de stockage. Dans ce cadre, une équipe scientifique internationale, dirigée par Yaroslav Filinchuk, professeur à l’école de chimie de l'UCLouvain, repousse considérablement les limites de la densité volumétrique de l'hydrogène dans les matériaux poreux. Elle a découvert qu'une forme poreuse de borohydrure de magnésium, γ-Mg(BH4)2 = matériau cristallin, est capable de stocker une densité plus de deux fois supérieure à celle de l'hydrogène liquide. Cette découverte majeure est publiée dans la revue scientifique Nature Chemistry.

Concrètement, les scientifiques UCLouvain ont mis au jour de nouvelles liaisons entre molécules et atomes d’hydrogène, permettant à l'hydrogène de remplir les pores du matériau cristallin différemment qu'une molécule similaire d'azote. Des expériences plus détaillées ont permis de constater que le chargement complet en hydrogène est 3,5 fois plus dense qu'avec de l'azote dans le même matériau. Comment ? Grâce à la structure des pores, composée d’atomes d’hydrogène chargés négativement (alors qu’habituellement, ces structures sont neutres). Cette charge négative incite les molécules d’hydrogène à se positionner de manière à interagir hyper efficacement avec les atomes d’hydrogène, ce qui permet de les stocker de façon optimale (très dense).

Ce travail collaboratif ouvre la voie au stockage et au transport de l'hydrogène de manière compacte en tant que source d'énergie propre et renouvelable, pour les voitures roulant à l’hydrogène par exemple. Ainsi que de futurs matériaux ayant potentiellement une supraconductivité à haute température et une stabilité approchant des conditions ambiantes.

Article rédigé par Georges Simmonds pour RT Flash

UCL

Des « photoswitches » polymères qui se déforment sous la lumière
Mardi, 23/04/2024 - 05:20

Les photoswitches sont des commutateurs moléculaires qui trouvent des applications dans de nombreux domaines comme le développement de médicaments photosensibles, l'exploitation de l'énergie solaire, la création de surfaces optiquement actives, le stockage intelligent de l'information etc. Ces commutateurs sont des espèces chimiques possédant au moins deux états thermodynamiques (méta) stables, appelés isomères, et qui sont capables de passer de l'un à l'autre de manière réversible en réponse à un stimulus lumineux. Ce sont donc de puissants outils pour conférer une adaptabilité à des matériaux autrement statiques, permettant de contrôler et moduler à distance leurs propriétés et fonctions.

Du point de vue des applications, développer des photoswitches polymères est une solution très attractive qui permettrait d’allier la photo-adaptabilité aux excellentes propriétés mécaniques, optiques, de résistance chimique et de facilité de mise en œuvre des plastiques. Cependant, incorporer des photoswitches, qui sont le plus souvent des molécules d’acyl hydrazone, dans un matériau polymère synthétique est un réel défi. Si des solutions existent pour accrocher ces fonctions commutables à la chaîne de polymère, peu de méthodes de synthèse permettent de les introduire directement le long du squelette carboné qui constitue la chaîne polymère. Cette solution permettrait pourtant de créer des matériaux photosensibles dont les propriétés macroscopiques d’écoulement, d’élasticité, de changement de volume etc. seraient directement contrôlées par la lumière.

Dans ce contexte, des scientifiques de l'Institut des sciences des matériaux de Mulhouse (CNRS/Université de Haute Alsace) et de deux équipes australiennes, du Centre for Materials Science (Queensland University of Technology) et de l'Australian Institute for Bioengineering and Nanotechnology (AIBN de l'Université du Queensland), ont conçu un monomère innovant qui permet d’introduire directement la fonction photoswitche dans le squelette de la chaîne de polymère. Ces monomères, briques de base qui constituent le polymère, réagissent chimiquement entre eux par une réaction de métathèse. Il en résulte un matériau polymère qui, sous irradiation, change drastiquement de propriétés. Dans l’exemple étudié par les scientifiques, l’éclairer le rend façonnable à souhait. Les équipes souhaitent à présent poursuivre ces travaux en explorant comment contrôler précisément les changements de propriétés induits par la lumière dans ces matériaux adaptables.

CNRS

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Localiser les neurones qui régulent le cœur et les poumons
Jeudi, 25/04/2024 - 05:10

Le corps est régulé selon un processus appelé homéostasie. C’est la mission du cerveau, qui garde constamment les signes vitaux sous surveillance. Par exemple, si l’on a besoin de plus d’oxygène, un message est envoyé au cerveau qui demande au corps d’ajuster sa respiration et son rythme cardiaque. Jusqu’à aujourd’hui, on n’avait jamais observé les neurones impliqués dans ce processus. C’est désormais chose faite, grâce à une technologie d’enregistrement cérébral déployée pendant des neurochirurgies.

Des neuroscientifiques de l’EPFL, en collaboration avec leurs homologues et des chirurgiens de l’Institut de neurosciences de l’Université Rockfeller de Virgine occidentale et de l’Université de Caroline du Nord à Chapel Hill, montrent que des neurones isolés, tout au fond du cerveau humain – entre les noyaux thalamique et subthalamique – encodent les signes vitaux du cœur et des poumons. Ils apportent ainsi la première preuve de l’existence du phénomène chez l’humain.

« On a émis l’hypothèse de l’existence de telles connexions neurales entre les organes internes du corps et le cerveau sur la base de quelques rares recherches sur des animaux et les travaux existants en anatomie », explique la co-première auteure Emanuela De Falco au laboratoire de neurosciences cognitives, dirigé par Olaf Blanke. « Nous avons découvert que les signaux cardiaques et respiratoires concernent une grande quantité de neurones ». Marco Solca, co-premier auteur, poursuit : « il est important de situer ces neurones, puisque cela permet de comprendre comment s’établit la communication entre le corps et le cerveau, au plus profond de ce dernier ».

La communication entre le corps et le cerveau est également connue pour son rôle dans plusieurs processus majeurs d’ordre cognitif ou affectif. Par exemple, elle influe sur la détection visuelle, la régulation des émotions et la prise de décision. Les dysfonctionnements de la communication corps-cerveau sont considérés comme une caractéristique importante de plusieurs maladies mentales dont l’anxiété, les troubles psychosomatiques ou les troubles alimentaires et de l’humeur.

L’étude s’est déroulée sur plusieurs années, grâce à une collaboration avec Ali Rezai, neurochirurgien et directeur de l’Institut de neurosciences à l’Université Rockfeller de Virginie occidentale. Il s’agissait d’enregistrer l’activité de neurones isolés chez des patients à qui l’on implantait des dispositifs de stimulation du cerveau profond (DBS, pour Deep Brain Stimulation), utilisés pour traiter diverses maladies.

La DBS consiste à stimuler des neurones tout au fond du cerveau humain avec une électrode. Avant de l’insérer, les neurochirurgiens choisissent parfois d’introduire une microélectrode pour enregistrer l’activité cérébrale. Le procédé améliore le positionnement de la sonde. Comme dans de précédents projets, les scientifiques de l’EPFL ont reconnu le potentiel de ces enregistrements par microélectrode. Ils ont saisi l’occasion pour effectuer en même temps un électrocardiogramme des patients. Ils obtenaient ainsi des enregistrements couplés de l’activité neuronale et de divers signaux cardiaques et respiratoires.

« Nous savons maintenant où ces neurones sont situés. De très prochaines études pourraient se pencher sur la boucle de rétroaction entre le rythme cardiaque et l’activité neurale dans le cerveau sous-cortical, ainsi que sur leur implication dans la conscience de soi, les mouvements volontaires ou le libre arbitre », explique Emanuela De Falco. « De manière plus générale, cette étude établit des bases à plusieurs développements futurs pour comprendre le cerveau, et plus largement les troubles psychiatriques ».

Article rédigé par Georges Simmonds pour RT Flash

EPFL

Le régime MIND semble réduire le vieillissement physique et cognitif
Jeudi, 25/04/2024 - 05:00

Une étude de l'Université Columbia à New York suggère qu'une alimentation saine peut ralentir les effets du vieillissement sur le corps humain, y compris sur le cerveau. Pour cette étude, les chercheurs ont utilisé plusieurs horloges épigénétiques pour suivre la vitesse du processus de vieillissement biologique d'une personne.

En travaillant avec les données de 1 644 participants sans démence qui s'étaient inscrits à l'étude Framingham Offspring Cohort, les chercheurs ont évalué l'adhésion à long terme de chaque individu à un régime MIND. Les participants étaient âgés de 60 ans ou plus, avaient un âge moyen de 69,6 ans et 54 % étaient des femmes. Après 14 ans, 140 personnes ont développé une démence et 471 sont décédées. Les chercheurs ont découvert que les personnes qui suivaient le plus étroitement un régime MIND avaient une horloge DunedinPACE, qui évalue le rythme du vieillissement grâce à la méthylation de l'ADN, plus lente, avec un risque réduit de démence ou de décès. Une analyse plus approfondie a révélé qu’une horloge DunedinPACE plus lente était liée à 27 % de l’association entre régime alimentaire et démence, et à 57 % du lien entre régime alimentaire et mortalité.

La méthylation de l'ADN est un processus biochimique critique dans le corps qui se détériore avec l'âge, offrant un moyen d'évaluer le rythme du processus de vieillissement biologique d'un individu. En tant que biomarqueur de la méthylation de l’ADN qui se produit dans tout le corps, l’horloge DunedinPACE évalue le vieillissement biologique multisystémique. L'horloge dite "DunedinPACE" a été développée en étudiant les changements de 19 indicateurs de l'intégrité de plusieurs systèmes différents du corps : cardiovasculaire, hépatique, rénal, pulmonaire, parodontal, immunitaire, métabolique et endocrinienne.

La directrice de cette étude, la Docteure Aline Thomas, rappelle que le régime MIND a été formulé spécifiquement pour réduire la démence en 2015. Ce régime MIND combine les principes clés de deux régimes alimentaires sains – à savoir le régime méditerranéen et le régime DASH (Dietary Approaches to Stop Hypertension) ; le régime MIND (Mediterranean-DASH Intervention for Neurodegenerative Delay ou Intervention Méditerranéenne-DASH pour ralentir la neurodégénérescence), met l’accent sur une consommation élevée d’aliments neuroprotecteurs tels que le poisson, les légumes à feuilles vertes, les baies et les noix. Il recommande par ailleurs la stricte limitation de certains aliments (viande rouge, sucreries, plats industriel, beurre, fromages gras)

Peu contraignant et n'entraînant pas de carences alimentaires, ce régime MIND permet, entre autres, de réduire l'inflammation, d' améliorer la santé métabolique et de renforcer la santé cérébrale et cardiovasculaire. Cette protection accrue est obtenue en augmentant la consommation régulière d'oméga-3, de fibres et d'antioxydants qui vont contrer les différents niveaux d'inflammation et le stress oxydatif, impliqués dans le déclin cognitif et les maladies neurodégénératives.

Article rédigé par Georges Simmonds pour RT Flash

AON

Des exercices aérobiques réguliers réduisent sensiblement les risques d'hospitalisation
Mercredi, 24/04/2024 - 05:50

Une étude de l’Université de Göteborg en Suède montre que la pratique régulière de l’exercice aérobie, c’est-à-dire d’un exercice d’intensité légère voire modérée, mais sur une période prolongée (endurance) réduit les risques d’hospitalisations au cours de la vie. Si l’activité physique est largement associée à un certain nombre d’avantages pour la santé, notamment à une réduction du risque cardiovasculaire, c’est la première démonstration du lien entre le développement de la capacité aérobique et le risque d’être hospitalisé.

L'étude est menée auprès de 91.140 participants ayant passé 2 visites de santé au travail. Ces évaluations comprennent des tests d’effort sur vélo et les mesures du poids, de la taille et de la tension artérielle, ainsi que des questions sur le mode de vie et les antécédents de santé. L'analyse a rapproché les changements dans la capacité aérobie entre les deux évaluations, et les données d’hospitalisations ultérieures, de causes cardiovasculaires et toutes causes confondues sur une durée de suivi de 7 ans. Les chercheurs ont bien pris en compte les facteurs de confusion possibles, dont l'alimentation, le tabagisme et le niveau de stress perçu. L’analyse révèle que le maintien d’une bonne condition aérobique est associé à une réduction de 7 % de l’incidence des hospitalisations au cours de la période de suivi ; l’amélioration de la condition aérobique à une réduction de 11 % de l’incidence des hospitalisations vs une détérioration de la forme physique.

Cette différence de risque d’hospitalisation est plus élevée pour les participants qui ont déjà été hospitalisés. Ainsi, dans ce groupe de personnes ayant des antécédents d’hospitalisation, quelles qu'en soient les raisons, le risque de futures hospitalisations est réduit de 14 % au cours de la période de suivi vs une détérioration de la forme physique ; concernant les admissions à l'hôpital de cause spécifiquement cardiovasculaire, le maintien de la condition aérobie est associé à une réduction de 9 % d'admissions à l’hôpital, l'augmentation de la condition aérobie étant associée à une réduction de 13 % vs détérioration de la condition physique.

« Ces associations non seulement confirment les avantages possibles de l’exercice aérobie pour la santé mais aussi sur les dépenses et la charge de notre système de santé », concluent les auteurs principaux, Elin Ekblom Bak, professeur agrégé de sciences du sport à l'École suédoise des sciences du sport et de la santé et Mats Börjesson professeur de physiologie du sport à l'Université de Göteborg.

Article rédigé par Georges Simmonds pour RT Flash

EJPC

Un test sanguin pour aider à détecter le trouble bipolaire
Mercredi, 24/04/2024 - 05:30

Un test sanguin destiné à confirmer le diagnostic de bipolarité est réalisable depuis le 1er avril en France. Si jusqu’à aujourd’hui, les diagnostics en matière de troubles psychiques, parmi lesquels le trouble bipolaire, reposaient exclusivement sur une observation clinique de la part d’un psychiatre via des entretiens, le lancement de myEDIT-B vient donc changer la donne.

Il s’agit du premier test sanguin permettant de différencier la dépression du trouble bipolaire, un trouble psychiatrique dans lequel les malades alternent entre phase dépressive et phase maniaque. Cet examen permettrait à de nombreuses personnes atteintes de bipolarité d’être diagnostiquées – et donc soignées – à temps. Une révolution pour les un à deux millions de personnes touchées en France. Ce test sanguin vise les personnes majeures traitées par médicaments pour un épisode dépressif caractérisé modéré ou sévère. Sont particulièrement visées celles susceptibles d’être atteintes de bipolarité, notamment car il y a des cas dans leur famille ou qu’elles ont obtenu des réponses très particulières aux antidépresseurs. Soit une efficacité très rapide soit, au contraire, une aggravation de la dépression. Prescrite par un psychiatre, la prise de sang devra être réalisée dans un des 400 laboratoires de la marque Synlab. « La majorité de la population sera à moins de deux heures d’un laboratoire participant », précise Florian Scherrer, directeur médical du réseau Synlab. (Pour des raisons technologiques), « pour l’instant, on préfère le faire dans nos laboratoires ».

Les chercheurs d’Alcediag, la société biopharmaceutique basée dans l’Hérault à l’origine du test, sont partis de l’idée selon laquelle le cerveau est un organe comme un autre. « Quand le cœur ou le rein dysfonctionne, il émet dans le sang des signaux spécifiques de la maladie », explique Alexandra Prieux, présidente d’Alcediag. « Il en est de même avec le cerveau. » Ces signaux, ou biomarqueurs, peuvent alors être captés par un test sanguin. Pendant dix ans, la société a réalisé des études afin de trouver les éléments différenciants entre les patients atteints de dépression et ceux atteints de trouble bipolaire. Pour ce faire, ils ont creusé du côté de l’ARN et d’un mécanisme précis : l’édition d’ARN. « Ce mécanisme physiologique arrive de façon normale chez tout le monde mais est altéré par certaines pathologies, comme les maladies psychiatriques », souligne la présidente de la start-up.

Alcediag l’assure : la fiabilité du test est supérieure à 80 %. « A part sur certaines études génétiques, il est rare d’avoir des tests fiables à 100 % », soutient Alexandra Prieux. S’il n’est donc pas impossible d’obtenir un faux positif, l’impact est à nuancer car il s’agit seulement d’un outil d’aide au diagnostic. Après envoi des résultats sous quatre semaines, il revient au médecin de faire le diagnostic final, notamment avec l’historique du patient et son histoire familiale.

Article rédigé par Georges Simmonds pour RT Flash

Alcediag

Vers un diagnostic métabolomique des pensées suicidaires
Mercredi, 24/04/2024 - 05:20

Une équipe de biologistes et de psychiatres de l’Université de Californie San Diego a développé un test de détection sanguin des pensées suicidaires, en identifiant des métabolites marqueurs fiables des pensées suicidaires. Certains de ces biomarqueurs révélant d’ailleurs la présence d’un dysfonctionnement mitochondrial.

Le trouble dépressif majeur touche 280 millions de personnes dans le monde. Si ses principaux symptômes sont psychologiques, la dépression est une maladie complexe qui entraîne aussi des effets physiques sur tout le corps. Ainsi, la mesure de certains marqueurs du métabolisme cellulaire apparaît comme une nouvelle approche, prometteuse, pour étudier les maladies mentales et développer de nouvelles façons de les diagnostiquer, de les traiter et de les prévenir.

La recherche révèle que les personnes souffrant de dépression et d’idées suicidaires présentent des composés spécifiques détectables dans le sang qui pourraient permettre d’identifier ce risque de suicide. Des différences sont observées selon le sexe, dans l’impact de la dépression sur le métabolisme cellulaire. Ce nouveau mode diagnostique fait donc intervenir les mitochondries, ces minicentrales électriques qui apportent l’énergie aux cellules. La perturbation des réseaux mitochondriaux ou du métabolisme cellulaire semble en effet associée aux pensées suicidaires.

« Les maladies mentales comme la dépression ont des impacts et des facteurs bien au-delà du cerveau », explique ici l’un des auteurs principaux, le Docteur Robert Naviaux, professeur de médecine, de pédiatrie et de pathologie à l’UC San Diego. « Il y a environ dix ans, il était difficile d’étudier comment la chimie du corps entier influence notre comportement et notre état d’esprit, la métabolomique nous aide aujourd’hui à comprendre ces processus, au niveau cellulaire ».

La dépression a ses complications, près d’un tiers des patients restent réfractaires aux traitements disponibles, dont la psychothérapie et les antidépresseurs et éprouvent, pour certains d’entre eux, des pensées suicidaires. Parmi ces patients souffrant de dépression réfractaire au traitement, jusqu’à 30 % feront au moins une tentative de suicide (TS) au cours de leur vie. Avec l’augmentation de la prévalence de la dépression dans le monde, s’accroît également l’incidence du suicide : il est donc urgent de disposer d’outils permettant de « stratifier » les patients atteints de dépression en fonction de leur risque d’idéation suicidaire.

L’étude a analysé le sang de 99 participants souffrant de dépression réfractaire au traitement et diagnostiqués avec des tendances suicidaires, ainsi que du même nombre de personnes en bonnes santé (témoins). 5 composés retrouvés dans le sang des patients atteints de dépression sont alors identifiés comme des marqueurs de pensées suicidaires ; cependant, ces 5 marqueurs n’ont pas la même signification chez les hommes et les femmes ; globalement, 5 métabolites permettraient d’identifier correctement 85 à 90 % des personnes les plus à risque, chez les hommes, 5 autres métabolites chez les femmes ; ces résultats s’expliquent par des différences dans le métabolisme sanguin entre les hommes et les femmes, certains marqueurs métaboliques des idées suicidaires étant néanmoins cohérents entre les deux sexes.

Parmi ces métabolites figurent des marqueurs de dysfonctionnement mitochondrial, les mitochondries étant donc des structures clés de nos cellules, et des dysfonctions mitochondriales étant observées dans une multitude de maladies humaines, notent les auteurs. Les mitochondries produisent de l’ATP, la principale source énergétique des cellules. L’ATP est également une molécule importante pour la communication de cellule à cellule, et les chercheurs émettent l’hypothèse que c’est cette fonction qui est la plus dérégulée chez les personnes ayant des idées suicidaires. Lorsque l’ATP est à l’intérieur de la cellule, elle agit comme une source d’énergie, mais à l’extérieur de la cellule, c’est un signal de danger qui active des dizaines de voies de protection en réponse à un facteur de stress.

Les chercheurs émettent l’hypothèse que les tentatives de suicide pourraient faire partie d’une impulsion physiologique plus large visant à mettre fin à une réponse au stress devenue insupportable au niveau cellulaire. Étant donné que certaines des carences métaboliques identifiées dans l’étude concernaient des composés disponibles sous forme de suppléments, tels que le folate et la carnitine, les chercheurs souhaitent explorer la possibilité d’individualiser le traitement de la dépression avec ces composés pour aider à recaler le métabolisme.

Article rédigé par Georges Simmonds pour RT Flash 

Nature

Cancer du sein triple négatif : moins de rechutes si des cellules immunitaires sont dans la tumeur
Mercredi, 24/04/2024 - 05:00

Les cancers du sein triple négatif représentent 15 % de l’ensemble des cas et sont plus fréquents chez les femmes jeunes. Ce type de pathologie est plus à même de métastaser avant la pose du diagnostic et présente un risque plus élevé de rechute. Les cellules du système immunitaire sur lesquelles se sont penché les scientifiques sont appelées TILs (tumor-infiltrating lymphocytes).

Pour réaliser cette étude, ils ont collecté les données de 1.966 participantes touchées par un cancer du sein triple négatif localisé. Certaines avaient déjà subi une opération chirurgicale et de la radiothérapie, mais aucune n’avaient fait de chimiothérapie. Toutes les femmes malades ont été suivies sur 18 ans. Bilan : les résultats ont montré que des niveaux plus élevés de TILs dans les tissus cancéreux mammaires étaient associés à des taux de récidive plus faibles.

« Cinq ans après la chirurgie, 95 % des participantes atteintes d’un cancer triple négatif de stade 1 dont les tumeurs présentaient un taux élevé de TILs étaient encore en vie, comparé à 82 % présentant un taux faible de TILs. Autre fait important : les taux de rechute étaient significativement plus faibles chez les patientes dont les tumeurs avaient des taux élevés de TILs », détaille Stefan Michiels, auteur de l’étude et responsable de l’équipe Oncostat (Gustave Roussy/Inserm U1018 CESP/Université Paris-Saclay). « Avec près de 2.000 participantes inclues dans l’étude, nous avons désormais rassemblé la plus importante cohorte internationale sur trois continents de personnes atteintes d’un cancer du sein triple négatif dont le traitement de base était la chirurgie sans chimiothérapie », souligne-t-il également.

« Les résultats de cette étude pourraient mener à une recommandation : inclure les TILs dans le rapport de pathologie des cancers du sein triple négatif localisé, puisque cela permettrait d’informer les cliniciens et les patients sur les options de traitements », explique aussi Roberto Salgado, co-président de l'International Immuno-Oncology Biomarker Working Group et co-responsable de l'étude.

Article rédigé par Georges Simmonds pour RT Flash

JAMA

L'édition génomique s'attaque au Sida
Mardi, 23/04/2024 - 05:30

C'est un nouvel espoir pour soigner le virus de l’immunodéficience humaine (VIH), une maladie traitable mais incurable qui touche environ 6.000 nouvelles personnes chaque année en France. Une équipe de scientifiques vient de présenter les résultats prometteurs d’une nouvelle thérapie anti-VIH basée sur la technique d’édition de l’ADN baptisée CRISPR-Cas9, des "ciseaux moléculaires" qui permettent de couper, remplacer, inactiver, corriger le gène que l’on cherche à atteindre. En l’occurrence, de s’attaquer directement au virus logé dans les cellules.

Le défi majeur du traitement du VIH est la capacité du virus à intégrer son génome dans l’ADN de l’hôte, ce qui le rend donc extrêmement difficile à éliminer. Or, en utilisant la technologie révolutionnaire CRISPR-Cas9, les chercheurs de l’Université d’Amsterdam, aux Pays-Bas, affirment avoir réussi à cibler l’ADN du VIH et à supprimer toute trace du virus des cellules (les lymphocytes T) infectées en laboratoire, qui ont ainsi été "guéries". Ils précisent avoir visé spécifiquement "des parties du génome du VIH qui restent les mêmes pour toutes les souches connues du virus", afin de pouvoir lutter, à terme, “contre de multiples variantes du VIH”.

Il ne s’agit là que d’une première étape, admettent les scientifiques. Car si les essais se sont avérés positifs à l’échelle d’une cellule, leur efficacité doit encore être testée et démontrée sur un individu. « Notre travail ne représente qu’une preuve de concept [...] Il est prématuré de déclarer qu'il existe à l'horizon un remède fonctionnel contre le VIH », expliquent-ils dans un communiqué. « La prochaine étape consistera à optimiser la voie d'administration pour cibler la majorité des cellules du réservoir du VIH. Ce n'est qu’à ce moment-là que nous pourrons envisager des essais cliniques de 'guérison' chez l'homme ».

Cette étude constitue "une avancée cruciale" pour trouver un véritable remède contre le sida. S’il existe aujourd’hui un traitement – les médicaments antirétroviraux – qui ralentit le développement du VIH et augmente drastiquement l’espérance de vie des personnes séropositives, les cas de patients totalement guéris restent rarissimes.

EurekAlert

Le vaccin contre l'hépatite E montre son efficacité à long terme
Mardi, 23/04/2024 - 05:10

Le virus de l'hépatite E (VHE) figure parmi les principales causes mondiales d'hépatite virale aiguë. L'étude moléculaire des souches de VHE a identifié quatre principaux génotypes. Les génotypes 1 et 2 se limitent aux humains et se transmettent par l'eau contaminée dans les pays à ressources limitées, principalement en Asie, tandis que les génotypes 3 et 4 sont zoonotiques, causant une hépatite E autochtone sporadique dans presque tous les pays.

Chaque année, environ 20 millions d'infections au VHE surviennent dans le monde, entraînant environ 3,3 millions d'infections symptomatiques et 70 000 décès. Malgré cela, l’infection à VHE reste sous-estimée et les pays occidentaux n’en sont probablement pas indemnes. À ce jour, deux vaccins recombinants contre l'hépatite E basés sur le génotype 1 ont été développés et homologués en Chine, mais des études supplémentaires sont nécessaires pour déterminer la durée de protection de la vaccination.

Cette étude est une extension d'un essai clinique de phase 3 randomisé, en double aveugle, contrôlé par placebo, portant sur le vaccin contre l'hépatite E Hecolin, mené dans le comté de Dongtai, Jiangsu, en Chine. Dans l'essai initial, des adultes en bonne santé, âgés de 16 à 65 ans, ont été recrutés, stratifiés par âge et sexe, et assignés de manière aléatoire dans un rapport de 1 : 1 pour recevoir trois doses de vaccin contre l'hépatite E ou un placebo par voie intramusculaire aux mois 0, 1 et 6. Un système de surveillance de l'hépatite E, comprenant 205 sentinelles cliniques couvrant l'ensemble de la région de l'étude, a été établi avant le début de l’étude et maintenu pendant 10 ans après la vaccination, pour identifier les personnes présentant une hépatite suspecte. De plus, une cohorte externe de contrôle a été constituée pour évaluer l'efficacité du vaccin. Le critère principal était l'efficacité du vaccin pour prévenir l'hépatite E confirmée survenant au moins 30 jours après l'administration de la 3ème dose de vaccin.

Un suivi a été effectué tous les 3 mois. Les participants présentant des symptômes d'hépatite pendant 3 jours ou plus ont bénéficié d’une mesure de la concentration d'alanine aminotransférase (ALT). Les patients avec des concentrations d'ALT ≥ 2,5 fois supérieures à la limite supérieure de la normale étaient considérés comme ayant une hépatite aiguë. Un diagnostic d’infection confirmée par le VHE a été posé pour les patients atteints d'hépatite aiguë présentant au moins deux des marqueurs suivants : présence d'ARN du VHE, présence d'anticorps IgM anti-VHE positifs, et une augmentation ≥ 4 fois des concentrations d'IgG anti-VHE.

Pour l'analyse d'efficacité, un modèle de régression de Poisson a été utilisé pour estimer le risque relatif (RR) et son IC à 95 % de l'incidence entre les groupes, et l'incidence a été rapportée comme le nombre de patients atteints d'hépatite E pour 10 000 personnes-années. La persistance de l'immunogénicité a été évaluée en dosant les IgG anti-VHE chez les participants. Des échantillons de sérum ont été collectés aux mois 0, 7, 13, 19, 31, 43, 55, 79 et 103 chez les participants du district de Qindong, et aux mois 0, 7, 19, 31, 43, 67 et 91 chez les participants du district d’Anfeng.

La période de suivi s'est étendue de 2007 à 2017. Au total, 97 356 participants ont complété le schéma posologique en 3 doses et ont été inclus dans la population en per protocole (48 693 dans le groupe vaccin et 48 663 dans le groupe placebo) et 178 236 résidents de la région d'étude ont participé à la cohorte témoin externe. Pendant la période d'étude, 90 cas d'hépatite E ont été identifiés, dont 13 dans le groupe vaccin (0,2 pour 10 000 personnes-années) et 77 dans le groupe placebo (1,4 pour 10 000 personnes-années). Cela a conduit à une efficacité du vaccin de 86,6 % dans l'analyse per protocole.

Dans les sous-groupes évalués pour la persistance de l'immunogénicité, parmi ceux qui étaient séronégatifs initialement et qui ont reçu 3 doses du vaccin contre l'hépatite E, 254 des 291 vaccinés (87,3 %) à Qindong après 8,5 ans et 1270 (73,0 %) des 1740 vaccinés à Anfeng après 7,5 ans, ont maintenu des concentrations détectables d'anticorps.

L'identification des infections malgré la vaccination est notable, en particulier avec 8 cas survenus au-delà de la 4ème année suivant la dernière dose. Ces informations sont cruciales pour comprendre le déclin potentiel de l'immunité au fil du temps et mettent en évidence l'importance d'explorer différentes stratégies de vaccination pour optimiser la protection.

L'essai clinique de phase 4 en cours au Bangladesh, qui explore différents schémas d'administration et de populations cibles, promet des perspectives précieuses pour optimiser les stratégies de vaccination. L'efficacité remarquable (100 %) observée sur une période de 30 mois pour le schéma à 2 doses, administrée à 1 mois d'intervalle, est prometteuse.

The Lancet

Des vaches génétiquement modifiées avec de l'ADN humain produisent du lait à l'insuline
Mardi, 23/04/2024 - 05:00

À cause d'une défaillance du pancréas qui ne produit plus d'insuline, les personnes touchées par le diabète souffrent d'hyperglycémie, soit un taux de sucre trop élevé dans le sang. L'insuline, qu'elles doivent s'injecter, est une hormone dont l'accès dans certains coins du globe n'est pas toujours aisé. Des chercheurs de l'université de l'Illinois à Urbana-Champaign et de l'université de São Paulo au Brésil (entre autres) ont modifié génétiquement des vaches avec de l'ADN humain pour qu'elles produisent de l'insuline… dans leur lait.

« La nature a conçu la glande mammaire comme une usine pour fabriquer des protéines de manière très, très efficace. Nous pouvons tirer parti de ce système pour produire une protéine qui peut aider des centaines de millions de personnes dans le monde », affirme Matthew Wheeler, professeur en sciences animales à l'université de l'Illinois et auteur principal de l'étude.

Pour réussir cette petite manœuvre qui devrait pimenter votre bol de céréales, les chercheurs ont inséré un segment d'ADN humain lié à la création d'insuline dans les noyaux cellulaires de dix embryons de vaches. Un de ces embryons a permis la naissance d'un veau femelle, qui, une fois en âge, a été fécondé et stimulé pour produire du lait. L'objectif des scientifiques était que la vache produise de la proinsuline, une prohormone qu'ils n'auraient eu qu'à purifier pour obtenir le résultat final. Ils ne s'attendaient pas à ce que le bovin produise également de l'insuline dans son lait.

Matthew Wheeler précise : « Notre but était de produire de la proinsuline, de la purifier en insuline et de procéder ainsi. Mais la vache l'a en quelque sorte transformée elle-même. Elle produit environ trois fois plus d'insuline biologiquement active que de proinsuline ». Visiblement ému par une telle découverte, il ajoute : « La glande mammaire est quelque chose de magique ».

Cette seule vache génétiquement modifiée produit l'équivalent d'un gramme d'insuline par litre de lait, quand une dose nécessaire à un patient est d'une fraction de milligrammes. « Cela signifie que chaque gramme équivaut à 28.818 unités d'insuline », détaille Matthew Wheeler. « Et cela ne concerne qu'un litre, sachant que les vaches de race Holstein peuvent produire cinquante litres par jour. Vous pouvez faire le calcul ». « J'imagine un futur où un troupeau d'une centaine de têtes, équivalent à une petite laiterie de l'Illinois ou du Wisconsin, pourrait produire toute l'insuline nécessaire au pays », conclut le chercheur. « Et un troupeau plus important ? Vous pourriez approvisionner le monde entier en un an ». En attendant, l'équipe de scientifiques brésilo-américaine pourrait retenter l'expérience en espérant mettre au monde un veau mâle génétiquement modifié, pour voir si sa descendance sera, elle aussi, productrice d'insuline.

BJ

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top