RTFlash

RTFLASH Recherche & Technologie
NUMERO 1310
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 16 Mai 2025
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
Avenir
Kawasaki présente Corleo, un robot quadrupède à hydrogène
Un nouvel implant cérébral permet de traduire instantanément des pensées en paroles
Matière
Une nouvelle technique pour recycler les pneus usagés
Une éolienne géante européenne pour contrer la domination chinoise
Vivant
EZH2 : le récepteur-cible qui peut bloquer les cancers agressifs
Le Danemark pourrait éradiquer le cancer du col de l'utérus d'ici 2040
Prédire grâce à l'IA le rôle des mutations génétiques complexes
Un test urinaire qui décèle les cancers de la prostate agressifs
Une IA pour prévenir la mort subite
Un hydrogel très proche de la peau humaine
Le Centre hospitalier de Vendée, précurseur d'une méthode de pointe dans le traitement de la douleur chronique
Une thérapie génique pour traiter une forme rare d'épilepsie
La voie du calcium serait impliquée dans l'autisme
Alzheimer : vers un test olfactif à domicile pour diagnostiquer la maladie
Recherche
Airbus dévoile sa nouvelle feuille de route vers l'avion à hydrogène
Edito
Qu'est-ce que la conscience ?



Depuis l'Antiquité, scientifiques et philosophes ont essayé de définir ce phénomène fascinant mais insaisissable de la conscience. Il faut rappeler que le mot "conscience", vient du latin "cum scientia" qui signifie «savoir avec», savoir que l’on sait. Ainsi, lorsque j’ai conscience qu'il fait chaud, j'ai également conscience de ressentir physiquement cette chaleur. La conscience de quelque chose est donc inséparable de la conscience d’en avoir conscience. Toute conscience est donc réflexive et avoir conscience, c’est à la fois s’apercevoir que l’on perçoit quelque chose et donner un sens à ces perceptions. Pour le philosophe William James, la conscience est inhérente à notre expérience personnelle de la perception, de la pensée, de l'émotion et de l'action. Pour Lionel Nacache, célèbre neuroscientifique, la conscience est la capacité d’un sujet à se rapporter à une représentation ou un état mental. Cet éminent chercheur, qui a longtemps travaillé sur la conscience avec Jean-Pierre Changeux, considère, dans le prolongement de la phénoménologie, qu’on ne peut pas séparer la conscience de son contenu et qu'être conscient, c’est toujours être conscient de quelque chose. La conscience est par nature un état subjectif qui ne peut pas être observée directement, contrairement à des paramètres biologiques objectifs et mesurables comme le taux de glucose dans le sang ou l’activité cardiaque.

C'est pourquoi les neurosciences cherchent, en utilisant des outils toujours plus performants et sensibles, à étudier et à repérer les activités et structures cérébrales spécifiques qui sont associées à la conscience. Et pour compliquer encore cette approche scientifique de la conscience, nous savons à présent, grâce à de récents travaux, comme ceux de Nathan Favre (CNRS), que ce phénomène de conscience, aussi étonnant que cela puisse paraître, ne semble pas se circonscrire au seul cerveau et à la pensée. Il a en effet été démontré que des perturbations corporelles, telles que les altérations de la perception du corps, influencent notre conscience de soi et notre capacité à traiter l’information sensorielle. Actuellement, il existe quatre principales théories de la conscience. La première est l’espace de travail global (TETG), selon laquelle des données rendues accessibles à un endroit du système vont permettre à des modules spécialisés de traiter une multitude d'informations et de les utiliser. Selon cette théorie, ce serait cette diffusion des informations aux multiples sous-systèmes cognitifs de notre cerveau (attention, mémoire de travail, planification) qui serait à la base de l'impression subjective d'avoir conscience du monde qui nous entoure.

La théorie de l’information intégrée (ITT), postule que le niveau de conscience d’un système, en l’occurrence le cerveau, est corrélé aux interconnexions que l’on retrouve dans ce réseau particulier. Plus nombreux seront les neurones à interagir les uns avec les autres, plus l’organisme aura une expérience consciente unifiée. Dans cette théorie, le niveau de conscience dépendra de la complexité du réseau et du niveau d’intégration dont il est capable. La troisième théorie est celle dite de "l’ordre supérieur" (HOTC), qui postule que la conscience phénoménale ne consiste pas en des sensations immédiates mais en une perception de ces sensations à un niveau supérieur. Enfin, la théorie du traitement récurrent (GWT) postule que le cerveau traite les informations par le biais de boucles de rétroaction. Grâce à ces boucles, le cerveau peut s'adapter à un environnement en perpétuel changement et prendre les meilleures décisions.

En 2019, des chercheurs du Ronin Institute (Montclair, US), ont proposé une hypothèse très intéressante, selon laquelle les réseaux de neurones dans le cerveau s’organisent de manière transitoire pour donner naissance à des souvenirs, à la pensée et à la conscience. Ce concept, qui repose sur les principes thermodynamiques d’énergie, de dissipation et d’équilibre, permet une nouvelle approche de la manière dont notre cerveau produit des pensées et éprouve des états de conscience. Pour maintenir ces états de conscience, le cerveau doit à la fois trier et intégrer de manière active les données apportées par nos différents sens et va donc consommer plus d'énergie que lorsqu'il est inconscient. En analysant les données d’enregistrements neuronaux des participants à l'étude, pendant l’éveil, le sommeil, le coma et les crises d’épilepsie, ces chercheurs ont observé que l’entropie (la tendance au désordre croissant), mesurée par le nombre de configurations de réseaux cérébraux synchronisés, était plus élevée pendant la conscience que pendant les états inconscients.

Ce niveau d'entropie élevé est logiquement corrélé à une dissipation plus importante de l’énergie au fur et à mesure que davantage de neurones sont connectés. Chacun de ces états majeurs, l’éveil, le sommeil, le coma et les crises d’épilepsie, est composé de plusieurs micro-états configurables. Au cours de la prise de conscience, le cerveau disposerait d’un nombre optimal de réseaux de neurones connectés. En revanche, pendant les états inconscients, ce nombre de micro-états diminuerait, ce qui réduirait l’entropie, entraînant un dysfonctionnement du cerveau. Selon cette étude, « Maintenir des états cérébraux sains ne dépend donc pas de la quantité totale d'énergie contenue dans le cerveau mais de la manière dont cette énergie est organisée, puis dissipée ».

Fin 2023, une autre équipe, associant des chercheurs de l’Université de Toronto et de l’Université de Paris Descartes, a repris et prolongé cette hypothèse entropique pour expliquer les fondements de la conscience. Cette étude a cherché à « identifier les caractéristiques globales de l’organisation du cerveau qui sont optimales pour le traitement sensoriel et qui peuvent guider l’émergence de la conscience ». Les observations de l’activité cérébrale chez l’Homme ont montré que celle-ci connaît d'importantes et permanentes variations au niveau des interactions cellulaires. Cette variabilité serait à la base des nombreux niveaux de fonctionnement du cerveau, y compris la conscience. Dans le cadre de leur analyse, les scientifiques ont utilisé la mécanique statistique, qui permet de calculer des caractéristiques thermodynamiques complexes, pour l’appliquer à la modélisation de réseaux neuronaux. Ils se sont notamment intéressés au phénomène qui permet à un ensemble de neurones d'osciller de façon synchronisée avec celle d’un autre ensemble. Cette évaluation permet de déterminer précisément comment nos cellules cérébrales organisent leurs interconnexions. Selon ces chercheurs, il existerait une multitude de façons d’organiser les connexions synaptiques en fonction de la taille de l’ensemble de neurones. Afin de tester leur hypothèse, des données d’émission de champs électriques et magnétiques provenant de 9 personnes distinctes ont été collectées. Parmi les participants, 7 souffraient d’épilepsie. Dans un premier temps, les modèles de connectivité ont été évalués et comparés lorsqu’une partie des volontaires était endormie ou éveillée. Dans un deuxième temps, la connectivité de 5 des patients épileptiques a été analysée, pendant qu'ils présentaient des crises de convulsion. Les chercheurs ont ensuite comparé ces nombreuses données afin de calculer leurs niveaux d’entropie cérébrale. De manière remarquable, les chercheurs ont constaté que, dans tous ces cas de figure, le cerveau affiche une entropie plus élevée lorsqu’il est dans un état de conscience. Face à ce constat, les chercheurs font l'hypothèse qu’en maximisant l’entropie, le cerveau optimise l’échange d’informations entre les neurones, ce qui rend notre cerveau plus efficace, à la fois pour percevoir notre environnement et agir sur lui. Dans ce contexte, la conscience pourrait être une propriété émergente découlant de cette entropie (Voir APS).

En 2024, une nouvelle étude menée par Pablo Castro, à l’Institut des Neurosciences Paris-Saclay, a essayé de déterminer si les variations des schémas de connectivité fonctionnelle cérébrale peuvent être associées aux différents états de fonctionnement du cerveau. La connectivité cérébrale se divise en trois types : structurelle, fonctionnelle et effective. La connectivité structurelle concerne les interconnexions cérébrales, la connectivité fonctionnelle, leur fonctionnement dynamique, et enfin la connectivité effective intervient lors des interactions spécifiques à une tâche donnée. Ces chercheurs ont analysé les données IRMf provenant de 34 participants sains, répartis en deux groupes. Le premier groupe, composé de 16 individus, a subi trois IRMf : une en éveil, une sous anesthésie générale et une après réveil. Le second groupe, composé de 18 participants, a effectué deux IRMf : une fois au réveil et une pendant un stade de sommeil profond. Ces scientifiques ont utilisé l’entropie de Shannon (du nom du mathématicien auteur de la célèbre théorie de l’information), une mesure permettant de quantifier la diversité des schémas d’activité cérébrale. Ces observations ont permis de montrer que durant l’éveil, l’entropie de Shannon était relativement élevée et se caractérisait par des schémas d’activité diversifiés, peu dépendants de la connectivité structurelle. En revanche, durant le repos, que ce soit en sommeil profond ou sous anesthésie, les schémas d’activité deviennent bien moins diversifiés, suggérant que le cerveau inconscient s’appuie davantage sur ses structures anatomiques (Voir Nature).

En 2022, des chercheurs de l'université de Boston ont essayé de construire une nouvelle théorie de la conscience. Dans ce nouveau cadre, « la conscience se serait développée comme un système de mémoire utilisé par notre cerveau inconscient pour nous aider à imaginer l'avenir de manière flexible et créative, et à planifier en conséquence », souligne le Professeur Andrew Budson. De précédents travaux avaient déjà montré que la conscience ne s'écoule pas de façon linéaire et bien ordonnée, allant de la perception à la décision et enfin à l'action. Cette étude confirme que nous ne percevons pas directement le monde, pas plus que nous ne prenons de décisions immédiates. « En réalité, nous faisons toutes ces choses inconsciemment et, environ une demi-seconde plus tard, nous nous rappelons consciemment de les avoir faites », souligne le Professeur Budson, qui ajoute, « Toutes nos pensées semblent bien relever davantage de l'inconscience que de la conscience » (Voir Boston University).

En 2021, des chercheurs du Center for Consciousness Science du Michigan Medicine (États-Unis), ont publié une autre étude intéressante qui place le siège de la conscience dans une région de notre cerveau appelée le cortex insulaire antérieur (Voir Science Direct). Comme le souligne Zirui Huang, qui a dirigé ces recherches, le traitement de l'information dans le cerveau a deux dimensions : le traitement sensoriel de l'environnement sans conscience et celui qui se produit lorsqu'un stimulus atteint un certain niveau d'importance et entre dans la conscience. Nous devons cependant reconnaître que nous ne savons toujours pas pourquoi certains stimuli sensoriels sont perçus de manière consciente alors que d'autres ne le sont pas. Cette étude a montré que lorsque le cortex insulaire antérieur est éteint, la conscience l'est également». Les 26 participants de cette étude ont été soumis à des IRM fonctionnelles, qui permettent de visualiser en temps réel les zones activées du cerveau. Les chercheurs ont injecté aux participants un anesthésiant, le Propofol, pour bloquer leur cortex insulaire antérieur, et pouvoir contrôler leur niveau de conscience. En même temps, ils ont demandé à tous les participants d’imaginer des situations de la vie quotidienne, comme effectuer une promenade, faire du sport ou des courses. Alors que les participants perdaient progressivement conscience au cours de l’expérience, leur conscience est revenue après l’arrêt du produit anesthésiant. Selon ces travaux, le cortex insulaire antérieur semble agir comme une espèce de filtre qui ne laisse passer vers la conscience que les informations les plus importantes. La conclusion de l'étude est donc que le cortex insulaire antérieur pourrait être, sinon la porte, du moins une région-clé pour l'émergence de la conscience.

Il y a quelques semaines, une équipe chinoise de l'université de Pékin a, quant à elle, révélé le rôle important que semble jouer le thalamus dans la manifestation de la conscience. Ces chercheurs ont inclus cinq patients qui avaient des électrodes à la fois dans le cortex préfrontal (dans la partie extérieure du cerveau, près du front) et dans le thalamus (au centre du cerveau). C'est la première fois que des chercheurs réussissent à accéder à des données fines dans cette région profonde de notre cerveau. Grâce à ces recherches, les auteurs ont remarqué une activité spécifique de certaines parties du thalamus quand les participants prenaient conscience de l'apparition du stimulus. Comme le souligne Claire Sergent, professeure en neurosciences cognitives à l'Université Paris-Cité et au CNRS, « Ces études récentes tendent à montrer que la prise de conscience ne peut sans doute pas être réduite et circonscrite à une aire cérébrale particulière, mais résulte probablement de la coopération et du dialogue entre différentes aires cérébrales qui permettent de maintenir cette information vivante dans le réseau et de la rendre opérationnelle pour effectuer de nombreuses fonctions cognitives » (Voir Science).

Cette hypothèse d'une conscience réticulaire et globale a été renforcée l'année dernière, quand des chercheurs du Massachusetts General Hospital et du Boston Children's Hospital, aux États-Unis, ont réussi à cartographier un réseau cérébral sous-cortical crucial dans l'intégration de l'éveil et de la conscience humaine. Ce réseau, baptisé « réseau d’éveil ascendant par défaut (DAAN), semble capital pour maintenir l’état d’éveil et la conscience. Il relie des structures sous-corticales comme le tronc cérébral, le thalamus et le cortex cérébral. Ces connexions permettent de maintenir le cerveau en alerte et en interaction avec l’environnement, même dans les états de repos. Cette découverte importante montre que, plus le cerveau est capable de traiter de l’information de manière coordonnée, plus l’expérience consciente devient riche et complexe. Elle explique également pourquoi, même en état de repos, certaines régions de notre cerveau continuent d'avoir une activité intense, comme ce fameux réseau par défaut, impliqué dans la réflexion et la conscience de soi (Voir Science Translational Medicine).

Pour Lionel Nacache, toutes ces découvertes récentes confirment que notre perception du monde n'a rien de passif et relève bien d'une construction active et constante du sujet. Dans le cadre de ses travaux sur la conscience avec ses collègues Jean-Pierre Changeux et Stanislas Dehaene, ce chercheur a proposé un modèle dit de "l'espace de travail global", considéré comme l'un des modèles d'explication de la conscience les plus convaincants. Cette théorie repose notamment sur l'hypothèse que la conscience est formée par un enchaînement d'états mentaux séparés, ou “discrets”, comme disent les mathématiciens. Lionel Nacache est persuadé que la dynamique cérébrale qui forme le flux de notre conscience est en fait constituée d'une succession d'états distincts les uns des autres, dont certains seulement présentent les caractéristiques d'états conscients. Mais le fonctionnement de notre cerveau nous donne l'impression, très convaincante, que notre conscience est un flux mental continu.

Lionel Nacache évoque souvent une fascinante expérience réalisée en 1975 par les Américains George McConkie et Keith Rayner (Voir Springer Nature). Les participants devaient regarder un écran sur lequel était affichée une page de texte. Ils étaient équipés d'électrodes qui mesuraient à chaque instant la position de leur regard. Les chercheurs pouvaient ainsi savoir en temps réel quelle partie de la page de texte se projette sur la rétine. Ces scientifiques étaient donc capables de modifier très rapidement le contenu affiché à l'écran, en fonction de la position du regard des participants. C'est là que l'expérience devient passionnante car, seule la partie de l'écran que les participants fixaient contenait bien les phrases censées s'y trouver. Les autres parties de l'écran n'affichent en réalité qu'une série de X. Pourtant les participants ont tous été persuadés d'avoir bien lu une page complète ! En fait, les chercheurs mettaient immédiatement à jour l’affichage de l’écran en remplaçant les X par la suite du texte dès que les participants faisaient une saccade oculaire pour déplacer leur regard et poursuivre leur lecture. Mais comment ces scientifiques peuvent-ils changer l’affichage à l’insu des participants ? Simplement parce qu'à chaque fois que nous effectuons une saccade oculaire, les informations qui s’impriment sur nos rétines durant ces déplacements brefs ne sont pas enregistrées par notre conscience pendant environ deux dixièmes de seconde… Lionel Nacache aime souligner que cette célèbre expérience scientifique montre que notre perception correspond bien à une reconstruction active et anticipatrice du réel, par laquelle nous co-produisons, et, d'une certaine façon, nous reconstituons en permanence le monde qui nous entoure.

On le voit, si les recherches et découvertes concernant la conscience sont foisonnantes et progressent à grand pas, le mystère demeure quant à la nature exacte et aux mécanismes d'émergence de cette fascinante et insaisissable faculté de notre cerveau. Force est de constater, et c'est ce qui fait toute la rigueur de la science, que, pour l'instant, aucune des théories principales concernant la conscience n'est vraiment parvenue à faire l’unanimité au sein de la communauté scientifique et à s'imposer définitivement. Les récentes études et observations expérimentales semblent vérifier certains aspects de chacune de ces théories... et en infirmer d'autres. Mais en attendant qu'un nouveau cadre conceptuel plus vaste et plus riche ne puisse rendre compte de manière plus convaincante de la conscience dans toutes ses dimensions, il est tout de même frappant de constater que, comme pour l’émergence de la vie, le surgissement de la conscience chez l'homme semble également corrélé aux lois de la thermodynamique, à l'entropie et à la théorie de l'information. Il est également important de souligner à quel point les mécanismes cérébraux et cognitifs inconscients, comme Freud l'a bien montré, semblent jouer un rôle-clé dans le fonctionnement global de notre cerveau et dans l'émergence de la conscience. Enfin, nous devons également admettre, ce qui est une troublante découverte, que « Rome n'est plus dans Rome » et que la conscience ne peut plus être entièrement circonscrite dans le cerveau, mais semble également dépendante, tant dans son apparition que dans son altération, du fonctionnement global de notre corps...

René TRÉGOUËT

Sénateur honoraire

Fondateur du Groupe de Prospective du Sénat

e-mail : tregouet@gmail.com


Avenir
Nanotechnologies et Robotique
Kawasaki présente Corleo, un robot quadrupède à hydrogène
Mercredi, 14/05/2025 - 18:19

À l'occasion d'une conférence sur l'Exposition universelle 2025, qui se tient à Osaka (Japon) depuis la mi-avril, le fabricant de motos Kawasaki a dévoilé son dernier véhicule, pour le moins original : un robot quadrupède baptisé Corleo, inspiré de mouvements d'animaux, capable de transporter un passager et de se déplacer dans des zones accidentées (montagneuses et près de zones d'eau, notamment).

Les quatre pattes du véhicule fonctionnent indépendamment l'une de l'autre, permettant au robot de se mouvoir facilement sur des terrains escarpés. « Le support arrière peut pivoter indépendamment du support avant, ce qui lui permet d'absorber les chocs lors de la marche et de la course », explique Kawasaki. « De plus, lors de la montée des marches, le conducteur peut adopter une posture qui évite de regarder vers le haut et facilite la surveillance de l'état de la route ». Ces pattes sont enfin équipées de sabots antidérapants, constituant un avantage considérable par rapport aux roues des motos dans les prairies et terrains rocailleux.

Corleo (“Core Logic Enhanced Organism”) intègre en outre de nombreux systèmes d'intelligence artificielle. L'appareil est doté d'un réseau de neurones assimilant des milliers de données par secondes, ce qui lui permet d'identifier tel ou tel obstacle, d'adapter son itinéraire et même de réagir à des commandes humaines. Le véhicule comprend également plusieurs fonctionnalités de traitement du langage naturel (NLP) et de reconnaissance faciale, qui lui donne la possibilité d'assimiler le ton de la voix et de réagir avec empathie. D'autres outils intelligents ont été ajoutés au tableau de bord, qui, en plus d'afficher les informations classiques (carburant, itinéraire, etc…), améliore la conduite de nuit « en projetant des repères sur la chaussée », précise Kawasaki sur une page de présentation. Cet affichage tête haute donne aussi des informations sur la stabilité des mouvements. Les robots sont conçus pour se coordonner avec d'autres appareils Corleo, d'autres robots ou drones, ce qui peut s'avérer utile en cas de situations extrêmes dans des terrains hostiles (recherche de survivants, par exemple).

L'une des principales innovations de l'appareil réside dans son mode d'alimentation, avec un moteur à hydrogène de 150 cm3. « L'hydrogène est fourni par une bouteille montée à l'arrière, ajoute Kawasaki. L'électricité produite alimente les moteurs installés sur chacun des quatre bras ». Plusieurs cas d'usage du robot sont envisagés, notamment dans la livraison (dernier kilomètre pour les chemins difficiles d'accès), dans le domaine militaire (surveillance, transport d'équipement) et agricole, ou encore pour des opérations de sauvetage. Ce robot à 4 pattes de Kawasaki va faire entrer la robotique de sauvetage dans une nouvelle ère. Son mode d'énergie particulier permet de porter la durée d'exécution de la pile à 8 à 12 heures, loin devant les batteries au lithium du Spot de Boston Dynamics (90 minutes) et de l'ANYmal de la start-up suisse ANYbotics (2 heures). Kawasaki avance aussi un transport de charge utile allant au-delà de 40 kg, contre 10 à 14kg pour ses concurrents.

L’Usine Digitale : https://www.usine-digitale.fr/article/kawasaki-leve-le-voile-sur-corleo-un-robot...

Un nouvel implant cérébral permet de traduire instantanément des pensées en paroles
Lundi, 12/05/2025 - 18:22

Après une crise cardiaque survenue il y a dix-huit ans, Ann, 47 ans, ne pouvait plus parler. Grâce à un implant cérébral relié à un ordinateur et dopé à l’intelligence artificielle (IA), elle peut désormais exprimer ses pensées à voix haute en moins d’une seconde. La prouesse, signée par une équipe de chercheurs californiens, est détaillée dans la revue Nature. L’outil pourrait, à terme, redonner une voix à des personnes atteintes de paralysie vocale.

Le système repose sur un implant placé à la surface du cerveau. Quand Ann pense une phrase, l’interface capte l’intention, l’analyse, et la transforme en parole grâce à une voix artificielle calquée sur la sienne, recréée à partir d’anciens enregistrements. Pour ces recherches, on a montré à Ann des phrases sur un écran, comme par exemple « tu m’aimes donc », qu’elle prononçait ensuite dans sa tête. Des phrases ensuite converties grâce à une réplique de la voix de la patiente.

La nouveauté majeure de ce dispositif est le temps de réponse qui est passé de 8 secondes à 80 millisecondes. Autrement dit : une pensée peut désormais devenir une phrase audible quasi en temps réel et donc faciliter des conversations. Le dispositif utilise une IA entraînée sur des milliers de phrases pensées par Ann. Pour l’instant, il peut générer des phrases à partir d’un vocabulaire limité à 1.024 mots, mais c’est déjà énorme pour tenir une conversation simple. « Elle était enthousiaste d’entendre sa voix et avait le sentiment qu’elle était ainsi incarnée », raconte Gopala Anumanchipalli, le chercheur principal.

L’implant utilisé n’est pas invasif : il ne pénètre pas le cerveau, contrairement à celui de Neuralink (une des sociétés d’Elon Musk). Il s’agit d’un type d’électrodes déjà utilisées en neurologie, notamment pour l’épilepsie. Le tout reste expérimental, mais les chercheurs espèrent pouvoir rendre cette technologie accessible d’ici cinq à dix ans, avec les financements adaptés.

Nature : https://www.nature.com/articles/d41586-025-01001-6

^ Haut
Matière
Matière et Energie
Une nouvelle technique pour recycler les pneus usagés
Mardi, 13/05/2025 - 18:37

Bien que le caoutchouc soit un matériau essentiel dans de nombreux secteurs, les déchets issus de son utilisation constituent un problème majeur en raison de leur impact environnemental. Selon la Banque mondiale, les déchets de caoutchouc dans les décharges libèrent des substances toxiques dans le sol et les eaux souterraines. Et lorsqu’ils sont brûlés ou incinérés, ils libèrent des polluants nocifs dans l’air, d’où l’importance de la mise en place de procédés de recyclage et de revalorisation efficaces. Aux États-Unis, des chercheurs de l’UNC-Chapel Hill ont développé une nouvelle méthode permettant de transformer le caoutchouc usagé, notamment les pneus usagés, en matériaux fonctionnels. Ceux-ci pourront être utilisés pour fabriquer des résines époxy.

Pour transformer les pneus usagés, l’équipe de recherche, dirigée par le Docteur Aleksandr Zhukhovitskiy, procède en deux étapes, à savoir une amination C-H et une stratégie de réarrangement des polymères. Selon eux, cette nouvelle méthode permet de décomposer efficacement la structure réticulée complexe du caoutchouc, les transformant en matériaux solubles fonctionnalisés par des amines. De plus, ce procédé fonctionne dans des conditions douces (35-50°C), contrairement aux techniques de recyclage traditionnelles, qui nécessitent souvent des températures extrêmes ou des catalyseurs coûteux. Les chercheurs affirment que leur méthode est plus respectueuse de l’environnement et plus économique que les méthodes actuelles, comme la dévulcanisation ou le clivage du squelette polymère, qui fragilisent le matériau ou produisent des sous-produits de faible valeur.

Les scientifiques indiquent qu’aucune des approches utilisées actuellement n’offre une solution efficace et évolutive pour la valorisation des déchets de caoutchouc. Les méthodes de recyclage traditionnelles, comme la pyrolyse, par exemple, présentent des risques pour la santé et l’environnement en raison de la production de sous-produits nocifs, tels que le benzène et les dioxines. « Nos recherches visent à surmonter ces défis en développant une méthode permettant de décomposer le caoutchouc en matériaux fonctionnels, même sous forme de mélange », a déclaré le Dr Zhukhovitskiy. Il explique qu’en seulement six heures, son équipe a réussi à décomposer complètement des pneus usagés et les transformer en matériaux utiles, lors d’un test.

Les matériaux obtenus peuvent être utilisés pour créer des résines époxy, largement utilisées dans les adhésifs, les revêtements et les composites. D’ailleurs, selon les chercheurs, les résines époxy fabriquées avec ces déchets de caoutchouc transformés sont aussi résistantes que celles disponibles sur le marché. Pour information, les scientifiques ont évalué l’impact environnement de leur méthode, à l’aide du facteur E. « En exploitant la puissance de l’amination C-H et du réarrangement du squelette, cette méthode ouvre une nouvelle voie pour transformer le caoutchouc post-consommation en matériaux de haute valeur, réduisant ainsi le recours aux décharges et minimisant les dommages environnementaux », déclare Sydney Towell, co-auteure de l’étude.

European Coatings : https://www.european-coatings.com/news/raw-materials/from-scrap-to-strength-rubb...

Une éolienne géante européenne pour contrer la domination chinoise
Lundi, 12/05/2025 - 18:28

Dans le secteur de l’éolien aussi, la Chine semble vouloir écraser la concurrence. Grâce au développement d’éoliennes d’une puissance impressionnante. La plus grande d’entre elles est actuellement l’éolienne offshore de Dongfang Electric, un modèle de 26 mégawatts (MW). Mais d’autres tournent autour des 20 MW.

Face à ces chiffres, l’Europe faisait jusqu’ici un peu pâle figure, avec des éoliennes ne dépassant pas les 14 ou 15 MW. Mais les choses pourraient bientôt changer. La rumeur des manœuvres menées par Siemens Gamesa en direction et sur le site d’essai d’Osterild, au Danemark, avait enflé, ces dernières semaines. Le fabricant germano-espagnol semblait se préparer à y installer un engin gigantesque. Et c’est aujourd’hui grâce à la législation danoise qu’une information supplémentaire à ce sujet est diffusée. Parce que ladite législation impose que chaque éolienne installée au Danemark et dont la surface du rotor dépasse 5 m² — y compris les prototypes — doit recevoir un certificat de conformité. C’est ainsi que quelques caractéristiques de la nouvelle éolienne de Siemens Gamesa ont été rendues publiques. Sa puissance sera de 21,5 MW et elle devrait pouvoir générer 120 millions de kWh par an, de quoi alimenter une ville de 25 000 foyers....

Et le modèle a été baptisé SG 21-276 DD. Parce que son rotor atteint un diamètre de 276 mètres ! Les pales de l’éolienne ont bien été installées au début du mois d’avril 2025. Le tout finalement conformément à ce qui avait été annoncé en juin dernier. L’ambition de Siemens Gamesa « d’assurer l’installation, l’exploitation et les tests du prototype d’éolienne offshore le plus puissant au monde ». Il ne s’agit toutefois là que d’un prototype. Objectifs : valider de nouveaux développements technologiques et obtenir les certifications nécessaires d’ici 2027, date d’expiration du certificat de conformité récemment attribué par les autorités danoises. Mais aussi, s’assurer de la fiabilité de ce nouveau modèle. Le tout grâce à un financement de 30 millions d’euros perçu de l’Union européenne dans le cadre du projet HIPPOW — pour Highly Innovative Prototype of the most Powerful Offshore Wind turbine generator.

Recharge : https://www.rechargenews.com/innovation/power-of-siemens-gamesa-s-secretive-reco...

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
EZH2 : le récepteur-cible qui peut bloquer les cancers agressifs
Mercredi, 14/05/2025 - 18:22

Des chercheurs chinois de l’Université de Guangzhou ont mis en lumière le potentiel de l’inhibition d’EZH2, un récepteur épigénétique majeur, ouvrant la voie à une nouvelle génération de thérapies ciblées permettant de perturber la croissance tumorale et de surmonter la résistance au traitement. EZH2 est décrit comme « un composant essentiel du complexe répressif Polycomb 2 (PRC2) », et comme un acteur clé dans la désactivation des gènes suppresseurs de tumeurs par méthylation des histones, un type de modification épigénétique. Sa surexpression a été impliquée, par de précédentes recherches, dans différents types de cancer, dont le cancer du sein, de la prostate, le glioblastome et le lymphome. 

La capacité des inhibiteurs d’EZH2 à inverser ces effets de croissance et de résistance tumorales, représente une promesse d’avancée majeure dans le traitement du cancer, notamment pour les patients atteints de ces tumeurs agressives. L’inhibition d’EZH2 perturbe les voies de signalisation clés qui entraînent la prolifération, l’invasion et la survie des tumeurs. EZH2 active en effet et notamment les voies qui favorisent les métastases et la résistance à la chimiothérapie. En ciblant EZH2, il devient possible de contrecarrer ces mécanismes, en rétablissant l’expression des gènes suppresseurs de tumeurs et en resensibilisant les cellules cancéreuses aux traitements conventionnels. 

Il existe déjà des inhibiteurs d’EZH2 : le premier de ces médicaments approuvé par l’agence américaine FDA, le tazémétostat, a déjà démontré des avantages cliniques significatifs dans le sarcome épithélioïde et le lymphome folliculaire, marquant une étape importante dans le développement de traitements anticancéreux basés sur l’épigénétique. La large portée des stratégies de ciblage d’EZH2 : ces thérapies, dont les thérapies combinées qui intègrent les inhibiteurs de points de contrôle immunitaire, la chimiothérapie et la radiothérapie, peuvent considérablement améliorer l’efficacité du traitement, réduire la résistance tumorale aux médicaments et améliorer les taux de survie à long terme.

Ces scientifiques poursuivent leurs recherches sur le rôle précis d’EZH2 dans différents types de cancer, notamment pour identifier des indicateurs prédictifs qui pourraient guider la sélection des patients qui peuvent bénéficier de ces approches thérapeutiques personnalisées. En conclusion, il existe un nombre croissant de preuves soutenant l’EZH2 comme cible thérapeutique clé, l’espoir avec cette nouvelle cible de révolutionner le domaine de l’oncologie et d’être en meilleure capacité de lutter contre certains des cancers les plus agressifs et les plus résistants aux traitements.

Science Direct : https://www.sciencedirect.com/science/article/pii/S2352304224001107?via%3Dihub

Le Danemark pourrait éradiquer le cancer du col de l'utérus d'ici 2040
Mercredi, 14/05/2025 - 18:21

La société danoise du cancer (Kræftens Bekæmpelse) vient d'annoncer que le cancer du col de l’utérus pourrait être éradiqué au Danemark d’ici à 2040 ! Si ses prévisions se confirmaient, cette maladie pourrait devenir la première forme de cancer à disparaître dans le pays, marquant un tournant historique en matière de santé publique. « L'incidence du cancer du col de l'utérus au Danemark pourrait être si faible en 2040 que la maladie sera considérée comme effectivement éradiquée », indique le rapport danois. D’après les critères de l’Organisation mondiale de la Santé, cela signifie atteindre un taux de récurrence inférieur à 4 cas pour 100.000 femmes. Le pays scandinave approche déjà ce seuil, avec moins de 10 cas pour 100.000 aujourd’hui.

Cette réussite repose notamment sur deux facteurs : la vaccination et le dépistage. Le vaccin contre le papillomavirus (HPV) fait partie du programme national de vaccination depuis 2009, et 89 % des jeunes de 12 ans y ont déjà recours. « Le Danemark pourrait être l'un des premiers pays d'Europe à éliminer le cancer du col de l'utérus », affirme Janne Bigaard, cheffe de projet à la Société danoise du cancer. Par ailleurs 60 % des femmes danoises participent actuellement au dépistage, avec un objectif fixé à 70 %, est-il précisé. L’organisation miserait également sur une nouvelle méthode de dépistage à domicile pour améliorer ces taux.

The Local : https://www.thelocal.dk/20250414/cervical-cancer-could-be-eliminated-in-denmark-...

Prédire grâce à l'IA le rôle des mutations génétiques complexes
Mercredi, 14/05/2025 - 18:18

Des scientifiques de l’Institute of Science and Technology Austria (ISTA), à Klosterneuburg, en Autriche, proposent un nouveau cadre plus global et plus durable pour étudier les maladies polygéniques. Cette équipe vient de présenter des modèles statistiques pour des prédictions génomiques, mais avec une nouvelle compréhension des mécanismes biologiques sous-jacents. De nombreux modèles et algorithmes statistiques ont été proposés par des équipes scientifiques. Tels des « boîtes noires », ces modèles visent à apporter des prédictions précises des risques de maladies, cependant les mécanismes moléculaires sous-jacents restent mal compris. Les nouvelles technologies apportées par l’intelligence artificielle (IA) dont l’apprentissage profond, permettent de traiter une quantité toujours croissante de données qui permet aujourd’hui de prendre du recul dans le diagnostic, via l’analyse des données génomiques.

Rappelons en effet que le génome humain est composé d’environ 20.000 gènes et d’un nombre encore plus important de paires de bases, c’est pourquoi une grande puissance statistique est essentielle pour mener les "études d’association pangénomique" (GWAS) qui permettent de commencer à le décrypter. Les derniers modèles statistiques permettent en effet d’analyser les "maladies polygéniques", où de nombreuses régions du génome contribuent à un dysfonctionnement et finalement au risque et au développement d’une maladie donnée. Mais, grâce à l’IA, ces modèles permettent également d’aller plus loin en apportant une nouvelle compréhension des mécanismes initiés par ces régions génomiques qui contribuent à ces différentes maladies.

Ces travaux sont menés dans la lignée du Human Genome Project lancé en 1990 pour décoder entièrement l’ADN humain, le plan génétique qui définit les humains. Dès 2003, le projet avait ouvert la voie à de nombreuses avancées scientifiques, médicales et technologiques. En déchiffrant le code génétique humain, les scientifiques espéraient dès le départ en apprendre davantage sur les maladies liées à des mutations et aux variations spécifiques du "script génétique".

Beaucoup de gènes, beaucoup d’interactions : ce volume de données constituait jusque-là un défi infranchissable. Pour mener les GWAS qui visent à identifier les variantes génétiques pouvant être liées à des caractéristiques de l’organisme ou à la propension à différentes maladies, le préalable statistique est déjà exigeant, car il s’agit d’analyser l’ADN d’un très grand nombre de participants sains et malades. Ensuite, « vient » le nombre de variations ou de mutations liées à une seule maladie, soit « des centaines ou des milliers de mutations liées à une maladie spécifique, une révélation surprenante et en contradiction avec la compréhension que nous avions de la biologie », expliquent les experts.

Enfin, chaque mutation a un impact ou une contribution souvent minime au risque de développer une maladie. Collectivement, elles peuvent mieux expliquer, mais pas complètement, pourquoi certains individus développent la maladie. C’est pourquoi ces maladies sont dites "polygéniques". Et c’est pourquoi l’analyse doit être particulièrement fine. De nouveaux modèles d’analyse ont donc émergé, comme le "modèle omnigénique" qui propose ainsi par cette contribution minime d’un très grand nombre de variations, une explication de la raison pour laquelle tant de gènes contribuent aux maladies : les cellules possèdent des réseaux de régulation qui relient les gènes à diverses fonctions. Les gènes étant interconnectés, une mutation dans un gène peut avoir un impact sur d’autres, car l’effet mutationnel se propage à travers le réseau de régulation.

Aujourd’hui, grâce à la puissance de calcul de l’IA, de nouveaux modèles permettent de prédire les niveaux d’expression génétique (l’intensité de l’activité génétique, indiquant la quantité d’informations de l’ADN activement utilisée) et la manière dont les mutations se propagent dans le réseau de régulation cellulaire. Leurs prédictions se révèlent très efficaces et durables, les mutations identifiées étant de plus en plus et véritablement susceptibles de contribuer à un résultat spécifique. Alors qu’une analyse de type GWAS standard fonctionne comme une "boîte noire", offrant un compte rendu statistique de la fréquence à laquelle une mutation particulière est liée à une maladie, ces nouveaux modèles offrent généralement une visibilité sur les mécanismes moléculaires en cause, soit, comment cette mutation peut conduire à une maladie et comment on pourra mieux détecter, prévenir, traiter. A travers cette compréhension à la fois fine et globale de la génétique, permise aujourd’hui par l’IA mais aussi des siècles de connaissances biologiques, c’est définitivement une nouvelle ère de compréhension, prévention et traitement durables des maladies polygéniques qui s’ouvre.

PNAS : https://www.pnas.org/doi/10.1073/pnas.2402340121

Un test urinaire qui décèle les cancers de la prostate agressifs
Mardi, 13/05/2025 - 18:36

Le cancer de la prostate est le cancer le plus fréquent chez les hommes : 55 000 cas sont diagnostiqués tous les ans dans l’Hexagone. Mais cette réalité reflète une pluralité de cas et donc d’approches thérapeutiques : il faut trouver la juste mesure entre des traitements souvent lourds et le degré d’agressivité du cancer de la prostate. Comment savoir si un cancer de la prostate est agressif ? Quelle est son évolution, son pronostic ?

« Certains cancers de la prostate ont une évolution si lente que l’on considère parfois qu'il est inutile de les traiter », précise la Fondation pour la recherche sur le cancer (ARC). « Au contraire, d’autres sont plus agressifs et nécessitent d’y opposer un traitement efficace le plus rapidement possible (...) L’enjeu pour les chercheurs et les médecins est d’importance : il s’agit d’éviter à des patients un traitement lourd et non nécessaire et à d’autres, au contraire, de proposer une prise en charge personnalisée qui augmentera les chances de réussite des futurs traitements ».

Actuellement, le degré d’agressivité du cancer de la prostate est déterminé par le score de Gleason, lui-même corrélé à une biopsie. Le score de Gleason est un élément déterminant, qui s'ajoute aux autres données recueillies sur le profil du cancer de la prostate comme le taux de PSA ou l'état clinique du patient. Le stade de gravité du cancer de la prostate dépend de différents facteurs comme le type de cancer, la taille de la tumeur initiale, sa localisation précise, son extension aux tissus voisins… Ce sont ces éléments qui renseignent sur le pronostic et l'espérance de vie du cancer de la prostate, les risques de récidives, les stades d'évolution... Ces facteurs pronostiques permettent à l'équipe médicale de mettre en place la meilleure prise en charge thérapeutique possible (traitement du cancer par hormonothérapie ou immunothérapie, chimiothérapie, intervention chirurgicale, surveillance active, radiothérapie externe...), prise en charge qui dépend également de l'âge du patient et de son état de santé général.

La biopsie passe au crible les cellules malignes et donne de son côté des informations essentielles sur l’agressivité des cellules tumorales. C'est donc le score de Gleason, qui jusqu’ici, est l’outil de référence. Il permet de classer les tumeurs en fonction de plusieurs éléments : la nature des cellules tumorales (sont-elles proches des cellules saines, on parle de cellules peu différenciées, ou au contraire très éloignées des cellules saines d’origine) et le nombre de cellules tumorales par rapport aux cellules saines.

S’il est plutôt fiable, le score de Gleason présente un défaut : il nécessite obligatoirement une biopsie pour déceler des traces de la maladie. De plus, les autres outils de diagnostic (comme l’IRM ou le dosage de PSA) peuvent parfois mener à des surdiagnostics et des demandes de biopsie inutiles (et non exemptes de complications). Ce nouveau test développé par l'université américaine du Michigan semble balayer ces problématiques. Mieux, il pourrait tout à fait être utilisé en autotest, à faire à la maison. Les résultats de l’étude d’efficacité de ce dispositif sont parus dans le Journal of Urology, et montrent que ce simple test urinaire est capable de détecter 94 % des cancers agressifs ; plus sensible que l’analyse sanguine ; il est suffisamment sensible pour éviter jusqu'à 53 % des biopsies inutiles. Ce test, MyProstateScore 2.0 ou MPS2, de son nom, examine 18 gènes différents liés au cancer de la prostate de haut grade et devrait prochainement se développer aux Etats-Unis, avant de débarquer en Europe.

Science Direct : https://www.sciencedirect.com/science/article/abs/pii/S1078143924007944

Une IA pour prévenir la mort subite
Mardi, 13/05/2025 - 18:34

Chaque année, la mort subite d’origine cardiaque est responsable de plus de 5 millions de décès à travers le monde. Un bon nombre de ces arrêts cardiaques surviennent brutalement sans signe précurseur identifiable, et frappent des individus de la population générale parfois sans antécédent connu de maladie cardiaque. L’intelligence artificielle pourrait permettre de mieux anticiper les arythmies, des troubles inexpliqués du rythme du cœur dont les formes les plus sévères peuvent provoquer un arrêt cardiaque fatal, selon une nouvelle étude dirigée par une équipe de chercheurs et de chercheuses de l’Inserm, de l’Université Paris Cité et de l’AP-HP, en collaboration avec des chercheurs américains.

Dans le cadre de cette étude, un réseau de neurones artificiels a été développé par une équipe d’ingénieurs de l’entreprise Cardiologs (groupe Philips) en collaboration avec l’Université Paris Cité et l’université d’Harvard. Concrètement, cet algorithme imite les fonctions du cerveau humain, avec pour objectif d’améliorer la prévention de la mort subite d’origine cardiaque. Les chercheurs ont analysé plusieurs millions d’heures de battements du cœur grâce aux données de 240 000 électrocardiogrammes ambulatoires recueillies dans six pays (États-Unis, France, Royaume-Uni, Afrique du Sud, Inde et République tchèque).

Grâce à l’intelligence artificielle, ils sont parvenus à identifier de nouveaux signaux faibles annonçant un risque d’arythmie. Les chercheurs se sont notamment intéressés au temps nécessaire à la stimulation électrique et à la relaxation des ventricules dans le cœur pendant un cycle complet de contraction et de relaxation cardiaque. « Nous nous sommes rendu compte qu’il était possible d’identifier, sur l’analyse de leur signal électrique pendant 24 heures, les sujets susceptibles de développer une arythmie cardiaque grave dans les deux semaines qui suivent. Ce type d’arythmie, s’il n’est pas pris en charge, peut évoluer vers un arrêt cardiaque fatal », explique Laurent Fiorina, premier auteur de l’étude, chercheur au sein du laboratoire Paris – Centre de recherche cardiovasculaire (Inserm/Université Paris Cité), cardiologue à l’Institut cardiovasculaire Paris Sud et directeur médical en charge de l’intelligence artificielle chez Philips.

Le réseau de neurones artificiels est encore en phase d’évaluation, mais, dans le cadre de cette étude, il a montré qu’il était capable de détecter les patients à risque dans 70 % des cas, et les patients sans risque dans 99,9 % des cas. Dans le futur, cet algorithme pourrait servir à surveiller les patients à risque à l’hôpital. À condition d’affiner ses performances, il pourrait aussi être intégré à des dispositifs comme les holters ambulatoires qui mesurent la pression artérielle pour mettre en évidence les risques d’hypertension, voire à des montres connectées.

« Ce que nous proposons ici, c’est un changement de paradigme dans la prévention de la mort subite », commente Eloi Marijon, directeur de recherche à l’Inserm au sein du laboratoire Paris – Centre de recherche cardiovasculaire (Inserm/Université Paris Cité), professeur de cardiologie à l’Université Paris Cité et chef du service de cardiologie à l’Hôpital européen Georges-Pompidou AP-HP. « Jusqu’à présent, nous essayions d’identifier les patients à risque sur le moyen et long terme, mais nous étions incapables de prédire ce qui pouvait se passer dans les minutes, les heures ou les jours précédant un arrêt cardiaque. Aujourd’hui, grâce à l’intelligence artificielle, nous sommes capables de prédire ces événements à très court terme et, potentiellement, d’agir ».

Presse Inserm du 30.03.2025 : https://presse.inserm.fr/lintelligence-artificielle-au-service-de-la-prevention-...

Un hydrogel très proche de la peau humaine
Mardi, 13/05/2025 - 18:31

Les hydrogels sont aujourd’hui utilisés et développés dans des domaines très variés (agriculture, spatial, protection anti-feu, robotique…). Constitués d’une matrice polymère capable d’incorporer une grande quantité d’eau, ce qui leur donne des propriétés mécaniques particulières, les hydrogels présentent l’avantage de pouvoir être imprimés en 3D. Cela élargit encore leur gamme d’utilisation et en fait un matériau facilement adaptable à un projet particulier.

Dans le domaine médical, les hydrogels sont actuellement couramment utilisés dans certains pansements pour favoriser une guérison rapide et prévenir les infections. Ils entrent également dans la composition de médicaments, permettant une meilleure dispersion des molécules actives dans le corps. Dans un certain sens, la peau humaine peut d’ailleurs être comparée à un hydrogel. Très riche en eau, elle possède en effet des caractéristiques (forte rigidité, flexibilité, capacité d’autoréparation) que peuvent mimer les hydrogels de synthèse, indépendamment les unes des autres toutefois. Jusqu’à présent, aucun hydrogel n’arrivait en effet à reproduire la combinaison complète de ces propriétés.

Mais une équipe de chercheurs des universités d’Aalto (Finlande) et de Bayreuth (Allemagne), annonce ainsi avoir réussi à produire pour la première fois un hydrogel présentant une structure unique permettant d’outrepasser les précédentes limitations en termes de propriétés. Pour arriver à ce résultat, des nanofeuillets d’argile ont été incorporés à l’hydrogel, dans le but de produire une structure plus ordonnée. Les polymères se retrouvent ainsi densément enchevêtrés entre les nanofeuillets d’argile, ce qui permet d’améliorer les propriétés mécaniques de l’hydrogel tout en conservant sa capacité d’autoréparation. Pour obtenir ce nouveau type d’hydrogel, les chercheurs ont mélangé une poudre de monomères avec de l’eau contenant des nanofeuillets d’argile. La polymérisation a ensuite été obtenue en plaçant le mélange sous une lampe UV. L’enchevêtrement des polymères obtenus permet ainsi d’obtenir un gel très résistant qui, si on le coupe, arrive cependant à se ressouder grâce à la forte mobilité des brins de polymères au niveau moléculaire. À peine 4 heures après avoir été coupé au couteau, cet hydrogel est ainsi réparé à près de 90 %. La reconstruction est complète au bout de 24 heures.

Une stratégie de nanoconfinement qui ouvre la voie à de nouvelles utilisations des hydrogels. En ce sens, les propriétés de ce nouveau matériau sont ainsi très semblables à celles de la peau humaine. Il pourrait présenter des applications intéressantes en médecine, en bio-ingénierie ou dans le domaine de la robotique molle (soft robotics), actuellement en pleine expansion. Une enveloppe de ce type d’hydrogel assurerait en effet une autonomie accrue à ces robots, en les protégeant de manière plus efficace, mais également en leur permettant de s’autoréparer rapidement. Ces résultats permettent donc d’entrevoir un futur où les matériaux ne seraient plus seulement fonctionnels, mais aussi adaptables et résilients, à l’image des tissus naturels.

Des tests ont, de plus, montré que ce nouveau type d’hydrogel possède d’autres propriétés, plutôt inattendues : le matériau montre en effet une capacité renforcée d’adhésion à différents substrats (verre, aluminium, cuivre ou encore écorce d’arbre). Un résultat qui serait à mettre au crédit de la stratégie de nanoconfinement utilisée pour produire cet hydrogel.

Cette stratégie pourrait d’ailleurs être appliquée à d’autres types de gels, ou permettre l’incorporation d’autres fonctionnalités, ouvrant ainsi la voie à des utilisations encore plus diversifiées. Les nanofeuillets d’argile pourraient être remplacés par d’autres nanomatériaux, comme les MXenes (une classe de composés inorganiques qui sont constitués de très fines couches de carbures, nitrures ou carbonitrures). L’étude révèle que cet hydrogel « dopé » aux MXenes présente de très intéressantes capacités de camouflage thermique ! La température de surface mesurée par une caméra infrarouge diffère ainsi de plus de 16°C par rapport à la température interne de l’hydrogel lorsqu’il est porté à 60°C. Autant de propriétés qui devraient rapidement intéresser les industriels de divers secteurs.

Nature : https://www.nature.com/articles/s41563-025-02146-5

Le Centre hospitalier de Vendée, précurseur d'une méthode de pointe dans le traitement de la douleur chronique
Lundi, 12/05/2025 - 18:27

C’est au cœur du Centre hospitalier départemental (CHD) de La Roche-sur-Yon, non loin du hall d’accueil fraîchement rénové et plusieurs couloirs grisâtres, que le docteur Yves-Marie Pluchon aide les personnes qui souffrent. En poste au CHD depuis 1987, il y a fait ses classes. Le responsable du Centre d’étude et de traitement de la douleur (CETD) de l’hôpital a vu l’évolution de la médecine. Il a notamment participé à l’exploration, il y a une quinzaine d’années, d’un traitement révolutionnaire : l’analgésie intrathécale. Un traitement de pointe pour soulager les douleurs chroniques les plus violentes, telles que le cancer du pancréas, du poumon ou encore du petit bassin.

Derrière ce nom un peu barbare, l’analgésie intrathécale, se cache un réservoir métallique intégré sous la peau du patient au niveau de son abdomen. Contenant un puissant mélange d’anti-douleur à base de morphine, d’anesthésiant local et ziconotide (extrait d’un mollusque asiatique, encore plus puissant que la morphine), le boîtier est relié à la colonne vertébrale du patient par le biais d’un cathéter. « C’est similaire à une ponction lombaire », souligne le docteur. Sauf que le réservoir à médicaments se trouve à l’intérieur du patient. « L’intérêt est de distribuer le médicament là où il agit. » Une fois administrée, la dose atteint directement la moelle épinière et soulage la douleur.

Contrairement aux traitements par voie orale, qui sont filtrés par le foie et perdent jusqu’à 50 % de leur efficacité, cette méthode agit instantanément sur la douleur du patient. Comme le médicament ne passe pas par le système digestif, « la dose administrée est diminuée par 300 » par rapport aux mêmes médicaments pris en cachet. Avec ce système, le patient peut dire adieu « ou presque » aux effets secondaires des anti-douleurs hyper puissants, tels que « la constipation, la somnolence et la confusion », détaille le docteur Pluchon.

Ce type de traitement est particulièrement utilisé pour les cancers très douloureux. Bien que principalement utilisé en oncologie, le dispositif bénéficie aussi aux maladies de la moelle épinières, aux patients accidentés entraînant des paraplégies ou à ceux qui souffrent de douleurs neuropathique post-AVC (accident cardio-vasculaire). Les seringues de traitement sont préparées par l’Institut de Cancérologie de l’Ouest (ICO) d’Angers, qui assure la livraison au CHD chaque semaine. En fonction du traitement et de l’intensité de la douleur du patient, le remplissage sous-cutané s’effectue toutes les une à quatre semaines. Le CHD assure le transfert et l’approvisionnement de la recharge des hôpitaux du département. Aujourd’hui, une trentaine de patients bénéficient de ce suivi en Vendée, avec une prise en charge dans tous les hôpitaux du département.

Un boîtier de ce type coûte environ 8 000 euros, ce qui est « dérisoire par rapport à une hospitalisation prolongée » qui peut s’élever à 2 000 euros par jour. « Là, le patient est chez lui, redevient autonome » sans être branché à une perfusion qui limite ses déplacements. Depuis l’installation de sa pompe, cette patiente du CETD a vu sa vie changer. « Je suis sortie du lit. Avec un dosage de morphine régulier, je ne me retrouvais plus en manque. Et rien que ça, j’étais soulagée » a-t-elle confié à Axel Watrin, chargé de communication digitale au CHD. Et grâce à une télécommande, elle peut s’auto-administrer une dose supplémentaire en cas de pic de douleur. Dans le service, d’autres possibilités à l’analgésie intrathécale sont pratiquées, notamment la stimulation médullaire, avec des électrodes implantées dans la moelle épinière et qui envoient un signal électrique. Ou encore, une technique plus ancienne qui utilise « des champs magnétiques envoyés dans le cerveau du patient pour perturber le message douloureux ».

Le Journal du Pays Yonnais : https://actu.fr/pays-de-la-loire/la-roche-sur-yon_85191/le-centre-hospitalier-de...

Une thérapie génique pour traiter une forme rare d'épilepsie
Lundi, 12/05/2025 - 18:25

Des chercheurs de l’Université du Michigan ont testé chez la souris une thérapie génique pour certaines formes d’épilepsie rare, dont le syndrome de Dravet et d’autres encéphalopathies épileptiques. Le syndrome de Dravet et d’autres encéphalopathies épileptiques développementales sont des maladies rares et dévastatrices qui provoquent des symptômes très sévères chez les enfants, notamment des crises d’épilepsie, une déficience intellectuelle et qui peuvent même entraîner une mort subite. La plupart des cas sont causés par une mutation génétique ; le syndrome de Dravet en particulier est le plus souvent causé par des variantes du gène du canal sodique SCN1A. Cette nouvelle recherche cible une autre variante du gène SCN1B, qui provoque une forme encore plus grave de maladie épileptique. Ainsi, les souris privées du gène SCN1B fonctionnel connaissent des crises d’épilepsie et une mortalité de 100 % quelques semaines seulement après la naissance.

L’étude, menée sur la souris modèle de cette forme rare d’épilepsie, teste une thérapie génique pour remplacer SCN1B afin d’augmenter l’expression de la protéine bêta-1, nécessaire à la régulation des canaux sodiques dans le cerveau. Ces expériences montrent que l’administration de la thérapie permet d’augmenter la survie, réduit la gravité des crises et restaure l’excitabilité naturelle des neurones cérébraux. Certes, la thérapie ciblant la protéine aura des résultats différents selon les formes d’expression du gène SCN1B, mais l’étude marque une première étape vers une thérapie de remplacement génique pour l’encéphalopathie développementale et épileptique liée à SCN1B.

JCI : https://www.jci.org/articles/view/182584

La voie du calcium serait impliquée dans l'autisme
Lundi, 12/05/2025 - 18:23

« Il va falloir réécrire les livres de biologie », explique Derek Bowie, de l’Université McGill, qui est l’auteur principal de l’étude publiée dans la revue Nature. « On pensait que le calcium ne jouait aucun rôle dans cette molécule du cerveau associée à l’autisme et à la déficience intellectuelle. Nous montrons qu’il y a un rôle pour le calcium ».

Cette découverte permet de chercher des molécules qui pourraient corriger des anomalies dans le transport du calcium par cette molécule, appelée Ampar. Elle joue un rôle dans l’apprentissage et la mémorisation. Cela laisse penser selon le chercheur montréalais que les anomalies de calcium dans Ampar pourraient être à l’origine de l’autisme et de la déficience intellectuelle, et peut-être aussi d’autres troubles neurologiques comme la sclérose en plaques.

En 2024, l’équipe de M. Bowie avait démontré qu’Ampar transportait des ions de calcium. Il s’agissait de travail de laboratoire dans des échantillons congelés de cette molécule. Cette fois, ils ont trouvé des anomalies de calcium chez trois enfants autistes de Grande-Bretagne. Dans deux cas, il y avait trop d’ions calcium, dans un autre pas assez. Est-ce qu’on pourrait donner du calcium pour améliorer la santé du cerveau, comme on en donne aux patientes souffrant d’ostéoporose ? « Non car le calcium dans les os a un rôle structurel. Il en manque avec l’ostéoporose. Dans le cerveau il s’agit de minuscules quantités d’ions calcium qui servent à la communication entre neurones ».

M. Bowie pense que d’ici cinq à dix ans des molécules pouvant corriger le transport du calcium par Ampar pourraient être identifiées. « Une bonne nouvelle, c’est dans d’autres régions du cerveau Ampar, par exemple dans l’hippocampe responsable des décisions, est différente que dans la région qui nous intéresse pour l’autisme et la déficience intellectuelle. Alors si on trouve un médicament pour corriger la situation au niveau du calcium dans Ampar, il pourrait être très spécifique. Souvent en neuropsychiatrie les médicaments agissent sur plusieurs zones du cerveau ».

La Presse https://www.lapresse.ca/actualites/sciences/2025-04-03/nouvelle-piste-pour-l-aut...

Alzheimer : vers un test olfactif à domicile pour diagnostiquer la maladie
Lundi, 12/05/2025 - 18:19

Des chercheurs du Mass General Brigham ont développé un test olfactif qui permet de détecter précocement la maladie d’Alzheimer, et cela, sans quitter le domicile du patient. Ce test olfactif prend la forme d’une carte sur laquelle des étiquettes odorantes sont apposées. Il faut renifler chaque marque et identifier les senteurs présentes. Pour déterminer si cette méthode permet bien d'identifier les personnes à risque de neurodégénérescence, les chercheurs ont recruté des participants anglophones et hispanophones ayant des inquiétudes concernant leur mémoire et d’autres qui présentaient un déficit cognitif léger. Ils ont tous passé le test. Leurs résultats ont été comparés à ceux de patients n'ayant pas d'odorat et à ceux de personnes cognitivement “normales”.

L'équipe a constaté que l'identification, la mémorisation et la discrimination des effluves diminuaient avec l'âge. Elle a également remarqué que les personnes âgées présentant un trouble cognitif léger obtenaient des scores inférieurs en discrimination et identification des parfums par rapport aux seniors sans trouble cognitif. De plus, les résultats des tests étaient similaires entre anglophones et hispanophones.

Selon les chercheurs, leurs travaux confirment que les tests olfactifs peuvent aider à identifier les personnes à risque de maladie d'Alzheimer et à intervenir des années avant l'apparition des symptômes mnésiques. Autre avantage de cet examen : il peut être réalisé à domicile facilement. En effet, l’étude a montré que les résultats ne différaient pas si le patient effectuait le test seul ou avec un soignant. « Nos résultats suggèrent que les tests olfactifs pourraient être utilisés dans des contextes de recherche clinique dans différentes langues et chez les personnes âgées pour prédire les maladies neurodégénératives et le développement de symptômes cliniques », explique le Docteur Mark Albers du Massachusetts General Hospital, auteur principal de l’étude.

Nature : https://www.nature.com/articles/s41598-025-92826-8

^ Haut
Recherche
Recherche & Innovation, Technologies, Transports
Airbus dévoile sa nouvelle feuille de route vers l'avion à hydrogène
Lundi, 12/05/2025 - 18:20

Peu de temps après avoir repoussé de cinq à dix ans son objectif de rendre viable un avion propulsé uniquement grâce à de l'hydrogène liquide, Airbus a apporté de nouvelles modifications sur son appareil. De nombreux changements à prévoir sur l'avion à hydrogène. Début février, Airbus n'avait pas d'autres choix que de retarder ses objectifs de commercialisation. Cette fois, c'est le design du modèle qui va changer.

Initialement prévu avec six moteurs, il n'y en aura finalement que quatre, placés sous les ailes hautes de l'appareil monocouloir. Deux moteurs en moins, mais pas de perte de puissance, puisqu'ils sont passés à deux mégawatts, contre 1,2 auparavant. Chaque paire de deux moteurs par aile sera alimentée par sa propre pile à combustible, cette dernière étant refroidie par un seul réservoir d'hydrogène liquide maintenu à -253°C. Ce nouveau design retravaillé pour les avions zéro émission d'Airbus, également appelé "ZEROe", fait suite à une autre annonce, celle de retard pour son entrée en service. « Les développements récents montrent que les progrès sur les éléments indispensables à cette transition sont plus lents que prévu », avait indiqué Airbus.

Le fabricant annonçait dans un même temps repousser de cinq à dix ans son objectif d'entrée en service d'un tel appareil, propulsé uniquement grâce à de l'hydrogène liquide, jusqu'alors fixé à 2035. Ce retard est alors vu comme une opportunité de continuer de le « perfectionner au cours des prochaines années, grâce à des essais supplémentaires qui permettront de faire évoluer les technologies associées au stockage et à la distribution de l’hydrogène, ainsi qu’aux systèmes de propulsion », précisait Airbus.

Le géant européen ne démord pas. « Nous sommes déterminés à atteindre notre objectif de mettre sur le marché un avion à hydrogène commercialement viable. Cet engagement s'inscrit dans notre ambition d'être leader de la décarbonation de l'aviation et de soutenir les objectifs de durabilité à long terme de l'industrie aéronautique », avait-il insisté. Un premier test de cet avion aura lieu en 2027 à Munich. L'intégralité de son système intégré sera testée, au sol uniquement, avant un potentiel essai en vol dans le futur.

CNEWS : https://www.cnews.fr/france/2025-03-29/airbus-devoile-le-design-de-son-futur-avi...

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top