 |
 |
Edito
Cosmologie : le grand Big Bang...

La cosmologie est sans doute sur le point de connaître une révolution majeure, peut-être la plus importante depuis la théorie de la relativité générale d’Einstein, en 1915. Il semblerait en effet, contre toute attente, que la mystérieuse énergie noire, découverte en 1998 par deux équipes indépendantes d'astrophysiciens, serait en train de connaître une diminution de sa puissance, ce qui se traduirait par un ralentissement de l'expansion de l'Univers. Depuis 1927, grâce aux travaux d'Edwin Hubble, nous savons que les galaxies s’éloignent de la nôtre de manière accélérée. Depuis le Big Bang, il y a 13,7 milliards d'années, l’Univers n'a cessé de gonfler, depuis sa taille microscopique des origines, jusqu’à son format gigantesque d'aujourd'hui, une sphère de 93 milliards d'années-lumière de diamètre, pour le seul univers observable.
L'énergie noire, dont nous ne connaissons toujours pas la nature, est une énergie répulsive très puissante, qui s'oppose à la gravitation et constitue les deux tiers de tout le contenu de l’Univers. Le19 mars, lors d’une conférence de la Société américaine de physique, en Californie, une collaboration internationale de 900 chercheurs, baptisée « DESI » (Instrument Spectroscopique pour l’Énergie Noire), et menée par le Laboratoire national Lawrence-Berkeley (Californie) a présenté les résultats de sa dernière étude. A l’aide du télescope Mayall (Arizona), ces scientifiques ont analysé la position de 15 millions de galaxies, dont certaines se situaient à 11 milliards d’années-lumière. Ces chercheurs ont pu ainsi réaliser une carte tridimensionnelle du cosmos et de son évolution. Contrairement à ce qu'on pourrait penser, les galaxies ne sont pas réparties au hasard dans l'Univers. Leur emplacement est lié aux concentrations de matière peu après le Big Bang. C'est cette empreinte primordiale qui détermine la répartition de ces galaxies, sous forme d’une distance spécifique, qui est considérée comme un mètre étalon par les cosmologistes. Le problème, c'est que ces mesures ne sont pas en parfait accord avec celles d’autres expériences, notamment les supernovæ, utilisées également par les chercheurs en tant qu’étalons spatio-temporels très fiables pour mesurer les vitesses et accélérations du Cosmos. Or, cette comparaison indique un écart avec la théorie, qui a très peu de chances, du point de vue statistique, d’être dû au hasard.
Cette découverte a été confortée par une nouvelle analyse des données du prédécesseur de DESI, SDSS, publiée début mars, et qui montre, elle aussi, une diminution de l’accélération de l'énergie noire. On se souvient qu'Einstein fut surpris de constater, en 1917, que ses équations de la relativité générale, appliquées à l’Univers, prévoyaient une expansion cosmique, ce qui le dérangeait profondément. C'est pourquoi il décida alors d'ajouter sa fameuse "constante cosmologique", pour sauver son modèle d'univers statique. Mais Georges Lemaître et Edwin Hubble démontrent définitivement, en 1927, que l’Univers était bien en expansion. Einstein se résolut alors à supprimer sa constante cosmologique. Mais celle-ci fit une réapparition remarquée en 1998, après la découverte de l'énergie noire et de l’expansion accélérée de l'univers. Les nouveaux résultats récents et inattendus de DESI semblent bien conforter sérieusement l'hypothèse d'une énergie noire qui n'est pas constante, mais variable dans le temps. « S’ils sont confirmés, nos résultats montrent que l’accélération était légèrement plus forte il y a 7 milliards d’années et qu’elle tend à diminuer depuis 2,5 milliards d’années. L’énergie noire ne se résume plus à une constante mais cache une dynamique dont nous devons saisir la nature », souligne Arnaud de Mattia, chercheur au CEA.
Pour vérifier ces résultats inattendus, DESI va réanalyser soigneusement toutes ces données et étendre leur collecte jusqu’à inclure 40 millions de galaxies. Le télescope spatial Euclid, qui, a dévoilé ces nouveaux résultats, évaluera lui aussi l’accélération de l’Univers. Euclid va produire chaque jour quelque 100 gigaoctets de données. Cette énorme quantité d'informations sera analysée grâce à des algorithmes d’intelligence artificielle permettant de différencier les différents types des galaxies. Fin 2026, les scientifiques devraient disposer d'une quantité très importante de nouvelles données cosmologiques, qui seront recoupées avec celles provenant d'autres instruments, comme le futur télescope spatial Nancy Grace Roman et l'observatoire Vera Rubin au Chili. Nous saurons alors avec certitude si ces fluctuations de l'énergie noire dans le temps sont bien réelles. Pour le cosmologiste David Elbaz, cette variation surprenante de l'énergie noire dans le temps pourrait résulter d’un “champ scalaire”, c'est-à-dire un champ d'énergie qui exerce une force qui n'est pas orientée, évolue au fil du temps et peut modifier les propriétés des particules élémentaires qui entrent en interaction avec lui. Un champ scalaire comme celui associé au boson de Higgs agit partout dans l'espace, sans privilégier une direction particulière. On sait depuis la découverte du boson de Higgs, en 2012, dont le champ explique la masse des particules, que d'autres champs scalaires existent et concernent notamment des propriétés géométriques fondamentales de l'espace, comme la constante cosmologique.
Quant à l'origine de l'énergie noire, elle continue à faire l'objet de nombreuses spéculations et hypothèses. Une équipe américaine, dirigée par Gregory Tarlé et Kevin Croker, a proposé en novembre dernier une théorie selon laquelle, lorsqu’une étoile s’effondre sous l'effet de sa propre gravité, pour devenir un trou noir, une partie de son énergie pourrait être transformée en énergie noire. Kevin Croker, astrophysicien à l’Université d’État de l’Arizona et auteur principal de la nouvelle étude, souligne que « Si les trous noirs contiennent de l’énergie noire, ils peuvent se coupler et croître avec l’expansion de l’univers, accélérant ainsi sa croissance. Et même si nous ne pouvons encore expliquer en détail comment cela se produit, nous observons des indices clairs de ce phénomène » (Voir University of Michigan).Dans cette nouvelle étude, les chercheurs ont également utilisé le spectroscope de l’énergie noire (DESI), conçu pour mesurer la position des galaxies avec une précision exceptionnelle, permettant de retracer la vitesse d’expansion de l’univers depuis son origine. De manière surprenante, cette étude montre qu'il existe une forte corrélation entre la densité de l’énergie noire et la croissance des trous noirs, Ces recherches tendent en effet à montrer qu'à mesure que de nouveaux trous noirs se constituent, à la suite de la mort d’étoiles massives, la quantité d’énergie noire dans l’univers augmente de manière cohérente. Si cette corrélation est confirmée, elle pourrait résoudre la "tension de Hubble", un problème de longue date pour les astronomes. Cette fameuse tension de Hubble désigne l’écart important entre les valeurs prédites par le modèle standard de la cosmologie et celles observées en réalité. Les observations indiquent une valeur de la constante de Hubble de 73 kilomètres par seconde par mégaparsec (km/s/Mpc), alors que les prédictions théoriques indiquent une valeur de 67 km/s/Mpc. Et en décembre dernier, une nouvelle étude de l’Université Johns Hopkins a confirmé, grâce à des nouvelles données provenant du télescope spatial James Webb (JWST), que cet écart important et inexplicable était bien réel et ne venait pas d'une erreur de mesure...
Il y a quelques jours, une autre étude internationale est également venue proposer une nouvelle théorie sur la nature et l'évolution des trous noirs. Jusqu’à présent, la théorie classique postule que la matière qui tombe dans un trou noir est inexorablement attirée vers la singularité, un point infiniment dense où l’espace et le temps semblent s'arrêter. Mais cette description théorique n'est pas satisfaisante pour beaucoup de physiciens car elle suppose qu'il existe dans l’Univers des régions où les lois de la physique ne sont plus valides. Pour essayer de surmonter ce problème, des chercheurs des Universités de Sheffield et de Madrid proposent de réintroduire la physique quantique pour mieux comprendre la véritable nature d’un trou noir. Alors que la relativité générale permet un effondrement total de l’espace-temps, la physique quantique interdit une telle possibilité (Voir University of Sheffield). Dans le monde quantique, les particules ne peuvent pas être complètement immobiles et sont constamment l'objet d’infimes fluctuations quantiques, même dans les situations les plus extrêmes. Dans ce nouveau cadre théorique, il ne peut plus y avoir de singularité de densité infinie mais des fluctuations quantiques qui empêchent l'espace-temps et la matière de s’effondrer totalement. Dans ce cadre quantique, la matière accumulée dans le trou noir serait expulsée progressivement sous une autre forme et donnerait naissance à un "trou blanc". Ce trou blanc serait une espèce de fontaine cosmique qui rejetterait cette matière et cette énergie dans un autre endroit de l’Univers, connectant ainsi deux régions de l’espace-temps. Cette hypothèse fascinante, qui s'inscrit dans le cadre plus vaste de la théorie de la gravité quantique en boucles, proposée par Carlo Rovelli et Lee Smolin, a également des conséquences vertigineuses sur la nature du temps, qui ne serait pas simplement relatif à chaque observateur, mais défini par l’énergie noire elle-même. Cette énergie noire agirait comme une horloge cosmique qui commande l’évolution du temps à l’échelle de tout l’Univers.
Un autre mystère est peut-être en voie de dissipation, celui de la matière noire, cette matière invisible qui composerait plus de 80 % de l'Univers (exception faite de l'énergie noire). Des chercheurs de l’université d'Austin au Texas ont proposé en décembre dernier un nouveau modèle nommé WIFI (Inflation Chaude par Ultraviolet Gelé). Ce modèle explore un mécanisme par lequel la matière noire serait produite pendant la phase "d'inflation cosmique" initiale qui a suivi le Big Bang (Voir The University of Texas at Austin). Rappelons que cette phase d'inflation, admise par la communauté scientifique depuis 1979, postule que l'Univers aurait connu une fulgurante expansion, de l'ordre de 10 26 en un temps extrêmement bref, compris entre 10-36 et 10-33 secondes après le Big Bang. Selon cette hypothèse, la matière noire aurait été produite lors de cette phase d'inflation cosmique, à partir d'interactions entre le champ scalaire primordial, ou inflaton, et des particules. Le modèle WIFI postule que de la radiation, générée par le champ inflaton, aurait pu produire des particules de matière noire grâce à l'effet du rayonnement ultraviolet. L'intérêt de cette nouvelle hypothèse originale, c'est qu'elle est vérifiable. Au cours de la prochaine décennie, il devrait en effet être possible techniquement de détecter des signatures d'une inflation dite “chaude” - une preuve de la validité du modèle WIFI – sur le fond diffus cosmologique. Si la matière noire a été produite lors de l'inflation, alors son origine précéderait le moment où les premières particules du modèle standard se sont formées. Ce serait alors un grand bouleversement dans notre compréhension du cosmos.
Je voudrais évoquer enfin, dans ce tourbillon de découvertes cosmologiques, une nouvelle théorie audacieuse et très intéressante, visant à compléter la relativité générale pour y intégrer la dimension quantique de l'Univers. Formulée par Albert Einstein en 1915, cette célèbre et géniale théorie explique la gravité comme une courbure géométrique de l’espace-temps provoquée par les objets massifs. De l’autre côté, la mécanique quantique, développée entre 1900 et 1927, décrit très bien le comportement probabiliste et dual (à la fois corpusculaire et ondulatoire) des particules à des échelles minuscules, comme les atomes et les électrons. Le problème, c’est que ces deux théories, bien qu’ayant été abondamment vérifiées par l'expérience, restent largement incompatibles, dès lors qu'on tente de les combiner. C'est dans ce contexte qu'une récente étude a fait grand bruit au sein de la communauté scientifique. Ce travail, réalisé par la brillante mathématicienne Ginestra Bianconi, Professeure à l'Université Queen Mary de Londres, a été publié sous le titre « La gravité issue de l’entropie ». S'inspirant des travaux de Ted Jacobson, à la fin du siècle dernier, puis d'Eric Verlinde, il y a une quinzaine d'années, cette scientifique propose de ne plus considérer la gravité comme une force fondamentale, mais plutôt comme un phénomène émergent lié à l’entropie relative quantique, un concept issu de la théorie de l’information quantique (Voir APS).
En physique, l’entropie, concept qui vient de la thermodynamique, mesure le désordre ou l’incertitude d’un système. L’entropie relative compare quant à elle deux états d’un même système. Dans cette nouvelle approche, l’espace-temps n’est plus un simple tissu déformé par la matière, mais un système quantique dont la structure géométrique émerge de ces différences d’entropie. Un élément central de cette nouvelle théorie est l’introduction du "champ G", un champ auxiliaire qui joue un rôle-clé dans l'évolution de l’espace-temps. Dans les équations modifiées de la relativité générale proposées par Ginestra Bianconi, le champ G agit comme un multiplicateur lagrangien, un outil mathématique utilisé pour imposer des contraintes dans un système. L'introduction de ce champ G a plusieurs avantages : d'abord, il fournit une explication à la mystérieuse matière noire, cette substance invisible qui représente environ 27 % de l’Univers, mais qui n’interagit pas avec la lumière et ne peut être détectée directement. Ensuite, il prédit l’émergence d’une petite constante cosmologique positive, en accord avec les observations de l’expansion accélérée de l’Univers. Cette théorie permet enfin de considérer l'espace-temps comme un opérateur quantique qui agit sur les états quantiques et détermine leurs évolutions. Comme le souligne Ginestra Bianconi, « En introduisant le G-champ, nous obtenons des équations d'Einstein modifiées et des équations du mouvement pour la matière et le G-champ. Ces équations montrent comment la matière influence la géométrie de l'espace-temps. En outre, à basse énergie, les équations modifiées se comportent en accord avec la relativité générale, ce qui permet de considérer que la gravitation pourrait être une conséquence de l'entropie ».
Les travaux de Ginestra Bianconi ouvrent donc des perspectives inédites. En reliant la gravité à l’entropie quantique, cette approche pourrait permettre de construire une véritable théorie unifiée de la gravité quantique. De plus, si le champ G s’avère être lié à la matière noire, cette théorie pourrait aussi nous éclairer sur la nature intime de cette matière insaisissable. Reste à vérifier cette théorie séduisante par des expériences et des observations, ce qui est possible mais prendra des années. Le grand mérite de cette avancée théorique, c'est qu'elle remet en question nos conceptions de l’espace-temps et de la gravité et qu'elle oblige les physiciens à élargie leur cadre de raisonnement et de pensée. Le physicien néerlandais Eric Verlinde avait déjà proposé, en 2008, une nouvelle théorie audacieuse qui considère que la gravité ne serait pas une force fondamentale de la nature, mais devrait être considérée comme un phénomène émergent, résultant d'un processus thermodynamique, à l’instar de la chaleur qui résulte du mouvement de particules microscopiques. Verlinde souligne d'ailleurs que si l’on accepte de considérer la gravitation comme un effet secondaire dans l’Univers et non comme une force fondamentale, il n’est plus nécessaire de postuler l'existence de la matière noire pour expliquer le comportement des galaxies et des objets cosmiques.
D'ici quelques années, les progrès des outils d'observation et de mesure, ainsi que les avancées informatiques en matière de traitement des données par IA, permettront sans doute de vérifier ou d'infirmer non seulement la variabilité dans le temps de l'intensité de l'énergie noire, mais également certaines prédictions découlant des théories de la gravité entropique et de la gravité quantique en boucle. Il sera alors possible, comme l'espère la majorité des physiciens, de proposer une nouvelle théorie cosmologique cohérente, plus vaste et plus riche que le modèle standard actuel, incluant non seulement la relativité générale, mais aussi la mécanique quantique et la thermodynamique, avec ses concepts d'entropie et d'information. Ce nouveau cadre conceptuel parviendra-t-il à rendre compte de la complexité incroyablement subtile et polymorphe du réel, de l'infiniment petit à l'infiniment grand ? Rien n'est moins sûr, car il se peut que cette complexité, bien qu’accessible à l’esprit humain, soit inépuisable et échappe à tout jamais à une description théorique et mathématique complète...
René TRÉGOUËT
Sénateur honoraire
Fondateur du Groupe de Prospective du Sénat
e-mail : tregouet@gmail.com
|
 |
|
 |
|
 |
|
|
Matière |
|
 |
Matière et Energie
|
|
 |
|
 |
|
 |
 |
|
Des chercheurs de SINTEF, l’une des plus grandes organisations de recherche indépendantes en Europe, ont imaginé un moyen de produire de l’acier de manière décarbonée. Traditionnellement, pour produire de l'acier, les minerais extraits des carrières sont chauffés à haute température à l’aide de coke, un charbon transformé qui sert de combustible. Cela permet d’éliminer l’oxygène du minerai et d’en extraire le fer. Un processus qui génère d’importantes émissions de dioxyde de carbone. L’équipe s’est donc consacrée à trouver une alternative basée sur l’utilisation du plasma d'hydrogène comme combustible, afin de remplacer le charbon.
L’approche des scientifiques repose sur les propriétés uniques de l’hydrogène. Chauffé à des températures très élevées, l'hydrogène se transforme en plasma. Dans cet état, il est bien plus réactif que sous sa forme gazeuse. Il est alors mieux à même d’extraire l’oxygène des minerais métalliques que les combustibles fossiles. Mais contrairement à la production traditionnelle qui émet de fortes émissions de carbone, l’hydrogène ne produit que de la vapeur d’eau lorsqu’il est surchauffé. Théoriquement, ce processus devrait être dénué de toute émission de dioxyde de carbone. Pour l’instant, cette technologie n’a été testée par l’équipe que sur la production de ferromanganèse, un alliage essentiel dans la fabrication de l'acier. Cependant, plusieurs projets précédents ont pu démontrer la faisabilité d’une telle méthode.
« Grâce à des projets pilotes et des installations de test, les chercheurs peuvent tester la technologie dans des scenarii réels, collecter des données précieuses pour améliorer les processus et identifier les domaines à développer davantage », indique un communiqué. En effet, l’utilisation du plasma d’hydrogène est aujourd’hui encore confrontée à plusieurs obstacles, notamment liés aux coûts et à la consommation d’énergie. Effectivement, il s’agit d’un procédé très énergivore qui nécessite une grande quantité d’électricité. Néanmoins, si la technologie du plasma d'hydrogène reste encore en phase de recherche, les progrès semblent s'accélérer. Pour les chercheurs, une fois ces défis surmontés, cette méthode pourrait devenir un pilier de la production de métaux sans émissions. Si les États – qui en font régulièrement la promesse – respectent leurs objectifs de neutralité carbone, le plasma d’hydrogène pourrait augmenter la demande mondiale en énergies renouvelables.
Interesting Engineering : https://interestingengineering.com/science/hydrogen-plasma-breakthrough-emission...
|
 |
 |
 |
|
 |
 |
|
Nous ne connaissons que de quatre états de la matière : solide, liquide, gazeux et plasma. Mais dans le monde quantique, des matériaux pourraient se transformer et, dans certaines conditions, se trouver dans d’autres états, comme l’état supersolide. Une équipe internationale de chercheurs a d’ailleurs annoncé avoir trouvé un moyen de forcer la lumière laser à se transformer en un supersolide.
Il est difficile d’expliquer simplement ce que sont les supersolides, tant leur nature est par définition contre-intuitive. Ils combinent à la fois une structure similaire à celle d’un cristal, donc solide, mais n’ont aucune viscosité, ce qui signifie qu’ils peuvent s’écouler sans aucune résistance, comme le ferait un fluide. Cette situation précise survient principalement dans un environnement dans lequel la température est proche du zéro absolu. Dès 1969, les physiciens russes Alexander Andreev et Ilya Liftshitz avaient prédit théoriquement la possibilité que certaines matières puissent passer dans un état supersolide. Cette affirmation a ensuite fait l’objet de nombreuses expériences tentant de prouver l’existence de ce nouvel état. Le doute a finalement été définitivement levé en 2019, lorsque trois équipes indépendantes ont réussi à atteindre expérimentalement un état supersolide.
Le travail récemment mené par une équipe de nanotechnologues, d’ingénieurs et de physiciens du Conseil national de recherches d’Italie (CNR) va encore plus loin. Partant de la découverte faite il y a plus de dix ans que la lumière pouvait devenir un fluide lorsque les conditions adéquates étaient réunies, ils ont envisagé la possibilité qu’elle pouvait aussi être transformée en supersolide. Leur approche ne repose pas sur un travail dans des températures extrêmement basses mais sur l’utilisation d’un laser. Celui-ci a été dirigé vers un morceau taillé d’arséniure de gallium, un semi-conducteur.
L’interaction entre les arêtes façonnées de l’échantillon et le laser a fait naître des particules hybrides appelées polaritons, qui ont été contraintes de se regrouper en un supersolide. « Nous avons en fait transformé la lumière en un solide. C’est assez impressionnant », a résumé Dimitrios Trypogeorgos, auteur principal de l’étude. Les chercheurs ont indiqué qu’ils souhaitent désormais poursuivre leurs recherches sur ce supersolide fabriqué à base de lumière.
Nature : https://www.nature.com/articles/s41586-025-08616-9
|
 |
 |
 |
|
 |
 |
|
Sur une parcelle du domaine du Chaillot, en bordure de la D67, Pierre Picot, vigneron, a lancé l’installation d’un dispositif innovant de protection contre le gel pour ses vignes. Cette initiative, étendue sur 3,5 ha, vise à prévenir les dégâts causés par les gelées printanières, un fléau qui a lourdement touché le vignoble de Châteaumeillant, en avril 2024. Face à ces pertes, plusieurs vignerons du syndicat ont exploré de nouvelles solutions, dont Pierre Picot qui évoque « une question de survie ».
Après des recherches approfondies et des échanges avec un collègue angevin, ils ont opté pour l’utilisation de tubes infrarouges, « des sortes de guirlandes […] qui protègent jusqu’à moins 6 degrés ». L’installation, qui doit être achevée avant le 1er avril, repose sur un réseau sophistiqué de tubes infrarouges disposés dans les rangs de vignes. Alimentés par six groupes électrogènes de 270 kilovoltampères. (KVA), ils diffusent un rayonnement infrarouge sur les bourgeons, leur apportant une chaleur ciblée et réduisant ainsi les risques de gel.
Contrairement aux méthodes traditionnelles, comme les bougies antigel ou les tours à vent, cette technologie limite la dissipation thermique due au vent et à l’humidité. Des capteurs thermiques surveillent en temps réel la température ambiante et dès qu’elle atteint un seuil critique, les tubes s’activent automatiquement, assurant une protection optimale et économe en énergie. Comparables à des bandes LED, ils émettent une lumière invisible à l’œil nu, efficace pour réchauffer délicatement les bourgeons. Cette expérimentation suscite déjà un vif intérêt parmi les vignerons. Si elle s’avère concluante, elle pourrait participer à la protection contre le gel dans le vignoble de Châteaumeillant et au-delà.
Le Berry Républicain du 13.03.2025 : https://www.leberry.fr/vesdun-18360/economie/a-vesdun-un-bouclier-infrarouge-pou...
|
 |
^ Haut |
 |
|
 |
|
 |
|
|
Terre |
|
 |
Sciences de la Terre, Environnement et Climat
|
|
 |
|
 |
|
 |
 |
|
Selon la dernière analyse de la NASA, le niveau des mers a augmenté bien plus vite que prévu. L’agence spatiale américaine attribue cette hausse inattendue au réchauffement des océans, combiné à la fonte des glaciers et des calottes polaires. Selon les données satellitaires de la NASA, le niveau des océans s’est élevé de 0,59 centimètre en 2024, bien au-delà des 0,43 centimètre initialement estimés par les scientifiques. Une accélération préoccupante. « Chaque année est un peu différente, mais ce qui est clair, c’est que l’océan continue de monter et que le rythme de cette montée est de plus en plus rapide », a souligné Josh Willis, chercheur à la NASA. Une accélération qui inquiète les experts.
Depuis 1993, le niveau moyen des mers a grimpé de 10 centimètres, une conséquence directe du réchauffement climatique causé par les activités humaines. Jusqu’à récemment, la montée des eaux était principalement due à la fonte des glaciers et des calottes polaires, qui ajoutaient de l’eau douce aux océans. En 2024, la situation s’est inversée : la dilatation thermique des océans, c’est-à-dire l’expansion de l’eau sous l’effet de la chaleur, est devenue le principal facteur d’élévation du niveau marin. Ce basculement s’explique par la température record atteinte en 2024, la plus élevée depuis le début des relevés en 1850. Le réchauffement global, amplifié par les émissions de gaz à effet de serre, accélère ce phénomène et met en péril les populations côtières.
NASA: https://www.nasa.gov/missions/jason-cs-sentinel-6/sentinel-6-michael-freilich/na...
|
 |
^ Haut |
 |
|
 |
|
 |
|
|
Vivant |
|
 |
Santé, Médecine et Sciences du Vivant
|
|
 |
|
 |
|
 |
 |
|
L’intestin humain abrite des milliards de bactéries qui jouent un rôle vital dans la digestion, l’immunité et la santé en général. Lorsque cet équilibre microbien est perturbé, cela peut contribuer au développement de maladies chroniques comme la rectocolite hémorragique (RCH), une maladie inflammatoire du gros intestin. Pour certains patients, les traitements actuels apportent un soulagement limité ou comportent des risques importants, dont une immunosuppression. Les chercheurs explorent maintenant d’autres moyens de rétablir la santé intestinale, en se concentrant sur la capacité du microbiote à régénérer la paroi intestinale.
L’une des caractéristiques de la RCH est une carence en certains acides biliaires, des molécules qui aident à digérer les graisses et à réguler l’homéostasie intestinale. Ces molécules ne sont pas seulement produites par le foie, elles sont aussi transformées par certaines bactéries intestinales en des formes qui favorisent la régénération de la barrière intestinale. Les patients atteints de RCH présentent des taux plus faibles de ces acides biliaires microbiens, ce qui suggère que leur restauration pourrait favoriser la guérison.
Les équipes de l'EPFL dirigées par Kristina Schoonjans, professeure au Laboratoire de signalisation métabolique, et Rizlan Bernier-Latmani, professeure au Laboratoire de microbiologie environnementale, ont identifié Clostridium scindens, une bactérie qui transforme les acides biliaires primaires en acides biliaires 7α-déshydroxylés, comme un acteur clé de la régénération intestinale. Leur étude montre que la supplémentation de l’intestin avec cette bactérie pourrait améliorer la guérison lors d’ulcération, offrant un nouveau traitement potentiel pour la RCH et les troubles associés.
Les chercheurs ont testé leur hypothèse sur des souris atteintes de colite ulcéreuse, un modèle murin mimant la RCH. Ils ont introduit Clostridium scindens chez certaines souris alors que d’autres n’ont pas été traitées. L’équipe a ensuite suivi le rétablissement des animaux en mesurant la perte de poids, l’inflammation du côlon et les marqueurs de la régénération intestinale.
Les souris qui ont reçu Clostridium scindens ont récupéré plus rapidement, montrant une diminution de l’inflammation et une régénération accrue de la paroi intestinale. Les chercheurs ont découvert que ces effets étaient dépendants de TGR5, un récepteur répondant aux acides biliaires 7α-déshydroxylés, et stimule la prolifération et la différenciation des cellules souches intestinales. Lorsqu’ils ont testé le traitement chez des souris dépourvues de ce récepteur, les bénéfices ont disparu, ce qui confirme que le métabolisme des acides biliaires est essentiel à la régénération de la barrière intestinale.
Pour valider davantage leurs résultats, ils ont analysé les données de patients afin de déterminer si des mécanismes similaires étaient impliqués chez l’homme. Ils ont constaté que chez les patients atteints de RCH, les taux plus faibles d’acides biliaires 7α-déshydroxylés, étaient fortement corrélés avec une altération du renouvellement cellulaire intestinal. Cela renforce le lien entre le métabolisme des acides biliaires et la régénération intestinale. « Nos résultats soulignent le potentiel des stratégies ciblées sur le microbiote intestinal pour moduler le métabolisme des acides biliaires et favoriser la restauration de la paroi intestinale », explique Antoine Jalil, principal auteur de l’étude.
Contrairement aux traitements conventionnels qui se concentrent sur la diminution de l’inflammation, cette approche cible le problème sous-jacent : l’altération de la capacité de l’intestin à s’auto-régénérer. En rétablissant l’équilibre naturel des acides biliaires grâce à des bactéries bénéfiques, cette stratégie pourrait offrir une alternative thérapeutique plus durable pour les patients atteints de RCH. Bien que d’autres recherches soient nécessaires pour explorer ses applications cliniques, les résultats soulignent le potentiel thérapeutique des interventions basées sur le microbiote intestinal.
EPFL : https://actu.epfl.ch/news/une-bacterie-intestinale-qui-guerit-le-colon/
|
 |
 |
 |
|
 |
 |
|
Une vaste étude américaine de l'Institut National du Cancer de Rockville (Maryland), montre qu'un apport plus élevé en calcium, que ce soit par l’alimentation ou par supplémentation, est systématiquement associé à une réduction du risque de cancer colorectal (CCR) dans les 9 à 20 ans qui suivent. En outre, une consommation accrue pourrait être particulièrement bénéfique aux patients qui n’en consomment pas suffisamment. Auparavant, les données de l'étude américaine National Institutes of Health-AARP Diet and Health Study ont montré que la consommation de produits laitiers et de calcium était inversement associée au risque de cancer colorectal après une moyenne de 7 ans de suivi.
Désormais, après plus de 20 ans de suivi, le Professeur Semi Zouiouich (Division of Cancer Epidemiology and Genetics, National Cancer Institute, Bethesda) et ses collègues ont confirmé ces résultats et répondu aux questions laissées en suspens, notamment à celle de savoir si les associations entre la consommation de calcium et le CCR différaient selon la source de calcium, le site de la tumeur ou les sous-groupes de population. Ont été inclus 471 396 adultes exempts de cancer. Les participants étaient âgés de 50 à 71 ans au début de l'étude (octobre 1995 à mai 1996), se déclaraient en bonne santé et n'avaient pas d'apport calorique ou calcique extrêmement élevé ou faible. 59,5 % d'entre eux étaient des hommes. Ils ont été suivis jusqu'à la date de leur premier diagnostic de cancer primaire, de leur décès, de leur perte de suivi ou de la fin du suivi (31 décembre 2018). Les données ont été analysées entre avril 2022 et avril 2024.
L'apport alimentaire en calcium a été évalué à l'aide d'un questionnaire de 124 questions sur la fréquence alimentaire. L'apport total en calcium a été calculé en combinant l'apport provenant de sources alimentaires (laitières et non laitières) et celui provenant de suppléments. Pendant la période de suivi, 10 618 CCR primaires ont été identifiés. Les participants appartenant au quintile le plus élevé d'apport total en calcium (2056 mg/j pour les femmes, 1773 mg/j pour les hommes) présentaient un risque de CCR inférieur de 29 % (rapport de risque [RR], 0,71) à celui des participants appartenant au quintile le plus bas (401 mg/j pour les femmes, 407 mg/j pour les hommes).
Les sources de calcium : laitières, non laitières et suppléments, ont toutes contribué à la réduction du risque. Dans l'ensemble, pour chaque tranche supplémentaire de 300 mg/j d'apport en calcium total, alimentaire ou supplémentation, a été observée une diminution de 8 %, 10 % et 5 % du risque de CCR, respectivement. Chez les afro-américains, une population connue pour avoir des apports insuffisants en calcium, le risque de CCR semblait d’autant plus réduit pour chaque tranche supplémentaire de 300 mg/j de calcium total (-32%), alimentaire (-36%) et complémentaire (-19%) consommée.
JAMA : https://jamanetwork.com/journals/jamanetworkopen/fullarticle/2830147
|
 |
 |
 |
|
 |
 |
|
La prévalence des personnes plus âgées, de 65 ans et plus, sans handicap a considérablement augmenté entre 2008 et 2017, constate cette étude menée par des chercheurs de l’Université de Toronto, ici aux Etats-Unis. Une tendance qui pourrait cependant être généralisée à la plupart des pays riches. Ces données, présentées dans les Archives of Gerontology and Geriatrics Plus, valent en pratique et en détails, pour les troubles de la mémoire, de l’audition, de la vue ainsi que pour les troubles fonctionnels qui peuvent limiter le fonctionnement au quotidien.
L’étude a analysé les données de 10 vagues consécutives de l’American Community Survey transversale représentative à l’échelle nationale (2008-2017). Environ un demi-million de répondants âgés de 65 ans et plus ont fourni des informations chaque année, ce qui a donné lieu à un échantillon final de 5,4 millions de participants âgés. Les participants ont été définis comme étant sans handicap lorsqu’ils étaient exempts de troubles de la mémoire, de l’audition, de la vision, de limitations dans les activités du quotidien (comme se laver ou s’habiller) ou de limitations fonctionnelles (comme marcher ou monter des escaliers). L’analyse révèle, précisément que : 61 % de la tranche d’âge 65 ans et plus déclaraient ne pas avoir de handicap en 2008 ; en 2017, c’est le cas de 65 % ; si l’augmentation peut sembler modeste en %, cela correspond à 2,07 millions de personnes âgées supplémentaires sans handicap, vs il y a 10 ans ; en 2008, les femmes sont moins susceptibles d’être sans handicap que les hommes (59,4 % vs 62,7 %) ; les femmes ont connu un taux d’amélioration plus élevé au cours de la décennie que leurs homologues masculins : en 2017, l’écart entre les sexes est comblé, la prévalence de l’absence de handicap étant quasiment identique pour les femmes et les hommes (64,7 % vs 65,0 %) ; un niveau d’études plus élevé diminue la probabilité d’adopter des comportements négatifs pour la santé, comme le tabagisme, et favorise des emplois moins exigeants physiquement, ce qui constitue 2 facteurs associés à une réduction de l’invalidité plus tard dans la vie. La majeure partie de l’amélioration est observée chez les personnes âgées de 75 ans et plus. L’amélioration est plus modeste pour la tranche 65 à 74 ans, ou génération du baby-boom.
L’auteur principal Esme Fuller-Thomson, directrice de l’Institute for Life Course & Aging de l’Université de Toronto, parle « d’une amélioration spectaculaire sur une courte période, extrêmement encourageante. D’autant que les personnes sans handicap sont moins susceptibles d’avoir besoin de services de santé pour maintenir une bonne qualité de vie ». Les chercheurs évoquent la possibilité que cette amélioration se tasse dans les décennies à venir. Alors que dans cette analyse déjà, l’amélioration faiblit chez les baby-boomers, sans doute aussi en raison des taux croissants d’obésité, ce même facteur pourrait impacter les taux d’autonomie dans les années futures.
Science Direct : https://www.sciencedirect.com/science/article/pii/S2950307824001103?via%3Dihub
|
 |
 |
 |
|
 |
 |
|
Des biologistes du Baylor College of Medicine (Houston), ont découvert que le gène ITSN1 est lié à un risque substantiel de maladie de Parkinson. Alors que la maladie de Parkinson touche aujourd’hui plus de 2 % des adultes de plus de 65 ans. La recherche est qualifiée de "révolutionnaire" car elle démontre un lien extrêmement puissant entre certaines variantes génétiques du gène ITSN1 et un risque significativement accru de maladie de Parkinson. L’auteur principal, le Docteur Ryan S. Dhindsa, professeur de pathologie et d’immunologie au Baylor College of Medicine, précise : « Ce qui rend cette découverte si importante, c’est l’ampleur exceptionnelle de l’effet du gène ITSN1 sur l’augmentation du risque, en particulier par rapport aux variantes d’autres gènes bien établis tels que LRRK2 et GBA1 ».
L’étude analyse les données génétiques de près de 500.000 participants de la UK Biobank et révèle que les personnes porteuses de variantes rares du gène ITSN1 qui altèrent le fonctionnement normal du gène encourent un risque 10 fois plus élevé de développer la maladie de Parkinson. L’équipe a ensuite validé ce résultat sur 3 cohortes indépendantes comprenant plus de 8.000 cas et 400.000 témoins. Ces nouvelles analyses révèlent que les porteurs du gène ITSN1 développent la maladie à un âge plus précoce. Le gène ITSN1 joue un rôle important dans la façon dont les neurones s'envoient des messages ou processus de transmission synaptique. Il joue donc un rôle particulièrement pertinent pour la maladie de Parkinson, caractérisée, justement, par la perturbation des signaux nerveux. Une perturbation qui entraîne les symptômes typiques de troubles de la marche et de l'équilibre, de tremblements et de rigidité.
De précédentes recherches ont suggéré le rôle clé de mutations similaires d'ITSN1 dans le trouble du spectre autistique (TSA). D'autres données émergentes ont également suggéré une association entre le TSA et la maladie de Parkinson, indiquant que les personnes atteintes de TSA sont 3 fois plus susceptibles de développer un syndrome parkinsonien. Ce gène identifié pourrait contribuer à expliquer cette corrélation. Enfin, et surtout, l’étude met en évidence l’ITSN1 comme une cible thérapeutique prometteuse et souligne l’intérêt du séquençage génétique à grande échelle pour identifier les mutations rares qui contribuent aux troubles neurologiques complexes.
Science Direct : https://www.sciencedirect.com/science/article/pii/S2211124725001263
|
 |
 |
 |
|
 |
 |
|
Ebola est l’une des maladies les plus dévastatrices ayant frappé le continent africain, causant plus de 15 000 décès depuis sa découverte en 1976. Bien que des progrès aient été réalisés dans la lutte contre ce virus, notamment avec la mise au point de vaccins et de traitements, la recherche continue d’explorer de nouvelles pistes pour offrir des solutions plus accessibles et pratiques, notamment pour les régions les plus touchées par la maladie.
Le virus Ebola est responsable de plusieurs épidémies meurtrières en Afrique. Depuis sa découverte, les épidémies d’Ebola ont frappé divers pays du continent, dont la République Démocratique du Congo, la Guinée, la Sierra Leone, et plus récemment l’Ouganda, où une épidémie de la souche "Ebola-Soudan" a fait plusieurs victimes depuis janvier 2023. Ce virus, bien qu’il ait un taux de létalité élevé, peut être combattu par des traitements spécifiques. Cependant, les options actuelles sont limitées et ne sont pas accessibles à tous.
Depuis 2019, le vaccin Ervebo, développé par l’entreprise Merck, a été mis à disposition et pré-qualifié par l’Organisation Mondiale de la Santé (OMS) pour lutter contre Ebola. Ce vaccin a été utilisé dans plusieurs pays africains, notamment en République Démocratique du Congo et en Guinée. Bien qu’il offre une protection contre certaines souches du virus, notamment la souche "Ebola-Zaïre", il n’est pas efficace contre toutes les variantes du virus. C’est le cas de la souche « Ebola-Soudan », responsable de l’épidémie actuelle en Ouganda.
Ainsi, le vaccin ne répond pas à tous les défis posés par cette maladie. Outre le vaccin, deux traitements par anticorps ont également été développés pour lutter contre le virus, mais leur utilisation est restreinte. En effet, ces traitements ne sont efficaces que contre la souche « Ebola-Zaïre » et doivent être administrés par voie intraveineuse, nécessitant des injections dans la circulation sanguine. Ce mode d’administration, en plus de son coût élevé, les rend peu accessibles dans les zones les plus pauvres. Une étude apporte une lueur d’espoir. Cette recherche, menée par une équipe de scientifiques américains de l'université du Texas, a testé un antiviral sous forme de comprimé pour traiter l’Ebola. Le médicament en question, l’Obeldesivir, est la version orale du Remdesivir, un antiviral déjà utilisé dans le traitement du Covid-19.
L’Obeldesivir a été testé sur deux espèces de macaques infectés avec une dose élevée du variant Makona, une forme d’Ebola-Zaïre. Les résultats ont été prometteurs : 100 % des macaques rhésus, une espèce proche des humains, ont survécu à l’infection après avoir pris ce médicament sous forme de comprimé. Ce traitement a non seulement guéri les animaux infectés, mais a également provoqué la production d’anticorps permettant de lutter contre le virus. Ces anticorps pourraient potentiellement être utilisés pour briser les chaînes de transmission, en traitant les cas-contact du virus.
L’Obeldesivir représente une avancée importante pour plusieurs raisons. Tout d’abord, son administration sous forme de comprimé permet une prise en charge plus simple et plus rapide, par rapport aux traitements intraveineux qui nécessitent des équipements et du personnel médical spécialisé. De plus, sa forme orale permet un stockage plus facile, ce qui pourrait être un atout pour les zones rurales et les régions dont les ressources sont limitées. Ce médicament semble également avoir une efficacité au-delà de la seule souche "Ebola-Zaïre". En effet, des tests sont en cours pour évaluer son efficacité contre d’autres virus apparentés à Ebola, comme le virus Marburg. Si ces essais s’avèrent fructueux, cela pourrait ouvrir la voie à un traitement plus polyvalent et accessible, capable de lutter contre plusieurs souches de virus similaires.
Science : https://www.science.org/doi/10.1126/sciadv.adw0659
|
 |
 |
 |
|
 |
 |
|
La bactérie Brucella abortus représente un danger dans les régions du monde qui n’ont pas mis en place de politique coordonnée pour l’éradiquer. En effet, si elle infecte en premier lieu les bovidés et d’autres animaux d’élevage, elle est facilement transmissible à l’humain par contact avec des animaux infectés et par ingestion de produits laitiers contaminés. En raison de sa transmissibilité par inhalation de particules aérosols infectées, cette bactérie est même considérée comme un agent biologique potentiellement utilisable en bioterrorisme. L’infection humaine entraîne une fièvre intermittente qui dure plusieurs semaines et peut provoquer des complications parfois fatales. La maladie peut en outre évoluer vers une forme chronique particulièrement problématique car les bactéries qui persistent alors dans l’organisme résistent aux traitements antibiotiques. Sachant qu’il n’existe aucun vaccin contre la brucellose, il est donc nécessaire de développer de nouveaux traitements pour être de mesure de faire face à d’éventuelles épidémies. Dans cet objectif, les scientifiques s’intéressent en particulier aux mécanismes qui permettent à la bactérie d’échapper au système immunitaire et conduisent ainsi à la chronicisation de l’infection.
« La capacité de Brucella abortus à coloniser certaines cellules de la rate, des ganglions lymphatiques et de la moelle osseuse, a déjà été décrite, mais la façon dont cette bactérie échappe à l’action de notre système immunitaire et persiste dans l’organisme n’était pas encore pleinement établie », explique Sylvie Mémet, chercheuse Inserm au Centre d’immunologie de Marseille-Luminy dans l’équipe dirigée par Jean-Pierre Gorvel, expert mondial de la brucellose. Avec ce dernier et en collaboration avec plusieurs laboratoires étrangers, la scientifique a coordonné des travaux qui ont révélé l’importance insoupçonnée de l’omentum (ou épiploon) : ce fin tissu blanc à l’aspect dentelé, plus connu sous le nom de « crépine » chez l’animal, est un repli du péritoine, la membrane qui tapisse les parois de l’abdomen et du bassin. Au-delà de son rôle dans le soutien des organes, il exerce des fonctions immunitaires. « Chez la souris, nous avons observé que Brucella abortus infecte rapidement les macrophages qui résident dans ce tissu, puis arrive à s’y maintenir », rapporte la chercheuse. Or les macrophages sont des cellules du système immunitaire qui ont normalement pour fonction de détruire les bactéries après les avoir incorporées : par quel biais Brucella y survit-elle durant des semaines ?
« Il est apparu que les macrophages infectés expriment plusieurs molécules immunosuppressives à leur surface, comme PD-L1 ou Sca‑1 », précise Sylvie Mémet. « L’infection par la bactérie induit également le recrutement d’autres types de cellules immunitaires dans l’omentum, des neutrophiles et des monocytes. Ces derniers expriment également des facteurs immunosuppresseurs et produisent une substance, l’IL-1RA, qui inhibe l’activation des lymphocytes T recrutés sur place ». En d’autres termes, l’environnement immédiat de la bactérie devient progressivement constitué de cellules immunitaires aux fonctions variées, mais dont l’activité antibactérienne est systématiquement neutralisée.
Les chercheurs ont aussi réussi à découvrir comment Brucella parvient à cette situation qui lui est particulièrement favorable : comme d’autres bactéries, elle possède à sa surface des lipopolysaccharides (LPS), des composants majeurs de leur membrane. Mais leur structure est différente de celles retrouvées sur des bactéries plus classiques comme E. coli : ainsi, le LPS de Brucella lui permet d’échapper à certains acteurs de l’immunité innée, de recruter des neutrophiles, des monocytes et des macrophages et d’induire l’expression de facteurs d’immunosuppression les cellules recrutées.
Mieux encore, l’analyse d’échantillons sanguins de patients atteints de brucellose chronique montre des niveaux élevés d’IL-1RA et une surexpression du gène PD-L1 : « Nous pensons donc que les mécanismes d’échappement immunitaire de Brucella sont comparables chez la souris et chez l’humain », poursuit la chercheuse, « et que l’omentum constitue un réservoir bactérien chez les personnes infectées ». Lorsque cette hypothèse sera vérifiée, elle pourrait rapidement se traduire en perspectives thérapeutiques : en effet, IL-1RA et PD-L1 sont la cible de médicaments déjà utilisés dans d’autres affections, notamment pour le traitement de cancers ou de certaines maladies inflammatoires. Des essais cliniques seraient donc relativement faciles à démarrer, afin d’étudier l’efficacité de ces médicaments contre la brucellose. Ces mêmes cibles moléculaires pourraient en outre être utilisées pour développer des vaccins contre la maladie.
« Et Brucella n’est pas la seule bactérie intracellulaire capable d’infecter durablement un individu », complète Sylvie Mémet. « D’autres équipes ont décrit des taux d’IL-1RA élevés dans des modèles murins d’infection par Mycobacterium tuberculosis ou par Yersinia pestis, respectivement responsables de la tuberculose et de la peste. Il faudrait se pencher en détail sur les processus biologiques liés à ces deux infections, afin de savoir si les stratégies de persistance de ces pathogènes sont similaires et pourraient être la cible des mêmes traitements ». Enfin, cette étude pourrait aussi avoir des implications dans le domaine du cancer. L’expression de PD-L1 et la production d’IL-1RA sont en effet souvent retrouvés dans le microenvironnement des cellules cancéreuses qui échappent à l’immunité. Mieux comprendre et cibler les mécanismes découverts par Sylvie Mémet et ses collaborateurs pourraient donc aussi conduire à de nouvelles stratégies d’immunothérapie antitumorale.
Inserm actualité du 14.03.2025 : https://www.inserm.fr/actualite/infections-chroniques-letude-de-la-brucellose-re...
|
 |
 |
 |
|
 |
 |
|
Quel que soit son mode d’administration, un médicament n’agit pas uniquement sur l’organe malade mais sur l’ensemble de l’organisme. Cette imprécision n’est pas sans risque : il peut manquer sa cible et ne pas avoir l’effet escompté, ou avoir de sérieuses conséquences. La solution, simple en théorie mais très complexe en pratique, serait de parvenir à activer les médicaments uniquement là où ils sont nécessaires. Un tel procédé permettrait en outre d’activer ou désactiver une protéine dans un organisme vivant pour mieux en comprendre les fonctions. « C’est de cette question méthodologique que tout est parti », se souvient Monica Gotta, professeure ordinaire au Département de physiologie cellulaire et métabolisme de la Faculté de médecine de l’UNIGE, qui a initié et coordonné ces recherches avec Nicolas Winssinger, professeur ordinaire au Département de chimie organique de la Faculté des sciences de l’UNIGE. « Nous cherchions alors un moyen d’inhiber une protéine impliquée dans la division cellulaire, la protéine Plk1, où et quand on le voulait, pour mieux comprendre la fonction de cette protéine dans le développement d’un organisme ».
En alliant leurs expertises en chimie et en biologie, les scientifiques ont été capables de modifier une molécule inhibitrice de Plk1 afin qu’elle ne s’active qu’en présence de lumière. « Après un processus complexe, nous avons réussi à verrouiller le site actif de notre inhibiteur avec un dérivé de la coumarine, un composé naturellement présent dans certaines plantes, qu’une simple impulsion de lumière pouvait détacher », détaille Victoria von Glasenapp, post-doctorante dans les laboratoires de la professeure Gotta à la Faculté de médecine et du professeur Winssinger à la Faculté des sciences, et première auteure de l’étude.
Mais il s’agissait encore de trouver un moyen d’ancrer l’inhibiteur à l’endroit exact de l’organisme où son action était désirée. « Nous avons réussi à modifier l’inhibiteur de façon à ce qu’il soit immobilisé à l‘endroit ciblé, en y ajoutant une ancre moléculaire libérée uniquement par la lumière », explique Nicolas Winssinger. « Cela nous a donc permis d’activer et d’ancrer l’inhibiteur d’une même impulsion lumineuse, et ainsi de désactiver Plk1 et stopper la division cellulaire à l’endroit exact désiré ».
Le système développé par les scientifiques de l’UNIGE permet de contrôler spatialement et temporellement l’activité d’une molécule dans un organisme vivant grâce à la lumière. Il peut être adapté à de nombreuses molécules et pourrait permettre d’activer un médicament uniquement à l’endroit voulu. Cette découverte devrait permettre, avec un simple laser, de déclencher un traitement exactement là où il est nécessaire et de préserver les tissus sains environnants, limitant ainsi les effets secondaires indésirables. « Nous espérons que notre outil va être largement utilisé et permettre de mieux comprendre le fonctionnement du vivant et, à long terme de développer des traitements plus localisés », conclut Monica Gotta.
Unige : https://www.unige.ch/medias/2025/la-lumiere-serait-elle-la-cle-de-futurs-traitem...
|
 |
 |
 |
|
 |
 |
|
Des chercheurs de la Case Western Reserve University de Cleveland (Ohio) ont découvert des molécules qui présentent le potentiel de stimuler le développement du cancer gastrique – et les formes les plus meurtrières du monde de la maladie. Le cancer du gastrique ou de l'estomac reste l'une des principales causes de décès liés au cancer, selon l'American Cancer Society, car il est difficile de diagnostiquer à un stade précoce et que les traitements échouent souvent une fois que la maladie s'est propagée.
Mais une équipe de chercheurs dirigée par Kishore Guda, professeur agrégé au Digestive Health Research Institute de la Case Western Reserve School of Medicine, a trouvé une classe spéciale d'acide ribonucléique (ARN), de longs ARN inter-codants (lincrA) – cela peut fournir une nouvelle cible pour prévenir et traiter la maladie. La fonction principale de l'ARN est de convertir les informations génétiques de l'ADN en protéines. Les molécules d'ARN non codantes ne portent pas d'informations génétiques qui seraient plus tard converties en protéines.
« Nous avons découvert qu'un lincrAn particulier, LincPrkd, est activé dans le cancer gastrique et œsophagien. Pour comprendre le rôle de LincPrkd dans le cancer gastrique, nous espérons découvrir de nouvelles façons de prévenir et de traiter cette maladie difficile », souligne Kishore Guda, professeur agrégé, Institut de recherche en santé digestive à la Case Western Reserve School of Medicine
L'objectif est de déterminer la fréquence à laquelle cette molécule LinCRNA est activée dans ces cancers. Ils espèrent également déterminer si ces molécules d'ARN sont plus fréquentes dans des sous-groupes tumoraux particuliers utilisant des tissus cancer gastriques et œsophagiens existants et tester s'ils peuvent être utilisés pour détecter le cancer tôt. À partir de cet été, les chercheurs prévoient également de développer des tissus de biopsie du cancer récemment récoltés de patients dans des modèles de souris immunitaire et de tester si le blocage des molécules peut empêcher la formation de tumeurs malignes.
Case Western Reserve University : https://case.edu/cancer/about-us/news-and-publications/guda-and-team-find-promis...
|
 |
 |
 |
|
 |
 |
|
En arrivant aux urgences du centre hospitalier de Valenciennes, on ne peut pas manquer cet écran installé dans la salle d'attente depuis une poignée de semaines seulement. Mais déjà, certains patients aux problèmes de santé récurrents ont pris l'habitude de lever les yeux vers le téléviseur en passant les portes du CH. Sur l'appareil, les accompagnateurs peuvent savoir immédiatement le temps d'attente, grâce aux calculs d'une intelligence artificielle (IA). Une heure, parfois cinq. Ce jour-ci, le temps du parcours de soins est d'1h45. Plutôt que de rentrer chez elle à Oignies, Virginie préfère donc attendre patiemment dans la salle.
« Aujourd'hui, ce n'est pas trop élevé, mais des fois, il faut attendre six heures. Ce n'est pas facile pour les personnes âgées de rester là sans savoir quand elles partiront », déplore-t-elle, avant de se raviser. « C'est bien de savoir le temps que l'on attendra, comme ça, on peut repartir chez nous et revenir ». Derrière elle, Pascal a déjà sorti le journal. Lui aussi est rassuré de voir que sa peine ne durera pas plus de deux heures. C'est donc serein qu'il s'est installé sur les bancs de la salle d'attente.
Les effets de cette nouvelle IA se ressentent dans l'ambiance générale de l'hôpital de Valenciennes. Moins de monde en salle d'attente signifie aussi moins de bruit et moins de précipitation pour passer rapidement. Un service fluidifié et un climat plus serein qui améliore les conditions de travail des agents d'accueil comme Mylène, qui vient au travail avec le sourire. On a moins de pression. Les accompagnants restaient dans la salle d'attente qui était pleine, ce qui n'est pas agréable, surtout si on nous demande des renseignements qu'on ne peut pas donner, parce qu'on n'a pas le dossier médical.
Les soignants bénéficient, eux aussi, de cet outil, qui peut prédire l'activité du centre hospitalier jusqu'à cinq jours à l'avance. Si l'IA détecte une hausse de la patientèle de plus de 20 %, faisant passer la moyenne de 210 patients par jour à 240, la direction peut anticiper et contacter du personnel médical en renfort. Antoine Maisonneuve, chef de service urgences-SMUR, souligne que ce renfort se fait « sur la base du volontariat » et « que l'hôpital ne fait appel qu'à un seul médecin supplémentaire à chaque fois ».
C'est un ressenti positif pour l'instant, les collègues sont rassurés de savoir qu'un renfort peut être débloqué. Et la personne mobilisée sait qu'elle sera appelée 48 heures avant maximum. Une recette qui satisfait toutes les parties et qui pousse l'hôpital de Valenciennes à aller plus loin : dans quelques mois, le CH inaugurera un dispositif digital complètement personnalisé. Chaque malade qui se présentera aux urgences pourra consulter son parcours de soins et la durée de sa prise en charge. Un gain de temps qui, pour beaucoup, s'apparente à la solution miracle qui pourra résoudre l'encombrement des services d'urgence français.
FR3 du 09.03.2025 : https://france3-regions.francetvinfo.fr/hauts-de-france/nord-0/valenciennes/marr...
|
 |
 |
 |
|
 |
 |
|
Des chercheurs de l'Université d'Etat de Washington, dirigé par le Professeur Randall J. Bateman, ont montré qu'un médicament expérimental pourrait réduire le risque de maladie d'Alzheimer précoce. Selon les chercheurs, ces résultats laissent espérer que des traitements similaires, développés pour lutter contre les formes les plus courantes de la maladie d'Alzheimer, qui apparaissent chez les personnes âgées de 60, 70 ou 80 ans, pourraient également être efficaces. L'étude a porté sur 73 personnes atteintes de mutations génétiques rares et héréditaires qui provoquent la surproduction de protéines amyloïdes dans le cerveau. Cela les rend plus susceptibles de développer la maladie d’Alzheimer à l’âge de 30, 40 ou 50 ans. Chez 22 patients qui n’avaient aucun problème cognitif au début de l’étude et qui ont pris le médicament anti-amyloïde pendant une période moyenne de huit ans, le traitement a réduit le risque de développer des symptômes jusqu’à 50 %. Ces résultats constituent un grand espoir non seulement pour ceux qui souffrent de la forme précoce de la maladie d'Alzheimer, mais aussi pour ceux qui risquent de développer la maladie plus tard, après 60 ans.
Les résultats de l’étude soutiennent la théorie selon laquelle l’amyloïde est à l’origine de la maladie d’Alzheimer. Selon la théorie, l’amyloïde forme des plaques toxiques autour des cellules cérébrales et, au fil du temps, provoque une diminution des messagers chimiques, appelés neurotransmetteurs, qui sont nécessaires à la communication entre les cellules cérébrales. « Chaque personne participant à cette étude était vouée à développer la maladie d'Alzheimer, et certaines d'entre elles n'ont pas encore présenté de symptômes. Nous ne savons pas encore combien de temps elles resteront asymptomatiques – peut-être quelques années, voire quelques décennies. Mais ce que nous savons, c'est qu'il est possible de retarder l'apparition des symptômes de la maladie d'Alzheimer et de prolonger la vie en bonne santé », a déclaré l'auteur principal de l'étude, Randall Bateman, de l'Université Washington de Saint-Louis. Louis, Missouri.
Les participants à l’étude étaient des personnes qui avaient participé au premier essai de prévention de la maladie d’Alzheimer, qui a débuté en 2012, et qui ont continué à participer à une phase de l’étude où ils ont reçu le médicament anti-amyloïde. Tous les participants n’ont pas subi de perte cognitive significative et se trouvaient dans les 15 ans précédant et les 10 ans suivant l’âge prévu d’apparition de la maladie d’Alzheimer, selon les antécédents familiaux. Après la fin de l’étude initiale en 2020, les chercheurs ont signalé que l’un des médicaments, le gantenerumab, réduisait les niveaux d’amyloïde dans le cerveau. Cependant, aucun bénéfice cognitif significatif n’a été observé à ce moment-là, car le groupe sans symptômes, qu’il ait reçu le médicament ou le placebo, n’a montré aucun déclin cognitif.
Pour cette raison, les chercheurs ont continué à examiner le médicament pour voir si des doses plus élevées ou un traitement plus long pouvaient prévenir ou retarder la perte cognitive, et ont découvert qu'il pouvait réduire le risque de développer des symptômes de 100 % à 50 %. Cependant, le gantenerumab n'est plus fabriqué par la société qui l'a développé, Roche, car il n'a pas ralenti les symptômes d'une forme plus courante de la maladie d'Alzheimer lors d'un essai mené auprès de 1 900 participants. Mais il existe d’autres médicaments anti-amyloïdes qui sont encore en développement. Bien que cette étude n'ait été menée qu'avec des individus atteints de formes génétiques de la maladie d'Alzheimer conduisant à une apparition précoce de la maladie, les chercheurs espèrent que les résultats aideront aux efforts visant à prévenir et à traiter d'autres formes de la maladie d'Alzheimer. Le Docteur Richard Oakley, directeur associé de la recherche et de l'innovation à l'Alzheimer's Association, qui n'a pas participé à l'étude, a déclaré que l'étude montre qu'il y a « de l'espoir pour l'avenir » dans la lutte contre la maladie d'Alzheimer. « Ces premiers résultats sont enthousiasmants et montrent que les traitements anti-amyloïdes, commencés avant l'apparition des symptômes de la maladie d'Alzheimer, peuvent aider à retarder l'apparition des symptômes », a-t-il déclaré.
WashU Medicine : https://medicine.washu.edu/news/anti-amyloid-drug-shows-signs-of-preventing-alzh...
|
 |
 |
 |
|
 |
 |
|
L'Union européenne va financer à hauteur 6,6 millions d’euros le projet transfrontalier ALCOVE, coordonné par le CHU de Lille. Le projet ALCOVE, lancé dans le cadre du programme de coopération INTERREG France-Wallonie-Vlaanderen, repose sur l’analyse non invasive de l’air exhalé à l’aide d’un nez électronique. Ce dispositif permettrait d’identifier les patients à risque à un stade précoce, avant de recourir au scanner thoracique, dans le but d’améliorer le taux de survie et de rationaliser les examens de dépistage.
Le cancer du poumon est l’une des principales causes de mortalité par cancer en Europe, avec une espérance de vie moyenne de 17 % à cinq ans. Ce taux peut toutefois atteindre 90 % lorsqu’un diagnostic est posé suffisamment tôt. Le projet ALCOVE ambitionne de s’inscrire en amont du dépistage classique, en repérant des composés organiques volatils (COV) spécifiques de la maladie dans l’haleine des personnes à risque.
L’initiative réunit 17 partenaires répartis entre la France et la Belgique, dont des experts cliniques, des ingénieurs en capteurs, des spécialistes de l’analyse chimique, du traitement du signal et des données massives. Elle s’appuie sur les avancées du projet PATHACOV, qui avait permis le développement d’un prototype de nez électronique.
L’étude clinique prévue impliquera 492 participants, dont des patients atteints de cancer du poumon opérables ou non, ainsi que des sujets à risque, dans les Hauts-de-France, le Grand-Est et la Belgique. L’Institut Jules Bordet y prendra part aux côtés de neuf autres hôpitaux. Trois axes stratégiques sont fixés : adapter le dispositif aux exigences européennes, évaluer sa performance en conditions cliniques proches de la réalité et préparer son intégration dans les futurs programmes de dépistage. « En facilitant l’accès à un dépistage de proximité et simplifié, nous espérons détecter plus précocement les cancers du poumon et ainsi améliorer considérablement les chances de survie des patients », déclare le Professeur Sébastien Hulo, coordinateur du projet au CHU de Lille.
Le Spécialiste : https://www.lespecialiste.be/fr/actualites/cancer-du-poumon-un-depistage-des-pat...
|
 |
^ Haut |
 |
|
|
|
|
VOTRE INSCRIPTION |
 |
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
|
|
|
|
|
|