 |
 |
|
 |
 |
NUMERO 1320 |
 |
|
 |
|
 |
 |
|
Edition du 25 Juillet 2025
|
|
|
|
 |
Edito
Apprenons à bien utiliser l'IA (Intelligence Artificielle) pour éviter qu'elle ne nous utilise...

Chers lecteurs,
Comme chaque été, notre petite équipe (Monique, Mark et moi-même) se met au vert pendant le mois d'aout. Vous retrouverez votre revue RTFlash, avec notre lettre de rentrée du 5 septembre. D'ici là, je souhaite à toutes et tous de belles vacances...
Bien cordialement René Trégouët Sénateur honoraire du Rhône Directeur de la publication de RTFlash
Cette semaine, je reviens sur la nature fondamentalement ambivalente de l'intelligence artificielle qui peut être, selon la façon dont elle est utilisée et maîtrisée, un formidable moteur de progrès économique, scientifique et médical mais aussi, il ne faut pas le nier, un facteur inquiétant de déclin cognitif et une menace sérieuse pour la création artistique et culturelle. Dans une récente analyse publiée par le journal de l'Ecole Polytechnique (Voir Polytechnique Insights), l’enseignant et chercheur Ioan Roxin souligne que les risques liés à l’utilisation sans discernement, ni formation, de l'IA, sont à la fois d’ordre neurologique, psychologique et philosophique. Du point de vue neurologique, un usage massif de ces IA fait courir le risque d’une atrophie cognitive globale et d’une perte de la plasticité cérébrale. Des chercheurs du Massachusetts Institute of Technology (MIT) ont, par exemple, mené une étude sur 4 mois, impliquant 54 participants à qui ils ont demandé de rédiger, sans aide, des essais, avec un accès simple à l'Internet ou avec ChatGPT. Pendant la durée de cette étude, l’activité cérébrale des participants a été suivie et évaluée de manière précise par EEG (Electro Encéphalogramme). Les résultats de cette recherche montrent clairement que l’utilisation d’Internet, lorsqu'elle est couplée à un recours systématique à ChatGPT, réduit sensiblement l’engagement cognitif et ce que ces chercheurs appellent la "charge cognitive pertinente", qui correspond à l’effort intellectuel nécessaire à accomplir pour transformer une masse éparse d'informations en connaissances structurées et porteuses d'une valeur ajoutée cognitive indéniable.
Cette étude montre que les participants qui utilisaient ChatGPT augmentaient, certes, leur vitesse de rédaction de 60 % mais voyaient dans le même temps leur charge cognitive pertinente diminuer de 32 %. Les contrôles par imagerie cérébrale ont par ailleurs montré une nette diminution de la connectivité cérébrale (observable par la mesure des ondes Alpha et Thêta). Enfin, l'étude montre que 83 % des utilisateurs de ChatGPT ne parvenaient pas à se souvenir d’un passage de texte qu’ils venaient pourtant d’écrire. De manière préoccupante, d'autres travaux récents semblent également aller dans le même sens : des recherches menées par des chercheurs qataris, tunisiens et italiens, indiquent ainsi qu’un usage massif des outils d'IA de type LLM augmente sérieusement le risque de déclin cognitif. Il semblerait en effet que le fait de se décharger d'une grande partie de ses efforts intellectuels sur une IA entraîne un processus de "dette cognitive et cumulative" qui prend la forme d'un redoutable cercle vicieux : plus nous utilisons ces outils qui donnent l'illusion de penser à notre place, moins nous sollicitons notre cortex préfrontal et nos facultés cognitives supérieures.
S'agissant des risques psychologiques, le Professeur Roxin souligne de manière pertinente que les IA génératives sont conçues, par leur mode de fonctionnement et de raisonnement, pour nous séduire et nous rendre rapidement dépendants : elles s’expriment comme des humains, s’adaptent à nos comportements, semblent avoir réponse à tout, ont un fonctionnement ludique, relancent sans arrêt la conversation et se montrent toujours serviles et complaisantes à notre égard. Or, cette dépendance peut insensiblement conduire à l’isolement social et peut également aboutir à un désengagement réflexif. Pourquoi devrais-je consacrer du temps et des efforts pour apprendre et connaître un domaine si une IA peut répondre immédiatement et mieux que moi à toutes mes questions ? Enfin, sur le plan philosophique, Ioan Roxin souligne que l'IA favorise à l'évidence une uniformisation de la pensée et un conformisme intellectuel nocif qui font obstacle à l'émergence de points de vue ou d’hypothèses iconoclastes mais nécessaires au débat et parfois fécondes pour faire émerger de nouvelles solutions.
Une étude menée par Microsoft auprès de 319 travailleurs du savoir montre en outre une corrélation négative entre la fréquence d’usage des outils d’IA et le score de pensée critique (échelle de Bloom). Selon ces recherches, l'utilisation fréquente de l'IA provoquerait un déchargement cognitif qui irait en s'amplifiant lorsque la confiance dans le modèle serait ressentie comme supérieure à celle que nous avons vis à vis de nos propres compétences. Pourtant, comme le souligne le Professeur Roxin, il est capital de conserver en toutes circonstances un esprit critique suffisant, car ces IA peuvent non seulement se tromper, mais également dissimuler des informations ou simuler une opinion consensuelle (Voir Microsoft).
Pour réaliser son étude, Microsoft Research a suivi ces 319 travailleurs du savoir qui utilisent, au travail, des outils d’IA générative (GenAI) comme ChatGPT, Copilot ou Gemini, au moins une fois par semaine. De manière assez logique, l'étude montre que les participants considèrent que leurs activités d’analyse, de synthèse et d’évaluation, demandent moins d’efforts avec les outils d'IA. Mais paradoxalement, les participants soulignent qu'ils doivent fournir un effort accru pour la gestion de l’IA, notamment en ce qui concerne la formulation de requêtes et l’évaluation de la pertinence des réponses par rapport aux exigences spécifiques de leurs professions. Cela signifie concrètement que les outils d'IA vont modifier en profondeur la manière dont nous utilisons notre pensée critique. Ces recherches montrent bien que les utilisateurs qui font trop confiance dans les capacités de ces outils d'IA auront tendance à perdre leur capacité de regard critique sur ce qu'ils font et pourront alors tomber dans une forme de dépendance excessive vis à vis de ces outils.
L'étude souligne que, loin de se contenter d’être des assistants passifs, les outils d'IA générative (GenAI) transforment la nature même du raisonnement critique. En effet, les utilisateurs n’abandonnent pas totalement leur esprit d’analyse, mais ils l’orientent de manière différente. Alors qu'ils construisaient complètement leurs raisonnements et leurs argumentations, ils passent de plus en plus de temps à évaluer le contenu généré par l’IA. « Ce que nous voyons, c’est une mutation du rôle de la pensée critique », souligne l’étude. Plutôt que de produire un raisonnement original, les utilisateurs et utilisatrices consacrent l'essentiel de leur temps à vérifier, filtrer et réadapter les réponses de l’IA. Lors de l’utilisation des outils d’IA générative, l’effort investi dans la réflexion critique se déplace de la collecte d’informations vers la vérification des informations, de la résolution de problèmes vers l’intégration des réponses de l’IA, et de l’exécution des tâches vers leur supervision.
Et dans ce nouveau contexte cognitif, plus un utilisateur considère que l’IA fournit des réponses pertinentes, moins il aura tendance à remettre en question ses résultats. Le problème, c'est que ce phénomène a des conséquences préoccupantes car, si les professionnels se fient aveuglément aux outils d'IA sans exercer de jugement critique, ils risquent d'adopter des conclusions erronées ou biaisées. En revanche, l’étude montre également que les utilisateurs ayant une forte confiance en leurs propres capacités intellectuelles continuent d’exercer leur pensée critique. Ils sont plus enclins à remettre en question les réponses de l’IA et à affirmer leurs conclusions personnelles. L’étude suggère d’améliorer la conception de ces outils « pour soutenir la pensée critique des travailleurs du savoir en abordant leurs barrières de conscience, de motivation et de capacité ». L’étude met ainsi en lumière un paradoxe fondamental : alors que l’IA est censée augmenter les capacités humaines, elle risque parfois de les affaiblir si elle est utilisée sans discernement ni recul suffisant. Pour que l'utilisation de ces outils d'IA soit efficace, pertinente et heuristique, il est donc capital que cette dernière ne puisse pas se substituer de manière habile et subtile à la pensée critique mais soit utilisée de manière à l’accompagner, l’enrichir et finalement la développer.
L'IA, dans ses dernières versions généralistes, est également en train de bouleverser bien plus vite que prévu le vaste domaine de la création artistique et culturelle, qu'on croyait un peu naïvement à l’abri pour longtemps des assauts de ces intelligences numériques. Hervé Le Tellier, mathématicien, journaliste scientifique, et écrivain, auteur du prix Goncourt à succès L'Anomalie en 2020, a accepté de se mesurer en mars dernier à une IA, pour écrire une nouvelle. Au terme de cette expérience, il n'y a pour lui plus de doute, ce n'est qu'une question de temps, de puissance de calcul et de taille des bases de données utilisées pour que les IA universelles réussissent à égaler l'être humain dans de nombreux domaines de la création, y compris la littérature. Hervé Le Tellier souligne qu'en fait, la bonne question à se poser est celle de notre rapport intime à l'art et à la création : aurons-nous envie de lire un roman ou de regarder un film entièrement réalisé par une machine qui ne fait qu'appliquer des algorithmes, qui n' a pas d'émotions et n'est pas consciente de ce qu'elle fait ?
Mais après avoir mis l'accent sur les dangers que peut receler l'utilisation excessive, sans discernement ni recul de ces outils d'IA générale, je voudrais souligner à quel point ces mêmes outils, lorsqu'ils sont utilisés de manière encadrée, éthique et judicieuse, par des chercheurs et scientifiques de haut niveau, peuvent s'avérer révolutionnaires et porteurs d'immenses progrès. Microsoft vient de dévoiler un système d’IA capable, selon ses tests, de diagnostiquer quatre fois mieux que des médecins humains. Baptisé MAI-DxO (Voir Informatique News), cet outil repose sur une forme d’intelligence collective qui fait coopérer plusieurs IA, un peu à la manière de spécialistes confrontés à un cas médical complexe. MAI-DxO, qui signifié Microsoft AI Diagnostic Orchestrator, s'est avéré capable d'un véritable raisonnement clinique, proche de la démarche cognitive d'un médecin humain qui procède par tâtonnement et intuition. Pour évaluer les capacités de ce nouvel outil, Microsoft a utilisé 304 cas extraits du journal médical de référence New England Journal of Medicine. Pour chaque cas, la machine a procédé à des questionnements, fait des hypothèses et demandé des examens, en utilisant un outil comparatif d'IA, appelé Sequential Diagnosis Benchmark. Et le résultat est impressionnant : l'outil MAI-DxO, associé à OpenAI o3, a réussi à poser le bon diagnostic dans 85,5 % des cas, contre 20 %, en moyenne, pour les médecins (Voir Microsoft AI). Et même si IBM jure ses grands dieux que cet outil n'a pas vocation à remplacer les vrais médecins humains, Mustafa Suleyman, PDG de Microsoft AI, ne manque pas de dire que « nous sommes sur la voie de systèmes presque sans erreur d’ici cinq à dix ans, ce qui bouleversera en profondeur le fonctionnement de tous les systèmes de santé dans le monde ».
Toujours il y a quelques semaines, La filiale de Google DeepMind, Isomorphic Labs, a annoncé qu'elle envisageait, dès cette année, ses premiers essais, cliniques sur l'homme, de nouveaux médicaments entièrement conçus par IA. Cette filiale de Google DeepMind entend tout simplement éradiquer « toutes les maladies ». Cette entreprise compte bien exploiter le gigantesque potentiel d'AlphaFold, un incroyable outil d'IA, capable de prédire rapidement et de manière précise la structure 3D des protéines, et donc ses fonctions, à partir de leur séquence d'acides aminés. La dernière version d'AlphaFold va d'ailleurs encore plus loin et peut modéliser les innombrables interactions complexes des protéines et d'autres composants biologiques, comme l'ADN ou des molécules thérapeutiques (Voir Gizmodo). Isomorphic a choisi de mettre son moteur de conception de médicaments au service de grands laboratoires pharmaceutiques, tout en développant parallèlement ses propres produits. Actuellement, à peine un médicament sur dix parvient, au bout de dix ans minimum, à parcourir le véritable parcours du combattant qui va de la conception initiale à la mise sur le marché, en passant par les longs et indispensables essais cliniques sur l'animal, puis sur l'homme. Isomorphic Labs veut faire définitivement sauter ce verrou. Cette entreprise entend réduire considérablement les temps de conception des nouveaux médicaments en parvenant à prédire avec une certitude presque totale les probabilités de succès d'un médicament conçu par l'IA.
Pour la première fois, des scientifiques australiens ont utilisé l’intelligence artificielle (IA) pour générer en quelques semaines une protéine biologique prête à l’emploi, dans ce cas, capable de tuer les bactéries résistantes aux antibiotiques comme E. coli (Voir Monash University). Cette étude, publiée dans Nature, propose une nouvelle approche pour lutter contre la crise sanitaire mondiale causée par les superbactéries résistantes aux antibiotiques. En utilisant ainsi l’IA, l'Australie rejoint des pays comme les États-Unis et la Chine, qui développent des plates-formes d’IA très puissantes, capables de générer rapidement, à un coût réduit, des milliers de protéines d’intérêt thérapeutique. Selon le Docteur Grinter et le Professeur Knott, la plate-forme de conception de protéines d’IA utilisée dans ce travail s'appuie sur le travail effectué par David Baker (prix Nobel de chimie en 2024), en développant une approche globale de conception qui permet de produire de nombreuses protéines. Cette plate-forme australienne de conception de protéines par IA sera en outre en accès libre pour les scientifiques du monde entier. Selon l'étude, « Ces nouvelles méthodes d’apprentissage profond permettront une conception bien plus rapide et moins onéreuse, in silico, de protéines possédant des caractéristiques et des fonctions spécifiques ».
Enfin, je tiens à évoquer l’extraordinaire outil d'IA GRAPE (Gastric Cancer Risk Assessment Procedure), qui vient d'être mis au point, en collaboration avec des chercheurs chinois, par le géant chinois de l'Internet Alibaba. Cet outil est capable de repérer, sans endoscopie, les signes du cancer de l’estomac avec une fiabilité de 85 %, six mois avant que ce cancer ne soit détectable par les meilleurs radiologues, simplement en analysant, par apprentissage profond, des images médicales 3D. Quand on sait que ce cancer fait des ravages en Chine et qu'il est la 4e cause de décès par cancer dans le monde, on comprend mieux l'avancée majeure que représente un tel outil pour mieux traiter précocement ce cancer grave.
Ces quelques exemples que j'ai développés montrent que les IA universelles sont en passe de bouleverser, pour le meilleur, sûrement, mais aussi, peut-être, cela dépendra de nous, pour le pire, nos sociétés. Face à cette rupture technologique, mais aussi sociale et culturelle majeure, il convient d'ouvrir un grand débat démocratique pour définir ensemble un solide cadre éthique et politique qui oriente ces outils, d'une puissance qui semble sans limites, vers les usages et les champs d'application qui servent le bien commun et favorisent l'épanouissement personnel, en veillant de manière ferme à ce que ces artefacts, aussi séduisants qu'efficaces, ne puissent jamais devenir les moyens de notre manipulation, notre asservissement et notre perte d’appétence à comprendre le monde, à inventer et à créer du nouveau...
René TRÉGOUËT
Sénateur honoraire
Fondateur du Groupe de Prospective du Sénat
e-mail : tregouet@gmail.com
|
 |
|
 |
|
 |
|
|
Matière |
|
 |
Matière et Energie
|
|
 |
|
 |
|
 |
 |
|
En simulant l’interaction entre trois puissants lasers dans le vide, des physiciens ont confirmé qu’ils provoquaient un rebond de photons et généraient un quatrième faisceau, un phénomène surnommé "lumière provenant de l’obscurité", prédit de longue date par l’électrodynamique quantique. L’interaction modifierait le vide quantique au point que les photons se heurtent entre eux, tels des boules de billard, concentrant ainsi un rayon supplémentaire. L’une des prédictions majeures de l’électrodynamique quantique concerne la nature du vide. Là où la physique classique le considère comme un espace véritablement vide, la physique quantique démontre qu’il est traversé en permanence par des fluctuations d’énergie, d’où naissent brièvement des paires de particules virtuelles, électron et positon.
Ces particules apparaissent et disparaissent spontanément selon les conditions physiques locales, un processus connu sous le nom de "modification du vide quantique". La propagation d’impulsions laser ou de champs électromagnétiques de forte intensité dans le vide provoque alors des altérations mesurables de ce dernier, en interagissant avec les particules virtuelles. Des théoriciens ont avancé l’idée que cette modification pourrait donner lieu à la formation d’un faisceau lumineux inédit — d’où le surnom informel et poétique de "lumière provenant de l’obscurité". Plus précisément, l’interaction entre plusieurs faisceaux lasers, à condition qu’ils soient suffisamment puissants, pourrait faire émerger un quatrième rayon issu du vide lui-même. Une hypothèse restée jusqu’ici difficile à vérifier expérimentalement, faute d’équipements laser capables de produire de telles intensités.
Des chercheurs de l’Université d’Oxford, au Royaume-Uni, et de l’Université de Lisbonne, au Portugal, ont contourné cet obstacle en recourant à une simulation numérique avancée, modélisant le phénomène en temps réel et en trois dimensions. « Il ne s’agit pas seulement d’une curiosité académique – c’est une étape majeure vers la confirmation expérimentale des effets quantiques, jusqu’à présent cantonnés au domaine théorique », souligne dans un communiqué de l’Université d’Oxford Peter Norreys, professeur au Département de physique de l’université et coauteur de l’étude. L’expérience modélisée par l’équipe, détaillée dans la revue Communications Physics, repose sur le phénomène dit de "mélange à quatre ondes dans le vide". L’hypothèse postule que le champ électromagnétique conjugué de trois impulsions laser focalisées et d’intensité élevée peut polariser les paires électron-positon présentes dans le vide. Cela provoque la collision des photons entre eux, entraînant la formation d’un quatrième faisceau laser.
« Notre programme informatique nous offre une fenêtre 3D résolue dans le temps sur les interactions du vide quantique, jusqu’alors inaccessibles », explique Zixin Zhang, doctorant au Département de physique de l’Université d’Oxford et auteur principal de l’étude. D’après lui, ce logiciel permettrait d’identifier avec précision les signatures quantiques générées, les lieux d’interaction et les échelles temporelles pertinentes.
Trust My Science : https://trustmyscience.com/lumiere-nait-vide-modelisation-laser-confirme-predict...
|
 |
 |
 |
|
 |
 |
|
Les voitures électriques ont beau gagner du terrain, leurs batteries continuent de susciter des interrogations. En cause : des temps de recharge jugés trop longs, une autonomie encore perçue comme limitée et des coûts élevés. Ces accumulateurs représentent en outre en moyenne de 30 à 40 % du prix total d’un véhicule électrique, soit entre 7.000 et 25.000 euros selon les modèles.
Face à ces freins, les constructeurs et équipementiers redoublent d’efforts pour proposer des technologies plus performantes. Toshiba, acteur historique de l’électronique, entre aujourd’hui dans la danse avec une annonce qui fait mouche : l’entreprise japonaise vient de démarrer la production de sa nouvelle génération de batteries dont les premiers exemplaires sont déjà en cours de livraison. Ses caractéristiques sont assez révolutionnaires. La spécificité de cette batterie tient dans sa composition. Il s’agit du premier modèle au monde à intégrer une anode en niobium-titane (NTO) en lieu et place du graphite utilisé habituellement dans les batteries LFP (lithium-fer-phosphate). Si la densité énergétique reste modeste – environ 130 Wh/kg, contre 200 Wh/kg pour les LFP classiques – cette technologie se distingue surtout par sa grande longévité.
Toshiba revendique ainsi 15.000 cycles de charge-décharge sans perte significative de capacité ou de performance. À titre de comparaison, une batterie classique encaisse en moyenne entre 1.000 et 2.000 cycles. Cela équivaut à 6 millions de kilomètres parcourus pour une autonomie moyenne de 400 km, même en cas de recharges rapides répétées. Les charges rapides répétées entraînent des dépôts de lithium sur l'anode, « ce qui augmente le risque de court-circuit dans la cellule, en particulier lorsque les batteries commencent à se dégrader ». Selon Toshiba, l'anode NTO ne provoque pas de dépôts métalliques de lithium et devrait pouvoir être utilisée en toute sécurité pendant une longue période, même en cas de charge rapide répétée. Autre atout de cette nouvelle technologie : sa vitesse de recharge. Grâce à une capacité de charge de 5C, la batterie peut atteindre 80 % de sa capacité en seulement 10 minutes.
Le constructeur met également en avant une large plage de températures de fonctionnement : de -30 à +60°C. Une caractéristique précieuse dans des environnements extrêmes où les batteries classiques perdent souvent en efficacité. Le poids d’une cellule est lui aussi maîtrisé avec environ 860 grammes par unité et une densité volumique de 350 Wh/l, ce qui laisse augurer des progrès en matière d’encombrement. Toshiba adopte une autre vision que ses concurrents. Le Japonais indique en effet que l’autonomie ne doit pas être une fin en soi. L’enjeu repose plutôt sur des points de recharge bien répartis sur les trajets, ce qui permet de réduire la taille des batteries embarquées. Car, grâce à leur robustesse, ces nouvelles cellules pourraient drastiquement diminuer le besoin de remplacement, ce qui augmentera la durée d’utilisation et, au final, réduira les coûts pour l’automobiliste.
Gocar : https://gocar.be/fr/actu-auto/nouvelles-technologies/cette-chimie-revolutionnair...
|
 |
 |
 |
|
 |
 |
|
Les habitants de la ville finlandaise de Pornainen se chauffent désormais grâce à du sable. Un matériau peut-être insoupçonné du grand public, mais qui est pourtant étonnamment prometteur. Un réseau de chauffage plus écologique, une stabilité accrue du réseau électrique, et de la chaleur pouvant atteindre 400°C, telles sont les promesses de ce qui serait plus grande batterie de sable au monde. Longtemps considéré comme un matériau pilier du secteur de la construction, le sable s’est également fait une petite place dans le milieu de l’énergie. Son point fort en la matière : un remarquable pouvoir calorifique. Il peut stocker de grandes quantités de chaleur à très haute température (jusqu’à plusieurs centaines de degrés Celsius) sans risque de fusion.
Cette propriété est celle qui est exploitée au cœur de la technologie de stockage développée par l’entreprise finlandaise Polar Night Energy, qui utilise le sable pour créer une batterie thermique destinée au stockage de la chaleur. Dans la municipalité de Pornainen, dans le sud de la Finlande, Polar Night Energy a ainsi construit une installation de stockage thermique composée d’un silo de 13 mètres de hauteur sur 15 mètres de diamètre, rempli de 2 000 tonnes de sable. Ce projet a été réalisé pour le compte de la société locale de chauffage Loviisan Lämpö. Le dispositif — le plus grand au monde en son genre — est conçu pour alimenter le réseau de chauffage urbain tout en contribuant à la stabilité du réseau électrique local.
Le mix électrique finlandais est actuellement composé à 43 % d’énergies renouvelables. Or, à mesure que ces sources vertes se développent, le besoin de stockage d’énergie augmente pour éviter les déséquilibres du réseau électrique. La batterie de sable de Polar Night Energy répond à ce besoin en absorbant l’excès d’électricité produit, qui est alors converti et stocké sous forme de chaleur. Ce processus de conversion est réalisé grâce à une technique dite de "chauffage par résistance" — la même que celle qu’on trouve par exemple dans les grille-pain, les plaques chauffantes, ou encore les sèche-cheveux. Concrètement, l’électricité passe par un matériau conducteur qui, sous l’effet Joule, s’échauffe instantanément. La chaleur qui en résulte est ensuite transférée dans le silo pour y être stockée par les grains de sable.
La chaleur peut être emmagasinée jusqu’à plusieurs mois à une température d’environ 500°C. Grâce à sa puissance de 1 mégawatt (MW) et à sa capacité de 100 mégawattheures (MWh), le système a de quoi chauffer la ville pendant une semaine durant l’hiver ou pendant un mois en été. La restitution de la chaleur s’effectue via un échangeur thermique, avec une température de sortie pouvant atteindre 400°C. Cette énergie alimente directement le réseau de chauffage urbain de Loviisan Lämpö, même si, avec une installation adaptée, elle pourrait aussi être reconvertie en électricité. Polar Night Energy travaille d’ailleurs sur un projet en ce sens dans la ville de Valkeakoski, toujours en Finlande.
L’efficacité du stockage ne repose pas uniquement sur les composants physiques du système, mais surtout aussi sur sa gestion numérique, et c’est « la partie complexe » du travail, ont expliqué des responsables à Euronews Green. « Nous devons savoir comment l’énergie, ou la chaleur, circule à l’intérieur du stockage, afin de connaître à tout moment la quantité disponible et la vitesse à laquelle nous pouvons décharger et charger », précisent-ils. Grâce à ce projet, la centrale thermique locale pourrait définitivement se passer du pétrole, dont elle dépendait jusqu’ici. Résultat : une réduction estimée à près de 70 % des émissions liées au réseau de chauffage. « La batterie de sable devrait permettre de réduire les émissions de 160 tonnes d’équivalent dioxyde de carbone par an », indique Polar Night Energy dans son communiqué.
Frandroid : https://www.frandroid.com/survoltes/2653059_cette-batterie-au-sable-geante-peut-...
|
 |
 |
 |
|
 |
 |
|
135 000 panneaux solaires implantés sur 230 000 flotteurs, avec une production maximale pouvant aller jusqu’à 76 000 mégawatts/heure. La centrale photovoltaïque flottante de Perthes, en Haute-Marne, est la plus grande d’Europe, selon son exploitant la société Q Energy. Elle a été inaugurée le 20 juin 2025 en présence d'élus et de représentants des entreprises associées au projet. « Ce lieu représente l'écologie, la transition écologique. Une énergie propre et proche de chez nous », indique Marie-Claude Saget-Thyes, la maire de Perthes à France 3 Champagne-Ardenne. « On avait accepté le projet tout de suite avec mon conseil municipal. On n'a pas hésité ».
Pour le village de 500 habitants, où le projet est implanté, c’est aussi une rentrée financière importante grâce aux taxes et cotisations foncières, notamment. L'entreprise Blandin, qui est propriétaire du terrain mis en location, est ravie de pouvoir trouver une seconde vie à la carrière qu'elle a exploitée pendant près de quarante ans.
« Quand on termine une carrière, on fait un réaménagement. En général, ce sont des sites plus petits qu'on peut facilement valoriser. On les revend en général à des agriculteurs du coin avec qui on travaille pour en faire des étangs dont ils pourront profiter », détaille Antoine Blandin, le président des Établissements Blandin. « Là on avait un petit problème avec ce site-là, parce qu'il est tellement grand qu'on ne savait pas trop quoi en faire. On était bien content quand Q Energy nous a contactés en 2017 pour mettre en place une centrale photovoltaïque. Clairement c'était une aubaine de trouver un super moyen de valoriser ce site ».
Il a fallu six années de travail pour transformer ces 127 hectares d'anciennes gravières en centrale électrique flottante, dont une année consacrée à l’impact environnemental. Des études qui ont donné des indications précieuses pour implanter le site. « Ça nous a conduits à éviter certaines zones pour l'implantation. Pour les ancrages, on s'est mis en retrait des berges. Certaines parties n'ont pas été couvertes pour être en retrait et préserver la quiétude des espèces qui sont présentes », assure Maud Gaide, la directrice solaire de Q Energy.
France Info du 21.06.2025 : https://france3-regions.franceinfo.fr/grand-est/haute-marne/la-plus-grande-centr...
|
 |
^ Haut |
 |
|
 |
|
 |
|
|
Espace |
|
 |
Espace et Cosmologie
|
|
 |
|
 |
|
 |
 |
|
Melvin Vopson, physicien à Portsmouth, suggère que la gravité, l’une des forces fondamentales que Newton a décrites, pourrait en réalité découler d’un mécanisme digne d’un algorithme. À travers une étude scientifique publiée en avril 2025, il avance que la gravité résulte de la tendance de l’univers à minimiser l’entropie de l’information. Ce regard neuf repose sur la théorie de l’information, mais aussi sur une relecture des lois de la physique comme autant d’instructions programmées. Isaac Newton a formulé la gravité comme une force qui attire deux masses l’une vers l’autre. Einstein l’a vue ensuite comme une déformation de l’espace-temps. Melvin Vopson s’interroge : pourquoi l’univers attire-t-il ainsi la matière alors que rien, dans les équations, n’impose ce regroupement ? Il s’appuie sur les travaux de Shannon pour calculer la quantité d’information portée par différentes particules et objets. « Si l’univers était une mémoire de stockage, quelle quantité d’informations ses particules seules pourraient-elles stocker ? » demande-t-il.
La réponse passe par le concept d’entropie de l’information. Quand la matière se disperse, l’entropie grimpe. Quand elle se regroupe, l’entropie baisse. Melvin Vopson pose alors la "seconde loi de l’infodynamique" : tout système physique tend vers un état où sa quantité d’information devient minimale. Il explique que la gravité n’est rien d’autre qu’une manifestation de ce principe : l’univers rapproche la matière pour optimiser et compresser ses données, limitant le nombre d’informations à gérer. Son étude montre ce phénomène par des exemples chiffrés. Quand quatre particules dispersées fusionnent en un seul objet, l’entropie de leur information fond de 24,2 bits à 8,1 bits. « La force d’attraction entre les objets n’a alors rien de mystérieux », écrit-il, « elle reflète un choix informatique : regrouper, pour calculer moins ». En appliquant cette logique à toutes les échelles, du grain de poussière à la planète, la gravité devient une conséquence d’une politique d’optimisation, comme dans un programme.
L’hypothèse d’une simulation cosmique ne s’arrête pas à la gravité. D’autres lois de la physique affichent des ressemblances frappantes avec des règles que l’on retrouve dans le monde des algorithmes. Le physicien évoque le principe d’exclusion de Pauli, qui interdit à deux électrons d’un même atome d’occuper le même état quantique. Il compare cette contrainte à la nécessité pour un programme informatique de définir des variables distinctes. Pour lui, l’abondance de symétries dans l’univers fonctionne aussi comme une forme de compression de données. Plus il y a de symétrie, moins il y a d’information à stocker. Dans ses travaux, il modélise même l’espace-temps comme un réseau de cellules élémentaires, chacune stockant un bit d’information. Ce modèle rappelle la structure d’un jeu vidéo ou d’une simulation numérique avancée. Il écrit : « Pour un observateur à l’extérieur de l’univers, tout obéirait à des instructions de codage, alors que pour un observateur à l’intérieur, ce sont des lois physiques ». Ce point de vue amène à réinterpréter l’intégralité de la physique. Les lois naturelles deviendraient, en fait, des consignes logicielles et la réalité, une immense simulation où les objets, les interactions et même le vide jouent le rôle de lignes de code ou d’espaces de stockage.
Clubic: https://www.clubic.com/actualite-568116-l-univers-fonctionne-comme-un-programme-...
|
 |
^ Haut |
 |
|
 |
|
 |
|
|
Vivant |
|
 |
Santé, Médecine et Sciences du Vivant
|
|
 |
|
 |
|
 |
 |
|
Des chercheurs de l'université d'État de São Paulo (Brésil) ont voulu évaluer l'effet d'une supplémentation en vitamine D à faible dose sur le taux de réponse pathologique complète chez des personnes souffrant d'un cancer du sein et bénéficiant d’une chimiothérapie néoadjuvante, c’est-à-dire proposée avant la chirurgie. Pour cela, 80 femmes de plus de 45 ans, qui étaient sur le point de commencer le traitement, ont été recrutées. Elles ont été réparties en deux groupes : 40 d'entre elles ont pris 2.000 UI (unités internationales) de vitamine D par jour, tandis que les 40 autres ont reçu des comprimés placebo. L’intervention a duré 26 semaines. Par la suite, 75 ont subi une intervention chirurgicale.
Les résultats ont montré que les taux sériques de 25-hydroxyvitamine D étaient plus élevés chez les femmes supplémentées en vitamine D. Après six mois de chimiothérapie et de supplémentation, 43 % des participantes ayant pris de la vitamine D ont vu leur maladie disparaître grâce à la chimiothérapie, contre 24 % du groupe placebo. « Même avec un petit échantillon, une différence significative dans la réponse à la chimiothérapie a été observée. De plus, la dose utilisée est bien inférieure à la dose cible pour corriger une carence en vitamine D, qui est habituellement de 50.000 UI par semaine », a déclaré Eduardo Carvalho-Pessoa, qui a dirigé les recherches.
Taylor & Francis : https://www.tandfonline.com/doi/full/10.1080/01635581.2025.2480854
|
 |
 |
 |
|
 |
 |
|
Lors du traitement d'un accident vasculaire cérébral ischémique (AVC) – lorsqu'un caillot bloque l'apport d'oxygène au cerveau – chaque minute compte. Plus vite les médecins retirent le caillot et rétablissent la circulation sanguine, plus les cellules cérébrales survivent et plus les patients ont de chances d'obtenir un bon résultat. Cependant, les technologies actuelles ne parviennent à éliminer les caillots du premier coup que dans environ 50 % des cas, et dans environ 15 % des cas, elles échouent complètement.
Des chercheurs de Stanford Engineering ont mis au point une nouvelle technique, la thrombectomie par milli-spinner, qui pourrait améliorer significativement les taux de réussite du traitement des accidents vasculaires cérébraux (AVC), des crises cardiaques, des embolies pulmonaires et d'autres maladies liées aux caillots. Ces chercheurs ont utilisé des modèles de flux et des études animales pour démontrer que le milli-spinner surpasse largement les traitements disponibles et offre une nouvelle approche pour une élimination rapide, facile et complète des caillots. « Dans la plupart des cas, nous doublons l'efficacité de la technologie actuelle, et pour les caillots les plus tenaces – que nous ne retirons qu'environ 11 % du temps avec les dispositifs actuels – nous parvenons à ouvrir l'artère du premier coup dans 90 % des cas », a déclaré Jeremy Heit, co-auteur, chef du service de neuroimagerie et de neurointervention à Stanford et professeur agrégé de radiologie. « C'est incroyable. C'est une technologie révolutionnaire qui améliorera considérablement notre capacité à aider les patients ».
Les caillots sanguins sont maintenus ensemble par des amas de fibrine, une protéine résistante et filiforme qui piège les globules rouges et autres substances pour former un amas collant. Généralement, les médecins tentent de les retirer en insérant un cathéter dans l'artère et en aspirant le caillot ou en le piégeant avec un grillage métallique. Cependant, ces méthodes ne sont pas toujours efficaces et peuvent rompre les filaments de fibrine, provoquant la rupture de fragments du caillot qui se logent dans de nouveaux endroits plus difficiles d'accès.
« Avec la technologie actuelle, il est impossible de réduire la taille du caillot. Pour le retirer, il faut le déformer et le rompre », explique Renee Zhao, professeure adjointe de génie mécanique et auteure principale de l'article. « La particularité du milli-spinner réside dans le fait qu'il applique des forces de compression et de cisaillement pour rétrécir l'ensemble du caillot, réduisant ainsi considérablement son volume sans provoquer de rupture ». Le milli-spinner, qui atteint également le caillot par cathéter, est constitué d'un long tube creux capable de tourner rapidement, muni d'une série d'ailettes et de fentes qui créent une aspiration localisée près du caillot. Deux forces s'exercent alors : compression et cisaillement, qui aplatissent les filaments de fibrine en une boule compacte sans les rompre.
Imaginez une boule de fibres de coton (ou une poignée de cheveux longs tirés d'une brosse à cheveux, si vous préférez). Si vous la pressez entre vos paumes (compression) et frottez vos mains en cercle (cisaillement), les fibres s'emmêleront progressivement pour former une boule plus petite et plus dense. Le milli-spinner est capable de faire la même chose avec les filaments de fibrine d'un caillot : il utilise l'aspiration pour comprimer le caillot contre l'extrémité du tube et effectue une rotation rapide pour créer le cisaillement nécessaire. Zhao et ses collègues ont montré que le milli-spinner pouvait réduire un caillot jusqu'à 5 % de son volume initial. Ce processus libère les globules rouges, qui circulent normalement dans l'organisme une fois libérés de la fibrine, et la minuscule boule de fibrine est aspirée dans le milli-spinner et évacuée du corps. « Cela fonctionne très bien pour une grande variété de compositions et de tailles de caillots », a déclaré Zhao. « Même les caillots résistants et riches en fibrine, impossibles à traiter avec les technologies actuelles, notre milli-spinner peut les traiter grâce à ce concept mécanique simple mais puissant qui densifie le réseau de fibrine et rétrécit le caillot ».
Nature : https://www.nature.com/articles/s41586-025-09049-0
|
 |
 |
 |
|
 |
 |
|
Une étude menée par des chercheurs du Memorial Sloan Kettering Cancer Center met en lumière les effets notables d’un régime végétal riche en fibres sur la santé métabolique, la diversité du microbiote intestinal et certains marqueurs inflammatoires. Si les chiffres impressionnent, ce sont surtout les populations à risque qui retiennent l’attention. Le myélome multiple, deuxième cancer du sang le plus fréquent, s’accompagne souvent d’états précancéreux difficiles à anticiper.
Selon l’équipe dirigée par la diététicienne clinicienne Francesca Castro, une alimentation axée sur les plantes pourrait freiner l’évolution vers la maladie. La chercheuse précise ainsi : « Nos résultats soulignent l’importance d’améliorer la qualité alimentaire dès les premiers stades, offrant des pistes pour orienter de futurs essais cliniques ». Vingt patients présentant un indice de masse corporelle élevé et des signes précancéreux ont participé à un protocole strict : douze semaines d’un menu majoritairement composé de fruits, légumes, noix, graines, céréales complètes et légumineuses — excluant produits animaux, sucres ajoutés ou aliments ultra-transformés.
Suivis pendant un an avec un accompagnement nutritionnel personnalisé, ces participants ont vu leur apport calorique provenant d’aliments végétaux riches en fibres bondir de 20 % à 91 %. Au-delà du simple chiffre sur la balance, c’est toute la dynamique immunitaire et métabolique qui semble bénéficier d’une telle approche. Le Docteur Urvi A. Shah, principale investigatrice de l’étude, avance que « notre analyse globale montre qu’une alimentation végétale peut aussi réduire le risque cardiovasculaire ou diabétique tout en donnant aux patients une certaine maîtrise sur leur parcours santé ». Un message qui s’adresse aussi au grand public : augmenter son apport quotidien en fibres, même progressivement, pourrait contribuer à une meilleure prévention globale.
EurekAlert : https://www.eurekalert.org/news-releases/1084798
|
 |
 |
 |
|
 |
 |
|
Des chercheurs du King’s College London ont présenté un patch révolutionnaire composé de millions de nanoneedles, ou nanoaiguilles, capables de prélever des informations moléculaires directement sur la peau, sans endommager le tissu. Mille fois plus fines qu’un cheveu, elles traversent à peine la surface des cellules, mais suffisent à recueillir des données clés sur des maladies complexes comme le cancer ou Alzheimer. « C’est notre avancée la plus prometteuse », confie le Docteur Ciro Chiappini, responsable de l’étude. Il a fallut douze ans de recherches en nano-ingénierie pour aboutir à cette innovation, fruit d’une collaboration internationale mêlant biologie cellulaire, oncologie et intelligence artificielle.
Contrairement à une biopsie classique qui prélève un fragment de tissu (avec les douleurs, les risques et les délais associés), ce patch collecte les “empreintes moléculaires” des cellules — lipides, protéines, ARN messager — puis les analyse en temps réel grâce à une combinaison d’IA et de spectrométrie de masse. Résultat : un diagnostic en moins de vingt minutes, sans retirer une seule cellule vivante. Cette technologie ouvre la voie à un suivi médical plus précis, plus fréquent... et bien plus humain. Dans le cas d’une chirurgie cérébrale par exemple, elle pourrait permettre de décider, en temps réel, s’il faut retirer ou non une zone suspecte. Une décision vitale, souvent prise dans l’urgence, et jusqu’ici basée sur des analyses différées.
Encore au stade préclinique, le patch a déjà fait ses preuves sur des tissus humains et des modèles murins. À terme, on l’imagine intégré à des lentilles de contact, des pansements intelligents ou des outils chirurgicaux. Et comme sa fabrication repose sur les mêmes techniques que les puces électroniques, son industrialisation semble à portée de main.
KCL : https://www.kcl.ac.uk/news/tens-millions-nanoneedles-could-replace-painful-cance...
|
 |
 |
 |
|
 |
 |
|
Les microalgues, ces minuscules organismes photosynthétiques, jouent un rôle essentiel dans la régulation du climat en absorbant près de la moitié du dioxyde de carbone (CO₂) atmosphérique entrant annuellement dans les écosystèmes. Par le biais de la photosynthèse, elles fixent le CO₂ et le transforment en biomasse, en utilisant la lumière comme source d’énergie. Cependant, à l’échelle des temps géologiques, lorsque le CO₂ s’est fait plus rare, des mécanismes de concentration en CO2 sont apparus chez ces organismes afin de limiter la photorespiration. Pourtant, les mécanismes précis permettant cette adaptation restaient jusqu’ici mal compris.
Publiée dans la revue Nature Communications, une étude remet en question les liens entre ces deux phénomènes. Jusqu’ici, on supposait que les microalgues concentraient le CO₂ pour optimiser la photosynthèse, tout en "désactivant" la photorespiration. Or, une équipe de recherche du CEA, en collaboration avec l’Institut Max-Planck de Potsdam, en Allemagne, et quatre autres laboratoires, a montré que ces deux mécanismes, supposés antagonistes, coopèrent et permettent aux microalgues de survivre quand le CO2 vient à manquer, ou à se raréfier. Les chercheurs ont identifié une protéine (LCI20) comme un élément central dans cette régulation. Présente dans l’enveloppe du chloroplaste (organite cellulaire jouant un rôle fondamental dans la photosynthèse), cette protéine facilite l’équilibre entre les deux voies métaboliques et permet aux algues d’évacuer les sous-produits toxiques issus de la photorespiration. Privées de cette protéine, les microalgues sont incapables de s’adapter lors d’une transition brutale vers un environnement à très faible teneur en CO₂. Les chercheurs ont noté une accumulation toxique de métabolites, ce qui freine la croissance, et souligne ainsi l’importance de LCI20 dans l’équilibre métabolique global.
« Ce dialogue entre photosynthèse et photorespiration démontre la capacité des microalgues à s’adapter finement à leur environnement. C’est une stratégie d’acclimatation bien plus complexe que ce que nous imaginions » expliquent Yonghua Li-Beisson et Gilles Peltier, coauteurs de la découverte. Cette recherche rebat les cartes de notre compréhension du cycle du carbone dans les océans. Au-delà des implications environnementales, ces résultats pourraient bénéficier les domaines suivants : la bioéconomie, en tenant compte de l’équilibre entre CO₂ et O₂ dans les bioréacteurs pour améliorer les rendements de production de biomasse ou de composés d’intérêt (biocarburants, protéines, molécules pharmaceutiques) ; la modélisation du climat, en intégrant mieux la contribution des microalgues au cycle global du carbone.
Enerzine : https://www.enerzine.com/microalgues-une-strategie-inedite-pour-capter-le-carbon...
|
 |
 |
 |
|
 |
 |
|
Une équipe de chercheurs de l’Université de Californie à Riverside (États-Unis) a développé une méthode innovante visant à cibler et éliminer une molécule clé, Pin1, qui joue un rôle crucial dans le développement du cancer du pancréas. Ce dernier est connu pour son agressivité et sa capacité à se propager rapidement, rendant les traitements existants souvent inefficaces. Cette avancée permet de mieux comprendre les mécanismes moléculaires sous-jacents à cette forme de cancer, en ouvrant la voie à des approches thérapeutiques plus ciblées.
Les résultats de cette étude pourraient marquer une étape importante dans la lutte contre cette maladie dévastatrice. Actuellement, le taux de survie à cinq ans des patients atteints de cancer du pancréas reste désespérément bas, à moins de 11 %. Avec cette nouvelle approche, les scientifiques espèrent offrir aux patients des options de traitement plus efficaces et potentiellement plus durables, réduisant ainsi l'impact de cette pathologie sur la santé publique. Pin1 est une enzyme qui joue un rôle clé dans de nombreux processus biologiques et cellulaires. Lorsqu'elle est suractivée, elle contribue à la progression de plusieurs types de cancers, y compris celui du pancréas. Dans ce cancer, Pin1 est présente en quantité excessive dans les cellules tumorales ainsi que dans les fibroblastes, les cellules qui composent le tissu conjonctif entourant la tumeur. Cette surabondance favorise la croissance, la survie et la propagation des cellules cancéreuses. Selon les chercheurs, cibler Pin1 pourrait perturber l'environnement tumoral, rendant les cellules cancéreuses plus vulnérables aux traitements. Cette stratégie, visant à désorganiser les mécanismes internes de la tumeur, pourrait ouvrir la voie à des thérapies plus efficaces contre un cancer réputé pour sa résistance aux traitements classiques.
Les scientifiques ont mis au point des "pied-de-biche moléculaires", des agents chimiques capables de se lier à Pin1 et de modifier sa structure. En perturbant la forme de cette protéine, ces dégradeurs moléculaires rendent Pin1 instable, ce qui entraîne sa dégradation par les mécanismes cellulaires. Cette découverte permet de cibler spécifiquement les cellules cancéreuses et les fibroblastes associés à la tumeur, et d'éliminer ces cellules de manière sélective. En agissant sur Pin1, cette approche pourrait non seulement inhiber l'enzyme mais aussi réduire la croissance de la tumeur, augmentant ainsi l'efficacité des traitements anticancéreux existants.
Les chercheurs ont également exploré l'impact des fibroblastes dans le cancer du pancréas. Ces cellules non tumorales forment une barrière dense autour de la tumeur, limitant l'accès des traitements et réduisant leur efficacité. En ciblant Pin1 dans ces fibroblastes, il est possible de diminuer leur activité et de réduire cette barrière protectrice. Cela pourrait rendre les tumeurs plus accessibles aux traitements anticancéreux, en particulier ceux qui reposent sur la chimiothérapie ou l'immunothérapie. Cette approche permettrait d'améliorer l'efficacité des traitements actuels et d'augmenter les chances de succès dans la lutte contre ce cancer extrêmement agressif. Grâce à cette découverte, les chercheurs espèrent non seulement offrir de nouvelles perspectives pour traiter le cancer du pancréas, mais aussi ouvrir la voie à de nouvelles stratégies thérapeutiques pour d'autres types de cancers.
UCR : https://news.ucr.edu/articles/2024/11/11/protein-degradation-strategy-offers-hop...
|
 |
 |
 |
|
 |
 |
|
La résistance de certaines bactéries pathogènes aux antibiotiques est devenue un défi majeur de santé publique, responsable d’au moins 700 000 décès par an dans le monde. La mise au point de nouveaux antibiotiques est donc un enjeu crucial. Dans un article publié par Nature communications, une équipe de l’INRAE (Institut national de recherche pour l’agriculture, l’alimentation et l’environnement) a fait une découverte qui constitue sans doute un progrès considérable dans ce domaine thérapeutique.
Elle a focalisé sa recherche sur la protéine Mfd (Mutation Frequency Decline), qui est un facteur de transcription non essentiel (c’est-à-dire dont la fonction est de moduler la transcription), favorisant la réparation de l’ADN bactérien. Cette protéine existe chez toutes les bactéries, mais est absente chez les eucaryotes. Elle joue un rôle important dans l’apparition de résistances bactériennes, notamment parce qu’elle est capable de provoquer des mutations spontanées et aléatoires. L’équipe a identifié une petite molécule, NM102, capable de se fixer sur le domaine de liaison de l’ATP de la protéine Mfd. Cette identification a été réalisée à partir d’une banque de données de 5 millions de molécules selon une méthodologie originale. Les auteurs de l’étude pensent qu’elle peut s’appliquer à d’autres recherches de ce type en permettant d’économiser nombre de "tests in vitro laborieux".
NM102 a 3 propriétés importantes, mises en évidence sur des modèles animaux. Elle ne tue les bactéries que si elles engendrent une réaction immunitaire de leur hôte. Elle attaque les bactéries pathogènes en laissant indemne le microbiote habituel de l’hôte. Elle bloque la fonction facilitatrice de mutations de la protéine Mfd, diminuant ainsi la capacité des bactéries pathogènes à développer des résistances. Ces propriétés s’appliquent à toutes les bactéries pathogènes, y compris celles qui sont résistantes aux antibiotiques. NM102 s’est notamment révélée efficace sur 2 bactéries du groupe ESKAPE (dont les bactéries induisent fréquemment une impasse thérapeutique) : Klebsiella pneumoniae et Pseudomonas aeruginosa. Aussi, les auteurs de ce travail proposent d’associer NM102 aux antibiotiques existants pour renforcer leur efficacité et prévenir l’apparition de résistances. Les chercheurs ont déposé 2 brevets à partir de leur travail et ont également mis au point une méthode d’encapsulation de NM102 dans des particules biodégradables pour faciliter son administration.
Nature: https://www.nature.com/articles/s41467-025-58282-8
|
 |
 |
 |
|
 |
 |
|
Une équipe de l’Institut Curie, de l’Inserm et du CNRS, a mis en lumière un nouveau mécanisme moléculaire, jusqu’alors inconnu, liant les œstrogènes (hormones sexuelles féminines) à l’aggravation de certains cancers non classiquement considérés comme hormono-dépendants, tels que le mélanome, le cancer gastrique ou encore le cancer de la thyroïde. Ces travaux, publiés dans Nature, ouvrent la voie à de nouvelles stratégies thérapeutiques, en particulier pour les femmes en âge de procréer.
Alors qu’il est admis que les cancers hormono-dépendants représentent environ 20 % des cas de cancers dans le monde, cette nouvelle étude questionne cet état des lieux. À partir d’une vaste analyse épidémiologique, les chercheurs ont constaté que plusieurs cancers, notamment le mélanome, sont plus fréquents chez les femmes entre la puberté et la ménopause que chez les hommes au même âge, période marquée par une forte exposition aux œstrogènes. Les analyses menées ont permis d’identifier une voie de signalisation jusque-là inconnue, strictement dépendante de l’environnement hormonal féminin. Cette boucle de régulation implique différents acteurs moléculaires clés dont ESR1 (le récepteur aux œstrogènes) qui induit le récepteur GRPR (pour Gastrin-releasing peptide receptor), entraînant l’activation de la voie pro-métastatique YAP1, laquelle réprime la E-cadhérine (ECAD), une molécule d’adhésion cellule-cellule dont la diminution facilite la progression tumorale. La boucle est refermée par l’induction de la transcription de ESR1 après la réduction du niveau de ECAD.
Ainsi, ce mécanisme favorise la croissance des tumeurs, la migration et l’invasion des cellules tumorales, ainsi que leur résistance à l’anoïkis – un processus de mort cellulaire normalement impliqué dans la prévention de la dissémination métastatique. Et il s’agit d’un processus particulièrement actif chez les femmes, puisque dépendant de l’activation du récepteur ESR1 par les œstrogènes. Fait remarquable, GRPR appartient à la famille des récepteurs couplés aux protéines G (RCPG), qui représentent 35 % des cibles des médicaments actuellement approuvés, mais restent sous-exploités en oncologie. En administrant des antagonistes spécifiques de GRPR dans des modèles précliniques, les chercheurs ont observé une réduction significative de la formation de métastases. Outre son implication dans la progression tumorale, GRPR joue également un rôle dans la perception de la douleur. Sa modulation pourrait donc à la fois freiner les métastases et améliorer la qualité de vie des patientes. La mise en place de thérapies combinatoires anti-œstrogéniques pourrait constituer une approche pertinente dans le traitement des mélanomes, et d’autres cancers, présentant cette boucle métastatique.
Cette découverte majeure met en évidence une nouvelle facette des inégalités de sexe face au cancer et souligne l’importance de mieux intégrer les facteurs hormonaux et biologiques dans la prévention, le diagnostic et le traitement. Elle offre également de nouvelles perspectives pour réorienter des médicaments existants vers une utilisation en oncologie.
Inserm du 12.06.2025 : https://presse.inserm.fr/des-hormones-sexuelles-au-coeur-dun-nouveau-mecanisme-p...
|
 |
 |
 |
|
 |
 |
|
Décidément, nos amis à quatre pattes n'ont pas fini de nous étonner ! Il a déjà été démontré que certains chiens parviennent à identifier, simplement par l'odeur, des femmes atteintes d'un cancer du sein. Cette fois, des chercheurs de l'université de Bristol ont entraîné deux chiens sur 205 échantillons pendant plusieurs mois, pour vérifier si ces animaux étaient capables d'identifier la maladie de Parkinson. La réponse est claire : oui, ces deux chiens, un Golden Retriever, appelé Bumper, et un Labrador noir, dénommé Peanut, sont capables, grâce à l'incroyable sensibilité de leur odorat, de repérer la maladie de Parkinson avec une précision de 80 %, ce qu'aucun test ou outil actuel n'est capable de faire...
Le Professeur Nicola Rooney, auteur principal, souligne que « L’identification des biomarqueurs diagnostiques de la MP, en particulier ceux qui peuvent prédire le développement ou aider à diagnostiquer la maladie plus tôt, fait l’objet de nombreuses recherches en cours. Les chiens de cette étude ont atteint une sensibilité et une spécificité élevées et ont montré qu’il existe une signature olfactive distincte chez les patients atteints de la maladie. Je crois que les chiens pourraient nous aider à développer une méthode rapide, non invasive et rentable pour identifier les patients atteints de la maladie de Parkinson ».
Study Finds : https://studyfinds.org/dogs-can-smell-parkinsons-disease-accurate/
|
 |
 |
 |
|
 |
 |
|
Les hôpitaux britanniques vont prélever l’ADN des quelque 680 000 bébés qui naissent chaque année au Royaume-Uni, sur les dix prochaines années. Il pourra s’agir d’un petit prélèvement de sang sur le talon ou d’un échantillon du cordon ombilical. Pour ensuite séquencer l’ADN, en faire une cartographie, qui doit permettre d’évaluer les prédispositions de chacun de ces bébés à 7 000 maladies.
Les nouveau-nés britanniques subissent déjà quelques tests à la naissance, mais qui ne concernent qu’une dizaine de maladies graves, comme la mucoviscidose. Avec cette nouvelle mesure, le ministre de la Santé Wes Streeting espère mettre en place des suivis personnalisés, et prévenir au maximum l’apparition ou le développement de ces maladies. En somme, plutôt prévenir plutôt que guérir. L’objectif, outre celui d’une nation en meilleure santé, c’est de réaliser des économies à long terme pour l’hôpital public, sous-financé depuis des années, en manque de personnel et de lits.
Ce programme de "dépistage préventif" fait partie d’un vaste plan d’investissements, de plus de 600 millions d’euros, dans la génomique, cette science de décryptage de l’ADN. Le mois prochain, le gouvernement doit également dévoiler son plan sur dix ans pour relancer le service national de santé, le NHS.
BBC : https://www.bbc.com/news/articles/c1ljg7v0vmpo
|
 |
^ Haut |
 |
|
|
|
|
VOTRE INSCRIPTION |
 |
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
|
|
|
|
|
|