RTFlash

RTFLASH Recherche & Technologie
NUMERO 1241
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 19 Janvier 2024
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
Stocker des informations plusieurs milliers d'années sur un support verre-céramique
IBM dévoile la première puce quantique 1000-qubit
Avenir
Un robot humanoïde qui résiste à toutes formes d'agressions
Matière
La Chine s'impose dans la course mondiale aux réacteurs nucléaires de quatrième génération
Terre
La concentration de CO2 dans l'atmosphère est la plus élevée depuis 14 millions d’années…
L’océan stockerait davantage de carbone de prévu...
Vivant
Une activité de courte durée peut quand même augmenter les chances de survie chez les malades atteints d'un cancer du poumon
Vers une nouvelle thérapie contre la leucémie
Un médicament contre la polyarthrite pourrait transformer la prise en charge du diabète de type 1
Un test sanguin pour déterminer l'âge d'un organe et prédire le risque de maladie !
Un médicament contre les allergies repositionné contre le cancer du poumon
Découverte de deux molécules-clé régulant le processus de vieillissement
Une vaste étude confirme l'effet protecteur de l'aspirine en matière de cancer
La réparation de l’ADN filmée avec une précision atomique !
Des scientifiques inversent la résistance aux médicaments dans le cancer de la prostate en ciblant les globules blancs
Edito
L'ordinateur biologique, nouvelle frontière de l'informatique...



On le sait, l'électronique n'en finit pas de plonger vers l’infiniment petit et TSMC, devenu leader mondial des semi-conducteurs, vient d'annoncer qu'il comptait atteindre une finesse de gravure d'un nanomètre pour ses transistors en 2030, ce qui lui permettra d'intégrer 200 milliards de transistors sur une seule puce. L'IMEC (Institut Microélectronique des composants), table pour sa part sur des transistors de seulement 0,5 nanomètre (ou 5 angströms), à l'horizon 2035. Mais tout a une fin et les spécialistes s'accordent pour prévoir, qu'en dépit des nouvelles technologies de fabrication, une limite physique ultime à la loi de Moore sera atteinte lorsqu'on parviendra à graver des composants de 3 angströms, ou 0,3 nanomètre. Il sera en effet très difficile d'aller plus loin vers la miniaturisation, à la fois pour des raisons techniques et physiques, mais également à cause du coût faramineux (plus de 100 milliards de dollars) des équipements de production de ces futures puces. Il faut donc, dès à présent, préparer l’après silicium et les chercheurs du monde entier travaillent principalement sur deux ruptures technologiques et conceptuelles qui pourraient permettre de faire entrer l'informatique dans une nouvelle ère ; l'informatique quantique, dont je vous ai souvent parlé et l'ordinateur biologique, moins médiatique, mais qui a fait récemment des pas de géant.

C'est en 2012 que fut présenté le premier ordinateur biologique digne de ce nom, développé par des chercheurs de l’Institute en Californie et du Technion-Israel Institute of Technology. Ce calculateur, utilisant une solution d'ADN et d'ATP, s'est montré capable de déchiffrer des images codées, grâce à des puces à ADN. En 2016, la recherche européenne présentait son projet d'ordinateur biologique ABACUS, qui reposait sur l'utilisation d'adénosine triphosphate (ATP), la molécule qui fournit de l'énergie à toutes les cellules de l'organisme. La même année, des scientifiques de l’Université de Lund (Suède) ont, à leur tour, présenté un concept d'ordinateur biologique capable de résoudre certains problèmes mathématiques beaucoup plus rapidement et de manière plus économe en énergie que les ordinateurs électriques conventionnels. Cette machine reposait sur des moteurs moléculaires constitués par de grosses molécules, comme la myosine et l'actine, qui effectuent des tâches mécaniques dans les cellules vivantes. Ces recherches ont montré qu'il était possible d'effectuer des calculs en organisant les déplacements rapides de ces molécules dans des réseaux de nano-canaux massivement parallèles. Pour Heiner Linke, directeur de NanoLun à l’université de Suède, ce type de machine pourrait concurrencer les ordinateurs quantiques – aux capacités de calcul extrêmement puissantes – sur certains types d’exercices (Voir Lund University).

En juin 2022, des chercheurs de l’université technologique de Dresde, dirigés par Till Korten, ont mis au point une puce moléculaire en verre. Leur concept reposait sur des microtubules qui entassent les kinésines, des protéines motrices, dans les canaux de la puce. En se déplaçant, ces molécules peuvent effectuer de nombreux calculs simultanément. Ces scientifiques précisent que leur bio-ordinateur consomme 10 000 fois moins d’énergie qu’un ordinateur classique. En outre, l’utilisation des protéines ou de l’ADN est bien moins coûteuse que la fabrication de puces électroniques (Voir ACS Publications). En 2013, le quatrième plus grand ordinateur du monde a mis 40 minutes pour modéliser une seconde de 1 % de l'activité cérébrale d'un humain, illustrent les auteurs. Plus récemment, en juin 2022, le superordinateur Enterprise Frontier (OLCF-5) de Hewlett Packard a certes dépassé la puissance de calcul estimée d'un cerveau humain, environ 1 exaflop, soit 100.000 fois plus qu'un MacBook d'Apple. Toutefois, la différence d'efficacité est considérable : un cerveau humain pèse environ 1,4 kg et consomme 20 Watts d'énergie, alors que Enterprise Frontier occupe 680 m2 et consomme 21 Mégawatts, soit un million de fois plus.

D'où l'intérêt de ces recherches qui visent à créer rien moins qu'une nouvelle forme d'intelligence artificielle, baptisée intelligence organoïde (IO). Concrètement, il s'agit d'utiliser des organoïdes cérébraux, c'est-à-dire des cultures de cellules cérébrales humaines en 3D, pour effectuer simultanément des opérations de calcul et de stockage des données. Ces organoïdes sont alimentés en nutriments par de mini-canaux (microfluidique), et les signaux électriques émis et reçus par des puces peuvent ensuite être interprétés par des systèmes d'intelligence artificielle. En février dernier, ces chercheurs de l’Université Johns Hopkins ont présenté leur plan pour parvenir à concevoir un "bio-ordinateur" fonctionnel, alimenté par des cellules cérébrales humaines. « L’informatique et l’intelligence artificielle ont été le moteur de la révolution technologique, mais elles atteignent un plafond physique que nous pouvons dépasser en exploitant la fantastique efficacité des molécules vivantes en matière de traitement de l’information », souligne Thomas Hartung, professeur à la Johns Hopkins Bloomberg School of Public Health et à la Whiting School of Engineering, qui dirige les travaux (Voir Tech Xplore).

Alors que, depuis une vingtaine d’années, des scientifiques ont recours à de minuscules organoïdes, des tissus cultivés en laboratoire, pour expérimenter sur les reins, les poumons et d’autres organes sans avoir besoin de réaliser des expérimentations sur l’homme ou l’animal, l’équipe de Johns Hopkins a fait le choix de travailler sur de minuscules organoïdes cérébraux, de la taille d’une pointe de stylo, pour réaliser des fonctions telles que le calcul, l’apprentissage et la mémoire. Depuis dix ans, ces chercheurs cultivent et assemblent des cellules cérébrales en organoïdes fonctionnels, en utilisant des cellules provenant d’échantillons de peau humaine reprogrammés pour retrouver leur état de cellules souches embryonnaires. Chaque organoïde contient environ 50 000 cellules. L’idée est de combiner de manière ingénieuse ces organoïdes pour arriver à réaliser de véritables ordinateurs polyvalents, qui font merveille dans le domaine de l’IA, tout en consommant bien moins d’énergie et en prenant bien moins de place que les énormes supercalculateurs actuels. Frontier, le dernier supercalculateur du Kentucky, est une installation de 600 millions de dollars qui occupe une surface de 600 m2. Il vient de dépasser, comme je l’ai dit il y a quelques instants, pour la première fois, la capacité de calcul d’un seul cerveau humain, mais en utilisant un million de fois plus d’énergie qu’un cerveau humain. Or, il faut savoir que les besoins en électricité du monde numérique vont doubler entre 2020 et 2025, passant de 3300 à 6500 TWh par an, soit 20 % de la consommation mondiale d’électricité et 5 % des émissions de CO2 (plus de deux milliards de tonnes) prévue à cette échéance. En France, l’ensemble des outils et technologies numériques absorberait déjà 12 % de la consommation électrique nationale, soit environ 55 TWh par an, l’équivalent de la puissance de 10 réacteurs nucléaires... Réduire drastiquement la consommation énergétique et les émissions de CO2 de la sphère informatique et numérique est donc devenu un enjeu environnemental et sociétal majeur.

Début décembre, des chercheurs de l'université d'État de l'Indiana, aux États-Unis, ont présenté un concept appelé Brainoware qui relie des organes cérébraux - organoïdes - à des circuits électroniques, permettant aux tissus cérébraux et aux circuits d'envoyer et de recevoir des signaux électriques. Dans ces recherches, les organoïdes cérébraux ont une taille de quelques millimètres carrés et sont constitués d'environ 100 millions de cellules nerveuses. Les scientifiques ont converti les informations en signaux électriques et les ont envoyées aux organoïdes cérébraux, qui ont détecté et interprété les réponses à l'aide de capteurs et d'algorithmes d'apprentissage automatique. Par cette méthode, 240 fichiers vocaux enregistrés par huit personnes ont pu être convertis en signaux électriques. En seulement 48 heures, cet ordinateur hybride a réussi à reconnaître à 80 % les voix de 8 personnes. Il a également réussi à résoudre des équations non linéaires, de manière il est vrai moins précise qu’un ordinateur classique, mais au terme d’un apprentissage dix fois plus rapide qu’une machine conventionnelle à base de puces électroniques. Ces résultats remarquables résultent, selon les chercheurs, de la capacité unique de cette machine à se réorganiser en réponse à une stimulation électrique, grâce à sa grande plasticité et à l'adaptabilité des organoïdes.

Brainoware montre de manière convaincante qu'il est possible d'intégrer des réseaux neuronaux biologiques et des réseaux neuronaux artificiels au sein d’un nouveau type de système informatique hybride, à la fois plus souple, plus performant et plus sobre en énergie. Ces chercheurs expliquent qu’en imitant le fonctionnement du cerveau, ces machines ont le potentiel de révolutionner l’informatique, en surmontant le clivage entre stockage et traitement de l'information, à l‘origine des goulets d'étranglement dans les ordinateurs actuels et d’une consommation d'énergie considérable. Mais ces chercheurs espèrent également faire d’une pierre deux coups et font valoir que ces recherches sur les organoïdes cérébraux vont permettre aussi des avancées majeures dans la connaissance du cerveau et dans le traitement des maladies neurodégénératives graves, comme Parkinson ou Alzheimer. Le Professeur Peng Guo, de l'Université d'État de l'Indiana, souligne « Qu’il reste encore beaucoup à faire pour relier les organoïdes à l'IA ». Il a également déclaré « Le prochain défi consistera à trouver des moyens d’obtenir des organoïdes cérébraux plus gros, et restant plus stables, afin qu’ils puissent accomplir plus rapidement des tâches plus complexes ».

En septembre dernier, des chercheurs de l’Université Jiao Tong de Shanghai ont annoncé une autre avancée majeure en développant des ordinateurs à base d'ADN. Ces circuits intégrés d’ADN (DICs) ne sont pas figés et peuvent être programmés pour différentes tâches. Ils se distinguent en outre par leur fonctionnement en milieu liquide, une propriété particulièrement intéressante qui explique leur incroyable flexibilité et leur capacité de traiter en parallèle de multiples données. Cette capacité devrait notamment bouleverser le domaine médical, en permettant des diagnostics très précis et très rapides et des micro- dispositifs médicaux intelligents, capables de surveiller l’organisme et administrer si besoin, de manière autonome, des médicaments.

Concrètement, ces chercheurs ont repris les principes des FPGA ou circuits logiques programmables, issus de l’électronique, pour les adapter à ces nouveaux circuits à base d’ADN, appelée DPGAs. Dans ces composants biologiques, des oligonucléotides d’ADN simple brin remplissent un rôle similaire à celui des électrons dans les appareils électroniques. Parallèlement, ces chercheurs ont utilisé la technique de "l’origami ADN", qui permet de plier l’ADN en structures tridimensionnelles précises, ce qui ouvre la voie à de véritables mémoires biologiques, stables et neutres en consommation d’énergie. Pour démontrer les capacités des circuits intégrés d’ADN, ces scientifiques ont développé un prototype de DIC spécifiquement conçu pour résoudre certaines équations quadratiques. Ils ont ainsi pu montrer que ces DICs pouvaient bien remplir des tâches spécifiques, de la même façon que les ordinateurs classiques peuvent exécuter des programmes spécifiques. Mais ces DICs ont également confirmé leur grand potentiel dans l’analyse d’un grand nombre de données médicales complexes. Avec ces composants à ADN, les chercheurs sont parvenus à analyser des échantillons biologiques et à les différencier de manière rapide et précise, confirmant que ces puces biologiques étaient appelées à révolutionner les outils d’analyse et de diagnostic.

Alors que la fin de la loi de Moore semble inéluctable et se profile pour 2035, dictée par les lois de la physique, l’ordinateur biologique apparaît de plus en plus, à la lumière de ces avancées récentes, comme l’une des grandes ruptures conceptuelles technologiques qui permettra, avec l’ordinateur quantique, de donner un nouveau souffle à l’informatique et plus largement à l’ensemble des technologies numériques, en leur apportant une incomparable puissance de calcul et de stockage de l’information, mais également en permettant une réduction drastique des besoins en énergie. La France et l’Europe doivent investir massivement, tant sur le plan public que privé, dans cette voie scientifique et technique d’avenir qui est appelée à transformer profondément nos économies et nos sociétés d’ici le milieu de ce siècle...

René TRÉGOUËT

Sénateur honoraire

Fondateur du Groupe de Prospective du Sénat

e-mail : tregouet@gmail.com


TIC
Information et Communication
Stocker des informations plusieurs milliers d'années sur un support verre-céramique
Mardi, 16/01/2024 - 07:50

Cerabyte, une start-up allemande, vient de présenter une solution de stockage de données qui se veut révolutionnaire. Le système, encore au stade de prototype, est basé sur une architecture faite de verre et de céramique. Cerabyte le décrit comme étant « la solution idéale pour plus de 70 % des données stockées dans les centres de données ». L’entreprise fait notamment référence aux données qui ne sont jamais utilisées, mais qui sont pourtant stockées durant des décennies sur des supports consommant de l’énergie en permanence. De plus, en raison de leur courte durée de vie, ces supports doivent être remplacés fréquemment.

Dans une récente vidéo montrant un prototype, l’entreprise a montré que sa technologie était opérationnelle. Elle prévoit maintenant de produire, d’ici 2030, des cartouches capables de stocker jusqu’à 10 000 Térabits de données. Par ailleurs, Cerabyte affirme que son dispositif de stockage affiche une durée de vie sans précédent, capable de préserver les données pendant 5000 ans. Ce dernier point constituerait une véritable prouesse, dans un monde où la pérennité des supports de stockage est constamment remise en question.

Le système prototypal de Cerabyte se compose d’un rack de lecture-écriture unique. Il s’agit d’un dispositif qui permet à la fois d’écrire les données sur le support de stockage et de les lire ultérieurement. Il comprend également plusieurs cartouches de stockage de données dans des racks formant une sorte de bibliothèque robotique. Cette bibliothèque dispose en effet d’un mécanisme automatisé, déplaçant les cartouches vers le rack de lecture-écriture pour qu’elles soient lues ou puissent recevoir de nouvelles données. Lorsqu’une cartouche est déplacée vers le rack de lecture-écriture, elle est ouverte pour exposer le support.

Lors de l’inscription des données — le processus par lequel des informations sont enregistrées —, le système utilise des millions de faisceaux laser créant des motifs nanométriques sur le support de stockage. La structure des inscriptions ressemble à celle d’un QR code, mais bien entendu à une échelle beaucoup plus petite. Un dispositif à micromiroirs numériques ajuste les faisceaux laser pour une précision extrême. Les motifs sont produits en formant de petits trous sur la surface de la couche en céramique. Le schéma gravé représente les données en format binaire.

Après l’inscription, le support de données est vérifié par une caméra microscopique pendant son retour à la position initiale, assurant la précision de l’écriture. Une fois les données vérifiées, le support est remis dans sa cartouche et est retourné à la bibliothèque robotisée pour le stockage. Chaque cartouche, de la taille d’une paume, est composée d’une base en feuille de verre surmontée de nanocouches de céramique. Cette composition unique confère à la technologie une résilience exceptionnelle face à des conditions extrêmes. Le système est notamment capable de supporter des températures allant de -273°C à 300°C, ainsi que des changements brusques et importants de température. Cette résistance fait de la technologie de Cerabyte une candidate idéale pour une solution de stockage à long terme, avec une durée de vie estimée à plus de 5000 ans.

Article rédigé par Georges Simmonds pour RT Flash

Tech Radar

IBM dévoile la première puce quantique 1000-qubit
Mardi, 16/01/2024 - 07:20

La nouvelle puce quantique d’IBM a suscité des réactions dans le domaine de la high-tech. Dévoilée au grand public le 4 décembre dernier, cette innovation est dotée de 1121 qubits. C’est une des plus robustes sur le marché actuellement. À noter qu’IBM a déjà lancé des puces performantes auparavant. En 2022, l’entreprise a conçu un modèle à 433 qubits. Comme quoi, IBM reste toujours leader dans ce secteur. Et ses nouvelles puces peuvent contribuer aux prochaines découvertes scientifiques.

Les physiciens ont besoin d’un ordinateur surpuissant pour prouver leurs théories. Cependant, les modèles classiques sont incapables d’atteindre cet objectif. C’est ici que Condor, la puce quantique d’IBM, intervient. Cet élément va équiper des ordinateurs quantiques dernières générations. Le but est d’effectuer des calculs complexes avec facilité. Avec cette approche, les physiciens peuvent étudier les phénomènes d’intrication et de superposition. Condor a surpris le grand public lors de sa présentation durant Quantum Summit de New York. Tous les spécialistes du milieu ont été ébahis par la performance de ce modèle. En tout, la puce quantique affiche 1121 qubits.

IBM a marqué le coup avec sa nouvelle puce Condor. Cette dernière dispose de la technologie de porte à résonance croisée. Il sera alors plus facile d’avoir des interactions entre qubits et les circuits quantiques. Ce privilège illustre la performance de Condor. En effet, la puce est capable d’effectuer des calculs complexes. De plus, l’entreprise a aussi amélioré de 50 % la densité en qubits. Condor a besoin d’une infrastructure importante pour fonctionner. 1,6 kilomètre de câblage cryogénique haute densité était nécessaire pour refroidir la puce. Ainsi, elle sera apte à atteindre une puissance optimale. Toutefois, IBM a annoncé que Condor a une performance similaire à Osprey. Cette puce dispose de 433 qubits.

« Avec des performances comparables à celles de notre précédent Osprey (433 qubits), il (Condor) constitue un jalon en matière d’innovation, résolvant des problèmes d’échelle et d’éclairer la conception future du matériel » souligne IBM lors du Quantum Summit.

La conception de la puce Condor illustre alors l’avancée technologique d’IBM. Elle sera la clé pour les prochains processeurs quantiques. À noter que IBM voulait déjà s’engager à créer des puces plus petites, et plus précises. Sa nouvelle stratégie se concentre sur les corrections d’erreurs. Même avec ses 1121 bits, Condor n’était pas la seule puce quantique du Quantum Summit. En effet, IBM a annoncé une autre innovation technologique. Héron, la puce à 133 qubits va aussi améliorer le domaine de la high-tech. Elle est plus précise, avec une capacité d’autocorrection exceptionnelle. Sur ce plan, Héron est 5 fois plus performant que les autres puces de même catégorie.

Article rédigé par Georges Simmonds pour RT Flash

IBM

^ Haut
Avenir
Nanotechnologies et Robotique
Un robot humanoïde qui résiste à toutes formes d'agressions
Jeudi, 18/01/2024 - 08:03

Le constructeur chinois Unitree lance son premier robot humanoïde, capable de se déplacer et de porter des charges lourdes en toute autonomie. Plus original encore, il garde son équilibre et demeure imperturbable même lorsqu'il est bousculé. De quoi venir concurrencer les robots américains les plus élaborés ?

Dans la famille des robots humanoïdes, je demande le casse-cou, l'Unitree H1. Cette étonnante machine se présente comme le tout premier robot humanoïde de taille humaine capable de courir et de soulever de lourdes charges, produit en Chine. Il se démarque par sa démarche stable et ses capacités de mouvements très souples, y compris sur des terrains accidentés. Plus fort encore, il résisterait aux assauts, tels qu'une agression dans le dos ou encore divers chocs aux membres. Même maltraité, il ne perdrait jamais sa stabilité ni ne dévierait de sa tâche initiale.

L'Unitree H1 mesure 1,80 m et pèse 47 kg. Il se déplace de manière autonome et naturelle, que ce soit en marchant ou en courant, peut porter et manipuler de lourdes charges et ainsi réaliser, en théorie, des tâches relativement complexes. Ses multiples capteurs et caméras lui permettent d'interagir avec son environnement et notamment d'éviter les obstacles. Autre intérêt, et non des moindres, son code est open-source, ce qui signifie que les développeurs peuvent créer leurs propres applications dédiées. Ce robot devrait être commercialisé début 2024 et coûter l'équivalent de 150.000 dollars (soit environ 139.000 euros).

Sur le papier, l'Unitree H1 s'inscrit dans la lignée d'Atlas de Boston Dynamics, ou encore Optimus de Tesla, deux ambitieux projets américains destinés à remplir un jour des tâches logistiques humaines. Mais d'autres acteurs chinois sont aussi dans la course, à l'image de Xiaomi qui, de son côté, planche sur un robot capable de reconnaître des individus ainsi que leurs expressions et leurs émotions. Combinés à une intelligence artificielle, tous pourraient un jour interagir avec des humains.

Article rédigé par Georges Simmonds pour RT Flash

TVA

^ Haut
Matière
Matière et Energie
La Chine s'impose dans la course mondiale aux réacteurs nucléaires de quatrième génération
Jeudi, 18/01/2024 - 08:00

La Chine vient de franchir une étape supplémentaire dans le développement de cette technologie. À Shidao Bay (province du Shandong, à l'est du pays) la première centrale à refroidissement au gaz vient d'être mise en service, dotée de petits réacteurs modulaires (SMR). Ils se construisent facilement et réduisent fortement le risque de fusion, abaissent la quantité de déchets nucléaires et sont plus efficaces d'un point de vue thermique. Une nette évolution d'une technologie développée dans sa grande majorité entre les année1970 et 1990 à l'échelle mondiale. En Chine, les programmes nucléaires sont en revanche bien plus récents.

La centrale de Shidao Bay est située à Roncheng et c'est une première mondiale. Au lieu de refroidir les réacteurs grâce à de l'eau pressurisée, ceux-ci sont maintenus à température grâce à du gaz. Les équipements qui la composent sont issus à 90 % de conception chinoise, un fait mis en valeur par Zhang Yanxu, un des responsables du projet. Une innovation qui vient compléter à merveille les énormes investissements du pays dans les générateurs à hydrogène vert.

Les SMR de Shidao Bay sont extrêmement polyvalents : dessalement de l'eau de mer, production de vapeur pour l'industrie et reconversion de l'énergie produite pour le chauffage. Plutôt bien, non ? La capacité totale est de 200 mégawatts, typique des petites centrales à réacteurs modulaires. Pour établir une comparaison, nos centrales françaises comme celles de Civaux ou Flamanville, produisent de 900 à 1 450 mégawatts par réacteur.

La centrale de Shidao Bay est, en revanche, beaucoup plus compacte que les centrales traditionnelles, et son impact environnemental est nécessairement moindre. Ses coûts de construction sont également moindres, et elle est bien plus rapide à construire. La Chine prouve encore une fois qu'elle établit progressivement, mais sûrement, son leadership en matière d'énergie verte.

Selon leurs promoteurs, les réacteurs SMR pourraient jouer un rôle central dans la décarbonation et la transition énergétique, grâce à une architecture compacte et simplifiée, une conception en modules réduisant les coûts et la durée de construction, et leur usage multiple. Selon l'Agence internationale de l'énergie atomique (AIEA), plus de 80 projets sont en cours de développement dans 18 pays.

Article rédigé par Georges Simmonds pour RT Flash

WNN

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
La concentration de CO2 dans l'atmosphère est la plus élevée depuis 14 millions d’années…
Jeudi, 18/01/2024 - 07:55

Les niveaux actuels de dioxyde de carbone dans l'atmosphère n'ont pas été atteints depuis 14 millions d'années sur Terre, révèle une vaste étude qui évoque les climats inhospitaliers vers lesquels l'humanité se dirige. Cette publication retrace les niveaux de CO2 depuis 66 millions d'années avant notre ère, jusqu'au réchauffement climatique d'aujourd'hui, avec une précision inédite. Cela nous montre bien à quel point ce que l'on est en train de faire est vraiment, vraiment inhabituel dans l'histoire de la Terre, explique l'autrice principale Baerbel Hoenisch, chercheuse pour l'Université Columbia à New York.

La dernière fois que l'atmosphère de notre planète contenait la même concentration du principal gaz à effet de serre (le CO2) qu'aujourd'hui, soit environ 420 ppm (parties par million), remonte à environ 14 à 16 millions d'années. Cela remonte à bien plus longtemps que ce qu'estimaient jusqu'alors les scientifiques (3 à 5 millions d'années). Il y a 14 à 16 millions d'années, il n'y avait, par exemple, pas de calotte glaciaire au Groenland. Or, notre civilisation est habituée au niveau des mers qu'on connaît actuellement, aux tropiques chauds, aux pôles froids et aux régions tempérées qui bénéficient de nombreuses précipitations, prévient Baerbel Hoenisch.

Avant l'ère industrielle, la concentration en CO2 de l'atmosphère était d'environ 280 ppm. Celle-ci a augmenté de moitié avec les activités humaines, provoquant une hausse des températures d'environ 1,2°C. Et si nos émissions se poursuivent, la concentration pourrait monter à 600 ou 800 ppm, des taux atteints durant l'Éocène (-30 à -40 millions d'années), avant que l'Antarctique ne soit couvert de glace et quand la faune et la flore planétaires étaient bien différentes, avec par exemple d'immenses insectes.

L'étude publiée récemment dans Science est le résultat de sept années de travail d'un groupe de 80 chercheurs dans 16 pays. Leurs conclusions sont désormais considérées comme un consensus scientifique. Leur apport ne réside pas dans la collecte de nouvelles données, mais dans un travail de fourmi de réévaluation et de synthèse des travaux déjà existants pour les mettre à jour et les classer selon leur fiabilité, ce qui a permis d'utiliser les meilleures données afin de tirer un tableau global. Pour reconstituer les climats passés, une technique bien connue consiste à récupérer dans les profondeurs des calottes glaciaires des bulles d'air qui ont emprisonné la composition de l'atmosphère d'alors. Mais cette technique ne permet de remonter qu'à quelques centaines de milliers d'années en arrière.

Pour aller plus loin, il faut passer par des marqueurs indirects. L'étude chimique d'anciens minéraux, feuilles ou planctons, a ainsi permis de déduire la concentration en CO2 de périodes données plus anciennes. Sur les 66 millions d'années passées, la période la plus chaude que la Terre ait connue remonte à environ 50 millions d'années, avec une concentration en CO2 à 1600 ppm et des températures 12°C plus chaudes qu'aujourd'hui. Ces dernières ont baissé lentement jusqu'à il y a 2,5 millions d'années et le temps des périodes glaciaires, la concentration de CO2 redescendant jusqu'à 270-280 ppm. Ces niveaux sont restés stables jusqu'à ce que l'humanité brûle des énergies fossiles à grande échelle.

Selon l'étude, un doublement du taux de concentration en CO2 réchaufferait progressivement la planète, sur des centaines de milliers d'années, jusqu'à atteindre + 5 à 8°C, ceci en raison des effets en cascade qu'entraînerait une hausse des températures. Ainsi, la fonte des glaces polaires réduit leur capacité à réfléchir les rayons du soleil, ce qui accélère encore la fonte, etc.

L'étude montre qu'il y a 56 millions d'années, l'atmosphère terrestre a connu une hausse rapide de la concentration de CO2 similaire à celle que l'on connaît aujourd'hui et qui a provoqué des changements massifs dans les écosystèmes et a mis quelque 150 000 ans à se dissiper. Nous y sommes pour très longtemps, à moins que nous capturions du dioxyde de carbone de l'atmosphère et que nous stoppions nos émissions très bientôt, résume Baerbel Hoenisch.

Article rédigé par Georges Simmonds pour RT Flash

Science

L’océan stockerait davantage de carbone de prévu...
Mercredi, 17/01/2024 - 08:45

L’océan a une capacité de stockage du dioxyde de carbone atmosphérique près de 20 % supérieure aux estimations présentées dans le dernier rapport du GIEC. C’est ce que révèle l’étude, parue dans la revue Nature le 6 décembre 2023, menée par une équipe internationale comprenant un biologiste du CNRS. Les scientifiques se sont penchés sur le rôle que joue le plancton dans le transport naturel du carbone depuis la surface vers les fonds marins.

En effet, friand de ce gaz qu’il transforme grâce à la photosynthèse en tissus organiques au cours de son développement, une partie du plancton se transforme en particules marines en fin de vie. Plus dense que l’eau de mer, cette "neige marine" coule dans les fonds marins stockant du carbone, et constitue également une ressource de nutriments essentiels pour de nombreuses créatures des profondeurs, depuis les minuscules bactéries jusqu’aux poissons de grands fonds.

En se basant sur l’étude d’une banque de données collectées sur l’ensemble du globe depuis les années 1970 à l’aide de navires océanographiques, l’équipe de sept scientifiques a pu cartographier numériquement les flux de matière organique de l’ensemble des océans. La nouvelle estimation de capacité de stockage qui en résulte s’élève à 15 gigatonnes par an, soit une augmentation d’environ 20 % par rapport aux précédentes études (11 gigatonnes par an) rapportées par le GIEC dans son rapport de 2021.

Cette réévaluation de la capacité de stockage des fonds marins représente une avancée significative dans la compréhension des échanges de carbone entre l’atmosphère et l’océan au niveau planétaire. Si l’équipe souligne que ce processus d’absorption s’opère sur des dizaines de milliers d’années, et qu’il n’est donc pas suffisant pour contrebalancer l’augmentation exponentielle d’émissions de CO2 engendrée par l’activité industrielle mondiale depuis 1750, cette étude renforce néanmoins l’importance de l’écosystème océanique en tant qu’acteur majeur dans la régulation du climat planétaire à long terme.

Article rédigé par Georges Simmonds pour RT Flash

Nature

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Une activité de courte durée peut quand même augmenter les chances de survie chez les malades atteints d'un cancer du poumon
Jeudi, 18/01/2024 - 07:58

Une étude menée par l’Université Curtin (Australie) a révélé que moins de cinq minutes d’activité physique quotidienne pourraient être liées à une vie prolongée chez les personnes atteintes de formes inopérables de la maladie. L’équipe de la Curtin School of Allied Health, et de l’Institut Curtin enAble, a mesuré l'activité quotidienne de 89 personnes atteintes d’un cancer du poumon inopérable, à partir du moment où elles ont été diagnostiquées.

Les chercheurs ont ensuite comparé les taux de mortalité après 12 mois entre ceux qui pratiquaient une activité physique modérée à vigoureuse et ceux qui étaient inactifs, et ont constaté des résultats significatifs. Les personnes qui pratiquaient plus de 4,6 minutes par jour d’activité physique modérée à vigoureuse présentaient un risque de mortalité inférieur de 60 % après 12 mois par rapport au groupe moins actif.

Le responsable de l’étude, le professeur Vin Cavalheri, souligne que « Cette étude montre que les personnes atteintes d’un cancer du poumon inopérable sont très sédentaires et passent peu de temps dans une activité physique modérée à vigoureuse avant le début du traitement. Pourtant nous montrons que ces patients, dont le quart ne fait aucun exercice, peuvent tirer un bénéfice remarquable d'une pratique régulière d'activité physique, même de faible durée ».

Article rédigé par Georges Simmonds pour RT Flash

MDPI

Vers une nouvelle thérapie contre la leucémie
Mercredi, 17/01/2024 - 08:48

La chimiothérapie est le traitement principal des leucémies. Souvent, la cause exacte ne peut pas être déterminée et les mécanismes moléculaires et cellulaires responsables des leucémies restent largement mystérieux. La découverte de nouveaux modes de détection et de nouveaux traitements pour éradiquer les leucémies constitue donc un défi majeur en oncologie. L’ARN messager a été médiatisé ces derniers mois, via les vaccins contre la COVID-19. Dans une publication de Molecular Cell, des chercheurs de l’Université libre de Bruxelles (ULB) et Institut Bordet, Hôpital universitaire de Bruxelles (H.U.B.) ouvrent une autre voie de recherche, tout aussi novatrice : des thérapies anti-cancéreuses inédites grâce à l’alphabet complexe de l’ARN messager (ou épigénétique de l’ARN).

Tout comme pour l’ADN, outre les 4 lettres bien connues (A, U, G, C), des lettres additionnelles habillent chimiquement l’ARN. C’est le cas de la lettre m5C, ou méthylation de l’ARN messager, qui joue un rôle essentiel dans la régulation des gènes et ce grâce à la lecture de m5C par des protéines qui s’y fixent, appelées "lecteurs". Ces lecteurs de m5C sont encore peu décrits et leur rôle dans le cancer est inconnu.

Les récents travaux de l’équipe du Professeur François Fuks – directeur du Laboratoire d’Epigénétique du Cancer, Faculté de Médecine ULB et Institut Bordet H.U.B. et directeur de l’ULB Cancer Research Center (U-CRC), Université libre de Bruxelles – ont identifié un nouveau lecteur de l’ARN, SRSF2 et lèvent pour la première fois le voile sur le rôle clef que joue la protéine SRSF2 dans le développement des leucémies.

Le gène SRSF2 est un des gènes les plus fréquemment mutés dans les leucémies : jusqu’à 50 % dans certains types de leucémies. Les chercheurs ont démontré que la protéine SRSF2 lit la modification m5C dans l’ARN ; ils ont également mis en évidence un mécanisme moléculaire, jusqu’ici insoupçonné, conduisant aux leucémies : la mutation de SRSF2 altère sa capacité à lire m5C sur l’ARN, ce qui entrave sa fonction de régulation des ARN messagers. En outre, grâce à l’analyse de près de 700 échantillons de malades atteints de leucémie, le Professeur François Fuks et ses collègues ont pu identifier, sur base de l’altération de SRSF2 à lire m5C, un nouveau groupe de patients dont la survie est particulièrement entravée.

Ces découvertes devraient non seulement ouvrir un nouveau chapitre des connaissances sur la compréhension de l’apparition des leucémies, mais elles devraient également nous diriger vers un nouveau paradigme de diagnostic et de traitement des leucémies, basé sur l’épigénétique de l’ARN. Concrètement, les découvertes pourraient conduire à diagnostiquer spécifiquement les patients à mauvais pronostic vital, dont la fonction de « lecteur m5C» de SRSF2 est affectée. En outre, une nouvelle approche thérapeutique des leucémies pourrait être envisagée en développant un inhibiteur qui rétablirait la lecture correcte de m5C par SRSF2, cette lecture étant altérée chez les patients portant la mutation de SRSF2.

Article rédigé par Georges Simmonds pour RT Flash

ULB

Un médicament contre la polyarthrite pourrait transformer la prise en charge du diabète de type 1
Mercredi, 17/01/2024 - 08:42

Un essai clinique mondial, mené par une équipe du St Vincent’s Institute (SVI) of Medical Research (Melbourne), offre un nouvel espoir pour le diabète de type 1, un médicament couramment prescrit contre la polyarthrite rhumatoïde, sous forme de comprimés, et qui pourrait permettre de stopper la progression de la maladie. Les résultats apportent l’espoir d’alléger considérablement le traitement de la maladie et de restaurer la qualité de vie des patients diabétiques de type 1.

Les auteurs rappellent que le diabète de type 1 est une maladie auto-immune dans laquelle le système immunitaire attaque et tue par erreur les cellules du pancréas productrices d’insuline. Ainsi, les diabétiques de type 1 dépendent de l’insuline administrée par injection ou par pompe, en continu. Le diabète de type 1 est le plus souvent diagnostiqué chez les enfants, mais son incidence est à la hausse chez les adultes.

Dirigé par le Docteur Thomas Kay, professeur au SVI, l’essai apporte l’espoir que le baricitinib, un médicament indiqué dans le traitement de la dermatite atopique, la pelade et la polyarthrite chronique, puisse préserver de manière sûre et efficace la production d’insuline de l’organisme et arrêter la progression du diabète chez les diabétiques de type 1, à condition que le traitement soit débuté suffisamment tôt, dans les 100 jours qui suivent le diagnostic. 

« Lorsque le diabète de type 1 est diagnostiqué pour la première fois, il reste encore un nombre important de cellules productrices d’insuline. Pouvoir empêcher la destruction de ces cellules encore fonctionnelles par le système immunitaire pourrait permettre d’arrêter la progression du diabète. C’est justement l’action du baricitinib qui se révèle ici sûr et efficace à ralentir la progression du diabète de type 1 chez les patients récemment diagnostiqués ».

L’essai randomisé, en double aveugle et contrôlé par placebo a suivi la glycémie et la production d’insuline de 91 participants pendant 1 an. 60 participants ont reçu du baricitinib et 31 un placebo. Tous les participants étaient âgés de 10 à 30 ans et ont commencé l’essai dans les 100 jours suivant leur diagnostic de diabète de type 1. Les participants ont continué leur insulinothérapie, conformément à leur prescription, pendant toute la durée de l’étude. Les chercheurs ont surveillé la dose quotidienne totale d’insuline, la quantité d’insuline produite de manière endogène, la glycémie et le taux d’HbA1C des participants.

L’analyse montre que si le traitement est débuté suffisamment tôt après le diagnostic, il permet alors bien de préserver la production d’insuline ; les cellules immunitaires sont comme désactivées et deviennent incapables de tuer les cellules productrices d’insuline ; les participants ayant reçu le médicament ont ensuite eu besoin de beaucoup moins d’insuline. Le baricitinib bloque une enzyme impliquée dans la transmission des signaux qui régulent le système immunitaire et l’inflammation. Les chercheurs suggèrent également que le médicament atténue la réponse auto-immune qui se développe contre les cellules productrices d’insuline chez les diabétiques de type 1 nouvellement diagnostiqués, retardant ainsi l’apparition des symptômes, améliorant le contrôle de la glycémie et réduisant le risque de complications sévères.

Article rédigé par Georges Simmonds pour RT Flash

NEJM

Un test sanguin pour déterminer l'âge d'un organe et prédire le risque de maladie !
Mercredi, 17/01/2024 - 08:39

Des chercheurs américains de l'Université de Stanford ont mis au point une nouvelle méthode de diagnostic de pathologies à l’instar d’Alzheimer, des années avant les premiers symptômes. Le procédé est simple : détecter des protéines spécifiques dans les organes, et grâce à celles-ci, entraîner un algorithme à estimer l’âge de l’organe en question.

Pour leurs travaux, les scientifiques se sont concentrés sur onze organes, dont le cerveau, le cœur, les poumons, les reins, le foie, le pancréas et l’intestin, mais aussi le système immunitaire, les muscles, les graisses et le système vasculaire. Dans un premier temps, ils ont analysé les niveaux de près de 5 000 protéines dans le sang de 1 398 patients en bonne santé dans un centre américain de recherche sur la maladie d’Alzheimer. Ensuite, ils ont entraîné l'algorithme à deviner l'âge de l’organe en fonction de ces protéines.

« Nous pouvons estimer l'âge biologique d'un organe chez une personne apparemment en bonne santé. Cela, à son tour, prédit le risque de maladie liée à cet organe », résume l'auteur principal de l'étude, Tony Wyss-Coray, professeur de neurologie et Professeur II DH Chen à l'Université de Stanford. Ensuite, les auteurs ont testé l’algorithme sur 5 676 patients. Leurs résultats révèlent que près de 20 % des participants présentaient un vieillissement fortement accéléré dans un organe, et 1,7 % présentaient un vieillissement dans plusieurs organes.

Chez ces patients, le risque de mortalité était entre 20 et 50 % plus élevé, renseignent-ils. Le risque de maladies était également accru : par exemple, pour les personnes sujettes à un vieillissement cardiaque accéléré, elles étaient 250 % plus susceptibles d’avoir une insuffisance cardiaque. Pour la suite, les chercheurs souhaitent tester leur méthode de diagnostic sur une plus grande cohorte de personnes. « Si nous pouvons reproduire cette découverte chez 50 000 ou 100 000 individus, cela signifiera qu'en surveillant la santé des organes individuels chez des personnes apparemment en bonne santé, nous pourrons peut-être trouver des organes qui subissent un vieillissement accéléré dans le corps des gens et nous pourrons peut-être soigner les gens avant qu’ils ne tombent malades », conclut Tony Wyss-Coray.

Article rédigé par Georges Simmonds pour RT Flash

Nature

Un médicament contre les allergies repositionné contre le cancer du poumon
Mercredi, 17/01/2024 - 08:36

Le cancer du poumon est la première cause de décès par cancer dans le monde, selon l’Organisation mondiale de la santé. Pour le soigner, plusieurs traitements sont utilisés, dont la chimiothérapie, la radiothérapie et l’immunothérapie. Des scientifiques travaillent sur de nouvelles techniques pour améliorer leur efficacité et permettre aux patients de gagner en espérance de vie. Des chercheurs américains ont montré que l’utilisation combinée d’un médicament anti-allergique avec l’immunothérapie permet de booster le système immunitaire face aux tumeurs.

« L'immunothérapie a révolutionné le traitement du cancer du poumon non à petites cellules, la forme la plus courante de cancer du poumon, mais actuellement, seulement un tiers environ des patients y répondent et chez la plupart des patients, le bénéfice est temporaire », explique l’autrice principale de l'étude, Miriam Merad, directrice de l'Institut d'immunologie de précision Marc et Jennifer Lipschultz et directrice du département d'immunologie et d'immunothérapie de l'École de médecine Icahn du Mont Sinaï. « L’un des principaux objectifs de notre programme de recherche, appelé TARGET, est d’utiliser la technologie unicellulaire et l’intelligence artificielle pour identifier les modèles immunitaires moléculaires capables d’atténuer la réponse immunitaire de la tumeur au blocage des points de contrôle ».

Également connu sous le nom d’inhibiteur de PD1, le blocage des points de contrôle est un type d’immunothérapie anticancéreuse qui permet de stimuler l’activité anticancéreuse des cellules T, des cellules immunitaires. Ces spécialistes de l'École de médecine Icahn du Mont Sinaï à New-York ont identifié une voie allergique qui, lorsqu'elle est bloquée, libère cette immunité antitumorale chez des souris atteintes de cancer du poumon non à petites cellules (CPNPC). Puis, ils ont mené un essai sur un groupe de patients humains, où l’immunothérapie a été combinée avec le dupilumab, un anticorps bloquant les récepteurs de l'interleukine-4 (IL-4) largement utilisé pour traiter les allergies et l’asthme.

Article rédigé par Georges Simmonds pour RT Flash

Nature

Découverte de deux molécules-clé régulant le processus de vieillissement
Mardi, 16/01/2024 - 07:40

Deux équipes de recherche indépendantes, l'une canadienne et l'autre américaine, viennent de découvrir deux nouveaux mécanismes biologiques fondamentaux qui joueraient un rôle-clé dans le processus complexe du vieillissement. Une équipe du Centre de recherche en santé durable VITAM, de l’Université Laval, a montré que la mesure du niveau de protéine klotoh permettrait de dépister les personnes en voie de développer des maladies chroniques, et ainsi de pratiquer une médecine préventive fondée sur des données biologiques.

La protéine klotho est produite principalement par les reins, mais également en moindre quantité par le cerveau, par certaines cellules sanguines et par les tissus vasculaires. Elle se retrouve donc sous forme d’hormone dans l’urine, dans le liquide cérébrospinal et dans le sang, où l’on peut mesurer sa présence par un simple prélèvement. Depuis sa découverte, plusieurs études ont mis en évidence ses effets protecteurs contre diverses maladies chroniques et pathologies, comme le cancer, l’athérosclérose cardiaque et la maladie d’Alzheimer. La protéine klotho exercerait ses bienfaits en inhibant divers circuits liés au vieillissement et en activant des mécanismes antioxydant.

« L’expression de cette hormone diminue à mesure que l’on vieillit. Mais la vitesse de cette baisse varie d’une personne à l’autre. Certains individus vont maintenir des concentrations élevées de klotho, alors que d’autres vont voir leurs taux décroître rapidement. Or, on sait que des niveaux trop bas de klotho sont associés à un vieillissement pathologique, notamment à un risque accru de maladies chroniques liées au vieillissement, telles que les maladies cardiovasculaires et pulmonaires, le diabète, le cancer et la maladie d’Alzheimer, ainsi qu’à une durée de vie plus courte », précise le Docteur Jean-Sébastien Paquette, médecin et chercheur à l'Université Laval. 

En outre, les personnes porteuses d’une mutation sur le gène responsable de la production de klotho seraient à risque de souffrir de problèmes cardiovasculaires très tôt dans leur vie. Et des souris dont ce même gène est défectueux vieillissent deux fois plus vite que celles ayant un gène normal, en plus de présenter plusieurs caractéristiques d’un vieillissement accéléré : athérosclérose, diminution de la masse et de la force musculaires, troubles du métabolisme et déficits cognitifs.

Cette étude montre également, de manière très intéressante, que l'adoption d'un mode de vie sain peu influer de manière favorable sur les niveaux de klotho. Ce style de vie comprend notamment la nutrition, l’activité physique, la gestion du stress, le sommeil récupérateur, les connexions sociales et l’évitement des substances à risque. Ces chercheurs considèrent que la protéine klotho pourrait être utilisée en clinique pour suivre de près l’état de santé des patients, pour évaluer leur âge biologique réel et surtout prévenir l’apparition de maladies chroniques susceptibles d’accélérer le vieillissement. « Mesurer le niveau de klotho dans un prélèvement sanguin est une procédure simple qui nous permettrait d’identifier les patients à risque et leur proposer des interventions personnalisées », explique le Docteur Paquette.

La seconde avancée, non moins importante, concerne le rôle important de la sperminide dans le processus du vieillissement. Cette molécule, une polyamine, a été découverte dans le sperme, il y a plus de trois siècles. On sait à présent qu'elle est présente dans toutes nos cellules et régule de nombreux phénomènes biologiques. Une étude menée par des scientifiques du Boyce Thompson Institute et de l'Université Cornell (État de New York) a démontré que lorsqu’elle est associée aux sirtuines, d'autres molécules, elle est impliquée dans le vieillissement. D'autres travaux ont montré que les sirtuines jouent un rôle crucial dans différentes maladies liées à l'âge.

Pour ces recherches, les chercheurs américains ont utilisé une méthode appelée métabolomique comparative pour dépister les changements métaboliques dépendants de la sirtuine. Ils ont ainsi pu identifier les acyl-spermidines, des métabolites dérivés de modifications de diverses protéines, dont beaucoup jouent un rôle essentiel dans la croissance et la survie cellulaire. Ils ont également découvert que ces métabolites ont un impact sur la durée de vie des cellules et leur prolifération. « Nous avons découvert un nouveau et prometteur mécanisme du métabolisme cellulaire et nos recherches ouvrent la voie à une meilleure compréhension de ces processus biologiques et du rôle des sirtuines mitochondriales dans le vieillissement », précise le Docteur Frank Schroeder qui a participé à cette étude.

Article rédigé par Georges Simmonds pour RT Flash

Metabolics

Nature

Une vaste étude confirme l'effet protecteur de l'aspirine en matière de cancer
Mardi, 16/01/2024 - 07:30

Une vaste méta-analyse (une analyse globale réalisée à partir de plusieurs recherches existantes sur le sujet), publiée dans le British Journal of Cancer, conclut que l'intégration de l'aspirine, un médicament anti-inflammatoire très courant, pourrait être intéressante dans le cadre d'un traitement contre le cancer. Sur la base de 118 études, réalisées sur environ un million de patients atteints de toute sorte de cancer, les chercheurs de l'Université de Cardiff ont estimé que l'aspirine pouvait empêcher la propagation des métastases et réduire les complications vasculaires, liées aux caillots sanguins.

Pour avoir un effet bénéfique, la prise quotidienne doit être faible, selon les chercheurs : de 75 ou 81 mg/jour (un comprimé étant de 500 mg à 1 g). Ajouter ce médicament en complément d'un traitement adapté permettrait de réduire d'environ 30 % les décès par cancer et de 21 % les décès toutes causes, car il ciblerait un certain nombre de mécanismes biologiques clés du cancer. « Les bénéfices de l'aspirine dans le traitement du cancer ont été démontrés depuis 1968 », explique dans un communiqué Peter Elwood, professeur honoraire à l'Université de Cardiff. Plus l'aspirine serait prise tôt, plus son utilité serait grande.

L'aspirine est un médicament à prendre avec précaution. Il permet de diminuer l'inflammation en cas de douleurs et de fièvre, mais aussi de fluidifier le sang. C'est à cause de cette action anticoagulante qu'il n'est pas recommandé aux femmes d'en prendre lorsqu'elles ont leurs règles. Si des études ont montré son efficacité sur la prévention des récidives chez les personnes qui ont eu un AVC ou un infarctus, il n'est pas nécessaire d'en prendre lorsqu'on est en bonne santé. 

Cette méta-analyse visait d'ailleurs, à l'origine, à vérifier que la prise quotidienne d'aspirine chez les personnes souffrant d'un cancer n'augmentait pas les risques. Mais les chercheurs n'ont trouvé « aucune preuve valable d'un saignement mortel imputable à l'aspirine », et ont confirmé « la sécurité relative » du médicament dans ce cas précis. En effet, s'il y a bien des saignements d'estomac liés à l'aspirine, ceux-là sont « moins graves que les saignements gastro-intestinaux chez les patients souffrant d'ulcères d'estomac ou d'infection de l'estomac ». Ils estiment donc que le bénéfice-risque en faveur de l'aspirine est positif. Selon eux, son faible coût combiné à sa bonne disponibilité dans le monde pourrait permettre « un énorme bénéfice » si l'aspirine était davantage utilisée dans ce cadre.

Nature

La réparation de l’ADN filmée avec une précision atomique !
Mardi, 16/01/2024 - 07:10

L’ADN est une molécule fragile qui peut être endommagée par les rayons ultraviolets. Parmi ces lésions, les plus fréquentes sont celles appelées "dimère cyclobutylique de pyrimidine" (ou lésion CPD) : deux bases nucléiques adjacentes se lient entre elles, ce qui casse leur interaction habituelle avec leurs partenaires sur l'autre moitié complémentaire de l'ADN, empêchant les mécanismes de réplication ou de transcription au-delà du point de lésion. Pour réparer ces lésions, l’enzyme photolyase utilise la lumière bleue qu’elle capte, aidée par une ou plusieurs molécules appelées cofacteurs. Toutefois, le mécanisme précis de cette réaction n’avait, jusqu’à aujourd’hui, jamais été observé.

Dans une étude parue dans la revue Science, des scientifiques ont utilisé deux grands instruments de type laser de rayons X à électrons libres (XFEL), le SwissFEL en Suisse et SACLA au Japon, pour visualiser le mécanisme moléculaire de réparation d'un brin d'ADN par l’enzyme photolyase provenant d’un microorganisme. Les outils utilisés leur ont permis d’obtenir un film moléculaire de la réaction entre 100 picosecondes (une picoseconde est à une seconde ce qu'une seconde est à environ 31 689 ans) et 200 microsecondes (une microseconde est à une seconde ce qu'une seconde est à environ 2 ans), à un niveau de détail atomique jamais atteint auparavant.

Le mécanisme ainsi observé se déroule comme suit : dans un premier temps, l’enzyme photolyase équipée de son cofacteur flavine (ici une molécule de FAD) vient se fixer sur l’ADN lésé. Lorsque le cofacteur absorbe un photon de lumière bleue, un électron est transféré très rapidement du cofacteur vers l'ADN, puis les deux liaisons covalentes entre les deux bases adjacentes sont rompues successivement. S’ensuit le réarrangement des différents groupes chimiques impliqués dans la réaction, avec le retour d’un électron vers le cofacteur. Enfin, les deux bases de l'ADN réparées basculent depuis l'intérieur de l’enzyme vers l'intérieur de l'hélice d'ADN, préparant ainsi la dissociation du complexe enzyme/ADN.

L'ensemble des données recueillies dans cette étude constitue un véritable film moléculaire de la séquence complète des événements de la réparation de l’ADN par la photolyase, depuis l'absorption d'un photon lumineux par le cofacteur jusqu'à la dissociation du complexe.

Ces travaux démontrent l’importance des nouvelles technologies mises à disposition de la communauté des biologistes par des grands instruments comme XFEL. Etre capable d’observer comment n’importe quelle enzyme stabilise ses intermédiaires réactionnels offre des perspectives nouvelles pour mieux appréhender ces espèces à durée de vie ultracourte que l’on soupçonne depuis longtemps de jouer un rôle fondamental dans les transformations chimiques indispensables à la vie.

Article rédigé par Georges Simmonds pour RT Flash

CNRS

Des scientifiques inversent la résistance aux médicaments dans le cancer de la prostate en ciblant les globules blancs
Mardi, 16/01/2024 - 07:00

Une équipe internationale de recherche, associant l'ICR de Londres et l'IOR en Suisse, a montré qu'il est possible de supprimer la résistance aux médicaments dans le cancer de la prostate en ciblant certains globules blancs "détournés", les cellules myéloïdes immunosuppressives. Dans un premier essai clinique, les chercheurs ont montré que le blocage des messages que le cancer utilise pour détourner les globules blancs peut resensibiliser un sous-ensemble de cancers de la prostate avancés au traitement, en réduisant la taille des tumeurs ou en arrêtant leur croissance. Ces recherches représentent une avancée scientifique majeure après une décennie de travail pour comprendre comment les cellules myéloïdes alimentent la résistance aux traitements.

Les chercheurs ont testé sur 21 patients une combinaison de AZD5069, un médicament expérimental qui empêche le recrutement de cellules myéloïdes dans les tumeurs, et d’enzalutamide, une hormonothérapie couramment utilisée pour traiter le cancer de la prostate, chez des patients atteints d’une maladie avancée. Ce traitement a permis une réduction de plus de 30 % de la tumeur, ainsi qu'une diminution spectaculaire des taux circulants d’antigène prostatique spécifique (PSA), un marqueur sécrété par la prostate qui est souvent élevé par le cancer. Les taux sanguins de cellules myéloïdes ont également chuté chez les patients qui ont reçu un traitement, et les biopsies après le traitement ont également révélé moins de cellules myéloïdes dans leurs tumeurs.

Ces résultats s’appuient sur plus d’une décennie de travail mené par des équipes de l’ICR, du Royal Marsden et de l’IOR pour comprendre comment les cellules myéloïdes alimentent les cancers de la prostate. Cela a commencé par une observation surprenante que les patients atteints d’un cancer de la prostate agressif et résistant avaient des niveaux beaucoup plus élevés d’ARN myéloïde dans leur sang. Les recherches menées par cette équipe internationale ont depuis montré que les cellules myéloïdes à l’intérieur des tumeurs entrent dans un état de sommeil appelé "sénescence" et deviennent des "usines hormonales", produisant des signaux qui favorisent la croissance, la division et la survie des tumeurs. Ils envoient ensuite d’autres signaux à la moelle osseuse pour recruter d’autres cellules myéloïdes et entretenir ce cycle néfaste. Cette nouvelle étude est la première à prouver que le blocage de cette voie a une activité antitumorale chez les humains atteints d’un cancer de la prostate. Il s’agit d’un exemple de traitement qui fonctionne en perturbant l’écosystème du cancer.

Article rédigé par Georges Simmonds pour RT Flash

ICR

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top