RTFlash

RTFLASH Recherche & Technologie
NUMERO 1188
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 13 Janvier 2023
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
Première mondiale : un outil d'IA validé dans une étude scientifique pour le diagnostic du cancer du sein…
Matière
Une nouvelle technique permet d’éliminer efficacement l’arsenic dans l’eau
Une avancée dans les champs magnétiques pourrait accélérer la maîtrise de la fusion nucléaire
Vivant
Une nouvelle méthode pour tuer les cellules cancéreuses du cerveau
La vitamine D améliore le fonctionnement du cerveau
Prendre en compte la pression artérielle globale pour mieux évaluer les risques cardiovasculaires
Maladie d’Alzheimer : vers un test sanguin fiable détectant des oligomères toxiques des années avant le diagnostic
Maladies métaboliques : le mode de vie l’emporte largement sur la génétique
Réduction des triglycérides et risque cardiovasculaire : le débat rebondit !
La Terre aurait déjà connu, non pas cinq, mais six extinctions massives…
Le Covid sévère entraîne un vieillissement considérable du cerveau
La défense antivirale régule la fonction intestinale et la santé intestinale globale
La lutte contre le cancer est plus efficace à l’aube
Cancer du sein : rééquilibrer le microbiote pour prévenir les métastases…
Dépistage du cancer du poumon : la détection précoce porte à 80 % le taux de survie à 20 ans
Première mondiale à Toulouse : pour traiter son cancer, les chirurgiens extraient son rein avant de le retransplanter avec un robot
Edito
Il faut décarboner plus vite les transports maritimes



Le hasard a voulu, qu'au moment où je finalisais cet édito, Le Figaro a publié, en exclusivité, l'information annonçant que les Chantiers de l'Atlantique avec le Groupe ACCOR avaient lancé la fabrication du plus grand voilier de croisière jamais construit, l'Orient Express Silenseas, d'une longueur de 200 mètres et entraîné, les jours de vent, par 3 voiles de 1.500 m² soit 4500 m² de voilure, ce qui n'a jamais été atteint. De plus, à terme, ce voilier sera entraîné, pour les jours sans vent, par de l'Hydrogène vert.

Lorsqu’on parle de réchauffement climatique et de réduction des émissions de CO2, on évoque souvent l’industrie, les transports routiers, ou encore le chauffage des bâtiments. Pourtant il existe un secteur d’activité bien moins médiatisé et fortement émetteur de CO2 et pollueur, qui a à peine commencé sa mutation verte, les transports maritimes. En 2022, l’ensemble de la flotte mondiale, et ses 100 000 bateaux, dont la moitié de navires marchands, ont assuré 90 % du commerce mondial, acheminant, en 2021, 11 milliards de tonnes de marchandises sur toutes les mers du globe, soit 1,4 tonne par habitant de la planète !

Résultat : les transports maritimes ont émis environ 1,2 milliard de tonnes de CO2 (une progression d’un tiers depuis 1990), soit plus de 3 % des émissions mondiales. Ces navires, non contents de contribuer de manière croissante au réchauffement climatique, utilisent en outre très majoritairement une forme visqueuse de pétrole, dont la combustion difficile provoque des émissions de CO₂, mais aussi de méthane (CH₄) et de protoxyde d’azote (N₂O).

Mais ce n’est pas tout. Ces navires relâchent dans l’atmosphère des particules de soufre et des particules fines, particulièrement dangereuses pour la santé et l’environnement, qui provoquent ou aggravent de nombreuses pathologies cardio-vasculaires, respiratoires, et neurologiques, chez les populations vivant à proximité des ports et des côtes. Le fret maritime, tous les experts s’accordent sur ce point, va poursuive son développement au cours de ce siècle et l’OMI (Organisation maritime internationale) prévoit un doublement des flux de transport sur les mers d’ici à 2050.

Depuis deux ans, le émissions de CO2 générées par le transport maritime sont reparties à la hausse de près de 5 % par an, par rapport à 2020, selon le courtier britannique Simpson Spence Young. Parmi les segments du transport maritime qui ont enregistré les plus fortes hausses de leurs émissions figurent les méthaniers, du fait de la forte demande en gaz. Dans un tel contexte, l’OMI aura du mal à tenir ses nouveaux engagements, réduire au moins de moitié les émissions de CO2 d'ici 2050 par rapport aux niveaux de 2008. Simpson Spence Young n’y va d’ailleurs pas par quatre chemins et souligne que « la stratégie de l'OMI visant à réduire l'intensité énergétique et l'intensité de carbone du transport maritime mondial ne permettra pas de réduire de manière significative les émissions de CO2. Nous estimons qu'environ 75 % des flottes de pétroliers et de vraquiers ne seront pas conformes aux nouvelles normes internationales et européennes sans mesures coercitives ».

Il résulte de cette évolution que, sans ruptures technologiques majeures en matière de carburants et de modes de propulsion, le transport maritime, bien que son coût environnemental par tonne/km soit 4 fois inférieur au transport ferroviaire et 30 fois inférieur au transport par route, risque de voir sa contribution aux émissions mondiales de CO2 passer de 3 % à 17 %, d’ici 2050, ce qui n’est pas acceptable, compte tenu des enjeux climatiques. Lors de la récente conférence mondiale pour le climat à Charm El-Cheikh, plusieurs pays ont d’ailleurs demandé à l’Organisation maritime internationale d’être plus ambitieuse et de viser, non plus la réduction de moitié de leurs émissions de CO2, mais bien le « zéro carbone » d’ici à 2050.

Adopté il y a quelques semaines, le nouveau cadre réglementaire européen qui entrera en vigueur progressivement, à partir de 2023, devrait permettre d’accélérer la transition énergétique de ce secteur économique vital. Bien plus strict et contraignant que le cadre de l’Organisation Maritime Internationale, il prévoit d’inclure le transport maritime dans le système communautaire d’échange de quotas d’émission (SEQE), une décision qui obligera pour la première fois les exploitants de navires à payer pour leurs émissions de carbone. Selon le Parlement européen, cet accord maritime permettra d’économiser quelque 120 millions de tonnes de carbone par an, soit deux fois plus que l’interdiction de la vente de véhicules polluants dans l’UE.

Mais il va falloir aller plus vite. Armateurs et constructeurs estiment que la réduction de la vitesse de 10 %, associée à l’utilisation de nouveaux matériaux, à l’optimisation informatique des traversées et à l’amélioration de l’efficacité des systèmes de propulsion, devrait permettre un gain de 25 % de carburant, à charge égale. Pour aller plus loin, le transport maritime va également devoir passer à de nouveaux carburants décarbonés, associés de manière ingénieuse à l’utilisation de voiles "high tech".

Il y a quelques semaines, les Chantiers de l’Atlantique ont livré leur premier paquebot, le "MSC World Europa" fonctionnant au Gaz Naturel Liquide (GNL) et émettant 25 % de CO2 en moins qu’un paquebot classique (et plus du tout d’oxyde de soufre). Mais le gaz naturel liquéfié n'est qu’une solution transitoire et ne suffira pas pour décarboner le transport maritime. L’Europe veut favoriser l’utilisation du couple méthanol-hydrogène pour le transport maritime, en finançant notamment l’ambitieux programme MyMethShip, qui veut proposer une alternative viable aux piles à combustible. Il est vrai qu’à autonomie identique, les réservoirs de méthanol prennent deux fois moins de place sur les navires que ceux conçus pour transporter de l’hydrogène. Comme le souligne le chercheur Benjamin Jäger, de l’Institut Fraunhofer, « Le méthanol est un vecteur d’hydrogène idéal pour le transport maritime. Sa densité énergétique étant deux fois plus élevée que celle de l'hydrogène liquide, les réservoirs de méthanol à bord n’ont besoin que de la moitié de la taille. Il peut également être transporté en toute sécurité ».

Avec ce procédé, l’hydrogène est produit en fonction des besoins, en mélangeant le méthanol à de l’eau. Un réacteur à haute température transforme alors en gaz, par reformage, ce liquide. Autre avantage, ce cycle permet de récupérer la chaleur dégagée lors du fonctionnement du moteur thermique. L’hydrogène obtenu alimente un moteur thermique classique, toutefois modifié pour fonctionner de manière optimale avec ce gaz. La voie du méthanol, sous réserve que celui-ci soit bien entendu produit à partir d’énergies renouvelables, est prometteuse pour permettre au transport maritime d’atteindre ses objectifs drastiques de réduction de ses émissions de CO2 d’ici 2050. Le groupe finlandais Wärtsilä vient ainsi d’être retenu pour fournir son système de propulsion hybride à base de méthanol pour quatre nouveaux navires de transport lourd en cours de construction au chantier naval de Wuhu en Chine. Ces navires, qui seront livrés en 2025, ont été commandés par Heavy Lift GmbH, une compagnie allemande spécialisée dans le transport lourd. Il y a quelques semaines, Cosco a opté à son tour pour le méthanol. Le quatrième transporteur maritime mondial de conteneurs a commandé douze porte-conteneurs de 24 000 EVP bicarburant, pour une valeur de près de 2,5 milliards d’euros.

En aout dernier, un appel d'offres lancé par le port d'Amsterdam, a été remporté par le projet Neo Orbis, qui sera construit par Next Generation Shipyards. Ce navire très innovant sera mis en service dès cette année dans le port d'Amsterdam, puis naviguera dans les canaux de la ville. Le Neo Orbis sera le premier bateau au monde à fonctionner grâce à de l'hydrogène stocké sous forme solide dans du borohydrure de sodium (NaBH4). Ce composé est dissous et réagit ensuite avec un catalyseur pour libérer de l'hydrogène qui alimente à son tour une pile à combustible. Ce procédé remarquable permet un stockage de l’hydrogène à la fois plus sûr et plus dense, car le NaBH4 peut être stocké à température et pression ambiantes et libérer 126 kg d'hydrogène par m3 (contre 70 kg/ m3 pour l'hydrogène liquide et 40 kg/m3 pour sa forme gazeuse).

De son côté, Louis Dreyfus Ports and Logistics (LPDL, filiale de Louis Dreyfus Armateurs logistique) a annoncé, il y a quelques jours, avoir obtenu une approbation de principe de la société de classification coréenne Korean Register (KR) pour un concept de navire dont la propulsion associera de l’hydrogène et de l’ammoniac liquide. LDPL souhaite commercialiser dès 2026 ce nouveau type de navire, pour mettre en place une chaîne d’approvisionnement continu en énergies renouvelables et lever ainsi l’obstacle de la production par nature intermittente de ces énergies

Ce concept, baptisé FRESH (Solution d’énergie renouvelable flottante pour l’hydrogène), repose sur un mode de stockage bien moins onéreux que celui utilisant des batteries classiques. Concrètement, l’idée est de stocker en mer de l’ammoniac liquide vert, produit à partir d’hydrogène issu des énergies renouvelables par électrolyse. L’ammoniac, gazeux peut être facilement stocké à l'état liquide (-33 degrés). L’innovation de ce procédé réside dans le fait que ce stockage est prolongé, dans la partie supérieure du navire, d’un système pour le craquage et filtrage de l’ammoniac, afin de le convertir en hydrogène et en azote. Il suffit alors d’utiliser l’hydrogène dans une pile à combustible pour produire de l’électricité. Tout l’intérêt de ce couple complémentaire ammoniac-hydrogène est d’utiliser l’ammoniac comme vecteur pour stocker l’hydrogène qui occupe naturellement beaucoup de volume à l’état gazeux et nécessite beaucoup d’énergie pour être comprimé ou liquéfié à très basse température. Ce type de navire sera polyvalent. Il pourra livrer de l’ammoniac ou de l'hydrogène à des navires fonctionnant avec ces carburants ou proposer l'hydrogène à terre, dans le secteur de l’industrie et des transports.

Cet hydrogène sera transféré par des structures mobiles, comme des citernes à hydrogène, par des bouées de déchargement ou à quai via des canalisations adéquates. Le système pourra également, à terme, fonctionner dans les deux sens et convertir de l’hydrogène en ammoniac, en utilisant sur ces plates-formes maritimes de l’hydrogène provenant de producteurs terrestres. L’ammoniac ainsi produit pourrait être transféré en tant que carburant pour le transport maritime longue distance et la boucle serait alors bouclée… LPDL envisage de construire un navire de 145 mètres de long, d’une capacité de 20.000 m3 d’ammoniac liquide, équipé de quatre propulseurs électriques qui utiliseront de l'ammoniac comme carburant. Et contrairement aux navires de transport de GPL de 80.000 m3, qui ne peuvent pas entrer dans tous les ports, ces navires FRESH, avec leur faible tirant d’eau, pourront accéder facilement à toutes les installations portuaires.

Le constructeur australien Provaris Energy vient d’obtenir l'approbation de l'ABS (American Bureau of Shipping) pour concevoir et mettre en service en 2026 le premier navire dédié au transport d'hydrogène comprimé au monde. Baptisé H2Neo, le futur navire de Provaris pourra transporter 26 000 m³ d'hydrogène. Le transporteur sera équipé de deux grands réservoirs cylindriques, conçus pour résister aux chocs les plus violents et constitués de plusieurs couches d'acier au carbone et d'une couche intérieure en acier inoxydable. Le chargement de l'hydrogène comprimé dans les réservoirs sera combiné à une solution de production d'hydrogène vert par électrolyse installée à quai. Cette solution évitera de stocker de l'hydrogène à terre.

Mais toutes ces avancées technologiques et logistiques, tant en matière de structure que de propulsion et de carburants, ne suffiront pas pour que le transport maritime aille assez vite vers le "zéro carbone". C’est pourquoi ce secteur est en train de redécouvrir, en version moderne, une source d’énergie gratuite et inépuisable connue depuis au moins 6000 ans, la voile. Plusieurs études, dont celle de Wind Ship et de l'Institut supérieur d'économie maritime (Isemar) estiment qu’un bateau sur dix, soit 10.000 navires, pourrait être équipé de systèmes véliques d'ici à 2030. Actuellement, plusieurs dizaines de navires, propulsés par le vent, sont à l'essai en mer. On peut citer le « Canopée », un cargo de 121 mètres de long de la PME nantaise Zéphyr & Borée ; ou le cargo de 81 mètres que la compagnie finistérienne Towt a commandé au chantier Piriou. Selon les spécialistes, le vent permet de réduire jusqu’à 20 % la consommation de carburant pour des navires existants, et jusqu'à 30 % sur des navires conçus dès l’origine pour le vent.

Wisamo, filiale de Michelin, travaille sur une aile gonflable et a signé un partenariat avec la Compagnie maritime nantaise. Elle équipera le cargo MN Pélican d'un prototype de 100 mètres carrés qui sera bientôt testé dans les eaux du golfe de Gascogne. Cette aile gonflable, rétractable et automatisable est révolutionnaire et peut s’adapter sur les navires marchands et de plaisance. Les premiers essais réalisés en Suisse sur le Lac Neufchâtel, ont été très concluants. A Nantes, une autre société, Airseas, teste depuis quelques mois une voile similaire à celle des kitesurfs. Ce système vélique a été baptisé "SeaWing" ( ailes marines »). Il permet d’économiser 20 % de carburant et de réduire de 20 % les émissions de CO2 d’un cargo. SeaWing se déplie et se replie de manière autonome. Ce système analyse automatiquement les données météorologiques et océaniques de son environnement en temps réel, ce qui lui permet d’optimiser en permanence son efficacité et ses performances. A Saint-Nazaire, les Chantiers de l'Atlantique testent leur concept vélique "Solid Sail", un gréement rigide en composite verre-polyester-carbone d’une surface prévue de 1200 m2 qui se déplie et replie automatiquement comme un accordéon. Le Solid Sail vise d’abord le marché en plein essor des paquebots, sur lesquels ce système de propulsion vélique devrait permettre une réduction des émissions de 40 %. La société Loiretech et la start-up Farwind développent, en collaboration avec l’Ecole Centrale de Nantes, leur concept de rotors Flettner, des structures cylindriques de 50 mètres en composite. Ce système de 1000 m2 va être testé en 2023 sur un navire de 154 mètres de long, le « Ville de Bordeaux") qui transporte des composants d'avions pour Airbus. Mais immanquablement la vedette revient, depuis l'annonce de ce jour, à l'Orient Express Silenseas qui déploiera 4.500 m² de voiles en utilisant le concept vélique "Solid Sail" des Chantiers de l'Atlantique

Il est important de préciser que ces « voiles », sont d’autant plus efficaces et sûres, qu’elles exploitent toutes les potentialités nouvelles des nouveaux matériaux, de la robotique, et de la modélisation et la prévision informatique. On estime, en restant prudent, que la généralisation de ces différents systèmes véliques à l’ensemble des futurs navires (fret et passagers), pourrait permettre de réduire intrinsèquement d’au moins 20 % leur consommation d’énergie et leurs émissions de CO2.

Il faut souligner, pour conclure, que la France, grande puissance maritime, est en pointe dans la recherche et le développement de ces nouveaux systèmes, outils et modes de propulsion, qui visent tous à décarboner, de manière économiquement rentable, les transports maritimes. Il va de soi que notre pays doit tout mettre en œuvre pour conserver cette précieuse avance technique et industrielle, qui va contribuer de manière décisive à accélérer la nécessaire transition énergétique de l’ensemble des transports maritimes et sera également fortement créatrice d’emplois et de valeur ajoutée.

René TRÉGOUËT

Sénateur honoraire

Fondateur du Groupe de Prospective du Sénat

e-mail : tregouet@gmail.com


TIC
Information et Communication
Première mondiale : un outil d'IA validé dans une étude scientifique pour le diagnostic du cancer du sein…
Mercredi, 11/01/2023 - 12:51

Pour la première fois au niveau mondial, un algorithme basé sur une intelligence artificielle est validé cliniquement pour le diagnostic du cancer du sein, qui consiste en des prélèvements de tissus pour effectuer un examen. L’intelligence artificielle, renommée Galen Breast, a été développée dans l’objectif de réduire les erreurs et d’améliorer la qualité du diagnostic.

Grâce à des méthodes d’apprentissage profond - le fameux "deep learning" -  l’algorithme de l’IA est aujourd'hui capable d'identifier plus de 50 caractéristiques mammaires spécifiques. Cela a été rendu possible grâce à plus de deux millions d’échantillons d’images et 18 spécialistes. Ils ont entraîné cet algorithme afin de garantir un diagnostic robuste et fiable. Les échantillons d’entraînement pour l’algorithme ont été sélectionnés à l’aide de plusieurs critères, comme par exemple des cas mammaires choisis au hasard ou encore des échantillons avec des caractéristiques particulières peu communes (sous-types rares de cancer invasif). Cependant, Galen Breast n’a pas pour vocation de remplacer les médecins. Cet outil fournit des informations qui permettent de détecter l’avancée de différents types de cancer du sein et ainsi affiner la précision du diagnostic.

Aujourd’hui, le cancer du sein est le plus fréquent chez les femmes dans le monde, avec plus de 2,2 millions de nouveaux cas chaque année. Il devient primordial d’établir un diagnostic précis et rapide afin de prendre en charge les patientes de façon efficace. Cependant, l’augmentation de l’incidence globale du cancer du sein et la diminution du nombre de pathologistes (moins 17 % entre 2007 et 2017) rend cette tache difficile. A ce jour, l'algorithme est uniquement entraîné pour diagnostiquer des échantillons de biopsies sur lame (échantillons traités et colorés selon différents procédés). Les travaux à venir ont pour objectif de former l'IA à détecter les pathologies du sein directement sur des échantillons chirurgicaux.

Article rédigé par Georges Simmonds pour RT Flash

Institut Curie

^ Haut
Matière
Matière et Energie
Une nouvelle technique permet d’éliminer efficacement l’arsenic dans l’eau
Jeudi, 12/01/2023 - 09:16

L’arsenic provoque de nombreuses maladies comme le cancer de la peau, le cancer du poumon ou la kératose. Or, plus de 50 millions de personnes en Asie du Sud sont exposées à des eaux contaminées par ce matériau fortement cancérigène. Des chercheurs de l’Imperial College London ont alors travaillé avec la Diamond Light Source et le synchrotron national du Royaume-Uni pour chercher un nouveau matériau capable de retirer efficacement l’arsenic de l’eau. Ils ont découvert un nanomatériau, le TiO2/Fe2O3, capable de débarrasser l’eau de ses particules d’arsenic. Cette nanomolécule se fixe à l’arsenic grâce à l’action combinée de l’oxydation photocatalytique et de l’adsorption. De ce fait, ce nouveau matériau permet de filtrer l’arsenic en une seule étape. 

L’arsenic est un élément toxique notoire. Environ 100 à 200 millions de personnes dans le monde sont exposées quotidiennement à cet élément chimique. Même à l’état de traces, il peut entraîner des maladies débilitantes et potentiellement mortelles. Avant de pouvoir être filtré, l’arsenic doit d’abord être oxydé. Sans ce prétraitement (oxydation), la filtration de l’arsenic serait inefficace. Or, certains ions arsénite, dont l’As(III), sont difficiles à oxyder en raison de leur charge neutre (H3AsO3). Ils ne s’oxydent qu’en présence de photocatalyseurs et de rayons ultraviolets. De ce fait, les procédés de décontamination d’eau actuels sont extrêmement complexes et se font sur plusieurs étapes. Pour pallier ce problème, le professeur Weiss et son équipe ont créé le TiO2/Fe2O3. Ce nanomatériau composite oxyde et filtre l’arsenic en une seule étape. 

L’équipe, dirigée par le professeur Dominik Weiss, a réalisé une spectroscopie d’absorption des rayons X pour étudier les réactions de l’arsenic avec le TiO2/Fe2O3. Elle a ensuite comparé ces données de spectroscopie avec leurs modèles prédictifs. Les résultats publiés dans la revue scientifique Results in Surfaces and Interfaces montrent que ce nouveau matériau permet de décontaminer efficacement l’arsenic dans l’eau. C’est pourquoi les chercheurs n’ont pas hésité à déposer un brevet pour l’exploitation du TiO2/Fe2O3. 

Ils veulent démocratiser l’utilisation de ce nanomatériau pour la décontamination de l’arsenic. Ils espèrent notamment qu’il pourra être incorporé dans une colonne de filtration pour retirer l’arsenic des réserves d’eau potable souterraine. Contrairement aux méthodes actuelles de purification d’eau, cette technologie est bon marché et beaucoup plus efficace. Elle pourrait aider à améliorer la qualité de l’eau consommée par de millions de personnes dans le monde.

Article rédigé par Georges Simmonds pour RT Flash

Phys

Une avancée dans les champs magnétiques pourrait accélérer la maîtrise de la fusion nucléaire
Samedi, 07/01/2023 - 11:01

Récemment, des chercheurs américains, du National Ignition Facility, ont démontré qu’une avancée concernant les champs magnétiques a permis de tripler la production d’énergie propre d’une de leurs expériences de fusion. Le National Ignition Facility (NIF) a la taille d’un stade de sport. L’énergie et la puissance uniques du NIF permettent d’explorer de nouvelles frontières de la science et jeter les bases d’une source d’énergie propre et durable. NIF est le système laser le plus précis au monde. Il guide, amplifie, réfléchit et concentre avec précision 192 faisceaux laser puissants dans une cible de la taille d’une gomme de crayon en quelques milliardièmes de seconde, délivrant plus de 2 millions de joules d’énergie ultraviolette et 500 billions de watts de puissance. NIF génère des températures d’environ 100 millions de degrés Celsius et des pressions de plus de 100 milliards atmosphères terrestres. Ces conditions extrêmes font que les atomes d’hydrogène de la cible fusionnent et libèrent de l’énergie dans une réaction thermonucléaire contrôlée.

La fusion nucléaire pourrait donc constituer une source d’énergie propre, sans générer de déchets radioactifs et de rejets de gaz à effet de serre. De plus, les isotopes d’hydrogène utilisés pour la fusion se trouvent en quantité importante sur terre et de façon pérenne. Mais l’un des défis technologiques consiste à maintenir le combustible à une température suffisamment élevée pendant une durée suffisamment longue. Récemment, dans une technique appelée fusion par confinement inertiel (ICF) — où les lasers initient la réaction nucléaire —, les chercheurs du NIF ont démontré qu’un champ magnétique améliore le "chauffage", permettant de produire beaucoup plus d’énergie. La fusion inertielle consiste à apporter, via des faisceaux laser, une quantité suffisante d’énergie à une très petite quantité de deutérium et de tritium contenue dans une capsule de quelques millimètres de diamètre. Cette capsule, ou cible, est très fortement comprimée pour à la fois la chauffer et l’amener à une densité très élevée. La matière est alors ionisée et forme un plasma.

Il y a deux schémas pour la fusion inertielle. Le schéma dit en attaque directe consiste à impacter directement avec les faisceaux laser cette capsule composée d’isotopes d’hydrogène. L’autre schéma consiste à mettre la capsule dans un cylindre métallique, de longueur centimétrique. Ce cylindre comporte deux trous d’entrée pour les faisceaux laser. Ces derniers impactent les surfaces internes du cylindre, chauffent le métal qui émet des rayons X. Ces rayons X compriment la capsule, produisant une réaction de fusion. C’est ce schéma de fusion inertielle qui est en œuvre au NIF. En 2012,  des chercheurs de l’installation laser OMEGA de l’Université de Rochester, à New York, ont démontré qu’un champ magnétique modifie considérablement le flux de chaleur dans un combustible chauffé par laser. Ce champ, en effet, fournit une isolation autour de la région la plus chaude du combustible, offrant un moyen d’améliorer le chauffage et éventuellement le rendement de la réaction.

En présence d’un champ magnétique, les électrons du plasma sont forcés de suivre des trajectoires hélicoïdales le long des lignes de champ magnétique, entrant ainsi moins souvent en collision les uns avec les autres. Ce comportement ralentit le flux de chaleur vers le carburant environnant plus froid et fournit une chaleur supplémentaire dans le point chaud, nous rapprochant du niveau requis pour un allumage auto-entretenu dans les plasmas. Le NIF a déjà amené ses expériences au bord de l’allumage. Les rendements énergétiques atteints durant ces expériences sont complètement compensés par l’énergie nécessaire à ces réactions auto-entretenues dans les plasmas en premier lieu. Pourtant, la réalisation de l’allumage est une étape importante vers la création d’un éventuel système "à l’équilibre", qui produit plus d’énergie en sortie qu’en entrée.

Les chercheurs ont utilisé des simulations informatiques pour étudier les avantages potentiels de la magnétisation pour les performances du NIF. Traditionnellement, ils mettent en œuvre une capsule de combustible, située à l’intérieur d’un cylindre d’or. Mais ajouter un champ magnétique puissant générerait des courants électriques dans les parois du cylindre qui le détruiraient. Pour contourner ce problème, Moody et ses collègues ont expérimenté des alliages pour créer un cylindre métallique à faible conductivité électrique. Ils ont découvert qu’un alliage d’or et de tantale pouvait tolérer le champ magnétique élevé. Concrètement, ils ont développé leur expérience magnétisée en enroulant une bobine autour d’une version de cylindre fabriqué à partir de cet alliage contenant une capsule de carburant remplie de deutérium pur. Ils ont alors appliqué un champ magnétique de 26 teslas en faisant passer un courant à travers la bobine, juste avant d’allumer les lasers.

C’est ainsi que le point chaud au NIF est apparu 40 % plus chaud et produisait plus de trois fois le rendement énergétique par rapport aux expériences précédentes, un résultat encore meilleur que les prévisions. Selon Pascal Loiseau, physicien des plasmas au Commissariat aux énergies alternatives et à l’énergie atomique (CEA), ces résultats sont "remarquables" et constituent une preuve de concept pour l’assistance magnétique au NIF. À des fins de sécurité, cette expérience a été réalisée avec une configuration simplifiée, notamment en utilisant le deutérium seul et en modérant la puissance du laser. Dans les futures expériences de puissance supérieure qui utilisent deux formes d’hydrogène (deutérium et tritium), Moody anticipe un deuxième effet qui augmentera les performances. Les particules à haute énergie générées lors des réactions nucléaires seront piégées par les lignes de champ. Ces particules chargées passeront plus de temps à déposer de l’énergie dans le point chaud, fournissant plus de chaleur avant de s’échapper. Ces résultats suggèrent donc que les aimants pourraient jouer un rôle clé dans le développement de cette forme d’énergie futuriste, qui pourrait théoriquement fournir un approvisionnement pratiquement illimité en énergie propre.

Article rédigé par Georges Simmonds pour RT Flash

Physics

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Une nouvelle méthode pour tuer les cellules cancéreuses du cerveau
Jeudi, 12/01/2023 - 09:03

Les premiers essais en laboratoire sont très encourageants. Une équipe de chercheurs de l'Université de Saskatchewan au Canada a publié fin novembre les résultats d’une nouvelle méthode visant à traiter le cancer du cerveau. Cette technique inédite consiste à loger des aiguilles directement dans l’organe cérébral pour atteindre la tumeur cancéreuse et lui administrer de légères décharges électriques. Réalisée In vitro, l’expérience portait sur deux protocoles baptisés "électroporation irréversible" et "électroporation irréversible à haute fréquence". Les scientifiques ont découvert que certaines intensités électriques parvenaient à tuer les cellules du glioblastome, la forme de cancer la plus fréquente et la plus agressive. Dans le détail, une série de 90 impulsions de 1 hertz pendant 100 microsecondes s’est révélée très efficace. 

Au-delà de son efficacité, cette méthode présente le grand avantage de ne pas détruire les autres cellules en ne ciblant que la tumeur. Ici, le dosage de l’impulsion prend toute son importance. En effet, les cellules tumorales peuvent être tuées avec un champ électrique plus faible que celui qui éliminerait les cellules saines environnantes. Une petite révolution comparée à la chimiothérapie ou aux rayons qui peuvent également endommager des zones saines. 

Mais dans les cas où un traitement complémentaire serait indispensable, l’impulsion électrique représente là aussi un atout de taille. Les chercheurs ont observé que les décharges permettaient d’abaisser temporairement la barrière hémato-encéphalique qui protège notre cerveau de l’invasion de certaines molécules. C’est cette barrière qui rend habituellement le traitement par chimiothérapie peu efficace, voire inopérant. « Notre technique peut contribuer à ouvrir cette barrière, de sorte que le cerveau est mieux à même de recevoir d'autres traitements et d'aider le patient à combattre la tumeur de manière systématique », estime Chris Ziang, coauteur de l'étude.

Article rédigé par Georges Simmonds pour RT Flash

JBE

La vitamine D améliore le fonctionnement du cerveau
Jeudi, 12/01/2023 - 08:58

Les chercheurs de Tufts ont terminé la première étude examinant les niveaux de vitamine D dans les tissus cérébraux, en particulier chez les adultes qui souffraient de taux variables de déclin cognitif. Ils ont découvert que les membres de ce groupe ayant des niveaux plus élevés de vitamine D dans leur cerveau avaient une meilleure fonction cognitive. « Cette recherche confirme que le choix aliments et nutriments que nous mangeons est très important pour protéger notre cerveau contre le déclin cognitif et des maladies telles que la maladie d'Alzheimer et d'autres démences apparentées », souligne la Docteure Sarah Booth, auteure principale.

La vitamine D est impliquée dans de nombreuses fonctions et mécanismes biologiques, y compris les réponses immunitaires et le maintien de la santé des os. Les sources alimentaires de vitamine D se trouvent principalement dans les poissons gras et les produits laitiers, sans oublier une brève exposition au soleil, qui permet également la synthèse de la vitamine D. Ces chercheurs ont examiné des échantillons de tissu cérébral de 290 participants au Rush Memory and Aging Project, une étude à long terme sur la maladie d'Alzheimer qui a débuté en 1997. Des chercheurs de l'Université Rush ont évalué la fonction cognitive des participants, des personnes âgées sans aucun signe de déficience cognitive, à mesure qu'ils vieillissaient, et ont analysé les irrégularités de leur tissu cérébral après la mort.

Dans l'étude Tufts, les chercheurs ont recherché la vitamine D dans quatre régions du cerveau : deux associées à des changements liés à la maladie d'Alzheimer, une associée à des formes de démence liées à la circulation sanguine et une région sans aucune association connue avec un déclin cognitif lié à la maladie d'Alzheimer. Ils ont découvert que la vitamine D était effectivement présente dans les tissus cérébraux et que des niveaux élevés de vitamine D dans ces quatre régions du cerveau étaient corrélés à une meilleure fonction cognitive.

Article rédigé par Georges Simmonds pour RT Flash

Tufts

Prendre en compte la pression artérielle globale pour mieux évaluer les risques cardiovasculaires
Jeudi, 12/01/2023 - 08:54

Une étude menée par des chercheurs du Groupe médical Kaiser Permanente,  comprenant plus de 36 millions de lectures de tension artérielle provenant de plus d'un million de personnes, s’oppose à des décennies de recherche montrant que l'hypertension systolique est la plus susceptible de provoquer des effets indésirables. Selon cette étude, s'inquiéter d'une pression artérielle systolique élevée (le chiffre supérieur d'une lecture de tension artérielle) ne suffit plus. Une tension artérielle diastolique élevée (le chiffre du bas sur une lecture de tension) est également un marqueur du risque cardiovasculaire.

Les chercheurs de Kaiser Permanente ont découvert que, même si la pression artérielle systolique a un effet plus important, les deux pressions, systolique et diastolique, affectent de manière importante le risque de crise cardiaque ou d'accident vasculaire cérébral. « Cette recherche apporte une grande quantité de données sur une question fondamentale et donne une réponse aussi claire : dans tous les cas, les pressions systolique et diastolique sont importantes », souligne l’auteur principal Alexander C. Flint.

La pression artérielle systolique mesure la puissance avec laquelle le cœur pompe le sang dans les artères, tandis que la pression diastolique indique la pression exercée sur les artères lorsque le cœur est au repos entre les battements. Le Docteur Flint explique que la découverte que les deux composants de la pression artérielle aient des effets similaires sur le risque cardiovasculaire au seuil inférieur de 130/80 justifie les récentes modifications apportées aux directives de l'American College of Cardiology et de l’American Heart Association, qui conseillent un contrôle plus régulier de la pression artérielle chez les patients à haut risque souffrant d’hypertension.

Article rédigé par Georges Simmonds pour RT Flash

Kaiser Permanente

Maladie d’Alzheimer : vers un test sanguin fiable détectant des oligomères toxiques des années avant le diagnostic
Mardi, 10/01/2023 - 16:40

Quelques semaines après l'annonce de l'équipe de Thomas Karikari et de ses collègues de l'Université de Pittsburgh, des chercheurs de l'Université de Washington ont, à leur tour, présenté un test sanguin - appelé Soba (pour Soluble Oligomer Binding Assay) - capable de détecter un oligomère toxique de la protéine bêta-amyloïde des années avant l'apparition des symptômes de la maladie d'Alzheimer. Dans le même temps, les deux tests de diagnostic du laboratoire Roche - Elecsys beta-Amyloid (1-42) CSF II (Abeta42) et Elecsys Phospho-Tau (181P) CSF (pTau181), déjà autorisés dans 45 pays dont tous ceux acceptant le marquage CE, ont été approuvés par la Food and Drug Administration (FDA).

De nombreux travaux ont par ailleurs déjà montré que la maladie commence à s'installer bien avant les troubles cognitifs et le diagnostic, avec la survenue de protéines bêta-amyloïdes qui se replient mal, s'agglutinent et forment des oligomères bêta-amyloïdes. Les chercheurs de l'Université de Washington ont mis en évidence dans une étude précédente que ces oligomères sont constitués de structures dites en feuillets alpha. Ils ont développé un feuillet alpha synthétique capable de neutraliser ces oligomères toxiques. Ainsi, en analysant les oligomères fixés à la surface de ce peptide synthétique dans des échantillons sanguins, ils peuvent mesurer les niveaux d'oligomères bêta-amyloïdes chez les patients.

Au total, 379 échantillons sanguins prélevés chez 310 patients ont été utilisés pour évaluer la pertinence de cette approche. Au sein du groupe contrôle, des oligomères ont été détectés dans le sang de 11 personnes. Et un suivi de 10 d'entre elles a montré qu'elles ont toutes développé des années plus tard une déficience cognitive légère ou une pathologie cérébrale compatible avec la maladie d'Alzheimer. Tandis que les autres individus du groupe contrôle n'ont pas développé de déficience et ne présentaient pas d'oligomères toxiques dans leur échantillon. Avec une sensibilité et une spécificité de 99 %, le test a aussi permis de détecter les oligomères bêta-amyloïdes toxiques dans les échantillons de sang des patients présentant une maladie d'Alzheimer et de les distinguer des autres formes de démence. « Nous pensons que ce test pourrait aider à identifier les personnes à risque ou en phase d'incubation de la maladie, et servir d'indicateur d'efficacité thérapeutique pour faciliter le développement de traitements précoces de la maladie d'Alzheimer », estime Valerie Daggett qui a dirigé ces travaux. Les chercheurs ont par ailleurs montré que l'approche Soba peut être adaptée de façon à détecter les oligomères toxiques d'un autre type de protéine associée à la maladie de Parkinson et à la démence à corps de Lewy.

Article rédigé par Georges Simmonds pour RT Flash

UW

Maladies métaboliques : le mode de vie l’emporte largement sur la génétique
Mardi, 10/01/2023 - 16:33

Une étude de l'Université de l'État de Washington montre que la pratique d’un exercice régulier améliore non seulement le fonctionnement métabolique de l’organisme, mais modifie également en profondeur le "comportement" des gènes, en favorisant l’expression des gènes bénéfiques à notre santé et en bloquant l’activité de ceux qui prédisposent à certaines maladies.

Cette étude réalisée sur 70 paires de vrais jumeaux (ayant donc un génome identique), montre de façon très claire que les jumeaux les plus actifs physiquement présentent bien moins de symptômes de maladies métaboliques, comme les AVC, les infarctus ou le diabète de type 2. Comme ces vrais jumeaux identiques possèdent les mêmes gènes, l'étude suggère que les marqueurs des ces maladie métaboliques sont fortement influencés par les modes de vies et faiblement liés à la génétique. Comme le souligne Michael Skinner, qui a dirigé ces recherches, « Nos travaux montrent que l'exercice physique exerce, via les mécanismes épigénétiques, un effet protecteur bien plus puissant que prévu pour prévenir ou retarder de nombreuses maladies métaboliques ».

Ces travaux montrent notamment que les jumeaux qui pratiquaient plus de 150 minutes d'exercice par semaine présentaient des modifications épigénétiques importantes dans des zones appelées régions de méthylation de l'ADN, qui étaient corrélées à une réduction de l'indice de masse corporelle et du tour de taille. Ces régions sont également associées à plus de cinquante gènes qui ont un effet protecteur, en réduisant les facteurs de risque métaboliques. « Si le poids de la génétique était déterminant, les jumeaux devraient avoir sensiblement les mêmes maladies, à la même fréquence et au même âge. Mais cela n’est pas le cas, ce qui prouve que l’impact du mode de vie (alimentation, exercice, travail, loisirs) joue un rôle majeur en matière de prévention de nombreuses maladies », précise l’étude…

Article rédigé par Georges Simmonds pour RT Flash

WSU

Réduction des triglycérides et risque cardiovasculaire : le débat rebondit !
Mardi, 10/01/2023 - 16:28

Un vaste essai menée par une équipe du Brigham and Women's Hospital(BWH) montre qu’une réduction des triglycérides n’a aucun effet significatif de réduction des événements cardiovasculaires, crise cardiaque, accident vasculaire cérébral ou décès de cause cardiovasculaire. Ces conclusions publiées dans le New England Journal of Medicine (NEJM), et présentées lors de la Réunion annuelle scientifique de l'American Heart Association, sont qualifiées par les auteurs-mêmes de « déroutantes et importantes sur le plan clinique ». Déroutantes, car les niveaux de triglycérides sont régulièrement mesurés dans le cadre du suivi de cardiologie et la réduction des triglycérides avec plusieurs classes de médicaments est une pratique médicale courante.

Cet essai randomisé majeur qui a porté précisément sur le médicament pémafibrate qui abaisse les niveaux de triglycérides n’identifie en effet aucune réduction des événements cardiovasculaires chez ces patients suivis en moyenne durant 5 ans. Le médicament a cependant permis une réduction des triglycérides moyenne de 26 % vs placebo. L’auteur principal, le Docteur Aruna Pradhan, du département de médecine cardiovasculaire du BWH confirme l’efficacité du médicament à réduire les triglycérides et le cholestérol résiduel, mais relève : Le pémafibrate est un agoniste de PPARα. Ces médicaments réduisent le niveau de triglycérides dans le sang par plusieurs mécanismes. Le pémafibrate, développé par Kowa Company, Ltd en tant que modulateur sélectif de PPARα (SPPARMα), est autorisé au Japon et dans certains autres pays asiatiques ; les fibrates conventionnels tels que le fénofibrate sont approuvés pour une utilisation dans le monde entier, y compris aux États-Unis.

"PROMINENT" est le nom de cet essai, soutenu justement par le Laboratoire Kowa Research Institute, Inc., et mené auprès de 10.497 patients atteints de diabète de type 2, présentant une augmentation des taux de triglycérides et de faibles taux de cholestérol HDL ("bon cholestérol"). Son critère d'évaluation principal est l’incidence des événements cardiovasculaires (crise cardiaque, AVC, nécessité d'un pontage coronarien ou d'une angioplastie, décès de cause cardiovasculaire). Ce critère est recensé chez 572 participants assignés au hasard au traitement par pémafibrate ; chez 560 participants ayant reçu le placebo ; aucune différence statistique n’est ainsi relevée entre les groupes ; au-delà, le médicament a été généralement bien toléré et apparaît efficace à réduire les taux de stéatose hépatique non alcoolique (NAFLD ou foie gras non alcoolique), une condition fréquente chez les personnes atteintes de diabète et d'obésité. Ces résultats d’efficacité du pémafibrate vs NAFLD vont devoir être répliqués et confirmés par d’autres études. Des essais cliniques sont d’ailleurs déjà en cours. Cependant, contrairement à de précédentes études, l’essai PROMINENT remet clairement en question l'utilité de la réduction des triglycérides dans la prise en charge des patients à risque de maladie cardiaque. Affaire à suivre…

Article rédigé par Georges Simmonds pour RT Flash

NEJM

La Terre aurait déjà connu, non pas cinq, mais six extinctions massives…
Mardi, 10/01/2023 - 16:24

Une extinction de masse désigne un événement ayant entraîné la disparition d’au moins 75 % des espèces présentes sur Terre. Les paléobiologistes affirment que notre planète a déjà connu cinq principaux épisodes de ce type ; certains estiment que nous sommes en train de vivre la sixième extinction. Mais la liste ne s’arrête pas là : des chercheurs de Virginia Tech ont découvert que la Terre aurait subi une extinction de masse il y a environ 550 millions d’années. Ce serait ainsi la toute première extinction que notre planète ait connue.

À ce jour, l’extinction de l’Ordovicien-Silurien, survenue il y a environ 440 millions d’années, est considérée comme la première de notre planète. Celle-ci s’est vraisemblablement produite à la suite d’une grande glaciation, à laquelle auraient succombé près de 85 % des espèces, faute de réussir à s’adapter à ces nouvelles conditions. Mais des preuves suggèrent aujourd’hui qu’un autre événement d’extinction l’aurait précédée : une diminution de la disponibilité mondiale d’oxygène aurait entraîné la perte d’une majorité d’animaux présents vers la fin de l’Édiacarien, il y a environ 550 millions d’années. Le déclin soudain de la diversité fossile il y a 550 millions d’années est connu depuis longtemps, mais les scientifiques n’avaient pas pu en déterminer la cause avec certitude. Il était possible que les espèces en présence soient entrées en compétition pour la survie, s’éliminant les unes les autres, ou simplement que les conditions environnementales de l’époque n’étaient pas propices à la préservation des fossiles édiacariens. Une nouvelle étude permet aujourd’hui d’affirmer que ce déclin résulte bel et bien d’une extinction de masse.

Notre planète compte cinq extinctions de masse connues, les "Big Five", selon Shuhai Xiao, professeur de géobiologie à Virginia Tech : (il y a 440 millions d’années), l’extinction du Dévonien tardif (il y a 370 millions d’années), l’extinction du Permien-Trias (il y a 250 millions d’années), l’extinction du Trias-Jurassique (il y a 200 millions d’années) et enfin, l’extinction du Crétacé-Paléogène (il y a 65 millions d’années), qui a anéanti environ 75 % des plantes et des animaux, y compris les dinosaures non aviens. Toutes sont liées à des changements environnementaux majeurs et à grande échelle. Un changement climatique ou un événement de désoxygénation peut entraîner une extinction massive d’animaux, ainsi qu’une perturbation et une réorganisation profondes des écosystèmes. Ce premier événement d’extinction survenu lors de l’Édiacarien n’échappe pas à la règle : lui aussi a été induit par une modification significative de l’environnement.

Près de 80 % des animaux vivant sur Terre auraient disparu lors de cette première extinction massive. « Cela comprenait la perte de nombreux types d’animaux différents, mais ceux dont les plans corporels et les comportements indiquent qu’ils dépendaient d’importantes quantités d’oxygène semblent avoir été particulièrement touchés », explique Scott Evans, chercheur postdoctoral au Département des géosciences de Virginia Tech et premier auteur de l’étude décrivant l’événement. Les fossiles à corps mou du biote d’Ediacara – du nom des collines situées au sud de l’Australie où ont été découverts ces fossiles en 1946 – font partie des plus anciens organismes pluricellulaires complexes connus. Les empreintes fossiles datant de la période édiacarienne – soit d’environ -635 à -539 millions d’années- montrent que les animaux qui ont péri lors de cette extinction de masse avaient une apparence très étrange, en forme de feuille, de plume ou de tube.

Selon Evans, les organismes de l’époque semblaient expérimenter différentes façons de construire leurs grands corps multicellulaires. Par conséquent, les fossiles mis au jour, datant d’avant l’extinction, ne correspondent pas toujours aux classifications actuelles des animaux. « Cette extinction a peut-être contribué à ouvrir la voie à l’évolution des animaux tels que nous les connaissons », conclut le chercheur. À savoir que la plupart des plans d’organisation animaux existant aujourd’hui sont apparus au cours du Cambrien (soit la période qui succède à l’Édiacarien). Evans et ses collègues ont scrupuleusement examiné et catalogué l’ensemble des fossiles de la période édiacarienne décrits dans la littérature. Ils ont ainsi identifié 70 genres d’animaux, dont seuls 14 existaient encore quelque 10 millions d’années plus tard. L’équipe n’a toutefois trouvé aucun signe suggérant que ces animaux étaient en concurrence avec les premiers animaux du Cambrien, ni rien qui pouvait expliquer la non-préservation des fossiles. En revanche, les animaux qui ont survécu arboraient tous un plan d’organisation favorisant la survie en cas d’anoxie : une surface corporelle relativement élevée par rapport à leur volume. Des preuves géochimiques confirment par ailleurs une faible disponibilité d’oxygène dans les océans il y a 550 millions d’années.

Qu’est-ce qui a causé cette baisse de la disponibilité globale de l’oxygène ? « La réponse courte à la façon dont cela s’est produit est que nous ne savons pas vraiment », a déclaré Evans. En réalité, plusieurs événements, individuels ou combinés, pourraient être à l’origine du phénomène, explique le scientifique : éruptions volcaniques, mouvements de plaques tectoniques, impact d’astéroïde, etc. Des changements dans les niveaux de nutriments des océans pourraient être une autre cause possible. 

Article rédigé par Georges Simmonds pour RT Flash

PNAS

Le Covid sévère entraîne un vieillissement considérable du cerveau
Mardi, 10/01/2023 - 16:20

Des chercheurs du Beth Israel Deaconess Medical Center (BIDMC), affiliés avec l’Université de Harvard, ont montré que de nombreuses voies biologiques, qui changent lors du vieillissement naturel du cerveau, présentaient des modifications similaires chez les patients ayant eu une Covid-19 sévère. « Notre étude est la première à montrer que la Covid-19 est associée aux signatures moléculaires du vieillissement cérébral », a expliqué la co-auteure Maria Mavrikaki, enseignante en pathologie au BIDMC et à la Harvard Medical School. « Nous avons trouvé des similitudes frappantes entre le cerveau des patients atteints de la Covid-19 et celui des personnes âgées ».

La scientifique et son équipe sont parvenues à cette conclusion après avoir analysé un total de 54 échantillons de tissu de cortex frontal d'adultes âgés de 22 à 85 ans prélevés post-mortem. 21 prélèvements provenaient de patients Covid-19 sévères et un d'un malade asymptomatique. Ils ont été comparés à ceux de personnes n’ayant pas contracté la maladie et sans antécédents neurologiques. Des échantillons venant d’un groupe témoin ayant été en soins intensifs ont aussi été utilisés pour cette expérience. « Nous avons observé que l'expression des gènes dans le tissu cérébral des patients décédés de la Covid-19 ressemblait étroitement à celle des personnes non infectées de 71 ans ou plus », a indiqué le Docteur Jonathan Lee, co-auteur de la recherche.

« Bien que nous n'ayons trouvé aucune preuve que le virus Sars-CoV-2 était présent dans le tissu cérébral au moment du décès, nous avons découvert des schémas inflammatoires associés à la Covid-19. Cela suggère que cette inflammation peut contribuer aux effets de type vieillissement observés dans le cerveau des patients atteints de la Covid-19 et du Covid long », ajoute-t-il. Pour les chercheurs, ces travaux confirmant le lien entre le coronavirus et le vieillissement cérébral doivent conduire à repenser la prise en charge des malades affectés par le Sars-CoV-2. « Compte tenu de ces résultats, nous plaidons pour un suivi neurologique des patients Covid-19 récupérés », a déclaré l'auteur principal, le Docteur Frank Slack, directeur du Institute for RNA Medicine au BIDMC. Dans son article, il préconise aussi de recommander à ces patients de modifier les comportements associés à des facteurs de démence comme contrôler le poids ou éviter la consommation excessive d'alcool afin de réduire le risque de développer des pathologies neurologiques liées au vieillissement.

Article rédigé par Georges Simmonds pour RT Flash

Harvard

La défense antivirale régule la fonction intestinale et la santé intestinale globale
Mardi, 10/01/2023 - 16:14

Outre la peau, le tube digestif est le tissu le plus exposé aux influences environnementales telles que les bactéries et les virus. Par conséquent, les cellules qui forment ces barrières à l’intérieur du corps ont également des mécanismes de défense spéciaux. Une équipe de recherche dirigée par le professeur Thorsten Hoppe a maintenant montré que l’interférence ARN, ou ARNi en abrégé, qui est connue pour être un mécanisme de défense virale, empêche également la surproduction des propres protéines de l’organisme dans les cellules intestinales. L’étude ‘ER-Associated RNA Silencing Promotes ER Quality Control’ a été publiée dans la revue Biologie Cellulaire Nature.

L’ARNi est capable de reconnaître, de lier et finalement de dégrader l’ARN des virus. Cela empêche la production de protéines virales. Avec l’aide de protéines fluorescentes vertes et d’autres analyses dans le nématode Caenorhabditis elegans, l’équipe de recherche de l’UoC a pu montrer que l’ARNi intervient également dans les cellules lors de la production de protéines pour maintenir l’équilibre protéique (homéostasie protéique) des cellules intestinales. La propre production de protéines du corps commence par la copie de l’ADN et la création de la molécule matrice, également connue sous le nom d’ARN messager (ARNm), dans le noyau cellulaire.

L’ARNm est ensuite acheminé vers le réticulum endoplasmique (RE), où une protéine est produite à partir de la molécule matrice. Comme dans une usine, les protéines fabriquées sont soumises à un contrôle qualité strict. Les protéines déficientes sont exportées du RE et dégradées pour éviter les déchets cellulaires et les conséquences négatives étendues pour la physiologie et la fonctionnalité de la cellule ainsi que des tissus. « Nous avons observé que le mécanisme ARNi dégrade spécifiquement les ARN messagers au niveau du RE avant même que la protéine ne soit produite. Cela permet d’éviter que les urgences ne soient surchargées par une production excessive », a déclaré le Docteur Franziska Ottens, l’un des premiers auteurs de l’étude. Les scientifiques ont ainsi trouvé un nouveau mécanisme pour réguler la production de protéines.

L’interaction entre l’ARNi et les systèmes de contrôle de qualité ER précédemment connus semble être importante pour la santé intestinale globale. Ceci est démontré par le fait que la défaillance simultanée des deux mécanismes altère l’importante fonction de barrière de l’intestin. Les résultats de l’étude suggèrent également un lien entre la fonctionnalité des urgences et le contrôle de la qualité, qui sont importants pour la protection contre les infections virales. Par exemple, les virus à ARN tels que le SRAS-CoV utilisent le RE pour la réplication. « Nous avons pu supprimer de manière significative les charges virales en surchargeant spécifiquement les urgences. L’interaction de l’homéostasie des protéines, de l’ARNi et de l’infection virale pourrait être une approche importante pour la recherche prospective et le traitement des maladies virales », a déclaré le doctorant Sotirios Efstathiou, membre de l’équipe de Thorsten Hoppe et autre premier auteur de l’étude.

Article rédigé par Georges Simmonds pour RT Flash

Crumpe

La lutte contre le cancer est plus efficace à l’aube
Mardi, 10/01/2023 - 16:03

Des scientifiques de l’UNIGE et de l’Université de Munich ont montré que l’activité antitumorale du système immunitaire — et l’efficacité des immunothérapies contre le cancer — varie selon l’heure de la journée. La capacité des tumeurs à s’implanter et à croître dépend notamment de l’efficacité du système immunitaire à les combattre. Les cellules cancéreuses, comme tout pathogène, peuvent en effet être identifiées et ciblées par une réponse immunitaire spécifique, ce que visent à renforcer les traitements par immunothérapie pour mieux combattre la maladie. Dans de précédentes études, une équipe de l’Université de Genève (UNIGE) et de l’Université Ludwig-Maximilian de Munich (LMU) avait montré que l’activation du système immunitaire était modulée selon le moment de la journée, indiquant un pic d’efficacité tôt le matin chez les êtres humains. Aujourd’hui, l’équipe de recherche démontre que la rythmicité du système immunitaire — et en particulier celle des cellules dendritiques, ses sentinelles — a un impact jusqu’ici insoupçonné sur la croissance tumorale, ainsi que sur l’efficacité des traitements immunothérapeutiques. Ces premiers résultats, à découvrir dans la revue Nature, indiquent que le simple fait de modifier l’heure de l’administration d’un traitement le rendrait plus efficace.

Les horloges biologiques régulent la plupart des processus physiologiques des êtres vivants sur un rythme d’environ 24 heures. Et le système immunitaire ne fait pas exception. « En étudiant la migration des cellules dendritiques dans le système lymphatique, l’un des éléments les plus essentiels de la réponse immunitaire, nous avions mis en évidence le fait que l’activation immunitaire oscille tout au long de la journée, avec un pic à la fin de la phase de repos habituelle, juste avant la reprise de l’activité », relate Christoph Scheiermann, professeur au Département de pathologie et immunologie, au Centre de recherche sur l’inflammation (GCIR) et au Centre de recherche translationnelle en onco-hématologie (CRTOH) de la Faculté de médecine de l’UNIGE, qui a dirigé ces travaux. « Ici, nous nous concentrons sur le cancer afin d’évaluer comment cette modulation temporelle affecte les tumeurs ».

Les scientifiques ont injecté des cellules de mélanomes à des groupes de souris à six moments différents de la journée, puis suivi l’évolution tumorale pendant deux semaines. « En ne modifiant que l’heure de l’injection, nous avons observé des résultats très surprenants : les tumeurs implantées l’après-midi se développent peu, alors que celles implantées durant la nuit grandissent beaucoup plus rapidement, suivant en cela le rythme d’activation du système immunitaire des souris », détaille Chen Wang, chercheur dans le laboratoire de Christoph Scheiermann et premier auteur de cette étude. L’équipe de recherche a ensuite reproduit l’expérience avec des souris dépourvues de système immunitaire. « Il n’y avait alors plus de différence liée à l’heure de la journée, confirmant ainsi que la croissance des tumeurs est bien influencée par la réponse immunitaire. Les premières cellules immunitaires activées sont les cellules dendritiques de la peau, que l’on retrouve 24 heures plus tard dans le ganglion lymphatique. Les lymphocytes T sont alors activés et attaquent la tumeur ». De plus, en supprimant les horloges internes des cellules dendritiques, le rythme d’activation du système immunitaire disparaît, confirmant leur rôle clé dans ce système.

Dernière étape, les chercheurs/euses ont administré, à différents moments de la journée, un traitement par immunothérapie à des souris dont l’implantation tumorale avait eu lieu en même temps. « Ce vaccin thérapeutique consistait en un antigène spécifique à la tumeur, très similaire à ce qui est utilisé pour traiter les malades. Administré l’après-midi, l’effet bénéfique était là encore augmenté ». Afin de savoir si ces résultats se retrouvaient chez les êtres humains, les scientifiques ont réexaminé les données de patient-es traité-es par des vaccins thérapeutiques contre un mélanome. Et en effet, leurs lymphocytes T spécifiques contre le mélanome — éléments essentiels de l’activation immunitaire — répondaient mieux aux traitements administrés tôt le matin, ce qui correspond au profil circadien humain inversé par rapport aux souris, des animaux nocturnes. « C’est très encourageant, mais il ne s’agit que d’un examen rétrospectif sur un petit groupe de dix personnes », souligne Christoph Scheierman.

Article rédigé par Georges Simmonds pour RT Flash

Unige

Cancer du sein : rééquilibrer le microbiote pour prévenir les métastases…
Lundi, 09/01/2023 - 12:56

Une étude menée à l’University of Virginia Health System a révélé une relation surprenante entre la santé intestinale et le cancer du sein: un microbiote malsain et mal équilibré ou dysbiose intestinale, prépare la voie à la propagation du cancer du sein. Ces travaux révèlent comment la santé intestinale, déjà documentée comme clé dans le développement de nombreuses maladies, favorise la métastase. Le microbiote intestinal ou les communautés microbiennes qui vivent naturellement à l'intérieur de nos intestins, peut être perturbé par une mauvaise alimentation, l'utilisation à long terme d'antibiotiques, l'obésité ou de nombreux autres facteurs. Lorsque cela se produit, le microbiome malade reprogramme d'importantes cellules immunitaires dans le tissu mammaire sain, des mastocytes, ce qui facilite la propagation du cancer.

Ces travaux révèlent ainsi des interactions complexes entre nos microbes intestinaux et les mastocytes du sein. Les mastocytes sont des cellules sanguines qui aident à réguler la réponse immunitaire du corps aux maladies et aux allergènes. Le microbiome malsain provoque l'accumulation de mastocytes dans le sein, ces changements s’accélèrent après la formation de tumeurs -ici chez la souris modèle de cancer du sein HER2 positif, faisant du tissu mammaire un terrain de déclenchement privilégié de propagation du cancer à d'autres parties du corps.

L’examen d’échantillons de tissus prélevés sur des patientes humaines atteintes d'un cancer du sein HER2 confirme ce nombre accru de mastocytes et ces dépôts en excès de collagène. Le nombre de mastocytes apparaît corrélé à la quantité de collagène ainsi qu’au risque de récidive du cancer du sein. Ces découvertes appellent donc à d’autres recherches, mais ouvrent déjà la voie à de nouveaux traitements capables de bloquer la métastase du cancer du sein, souligne l’auteur principal, le Dr Melanie R. Rutkowski, de l’UVA Cancer Center : car le blocage du processus d’accumulation de mastocytes permet de réduire considérablement la propagation de la tumeur à d’autres sites du corps. Un objectif crucial, alors que le taux de survie à 5 ans d'un cancer du sein métastatique tourne autour de 30 %.

Article rédigé par Georges Simmonds pour RT Flash

AACR

Dépistage du cancer du poumon : la détection précoce porte à 80 % le taux de survie à 20 ans
Lundi, 09/01/2023 - 12:53

La découverte précoce d’un cancer du poumon grâce à un scanner annuel à faible dose améliore considérablement les taux de survie à long terme, qui peuvent atteindre jusqu’à 80 %, selon les résultats d’une étude internationale menée sur 20 ans, présentés lors du congrès annuel 2022 de la Radiological Society of North America (RSNA) par la Dre Claudia Henschke, professeure de radiologie et directrice du Early Lung and Cardiac Action Program (ELCAP – Icahn School of Medicine, Université Mount Sinai, New York). Ces données sont particulièrement encourageantes alors que, selon l’American Lung Association, seuls 16 % des cancers du poumon sont détectés à un stade précoce et que plus de la moitié des personnes atteintes d’un cancer du poumon meurent dans l’année qui suit le diagnostic.

Cette étude à long terme confirme que le cancer du poumon peut être guéri à condition qu'il soit diagnostiqué à un stade précoce, comme le permet le dépistage par scanner à faible dose.

Le taux de survie des participants sur 20 ans est de 80 % Dans l’étude prospective internationale Early Lung Cancer Action Program (I-ELCAP), les chercheurs ont étudié la survie spécifique au cancer du poumon chez 87 416 participants.

Les résultats de cette vaste étude internationale ont montré que le taux de survie global à 20 ans des 1 285 participants au dépistage chez qui un cancer au stade précoce a été diagnostiqué était de 80 %. Parmi les 1 285 personnes diagnostiquées, 83 % avaient un cancer de stade 1, a précisé la Dre Henschke. Parmi les 1 285 personnes diagnostiquées avec un cancer du poumon, 83 % avaient un cancer de stade 1.

Pour les participants atteints d’un cancer du poumon de stade pathologique IA dont la tumeur mesurait 10 mm de diamètre moyen ou moins, le taux de survie à 20 ans avec identification et résection était de 92 %. Ces résultats montrent que les conclusions de l’étude sur 10 ans datant de 2006 publiées dans le New England Journal of Medicine, qui indiquaient également des taux de survie à 80 % avec le scanner à faible dose, se maintiennent encore aujourd’hui, a-t-elle déclaré. En 2006, 95 % des Américains chez qui un cancer du poumon avait été diagnostiqué en mouraient.

Le Docteur Ernest Hawk, chef de la Division de la prévention du cancer et des sciences de la population (Université du Texas MD Anderson Cancer, Houston, États-Unis), a déclaré que les résultats étaient "très prometteurs". « Il s’agit de l’une des premières études à avoir évalué le scanner à faible dose. Le fait que les avantages observés en 2006 semblent se maintenir sur une plus longue période d’observation est excellent. Cela renforce les données selon lesquelles le dépistage du cancer du poumon est bénéfique sur une période d’observation plus longue », a-t-il déclaré.

Article rédigé par Georges Simmonds pour RT Flash

RSNA

Première mondiale à Toulouse : pour traiter son cancer, les chirurgiens extraient son rein avant de le retransplanter avec un robot
Lundi, 09/01/2023 - 12:46

Une patiente de 68 ans, souffrant d'un cancer du rein, a bénéficié d'un geste chirurgical inédit au Centre hospitalier universitaire (CHU) de Toulouse en septembre dernier. Pour la première fois, les Docteur Nicolas Doumerc et Thomas Prudhomme, chirurgiens du département d'urologie et transplantation rénale à l'hôpital Rangueil, ont réalisé une ablation de trois tumeurs rénales "hors du corps" de la patiente ("ex-vivo" dans le langage médical), sur une table à côté d'elle, après avoir extrait le rein par chirurgie robotique. Une fois débarrassé des tumeurs cancéreuses, le rein a été auto-transplanté de manière robot-assistée, c’est-à-dire réimplanté un peu plus bas dans l'abdomen de la patiente afin de réparer l'uretère endommagé par des traitements précédents.

L’ensemble de cette séquence, en chirurgie robot-assistée et mini-invasive (une seule incision dans la fosse iliaque), a permis à la patiente de récupérer rapidement, de conserver son rein et de ne plus avoir de poche de recueil des urines (néphrostomie). « L'objectif était vraiment d'éviter l'ablation totale du rein, de préserver le capital néphronique de la patiente. Il fallait bien sûr traiter son cancer mais en essayant de ne pas rendre son quotidien encore plus compliqué avec une néphrostomie (poche de recueil des urines, NDLR). Avec des tumeurs sur les deux reins et des risques de récidive, il est important de préserver chaque rein », souligne le Docteur Nicolas Doumerc.

« Au départ de sa prise en charge, en octobre 2021, la patiente avait été traitée par thermo-ablation percutanée (source de chaleur introduite à travers la peau) en radiologie interventionnelle afin d'éliminer six tumeurs sur le rein gauche et quatre sur le rein droit. La réponse a été complète sur le rein droit mais il restait encore trois tumeurs sur le rein gauche et difficiles d'accès.

La technique thermique avait par ailleurs endommagé une partie de l'uretère, le canal qui relie le rein à la vessie, nécessitant la pose d'une poche pour dériver les urines. Nous avions alors deux options : soit on enlevait complètement le rein, soit on essayait d'enlever le rein pour le traiter avant de le réimplanter sur la partie saine de l'uretère. Extraire un rein par chirurgie robotique, nous le faisons deux fois par semaine dans le cadre des greffes rénales à partir d'un donneur vivant, enlever des tumeurs, ce n'est pas compliqué, et réimplanter un rein à la manière d'une greffe robot-assistée nous savons aussi très bien le faire. Il fallait juste tout mettre bout à bout », explique encore le Docteur Nicolas Doumerc.

L'intervention n'avait donc pas été programmée pour réaliser une première. « À la fin, mon interne, Thomas Poirier, m'a dit que ça n'avait jamais été fait. Il a vérifié en cherchant dans les archives des publications médicales et c'était effectivement une première. Nous n'avions pas réfléchi à ça mais nous avions l'expertise tout au long de la chaîne », résume le Docteur Nicolas Doumerc.

Trois mois après l'intervention, le contrôle par scanner n'a pas montré de lésion ou de reprise du cancer. « Cela montre l'intérêt qu'il y a à conserver le rein. Celui-ci reste accessible, en cas de récidive, pour un traitement radiologique. Dans le cancer du rein, s'il ne reste qu'un rein, c'est toujours plus compliqué de traiter : en cas de complications, on va direct vers l'insuffisance rénale dont on sait qu'elle est un facteur de risque de mortalité. Au CHU de Toulouse, centre universitaire et d'expertise, notre rôle est de montrer qu'il est possible de conserver la fonction rénale tout en traitant le cancer car on vit mieux sans dialyse. Dans le cancer du rein, on suit les patients comme pour une maladie chronique et on jongle en permanence entre les différentes techniques de traitement (thermoablation ou radiofréquence, cryothérapie, chirurgie) », conclut le chirurgien.

Article rédigé par Georges Simmonds pour RT Flash

La Dépêche

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top