RTFlash

RTFLASH Recherche & Technologie
NUMERO 1247
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 01 Mars 2024
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
Reactome : un outil d'IA révolutionnaire pour accélérer la conception de nouvelles molécules
Une IA qui lit dans les pensées et les transcrit en texte...
Matière
Grâce aux microturbines, nos conduites d'eau pourraient générer beaucoup d'électricité
Une technologie transformant toute lumière en énergie pourrait rendre inutiles les piles
Vers une batterie solide à 6000 cycles
Vivant
Une activité physique quotidienne réduit sensiblement la mortalité par cancer du poumon
Découverte des cellules à l'origine du cancer du sein
Un superantibiotique contre les bactéries résistantes
Les nanorobots alimentés par l’urée réduisent les tumeurs de la vessie de 90 % chez la souris
VIH : un traitement très précoce, possible clé d’une rémission durable
Accouchement : un dialogue cellulaire subtil entre le fœtus et sa mère
Un grand brûlé sauvé grâce au sang de ver marin d'Hemarina
Le virus Zika s'avère très efficace pour éliminer les tumeurs chez les souris
Un régime végétarien réduit les risques d'infection de 39 %
La culture de tissus sur puce révolutionne la médecine
Edito
Hyperloop et Maglev : ne laissons pas la Chine dominer les transports mondiaux du futur…



On le sait, pour éviter un embrasement climatique qui aurait des conséquences désastreuses pour l’humanité, le monde doit tendre vers une décarbonation complète d’ici 2050 ou du moins redescendre à cette échéance en dessous des 10 gigatonnes de CO2 (contre 40 gigatonnes aujourd’hui), niveau jugé compatible par les scientifiques avec la capacité d’absorption du CO2 par notre planète. Aujourd’hui, le secteur des transports, avec ses 1,5 milliard de véhicules (dont seulement vingt millions de véhicules électriques) représente, avec environ 15 gigatonnes de CO2 par an, le deuxième secteur le plus émetteur de GES, derrière celui de la production d’électricité. Le transport aérien, pour sa part, représente déjà près de 3 % des émissions mondiales de CO2, soit plus d’un milliard de tonnes par an. Mais si l’on tient compte des effets, longtemps sous-estimés des traînées de givre des avions, son effet global sur le réchauffement climatique est estimé à plus de 5 %. Et selon les dernières prévisions concordantes des grandes compagnies aériennes, le nombre d’avions dans le monde devrait doubler au cours des 20 ans qui viennent, portant la flotte mondiale à 46.930 appareils, contre 22.880 en 2020. Quant au nombre de passagers transportés, il pourrait passer de quatre milliards par an en 2023, à plus de dix milliards en 2050…

Certes, l'Organisation de l'aviation civile internationale (Oaci), une agence des Nations unies, a réussi à faire signer par 193 pays, le 7 octobre 2022, un accord ambitieux prévoyant une aviation civile neutre en carbone en 2050. Mais, outre le fait que cet accord ne soit pas juridiquement contraignant, beaucoup de scientifiques et d’ingénieurs doutent qu’il soit possible de concilier à la fois un doublement attendu du trafic aérien et une décarbonation complète de ce mode de transport. Selon les compagnies aériennes, aller vers une aviation décarbonée représente un investissement d’au moins 1 550 milliards de dollars d’ici 2050 et suppose de nombreuses ruptures technologiques et industrielles qui restent incertaines en si peu de temps…

Selon l’ADEME, un trajet quotidien de 5 kilomètres pendant un an génère 4,4 kg de CO2 en TGV, et 35 kg en voiture. Un voyage de 500 kilomètres va entraîner des émissions de CO2 de 1,2 kg par personne en TGV, 97 kg en voiture et 203 kg en avion. Si on prend l’exemple d’un trajet Paris-Toulouse, l’ADEME montre que chaque passager émet 79 kg de CO2 en avion contre 1,3 s’il prend un TGV, soit 56 fois moins. L’Agence Internationale de l’Énergie (AIE) souligne que le transport routier représente à lui seul près des ¾ des émissions de GES du transport, l’aviation et le transport maritime près de 12 % chacun. Quant au transport ferroviaire, il n’émet que 1,2 % du CO2 lié aux transports. Toujours selon l’AIE, l’empreinte carbone du transport pourrait augmenter de 60 % d’ici 2050, alors que pour tenir les engagements de l’Accord de Paris sur le climat, nous devons au contraire réduire les émissions liées au transport de passagers de 70 % d’ici 2050.

C’est dans ce contexte que nous allons devoir résoudre une redoutable mais inexorable équation : comment satisfaire une augmentation, même maîtrisée, de la demande mondiale en déplacements et réduire en même temps sensiblement les émissions de CO2 liées aux transports. Une des solutions à cette question-clé réside incontestablement dans le développement de nouveaux modes de transports ferroviaires, à la fois plus rapides, plus sobres en énergie, plus souples et bien sûr avec une très faible empreinte carbone. Parmi ceux-ci, on compte les TGV de nouvelle génération, comme le TGVm, plus économe en énergie, qui entrera en service en 2025, mais également les futurs trains à sustentation magnétique, déclinés dans plusieurs versions technologiques, dont l’une particulièrement disruptive, l’Hyperloop. Imaginé par Elon Musk, ce concept de train à sustentation magnétique se déplaçant à très grande vitesse (de 660 à 1000 Km/h) dans des tubes à basse pression d’air, a été progressivement abandonné ou mis en veilleuse dans de nombreux pays, car sa réalisation se heurte à plusieurs obstacles technologiques, industriels et économiques considérables. En France, la start-up Hyperloop TT, qui s’était installée près de Toulouse, a déposé son bilan, après des promesses fracassantes.

Pourtant, il est un pays, la Chine, qui ne compte pas renoncer à cette rupture majeure dans les transports terrestres et a parfaitement saisi tout l’intérêt qu’elle pouvait tirer à terme du développement, à sa manière, de ce concept audacieux et futuriste. Récemment, une étape importante, mais malheureusement peu médiatisée, a été franchie en Chine, où l’entreprise Casic (China Aerospace Science and Industry Corporation) est parvenue à propulser son prototype Hyperloop à plus de 623 km/h, battant ainsi le record japonais de 603 km/h, enregistré en 2015, pour un train magnétique. Casic souligne, sans donner plus de détails, que ce train expérimental serait en mesure d’atteindre les 1 000 km/h sur une voie d’essai plus longue. Actuellement, la Chine ne compte qu'une seule ligne maglev à usage commercial, reliant l'aéroport Pudong de Shanghai à la gare Longyang dans la ville. Ce Transrapid de Shangaï permet d’effectuer un trajet de 30 km en seulement 7 minutes à bord d'un train atteignant une vitesse de 430 km/h. C'est également la première ligne Maglev à usage commercial au monde. Plusieurs nouveaux réseaux maglev sont prévus, dont un reliant Shanghai et Hangzhou, capitale de la province voisine du Zhejiang, et un autre reliant Chengdu, capitale de la province du Sichuan, et la ville de Chongqing, dans le sud-ouest de la Chine.

Le développement et la promotion du train à grande vitesse restent une priorité majeure en Chine, qui vise à connecter une grande partie de son vaste territoire, pour que le voyage en train soit rapide et accessible au plus grand nombre. En juillet 2023, l’académie chinoise des sciences ferroviaires a annoncé que son projet CR450 progressait rapidement. Ce nouveau concept de train magnétique à très grande vitesse a en effet atteint la vitesse vertigineuse de 453 km/h sur une section du réseau de Fuqing à Quanzhou, établissant ainsi un nouveau record mondial de vitesse sur des voies normales. A terme, la Chine envisage de créer une première ligne maglev reliant les deux plus grandes mégapoles du pays, Pékin et Shanghai (1.300km) en 3h30.

Issu de recherches menées dès 1922 par l’ingénieur allemand Hermann Kemper, le concept de train Maglev (Contraction des mots Magnétique et Lévitation) est développé depuis 1962 au Japon et depuis 1973 en Allemagne. Il repose sur le principe de la répulsion magnétique entre le train et les rails. Les rails contiennent des bobines métalliques interconnectées, qui font fonction d’électroaimants. Le train intègre également des électroaimants supraconducteurs, appelés bogies. À l’arrêt, le Maglev (sauf la version chinoise) repose sur des roues en caoutchouc. Au démarrage, le Maglev avance lentement sur ces roues, permettant ainsi aux aimants situés sous le train d’interagir avec ceux de la voie de guidage. Lorsque ce train atteint 150 km/h, le champ magnétique généré devient suffisamment intense pour soulever le train à 10 cm au-dessus de la voie, éliminant ainsi le frottement pour permettre des vitesses extrêmement élevées, supérieures à 500 km/h, qui seraient impossibles à atteindre, pour des raisons physiques et énergétiques, avec des trains classiques qui sont en contact direct avec les rails. La technologie Hyperloop de Tesla utilise la même technologie qui a l’avantage d’être particulièrement sûre.

En 2009, le Japon, fort de son expérience reconnue dans le domaine de la grande vitesse depuis 1962, a décidé de se doter d’un réseau magnétique Maglev. La ligne Chuo Shinkansen devrait relier les mégapoles de Tokyo et Nagoya, distantes de 345 km, d’ici 2027. Le trajet ne devrait durer que 40 minutes, soit plus rapide que les vols entre les deux villes si nous prenons en considération les temps de déplacements entre les centres villes et les aéroports ainsi que les temps d’embarquement. A terme, d’ici 2037, le Maglev devrait relier Tokyo à Osaka, distantes de 510 km, en moins d’une heure. Au total, plus de la moitié de la ligne Maglev reliant Tokyo à Nagoya sera enterrée, traversant les montagnes et passant sous les zones urbaines.

Pendant ce temps, les concepteurs du Maglev chinois cherchent à rattraper à marche forcée leur retard technologique sur leur éternel rival japonais. Ils ont notamment opté pour des aimants supraconducteurs refroidis à l’azote liquide, bien moins chers que leurs concurrents japonais, qui nécessitent de l’hélium liquide pour fonctionner. Le train magnétique chinois est également conçu de manière à pouvoir léviter à l'arrêt et sans avoir à accélérer au préalable, contrairement au train nippon de la ligne Shinkansen Chūō. En outre, l'utilisation de fibre de carbone devrait diminuer au moins d’un tiers le poids du Maglev chinois, ce qui se répercutera par des économies importantes dans la construction des lignes et des ponts.

En Europe, l’Allemagne, après avoir abandonné en 2008 son projet de liaison en Transrapid (version allemande du Maglev) entre Berlin et Hambourg, vient de décider, en novembre dernier, de relancer les recherches sur le train à sustentation magnétique (Voir TMH). Il est vrai que, dans le cadre de son objectif "Fit for 55 % in 2030" et du nouveau "Pacte vert" pour lutter contre le changement climatique, le Parlement européen a adopté il y a quelques semaines la nouvelle directive européenne sur le climat, qui relève l'objectif de l'UE de réduire les émissions nettes de gaz à effet de serre d'au moins 55 % d'ici 2030 (contre 40 % actuellement) et rend la neutralité climatique d'ici 2050 juridiquement contraignante. Mais la Commission européenne a annoncé en décembre dernier que l’ensemble des mesures déjà prises par les Vingt-Sept leur permettraient d’espérer une baisse de 51 % de leurs émissions de gaz à effet de serre d’ici à 2030, ce qui risque d’être encore insuffisant pour atteindre ce nouvel objectif ambitieux de 55 % pour l’UE. Dans ce contexte, la Commission appelle tous les états-membres à « redoubler d’efforts » pour mettre en œuvre le nouveau Pacte vert européen. L’Europe va devoir notamment accélérer la décarbonation du secteur des transports (voitures, camions, cars et avions) qui représente plus du quart de ses émissions de CO2.

Dans cette perspective, dictée par des impératifs climatiques et environnementaux de plus en plus puissants, l’UE, comme ses états-membres, envisage une véritable réinvention des transports ferroviaires en articulant quatre niveaux de déplacements complémentaires : les futurs trains magnétiques, capables à terme de relier les mégapoles européennes les plus éloignées en moins d’une demi-journée, le réseau à grande vitesse "classique", destiné à compléter, pour un coût économique moindre, ces liaisons structurantes privilégiant la rapidité de déplacement, les TER, destinés à devenir de véritables RER Intercités, et enfin les navettes hybrides (électrique et hydrogène), souples, légères et modulaires, à faible coût d’exploitation, permettant de donner une nouvelle vie aux milliers de km de lignes secondaires abandonnées ou sous-exploitées.

En septembre dernier, une entreprise polonaise Nevomo a créé l’événement en réussissant un test grandeur nature d’un prototype de train magnétique sur une voie classique. Ce train est capable d’utiliser les infrastructures existantes en ajoutant simplement quelques composants supplémentaires sur la voie. Avec des rames adaptées, le train pourrait ainsi atteindre la vitesse maximum de 550 km/h. Lors du test, réalisé sur une voie classique de 720 m de long, le MagRail, leur prototype grandeur nature de 6 m de long, a lévité jusqu’à 20 mm au-dessus du sol, et est passé de 0 à 100 km/h en 11 secondes, pour finalement atteindre une vitesse maximale de 135 km/h. Selon Przemek Ben Paczek, PDG et cofondateur de Nevomo, « En tirant parti des infrastructures existantes, nous proposons une approche rentable et respectueuse de l’environnement pour moderniser le transport ferroviaire ». Cette avancée technologique majeure n’a pas échappé à la SNCF qui a conclu, comme le réseau ferroviaire italien (RFI) un accord de coopération afin d’évaluer l’intérêt et la faisabilité de cette technologie et de transposer ce concept prometteur aux besoins spécifiques de notre pays en matière de grande vitesse.

Mais revenons à la Chine qui s’est réappropriée de manière étonnante le concept d’Hyperloop, en réussissant à combiner de manière ingénieuse et visionnaire le Maglev et le transport ferroviaire en enceinte à basse pression. La Chine vise deux objectifs, d’une part, poursuivre l’aménagement de son immense territoire et d’autre part, maintenir sa compétitivité en développant, d’ici 2050, un réseau Hyperloop d’environ 12 000 Km, qui lui permettrait de relier en moins de sept heures (sur la base d’une vitesse réaliste de 600 km en croisière) les mégapoles chinoises les plus éloignées, distantes de plus de 4000 km, comme Kashi (à l’Est) et Guanzhuo (A l’Ouest au Sud), et Harbin (Au Nord) et Nanning (Au Sud). Ces grandes dorsales pourraient alors se substituer en grande partie au transport aérien, qui ne ferait pas mieux en termes de temps total de trajet, si l’on tient compte des temps incompressibles à prévoir entre le domicile (ou le bureau) et l’avion qui décolle, puis, à l’arrivée, entre l’aéroport et le centre- ville. Mais la Chine vise aussi un autre objectif stratégique mondial : s’imposer, face au Japon, aux Etats-Unis et à l’Europe, comme un acteur technologique, industriel et commercial incontournable sur le futur marché gigantesque de l’ultra rapidité terrestre (de 600 à 1000 km/h) qui va exploser sous l’effet de la lutte contre le changement climatique et de la décarbonation des transports. Quant au coût, souvent présenté comme exorbitant, d’un tel réseau magnétique ultrarapide, il faut le relativiser et le replacer dans une perspective d’investissement sur une génération. Dans le cas de la Chine, un tel réseau Hyperloop de 12 000 km, reliant les principales mégapoles du pays, coûterait environ 1560 milliards de dollars, ce qui représente, étalé sur vingt ans, une dépense de 78 milliards par an, à peine 0, 5 % du PIB annuel de la Chine (17 500 milliards de dollars en 2023). La Chine a donc tout à fait les moyens financiers, et la volonté politique, de réaliser un tel réseau magnétique qui lui permettrait de s’assurer une avance économique et technique décisive sur le reste du monde.

Notre pays, qui a su en son temps lancer de grands projets d’avenir – centrales nucléaires, TGV, Avion supersonique – sous l’impulsion décisive du Général De Gaulle, serait bien inspiré de renouer avec cette capacité visionnaire, en ayant la lucidité et l’audace de lancer lui aussi de grands projets de transports disruptifs à long terme. Un réseau Hyperloop français de 4000 km pourrait relier entre elles toutes nos métropoles de plus de 500 000 habitants, représentant presque la moitié de la population française. Un tel réseau hyperrapide mettrait à moins de deux heures le trajet entre les grandes villes les plus éloignées, ce qui serait une véritable révolution territoriale, économique et sociale. Quant au coût de ce réseau magnétique, il représenterait un investissement annuel d’environ 80 milliards d’euros sur vingt ans, soit à peine 1 % de notre PIB annuel. Si nous avions l’audace et la clairvoyance de lancer un tel projet d’avenir avant la fin de la décennie, il pourrait être achevé d’ici le milieu du siècle et transformerait alors de manière radicale notre pays, en le plaçant sur de bons rails pour affronter les nombreux défis économiques, sociaux et environnementaux qui nous attendent…

René TRÉGOUËT

Sénateur honoraire

Fondateur du Groupe de Prospective du Sénat

e-mail : tregouet@gmail.com


TIC
Information et Communication
Reactome : un outil d'IA révolutionnaire pour accélérer la conception de nouvelles molécules
Mardi, 27/02/2024 - 06:20

Les chercheurs ont développé une plate-forme qui combine des expériences automatisées avec l’IA pour prédire comment les produits chimiques réagiront les uns avec les autres, ce qui pourrait accélérer le processus de conception de nouveaux médicaments. Prédire la façon dont les molécules réagiront est vital pour la découverte et la fabrication de nouveaux produits pharmaceutiques, mais historiquement, cela a été un processus d’essais et d’erreurs, et les réactions échouent souvent. Pour prédire la réaction des molécules, les chimistes simulent généralement les électrons et les atomes dans des modèles simplifiés, un processus coûteux en termes de calcul et souvent inexact.

Aujourd’hui, des chercheurs de l’Université de Cambridge ont développé une approche basée sur les données, inspirée de la génomique, où des expériences automatisées sont combinées avec apprentissage automatique pour comprendre la réactivité chimique, accélérant ainsi considérablement le processus. Ils ont appelé leur approche, qui a été validée sur un ensemble de données de plus de 39 000 réactions pharmaceutiquement pertinentes, le "reactome" chimique. « Le réactome pourrait changer notre façon de penser la chimie organique », a déclaré le Dr Emma King-Smith du laboratoire Cavendish de Cambridge, premier auteur de l’article. « Une compréhension plus approfondie de la chimie pourrait nous permettre de fabriquer des produits pharmaceutiques et de nombreux autres produits utiles beaucoup plus rapidement. Mais plus fondamentalement, la compréhension que nous espérons générer sera bénéfique à tous ceux qui travaillent avec des molécules ».

L’approche du réactome sélectionne les corrélations pertinentes entre les réactifs, les réactifs et les performances de la réaction à partir des données, et souligne les lacunes dans les données elles-mêmes. Les données sont générées à partir d’expériences automatisées très rapides ou à haut débit. « La chimie à haut débit a changé la donne, mais nous pensions qu’il existait un moyen de découvrir une compréhension plus profonde des réactions chimiques que celle qui peut être observée à partir des premiers résultats d’une expérience à haut débit », a déclaré King-Smith. « Notre approche révèle les relations cachées entre les composants de la réaction et les résultats », a déclaré le Docteur Alpha Lee, qui a dirigé la recherche. « L’ensemble de données sur lequel nous avons formé le modèle est énorme : il contribuera à faire passer le processus de découverte chimique de l’essai et de l’erreur à l’ère du Big Data ».

Dans un article connexe, l’équipe a développé une approche d’apprentissage automatique qui permet aux chimistes d’introduire des transformations précises dans des régions prédéfinies d’une molécule, permettant ainsi une conception plus rapide de médicaments. Cette approche permet aux chimistes de modifier des molécules complexes – comme un changement de conception de dernière minute – sans avoir à les fabriquer à partir de zéro. La fabrication d’une molécule en laboratoire est généralement un processus en plusieurs étapes, comme la construction d’une maison. Si les chimistes veulent modifier le noyau d’une molécule, la méthode conventionnelle consiste à reconstruire la molécule, comme si on démolissait la maison et qu’on la reconstruisait à partir de zéro. Cependant, les variations fondamentales sont importantes pour la conception des médicaments.

Une classe de réactions, appelées réactions de fonctionnalisation de stade avancé, tente d’introduire directement des transformations chimiques dans le noyau, évitant ainsi de devoir repartir de zéro. Cependant, il est difficile de rendre sélective et contrôlée la fonctionnalisation à un stade avancé : de nombreuses régions des molécules peuvent généralement réagir, et il est difficile de prédire le résultat. « Les fonctionnalisations à un stade avancé peuvent produire des résultats imprévisibles et les méthodes de modélisation actuelles, y compris notre propre intuition d’expert, ne sont pas parfaites », a déclaré King-Smith. « Un modèle plus prédictif nous donnerait la possibilité d’effectuer un meilleur dépistage ».

Les chercheurs ont développé un modèle d’apprentissage automatique qui prédit où une molécule réagirait et comment le site de réaction varierait en fonction de différentes conditions de réaction. Cela permet aux chimistes de trouver des moyens de modifier avec précision le noyau d’une molécule. « Nous avons pré-entraîné le modèle sur un grand nombre de données spectroscopiques – en enseignant efficacement la chimie générale du modèle – avant de l’affiner pour prédire ces transformations complexes », a déclaré King-Smith. Cette approche a permis à l’équipe de surmonter la limitation du faible niveau de données : il existe relativement peu de réactions de fonctionnalisation à un stade avancé rapportées dans la littérature scientifique. L’équipe a validé expérimentalement le modèle sur un ensemble diversifié de molécules de type médicament et a pu prédire avec précision les sites de réactivité dans différentes conditions.

Article rédigé par Georges Simmonds pour RT Flash

Phys

Une IA qui lit dans les pensées et les transcrit en texte...
Mardi, 27/02/2024 - 06:00

Des chercheurs du GrapheneX-UTS, centre d’intelligence artificielle de l’Université de technologie de Sydney, ont mis au point une technologie qui peut être utilisée pour « faciliter la communication pour les personnes incapables de parler en raison d’une maladie ou d’une blessure, notamment en cas d’accident vasculaire cérébral ».

Dans la vidéo de présentation,  on voit des personnes lire silencieusement des lignes de texte sans ouvrir la bouche. Le dispositif prend la forme d’un casque avec des capteurs posés sur la tête des participants. Un électroencéphalogramme (EEG) enregistre leur activité électrique cérébrale. Au total, les chercheurs ont fait appel à 29 participants. Ils ont testé le casque en lisant silencieusement des lignes de texte.

Ensuite, les signaux électriques captés par le dispositif sont traduits en mots à l’aide d’un modèle d’intelligence artificielle. Celui-ci a été surnommé « DeWave ». L’IA retranscrit les pensées en mots grâce à une grande base de données EEG. Ce système est « le premier à incorporer des techniques de codage discret dans le processus de traduction cerveau-texte, introduisant ainsi une approche innovante du décodage neuronal. L’intégration de grands modèles de langage ouvre également de nouvelles frontières en neurosciences en IA », explique le professeur distingué Chin-Teng Lin qui a dirigé la recherche.

Ce n’est pas la première fois que des technologies pour traduire les signaux cérébraux en langage ont été développées. On pense notamment à la startup américaine Neuralink d’Elon Musk qui a testé des implants cérébraux chez des singes. Neuralink a d’ailleurs obtenu l’autorisation de tester ses implants cérébraux sur des humains l’année dernière.

Le modèle d’IA DeWave présente tout de même plusieurs avantages par rapport à des technologies comme celle de Neuralink. Non seulement elle est moins invasive car elle ne requiert pas d’implant, mais elle est aussi très précise. Les chercheurs ont obtenu un score de précision de 40 %, voire 60 % pour les derniers résultats. D’ailleurs, l’IA reconnaît plus facilement les verbes que les noms. Comme le précise Chin-Teng Lin, « nous pensons que cela est dû au fait que lorsque le cerveau traite ces mots, des mots sémantiquement similaires peuvent produire des ondes cérébrales semblables ». En tout cas, les chercheurs espèrent désormais obtenir un score de précision de 90 % comme les logiciels de traduction ou de reconnaissance vocale.

Article rédigé par Georges Simmonds pour RT Flash

UTS

^ Haut
Matière
Matière et Energie
Grâce aux microturbines, nos conduites d'eau pourraient générer beaucoup d'électricité
Mercredi, 28/02/2024 - 06:10

En 2022, une étude menée par des chercheurs du laboratoire national d’Oak Ridge (Tennessee) s’est intéressée de près à cette forme d’hydroélectricité. Les scientifiques avaient estimé que l’installation de systèmes de ce type à travers les États-Unis pourrait fournir 1,4 GW d’électricité sans nécessiter la construction de nouvelles infrastructures importantes, souligne le New Scientist. Autrement dit, cela correspondrait à l’énergie apportée par 450 éoliennes terrestres environ.

Dans le détail, c’est la surpression présente dans les conduites d’eau qui a le potentiel d’être utilisée pour faire tourner des turbines hydroélectriques miniatures, fournissant ainsi une source d’énergie propre. Un dispositif encore sous-utilisé à l’heure actuelle. Des sociétés, dont le Low Impact Hydropower Institute (une organisation environnementale à but non lucratif basée dans le Massachusetts), envisagent la mise en place d’un réseau constitué de petites turbines. Celles-ci permettraient de stocker l’énergie éolienne et solaire.

L’entreprise InPipe Energy, basée dans l’Oregon, a installé trois systèmes de ce type, dont un à l’extérieur de Portland. « Il existe des milliards de kilomètres de pipelines sous pression dans le monde », analyse l’un de ses représentants, Gregg Semler, auprès de l’hebdomadaire. Forte de ce constat, la firme a commencé, dès l’automne dernier, à produire de l’électricité au niveau d’une conduite qui achemine de l’eau potable jusqu’aux habitants du district des services publics municipaux d’East Bay (EBMUD) en Californie.

Selon les éléments dont dispose le magazine scientifique, ce système devrait être en mesure de produire 130000 kWh d’électricité chaque année. Cette source d’énergie sera ensuite utilisée pour alimenter les pompes à eau situées à proximité. Tout excédent d’électricité sera transmis au réseau, afin d’aider le service public amené à atteindre son objectif de neutralité carbone d’ici 2030 : l’ambition est de réduire les émissions de dioxyde de carbone du service public d’environ 6 tonnes chaque année. Auprès du même média, Gregg Semler assure qu’un système similaire sera installé à Aurora, dans le Colorado, dès le mois d’avril. Par ailleurs, InPipe serait en discussion avec le gouvernement de la ville de New York sur les moyens de produire de l’électricité à partir de près de 4 milliards de litres d’eau qui s’écoulent chaque jour dans la métropole.

Concrètement, le système InPipe fonctionne sur le même modèle qu’une vanne de pression ordinaire qui va dissiper l’excès de pression de l’eau. Mais au lieu de simplement relâcher cette pression, la technologie d’InPipe va s’en servir pour produire de l’électricité. « Nous ne modifions pas le débit de l’eau, mais nous supprimons la pression », précise Gregg Semler.

Article rédigé par Georges Simmonds pour RT Flash

New Scientist

Une technologie transformant toute lumière en énergie pourrait rendre inutiles les piles
Mardi, 27/02/2024 - 06:50

L'entreprise californienne, “Ambient Photonics”, travaille, depuis 2019, sur des cellules solaires d'intérieur, améliorant les performances et le prix de cette technologie émergente. Les cellules peuvent être "imprimées" dans presque toutes les tailles et formes pour être utilisées sur des appareils courants tels que les télécommandes et les claviers sans fil. Ce qui pourrait permettre de se passer de piles et de réduire la taille et le poids des appareils électroniques. Les appareils équipés des dernières “cellules bifaciales” d'“Ambient Photonics”, qui peuvent capter l'énergie lumineuse des deux côtés, ont été présentés au Consumer Electronics Show (CES) 2024 à Las Vegas, aux États-Unis.

S'appuyant à la fois sur la lumière naturelle ombragée et sur la lumière artificielle, comme les LED et les ampoules halogènes, les cellules solaires à faible luminosité sont capables de transformer n'importe quelle source de lumière en énergie. Cela permet aux cellules intégrées de recharger continuellement les appareils sans qu'il soit nécessaire de les brancher. Cette technologie s'appuie sur les cellules solaires à colorant (DSSC) peu coûteuses, apparues dans les années 1990 comme moyen de capter l'énergie de la lumière intérieure de faible intensité. Ces cellules sont plus lentes à convertir l'énergie lumineuse que les cellules au silicium classiques, ce qui signifie qu'elles sont moins efficaces en cas d'ensoleillement direct. Mais elles sont beaucoup moins chères à produire et peuvent fonctionner dans n'importe quelle lumière intérieure. Ce qui signifie qu'elles sont capables de créer une source d'énergie inépuisable pour les appareils intelligents dans les maisons, les bureaux et autres bâtiments.

« Dans le monde d'aujourd'hui, les appareils électroniques connectés ont besoin d'une alimentation continue, qui provient trop souvent de piles jetables ou rechargeables », explique Bates Marshall, cofondateur et PDG d'Ambient Photonics. « L'énergie solaire est depuis longtemps une option pour certains appareils électroniques de faible puissance comme les calculatrices ou les jouets, mais il a fallu une percée scientifique de la part d'Ambient Photonics pour développer une technologie de cellules solaires à haute performance pour les appareils de grande diffusion ».

Fabriquées avec du verre optiquement clair, les nouvelles cellules solaires bifaciales d'“Ambient Photonics” peuvent capter simultanément l'énergie lumineuse à l'arrière et à l'avant de la cellule. Elles peuvent tripler le rendement des cellules au silicium conventionnelles et augmenter de 50 % le rendement des cellules à face unique d'“Ambient Photonics”. Un appareil équipé de cellules bifaciales, tel qu'une télécommande, pourrait être mis sous tension, qu'il soit placé face vers le haut ou vers le bas. En augmentant leur efficacité et en produisant plus d'énergie, les cellules permettent également d'utiliser des appareils électroniques plus puissants.

« Notre technologie de cellules solaires bifaciales change la donne pour toutes sortes d'appareils », explique Bates Marshall. « Nous pouvons imaginer une multitude d'appareils connectés, y compris des étiquettes électroniques d'étagères, des capteurs de bâtiments et bien d'autres encore, qui s'alimentent plus efficacement à la lumière ambiante ».

Aujourd'hui, l'entreprise a annoncé qu'elle s'associait à Google pour lancer un nouveau dispositif solaire – le premier de ce type à utiliser les cellules bifaciales – en 2024.

Les cellules solaires d'intérieur ont déjà été incorporées dans des produits tels que des télécommandes d'“Universal Electronics” et un clavier sans fil de “Chicony”. L'entreprise travaille également avec le fabricant de papier électronique “E Ink” pour les intégrer aux étiquettes électroniques des rayons. Le centre californien d'“Ambient Photonics” est l'une des plus grandes usines de fabrication de cellules solaires à faible luminosité au monde et la première de ce type aux États-Unis, capable de produire des dizaines de millions d'unités par an. « Nous sommes en mesure de proposer une alternative révolutionnaire et durable en matière d'énergie, ainsi qu'une méthode de production intelligente à faibles émissions qui réponde aux exigences de capacité et de prix des produits électroniques les plus volumineux au monde », explique Bates Marshall.

Article rédigé par Georges Simmonds pour RT Flash

Euronews

Vers une batterie solide à 6000 cycles
Mardi, 27/02/2024 - 06:10

Des chercheurs de la Harvard John A. Paulson School of Engineering and Applied Sciences viennent de publier dans la prestigieuse revue Science Material la présentation d’une batterie solide d’un nouveau genre. L’équipe de chercheurs a en effet développé une batterie solide inédite, aux propriétés remarquables : en particulier, les cellules de cette batterie peuvent supporter 6 000 cycles de charge-décharge et toujours conserver 80 % de leurs capacités à la fin. Pour rappel, Volkswagen a lui aussi communiqué il y a quelques jours sur une batterie solide, mais qui ne s’aventure pas au-delà des 1 000 cycles.

Plus concrètement, si une voiture était dotée d’une batterie de 60 kWh (soit environ 500 km d’autonomie) avec cette technologie, elle pourrait rouler 3 millions de kilomètres et toujours avoir 48 kWh de capacité restante ! Et ce n’est pas fini : la recharge semble également être de premier ordre, puisque l’étude, reprise par le média américain Electrek, annonce une recharge en dix minutes seulement. Une performance qui nécessite toutefois des bornes très puissantes…

Pour parvenir à ce résultat, les chercheurs annoncent avoir surmonté le défi de la formation des dendrites. Une dendrite, c’est une projection de métal sur l’anode (l’électrode négative de la batterie, à ne pas confondre avec la cathode, l’électrode positive), qui peut se ramifier et créer des sortes de racines qui pénètrent dans l’électrode. Deux désavantages majeurs suivent cette formation : plus il y a de dendrites, plus la surface de l’anode est inégale, et plus cela attire de nouvelles dendrites — une sorte de cercle vicieux, donc. Dans le pire des cas, ces dernières peuvent rejoindre la cathode, créant un court-circuit, pouvant aller jusqu’à l’inflammation de la batterie.

Dans une batterie solide « traditionnelle », l’anode doit se débarrasser de ces dendrites, mais cela prend du temps et peut même détériorer encore davantage sa surface — de quoi attirer encore plus de dendrites, si vous avez bien suivi. Et c’est là que l’équipe de Xin Li innove, puisqu’elle a doté l’anode de sa batterie d’un placage de particules de silicone (à l’échelle du micron). Lorsque les ions de lithium arrivent dessus, ils s’y déposent de façon homogène et ne forment aucune dendrite. De fait, l’évacuation du lithium sur l’anode se fait bien plus facilement et rapidement, tout en la laissant intacte. Nous avons donc l’explication sur cette recharge express et cette durée de vie assez incroyable.

L’équipe a fourni la licence de cette technologie à une entreprise rattachée à Harvard, Adden Energy, qui va tâcher de créer une batterie de ce type pour voiture. Pour rappel, les premières batteries solides ne sont pas attendues avant 2028 (Nissan) et 2030 (BMW et Toyota). Avec une autonomie comprise entre 600 et 900 km et un temps de recharge rapide de 20 à 30 minutes, ces batteries solides, en outre plus écologiques, devaient permettre aux voitures électriques de devenir majoritaires au cours de la prochaine décennie.

Article rédigé par Georges Simmonds pour RT Flash

Nature Materials

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Une activité physique quotidienne réduit sensiblement la mortalité par cancer du poumon
Jeudi, 29/02/2024 - 06:30

Une étude australienne de l'Université Curtin University a montré que même de petites quantités d'activité physique pourraient apporter des avantages de survie significatifs dans le cancer du poumon à stade avancé. De nouvelles données qui appellent à mener des essais contrôlés randomisés plus larges, chez des patients atteints d'un cancer du poumon inopérable, et sur des interventions conçues pour renforcer une pratique adaptée et personnalisée de l’exercice physique.

L’étude a évalué l'activité quotidienne de 89 participants vivant avec un cancer du poumon inopérable, suivis depuis leur diagnostic. Les chercheurs ont comparé les taux de mortalité à 12 mois entre les participants actifs physiquement -qui pratiquaient une activité physique modérée à vigoureuse, comme la marche et les participants globalement sédentaires. L’analyse révèle que 24 % des participants pratiquaient moins d'1 minute par jour d'activité physique modérée à vigoureuse au moment de leur diagnostic.

Ces recherches montrent de manière remarquable qu'il suffit de 5 minutes d’activité physique modérée par jour pour diminuer de 20 % la mortalité des malades à 12 mois, ce gain de survie pouvant atteindre 60 % pour les malades pratiquant tous les jours une activité plus longue et plus intense. L’auteur principal, le Docteur Vin Cavalheri, chercheur et professeur au Cancer Council Western Australia, appelle ainsi à encourager la pratique adaptée de l’activité physique chez ces patients et à l’inclure dans leur traitement, même en cas de cancer du poumon inopérable.

Le facteur "activité physique" devrait donc être pris en compte par les professionnels de santé qui suivent ces patients, dès le début de leur prise en charge. Les chercheurs précisent qu’il est important d'adapter le programme d'exercice ou d’activité à chaque patient, plutôt que d’établir et de suivre des recommandations qui risquent d'être inatteignables. Comme le souligne l'étude, « Cette approche doit respecter l’expérience et les capacités individuelles pour être à la fois réalisable et durable et aboutir à une adoption réussie de l’activité physique comme partie intégrante de la routine quotidienne ». Ces résultats rejoignent ceux obtenus par les recherches sur la pratique de l’activité avec d’autres types de cancers : l’activité physique est déjà démontrée comme bénéfique en cas de cancer du sein et de cancer de la prostate.

Article rédigé par Georges Simmonds pour RT Flash

MDPI

Découverte des cellules à l'origine du cancer du sein
Jeudi, 29/02/2024 - 06:20

Les femmes ne sont pas toutes égales face au risque de développer un cancer du sein. En effet, certaines, porteuses du gène BRCA2 défectueux, sont à haut risque. Cette prédisposition génétique concernerait 2 femmes sur 1 000, d’après l’Institut National du cancer (INCa). Il convient de noter que toutes les femmes porteuses de ce gène ne développeront pas systématiquement un cancer du sein. « Le risque de cancer du sein varie de 40 % à 80 % au cours de la vie, selon les études, le type de gène concerné, l'histoire familiale de cancer du sein, et l'âge », précise l’INCa.

Une étude récemment réalisée par des chercheurs de l'université de Melbourne a révélé que chez les femmes porteuses du gène BRCA2, certaines cellules seraient impliquées dans le développement d’un cancer du sein. Et bonne nouvelle, les conclusions obtenues par les chercheurs ont permis également de montrer que ces « cellules d’origine » pourraient être ciblées avec un médicament anticancéreux existant pour retarder la croissance de la tumeur.

Pour parvenir à leurs résultats, les chercheurs ont comparé des échantillons de tissus exempts de cancer, provenant de porteurs et de non-porteurs du gène BRCA2. Ils ont identifié une population anormale de cellules qui se divisent plus rapidement chez les personnes du gène BRCA2. « Étant donné qu'ils ont été trouvés dans la plupart des échantillons de tissus BRCA2 de femmes en bonne santé, nous pensons qu'il peut s'agir des cellules d'origine qui conduisent à de futurs cancers du sein chez les femmes porteuses de la mutation BRCA2», a déclaré la Docteure Rachel Joyce, auteure principale de l’étude.

En plus de leur découverte sur les cellules qui pourraient être à l’origine du cancer du sein chez les femmes à risque, les chercheurs ont identifié une vulnérabilité de celles-ci qu'ils ont ciblées avec succès avec un médicament anticancéreux existant pour retarder la croissance tumorale en laboratoire. « En déterminant cette vulnérabilité dans la production de protéines, nous avons pu montrer que le prétraitement avec ce médicament a retardé la formation de tumeurs dans le modèle préclinique », a déclaré le professeur Visvader, chef de la division de la biologie du cancer et des cellules souches de l'ACRF et du laboratoire du cancer du sein de la WEHI.

Dans leurs conclusions, les chercheurs ont mentionné l’importance de la poursuite des recherches dans la prévention des cancers du sein. « Il y a encore du chemin à faire, mais nous sommes un grand pas de plus. Nous espérons que nos nouvelles découvertes éclaireront maintenant le traitement et la prévention futurs pour les femmes ayant un gène BRCA2 défectueux », ont-ils déclaré.

Article rédigé par Georges Simmonds pour RT Flash

Nature

Un superantibiotique contre les bactéries résistantes
Jeudi, 29/02/2024 - 06:10

On le sait, la médecine manque cruellement de nouveaux antibiotiques pour faire face au phénomène croissant de résistance bactérienne. Une équipe de l'université Harvard, dirigée par le chimiste Andrew G. Myers, a créé une molécule capable de terrasser un grand nombre de souches bactériennes. Mieux, cette nouvelle substance, baptisée cresomycin, est particulièrement efficace contre les "supermicrobes", ces bactéries pathogènes dangereuses pour l'homme, qui ont fini par résister à tous les antibiotiques connus. Selon la revue The Lancet, l'antibiorésistance serait responsable de la mort directe de 1,27 million de personnes par an dans le monde et ce chiffre pourrait atteindre les 10 millions en 2050.

Dans un tel contexte, chaque nouvel antibiotique est évidemment très attendu. Celui-ci s'inspire d'antibiotiques déjà bien connus, les lincosamides. Les bactéries n'ont pas attendu l'homme pour créer des antibiotiques et les résistances qui leur sont associées. Elles les utilisent en permanence dans les guerres de territoires qui les opposent depuis la nuit des temps. Cette résistance aux antibiotiques existe déjà dans la nature et résulte de millions d'années d'évolution. Quand un microbe devient réfractaire à un médicament créé par l'homme, c'est bien souvent parce qu'il a acquis un mécanisme de résistance qui était déjà disponible. Mais ces chercheurs américains ont réussi à synthétiser un antibiotique complètement artificiel, qui n'existe pas dans la nature et donc contre lequel, a priori, la résistance n'est pas déjà présente dans l'environnement.

La cresomycin possède un mécanisme d'action qui est le même que celui des lincosamides dont il est inspiré. Il vise à se fixer sur une structure vitale, le ribosome, pour le bloquer. Le ribosome est en fait l'usine à protéines des cellules et en l'occurrence des bactéries. Sans ses précieuses protéines, le pathogène ne peut survivre. Pour parer cette attaque, les microbes ont réussi à modifier spécifiquement la cible, c'est-à-dire le ribosome, pour qu'il ne soit plus reconnu par le médicament.

Mais avec la cresomycin, ce leurre ne fonctionne plus car les bactéries ne savent pas comment modifier le ribosome pour empêcher la fixation de la nouvelle molécule, qui en plus, a été conçue pour s'agripper fortement à sa cible. Cela ne signifie pas qu'il n'y aura pas un jour l'apparition d'un mécanisme bloquant l'action de la cresomycin. Mais, pour le moment, il n'est pas connu. Cette innovation est donc une très bonne nouvelle car, ces trente dernières années, le nombre de bactéries résistantes a augmenté beaucoup plus vite que le nombre de nouveaux traitements pour les combattre. La nouvelle molécule a montré son efficacité in vitro et chez l'animal. Elle doit à présent être testée chez l'homme.

Article rédigé par Georges Simmonds pour RT Flash 

Science

Les nanorobots alimentés par l’urée réduisent les tumeurs de la vessie de 90 % chez la souris
Jeudi, 29/02/2024 - 06:00

La recherche, menée sur des souris, montre comment ces minuscules nanomachines sont propulsées par l’urée présente dans l’urine et ciblent précisément la tumeur, en l’attaquant avec un radio-isotope transporté à leur surface. Menée par l’IBEC et le CIC biomaGUNE, l’étude ouvre la porte à de nouveaux traitements plus efficaces contre le cancer de la vessie.

Le cancer de la vessie a l’un des taux d’incidence les plus élevés au monde et se classe au quatrième rang des tumeurs les plus courantes chez les hommes. Malgré son taux de mortalité relativement faible, près de la moitié des tumeurs de la vessie réapparaissent dans les 5 ans, nécessitant une surveillance continue des patients. Les visites fréquentes à l’hôpital et la nécessité de traitements répétés contribuent à faire de ce type de cancer l’un des plus coûteux à guérir.

Même si les traitements actuels impliquant l’administration directe de médicaments dans la vessie montrent de bons taux de survie, leur efficacité thérapeutique reste faible. Une alternative prometteuse implique l’utilisation de nanoparticules capables de délivrer des agents thérapeutiques directement à la tumeur. En particulier, les nanorobots – ; les nanoparticules dotées de la capacité de s’auto-propulser dans le corps – ; sont remarquables.

Une étude publiée dans la prestigieuse revue Nature Nanotechnology révèle comment une équipe de recherche a réussi à réduire de 90 % la taille des tumeurs de la vessie chez la souris grâce à une dose unique de nanorobots alimentés à l’urée. Ces minuscules nanomachines sont constituées d’une sphère poreuse en silice. Leurs surfaces portent divers composants aux fonctions spécifiques. Parmi eux se trouve l’enzyme uréase, une protéine qui réagit avec l’urée présente dans l’urine, permettant à la nanoparticule de se propulser. Un autre composant crucial est l’iode radioactif, un radio-isotope couramment utilisé pour le traitement localisé des tumeurs.

La recherche, dirigée par l’Institut de bio-ingénierie de Catalogne (IBEC) et le CIC biomaGUNE en collaboration avec l’Institut de recherche en biomédecine (IRB Barcelone) et l’Université autonome de Barcelone (UAB), ouvre la voie à des traitements innovants contre le cancer de la vessie. Ces avancées visent à réduire la durée d’hospitalisation, ce qui implique une réduction des coûts et un confort accru pour les patients. « Avec une dose unique, nous avons observé une diminution de 90 % du volume tumoral. Ceci est nettement plus efficace étant donné que les patients atteints de ce type de tumeur ont généralement 6 à 14 rendez-vous à l’hôpital avec les traitements actuels. Une telle approche thérapeutique améliorerait l’efficacité, réduisant ainsi la durée des hospitalisations et les coûts de traitement ».

Lors de recherches antérieures, les scientifiques avaient confirmé que la capacité d’autopropulsion des nanorobots leur permettait d’atteindre toutes les parois de la vessie. Cette caractéristique est avantageuse par rapport à la procédure actuelle où, après avoir administré le traitement directement dans la vessie, le patient doit changer de position toutes les demi-heures pour que le médicament atteigne toutes les parois. Cette nouvelle étude va plus loin en démontrant non seulement la mobilité des nanoparticules dans la vessie mais aussi leur accumulation spécifique dans la tumeur. Cette réalisation a été rendue possible grâce à diverses techniques, notamment l’imagerie médicale par tomographie par émission de positons (TEP) des souris, ainsi que des images microscopiques des tissus prélevés une fois l’étude terminée. Ces derniers ont été capturés à l’aide d’un système de microscopie à fluorescence développé spécifiquement pour ce projet à l’IRB Barcelone. Le système scanne les différentes couches de la vessie et réalise une reconstruction 3D permettant ainsi l’observation de l’ensemble de l’organe.

« Le système optique innovant que nous avons développé nous a permis d’éliminer la lumière réfléchie par la tumeur elle-même, nous permettant ainsi d’identifier et de localiser des nanoparticules dans tout l’organe sans marquage préalable, avec une résolution sans précédent. Nous avons observé que les nanorobots n’atteignaient pas seulement la tumeur. mais y sont également entrés, renforçant ainsi l’action du produit radiopharmaceutique », explique Julien Colombelli, responsable de la plate-forme Advanced Digital Microscopy à l’IRB Barcelone.

Décrypter pourquoi les nanorobots peuvent pénétrer dans la tumeur a constitué un véritable défi. Les nanorobots manquent d’anticorps spécifiques pour reconnaître la tumeur, et le tissu tumoral est généralement plus rigide que le tissu sain. « Cependant, nous avons observé que ces nanorobots peuvent détruire la matrice extracellulaire de la tumeur en augmentant localement le pH grâce à une réaction chimique automotrice. Ce phénomène a favorisé une plus grande pénétration de la tumeur et a permis d’obtenir une accumulation préférentielle dans la tumeur », explique Meritxell. Serra Casablancas, co-premier auteur de l’étude et chercheuse à l’IBEC.

Ainsi, les scientifiques ont conclu que les nanorobots entrent en collision avec l’urothélium comme s’il s’agissait d’une paroi, mais que dans la tumeur, plus spongieuse, ils pénètrent dans la tumeur et s’accumulent à l’intérieur. Un facteur clé est la mobilité des nanobots, qui augmente la probabilité d’atteindre la tumeur. De plus, selon Jordi Llop, chercheur au CIC biomaGUNE et co-responsable de l’étude, « l’administration localisée de nanorobots porteurs du radio-isotope réduit la probabilité de générer des effets indésirables, et la forte accumulation dans le tissu tumoral favorise l’action radiothérapeutique. « Les résultats de cette étude ouvrent la porte à l’utilisation d’autres radio-isotopes ayant une plus grande capacité à induire des effets thérapeutiques mais dont l’utilisation est restreinte lorsqu’ils sont administrés par voie systémique », ajoute Cristina Simó, co-premier auteur de l’étude.

Article rédigé par Georges Simmonds pour RT Flash

Ma Clinique

VIH : un traitement très précoce, possible clé d’une rémission durable
Mercredi, 28/02/2024 - 06:40

La mise en place d'un traitement antirétroviral quatre semaines seulement après une infection au VIH pourrait permettre de maîtriser le virus sur le long terme après l'arrêt du traitement, suggèrent les résultats d'une étude menée à l'Institut Pasteur. Ces résultats renforcent l'intérêt du dépistage précoce et de la prise en charge le plus tôt possible des personnes ayant contracté le VIH, souligne l’institut.

Des études précédentes avaient montré la possibilité d'une rémission durable pour des personnes vivant avec le VIH et ayant profité d'un traitement entamé précocement et maintenu plusieurs années. À l'interruption de leur traitement antirétroviral, elles ont été capables de maîtriser le virus pendant parfois plus de 20 ans.

Les chercheurs avaient alors émis l'hypothèse qu'un traitement démarré précocement pourrait favoriser cette maîtrise du virus, mais cela restait à démontrer. Dans cette nouvelle étude, les scientifiques ont effectué leurs recherches sur des singes et comparé les animaux : un groupe avait reçu deux ans d'un traitement qui avait démarré peu de temps après l'infection (en phase aiguë), un autre deux ans d'un traitement qui avait démarré plusieurs mois après l'infection (en phase chronique), et un troisième n'avait pas reçu de traitement.

Il en ressort que le traitement précoce mis en place dans les quatre semaines suivant l'infection favorise très fortement la maîtrise du virus après interruption du traitement. « Notre étude indique l'existence d'une période propice pour favoriser la rémission de l'infection par le VIH », a commenté Asier Sáez-Cirión, responsable de l'unité Réservoirs viraux et contrôle immunitaire à l'Institut Pasteur, et coauteur principal.

Autre enseignement : le traitement précoce maintenu deux ans optimise le développement des cellules immunitaires. Elles acquièrent une mémoire efficace du virus et l'éliminent naturellement au moment du rebond viral après arrêt du traitement, selon Asier Sáez-Cirión. « Un début de traitement six mois après l'infection – délai qui montre une perte d'efficacité, selon notre étude – est déjà considéré comme très rapide par rapport à ce qui se passe en clinique actuellement, où la plupart des personnes avec VIH démarrent leur traitement des années après l'infection à cause du dépistage trop tardif », a souligné Roger Le Grand, directeur de l'infrastructure IDMIT (Infectious Diseases Models for Innovative Therapies), aussi coauteur principal de l'étude.

Article rédigé par Georges Simmonds pour RT Flash

Nature

Accouchement : un dialogue cellulaire subtil entre le fœtus et sa mère
Mercredi, 28/02/2024 - 06:30

Le processus qui se déroule lors d'un accouchement ne dépend pas uniquement du corps de la mère : le fœtus lui-même influence son déclenchement en libérant des signaux chimiques qui stimulent la production d'hormones, comme l'ocytocine, clés pour les contractions utérines. C'est cette cascade de mécanismes complexes et d'échanges d'informations entre le foetus et la mère qui est à présent mieux comprise grâce à une étude américaine réalisée par des chercheurs de la Wayne State University de Detroit.

Plusieurs études avaient déjà montré qu'une perturbation de ces voies d'interaction peut conduire à des naissances prématurées. Pour mieux prédire de tels événements, une équipe de chercheurs américains a généré le premier atlas complet des voies cellulaires fœto-maternelles impliquées dans le déclenchement du travail.

Pour générer une telle carte, les scientifiques ont étudié 42 placentas récoltés lors d’accouchement et 159 prélèvements sanguins faits chez des femmes ayant accouché à terme ou de façon prématurée. Ils ont cherché à identifier les types de cellules maternelles et fœtales les plus affectées par le déclenchement du travail. La nouveauté est qu'ils se sont appuyés sur une méthode de séquençage génétique avancée appelée "séquençage de l'ARN à cellule unique" ("single cell"), qui permet non seulement d'identifier des populations cellulaires d'un échantillon biologique, mais aussi de quantifier l'expression des gènes spécifiques à chacune d'entre elles. « Jusqu'à présent, on faisait surtout des séquençages d'ARN sur l'ensemble d’un échantillon de placenta sans pouvoir attribuer à chaque type cellulaire une signature particulière. Le séquençage ARN à cellule présente l'avantage de fournir une analyse approfondie de la diversité cellulaire d'un organe aussi complexe soit-il ».

Dans un premier temps, les chercheurs ont distingué les différentes populations de cellules placentaires. Parmi les groupes cellulaires d'origine exclusivement fœtale figuraient des cellules stromales, impliquées dans la formation des cellules sanguines, des cellules endothéliales, qui régulent la perméabilité des vaisseaux sanguins, et des cellules trophoblastiques, dont le rôle est d'approvisionner le fœtus en nutriments et en oxygène. Côté maternel, les échantillons contenaient principalement des cellules de la muqueuse utérine, les cellules déciduales, qui se modifient au cours de la grossesse pour fournir un environnement favorable à l'implantation de l'embryon.

Mais surtout, l'ensemble des échantillons renfermait une importante proportion de cellules immunitaires (cellules "natural killer", macrophages, lymphocytes T, lymphocytes B, etc.) produites soit par le fœtus, soit par sa mère. « Toutes ces cellules sont impliquées dans les processus inflammatoires qui se manifestent chez tous les humains dans le cadre des infections. Néanmoins, l'inflammation est un processus naturel crucial lors de l'accouchement. Elle participe notamment aux contractions utérines, à la dilatation du col de l'utérus ou à prévenir les infections pendant l'accouchement ».

Une fois cette classification achevée, les chercheurs se sont intéressés à l'activité propre des cellules au moment du déclenchement du travail. Fait étonnant, les cellules les plus touchées ne se trouvaient pas dans le cœur du placenta mais dans les membranes environnantes, dites "chorioamniotiques", qui entourent le fœtus et se rompent lors du travail. « Jusqu'à présent, on voyait les membranes comme quelque chose d'amorphe dans lequel baigne le fœtus. Ces travaux sont une preuve qu'elles ont en réalité un rôle actif lors de la grossesse », insiste Philippe Deruelle, chercheur et professeur d'obstétrique et de gynécologie à la faculté de médecine de Montpellier-Nîmes.

Plus encore, les auteurs ont découvert que certaines cellules fœtales (les cellules "stromales") ont un rôle clef dans le déclenchement du travail. « Si l'on suspectait le rôle des cellules maternelles, l'implication des cellules fœtales était moins évidente », commente le Professeur Deruelle. L'hypothèse est qu’elles pourraient contribuer à la meilleure tolérance du fœtus par l'organisme maternel, notamment via l'inhibition de l'activité des lymphocytes T maternels, habituellement chargés d'éliminer tout corps étranger. Par ces interactions complexes, le fœtus échappe aux mécanismes de défense de la mère et peut ainsi se développer sans être perçu comme une menace.

Ces recherches ont également permis l’identification de potentiels biomarqueurs, dans le sang des futures mères, du risque d’accouchement prématuré. « Malgré toutes les connaissances et les technologies actuelles, nous sommes encore incapables de prévenir un accouchement prématuré, mais nous savons que les processus inflammatoires y contribuent fortement », insiste le Professeur Deruelle. De tels signaux seraient détectables dès le début de la grossesse, ce qui a pu être vérifié grâce à l'analyse des prélèvements sanguins réalisés aux différents trimestres de la grossesse. Ces résultats sont très « encourageants », s'accordent les scientifiques, car cela suggère qu'à l'aide d'une simple prise de sang, il serait possible d'identifier certains biomarqueurs prédictifs des accouchements prématuré.

Article rédigé par Georges Simmonds pour RT Flash

STM

Un grand brûlé sauvé grâce au sang de ver marin d'Hemarina
Mercredi, 28/02/2024 - 06:20

La société de biotechnologie bretonne (Morlaix) HEMARINA a développé une molécule particulièrement innovante, baptisée M101. Cette molécule est un transporteur d’oxygène universel appartenant au ver marin Arenicola marina. Elle est au cœur du dispositif médical HEMO2life qui vient d'être récompensé par le prestigieux prix Galien 2023. Cet outil biologique permet d’oxygéner le greffon de façon physiologique, ce qui réduit considérablement les risques de rejet de greffe et prolonge le temps de conservation des greffons.

Un homme gravement brûlé vient d'être sauvé au CHU de Nantes grâce au pansement d'Hemarina. Un gel, qui contient des molécules de sang d'un ver marin, l'arénicole, permet à la peau abîmée de respirer. Elle cicatrise beaucoup plus vite. Cette innovation médicale est très encourageante pour soigner toutes les plaies. « Nous étions très pessimistes quand nous avons accueilli ce patient. Il était brûlé à 85 %. Toutes ces brûlures étaient profondes et nécessitaient des greffes ». L'équipe du professeur Pierre Perrot, chef du centre de traitement des brûlés au CHU de Nantes, a mis en place "un plan d'attaque" pour sauver cet homme de 32 ans qui, en préparant son bateau dans son jardin en bord de Loire, a été brûlé par l'explosion d'un bidon d'essence.

Les médecins décident de soigner son thorax, son abdomen et son dos avec le nouveau pansement oxygénant de la société Hemarina. « Toutes nos équipes, en particulier les infirmières et les aides soignantes, ont alors observé que le patient a cicatrisé de façon spectaculaire, en trois semaines ! En cinq semaines, il était entièrement guéri ». Pendant que le pansement agit, 45 % de la peau restante est greffée avec la peau du patient.

Avec un pansement classique, « une brûlure cicatrise en cinq semaines et la peau devient épaisse, inflammatoire et se rétracte », explique le chirurgien plasticien. « Ici, les cicatrices sont de bonne qualité, très peu rouges et peu épaisses ». L'innovation est constituée d'un gel à étaler sur la peau, sous un bandage respirant. Jusqu'à présent, elle n'avait été testée que sur des brûlures locales, les doigts, les jambes et le crâne.

L'effet thérapeutique est dû à la molécule d'hémoglobine, issu du ver marin arénicole, élevé et transformé par Hemarina. « Cette molécule a une très forte capacité à se recharger en oxygène », explique le biologiste Franck Zal, fondateur de la société basée à Morlaix dans le Finistère. « Elle transfère l'air depuis le haut du pansement, jusqu'à la cellule de la plaie, qui en a besoin ». Cet oxygène accélère alors la cicatrisation. À la différence des plaies habituelles, qui forment une croûte, la cicatrisation se réalise ici « dans une zone humide, sous le gel, et vous obtenez une peau neuve » !

Ce pansement n'est pas encore autorisé sur le marché. Son utilisation nécessite une demande auprès de l'Agence nationale de sécurité du médicament (ANSM). « Nos technologies avancent vite, mais le côté réglementaire est super long », regrette Frank Zal. « L'ANSM reconnaît les bénéfices potentiels de ce produit, mais n'accorde que des autorisations “compassionnelles”. C'est-à-dire lorsque des médecins font face à un cas désespéré, sans issue thérapeutique possible ».

Article rédigé par Georges Simmonds pour RT Flash

France 3

Le virus Zika s'avère très efficace pour éliminer les tumeurs chez les souris
Mercredi, 28/02/2024 - 06:00

Des chercheurs de la fondation de recherche américaine Nemours Children's Health ont montre que le virus Zika permet de détruire les neuroblastomes chez des souris. Ce virus, transmis par les moustiques, réduit la production d’une protéine, appelée CD24 chez les personnes contaminées. Or, cette même protéine est présente en quantité excessive en cas de neuroblastome. Ce type de tumeur se développe dans les cellules nerveuses de l’enfant.

« Des recherches antérieures ont suggéré que certains cancers qui expriment la protéine CD24 sont également vulnérables au virus Zika, ouvrant la porte à l’utilisation du virus comme traitement », précisent les auteurs dans un communiqué. Pour tester cette hypothèse, l’équipe a étudié des souris atteintes d'un neuroblastome exprimant des niveaux élevés de CD24. Ils ont injecté à la moitié des souris une solution saline et à l’autre moitié le virus Zika. La taille des tumeurs a ensuite été surveillée trois fois par semaine pendant 4 semaines.

« L’étude a montré que toutes les souris ayant reçu une injection du virus Zika ont subi une diminution presque totale de la taille de leur tumeur », observent les auteurs. La dose la plus élevée de virus injecté a conduit à une élimination complète de la tumeur. Après quatre semaines de suivi, aucune récidive de la tumeur n’a été observée. « De plus, les souris n’ont développé aucun symptôme d’infection par le virus Zika ni aucun effet secondaire », constatent-ils. À l’inverse, toutes les tumeurs ayant reçu la solution saline avaient grossi à l’issue des 28 jours, jusqu'à 800 % d’augmentation pour certaines.

Les chercheurs rappellent qu'il faudra attendre encore avant que Zika soit utilisé comme traitement contre le cancer. Des études centrées sur l’efficacité et la sécurité seront nécessaires pour qu'une autorisation de mise sur le marché soit donnée. « Avec une validation plus approfondie, le virus Zika pourrait constituer une thérapie relais extrêmement efficace pour les patients atteints de neuroblastome à haut risque », estime Joseph Mazar, premier auteur de cette recherche.

Actuellement, plus de la moitié des patients atteints de neuroblastomes dits à haut risque ne répondent pas à la chimiothérapie ou à la radiothérapie, ou bien ils répondent initialement, mais développent une récidive par la suite. « Ces patients ont un besoin urgent de nouvelles options de traitement », rappelle l'autrice principale de l'étude, la chirurgienne pédiatrique Tamarah Westmoreland. En France, une centaine de nouveaux cas sont détectés chaque année. Par ailleurs, le virus Zika pourrait aussi être utilisé pour traiter des enfants et des adultes atteints d’autres cancers exprimant des niveaux élevés de CD24.

Article rédigé par Georges Simmonds pour RT Flash

EurekAlert

Un régime végétarien réduit les risques d'infection de 39 %
Mardi, 27/02/2024 - 06:40

Selon une étude brésilienne, mettre des légumes, des légumineuses ainsi que des noix dans son assiette, tout en limitant les produits laitiers et la viande, aiderait à lutter contre la Covid-19.  Plusieurs études publiées ces dernières années suggèrent que l’alimentation pourrait jouer un rôle dans l'évolution d'une infection au SARS-CoV-2. Pour vérifier ces conclusions, des chercheurs de l'université de Sao Paulo ont donc décidé d'évaluer l'impact des habitudes nutritionnelles sur l’incidence, la gravité et la durée de la Covid-19 chez 702 volontaires. Les participants ont dû répondre à des questionnaires détaillés sur leurs habitudes alimentaires, notamment sur leur consommation de légumes, de légumineuses, de noix, de produits laitiers et de viande. Ils ont ensuite été divisés en deux groupes : le régime omnivore et le régime à prédominance végétale. Parmi les adeptes des menus à base de plantes, les scientifiques ont également distingué les flexitariens (consommant de la viande 3 fois ou moins par semaine) et les végétariens ou végétaliens.

Au cours de la période examinée, 330 personnes ont été infectées par la Covid-19. L'équipe a remarqué que les “omnivores” avaient une incidence plus élevée d'infection que les groupes dont les menus étaient à base de plantes : 52 % contre 40 %. De plus, ils étaient plus susceptibles d'avoir une infection modérée à grave : 18 % contre un peu plus de 11 % pour les amateurs de légumes et de fruits. En revanche, il n'y avait aucune différence significative dans la durée des symptômes entre les différents groupes. Selon les analyses, les personnes qui suivent un régime à prédominance végétale ou végétarien/végétalien, étaient ainsi 39 % moins susceptibles d’être infectés par le SARS-CoV-2 ou un variant que les omnivores.

Mais pourquoi les végétariens semblent mieux protégés contre la Covid-19 ? L'équipe avance que les régimes à base de plantes fournissent davantage de nutriments, capables de renforcer le système immunitaire, et aident ainsi à combattre les infections virales. « Les régimes alimentaires à base de plantes sont riches en antioxydants, phytostérols et polyphénols, qui affectent positivement plusieurs types de cellules impliqués dans la fonction immunitaire et présentent des propriétés antivirales directes », précisent les auteurs. Ils ajoutent : « À la lumière de ces résultats et des résultats d’autres études, et en raison de l’importance d’identifier les facteurs qui peuvent influencer l’incidence de la Covid-19, nous recommandons la pratique de suivre des régimes à base de plantes ou des modèles alimentaires végétariens ».

Article rédigé par Georges Simmonds pour RT Flash

BMJ

La culture de tissus sur puce révolutionne la médecine
Mardi, 27/02/2024 - 06:30

La technologie des tissus sur puce en mesure d’accélérer le développement de médicaments et de réduire le recours aux essais sur animaux évolue à grande vitesse. Aux États-Unis, un projet ambitieux d’un nouveau centre national dédié à cet objectif transformerait à coup sûr le paysage de la recherche médicale en général. Le centre de Rochester est en effet l’un des quatre centres soutenus par les Instituts Nationaux de la Santé (NIH) qui visent à produire des dispositifs de tissus-sur-puce en tant qu’outils de développement de médicaments qualifiés par la FDA. La technologie des tissus sur puce est une technique qui utilise des dispositifs microfluidiques pour simuler la physiologie et la fonction des tissus et des organes humains, ce qui permet de tester l’efficacité et la sécurité des médicaments de manière plus précise et moins coûteuse.

Le centre vise à développer cinq outils de développement de médicaments qualifiés par la Food and Drug Administration (FDA), liés à l’étude des fonctions de barrière dans la maladie – des interfaces dans les tissus qui sont essentielles pour la progression de l’infection, du cancer et de nombreuses maladies auto-immunes. Au cours de la subvention de cinq ans, les chercheurs créeront des outils de développement de médicaments spécifiquement liés aux troubles du système nerveux central, à la fibrose, à la maladie auto-immune musculosquelettique, à la septicémie et à l’ostéomyélite.

Les puces produites par TraCe-bMPS seront dotées de biocapteurs photoniques conçus par Benjamin Miller, professeur de dermatologie à l’université de Rochester et titulaire de nominations conjointes en ingénierie biomédicale, biochimie et biophysique, optique et science des matériaux. Les scientifiques du TraCe-bMPS créeront les outils de développement de médicaments en utilisant des systèmes microphysiologiques – de petites puces avec des membranes ultra-minces de cellules humaines. Ils seront construits en utilisant les puces µSiM modulaires et productibles en masse, initiées par le directeur du centre, James McGrath et le professeur William R. Kenan Jr. de génie biomédical.

Le moment ne pourrait être mieux choisi. « En tant qu’ingénieur biomédical et scientifique, la fusion élégante de l’ingénierie et de la biologie inhérente à la conception et à la validation de ces puces tissulaires en tant que modèles de maladies et plates-formes de test de médicaments est pour moi l’une des activités les plus gratifiantes de ma carrière professionnelle. J’ai hâte de voir ce que cette équipe va développer au cours des cinq prochaines années et au-delà ». James McGrath affirme que tester des médicaments sur des puces µSiM peut conduire à moins d’essais sur animaux. Et parce que les chercheurs étudieront les effets des médicaments sur les cellules humaines, ils pourraient également aider à surmonter certaines des différences critiques entre les tests sur les humains et les animaux. « La découverte de médicaments entre dans une ère où moins d’animaux sont utilisés pour tester la sécurité et l’efficacité. Au lieu de cela, plus de dépistage sera effectué sur des puces de tissus qui modélisent les cellules humaines de manière à imiter les tissus humains et les maladies. Nos puces sont conçues pour fournir le débit plus élevé et les indications plus fiables dont les entreprises pharmaceutiques ont besoin pour faire approuver leurs médicaments pour les essais cliniques et l’utilisation par les patients ».

Article rédigé par Georges Simmonds pour RT Flash

Rochester

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top