|
|
Edito
Les 10 technologies révolutionnaires qui vont changer la vie selon le MIT
Cette semaine, je vais revenir sur le classement annuel des 10 ruptures technologiques qui vont changer notre vie, selon l’Institut de Technologie du Massachussetts, le fameux MIT (Voir article complet). Dans son prologue de présentation de ces avancées de l’année 2022, le MIT souligne qu’au cours des deux dernières années, le monde dans lequel nous vivons a subi des changements sans précédent.
D'une part, la pandémie de coronavirus nous a fait prendre conscience que nous sommes tous vulnérables face à la maladie et que les maladies infectieuses sont une menace non seulement pour les régions sous-développées, mais pour l’ensemble de l’humanité, comme nous l’a cruellement rappelé cette pandémie de Covid-19, qui a sans doute coûté la vie à vingt millions de personnes. Le long article du MIT souligne également avec raison que les ravages du coronavirus ont également eu un impact délétère sur la prévention et le traitement des autres grandes maladies infectieuses – paludisme, tuberculoses, Sida, pneumonie, rougeole – qui tuent encore vingt millions de personnes chaque année dans le monde, et restent responsables d’un décès sur trois.
Cet article très riche du MIT évoque également l’immense défi que fait peser la menace du changement climatique sur nos vies. Au cours des dernières années, l’accélération des catastrophes naturelles et événements extrêmes liés au réchauffement climatique nous a montré à quel point nos sociétés étaient fragiles face à la nature et se devaient de réagir plus vigoureusement face à ce péril planétaire. L’article rappelle « Qu’un seul événement climatique extrême peut anéantir une année de croissance du PIB et qu'il ne faudra pas plus de deux décennies, au rythme actuel, pour que le changement climatique réduise le PIB mondial de près de 20 % ».
Le MIT insiste également sur les extraordinaires progrès des technologies de l'information qui sont en train de bouleverser nos économies et nos sociétés, tout particulièrement les nouvelles applications de l'intelligence artificielle dans l'industrie et la science. Mais le célèbre institut évoque aussi la face sombre de cette révolution, illustré par exemple par l’importance prise par la crypto-monnaie, dont le minage émet déjà plus de gaz à effet de serre qu'un pays comme l’Argentine…
Depuis que la revue du MIT a publié son premier palmarès des 10 technologies de l’année, en 2001, de nombreuses avancées scientifiques techniques ont changé nos vies à tout jamais. C’est par exemple le cas des assistants logiciels intelligents (2009), de l'apprentissage profond en IA, (2013), qui a permis à l'intelligence artificielle d’envahir tous les domaines d’activités, ou encore des fusées réutilisables, qui ont fait entrer la conquête spatiale dans une nouvelle ère.
Bill Gates a rejoint le comité du MIT de sélection de ces dix ruptures technologiques annuelles, pour établir son palmarès 2022. Sous l'influence du créateur de Microsoft, le comité de sélection s’est focalisé davantage sur les nouvelles technologies qui améliorent de manière concrète notre bien-être et notre qualité de vie. C’est le cas du vaccin à ARNm, une technologie révolutionnaire pour les vaccins, développée en un temps record, et qui a sans doute permis de sauver des centaines de millions de vies pendant la pandémie de coronavirus.
Parmi les autre percées majeures retenue par le MIT, on trouve aussi la technologie de séquençage rapide des mutations du coronavirus, les premiers médicaments oraux efficaces contre la Covid-19 et les premiers vaccins opérationnels contre le paludisme, qui devraient réduire à terme le taux de mortalité de ce fléau de 70 %.
Face au changement climatique, l’ingéniosité humaine fait également feu de tout bois avec, parmi beaucoup d’autres, trois innovations remarquables retenues pour 2022, les batteries de stockage massif d’énergie, qui vont permettre l’essor plus rapide des énergies renouvelables, par nature intermittentes, les réacteurs à fusion, qui pourront produire une énergie sûre, propre et presque inépuisable, et enfin, des unités industrielles d'élimination du carbone de l’air, qui pourraient contribuer à atteindre plus rapidement la neutralité carbone au niveau mondial.
Dans le domaine du numérique et des sciences de l'information, les progrès ne sont pas moins impressionnants. Les outils d’IA ont récemment réussi à prévoir le repliement très complexe des protéines, relevant ainsi un défi scientifique vieux de plus de 50 ans. En matière de sécurité numérique, l’IA ouvre la voie au "mot de passe final", qui pourrait remplacer la multitude de mots de passe insuffisamment forts pour assurer une vraie protection de nos informations. Enfin, la technologie dite "de preuve de participation", pour la monnaie cryptée, devrait renverser les méthodes actuelles de preuve, et réduire considérablement la consommation d'énergie liée à l’explosion de ces transactions numériques.
Passons à présent en revue, et dans l’ordre choisi par le MIT, les dix innovations retenues pour 2022.
1 : les médicaments anti-covid
Acteurs principaux : Merck, Pfizer, Pardes Biosciences
Réalisation technique : atteinte
En utilisant des approches radicalement différentes, les scientifiques et biologistes ont réussi à développer en un temps record des médicaments antiviraux sûrs et efficaces contre la Covid-19, qui viennent compléter l’efficacité préventive des vaccins. Le médicament proposé par Pfizer a ainsi réduit le risque d'hospitalisation de 89 % chez les patients infectés, et le gouvernement américain a commandé pour 10 milliards de dollars de ce nouveau médicament, appelé Paxlovid. Pour mettre au point cette molécule ciblée, les chercheurs ont réussi à bloquer une protéine appelée protéase, qui joue un rôle-clé dans la réplication du coronavirus. Comme des protéases similaires sont présentes dans d'autres types de coronavirus, le médicament de Pfizer pourrait être utilisé pour lutter contre de futures pandémies d’origine virale. Jamais auparavant une molécule anti-virale entièrement nouvelle n'avait pu passer du laboratoire au lit du malade aussi rapidement. Ces médicaments antiviraux, complémentaires des vaccins, vont sauver un nombre incalculable de vies dans l’avenir, et seront prioritairement destinés aux patients dont le système immunitaire est affaibli, et qui répondent mal aux vaccins.
2 Réacteur à fusion pratique
Acteurs principaux : Commonwealth Fusion Systems, International Thermonuclear Experimental Reactor (ITER), Lawrence Livermore National Ignition Facility, Helion Energy, Tokamak Energy, General Fusion
Réalisation technique : vers 2030
En septembre 2021, des chercheurs de Commonwealth Fusion Systems ont chargé un aimant de type D de 10 tonnes et amplifié son champ magnétique jusqu'à ce qu'il dépasse 20 Tesla. Il s'agit d'un nouveau record pour un aimant de ce type qui ouvre la voie vers un nouveau type de réacteur à fusion compact et peu coûteux, distinct des autres réacteurs expérimentaux à l’essai. La production d'énergie par fusion est un vieux rêve des physiciens mais elle suppose de relever des défis techniques redoutables. Il faut notamment parvenir à atteindre et contrôler des températures supérieures à 100 millions de degrés, pour provoquer la fusion des nucléons, et libérer d'énormes quantités d'énergie. Mais l’enjeu est simplement immense : si les chercheurs parviennent à contrôler durablement ces réactions infernales, l’humanité aura à sa disposition une source abondante, peu onéreuse et illimitée d’énergie décarbonée. Des aimants plus puissants, tels que ceux dévoilés par le Commonwealth Fusion Systems, réduisent drastiquement les pertes de chaleur et permettent de diminuer d'un facteur 16 le volume de plasma nécessaire pour générer la même énergie. Cette firme américaine est déjà en train de construire son usine pour produire en masse ses aimants de nouvelle génération et espèrent mettre sur le marché un réacteur à fusion compact et opérationnel dès 2030, ce qui bouleverserait totalement les perspectives de transition énergétique.
3 : la fin des mots de passe tels que nous les connaissons
Acteurs principaux : Microsoft, Google, Okta, Duo (propriété d'Alphabet)
Réalisation technique : atteinte
Au début des années 1960, le professeur du MIT Fernando Corbató a mis au point un nouveau système informatique partagé destiné à protéger les fichiers privés grâce à des mots de passe. Cette solution atteint à présent ses limites car les mots de passe sont intrinsèquement non sécurisés. Ils peuvent être volés, interceptés ou forcés de multiples façons, et cela d’autant plus facilement que la plupart des utilisateurs optent pour des mots de passe bien trop simples et prévisibles. Les entreprises axées sur les entreprises comme Okta et Duo, ainsi que les fournisseurs d'identité personnelle comme Google, offrent à présent aux utilisateurs des moyens particulièrement sécurisés de se connecter aux applications et aux services sans avoir à saisir de mot de passe. Pour accéder à un site Web ou lancer une application, il suffit, au lieu d’entrer son mot de passe, d’entrer un code à six chiffres à partir d'une application d'authentification installée sur son mobile.
4 : un outil d’IA capable de prédire le repliement des protéines
Acteurs principaux : DeepMind (sous Alphabet), lsomorphic Labs (sous Alphabet), Baker Lab (Université de Washington)
Réalisation technique : atteinte
Fin 2020, le nouvel outil d'IA de DeepMind, baptisé AlphaFold 2, a réussi à prédire rapidement le repliement de protéine, et les biologistes ont été stupéfaits par son efficacité et sa précision qui révolutionnent les sciences de la vie. La façon unique et complexe dont se replient les protéines dans l’espace détermine en effet leurs propriétés et leur potentiel thérapeutique. AlphaFold2, en utilisant toutes les ressources de l’apprentissage profond, peut prédire la forme des protéines jusqu'au niveau atomique, et sa puissance ne cesse de croître. Sa base de données compte actuellement environ 800 000 entrées, et elle atteindra 100 millions d'entrées l'année prochaine, couvrant presque toutes les protéines connues de la science. Dans quelques années, tous les laboratoires du monde disposeront de cet outil fabuleux et pourront diviser par dix la durée moyenne de mise au point d’une nouvelle molécule thérapeutique.
5 : le concept de « Preuve de participation »
Acteurs principaux : Cardano, Solana, Algorand, Ethereum
Réalisation technique : sans doute en 2022
Les crypto-monnaies comme le Bitcoin consomment de grandes quantités d’énergie. En 2021, le Bitcoin a consommé plus de 100 térawattheures, soit la consommation annuelle d’électricité de la Finlande. Mais cela va changer grâce à Ethereum, un réseau blockchain décentralisé qui émet sa propre cryptomonnaie : l'Ether, devenue seconde cryptomonnaie au monde. Etherum veut imposer son outil de "preuve de participation" (ou preuve d’enjeu), en remplacement de l’outil classique de "preuve de travail" des autres cryptomonnaies. Cette transition devrait réduire la consommation d'énergie de 99,95 % !
Les crypto-monnaies fonctionnent dans le cadre d’une blockchain et le registre numérique généré par les transactions doit être sécurisé contre les fraudeurs et pirates. Bitcoin et Ethereum utilisent actuellement un algorithme de preuve de travail pour la sécurité : les "mineurs" résolvent des énigmes cryptographiques pour obtenir le droit de valider des blocs de nouvelles transactions. Les "mineurs" qui réussissent reçoivent une crypto-monnaie en récompense de leur travail. La grande innovation, avec la preuve de participation, est que les validateurs n'ont plus à être en compétition et à investir d'énormes quantités d'énergie et de matériel informatique. Leur mise leur permet de participer à un tirage au sort, et ceux qui sont sélectionnés gagnent le pouvoir de valider un ensemble de transactions (et donc de crypto-monnaie). Conscient de ces avantages, Ethereum veut devenir le plus grand réseau de cryptomonnaie utilisant la preuve de participation.
6 : batterie de stockage massif d'énergie
Acteurs principaux : ESS, Form Energy
Réalisation technique : atteinte
Par un après-midi ensoleillé d'avril 2021, les énergies renouvelables ont battu des records en Californie, fournissant suffisamment d'énergie pour répondre à 94,5 % de la demande. Mais comment faire lorsque le soleil se couche et que le vent s'arrête ? Pour faire face à la fluctuation de la production d'électricité à partir d'énergies renouvelables, de nouveaux moyens de stockage sont indispensables et les batteries à base de fer, élément abondant et peu coûteux, pourraient offrir une solution. La société ESS, basée en Oregon, propose ce type de batterie qui peut stocker entre quatre et 12 heures d'énergie. Selon ESS, ce type de batterie va devenir moins chère que les batteries lithium-ion et les batteries à flux à base de vanadium, avec un coût de stockage de l’ordre de 20 dollars par kilowattheure, de quoi emmagasiner de manière rentable l’excédent d’électricité provenant des éoliennes et panneaux solaires…
7 : la génération de données synthétiques pour l’IA
Acteurs principaux : Synthetic Data Vault, Syntegra, Datagen, Synthesis AI
Réalisation technique : atteinte
En 2021, des chercheurs nigérians en science des données ont remarqué que les ingénieurs visant à former des algorithmes de vision par ordinateur pouvaient choisir parmi un vaste ensemble de données contenant des vêtements occidentaux, mais pas des vêtements africains. L'équipe s’est attaquée à ce déséquilibre en utilisant l'intelligence artificielle pour générer des images artificielles de la mode africaine, et constituer un ensemble de données entièrement nouveau. De tels ensembles de données synthétiques, générées par ordinateur, ont les mêmes caractéristiques statistiques que les données réelles et sont en train de s’imposer dans le domaine gourmand en données de l'apprentissage automatique. Lorsque les données réelles sont rares ou trop sensibles, comme les données médicales ou financières, ces données entièrement synthétiques peuvent être utilisées pour alimenter les outils de l’intelligence artificielle.
Depuis 2021, cette technologie est devenue monnaie courante. Des sociétés comme Datagen et Synthesis AI fournissent des visages numériques à la demande, et d'autres sociétés fournissent des données synthétiques pour les secteurs de la finance et de l'assurance. Ce boom des ensembles de données synthétiques est favorisé par les réseaux antagonistes génératifs (GAN). Il s’agit d’une technique d'intelligence artificielle très performante pour générer des données réalistes mais fausses, qu'il s'agisse d'images ou de dossiers médicaux. L’avantage de ces données de synthèse, c’est qu’elles permettent d’éviter les biais qui prévalent dans de nombreux ensembles de données.
8 : le vaccin contre le paludisme
Acteurs principaux : GlaxoSmithKline, Organisation mondiale de la santé
Réalisabilité technique atteinte
Le paludisme est une maladie causée par un parasite du genre Plasmodium, essentiellement transmis à l'humain par la piqûre d'un moustique, l'anophèle femelle. Ce parasite a développé au cours du temps d'innombrables stratégies qui lui permettent d'échapper à la détection par le système immunitaire et de prospérer chez un hôte humain. Principalement concentré en Afrique subsaharienne, le paludisme, en dépit de progrès médicaux réels depuis 20 ans, infecte encore 240 millions de personnes dans le monde chaque année, et en tue plus de 600 000, principalement des enfants de moins de cinq ans.
En octobre 2021, après des années de développement, l'Organisation mondiale de la santé a finalement approuvé le premier vaccin au monde contre le paludisme. Ce vaccin, développé par GlaxoSmithKline, est le RTS.S ou Mosquirix. Il n'est pas particulièrement efficace et nécessite trois doses chez les enfants de 5 mois à 17 mois et une quatrième dose après 12 à 15 mois. Testé sur plus de 800 000 enfants au Kenya, au Malawi et au Ghana (à la demande de ces Etats et sous le contrôle de l’OMS), le vaccin s’est montré efficace à environ 50 % contre les formes graves de paludisme au cours de la première année, mais son efficacité a considérablement diminué au fil du temps. Mais lorsqu'il est combiné avec d'autres mesures de lutte contre le paludisme, comme les moustiquaires imprégnées d'insecticide et les médicaments préventifs utilisés pendant la saison des pluies, ce vaccin peut réduire les décès liés au paludisme jusqu'à 70 %. Ce vaccin, qui cible un parasite complexe, contenant un génome 1000 fois plus grand que ceux de la plupart des virus et bactéries, a relancé la recherche et permis l’élaboration de vaccins anti-parasitaires de seconde génération, plus efficaces, qui sont déjà en phase clinique d’essais.
9 : des usines d'extraction du carbone atmosphérique
Acteurs principaux : Climeworks, Carbon Engineering, Carbon Collect
Réalisation technique : atteinte
En septembre 2021, Climeworks a inauguré Orca, la plus grande usine du monde destinée à éliminer et à capter directement le dioxyde de carbone de l'air. Située à la périphérie de Reykjavik, en Islande, l'installation capte 4 000 tonnes de dioxyde de carbone par an. Un grand ventilateur aspire l'air à travers un filtre, où le matériau se combine avec des molécules de dioxyde de carbone. Le partenaire de l'entreprise, Carbfix, mélange ensuite le dioxyde de carbone avec de l'eau et le pompe dans le sol, où il réagit avec le basalte et finit par se transformer en pierre. L'installation fonctionne avec de l'électricité décarbonée, à partir d'une centrale géothermique à proximité. Peu énergivore et non toxique pour l’environnement, la méthode de capture et de transformation du CO2 de Carbfix pourrait permettre de capter et de transformer en pierre un milliard de tonnes de CO2 d’ici 2030…
Une autre société, Carbon Engineering, basée à Squamish, en Colombie-Britannique, au Canada, prévoit de commencer dès cette année la construction d'une usine dans le sud-ouest des États-Unis qui éliminera un million de tonnes de dioxyde de carbone par an. En collaboration avec des partenaires locaux, la société prévoit également d’ouvrir des usines en Écosse et en Norvège qui capteront entre 500 000 et un million de tonnes de dioxyde de carbone par an. Grâce aux économies d'échelle, Climeworks estime que le coût de capture d'une tonne de carbone passera de 800 dollars à environ 100 dollars d'ici 2030.
10 : le suivi exhaustif et en temps réel des mutations du coronavirus
Acteurs principaux : Initiative mondiale pour le partage des données sur la grippe aviaire (GISAID), Nextstrain, Illumina
Réalisation technique : atteinte
Le coronavirus se propage toujours dans le monde, et à partir des prélèvements nasaux qui ont été testés positifs pour la COVID-19, environ 200 ont été analysés par des machines de séquençage génétique, dans le but est de créer une nouvelle carte du génome du virus SARS-CoV-2 et pouvoir suivre en temps réel son évolution. Un tel suivi génétique permet aux scientifiques de détecter rapidement les nouveaux variants tels que le alpha, le delta et, plus récemment, Omicron. Il s'agit d'un travail sans précédent qui fait du SRAS-CoV-2 l'organisme le plus séquencé de l'histoire de la science, dépassant le virus de la grippe, le VIH et même notre propre génome humain. Des bases de données ouvertes comme GISAID et Nextstrain contiennent à présent les cartes génétiques de plus de 7 millions d'agents pathogènes.
Néanmoins, les séquenceurs ne peuvent pas encore prévoir comment le SARS-CoV-2 va évoluer dans l’avenir. D’où la nécessité de séquencer régulièrement la totalité du génome du virus dans toutes les régions du monde. C’est d’ailleurs grâce à l’excellent travail de séquençage des scientifiques Sud-Africains que la communauté scientifique internationale a pu identifier rapidement le nouveau variant très contagieux Omicron et alerter les différents pays du monde, afin qu’ils prennent de nouvelles mesures appropriées.
Il est frappant de constater que les dix innovations retenues cette année par le MIT, signe des temps, se concentrent dans les domaines des sciences de la vie, des outils numériques et enfin de l’énergie et du climat. On peut également souligner à quel point ces quatre problématiques majeures du vivant, de l’information, de l’énergie et du climat, sont à présent inextricablement mêlées. Les structures du vivant inspirent les innovations dans l’énergie, le calcul et les mémoires informatiques mais, en retour, les nouveaux outils numériques permettent des avancées décisives en biologie dans la compréhension du climat et dans le développement des énergies propres. C’est d’ailleurs bien pour favoriser cette synergie très féconde entre disciplines que le MIT est devenu une référence mondiale en matière d’approches transdisciplinaires et de partenariat entre recherche fondamentale et industrielle. Il serait plus que souhaitable que notre pays parvienne à développer davantage cette culture de la créativité et de l’innovation non-académique, souple et ouverte, qui permet de favoriser l’émergence des ruptures technologique majeures dont notre monde a grand besoin pour faire face aux immenses défis humains, sanitaires, énergétiques et climatiques qui l’attendent…
René TRÉGOUËT
Sénateur honoraire
Fondateur du Groupe de Prospective du Sénat
e-mail : tregouet@gmail.com
|
|
|
|
|
|
|
|
TIC |
|
|
Information et Communication
|
|
|
|
|
|
|
|
|
Waltr, Alsatis et le groupe Lacroix, les membres consortium du projet 5G Green Mobilité, vont mettre en place, à Angers, un dispositif permettant d’analyser en continu et en temps-réel la qualité de l’air et monitorer les différentes stratégies anti-pollution mises en place au sein du chef-lieu du Maine-et-Loire. L’objectif de 5G Green Mobilité est « d’agir efficacement et durablement sur les sources de pollution ».
Concrètement, le dispositif s’appuie sur des caméras spectrales afin de détecter et évaluer les pollutions de l’air. S’ajoutent un réseau de micro cellules 5G privé, qui pourra collecter différentes données comme les variables météo ou le taux d’émissions de gaz à effet de serre, et des équipements IoT pour recenser les données liées au trafic routier sur la ville et proposer une micro-régulation en temps réel.
C’est une infrastructure 5G privée émettant sur bandes 3,5 GHz et 26 GHz qui assurera la communication entre tous les éléments du dispositif. La mise en place du réseau 5G démarre en ce début d’année 2022. D’ici l’été, les premiers capteurs de mesure de la pollution seront mis en place. Selon le consortium, la solution devrait être opérationnelle fin 2023, afin que les premiers impacts environnementaux puissent être évalués dès 2024.
Présenté comme une première mondiale, le projet 5G Green Mobilité est budgété à 4,8 millions d'euros. Dans le cadre du programme France relance, le consortium bénéficie de près de 2,48 millions d'euros de subventions. L’opérateur toulousain Alsatis, qui investira 1,25 million d'euros dans ce projet, déploiera l’infrastructure 5G. Spécialiste de l’intelligence environnementale, Waltr, également basée à Toulouse, fournira les données pour déterminer la qualité de l’air et l’analyse de la pollution. La start-up y mobilise 1 million d'euros.
Les équipements IoT seront eux déployés par le nantais Lacroix dont l’une des activités s’articule autour de solutions connectées par la “smart city“. Seul acteur régional de ce projet, l’ETI familiale y investit 2,46 millions d'euros. Le groupe Lacroix est impliqué dans un autre projet collaboratif, également lauréat du dispositif “relocalisation dans les secteurs critiques“ du plan France relance. Mené en collaboration avec l’IRT breton B-com, le projet Smart Water Network vise à développer des solutions basées sur la 5G pour gérer de façon dynamique les réseaux d’eaux potable ou usées.
Article rédigé par Georges Simmonds pour RT Flash
L'Usine Digitale
|
|
^ Haut |
|
|
|
|
|
|
|
Matière |
|
|
Matière et Energie
|
|
|
|
|
|
|
|
|
Le Swiss Plasma Center (SPC) de l’EPFL possède une expérience de plusieurs décennies en physique des plasmas et méthodes de contrôle des plasmas. DeepMind est une société de découverte scientifique acquise par Google en 2014 qui se situe à la pointe de la recherche et du développement de l'intelligence artificielle. Ensemble, ils ont développé une nouvelle méthode de contrôle magnétique des plasmas reposant sur l’apprentissage par renforcement profond. Ils l’ont appliquée à un plasma du monde réel pour la première fois dans le “tokamak” du SPC.
Les tokamaks sont des installations en forme d’anneau (ou «tore») destinées à la recherche en fusion nucléaire. Le SPC est l’un des rares centres de recherche au monde à posséder un tokamak en fonctionnement. Ces appareils utilisent un puissant champ magnétique pour confiner le plasma à des températures extrêmement élevées – centaines de millions de degrés Celsius, plus chaud que le noyau solaire – de sorte que la fusion nucléaire puisse se produire entre les atomes d’hydrogène. L’énergie libérée lors de la fusion est actuellement étudiée pour une utilisation dans la production d’électricité. Le tokamak du SPC est unique car il permet diverses configurations de plasma, d’où son nom : tokamak à configuration variable (TCV). Autrement dit, les scientifiques peuvent l’utiliser pour étudier de nouvelles approches de confinement et de contrôle des plasmas. Une configuration de plasma est liée à sa forme et à sa position dans la chambre de recherche.
Les tokamaks forment et maintiennent les plasmas par un ensemble de bobines magnétiques dont les réglages, notamment la tension, doivent être soigneusement contrôlés. Sinon, le plasma pourrait entrer en collision avec les parois de la chambre et la détériorer. Pour éviter cela, les chercheuses et chercheurs du SPC testent d’abord leurs systèmes de contrôle sur un simulateur avant de les utiliser dans le tokamak TCV. « Notre simulateur est le fruit de plus de 20 années de recherche et est sans cesse amélioré », déclare Federico Felici, scientifique au SPC et co-auteur de l’étude. « Malgré cela, de fastidieux calculs sont encore nécessaires pour déterminer la valeur correcte de chaque variable du système de contrôle. C’est là qu’intervient notre projet de recherche commun avec DeepMind ».
Les expertes et experts de DeepMind ont mis au point un algorithme IA qui peut créer et maintenir des configurations de plasma spécifiques, et l’ont entraîné sur le simulateur du SPC. Cela impliquait d’abord de faire essayer à l’algorithme de nombreuses stratégies de contrôle différentes en simulation et d’acquérir des connaissances. Sur la base de l’expérience acquise, l’algorithme a généré une stratégie de contrôle pour produire la configuration de plasma demandée. Une fois entraîné, le système IA était capable de créer et de maintenir un vaste ensemble de formes de plasma et de configurations avancées, dont une dans laquelle deux plasmas distincts sont maintenus simultanément dans la chambre. Enfin, l’équipe de recherche a testé son nouveau système directement sur le tokamak pour voir son fonctionnement en conditions réelles.
La collaboration entre le SPC et DeepMind remonte à 2018 lorsque Federico Felici a rencontré pour la première fois les scientifiques DeepMind lors d’un hackathon au siège londonien de l’entreprise. Là-bas, il a expliqué le problème de contrôle magnétique du tokamak auquel était confrontée son équipe de recherche. « DeepMind a été immédiatement intéressée par la perspective de tester sa technologie IA dans un domaine tel que la fusion nucléaire, notamment sur un système réel comme un tokamak », explique Federico Felici. Martin Riedmiller, responsable d’équipe de contrôle chez DeepMind et co-auteur de l’étude, ajoute que « la mission de notre équipe est de rechercher une nouvelle génération de systèmes IA – des contrôleurs à boucle fermée – capables d’apprendre dans des environnements dynamiques complexes à partir de rien. Le contrôle d’un plasma de fusion dans le monde réel offre des opportunités fantastiques, même si elles sont extrêmement difficiles ».
Article rédigé par Georges Simmonds pour RT Flash
EPFL
|
|
|
|
|
|
|
|
La Compagnie nationale du Rhône (CNR) a annoncé qu’elle allait l’an prochain installer une centrale osmotique – qui utilise la réaction entre eau douce et salée – de production d’électricité dans le delta du Rhône, une première en France. La CNR et son partenaire spécialisé Sweetch Energy vont installer « la première centrale osmotique de production d’électricité dans le delta du Rhône », qui « commencera à produire une électricité 100 % renouvelable et permanente » à partir de la fin 2023. « L’énergie osmotique est générée par la différence de salinité de l’eau douce des rivières et de l’eau salée de la mer lorsqu’elles se rencontrent », rappellent les deux entreprises dans un communiqué commun.
L’osmose est un processus connu depuis des décennies mais n’a jamais été exploité à grande échelle malgré son énorme potentiel et la promesse d’une source d’énergie stable, contrairement à d’autres sources comme le soleil ou le vent. « A horizon 2030, c’est plus de 4 millions de MWh (mégawattheures) qui pourraient être produits à un prix compétitif chaque année sur le delta du Rhône grâce à l’énergie osmotique, soit deux fois la consommation annuelle des habitants de la ville de Marseille », soulignent la CNR et son partenaire.
Article rédigé par Georges Simmonds pour RT Flash
CNR
|
|
|
|
|
|
|
|
C‘est un projet à 30 millions d’euros, mais surtout un projet exemplaire que développe le groupe dijonnais Roger-Martin, qui a racheté la société Moulin en 2020. Installée à Monistrol-sur-Loire sur un terrain de 12 hectares, elle dispose d’un centre de tri sélectif et de traitement de déchets et d’une structure de valorisation des papiers cartons. Elle produit également depuis 2015 du bois énergie pour des chaufferies collectives de toute la région. C’est l’une des plus importantes plates-formes de préparation de combustibles bois énergie en France. C’est en partant de cette dernière activité que l’entreprise a développé son projet autour de l’hydrogène. « On va fabriquer de l’électricité et de l’hydrogène dans le même temps en partant de notre métier, c’est-à-dire de la biomasse et des 90 000 tonnes de bois énergie qui servent à alimenter les réseaux de chaleurs », explique Antoine Sanchez, le directeur du site.
Concrètement, comment ça marche ? La biomasse, c’est-à-dire la matière organique, est envoyée au sécheur puis en machine de cogénération. Là, sont produites à la fois de l’électricité et de la chaleur. L’électricité va alimenter l’électrolyseur qui va fabriquer l’hydrogène ; elle sera aussi utilisée pour le réseau électrique de la zone industrielle où se situe Moulin. La chaleur pourra être injectée dans le réseau local de chauffage.
Dans le même temps, l’eau récupérée lors de l’évaporation au séchage est envoyée au purificateur. Une partie va pouvoir rejoindre le réseau d’eau local, là où le reste part en direction du déminéralisateur, puis de l’électrolyseur, pour se transformer en hydrogène.
L’hydrogène est alors utilisé par les camions de l’entreprise pour livrer son bois dans toute la région et alimenter une station de distribution ouverte à tous. Le projet permet donc à la fois, en partant de la biomasse, de créer de l’électricité pour faire fonctionner le site et pour alimenter la zone industrielle, et de recycler l’eau, qui est utilisée aussi bien pour la fabrication de l’hydrogène que pour l’alimentation du réseau d’eau local.
Article rédigé par Georges Simmonds pour RT Flash
Le Progrès
|
|
|
|
|
|
|
|
Telles nos mains, les molécules chirales existent sous deux formes, appelées énantiomères, qui partagent une même formule chimique mais dont les structures sont des images l’une de l’autre dans un miroir et non superposables. La chiralité est une notion chimique essentielle, car deux énantiomères peuvent présenter des propriétés complètement différentes dans un environnement chiral malgré leur apparente similitude. Un grand nombre de réactions chimiques produisent un mélange des deux énantiomères. Pour favoriser une forme plutôt que l’autre, les chimistes ont besoin d’entités stéréogènes, c’est-à-dire capables d’orienter la production en faveur d’une seule des deux structures de la molécule chirale. Ces molécules stéréogènes sont généralement elles-mêmes chirales. Il serait encore plus intéressant de disposer de composés stéréogènes commutables, dont on peut contrôler quel énantiomère ils avantagent.
Des chercheurs de l’Institut des sciences chimiques de Rennes (ISCR, CNRS/ENSCR/Université Rennes 1) ont réalisé une nouvelle avancée dans ce domaine en créant une molécule en anneau de Möbius, dont l’enroulement peut à souhait changer de sens et de pouvoir stéréogène. La molécule en anneau de Möbius incorpore une vrille de 180° et présente ainsi une chiralité topologique selon son sens d’enroulement. La molécule est composée d’un macrocycle formant un squelette flexible, sur lequel a été greffé un bras coordonnant pouvant se déplacer le long de l’anneau.
Le bras comporte un motif chiral qui va transmettre sa déformation préférentielle à l’anneau en fonction d’un stimulus, qui est ici la présence de zinc associé à un ligand exogène. Quand ce ligand est retiré, la molécule et son bras reprennent leur forme et leur chiralité originelles et le procédé peut être reproduit plusieurs fois. Les chercheurs comptent introduire des fonctions supplémentaires afin d’exploiter cette chiralité topologique commutable.
Article rédigé par Georges Simmonds pour RT Flash
CNRS
|
|
^ Haut |
|
|
|
|
|
|
|
Terre |
|
|
Sciences de la Terre, Environnement et Climat
|
|
|
|
|
|
|
|
|
Si le CO2 est le gaz à effet de serre le plus connu en raison des quantités émises chaque année (43 gigatonnes en 2019), il existe des molécules plus dangereuses encore, comme le méthane, qui ont un potentiel global de réchauffement sur 20 ans 84 fois plus élevé que le CO2. Selon l'Agence internationale de l'énergie, la concentration de méthane dans l'atmosphère est actuellement deux fois et demie plus élevée qu'avant la révolution industrielle et ce gaz serait responsable de 30 % du réchauffement climatique en cours. Les émissions de méthane ont atteint 570 millions de tonnes par an, dont 60 % seraient d'origine humaine, selon les experts de l'AIE. Transformer une partie des émissions de méthane en CO2 permettrait donc de limiter l’aggravation à court terme du réchauffement global.
Alors que les émissions anthropiques de CO2 proviennent en majorité de la combustion d’énergie fossile, de la déforestation tropicale et de procédés industriels, en France, les sources d’émission de méthane sont essentiellement liées à l’agriculture, à l’élevage et à la décomposition des déchets en décharge. Au niveau mondial, d’autres sources d’émission sont également à prendre en compte : le forage et la fracturation hydraulique associés à l’extraction du pétrole et du gaz naturel sont en effet responsables de près de 18 % des émissions de méthane. Les émissions mondiales de méthane proviennent également de sources très diverses, comme l’agriculture itinérante sur brûlis, l’élevage laitier, l’exploitation du charbon et des minerais, les zones humides et la fonte du pergélisol.
Une étude réalisé par le MIT montre qu'il est envisageable d'utiliser des zéolites dopées au cuivre pour l’oxydation du méthane à basse température et en conditions atmosphériques. Les zéolites sont des argiles naturelles que l’on trouve en abondance dans la nature. Elles sont si peu onéreuses qu’elles servent par exemple à fabriquer la litière pour chat, en raison de leur fort pouvoir absorbant. Par ailleurs, les zéolites sont également capables d’adsorber toutes sortes de molécules en phase gazeuse, ce qui élargit considérablement leur spectre d’utilisation.
Le principe de fonctionnement est relativement simple, à l’échelle du laboratoire : les chercheurs ont introduit de petites particules de zéolite dopée au cuivre dans un tube de réaction. Celui-ci a ensuite été chauffé depuis l’extérieur, alors qu’un flux de gaz contenant de 2 ppm à 2 % de méthane le traversait. Cette fourchette de concentrations couvre ainsi les niveaux de concentration de méthane de l’atmosphère. La méthode proposée par l’équipe du MIT a l’avantage de fonctionner à environ 300°C, ce qui requiert à la fois moins d’énergie et diminue les risques.
En outre, cette méthode est efficace en présence de concentrations de méthane inférieures à 1 %, ce qui n’est pas le cas des méthodes conventionnelles. Les chercheurs proposent ainsi d’incorporer ce nouveau catalyseur dans les systèmes de ventilation des mines de charbon. En outre, cette nouvelle méthode a l’avantage de dégager de la chaleur, sans nécessiter de combustion.
Article rédigé par Georges Simmonds pour RT Flash
ACS
|
|
^ Haut |
|
|
|
|
|
|
|
Vivant |
|
|
Santé, Médecine et Sciences du Vivant
|
|
|
|
|
|
|
|
|
On savait déjà qu'une consommation régulière de café pouvait réduire, chez certaines personnes, les risques de cancer du foie, du sein, de la prostate et du côlon. Cette fois, une méta-analyse chinoise montre que le café pourait également diminuer les risques de cancer de l'endomètre chez la femme.
Précisément, la méta-analyse a porté sur la consommation de café de 9.833 patientes ayant développé un cancer de l'endomètre et sur un échantillon total de 699.234 participantes. L'étude montre que les patientes ayant une consommation de café dans la tranche la plus élevée sont aussi celles qui présentent le risque le plus réduit de cancer de l'endomètre, soit un risque diminué de 29 % par rapport aux participantes ayant la consommation de café la plus faible.
Les chercheurs soulignent que, chez les consommatrices de "vrai" café avec caféine, la réduction du risque est de 34 % ; chez les participantes avec l’IMC le plus élevé, réduction du risque de 35 % ; enfin, chez les participantes n’ayant jamais utilisé de traitement hormonal substitutif (THS), on note une réduction du risque de 12 %.
Article rédigé par Georges Simmonds pour RT Flash
JOGR
|
|
|
|
|
|
|
|
On pourrait un jour être en mesure de littéralement faire mourir de faim le parasite responsable du paludisme en bloquant l'action d'une protéine. C'est ce qu'ont découvert des chercheurs internationaux dans le cadre d'un projet dirigé par un scientifique québécois. Les chercheurs ont constaté que la neutralisation de la protéine PfPX1 réduit de plus de 75 % la croissance in vitro de Plasmodium falciparum, le protozoaire qui cause la forme la plus virulente du paludisme.
« On a montré dans nos travaux que cette protéine-là était super importante pour que le parasite puisse transporter l'hémoglobine jusque dans un organisme, la vacuole digestive », a expliqué Dave Richard, professeur à la Faculté de médecine de l'Université Laval et chercheur au Centre de recherche du CHU de Québec-Université Laval. « C'est intéressant parce que, présentement, il n'y a pas d'agent contre le paludisme qui ciblerait justement l'étape du transport de l'hémoglobine ».
Le parasite du paludisme est transmis aux humains par la piqûre d'un moustique. Une fois dans l'organisme, il se réfugie dans les globules rouges, où il échappe à la détection du système immunitaire et se nourrit de l'hémoglobine, la protéine qui transporte l'oxygène vers les cellules du corps. Cependant, ce parasite a besoin de la protéine PfPX1 pour transférer l'hémoglobine vers l'équivalent de son système digestif, la vacuole digestive mentionnée par M. Richard. Sans cette protéine, il est incapable de se nourrir. Et comme la protéine PfPX1 n'est pas présente chez l'humain, on pourrait en bloquer l'action sans risquer de nuire au patient. On pourrait donc envisager la mise au point, dans quelques années, d'un médicament qui empêcherait le parasite de se nourrir du sang de ses victimes, ce qui entraînerait sa mort.
Article rédigé par Georges Simmonds pour RT Flash
Radio Canada
|
|
|
|
|
|
|
|
Des chercheurs allemands de l'Institut Max Planck (Iéna) ont découvert un nouvel indice dans la recherche de l’origine de la vie en montrant que des peptides peuvent se former sur la poussière dans des conditions telles que celles qui prévalent dans l’espace. Toute vie telle que nous la connaissons est constituée des mêmes blocs de construction chimiques. Ceux-ci incluent des peptides, qui remplissent diverses fonctions complètement différentes dans le corps – transporter des substances, accélérer des réactions ou former des échafaudages stabilisateurs dans les cellules. Les peptides sont constitués d’acides aminés individuels disposés dans un ordre spécifique. L’ordre exact détermine les propriétés éventuelles d’un peptide.
La naissance de ces biomolécules polyvalentes est l’une des questions sur l’origine de la vie. Les acides aminés, les nucléobases et divers sucres présents dans les météoroïdes, par exemple, montrent que cette origine pourrait être de nature extraterrestre. Cependant, pour qu’un peptide soit formé à partir de molécules d’acides aminés individuelles, des conditions très particulières sont nécessaires, alors que l’on supposait auparavant qu’elles étaient plus susceptibles d’exister sur Terre. « L’eau joue un rôle important dans la manière conventionnelle dont les peptides sont créés », explique le Docteur Serge Krasnokutski du groupe d’astrophysique du laboratoire et de physique des clusters de l’Institut Max Planck d’astronomie de l’Université d’Iéna.
Dans ce processus, les acides aminés individuels se combinent pour former une chaîne. Pour que cela se produise, une molécule d’eau doit être retirée à chaque fois. « Nos calculs de chimie quantique ont maintenant montré que l’acide aminé glycine peut être formé par un précurseur chimique – appelé amino cétène – se combinant avec une molécule d’eau. En termes simples : dans ce cas, de l’eau doit être ajoutée pour la première étape de la réaction et l’eau doit être enlevée pour la seconde ».
Grâce à ces connaissances, l’équipe dirigée par le physicien Krasnokutski a maintenant pu mettre en évidence une voie de réaction qui peut avoir lieu dans des conditions cosmiques et ne nécessite pas d’eau. « Au lieu de prendre le détour chimique dans lequel les acides aminés sont formés, nous voulions savoir si les molécules d’aminocétène ne pouvaient pas être formées à la place et se combiner directement pour former des peptides », explique Krasnokutski, décrivant l’idée de base derrière le travail. Il ajoute : « Et nous avons fait cela dans les conditions qui prévalent dans les nuages moléculaires cosmiques, c’est-à-dire sur des particules de poussière dans le vide, où les produits chimiques correspondants sont présents en abondance : carbone, ammoniac et monoxyde de carbone ».
Dans une chambre à ultra-vide, des substrats qui servent de modèle pour la surface des particules de poussière ont été réunis avec du carbone, de l’ammoniac et du monoxyde de carbone à environ un quadrillionième de la pression atmosphérique normale et à moins 263 degrés Celsius. « Les enquêtes ont montré que dans ces conditions, la polyglycine peptidique était formée à partir de produits chimiques simples », explique Krasnokutski. « Ce sont donc des chaînes de l’acide aminé très simple glycine, et nous avons observé différentes longueurs. Les spécimens les plus longs étaient constitués de onze unités d’acide aminé ».
Dans cette expérience, l’équipe allemande a également pu détecter l’amino cétène suspecté. « Le fait que la réaction puisse avoir lieu à des températures aussi basses est dû au fait que les molécules d’aminocétène sont extrêmement réactives. Elles se combinent les unes aux autres dans une polymérisation efficace. Le produit en est la polyglycine ». « Il était néanmoins surprenant pour nous que la polymérisation de l’amino cétène puisse se produire si facilement dans de telles conditions », déclare Krasnokutski. « C’est parce qu’une barrière énergétique doit en fait être surmontée pour que cela se produise. Cependant, il se peut que nous soyons aidés en cela par un effet spécial de la mécanique quantique.
Dans cette étape de réaction spéciale, un atome d’hydrogène change de place. Cependant, il est si petit qu’en tant que particule quantique, il ne pouvait pas franchir la barrière mais était simplement capable de la franchir, pour ainsi dire, grâce à l’effet tunnel ». Maintenant qu’il est clair que non seulement les acides aminés, mais aussi les chaînes peptidiques, peuvent être créés dans des conditions cosmiques, nous devrions peut-être regarder non seulement vers la Terre mais aussi plus dans l’espace lors de la recherche de l’origine de la vie.
Article rédigé par Georges Simmonds pour RT Flash
Eurekalert
|
|
|
|
|
|
|
|
Une équipe de scientifiques de l'Université d'Aix-Marseille a mis en évidence les capacités du Bemnifosbuvir (AT-527) à stopper la réplication du Sars-CoV-2 sous toutes ses formes existantes et à venir. Ce potentiel futur médicament pour traiter le Covid-19 est actuellement en essais cliniques de phase II/III. Cette molécule a initialement été élaborée pour traiter l'Hépatite C, une pathologie causée par un virus à ARN dit “classique” c’est-à-dire avec un génome deux à trois fois plus petit que celui du Sars-CoV-2. Mais d’après les résultats publiés dans la revue Nature Communications, le Bemnifosbuvir s’avère très efficace pour traiter le Covid-19. En effet, cet antiviral cible simultanément deux sites actifs du virus, permettant de stopper la synthèse de génomes viraux et rendant plus difficile l'acquisition de résistance virale. Et bonne nouvelle, la molécule cible plus précisément une partie du virus peu variable, ce qui signifie qu’elle serait efficace contre tous les variants existants et à venir du Sars-CoV-2.
Ce médicament est administrable par voie orale, ce qui simplifie son transport, son stockage et sa prise par les malades. Pour l’instant, la molécule a été administrée à plusieurs patients atteints de comorbidité aux États-Unis. Les premiers résultats cliniques sont encourageants puisque le Bemnifosbuvir empêcherait les formes graves du Covid-19. D'autres essais cliniques sur un plus large panel de patients auront lieu au printemps.
La vaccination contre le Covid-19 s’avère être une arme efficace pour lutter contre la pandémie actuelle. Néanmoins, elle a ses limites et la recherche de nouveaux traitements est nécessaire. Ce médicament pourrait notamment être proposé aux personnes qui ne peuvent pas se faire vacciner, comme les immunodéprimés qui représentent environ 250 000 personnes en France. Ce sont par exemple les personnes qui suivent un traitement anti-cancer par chimiothérapie, les malades du VIH ou encore des patients ayant subi une greffe d’organe il y a peu de temps.
Le Bemnifosbuvir pourrait également être bénéfique chez certaines personnes vaccinées mais présentant des comorbidités (trisomie 21, diabète, obésité, hypertension, etc.) et qui sont donc plus à risque que les autres de faire des formes graves de la maladie. Enfin, cet antiviral pourrait peut-être soulager les personnes atteintes d’un Covid long. Selon les données de l’OMS, un patient sur dix environ ressent toujours des symptômes douze semaines après l’infection au Sars-CoV-2.
Article rédigé par Georges Simmonds pour RT Flash
CNRS
|
|
|
|
|
|
|
|
Les excellents résultats de l'essai clinique du protocole Destiny Breast sur l'innocuité et l'efficacité du médicament "trastuzumab deruxtecan", chez des patientes atteintes d'un cancer du sein métastatique HER2-positif, vont changer la donne pour le traitement de ce cancer agressif du sein !
Réalisé sur 574 patientes, cet essai de phase 3, en double aveugle contre placebo, montre une amélioration remarquable de la survie sans progression (c'est-à-dire le contrôle de la maladie), chez 75,8 % des patients traités à 12 mois, par le trastuzumab deruxtecan, contre 34,1 % dans le groupe de patients traités par le trastuzumab. emtansine (TDM-1), qui a été le traitement standard jusqu'à la publication du protocole Destiny Breast-03. Les résultats obtenus avec ce médicament ont été "si positifs" que le "trastuzumab deruxtecan" est devenu la nouvelle norme de traitement en deuxième intention pour les patientes atteintes d’un cancer du sein HER2-positif.
Le médicament est un "cheval de Troie", qui combine un médicament ciblé (trastuzumab) avec un médicament de chimiothérapie (deruxtecan). Le premier atteint précisément les cellules malignes, où s'exprime la protéine HER2, responsable du développement accéléré de la tumeur. Une fois sur place, la chimiothérapie est libérée de manière localisée, ce qui détruit les mauvaises cellules sans endommager les saines.
Dans les premières phases des tests, le "trastuzumab deruxtecan", développé par Astrazeneca et Daiichi Sankyo, a été d'abord proposé aux cas les plus graves de la maladie, mais selon le docteur Cortés, « ce traitement est déjà à l'étude pour utiliser chez les personnes atteintes de tumeurs localisées, sans métastases », et des résultats très prometteurs sont observés dans les tumeurs où la présence de HER2 est moins élevée.
Article rédigé par Georges Simmonds pour RT Flash
NEJM
|
|
|
|
|
|
|
|
Plusieurs études ont déjà montré qu'il est possible de détecter de façon précoce l'apparition de la maladie de Parkinson ou de la maladie d'Alzheimer, en étudiant la vascularisation de la rétine. Une nouvelle étude réalisée par des chercheurs chinois et australiens a montré que la rétine pourrait également être un outil de dépistage du risque de décès précoce.
Selon les chercheurs australiens, la différence entre l'âge d'une personne et l'âge biologique de sa rétine, appelé "écart d'âge rétinien" pourrait être un indicateur de vieillissement et de décès précoce. Pour leurs recherches, ils se sont appuyés sur 80 169 images de fonds d'œil provenant de 46 969 adultes âgés de 40 à 69 ans et ont étudié les proportions de "vieillissements rapides" : les personnes dont la rétine semblait plus vieille que leur âge réel, avec des écarts d'âge rétinien de plus de 3, 5 et 10 ans.
A l'aide d'un nouvel outil d'IA reposant sur l'apprentissage profond, les chercheurs ont pu prédire que, lorsqu'une rétine était plus vieille d'un an que l'âge véritable de son "propriétaire", le risque de mourir pour n'importe quelle raison dans les 11 prochaines années augmentait sensiblement.
« De grands écarts d'âge rétinien en années étaient significativement associés à des risques de décès de 49 % à 67 % plus élevés, autres que les maladies cardiovasculaires ou le cancer » soulignent les chercheurs. « Cette étude montre que la rétine offre une "fenêtre" unique et accessible pour évaluer les processus pathologiques sous-jacents des maladies vasculaires et neurologiques systémiques qui sont associées à des risques accrus de mortalité » ajoutent-ils.
Une autre équipe composée de chercheurs britanniques, américains et chinois, a mis au point une intelligence artificielle capable d’analyser les scans de la rétine. Ces examens sont généralement réalisés par des ophtalmologues lors des visites pour diagnostic ou suivi d’une maladie de l'œil. Et, d’après les scientifiques, ils contiennent aussi des informations cardiologiques précieuses, concernant notamment de la densité des vaisseaux sanguins dans les yeux.
Lors de leur étude, les scientifiques ont précisément défini quels critères pouvaient être annonciateurs d’une crise cardiaque. Ensuite, ils ont appris à leur intelligence artificielle à reconnaître ces marqueurs. Pour cela, ils l’ont entraînée sur plus de 5000 scans de la rétine de patients. Ils avaient récolté ces clichés auprès d’ophtalmologues. D’après leurs résultats, leur système d’intelligence artificielle serait capable d’identifier le risque qu’a un patient de faire une crise cardiaque avec un taux de réussite compris entre 70 et 80 %. « Cette technique pourrait révolutionner le dépistage des maladies cardiaques », estime Alex Frangi, l’un des chercheurs. « Les scanners rétiniens ne sont pas très chers et ils sont couramment utilisés dans de nombreux cabinets d'opticiens. Grâce au dépistage automatisé, les patients présentant un risque élevé d’avoir une crise cardiaque pourraient ainsi être mieux orientés vers des services spécialisés ».
Article rédigé par Georges Simmonds pour RT Flash
BMJ
Nature
|
|
|
|
|
|
|
|
La thérapie par anticorps monoclonaux peut s’avérer très efficace dans le traitement de nombreuses maladies comme les cancers, les maladies inflammatoires chroniques ainsi que des maladies d’origine infectieuse. Cependant, il s’agit d’un traitement coûteux fondé sur l’utilisation de molécules compliquées à produire. Identifier de nouvelles alternatives thérapeutiques est donc essentiel pour permettre au plus grand nombre de patients d’accéder aux traitements dont ils ont besoin.
A cette fin, des chercheurs et chercheuses de l’Inserm, d’Université de Paris, de Sorbonne Université et du CNRS, ont conçu et testé une nouvelle approche d’immunothérapie reposant sur l’utilisation d’anticorps préexistants dirigés contre le virus d’Epstein-Barr (de la famille des virus de l’herpès), présents chez plus de 95 % de la population mondiale, pour cibler et détruire des cellules pathogéniques (responsables de maladies). Les anticorps monoclonaux ont permis des avancées thérapeutiques majeures dans de nombreux domaines de la médecine. En France, plusieurs dizaines d’anticorps monoclonaux sont commercialisés aujourd’hui pour le traitement de cancers, de maladies inflammatoires chroniques (polyarthrite rhumatoïde, sclérose en plaques, psoriasis, …) ou pour prévenir les rejets de greffe.
Produits pour la plupart d’entre eux dans des cellules de mammifères, ces médicaments demeurent toutefois complexes à développer et coûteux à fabriquer. En conséquence, l’accès à ces thérapies est encore restreint pour de nombreux patients dans de nombreux pays. Afin de proposer de nouvelles solutions thérapeutiques qui pourraient compléter les traitements existants ou offrir de nouvelles possibilités thérapeutiques pour des maladies pour lesquelles il n’en existe pas encore, des scientifiques de l’Inserm, du CNRS, de Sorbonne Université et d’Université de Paris ont conçu une nouvelle approche d’immunothérapie.
Le principe est de rediriger une réponse immunitaire préexistante contre le virus d'EpsteinBarr (EBV) vers des cellules cibles que l’on cherche à détruire. Le virus d’Epstein-Barr est transmissible principalement par la salive. La grande majorité des personnes ne présente pas de symptômes et le virus a la capacité de persister de façon chronique chez les personnes infectées, sous le contrôle efficace du système immunitaire. En conséquence, des anticorps anti-EBV circulent chez ces personnes durant toute leur vie.
Développer un outil thérapeutique fondé sur le recrutement de ces anticorps anti-EBV déjà présents chez les patients présente un intérêt majeur pour réorienter cette réponse immunitaire contre des cellules cibles prédéfinies en fonction de la maladie à soigner. Cette immunothérapie pourrait être applicable chez un très grand nombre de patients du fait de la présence des anticorps anti-EBV chez quasiment tous les individus. Les chercheurs et chercheuses ont conçu des protéines particulières, dites protéines de fusion bi-modulaires (BMFPs). Celles-ci sont composées d’un domaine qui va se fixer spécifiquement à un antigène exprimé à la surface de la cellule cible que l’on cherche à détruire.
Ce domaine est par ailleurs fusionné à l’antigène EBV-P18 du virus Epstein-Barr contre lequel des anticorps de type IgG sont déjà présents chez le patient. Le recrutement de ces anticorps à la surface des cellules cibles traitées avec les BMFPs va alors activer les défenses immunitaires de l’organisme.
Cela aboutira à la destruction des cellules ciblées. Les chercheurs et chercheuses ont d’abord testé ce système in vitro en utilisant plusieurs cellules cibles et ont montré qu’il permettait de déclencher efficacement différents mécanismes du système immunitaire capables d’éliminer les cellules ciblées. Les BMFPs ont ensuite été façonnées pour cibler un antigène exprimé à la surface de cellules tumorales et ont été testées dans un modèle animal de cancer. Les résultats sont prometteurs puisque le traitement a conduit à une augmentation significative de la survie ainsi qu’à une rémission totale du cancer chez certains animaux. « Ces résultats positionnent les BMFPs comme de nouvelles molécules thérapeutiques qui pourraient s’avérer utiles dans le traitement de multiples maladies.
En effet, il s’agit d’un système très versatile, puisque l’on peut aisément changer le module de liaison et donc l’antigène ciblé pour adapter le traitement à de nombreuses maladies, dans le domaine du cancer, de l’infectiologie mais aussi des maladies auto-immunes », explique Arnaud Chêne, chargé de recherche Inserm et dernier auteur de l’étude. « Les BMFPs sont bien plus faciles et rapides à produire que les anticorps monoclonaux entiers, sans avoir recours à une ingénierie sophistiquée pour optimiser leurs fonctions, ce qui permettra de réduire les coûts et d’ouvrir l’accès à ces thérapies à un plus large spectre de patients », ajoute Jean-Luc Teillaud, directeur de recherche émérite à l’Inserm. « En attendant de pouvoir mettre sur pied des essais cliniques contre diverses maladies, allant du cancer au paludisme, la technologie a d’ores et déjà donné lieu aux dépôts de deux brevets » précise Benoît Gamain, directeur de recherche au CNRS.
Article rédigé par Georges Simmonds pour RT Flash
CNRS
|
|
|
|
|
|
|
|
Une équipe de la Faculté de médecine de l'Université Laval et du Centre de recherche du CHU de Québec – Université Laval est parvenue à éditer le génome de cellules humaines cultivées in vitro pour y introduire une mutation qui confère une protection contre la maladie d'Alzheimer. « Certains gènes augmentent le risque de développer la maladie d'Alzheimer, mais il y en a un qui réduit ce risque », explique le professeur Tremblay. « Il s'agit d'une forme rare du gène de la protéine précurseur de l'amyloïde qui a été découverte dans la population islandaise. Cette mutation n'a aucun désavantage connu pour les personnes qui en sont porteuses et elle réduit le risque de souffrir de la maladie d'Alzheimer. Grâce à une version améliorée de l'outil d'édition génomique CRISPR, nous sommes parvenus à éditer le génome de cellules humaines pour y insérer cette mutation ».
Le cerveau des personnes atteintes de la maladie d’Alzheimer présente des plaques amyloïdes dont la toxicité causerait la mort des neurones, rappelle le chercheur. Ces plaques sont formées lorsque la protéine précurseur d'amyloïde est scindée par une enzyme appelée bêta-sécrétase. « La mutation islandaise fait en sorte que la protéine précurseur de l'amyloïde est moins facilement scindée par cette enzyme. Conséquemment, la formation de plaques amyloïdes est réduite », explique le professeur Tremblay.
En théorie, l'introduction du gène islandais dans le génome de personnes à risque de développer la maladie d’Alzheimer pourrait prévenir l'apparition de la maladie ou en ralentir la progression. « Malheureusement, on ne peut pas revenir en arrière et réparer les dommages faits aux neurones par les plaques amyloïdes », précise le chercheur. « Le traitement serait donc particulièrement indiqué pour les personnes issues de familles frappées par la forme héréditaire de la maladie. Si cette thérapie donne de bons résultats, on pourrait aussi l'envisager pour traiter, dès les premières manifestations de la maladie, les personnes atteintes de la forme la plus courante de la maladie d’Alzheimer ».
Le défi consiste maintenant à trouver une façon d'éditer le génome de millions de cellules du cerveau, reconnaît Jacques-P. Tremblay. « Nous étudions différentes possibilités, notamment le recours à des virus non infectieux, pour livrer le complexe d'édition à l'intérieur des neurones. Maintenant que la preuve de concept a été faite sur des cellules humaines in vitro, nous allons tester cette approche chez des souris qui expriment la maladie d'Alzheimer. Si les résultats sont concluants, nous espérons pouvoir réaliser une étude à petite échelle chez des personnes porteuses de mutations qui causent l'apparition de la maladie d’Alzheimer dès l'âge de 35 à 40 ans ».
Article rédigé par Georges Simmonds pour RT Flash
Université Laval
PubMed
|
|
|
|
|
|
|
|
Une étude réalisé par des chercheurs de l'Ecole de Médecine Weill Cornell de New-York a montré que, quels que soient leurs autres problèmes de santé, plus les personnes fument, moins elles réussissent aux tests cognitifs à partir d'un certain âge. « Une personne qui fume régulièrement mais qui est par ailleurs en bonne santé risque toujours d'avoir une mauvaise santé cérébrale », annonce ainsi Neal S.Parikh, auteur de cette étude qui a été menée entre 2011 et 2014 auprès de 3 244 participants d'un âge moyen de 69 ans. Parmi eux, 77 % souffraient d'hypertension artérielle, 24 % de diabète de type 2 et 23 % étaient fumeurs. Chaque participant a passé quatre tests pour mesurer ses capacités cognitives, notamment la mémoire des mots, la fluidité de la réflexion, la vitesse de traitement d'une information et le degré d'attention.
Résultat, des niveaux de cotinine plus élevés -marqueurs du tabagisme- étaient associés à des scores plus mauvais concernant la vitesse de traitement, l'attention et la mémoire de travail mais à des scores normaux sur la mémoire des mots ou la maîtrise du langage. Et leurs score dans l'interprétation de symboles numériques étaient équivalents à celui des personnes souffrant d'hypertension artérielle ou de diabète de type 2. « Nous avons été surpris de constater que le tabagisme n'agit pas en synergie avec l'hypertension artérielle ou le diabète de type 2 sur les performances cognitives mais qu'il a à lui seul une influence sur celles-ci. Cela signifie que fumer est mauvais pour la santé du cerveau », souligne Neal S.Parikh.
Article rédigé par Georges Simmonds pour RT Flash
NMLS
|
|
^ Haut |
|
|
|
|
|
VOTRE INSCRIPTION |
|
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
|
|
|
|
|
|