|
|
Edito
Le cerveau, prochaine télécommande universelle ?
Il y a soixante ans, en 1963, le grand neurophysiologiste espagnol José Delgado fit à Cordoue une démonstration spectaculaire au cours de laquelle il réussit à stopper l'élan d'un taureau en stimulant une aire cérébrale particulière (le noyau caudé), à l’aide d’un transmetteur radio. Ce génial précurseur des implants cérébraux poursuivit ses recherches pendant une vingtaine d’années, mettant notamment au point, dès 1974, le premier casque capable de délivrer à un cerveau humain des impulsions électromagnétiques contrôlées.
Depuis, les recherches visant à la fois à contrôler certaines fonctions cérébrales et à traiter certaines pathologies par des impulsions électromagnétiques, et à utiliser le cerveau comme télécommande cérébrale pour actionner des dispositifs externes, n’ont cessé de se développer, profitant des extraordinaires progrès en termes de puissance et de miniaturisation des composants électroniques, ainsi que des avances non moins impressionnantes des logiciels utilisant l’intelligence artificielle.
En 2004, une étape décisive fut franchie et relatée dans la célèbre revue Nature, avec la première interface opérationnelle, baptisée BrainGate, permettant à un ancien footballeur, Matthew Nagle, qui souffrait de paralysie des quatre membres, d’être le premier être humain à pouvoir réaliser par commande télépathique certaines tâches simples, telles que déplacer un curseur sur un écran et contrôler un bras robotique (Voir NBC News). Cette avancée historique, dirigée par les professeurs Leigh Hochberg (Massachusetts General Hospital) et John Donoghue (Université Brown), fut rendue possible par l’implantation très délicate d’une minuscule puce de silicium comportant 100 électrodes dans une zone du cerveau responsable du mouvement. L'activité des cellules était enregistrée et envoyée à un ordinateur, qui traduisait les commandes et permettait au patient de déplacer et de contrôler l'appareil externe.
Au cours de ces dernières années, les recherches dans ce domaine se sont accélérées : en 2021, les chercheurs de Neuralink, la société créée en 2016 par Elon Musk, ont fait l’événement en présentant un singe capable de jouer au jeu Pong, sans manette, grâce à un implant cérébral dans son cerveau. Ce singe a réussi à contrôler uniquement avec ses yeux les mouvements de la raquette, comme on pourrait le faire avec un joystick. En décembre dernier, ces chercheurs sont allés encore plus loin : ils ont présenté une autre expérience dans laquelle on pouvait voir un singe qui fixe un écran et parvient, en restant totalement immobile, à reproduire une suite de lettres sur l’ordinateur, pour aboutir à l’équivalent anglais de « Est-il possible d’avoir mon goûter s’il vous plaît ? » (Voir Trust My Science).
En novembre dernier, des chercheurs chinois de l’Université de Tianjin ont présenté une nouvelle interface cerveau-machine (ICM) qui a fait sensation dans la communauté scientifique internationale et qui serait « compatible avec des dizaines de technologies disponibles ». Le Professeur Xu Minpeng, qui dirige ces travaux à l’Université de Tianjin, précise que cette interface cerveau-machine est capable de « normaliser la structure des données et le processus de traitement et de développer un cadre commun d’algorithmes de décodage ». Dans sa nouvelle version actuelle, ce système est capable de prendre en charge 14 ensembles de données, de mettre en œuvre 16 méthodes d’analyse et 53 modèles de décomposition, ce qui offre une très large compatibilité avec les nombreux logiciels déjà utilisées dans la recherche autour des ICM (Voir China Daily).
Cette interface cerveau-machine chinoise est du type "non-invasive", ce qui veut dire qu’elle ne repose pas sur un dispositif implanté sous le cuir chevelu. Il y a quelques semaines, le gouvernement chinois a annoncé, et ce n’est pas un hasard, la création d’un nouveau laboratoire de référence à Tianjin, qui comptera 60 chercheurs et sera entièrement dédié au développement d’interfaces cerveau machine révolutionnaires, capable de surclasser les systèmes de commande mentale américain et européen (Voir South China Morning Post).
Dans ce domaine technologique qui représente un immense marché potentiel, la concurrence internationale est féroce et les acteurs redoublent d’efforts pour être les premiers à mettre sur le marché des commandes télépathiques fiables, sûres et confortables. C’est le cas de Neuralink ou des chinois Alibaba et Tencent. Selon un rapport récent publié par EO Intelligence, le marché des interfaces cerveau-machine pourrait atteindre 35 milliards de dollars d’ici 2030. Mais pour le Cabinet Mc Kinsey, les interfaces cerveau-machine pourraient représenter un marché bien plus important, de l’ordre de 200 milliards de dollars par an en 2030. Aux États-Unis, l’entreprise new-yorkaise Synchron a reçu le feu vert de la part de la Food and Drug Administration (FDA) pour tester son implant sur des sujets humains aux États-Unis. Pour mener à bien son essai, Synchron prévoit de recruter six patients. L’originalité de ce dispositif, baptisé Stentrode, et qu’il est implanté dans un vaisseau sanguin à la base du cou, et pas dans le cerveau.
En février, l’équipe réputée de Franck Wilett, de l’Université de Stanford, a présenté une nouvelle interface cerveau-machine (BCI) qui permet à ses bénéficiaires ayant perdu l’usage du langage "d’écrire" mentalement à la vitesse inédite de 62 mots par minute. Même si ce débit peut sembler faible par rapport à celui d'une conversation normale, il s’agit d’une prouesse dans le cas d’une personne victime de paralysie faciale et incapable de s’exprimer oralement (Voir BioRxiv et MIT Technology Review). En 2021, la même équipe s’était déjà distinguée en présentant un outil similaire qui permettait à un patient paralysé jusqu'au cou d'écrire par la pensée. Ces chercheurs avaient eu recours à des électrodes qui décodaientt les signaux de la zone motrice de son cerveau pendant qu'il imaginait écrire. Grâce à ce dispositif, ce patient avait pu s'exprimer à l'écrit, à une vitesse de 90 caractères par minute et 99 % de précision.
La prochaine étape pour ces chercheurs consiste à passer de l'expression écrite à la parole. Comme le souligne Wilett, « La parole normale est d'environ 160 mots par minute, ce qui est beaucoup plus rapide que l'écriture manuscrite. En cas de succès, l'expression orale peut permettre à quelqu'un de participer à une conversation à un rythme normal ». Pour réussir ce nouveau saut technologique, l’équipe de Stanford veut utiliser des réseaux de microélectrodes qui enregistrent à partir de neurones uniques au lieu de grands groupes de neurones. Ces chercheurs soulignent que l’interface actuelle, avec sa vitesse de 62 mots par minute, est déjà 3,5 fois plus rapide que le record précédent pour tout type d'ICM, ce qui montre qu’il est envisageable d’atteindre la vitesse de la conversation naturelle de 160 mots par minute. Ces travaux confirment en outre que même les patients paralysés depuis plusieurs années conservent, pour la plupart, la possibilité de réactiver les circuits neuronaux permettant la parole.
Il y a quelques semaines, des chercheurs de l'Université de technologie de Sydney ont présenté une technologie permettant de faire fonctionner à distance divers appareils ou robots, par le simple contrôle de la pensée. Cette technique vient de faire l'objet d'une démonstration réussie par des soldats australiens qui sont parvenus à faire fonctionner un robot quadrupède à l'aide d'une interface cerveau-machine inédite (Voir Defense One).
Cette interface a été mise au point par les professeurs Chin-Teng Lin et Francesca Iacopi de l'UTS, en collaboration avec l'armée australienne et le pôle d'innovation de la Défense. Elle est composée de capteurs en silicium et graphène, placés principalement à l'arrière du cuir chevelu et chargés de détecter les ondes cérébrales du cortex visuel. L'utilisateur porte un casque de réalité augmentée qui lui affiche des carrés blancs, correspondant aux différentes commandes possibles. L’utilisateur n’a plus qu’à se concentrer sur l’une d’entre elles et son "ordre mental" est alors traduit en commande électronique du robot… avec un taux de reconnaissance d'un ordre de 94 %. Cette technologie pourrait trouver de nombreuses applications dans une multitude de domaines, santé, industrie, transports, défense…
Il y a quelques jours, des chercheurs chinois dirigés par le Professeur Ma Yongjie, neurochirurgien à l’Université médicale capitale de l’hôpital Xuanwu (Pékin), ont annoncé avoir mené avec succès l’une des premières expériences d’interface faiblement invasives cerveau-ordinateur (BCI) au monde sur un singe (Voir Interesting Engineering). Les techniciens chinois ont réussi à identifier puis recueillir des signaux électroencéphalographiques (EEG) après avoir placé un électroencéphalographe interventionnel sur la paroi cérébrovasculaire d’un singe en utilisant une chirurgie mini-invasive. Ce système permet une commande active d’un bras robotique par la pensée. En 2020, des scientifiques chinois avaient déjà réussi à insérer deux microélectrodes dans le cerveau d’un patient paralysé de 72 ans, ce qui avait permis de relier son système nerveux central à un bras mécanique. Ce patient avait alors réussi à manipuler son bras en se concentrant mentalement sur l’action à exécuter.
Très récemment, aussi, des chercheurs américains ont annoncés qu’une puce neuronale, baptisée “NeuroPort Array”, développée par Blackrock Neurotech depuis une vingtaine d’années, attendait son autorisation de mise sur le marché pour être implantée sur de nombreux patients souffrant de diverses pathologies touchant l’ouïe ou la vision ou de troubles psychiatriques. Cet implant est déjà utilisé depuis plusieurs années pour aider des patients paralysés à contrôler des bras robotiques ou leur fauteuil roulant par la simple pensée, mais également de ressentir à nouveau certaines sensations (Voir übergizmo). Cette puce est constituée d’une centaine de micro-aiguilles qui entrent en contact du cerveau et peuvent capter les signaux électriques produits par les pensées du patient. Un transducteur traite ensuite ces signaux et les convertit en commandes permettant d'effectuer diverses actions. Un système d'apprentissage automatique permet au système de s'améliorer en permanence, en traitant de plus en plus rapidement les signaux recueillis. Plus étonnant encore, il semblerait, selon ces chercheurs, que cette puce soit en mesure, chez certains patients, de les aider à restaurer des souvenirs perdus ou à améliorer leurs capacités de concentration.
Enfin, le 1er mai dernier, une nouvelle étude américaine a fait grand bruit : des scientifiques de l’Université d’Austin, au Texas, ont annoncé avoir mis au point un décodeur qui, via l’imagerie cérébrale et l’intelligence artificielle, arrive à traduire en langage la pensée d’une personne sans qu’elle ait besoin de s’exprimer. L’objectif principal de ce "décodeur de langage" est d’aider des patients ayant perdu l’usage de la parole à communiquer leurs pensées via un ordinateur. Les chercheurs reconnaissent que ce nouveau dispositif, bien que son utilité médicale soit incontestable, pose néanmoins de sérieuses questions éthiques concernant le respect de "l’intimité mentale" du sujet. C’est pourquoi l’étude souligne bien que ce dispositif ne peut fonctionner correctement qu’après un entraînement du cerveau supposant plusieurs dizaines d’heures dans un appareil d’IRM -imagerie par résonance magnétique- (Voir The University of Texas at Austin).
Certes, de précédentes interfaces cerveau-machine, destinées à permettre de restituer de l’autonomie à des personnes souffrant de handicaps majeurs, ont déjà fait leurs preuves. Mais ces dispositifs nécessitent une chirurgie invasive, avec l’implantation d’électrodes dans le cerveau, et ils n’agissent qu’au niveau des zones du cerveau qui contrôlent notre bouche pour former des mots. Le système présenté par ces chercheurs texans fonctionne, lui, au niveau de la sémantique et du sens des phrases, et il est, de surcroît, non-invasif, ce qui est un avantage majeur en termes de risques médicaux et chirurgicaux.
Durant l’expérience, trois personnes ont passé 16 heures dans un appareil d’imagerie médicale fonctionnelle (IRMf) : cette technique permet d’enregistrer les variations du flux sanguin dans le cerveau, permettant ainsi de mesurer en temps réel l’activité des zones cérébrales durant certaines tâches (parole, mouvement, etc.). Les participants à cette expérience ont écouté des podcasts racontant des histoires, ce qui a permis aux chercheurs de déterminer de quelle manière les mots, les phrases et leur signification stimulaient différentes aires cérébrales. Les nombreuses données ainsi obtenues ont ensuite été traitées par un réseau neuronal artificiel de traitement du langage utilisant GPT-1, le prédécesseur du robot conversationnel ChatGPT.
A force d’entraînements, ce réseau de neurones a réussi à prédire de manière de plus en plus juste comment chaque cerveau réagirait au discours entendu. Et cette capacité de prédiction est devenue telle que, même en modifiant l’ordre des mots, le décodeur arrivait à reconstituer le sens de ce que la personne entendait, comme l’explique Jerry Tang (Université d’Austin), qui a dirigé cette étude. Par exemple, lorsqu’un utilisateur a entendu la phrase : « Je n’ai pas encore mon permis de conduire », le modèle de réseau a traduit par « Elle n’a même pas encore commencé à apprendre à conduire. ».
La puissance de ce nouvel outil technologique pose évidemment un sérieux problème en matière de respect de la vie privée et de « l’intimité mentale », car on pourrait parfaitement imaginer que des Etats, des organisations criminelles ou de simples sociétés commerciales, utilisent de tels outils pour lire dans les pensées à grande échelle, sans en avertir les personnes concernées et sans leur consentement. Certes, pour le moment, ce décodeur ne fonctionne pas sur le cerveau d’une personne sur lequel il ne s’est pas entraîné. En outre, les participants ont réussi à tromper sans difficulté la machine en se racontant des histoires dans leur tête pendant qu’ils écoutaient les podcasts servant à l’apprentissage de cet outil. Mais à la vitesse où progressent ces technologies de commande et de lecture mentale, combien de temps encore tiendront ces protections ? Conscients de ces risques et menaces, non seulement pour les individus, mais également pour nos démocraties, ces chercheurs appellent à la mise en place d’une réglementation visant à encadrer strictement l’utilisation de ces nouvelles technologies, afin qu’elles ne puissent pas être utilisées pour nous manipuler (en modifiant nos aspirations ou le contenu de notre mémoire par exemple) ou pour connaître nos opinions, nos goûts ou nos projets…
Alors que notre pays vient de présenter, le 10 mai dernier, un important projet de loi de "sécurisation et régulation de l’espace numérique" et que le Parlement européen vient d’adopter et de durcir sensiblement, le 11 mai dernier, un projet de règlement de la Commission européenne visant à encadrer le développement de l’intelligence artificielle (Artificial Intelligence Act), les élus et responsables politiques français et européens doivent, dès à présent, poser le cadre d’un débat démocratique et sociétal approfondi pour que ces nouvelles technologies télépathiques, qui progressent bien plus rapidement que prévu, ne puissent jamais devenir des outils d’asservissement et de contrôle des citoyens et restent des vecteurs de progrès scientifiques, médicaux et humains.
René TRÉGOUËT
Sénateur honoraire
Fondateur du Groupe de Prospective du Sénat
e-mail : tregouet@gmail.com
|
|
|
|
|
|
|
|
Matière |
|
|
Matière et Energie
|
|
|
|
|
|
|
|
|
Semblable à une antenne satellite ou autre infrastructure de télécommunications, une parabole sur le campus de l’EPFL passe facilement inaperçue. Mais cette parabole est particulière car elle fonctionne comme un arbre artificiel. Après avoir concentré le rayonnement solaire près de 1000 fois, un réacteur situé au-dessus de la parabole utilise la lumière du soleil pour convertir l’eau en hydrogène, en oxygène et en chaleur, des éléments précieux et renouvelables.
« Il s’agit de la première démonstration de production d’hydrogène solaire à l’échelle d’un système. Contrairement aux démonstrations types à l’échelle du laboratoire, elle inclut tous les dispositifs et composants auxiliaires, ce qui nous donne une meilleure idée de l’efficacité énergétique à laquelle on peut s’attendre lorsque l’on considère le système dans son ensemble », explique Sophia Haussener, responsable du Laboratoire de la science et de l’ingénierie des énergies renouvelables (LRESE) de la Faculté des sciences et techniques de l’ingénieur.
« Avec une puissance de sortie de plus de 2 kilowatts, nous avons dépassé le plafond de 1 kilowatt pour notre réacteur pilote tout en maintenant une efficacité record pour cette grande échelle. Le taux de production d’hydrogène atteint au cours de ces travaux représente une étape vraiment encourageante vers la concrétisation commerciale de cette technologie ».
Les travaux s’appuient sur des recherches préliminaires qui démontrent l’efficacité du concept à l’échelle du laboratoire, en utilisant le simulateur solaire à flux élevé du LRESE. Ces travaux ont été publiés dans la revue Nature Energy en 2019. Dans cette même revue, l’équipe a publié les résultats de son processus à grande échelle, efficace et multiproduits dans des conditions réelles.
La production d’hydrogène à partir de l’eau en utilisant l’énergie solaire est appelée photosynthèse artificielle, mais le système du LRESE est unique de par sa capacité à produire de la chaleur et de l’oxygène à grande échelle.
Après que la parabole a concentré les rayons du soleil, l’eau est pompée dans son point focal où est intégré un réacteur photoélectrochimique. Dans ce réacteur, des cellules photoélectrochimiques utilisent l’énergie solaire pour électrolyser ou séparer les molécules d’eau en hydrogène et en oxygène. De la chaleur est également produite, mais au lieu d’être rejetée comme une perte du système, elle passe par un échangeur thermique afin d’être exploitée, par exemple pour le chauffage ambiant.
Outre l’hydrogène et la chaleur produits par le système, les molécules d’oxygène libérées par la réaction de photo-électrolyse sont également récupérées et utilisées. « L’oxygène est souvent perçu comme un déchet. Mais dans ce cas, il peut également être exploité, par exemple pour des applications médicales », affirme Sophia Haussener.
Le système convient aux applications industrielles, commerciales et résidentielles. D’ailleurs, la spin-off du LRESE SoHHytec SA est déjà en train de le déployer et de le commercialiser. Cette start-up de l’EPFL travaille avec une usine de production de métaux basée en Suisse pour construire une installation de démonstration à l’échelle de plusieurs centaines de kilowatts. Cette dernière produira de l’hydrogène pour les processus de recuit des métaux, de l’oxygène pour les hôpitaux des environs et de la chaleur pour les besoins en eau chaude de l’usine.
« Avec la démonstration pilote à l’EPFL, nous avons franchi une étape importante en démontrant une efficacité sans précédent à des densités de puissance de sortie élevées. Nous sommes en train de développer un système dans un jardin artificiel, où chacun des “arbres artificiels” est déployé de manière modulaire », déclare Saurabh Tembhurne, co-fondateur et directeur général de SoHHytec. Le système pourrait être utilisé pour fournir du chauffage central et de l’eau chaude aux particuliers et aux entreprises, et pour alimenter des piles à hydrogène. Avec une production d’environ un demi-kilogramme d’hydrogène solaire par jour, le système du campus de l’EPFL pourrait alimenter environ 1,5 véhicule à pile à hydrogène parcourant une distance annuelle moyenne. Il pourrait aussi répondre à la moitié de la demande d’électricité et couvrir plus de la moitié des besoins annuels de chauffage d’un ménage suisse type de quatre personnes.
Article rédigé par Georges Simmonds pour RT Flash
EPFL
|
|
|
|
|
|
|
|
Le boson W est une particule fondamentale, un « boson de jauge » porteur de l’interaction faible. C’est l’une des quatre interactions fondamentales de la nature, responsable de la désintégration radioactive de particules subatomiques. Il est à l’origine de nombreux processus nucléaires, y compris la fusion nucléaire qui se déroule au cœur des étoiles. Depuis sa découverte en 1983 par une équipe du CERN, les scientifiques continuent les expérimentations afin de comparer ses propriétés, en particulier sa masse, avec les prédictions théoriques. Et pour cause : tout écart par rapport à la valeur théorique pourrait suggérer l’existence d’une physique et de phénomènes encore inconnus. Ils remettraient alors en question le modèle standard de la physique des particules…
Grâce à l’amélioration des techniques d’analyse de données, les physiciens sont parvenus à effectuer des mesures de plus en plus précises de la masse du boson W. Mais, en 2022, une annonce vient ébranler toute la communauté scientifique. Après dix ans de calculs, les chercheurs de la collaboration Collider Detector du Fermilab de Chicago affirment avoir mesuré expérimentalement, dans le TeVatron, une masse de 80,433 ± 0,009 GeV – soit une valeur très différente de la valeur théorique. Or, l’incertitude de cette mesure est deux fois moins importante que celle de la mesure du CERN. Ce résultat inattendu soulevait donc la possibilité d’une toute nouvelle physique influençant la masse des particules.
Le mois dernier est cependant survenu un nouveau rebondissement. Le boson W a fait l’objet d’une nouvelle mesure au CERN, via l’expérience ATLAS. La masse obtenue s’est avérée nettement plus proche de la valeur théorique. Les chercheurs rapportent cette fois-ci une masse de 80,360 ± 0,016 GeV. Ceci constitue une mesure près de 16 % plus précise que leur précédent résultat. La collaboration ATLAS a publié en 2018 les résultats de sa première mesure de la masse du boson W. Celle-ci reposait sur un échantillon de bosons W enregistrés en 2011, alors que le LHC fonctionnait à une énergie de collision de 7 TeV. Les chercheurs ont entrepris d’analyser une nouvelle fois cet échantillon de 14 millions de candidats bosons W produits lors de collisions proton-proton, en améliorant la précision de la mesure.
Ils ont notamment mis en œuvre une technique avancée d’ajustement. Ils ont également créé des versions améliorées de ce que l’on appelle "les fonctions de distribution de partons du proton". Les partons sont des sous-particules indépendantes composant les hadrons, tels que les protons et les neutrons. Ces fonctions décrivent la répartition de l’impulsion du proton entre les quarks et les gluons qui le constituent. L’équipe a également vérifié la description théorique du processus de production du boson W.
Cette masse est particulièrement difficile à déterminer. Non seulement il faut 10 millions de collisions pour produire un seul boson W, mais cette particule se désintègre aussitôt qu’elle est créée ! Il est donc impossible de déterminer sa masse directement. Les physiciens parviennent à l’estimer à l’aide des particules qui résultent de sa désintégration. Il s’agit ainsi d’un neutrino accompagné d’un électron ou d’un muon. Or, les neutrinos sont eux aussi indétectables ! Pour corriger les calculs, les scientifiques s’appuient donc sur des simulations complexes. « La mesure de la masse du boson W fait partie des mesures de précision les plus compliquées parmi celles qu’on peut réaliser dans les collisionneurs de hadrons. Elle requiert un étalonnage très précis des énergies et des impulsions des particules mesurées, ainsi qu’une évaluation attentive et une parfaite maîtrise des incertitudes de modélisation », explique Andreas Hoecker, porte-parole d’ATLAS.
Il ne s’agit bien entendu que d’une conclusion préliminaire, qui reste à confirmer. D’autres tests sont actuellement en cours sur des données plus récentes, obtenues par ATLAS, par le Solénoïde compact pour muons (CMS), ainsi que par le Large Hadron Collider beauty (LHCb). En attendant, cette nouvelle mesure correspond à tous les autres résultats qui ont été publiés jusqu’à présent, mis à part celui du Fermilab.
« Ce résultat mis à jour d’ATLAS constitue un test rigoureux. Il confirme la cohérence de notre compréhension théorique des interactions électrofaibles », a déclaré Andreas Hoecker. L’existence d’une nouvelle physique apparaît donc pour le moment peu probable. Le modèle standard de la physique des particules n’a encore jamais été mis en défaut. Il semble donc suffisamment robuste pour décrire tout l’univers qui nous entoure.
Article rédigé par Georges Simmonds pour RT Flash
Science & Vie
|
|
|
|
|
|
|
|
La climatisation représente 20 % de la consommation électrique des bâtiments, et cette part ne cesse de croître. Le principal inconvénient de ces systèmes de réfrigération, en dehors de leur consommation d'énergie, est qu'ils sont majoritairement basés sur la compression d'un gaz qui contribue au réchauffement climatique. Une solution alternative consiste à utiliser des matériaux caloriques, qui ont la capacité de produire un refroidissement quand ils sont soumis à une force cyclique (magnétique, électrique ou mécanique).
Des chercheurs de l'International research laboratory (IRL) Engineering Science Lyon Tohoku, Materials under eXtreme conditions (Elytmax, CNRS/INSA Lyon/Centrale Lyon/Université Claude Bernard Lyon 1/Tohoku University), ont réalisé deux prototypes d'un système de réfrigération basé sur un caoutchouc élastocalorique. Ces résultats sont publiés dans la revue Applied Thermal Engineering. Lorsqu'ils subissent une forte élongation, ces tubes élastocaloriques s'échauffent. La combinaison de cycles d'élongation/rétractation et de circulation de fluide dans les tubes permet d'extraire de la chaleur. La puissance de réfrigération du système croît avec le nombre de tubes mis en parallèle.
L'élément de base du dispositif est un simple tube de caoutchouc naturel, qui s'échauffe quand on lui fait subir une forte élongation (400 % à 600 %), et se refroidit quand il se rétracte. Le tube, soumis à une contrainte cyclique, est parcouru par le fluide caloporteur qui se déplace aussi cycliquement, de manière à créer un flux net de chaleur dans une direction.
Une première étude théorique avait validé le principe et permis d'identifier des paramètres clés du fonctionnement du dispositif. Les chercheurs ont franchi une nouvelle étape en construisant des prototypes de laboratoire qui ont confirmé le rôle clé de l'épaisseur et du diamètre du tube dans les échanges de chaleur, tout en démontrant qu'un tel dispositif de réfrigération était potentiellement réalisable à plus grande échelle.
Les deux prototypes de laboratoires sont constitués respectivement de 19 et 55 tubes de caoutchouc fins (quelque mm de diamètre) mis en parallèle entre deux réservoirs d'eau, et soumis à des cycles d'élongation par un actionneur. Les cycles d'élongation du tube et de circulation du fluide ont permis d'obtenir une puissance de réfrigération maximale de 3,5 Watt avec le dispositif à 55 tubes. A titre de comparaison, la puissance nécessaire à un réfrigérateur domestique se mesure en centaines de Watt et se compte en kWatt pour une climatisation. Mais au vu des résultats obtenus grâce à la parallélisation des tubes, il devrait suffire d'en augmenter le nombre pour gagner en puissance. La réalisation pratique du système (principe d'actionnement, fixation des tubes et contraintes géométriques, distribution du fluide...) a donné naissance à des solutions innovantes, qui ont fait l'objet d'un dépôt de brevet.
Article rédigé par Georges Simmonds pour RT Flash
Science Direct
|
|
^ Haut |
|
|
|
|
|
|
|
Vivant |
|
|
Santé, Médecine et Sciences du Vivant
|
|
|
|
|
|
|
|
|
Ahish Tripathi, fondateur et PDG de Tzar Labs et président d'Epigeneres Biotech, une société indienne de biotech, a présenté les résultats positifs d’un nouveau test sanguin HrC, capable de détecter la tumeur avant qu’elle se forme. L’essai a regroupé 1 000 participants dont la moitié était atteinte d’un cancer. Le test a été évalué sur vingt-cinq cancers dont les cancers du sein, du poumon, du pancréas, ou de l’intestin. « Nous n’avons pas eu un seul faux négatif, pas même un faux positif », s’est-il félicité.
L’outil détecte le cancer au stade 1 ou 2, voire à un stade encore plus précoce. À la différence de la plupart des autres tests sanguins évalués en cancérologie, l’outil recherche les cellules souches avec un biomarqueur du cancer avant qu’elles ne forment des tumeurs. Il arrive à repérer les cellules jusqu’à 18 mois avant qu’elles ne soient tumorales. « C'est là que réside la percée que nous avons faite : toutes les sociétés de biopsie liquide que vous connaissez… elles recherchaient ces fragments [de cellules tumorales] dans le sang périphérique », a expliqué Ashish Tripathi. Or, “très peu” de cellules tumorales circulent aux premiers stades du cancer.
L’outil va plus loin. Là où les biopsies tissulaires peuvent déterminer si un cancer est métastatique, le produit d’Epigeneres Biotech prédit quel(s) organe(s) vont être la cible des cellules tumorales, encore une fois, avant que la première tumeur se soit formée. Au Royaume-Uni, les hôpitaux ont commencé à utiliser le test, indique le New York Post, et les États-Unis semblent également intéressés.
Permettre de détecter le cancer grâce à un simple test sanguin pourrait être révolutionnaire. Actuellement, les techniques employées pour le dépistage peuvent être pénibles, voire douloureuses pour le patient, à l’instar des biopsies. Avec cette invention, Ashish Tripathi voit très grand : « ce que nous souhaitons, c'est un monde où nous ferons tous ce test une fois par an, et nous attraperons le cancer au stade 1 ou avant - à chaque fois - quand il sera infiniment plus curable ».
Article rédigé par Georges Simmonds pour RT Flash
Oxford Academic
|
|
|
|
|
|
|
|
Des chercheurs américains ont utilisé des cultures de neurones vivants de souris in vitro pour créer un ordinateur vivant capable de résoudre certains problèmes basiques. Leurs travaux ont été présentés lors de la réunion de mars de l'American Physical Society à Las Vegas. Cette avancée majeure a été réalisée grâce à l'utilisation d'une technique appelée “reservoir computing” qui consiste à utiliser les signaux de sortie d'un réseau de neurones pour digérer les entrées de manière récurrente. Cette approche permet de créer des machines informatiques efficaces ne nécessitant pas de mises à jour coûteuses des poids de rétropropagation, comme dans les réseaux de neurones récurrents classiques.
Le réservoir vivant a été créé en intégrant des neurones dérivés de cellules souches optogénétiques avec des réseaux de micro-électrodes. Les capacités du système ont été démontrées par sa faculté à distinguer différents modèles de signaux à travers des stimulations électriques et optiques. Cela ouvre la voie à la création d'organismes hybrides entre la technologie et le vivant. Les scientifiques ont utilisé de véritables cellules cérébrales vivantes dans leur configuration, exploitant la nature auto-organisatrice et malléable des synapses neuronales. Cela permet au réseau neuronal biologique de s'adapter aux problèmes de manière continue et plus rapide.
Les implications de cette recherche sont considérables. Thomas Hartung, professeur des sciences de la santé environnementale à la Johns Hopkins Bloomberg School of Public Health et à la Whiting School of Engineering, a ainsi déclaré que : l'informatique et l'intelligence artificielle ont été le moteur de la révolution technologique, mais elles atteignent un plafond. La bio-informatique est un énorme effort de compactage de la puissance de calcul et d'augmentation de son efficacité pour repousser les limites technologiques actuelle.
En effet, cette technologie pourrait être utilisée dans le domaine de la robotique, où elle pourrait être intégrée à un robot utilisant également des tissus musculaires vivants. De plus, la création d'organismes hybrides entre la technologie et le vivant pourrait également ouvrir la voie à de nouvelles thérapies médicales et à des solutions de bio-énergie.
Article rédigé par Georges Simmonds pour RT Flash
CNN
|
|
|
|
|
|
|
|
Des neurobiologistes du Karolinska Institutet de Stockholm, en Suède, ont découvert comment les niveaux d’une molécule de sucre dans le sang sont liés à l’accumulation de tau, une protéine qui joue un rôle clé dans le développement de la démence sévère. Auparavant, plusieurs équipes de recherche avaient intercepté d’autres substances (biomarqueurs) sur lesquelles fonder des méthodes de dépistage fiables et peu coûteuses, mais les nouvelles recherches semblent ouvrir la voie à des procédures permettant de prédire dix ans à l’avance l’apparition de la maladie d’Alzheimer.
Comme pour de nombreuses pathologies, même dans le cas de la maladie d’Alzheimer, le diagnostic précoce est essentiel : la manifestation des symptômes indique en fait que la maladie est déjà en cours. Le dépister précocement est donc très important, car il peut limiter l’aggravation de la neurodégénérescence, que l’on pense être le résultat d’une accumulation anormale de protéines bêta-amyloïdes et tau dans le cerveau. Les essais cliniques de médicaments contre la maladie d’Alzheimer montrent également que le traitement doit commencer tôt dans le processus de la maladie, pour inverser la neurodégénérescence avant qu’il ne soit trop tard.
Dans cet esprit, des chercheurs du Karolinska Institutet ont montré que les niveaux d’une certaine structure de glycanes dans le sang, appelée N-acétylglucosamine bissectée, peuvent être utilisés pour prédire le risque de développer la maladie d’Alzheimer. Auparavant, l’équipe avait démontré un lien entre la protéine tau et les taux de glycanes chez les personnes atteintes de la maladie d’Alzheimer, mais ces analyses avaient d’abord été effectuées sur le liquide céphalo-rachidien. Les glycanes, en particulier, sont des molécules de sucre présentes à la surface des protéines et déterminent l’emplacement et la fonction de ces protéines dans le corps.
Pour rendre le dépistage plus pratique et moins coûteux, les chercheurs ont développé une méthode pour mesurer ces niveaux sanguins, notant que les individus ayant des niveaux correspondants de glycanes et de tau étaient deux fois plus susceptibles de développer la maladie d’Alzheimer. « Nous montrons également qu’un modèle statistique simple qui prend en compte les taux sanguins de glycane et de tau, le gène de risque APOE4 et un test de mémoire, peut être utilisé pour prédire la maladie d’Alzheimer avec une confiance de 80 % près d’une décennie avant l’apparition de symptômes tels que la perte de mémoire, », a déclaré le professeur Sophia Schedin Weiss, maître de conférences au Département de neurobiologie, sciences infirmières et sciences de la société (NVS), Karolinska Institutet, et auteur correspondant de l’étude publiée dans le Journal of the Alzheimer’s Association.
L’analyse des chercheurs était basée sur les données de 233 participants à l’étude nationale suédoise sur le vieillissement et les soins à Kungsholmen (SNAC-K), l’étude suédoise à long terme lancée en 2001, examinant des échantillons de sang prélevés jusqu’en 2004 et surveillant les participants à l’étude tous les trois à six ans pour un total de 17 ans, comparant des facteurs tels que la perte de mémoire et la présence de démence. La prochaine étape consistera à analyser des échantillons de sang du reste des participants à l’étude SNAC-K et d’autres personnes impliquées dans d’autres recherches sur le vieillissement en Suède et au-delà. « Nous collaborons avec des chercheurs en soins primaires en Suède pour évaluer plusieurs biomarqueurs de la démence dans les établissements de soins de santé primaires », a ajouté Schedin Weiss. Nous espérons que les glycanes sanguins s’avéreront un complément précieux aux méthodes actuelles de dépistage de la maladie d’Alzheimer, permettant une détection précoce de la maladie ».
Neuroscience News
|
|
|
|
|
|
|
|
Deux formidables avancées viennent d'être annoncées contre le cancer du pancréas, qui reste très difficile à traiter. Une équipe américaine associant des chercheurs du Memorial Sloan Kettering Cancer Center, à New York, en collaboration avec des collègues de la Icahn School of Medicine de Mount Sinai et de la société allemande BioNTech, a mis au point un vaccin à ARNm personnalisé qui s'avère très prometteur contre le cancer du pancréas. Sur les 16 patients traités à l'aide de ce vaccin ARN personnalisé, la moitié à développé une très forte réponse immunitaire qui a persisté au delà de 18 mois et bloqué tout récidive de ce cancer. Ce vaccin thérapeutique ARN semble en outre en mesure d'éliminer les métastases chez certains patients...
Le traitement du cancer du pancréas fait essentiellement appel à la chirurgie, la plupart du temps en retirant la partie du pancréas sur laquelle la tumeur s’est développée. Suivant l’endroit concerné, il faut parfois également retirer une partie de la rate, de l’intestin ou encore de la vésicule biliaire. La chimiothérapie est aussi fréquemment utilisée contre ce cancer, dans un premier temps, pour tenter de réduire la taille des tumeurs.
Cependant l’efficacité de ces traitements reste modeste : lorsqu’elles sont enlevées chirurgicalement, les tumeurs réapparaissent dans les sept à neuf mois chez 90 % des patients. Si la chimiothérapie peut aider à prolonger la vie, elle est rarement un remède. C’est pourquoi les laboratoires BioNtech et Roche tentent d’élaborer un nouveau traitement, sous forme de vaccin ARN messager, méthode précédemment utilisée pour les vaccins Covid 19.
Même si il faut rester prudent, ce vaccin thérapeutique a obtenu des résultats remarquables. Il a été testé sur un petit échantillon de 16 patients. La moitié d’entre eux a réagi au vaccin, qui a appris à leur système immunitaire comment reconnaître et combattre les cellules cancéreuses. Aucun d’entre eux n’a vu son cancer revenir. Autre fait encourageant, mais plus anecdotique, une nouvelle croissance cancéreuse d’un patient dans son foie a disparu lors des tests d’imagerie après avoir reçu le vaccin. Ces premiers résultats absolument remarquables confirment l'extraordinaire potentiel des vaccins ARN, qu'il s'agisse des vaccins préventifs ou des vaccins thérapeutiques, qui vont sans doute devenir l'arme principale contre les cancers d'ici 2030...
Une autre étude menée par des chercheurs de la Harvard Medical School et de l'Université de Copenhague – révèle que l’IA est en mesure d’identifier les personnes présentant le risque le plus élevé de cancer du pancréas jusqu'à trois ans avant le diagnostic réel. Cette avancée est décisive car le cancer du pancréas évolue malheureusement à "bas bruite" et il est le plus souvent détecté à un stade avancé, ce qui diminue considérablement l'efficacité des traitements disponibles. Si environ 44 % des personnes diagnostiquées à un stade précoce du cancer du pancréas survivent cinq ans après le diagnostic, seulement 12 % des cas sont diagnostiqués aussi tôt. Avec ce retard, les tumeurs peuvent se développer à l’extérieur de l’organe et le taux de survie des patients chute alors à 9 %.
Pourtant les patients qui présentent une maladie à un stade précoce ont des chances de guérison bien plus grandes, grâce aux nouvelles combinaisons de chirurgie, de chimiothérapie et de radiothérapie. Ainsi, une détection plus précoce peut largement contribuer à améliorer la survie des patients. La nouvelle étude suggère qu'un dépistage de la population basé sur l'IA permettrait d’identifier en amont les personnes présentant un risque élevé de développer un cancer du pancréas.
Les chercheurs ont conçu différentes versions de modèles d’IA et les ont entraînées sur les données cliniques contenues dans 6,2 millions de dossiers médicaux du système national de santé danois, sur une période de 41 ans. Parmi ces patients, près de 24 000 ont développé un cancer du pancréas avec le temps. « Au cours de l'entraînement, l'algorithme a discerné des schémas indiquant un risque futur de cancer du pancréas sur la base des trajectoires des maladies identifiées », expliquent les auteurs de l’étude. Par exemple, les diagnostics de calculs biliaires, d'anémie, de diabète de type 2 et d'autres problèmes gastro-intestinaux laissaient présager un risque accru de cancer du pancréas dans les trois ans suivant l'évaluation. D’après les scientifiques, l’outil développé se montre au moins aussi précis que les tests de séquençage génétique actuels pour prédire l'apparition de la maladie.
Article rédigé par Georges Simmonds pour RT Flash
Nature
Harvard
|
|
|
|
|
|
|
|
L’équipe de Chiara Zurzolo (unité Trafic membranaire et pathogénèse à l’Institut Pasteur) a identifié en 2009 un nouveau mécanisme de communication directe entre les cellules neuronales en culture via des structures appelées "nanotubes" ou "tunnels nanoscopiques". Ceux-ci sont impliqués dans la propagation de différentes protéines toxiques qui s’accumulent dans le cerveau lors de maladies neurodégénératives. Les nanotubes représentent donc une cible appropriée pour le traitement de ces maladies, ou des cancers.
Cette nouvelle étude offre une première visualisation des tunnels nanoscopiques qui relient les cellules précurseurs du cerveau lorsqu’elles se transforment en neurones, plus particulièrement dans la région du cervelet – une région impliquée dans le maintien de l’équilibre et de la posture et qui évolue après la naissance. Ces tunnels, bien que de taille similaire, diffèrent les uns des autres par leur forme : certains comportent des ramifications, certains sont enveloppés par les cellules qu’ils relient, et d’autres sont exposés à leur environnement local. Les auteurs suggèrent que ces connexions intercellulaires pourraient permettre l’échange de molécules favorisant la migration physique des cellules pré-neuronales à travers les différentes couches cérébrales, jusqu’à leur destination finale au cours du développement du cerveau.
Curieusement, ces connexions présentent des similitudes anatomiques avec les ponts formés en fin de division cellulaire. « Ces connexions intercellulaires apparaissent lors de la division des cellules, et persistent lors de leur migration. En cela, cette étude contribue à clarifier le développement du cerveau. D'autre part, les connexions qui s'établissent après la division cellulaire pourraient permettre un échange direct entre cellules au-delà des connexions synaptiques classiques, ce qui révolutionnerait notre compréhension de la connectivité cérébrale. Nous mettons en évidence qu’il n’existe pas uniquement des synapses permettant aux cellules de communiquer au sein du cerveau, mais également ces nanotubes », déclare Chiara Zurzolo, principale auteure de l’étude et responsable de l’unité Trafic membranaire et pathogénèse (Institut Pasteur / CNRS).
Pour parvenir à ces résultats, les chercheurs ont étudié la façon dont les régions du cerveau communiquent entre elles, grâce à une méthode de microscopie électronique tridimensionnelle (3D) à partir de cellules de cerveau, issues de modèles murins. Cette technique d’imagerie assure la reconstruction de cartes du réseau neuronal à très haute résolution. Le volume du cervelet 3D modélisé et utilisé pour l’étude contient plus de 2 000 cellules. De plus, ils ont développé un programme open-source appelé CellWalker afin de caractériser morphologiquement les segments 3D. Le bloc de tissu est ainsi reconstruit à partir d’images de coupes de cerveau. Ce programme, mis à disposition gratuitement, permettra aux chercheurs d’analyser rapidement et facilement les informations anatomiques complexes contenues dans ces types d’images microscopiques.
La prochaine étape sera d’identifier la fonction biologique de ces tunnels cellulaires pour comprendre leur rôle dans le développement du système nerveux central et dans d’autres régions du cerveau, ainsi que leur fonction dans les communications entre cellules du cerveau dans les maladies neurodégénératives et les cancers. Les outils informatiques développés seront mis à la disposition d’autres équipes de recherche dans le monde.
Article rédigé par Georges Simmonds pour RT Flash
CNRS
|
|
|
|
|
|
|
|
Une étude menée à l’Université de Pittsburgh confirme l’effet colossal des bactéries intestinales sur la réponse à l’immunothérapie du mélanome. En pratique, les chercheurs expliquent, dans la revue Cell, comment l’alimentation et les probiotiques peuvent optimiser l’efficacité immunothérapeutique. Ces données appellent ainsi à moduler le microbiome intestinal pour accroître la réponse au traitement. L’équipe américaine montre, chez les souris atteintes de mélanome, que les bactéries probiotiques voyagent de l’intestin et s’établissent dans les tumeurs, où elles vont stimuler directement les cellules immunitaires et accroître ainsi l’efficacité de l’immunothérapie. L’étude révèle en particulier qu’une bactérie, Lactobacillus reuteri, stimule les cellules T anticancéreuses en sécrétant un composé appelé indole-3-aldéhyde, ou I3A.
L’étude : les chercheurs ont administré aux souris un régime alimentaire riche en tryptophane, un acide aminé - que les bactéries convertissent en I3A -. Ils constatent alors que les médicaments d’immunothérapie ont un effet plus important de réduction de la taille de la tumeur et de prolongation de la survie. « Nous savions que les microbes intestinaux influencent la réponse immunothérapeutique, mais il y avait encore de grandes questions sur leur mode d’action. Agissent-ils à partir de l’intestin ou doivent-ils être sur le site de la tumeur ? ».
L’étude, menée par le Docteur Marlies Meisel, professeur d’immunologie de la Pitt’s School of Medicine et membre du programme d’immunothérapie du cancer (CIIP) du Hillman Cancer Center, est ainsi la première à montrer que les bactéries administrées par voie orale augmentent l’efficacité de l’immunothérapie contre le cancer en se déplaçant de l’intestin et vers les tumeurs où elles ont un impact direct sur les cellules immunitaires de la tumeur. Lorsque les scientifiques donnent L. reuteri, une bactérie qui fait souvent partie des probiotiques disponibles dans le commerce, à des souris exemptes de germes et modèles de mélanome, ils observent en effet que les bactéries se déplacent de l’intestin vers les tumeurs, où elles s’établissent et persistent dans le temps.
Par rapport aux souris témoins qui n’ont pas reçu de bactéries, celles qui ont reçu L. reuteri ont plus de lymphocytes T CD8 ou killers plus puissants au site de la tumeur, les tumeurs ont diminué davantage et ces souris ont survécu plus longtemps ; les effets de L. reuteri ne se limitent pas au mélanome : toujours chez des souris modèles, cette fois d’adénocarcinome, de fibrosarcome et de cancer du sein, la bactérie se déplace vers les tumeurs au-delà de l’intestin et réduit considérablement la croissance du cancer.
L-reuteri a besoin de tryptophane – un acide aminé présent dans des aliments tels que le poulet, le soja, la farine d’avoine, les noix et les graines – pour fabriquer de l’I3A. Lorsque les souris modèles de mélanome mangent un régime riche en tryptophane, les tumeurs se développent plus lentement et les souris vivent plus longtemps que les souris témoins nourries avec un régime pauvre en tryptophane. Une alimentation riche en tryptophane améliore également l’efficacité de l’immunothérapie. Le microbiome intestinal est donc un facteur important de succès de l’immunothérapie : certaines bactéries vont aider le système immunitaire à reconnaître et à tuer les cellules cancéreuses. De précédentes études ont d’ailleurs déjà suggéré ce lien entre les suppléments probiotiques et la réponse immunothérapeutique chez les patients atteints de mélanome.
Vers un probiotique anticancéreux ? Dans ce cas précis, c’est l’I3A libéré par L. reuteri dans la tumeur qui permet d’améliorer la réponse immunothérapeutique alors que la présence de L. reuteri dans l’intestin était insuffisante pour obtenir cet effet antitumoral. L’I3A pourrait donc jouer un rôle dans la réponse humaine à l’immunothérapie. Tout comme le tryptophane : sous réserve de recherches supplémentaires, un régime riche en tryptophane pourrait influencer les résultats chez les patients atteints de cancer.
Article rédigé par Georges Simmonds pour RT Flash
Cell
|
|
|
|
|
|
|
|
Plus d’un million de personnes meurent chaque année à cause de l’hépatite B ou C et 650.000 décèdent suite à une infection par le VIH, selon des données de l’Organisation mondiale de la santé. Le dépistage précoce est l’un des enjeux principaux pour réduire ces chiffres. Lors du Congrès européen de microbiologie clinique et des maladies infectieuses, qui se tient à Copenhague, des chercheurs ont présenté une technique innovante permettant de détecter ces trois virus, avec un seul test et une seule goutte de sang.
Aujourd’hui, le test le plus fréquemment utilisé pour dépister l'hépatite B, l'hépatite C et le VIH, consiste à prélever un échantillon de sang dans une veine à l'aide d'une aiguille. Si cette méthode est efficace et reconnue, il n’est pas toujours possible d’y avoir recours selon les endroits et les régions. « Il peut s'agir de prisons, de centres de désintoxication et de refuges pour sans-abri, où le prélèvement d'échantillons de sang veineux n'est pas toujours adapté ou dans des pays où l'expédition et le stockage réfrigéré d'échantillons de sang peuvent être difficiles », expliquent les auteurs de cette recherche.
De nombreux scientifiques travaillent sur des méthodes plus simples et adaptées à toutes les situations. Cette équipe du département de microbiologie clinique de l'hôpital universitaire de Copenhague est parvenue à le faire : leur test repose sur l’analyse d’une goutte de sang séché. « Pour faire le test, le doigt de l'individu est piqué et quelques gouttes de sang sont prélevées sur du papier filtre et laissées sécher », expliquent-ils. Ensuite, ils utilisent une technique appelée "amplification médiée" par la transcription pour analyser l'une des taches de sang. Cela permet de rechercher le matériel génétique des trois virus.
Vingt échantillons contenant des quantités détectables de VIH, d'hépatite B et d'hépatite C ont été analysés par la méthode des gouttes de sang séché et le test a permis de détecter le virus dans chacun des prélèvements. « Le plasma a également été dilué pour déterminer la limite inférieure de détection », ajoutent les auteurs. « Cela a montré qu'il était possible de détecter les virus à des niveaux bien inférieurs à ceux que l'on trouve normalement chez les patients non traités ».
En principe, cette technique est utilisée sur des échantillons liquides de plasma ou de sérum, mais les scientifiques danois sont parvenus à l’adapter à des gouttes de sang séché. « Le test de sang séché est idéal pour les endroits où vous ne voulez pas utiliser d'aiguille pour des raisons de sécurité ou où c'est moins pratique », précise Stephen Nilsson-Møller, auteur principal de l’étude. D’après lui, le sang séché peut être conservé neuf mois sans réfrigération, contre seulement quelques heures à température ambiante pour les échantillons liquides.
Article rédigé par Georges Simmonds pour RT Flash
EurekAlert
|
|
|
|
|
|
|
|
Le nouveau vaccin prometteur contre le paludisme, mis au point par des scientifiques de l’Université d’Oxford, vient d'être autorisé pour la première fois en Afrique par le Ghana. Ce sérum a montré une efficacité importante lors des essais. C’est la première fois qu’il est autorisé dans le monde. Appelé R21, le vaccin sera destiné aux enfants âgés de 5 à 36 mois, « le groupe d'âge le plus à risque de décès par paludisme », précise l’Université d’Oxford dans un communiqué. D’après l’Organisation mondiale de la santé, les enfants de moins de cinq ans représentaient 80 % des décès dus au paludisme en Afrique, en 2021. « On espère que cette première étape cruciale permettra au vaccin d'aider les enfants ghanéens et africains à lutter efficacement contre le paludisme », précise le texte.
Le sérum contient le “Matrix-M de Novavax”, un adjuvant à base de saponine qui améliore la réponse du système immunitaire, la rendant plus puissante et plus durable. « L'adjuvant Matrix-M stimule l'entrée des cellules présentatrices d'antigène au site d'injection et améliore la présentation de l'antigène dans les ganglions lymphatiques locaux », d’après le communiqué. « Cette technologie a également été utilisée avec succès dans le vaccin contre la Covid-19 de Novavax et est un élément clé d'autres vaccins en phase de développement ».
Dans le cadre du paludisme, cette technique est particulièrement prometteuse. « Le vaccin R21/Matrix-M a démontré des niveaux élevés d'efficacité et d'innocuité dans les essais de phase II, y compris chez les enfants qui ont reçu une dose de rappel de R21/Matrix-M un an après un régime primaire à trois doses », indique le communiqué. L’Organisation mondiale de la santé a fixé l’objectif d’efficacité du vaccin à 75 %, mais les essais, réalisés en 2021, ont démontré que R21/Matrix-M arrivait à 77 %.
« Cela marque l'aboutissement de 30 ans de recherche sur le vaccin contre le paludisme à Oxford avec la conception et la fourniture d'un vaccin à haute efficacité qui peut être fourni à une échelle adaptée aux pays qui en ont le plus besoin », s’est félicité Adrian Hill, chercheur en chef du programme R21/Matrix-M et directeur de l'Institut Jenner de l'Université d'Oxford au Département de médecine de Nuffield. Selon Oxford, ce vaccin pourrait être « fabriqué à grande échelle et à un coût modeste » et ainsi « fournir jusqu'à des centaines de millions de doses aux pays africains qui souffrent du lourd fardeau du paludisme ».
Article rédigé par Georges Simmonds pour RT Flash
Oxford
|
|
|
|
|
|
|
|
Des immunologistes de l'Université de Californie à Los Angeles ont créé une nanoparticule unique – qui se mesure en milliardièmes de mètre – et qui délivre de l'ARNm à des cellules spécifiques du foie. Son but est d'apprendre au système immunitaire à tolérer les protéines d'arachide et à atténuer les allergies. C'est la première fois que l'ARNm est utilisé dans le cadre d'une maladie allergique.
Les chercheurs américains ont testé leur technique sur des souris, en espérant pouvoir l'étendre à l'humain. La nanoparticule a permis d'inverser les allergies aux arachides et d'empêcher leur développement. Un fragment de protéine appelé épitope se trouve au centre du traitement, conçu comme un antigène (censé déclencher une réponse du système immunitaire). Les chercheurs ont ajouté à la nanoparticule une molécule de sucre qui se lie aux cellules immunitaires combattant les antigènes, ainsi que l'ARNm pour intégrer des instructions dans l'épitope.
Ils ont exposé les souris aux protéines d'arachide pour déclencher un choc anaphylactique, potentiellement mortel. Différentes expériences ont montré que les nanoparticules réduisaient la réaction allergique aux arachides et augmentaient la production de substances qui devraient créer une tolérance aux arachides plus tard. Les symptômes les plus graves sont apparus dans le groupe témoin ne recevant aucun traitement. La nanoparticule pourrait faire l'objet d'essais cliniques d'ici trois ans, selon les auteurs de l'étude. Cette recherche ouvre la voie à l'adaptation de la particule à d'autres allergies et troubles auto-immuns, comme le diabète de type 1.
Article rédigé par Georges Simmonds pour RT Flash
ACS
|
|
|
|
|
|
|
|
L’équipe d’hémostase du centre hospitalier (CHU) de Lille, dans le Nord, est en pointe dans la recherche sur l’hémophilie A, qui est une maladie hémorragique héréditaire qui touche uniquement les hommes. Jusqu’à maintenant, le seul traitement, proposé déjà au CHU de Lille, reposait sur l’injection d’une protéine dans le sang, par voie intraveineuse dont la durée trop courte permettait d’empêcher ou de maîtriser l’hémorragie.
Désormais, cela fait trois ans que l’hôpital teste un médicament thérapeutique que les spécialistes jugent "révolutionnaire". Le traitement permet de diminuer les effets de la maladie et de mieux protéger les patients, sur une longue durée. « Une seule injection suffit à protéger un patient les deux tiers de la semaine. Le reste de la semaine le résultat est de cinq à six fois supérieures à la moyenne » explique la Professeure Sophie Susen, chef du service d’hémostase clinique du CHU de Lille.
Dans la région des Hauts-de-France, une quinzaine de patients ont pu profiter de ce médicament. « J’éprouve moins de douleurs articulaires. Je peux enfin faire ce que tout le monde fait », raconte Adamou Ngouyamsa, 36 ans, qui participe aux essais cliniques depuis trois ans. Dans le monde, 150 personnes ont pu en bénéficier. La phase d’essai clinique est désormais terminée. Les patients sont dans une période d’étude dite d’extension, afin de leur permettre de conserver ce traitement. Encore quelques années d’attente pour voir apparaître ce médicament sur le marché européen.
Article rédigé par Georges Simmonds pour RT Flash
CHU Lille
|
|
|
|
|
|
|
|
Alors que les vaccins contre le Covid sont efficaces pour réduire le risque de forme grave et de décès, ils sont moins performants pour prévenir l’infection, un enjeu pourtant clé pour restreindre la circulation du Sars-CoV-2. Pour s’attaquer à ce défi, des vaccins administrés par voie intranasale ont été développés en Chine et en Inde. Les deux sont basés sur un adénovirus comme vecteur. Les chercheurs de l’Université de Hong Kong proposent une autre approche avec un candidat vaccin intranasal basé sur un virus vivant atténué de la grippe. Testé chez la souris et le hamster, il a permis d’induire des niveaux élevés d'anticorps neutralisants contre des variants récents du Sars-CoV-2. À terme, les chercheurs anticipent un vaccin combiné contre la grippe et le Covid, utile pour des stratégies de vaccination annuelles.
Les vaccins intranasaux chinois et indiens n’étaient pas les premiers à utiliser un virus vivant atténué. Cette stratégie est utilisée par plusieurs vaccins contre la grippe disposant déjà d'une autorisation de mise sur le marché (AMM) en Europe et aux États-Unis. Le vaccin Fluenz Tetra est déjà recommandé en France pour la vaccination des enfants contre la grippe saisonnière, en raison de sa meilleure acceptabilité dans cette population.
Dans le Covid, le développement d’un vaccin en spray nasal par l'Université d'Oxford et le laboratoire AstraZeneca a échoué. Basé sur le même vecteur adénovirus ChAdOx1 nCoV-19 que celui utilisé dans le vaccin injectable contre le Covid, déjà mis au point par Oxford et AstraZeneca, ce candidat a échoué à provoquer une réponse immunitaire forte et durable au niveau de l'épithélium bronchique. Pour induire une immunité muqueuse dans les voies respiratoires supérieures, les chercheurs hongkongais ont développé un candidat vaccin intranasal basé sur un virus vivant atténué de la grippe (LAIV) avec un gène NS1 supprimé du génome viral (DelNS1) et modifié pour permettre l'expression du domaine de liaison au récepteur (RBD) de la protéine Spike du Sars-CoV-2, désignée DelNS1-RBD4N-DAF.
Après l'administration intranasale du vaccin chez la souris, les réponses immunitaires et la protection conférée ont été analysées puis comparées à l'injection intramusculaire du vaccin à ARNm de Pfizer/BioNTech chez le hamster. Il en ressort des niveaux élevés d'anticorps neutralisants contre plusieurs variants et une stimulation robuste des réponses cellulaires T. Plus particulièrement, la vaccination avec les LAIV DelNS1-RBD4N-DAF, mais pas celle avec l'ARNm BNT162b2, « a empêché la réplication des variants du Sars-CoV-2, y compris Delta et Omicron BA.2, dans les tissus respiratoires des animaux », relèvent les auteurs.
Par rapport aux vaccins actuellement disponibles, ce candidat vaccin induit donc une immunité qui prévient la maladie et bloque la réplication du virus dans les voies respiratoires supérieures, un "attribut nécessaire", pour que soit ralentie la transmission, soulignent les auteurs. Si des essais sont à mener chez l’homme, les chercheurs hongkongais envisagent déjà l’élaboration de vaccins intranasaux efficaces à la fois contre le Covid et contre la grippe saisonnière.
Article rédigé par Georges Simmonds pour RT Flash
Nature
|
|
|
|
|
|
|
|
La maladie de Parkinson est l’une des principales pathologies à frapper le cerveau. Mais on ignore encore largement ce qui provoque ce mal insidieux. L’accumulation d’une protéine, l’alpha-synucléine, dans le cerveau est bien liée à certaines formes de la maladie de Parkinson, confirme une étude publiée récemment, ouvrant potentiellement la voie à un diagnostic précoce de cette pathologie. La présence élevée de cette protéine dans le liquide céphalo-rachidien, qui baigne le cerveau, est « d’une grande précision (pour repérer) les formes typiques de la maladie de Parkinson », résume cette étude menée par le neurologue américain Andrew Siderowf.
La maladie de Parkinson est, avec celle d’Alzheimer, l’une des principales pathologies à frapper le cerveau. Mais on ignore encore largement ce qui provoque ce mal insidieux au fil duquel le patient perd peu à peu ses capacités de mouvement. On connaît toutefois plusieurs facteurs associés à la maladie. Parmi ces derniers, on sait depuis plusieurs années que les patients présentent souvent des agrégats d’a-synucléine. L’étude du Lancet Neurology, qui a comme intérêt d’être la première de ce type réalisée auprès de centaines de patients, confirme qu’en testant la présence élevée de cette protéine, on peut largement repérer la maladie. Les résultats sont toutefois d’une précision inégale. Chez les patients porteurs d’une mutation génétique – dite LRRK2 – associée à certaines formes de Parkinson, la présence d’agrégats est moins systématique.
En tout état de cause, on est encore loin de mettre en place un test "biologique" de la maladie de Parkinson, qui n’est actuellement diagnostiquée que par ses symptômes visibles. Il faudrait notamment déterminer si la technique marche aussi bien avec des tests sanguins, bien plus faciles à effectuer que ceux du liquide céphalo-rachidien. Mais cette étude « pose les bases d’un diagnostic biologique de la maladie de Parkinson », jugent, dans un commentaire également publié par le Lancet Neurology, des chercheuses n’ayant pas participé à ce travail, les neurologues Daniela Berg et Christine Klein. Pour elles, il est désormais avéré que le rôle de l’a-synucléine « change la donne en matière de diagnostic, de recherche et d’essais cliniques sur la maladie de Parkinson ».
Elles jugent particulièrement intéressant le fait que les chercheurs aient aussi mesuré la présence d’une forte concentration d’a-synucléine chez des patients qui ont des signes précurseurs de la maladie de Parkinson, notamment un affaiblissement de l’odorat, sans que celle-ci soit encore avérée.
Article rédigé par Georges Simmonds pour RT Flash
NIH
|
|
^ Haut |
|
|
|
|
|
VOTRE INSCRIPTION |
|
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
|
|
|
|
|
|