|
|
|
|
|
NUMERO 1135 |
|
|
|
|
|
|
|
Edition du 24 Décembre 2021
|
|
|
|
|
Edito
Et si bientôt, la Science savait réparer nos neurones ?
Chers lecteurs de RT Flash,
Voici le dernier numéro de notre Lettre hebdomadaire pour 2021.
J'espère avec ce numéro clore notre campagne annuelle de dons.
Dès le début de cette campagne, je vous avais précisé que notre Association ADIST qui gère RT Flash avait besoin de 15.000 euros (1.364 x 11 mois de parution) pour assurer la parution de notre Lettre pendant toute l'année 2022.
Or, à ce jour, Hello Asso qui gère cette campagne a encaissé 13.257 euros. Il ne manque plus que 1.743 euros pour atteindre notre objectif. Je suis convaincu que vous serez suffisamment nombreux dans ce sprint final pour que nous puissions atteindre cet objectif avant la fin de l'année.
Pour ceux qui parmi vous doivent régler chaque année un impôt sur le revenu (IRPP), il serait pertinent de faire un don à RT Flash avant le 31 Décembre car ainsi dans votre prochaine déclaration d’impôts, début 2022, vous pourriez diminuer de 66 % du montant de votre don votre prochain impôt en respect des articles 200 et 238 du Code Général des Impôts, notre Association ADIST étant qualifiée d'Association d’Intérêt Général.
Sans vous tous qui acceptez de faire des dons, RT Flash n'existerait plus. Nous avons bien conscience de la précarité de notre situation mais vous remercier chaque semaine avec des articles et un édito nous apporte beaucoup de joie et de bonheur.
René Trégouët Sénateur Honoraire Créateur du Groupe de Prospective du Sénat Rédacteur en Chef de RT Flash
Si vous voulez aider RT Flash, lettre d'informations scientifiques, gratuite et sans publicité depuis 1998, appuyez sur le lien suivant :
Adhérez à notre Association ou faites un DON pour sauver RT Flash, vous bénéficierez d'une réduction fiscale de 66 %.
EDITORIAL :
Et si bientôt, la Science savait réparer nos neurones ?
Le concept de neurone, comme unité structurelle et fonctionnelle de base du système nerveux, a été établi il y a plus d’un siècle, en 1888, par Santiago Ramón y Cajal (1852-1934), le grand médecin et neuroscientifique catalan. Nous savons à présent qu’il existe une grande variété de neurones qui peuvent être classés de trois manières. Premièrement, en fonction de leur nombre de neurites (axones ou dendrites) ; on parlera alors de neurones unipolaires, bipolaires ou multipolaires. La deuxième classification se fait en fonction de leur structure : on distinguera par exemple les cellules pyramidales (dans la matière grise), et les neurones en étoiles (dans le cortex cérébral). Enfin la dernière classification se fait sur le critère fonctionnel, avec trois catégories de neurones. La première regroupe les interneurones, qui assurent la communication entre les neurones sensoriels. La deuxième est celle des motoneurones, qui contrôlent directement ou indirectement les glandes et les muscles. Enfin la troisième catégorie est celle des neurones sensoriels, situés dans le système nerveux et qui vont avoir pour mission de convertir les stimuli externes de l’environnement en impulsions électriques internes.
Les neurones communiquent entre eux de manière remarquable en utilisant un mode électrochimique de transmission des signaux. L’influx nerveux se propage le long de l’axone, jusqu’à atteindre la terminaison synaptique. En fonction de la fréquence de cet influx nerveux, le neurone stimulé produit des substances chimiques, les neurotransmetteurs, qui sont libérés au niveau de la synapse et vont, selon un processus en cascade, activer ou inhiber un second neurone au niveau de sa dendrite ou de son corps cellulaire. C’est ainsi que l’influx nerveux peut se transmettre dans le cerveau. Quant aux neuromédiateurs (plusieurs dizaines sont connus à ce jour) il en existe sept groupes principaux (Glutamate, GABA, Dopamine, Adrénaline, Sérotonine, Ocytocine et acétylcholine), qui sont soit "excitateurs", ce qui signifie qu’ils déclenchent une action dans une autre cellule, soit "inhibiteurs", ce qui veut dire qu’ils bloquent l’influx nerveux.
Pendant plus d’un siècle, il était admis par la communauté scientifique que le cerveau des mammifères était incapable de produire de nouveaux neurones à partir de l’âge adulte et que, par conséquent, notre "capital" de neurones était voué à une lente mais inexorable diminution, à mesure que nous vieillissions. Mais ce dogme tenace commença à s’effriter en 1998, quand Elisabeth Gould et son équipe observèrent la présence de neurogenèse dans l’hippocampe et les bulbes olfactifs de primates adultes. La même année, l’équipe du chercheur suédois Peter Eriksson et de l’américain Fred H. Gage montra qu’il y avait bien production de nouveaux neurones dans le gyrus dentelé de cerveaux humains adultes. Ces chercheurs purent également montrer que ces nouveaux neurones produits à partir de cellules souches se différenciaient en neurones matures avec dendrites et axones.
Fin 1999, Elizabeth Gould publia une nouvelle étude montrant que de nouveaux neurones étaient produits dans trois régions du néocortex du macaque adulte (le cortex préfrontal, temporal inférieur et pariétal postérieur), impliquées dans des fonctions cognitives supérieures. Mais cette découverte se heurta au scepticisme d’une partie de la communauté scientifique, qui avait du mal à admettre que la région la plus récente du cerveau, sur le plan de l’évolution de notre espèce, était capable de produire de nouveaux neurones.
Cette question capitale a définitivement été tranchée par une étude très solide, publiée en 2019 par des chercheurs de l’Université de Madrid (Voir Nature Medicine). Dans ce travail rigoureux, les chercheurs ont utilisé différents types de marqueurs afin d’étudier dans un premier temps l’absence ou la présence de nouveaux neurones dans certaines structures cérébrales et dans un deuxième temps la maturation de ces nouveaux neurones. Ce travail a pu montrer que, chez l’homme, de nouveaux neurones sont bien produits dans le gyrus denté de l’hippocampe, structure impliquée dans les processus de mémoire. Il est à présent largement admis par la communauté scientifique que, pour un "capital" de départ un peu revu à la baisse, et à présent estimé à 86 milliards de neurones pour un cerveau adulte moyen, chaque jour, tout au long de notre vie, ce sont entre 1500 et 500 neurones de l'hippocampe du cerveau humain qui sont renouvelés (la production de nouveaux neurones diminuant régulièrement avec l’âge), soit un demi-million à 1,5 million de nouveaux neurones chaque année en moyenne. À titre de comparaison, un adulte perd chaque jour environ 85.000 neurones du néocortex, soit l'équivalent de 31 millions par an.
En 2003, la découverte de cellules souches au cœur du cerveau adulte par Pierre-Marie Lledo et son équipe, à l’Institut Pasteur (unité Perception et mémoire, CNRS URA 2182), est venue également bouleverser un autre dogme en biologie, qui voulait que le cerveau et la moelle épinière ne soient pas capables de se réparer, en cas de lésion ou de maladie. Ces chercheurs ont montré que certaines cellules non-neuronales, appelées cellules gliales, qui sont 1,5 fois plus nombreuses que les neurones (120 milliards environ dans notre cerveau) et ont longtemps été considérées comme inertes et dépourvues d’intérêt, pouvaient se transformer en neurones, capables d’intégrer des réseaux cellulaires existants. En 2008, l’équipe de Pierre-Marie Lledo, en collaboration avec celle de Pierre Charneau, a réalisé une nouvelle avancée, en montrant que les cellules souches de type glial, capables de se transformer en neurones, sont localisées non seulement dans la région initialement identifiée en 2003, mais également dans le bulbe olfactif.
Ces chercheurs ont également fait une autre découverte majeure : ils ont constaté que l’absence de stimulation olfactive, à la suite d’une lésion de l’organe sensoriel, provoquait la transformation des cellules gliales en neurones, ce qui établissait pour la première fois de manière solide que notre cerveau possédait une capacité insoupçonnée d’autoréparation. Pour Pierre-Marie Lledo, il est d’ailleurs envisageable de détourner des neurones nouvellement formés vers les régions lésées, dans le but de traiter des pathologies neurodégénératives comme la Chorée de Huntington ou la maladie de Parkinson. En 2017, des scientifiques français (Laboratoire de neurosciences de l’Université de Poitiers) et belges (Institut de recherche en biologie humaine et moléculaire de Bruxelles) ont montré qu'il était possible de réparer un cerveau abîmé grâce à une greffe de neurones obtenus à partir de cellules souches, à condition toutefois que les neurones ainsi fabriqués soient identiques à ceux de la région lésée.
En identifiant une nouvelle voie de communication entre les cellules, le neurobiologiste Alain Prochiantz a réussi, en dépit du scepticisme de la communauté scientifique à restaurer des neurones dysfonctionnels dans les maladies neurodégénératives telles Charcot (SLA) et Parkinson. Alain Prochiantz a en effet montré en 2019 que, de manière surprenante, certaines homéoprotéines, notamment la protéine Engrailed-1, sont capables de sortir du noyau d’une cellule pour gagner le noyau d’une autre cellule (Voir Biorxiv). Ce scientifique de renom a également montré que l’homéoprotéine hEN1 est essentielle pour la survie et l’entretien des motoneurones-alpha de la moelle épinière innervant les muscles de tout l’organisme. Ces travaux montrent également que, grâce à leurs propriétés passe-membrane, des homéoprotéines peuvent traiter, chez l’animal, la maladie de Parkinson, en réparant les neurones dopaminergiques impliqués dans cette maladie.
Chez la souris, la vie en bonne santé est prolongée de six mois grâce à ce traitement révolutionnaire, l’équivalent d’au moins dix ans pour des cellules humaines. Commentant ses recherches, Alain Prochiantz souligne que « Si une unique injection engendre des effets durables, c’est sans doute qu’elle induit une action épigénétique : son ADN n’a pas changé, mais l’expression génétique est modifiée ». Fin 2020, sa société, BrainEver, spécialisée dans la recherche et le développement de thérapies innovantes pour le traitement des maladies neurodégénératives, a obtenu, fait rarissime, de la FDA (Food and Drug Administration) aux États-Unis, la désignation de médicament orphelin pour son produit BREN-02, l’homéoprotéine humaine recombinante Engrailed-1 (rhEN1), dans le traitement de la sclérose latérale amyotrophique (SLA). BREN-02 devrait prochainement entrer en essai clinique chez des patients atteints de SLA.
Il y a quelques mois, une équipe de chercheurs de l’Inserm, du CNRS et de l’Université Claude Bernard Lyon 1 à l’Institut Cellule Souche et Cerveau, en collaboration avec le King’s College de Londres, est parvenue à transformer des cellules non-neuronales présentes dans le cerveau en nouveaux neurones inhibiteurs qui permettent de diminuer de moitié l’activité épileptique chronique (Voir Inserm). Ces scientifiques ont réussi à reprogrammer génétiquement l’identité des cellules gliales pour en faire des neurones dits "neurones induits", dont les propriétés sont comparables à ceux disparus dans la maladie. Fait remarquable, il n’a fallu que quelques semaines pour que ces cellules gliales reprogrammées se transforment en nouveaux neurones, présentant des caractéristiques moléculaires comparables à celles des neurones ayant dégénéré dans l’épilepsie. Ces chercheurs ont ensuite pu confirmer qu’il s’agissait bien de neurones fonctionnels, capables d’inhiber les neurones voisins responsables des crises. Ces nouveaux neurones s’étaient pleinement intégrés dans le réseau épileptique mais également plus largement dans le cerveau. Comme le souligne Christophe Heinrich, qui a dirigé ces travaux, « Ces résultats révèlent ainsi le potentiel thérapeutique de cette stratégie de reprogrammation cellulaire pour combattre une pathologie comme l’épilepsie mésio-temporale. Une aubaine dans le cas précis de cette maladie alors que 30 % des patients qui en sont atteints sont réfractaires aux traitements pharmacologiques. Cette étude met en lumière la reprogrammation des cellules gliales en neurones comme une nouvelle stratégie capable de modifier une pathologie telle que l’épilepsie, mais qui pourrait se généraliser à d’autres pathologies dévastatrices de notre cerveau ».
Nos neurones nous sont également indispensables pour classer nos souvenirs sur une échelle chronologique qui va nous permettre de savoir non seulement si un souvenir est proche ou lointain dans le temps, mais également quelle est la distance temporelle qui sépare deux souvenirs. Des chercheurs de l'UT Southwestern viennent d’identifier les caractéristiques de plus de 100 neurones impliqués dans le processus de mémoire. « Notre étude éclaire la question suivante : Comment savez-vous que vous vous souvenez de quelque chose du passé ou que vous vivez quelque chose de nouveau dont vous essayez de vous souvenir ? », explique le Docteur Bradley Lega, qui a dirigé ces travaux. Ces recherches ont montré que le processus de récupération des souvenirs se fait de façon décalée par rapport aux autres activités cérébrales. C’est la première fois que cette petite différence de synchronisation, appelée "décalage de phase", est mise en lumière dans le cerveau humain. Grâce à cette découverte, on comprend mieux comment notre cerveau peut "revivre" un événement, tout en sachant si le souvenir est nouveau ou s'il a déjà été encodé. Cette étude a permis d’identifier 103 neurones spécifiquement sensibles à la mémoire, dans l'hippocampe et le cortex entorhinal du cerveau. Ces neurones vont augmenter leur activité lorsque l'encodage de la mémoire est effectif et le même circuit d'activité se réactivera lorsque les patients essayeront de se remémorer ces mêmes souvenirs. Ce travail ouvre de nouvelles possibilités en matière de stimulation cérébrale profonde pour raviver la mémoire de personnes souffrant de lésions cérébrales ou de la maladie d’Alzheimer.
Récemment, une autre fascinante étude de chercheurs israéliens du Technion a montré chez la souris que les neurones présents dans l'insula (le corps insulaire) sont capables, par des mécanismes qui restent à élucider, de communiquer avec les neurones situés dans le côlon pour déclencher ou bloquer une réponse immunitaire. Le cerveau aurait donc la capacité de se "souvenir" des agressions que notre système immunitaire a dû combattre dans le passé pour pouvoir réactiver plus rapidement ce dernier en cas de besoin...
Une autre étude américaine dirigée par le Docteur Brian Gulbransen (Université d’État du Michigan) vient par ailleurs de confirmer que les cellules gliales et les neurones qui vivent dans l’intestin sont aussi nombreux que ceux présents dans le cerveau d’un chat (Voir PNAS). Ces travaux montrent l’existence d’un véritable réseau de neurones et de cellules gliales dans nos intestins. Brian Gulbransen souligne que neurones et cellules gliales ont des rôles très complémentaires : la glie module ou modifie le signal nerveux, alors que les neurones déterminent le contenu du message nerveux.
Il faut également évoquer une autre découverte fondamentale, celle des fascinants neurones-miroirs, découverts par Giacomo Rizzolatti chez les primates, il y a 30 ans, et approfondis notamment par le neurologue franco-allemand Christian Keysers. Ces neurones miroirs constituent une classe particulière de neurones corticaux, qui s’activent lorsqu’un individu exécute une action mais, également, lorsqu’il observe un autre individu en train d’exécuter la même action. Ces neurones miroirs ne codent pas des mouvements particuliers mais s’activent en fonction de la signification de l’action observée et ils répondent, seulement, à la vue d’une action finalisée : ils vont, par exemple, réagir lors de l’observation d’un acte de saisie, mais resteront inactifs à la vue de la main ou de l’objet considéré séparément. En 2010, l’équipe de Roy Mukamel, du laboratoire de neurophysiologie cognitive de Los Angeles, a réussi à montrer pour la première fois la preuve directe de l’existence des neurones miroirs chez l’homme et a révélé que ces neurones-miroirs jouaient bien un rôle important dans les processus cognitifs, et dans la sociabilité, qu’il s’agisse de la compréhension des émotions ou de l’apprentissage par mimétisme (Voir Science Direct). Ces neurones-miroirs ont ceci de remarquables qu’ils nous permettent non seulement de nous synchroniser sur les émotions de notre interlocuteur, de manière à pouvoir nous-mêmes les ressentir, mais nous aident également à deviner et à anticiper les intentions des personnes avec lesquelles nous sommes en relation, une aptitude qui résulte de la longue évolution de notre espèce et qui a permis à nos lointains ancêtres de se doter d’un avantage compétitif décisif, pour mieux faire face à bien des situations périlleuses et survivre dans un environnement hostile.
Dans le prolongement de ces recherches, une équipe de l’Université de Genève (UNIGE) a étudié récemment les mécanismes neurobiologiques impliqués lorsque deux souris entrent en contact par l’apprentissage d’une tâche. Ces scientifiques ont découvert que la motivation à s’investir dans une interaction sociale est intimement liée au système de récompense, à travers l’activation des neurones dopaminergiques. De manière encore plus remarquable, ces chercheurs ont observé que les neurones dopaminergiques étaient capables d’anticiper l’enclenchement du circuit cérébral de la récompense, ce qui incite encore davantage ces souris à rechercher et à développer des interactions sociales avec leurs congénères (Voir Nature Neuroscience).
Il y a quelques semaines, une autre découverte tout à fait majeure est venue conforter l’idée que, si nous sommes bien des mammifères comme les autres, notre cerveau n’en est pas moins unique, tant sur le plan de son organisation que de ses prodigieuses capacités cognitives. Les neurones, on le sait depuis longtemps, communiquent entre eux via des impulsions électriques, produites par des canaux ioniques qui contrôlent le flux d'ions tels que le potassium et le sodium. Mais des neuroscientifiques du MIT viennent de montrer que, de manière tout fait inattendue, les neurones humains possèdent beaucoup moins de canaux ioniques que prévu, comparé aux neurones de tous les autres mammifères étudiés dans ces travaux (Voir MIT).
Là aussi, les chercheurs émettent l'hypothèse que cette réduction de la densité des canaux a probablement permis au cerveau humain d’évoluer au cours de sa longue histoire, vers une efficacité et une complexité uniques chez les mammifères, en optimisant la consommation d’énergie pour privilégier les tâches cognitives complexes. « Si le cerveau peut économiser de l'énergie en réduisant la densité des canaux ioniques, il peut dépenser cette énergie sur d'autres processus neuronaux ou de circuits », explique Mark Harnett, professeur de sciences du cerveau et cognitives au MIT, et auteur principal de l'étude.
Enfin, il y a quelques semaines, des scientifiques américains de la Wake Forest School of Medicine ont identifié, pour la première fois, à partir d’une vaste analyse post-mortem de cerveaux de patients décédés, une population rare de neurones, qui s’avèrent être des cellules sénescentes potentiellement toxiques pour le cerveau humain. Ces chercheurs ont également montré chez la souris qu’il était possible d’éliminer ces cellules sénescentes chez les sujets âgés, grâce à un médicament conçu pour éliminer les cellules cancéreuses, associé à un flavonoïde, un antioxydant d'origine végétale. Selon ces chercheurs, cette voie de recherche sénolytique, qui consiste à empêcher ou ralentir l'accumulation de cellules sénescentes toxiques, ouvre de nouvelles perspectives thérapeutiques, non seulement contre la maladie d’Alzheimer, mais plus largement contre l’ensemble des maladies neurodégénératives et contre le processus de déclin cognitif lié au vieillissement.
Pour terminer ce trop rapide tour d’horizon sur les extraordinaires propriétés de nos neurones, évoquons enfin l’étude publiée en Août dernier par des scientifiques du CNRS et de l’Ecole Normale Supérieure, qui ont proposé un nouveau modèle de neurones artificiels utilisant, comme les cellules nerveuses, des ions comme vecteurs d’information. Dans ces recherches, l’idée était de se rapprocher de l’extrême efficacité énergétique de notre cerveau, si l’on regarde son ratio, consommation d’énergie minimale/ traitement parallèle d’informations complexes. Il est vrai que, même si la consommation de notre cerveau représente 20 % de notre consommation totale d’énergie, en valeur absolue, cette consommation reste dérisoire – à peine 300 calories par jours, soit environ 20 watt de puissance électrique, pour une capacité théorique de stockage qui serait, selon une récente étude du Salk Institute (La Jolla) simplement phénoménale, puisqu’elle atteindrait un pétaoctet (1015 octets, Voir eLife). Autre caractéristique étonnante de notre cerveau, sa consommation en pleine activité n’est que de 20 % supérieure à celle observée lorsqu’il est au repos. Et pourtant, avec si peu d’énergie, le cerveau humain est capable de réaliser simultanément un grand nombre de tâches complexes ! Cette grande efficacité énergétique s’explique notamment par son unité de base, le neurone, qui possède une membrane pourvue de pores nanométriques, appelés canaux ioniques, qui s’ouvrent et se ferment en fonction des stimuli reçus. Les flux d’ions obtenus créent un courant électrique responsable de l’émission de potentiels d’action, des signaux permettant aux neurones de communiquer entre eux. Tout l’enjeu de la recherche aujourd’hui est donc de concevoir des systèmes électroniques aussi économes en énergie que le cerveau humain, par exemple en utilisant des ions, et non des électrons, comme vecteurs de l’information.
C’est cette voie de recherche qu’explorent des chercheurs du CNRS et du Laboratoire de physique de l’ENS-PSL (Voir Science). Ces scientifiques ont développé un prototype de neurone ionique ayant des propriétés de transmission proches de celles du neurone. Dans cette étude, les chercheurs ont eu recours à la nanofluidique, qui étudie les comportements de fluides dans des canaux de dimensions inférieures à 100 nanomètres. Ils ont montré qu’il était possible de construire un prototype de neurone artificiel, constitué de fentes en graphène extrêmement fines dans lesquelles est confinée une couche unique de molécules d’eau. Comme dans notre cerveau, les ions issus de cette couche d’eau vont constituer des micro-grappes, sous l'effet d'un champ électrique, et développer une propriété appelée "effet memristor" qui va leur permettre de mémoriser une partie des stimuli reçus dans le passé. A terme, les chercheurs espèrent pouvoir réaliser un véritable "neurone artificiel", dans lequel les fentes en graphène reproduiraient les canaux ioniques, et les grappes remplaceraient les flux d’ions. L’idée est que ces neurones artificiels deviennent la base d’une nouvelle nanoélectronique moléculaire qui consommerait 10 000 fois moins d’énergie que nos composants actuels et aurait une efficience énergétique proche de celle du cerveau humain…
On le voit, nos neurones, qui ont longtemps été considérés par la science comme des unités élémentaires relativement simples et transparentes de notre cerveau, n’en finissent pas de révéler, depuis quelques années, leur incroyable diversité, leur prodigieuse plasticité, et leur capacité de régénération insoupçonnées. Loin d’être isolés, nous savons à présent que ces neurones sont étroitement liés à notre système immunitaire et participent activement à son bon fonctionnement. Nous savons également qu’il sera possible, sans doute dans un avenir plus proche qu’on ne le pensait, de remplacer, par des cellules nerveuses fonctionnelles, les neurones lésés ou détruits par l’âge ou la maladie. Nous savons enfin que nos neurones ont un fonctionnement tout à fait particulier, qui les distingue de ceux des autres mammifères et explique leur efficacité inégalée. C’est bien d’ailleurs parce que les performances énergétiques et informationnelles de nos neurones sont si uniques que nous essayons de nous en inspirer pour concevoir une nouvelle informatique et développer les prochaines générations d’ordinateurs qui pourraient bien être de véritables "cerveaux électroniques"…
René TRÉGOUËT
Sénateur honoraire
Fondateur du Groupe de Prospective du Sénat
e-mail : tregouet@gmail.com
|
|
|
|
|
|
|
|
TIC |
|
|
Information et Communication
|
|
|
|
|
|
|
|
|
Jensen Huang, cofondateur et président de Nvidia, a glissé à la fin de sa keynote à la conférence GTC 2021 qu'il ambitionne de construire un superordinateur dédié à l'étude du climat, et plus spécifiquement des effets du changement climatique. Baptisé Earth-2, l'initiative est présentée comme la création d'un jumeau numérique de la Terre, qui s'appuiera sur les capacités de la plate-forme Omniverse. Jensen Huang inscrit clairement cette initiative comme une réponse à l'urgence climatique qui menace la planète du fait de l'activité humaine. « Les désastres climatiques sont la nouvelle norme. Il nous faut confronter le changement climatique dès maintenant. Et pourtant nous ne verrons les résultats de nos efforts d'aujourd'hui que dans plusieurs décennies », explique-t-il.
Earth-2 devrait permettre de mieux visualiser ces évolutions en fournissant un niveau de précision jamais atteint jusqu'ici. « A l'heure actuelle, la simulation du climat se fait à des résolutions de 10 à 100 kilomètres. Mais il nous faut être plus précis pour modéliser les changements du cycle global de l'eau, qui conduit par exemple à l'intensification des tempêtes et des sécheresses dans différentes parties du monde », poursuit le patron de Nvidia.
Et contrairement à la simulation météorologique, qui modélise principalement la physique atmosphérique, la modélisation du climat nécessite des simulations courant sur plusieurs décennies et prenant en compte à la fois les facteurs physiques, chimiques et biologiques terrestres, maritimes et atmosphériques, sans oublier l'activité humaine, principale cause du réchauffement global. L'ambition de Nvidia est d'atteindre une résolution de l'ordre du mètre, suffisamment précise pour simuler l'interaction des nuages avec la lumière du soleil. L'entreprise espère atteindre ces performances grâce à l'accélération fournie par ses GPU et à l'utilisation de réseaux de neurones profonds (deep neural networks) appliqués à la physique.
L'architecture exacte d'Earth-2 n'a pas encore été communiquée (ni le choix de son implantation géographique), mais Jensen Huang promet qu'elle le sera prochainement. Elle devrait être similaire à celle de Cambridge-1, le supercalculateur de Nvidia récemment inauguré et dédié aux sciences de la vie, ou à Selene, un autre superordinateur conçu par l'entreprise et classé sixième le plus puissant du monde. Il promet également qu'Earth-2 sera "le superordinateur le plus efficace énergétiquement à avoir jamais été créé". Il sera intégralement financé par Nvidia.
Article rédigé par Georges Simmonds pour RT Flash
HL
|
|
^ Haut |
|
|
|
|
|
|
|
Matière |
|
|
Matière et Energie
|
|
|
|
|
|
|
|
|
Il est constitué d’un peu de ciment et de beaucoup de bois. 90 % au total de plaquettes de bois broyées provenant de scieries iséroises. Baptisé "TimberRoc", ce nouveau matériau a été mis au point par une petite entreprise à Beaurepaire en Isère, après une quinzaine d’années de recherches. Sa composition lui permet d’être négatif en émission carbone : « On emprisonne le carbone accumulé par les arbres durant des décennies dans le béton de bois sur un temps long. Résultat, on a ce bilan carbone négatif », précise Laurent Noca, co-inventeur de la société CCB Greentech.
Excellent isolant, ce matériau est aussi trois fois plus léger que le béton classique. Une technologie qui permet la préfabrication en usine de murs porteurs et de dalles. L’entreprise iséroise a déjà construit une soixantaine de bâtiments clé en main en France. Une production qui devrait passer à un stade supérieur : « Tout ce savoir-faire que l’on a accumulé depuis 15 ans, on le met en licence technologique auprès d’industriels. Ils vont désormais pouvoir fabriquer ce béton de bois, le mettre en œuvre et le commercialiser pour des chantier assez variés allant du logement au tertiaire », explique Laurent Noca.
Article rédigé par Georges Simmonds pour RT Flash
France Info
|
|
|
|
|
|
|
|
L'ammoniaque (alcali volatil) fait partie des combustibles crédibles pour remplacer le diesel dans le transport maritime. Non seulement elle n'émet pas de CO2 lors de sa combustion, mais elle détient un argument massue : son coût. Cet alcali est bien moins cher à utiliser que l'hydrogène, autre candidat au remplacement du diesel. Une molécule d'ammoniaque est constituée de trois atomes d'hydrogène liés à un atome central de nitrogène, deux éléments chimiques présents en abondance sur Terre. L'avantage de ce mélange tient à ce qu'il permet de stocker l'hydrogène bien plus efficacement que lorsque ce gaz est à l'état pur.
Les constructeurs se sont lancés dans la course à qui parviendra le premier à mettre à flot un navire à ammoniaque. Si Maersk, le plus gros transporteur maritime du monde, se penche sur la question, l'un des candidats les plus ambitieux est Andrew Forrest, un milliardaire propriétaire de Fortescue Metals Group (FMG), l'une des principales entreprises minières d'Australie.
Fortescue Future Industries (FFI), une filiale de son entreprise chargée de développer des moyens de "verdir" les activités du groupe, a la tâche de convertir à l'ammoniaque les moteurs de MMA Leveque, un navire de transport de produits chimiques, d'ici à fin 2022. L'embarcation, qui fait le relais entre la terre ferme et des plates-formes de forage en mer autour de l'Australie et de la Nouvelle-Zélande, mesure 75 mètres. Elle est actuellement propulsée par quatre moteurs diesel.
Début 2021, rapporte New Atlas, FFI est parvenue à utiliser un mélange d'ammoniaque et d'un autre carburant pour alimenter le moteur d'une locomotive. L'ammoniaque doit être dopé avec du carburant fossile afin de s'enflammer plus vite. Mais cet alcali a aussi ses inconvénients. S'il ne produit pas de dioxyde de carbone en brûlant, sa production reste encore fortement émettrice en gaz à effets de serre. Il importe d'y remédier si l'on veut produire ce carburant à grande échelle afin de remplacer avantageusement le diesel.
Article rédigé par Georges Simmonds pour RT Flash
korii
|
|
|
|
|
|
|
|
La démonstration est faite. Il est possible de produire industriellement de l’hydrogène par électrolyse à partir d’eau salée, au pied des éoliennes, en gérant les fluctuations de la production d’électricité. La start-up Lhyfe a inauguré à Bouin (Vendée), le 30 septembre, une unité de production de 300 kg d’hydrogène par jour, extensible à 1 tonne.
Grâce à un investissement de 10 millions d’euros, elle alimentera les bennes et bus de collectivités voisines et des véhicules utilitaires d’entreprises locales comme DB Schenker (logistique), Charier (travaux publics) et Lidl (grande distribution). Lhyfe a également annoncé avoir bouclé cet été une levée de fonds de 50 millions d’euros. De quoi développer son réseau commercial à l’international et investir dans des projets de production d’hydrogène vert au plus près des usages.
Matthieu Guesné, le président fondateur de Lhyfe, affirme en avoir une soixantaine dans ses cartons, dont un tiers à l’étranger. Il va par exemple décarboner un industriel de la chimie au Danemark et un producteur d’acier en Italie. La start-up nantaise va aussi avancer sur la production d’hydrogène en mer, une idée que Matthieu Guesné a en tête depuis la création de Lhyfe, en 2017.
Cette société n’écarte aucune piste technologique, qu’elle soit high-tech ou low-tech. Lhyfe vient notamment de s’associer aux parapétroliers Aquaterra Energy et Borr Drilling pour réutiliser de vieilles plates-formes pétrolières et infrastructures offshore pour installer des électrolyseurs au plus près des parcs éoliens en mer du Nord, stocker leur électricité en surplus sous forme d’hydrogène et l’acheminer à terre via des gazoducs, beaucoup moins chers que les câbles électriques. Une idée qu’explore aussi l’italien Saipem. Avec la société d’ingénierie offshore Doris, Lhyfe travaille également, comme Siemens, à l’intégration d’un électrolyseur dans le mat des éoliennes. Enfin, sur le site de test d’énergies marines Sem-Rev de Centrale Nantes à Saint-Nazaire (Loire-Atlantique), la start-up développe un bateau électrolyseur.
Article rédigé par Georges Simmonds pour RT Flash
L'Usine Nouvelle
|
|
|
|
|
|
|
|
Les pérovskites sont des composés hybrides à base d’halogénures métalliques et de constituants organiques. Ils présentent un vaste potentiel dans de multiples applications, par exemple les éclairages à LED, les lasers et les photodétecteurs. Leur contribution majeure réside toutefois dans les cellules photovoltaïques, où elles sont sur le point de conquérir le marché et de remplacer leurs homologues au silicium.
Les pérovskites à base d’iodure de plomb font partie des principaux candidats pour des cellules photovoltaïques hautement efficaces et stables. Elles présentent de grandes capacités en tant que collecteurs de lumière. Mais leur rendement dépend beaucoup de leur fabrication, et un élément déterminant est l’élimination des défauts de leur surface collectrice de lumière.
On utilise généralement une méthode appelée "passivation". Celle-ci consiste à recouvrir la surface des films de pérovskite de produits chimiques (halogénures d’alkylammonium) afin d’augmenter leur résistance et leur stabilité. Le processus ajoute une couche de pérovskite bidimensionnelle au-dessus du collecteur de lumière primaire à pérovskite, ce qui améliore la stabilité du dispositif.
Mais un problème se pose : la passivation forme des couches de pérovskite dites "dans le plan" qui ne "déplacent" pas aussi bien la charge électrique, notamment sous l’effet de la chaleur. C’est un inconvénient indéniable pour l’augmentation de la production et la commercialisation des panneaux solaires.
Dans une récente étude, des scientifiques dirigés par Mohammad Nazeeruddin, de la Faculté des Sciences de Base de l’EPFL, ont trouvé un moyen de résoudre ce problème en traitant les panneaux solaires avec différents isomères d’un iodure utilisé pour fabriquer des pérovskites. En chimie, les isomères sont des composés qui ont la même formule moléculaire mais dont les atomes sont disposés différemment dans l’espace tridimensionnel. Les scientifiques ont étudié l’énergie minimale requise pour former des pérovskites bidimensionnelles à partir de différents isomères de l’iodure PDEAI2 (phénylènediéthylammonium). Les isomères ont été conçus pour ce que les scientifiques appellent la "passivation sur mesure des défauts", ce qui signifie que leur effet de passivation sur les pérovskites a été très bien caractérisé à l’avance.
Cette approche s’est avérée très efficace pour éviter les effets négatifs de la passivation sur le rendement des pérovskites. Plus précisément, l’isomère de PDEAI2 le plus efficace était également le plus "stériquement encombré", un terme qui fait référence à un ralentissement de la réactivité chimique simplement en raison de la masse moléculaire du composé. En effet, l’encombrement stérique est souvent utilisé pour empêcher ou minimiser les réactions indésirables.
Les cellules photovoltaïques à pérovskites fabriquées avec cette méthode ont montré un rendement de 23,9 % et une stabilité opérationnelle supérieure à 1 000 heures. Les travaux ont également permis d’obtenir un rendement record de 21,4 % pour des modules à pérovskite d’une surface active de 26 cm2.
Article rédigé par Georges Simmonds pour RT Flash
EPFL
|
|
^ Haut |
|
|
|
|
|
|
|
Terre |
|
|
Sciences de la Terre, Environnement et Climat
|
|
|
|
|
|
|
|
|
Des chercheurs chinois de l’Institut de biotechnologie industrielle de Tianjin, à quelques kilomètres de Pékin, ont réussi la synthèse de l’amidon à partir de dioxyde de carbone (CO2). Le directeur de l’Institut de biotechnologie industrielle de Tianjin, Yanhe Ma, a communiqué sur le fait que son laboratoire venait de réussir la synthèse de l’amidon à partir de dioxyde de carbone (CO2). L’amidon est le composant le plus important du grain de maïs et, grâce à cette découverte, le dioxyde de carbone pourrait être utilisé, donc recyclé, pour fabriquer des aliments. Pour l’Institut, les impacts sur la planète et la faim dans le monde seraient considérables, la crise alimentaire et le changement climatique constituant deux défis majeurs.
« Nos recherches montrent qu’il est possible que nous puissions produire de l’amidon dans une usine plutôt que dans une ferme, ce qui devrait être un moyen d’assurer la sécurité alimentaire humaine et de réduire les émissions de dioxyde de carbone », explique Yanhe Ma, microbiologiste et directeur de l’Institut de biotechnologie industrielle de Tianjin en Chine.
À ce stade, la publication des résultats de l’Institut de Tianjin, dans un article intitulé « Synthèse d’amidon chimioenzymatique sans cellule à partir de dioxyde de carbone », fait état de 11 étapes pour parvenir à la synthèse de l’amidon. Les chercheurs utilisent un catalyseur à base de zinc et de zirconium pour réduire le dioxyde de carbone en méthanol qui sert de bloc de construction pour le reste du processus. Le méthanol est ensuite transformé en molécules de sucre à trois carbones. En utilisant des enzymes, les sucres sont polymérisés en sucres six-C et enfin en molécules d’amidon.
Selon le directeur de l’Institut de Tianjin, le procédé mis à jour serait 8,5 fois plus efficace que la production d’amidon en provenance de l’agriculture traditionnelle, un bioréacteur d’un mètre cube pouvant produire autant qu’un champ de maïs de 1,5 hectare pendant un an. L’enjeu est de taille puisque fabriquer de l’amidon avec du CO2 permettrait de produire des glucides de façon industrielle, sans avoir recours à l’agriculture qui est gourmande en eau et en sols cultivables. Autre impact positif, plus besoin d’engrais ou de pesticides qui nuisent à la biodiversité et à la qualité de vie des populations.
Pourtant, l’efficacité de conversion énergétique n’est actuellement que d’environ 2 % et la synthèse de l’amidon implique plus de 60 réactions métaboliques ainsi qu’une régulation physiologique complexe. En outre, le coût de production de l’amidon de synthèse reste élevé, et il faudra qu'il puisse être sensiblement réduit pour que les populations qui en ont besoin puissent y avoir accès…
Article rédigé par Georges Simmonds pour RT Flash
CAS
|
|
^ Haut |
|
|
|
|
|
|
|
Vivant |
|
|
Santé, Médecine et Sciences du Vivant
|
|
|
|
|
|
|
|
|
Le cortex cérébral, situé à la surface du cerveau, gère les facultés cognitives, le langage ou encore les fonctions complexes nous permettant de nous représenter le monde ou de nous projeter dans le futur. En étant capable de catégoriser et d’associer les stimuli lui parvenant de nos cinq sens, le cortex fait les liens entre ces différentes informations pour leur donner un sens et agir en conséquence.
Pour ce faire, différents types de neurones établissent des connexions corticales qui se mettent en place lors du développement embryonnaire, puis dans les premiers temps de vie. Mais par quel mécanisme biologique cet assemblage délicat se crée-t-il ? Une équipe de l’Université de Genève (UNIGE) décrypte pour la première fois ce phénomène : si les neurones sont anatomiquement différents, leur programme génétique reste, lui, très similaire. Il s’avère que les différences émergent au moment de la maturation de ces neurones, qui doivent suivre un rythme précis pour établir les bonnes connexions, sans quoi une connectivité anormale s’établit.
Les différentes fonctions gérées par le cortex cérébral ne sont pas distribuées au hasard, mais s’organisent selon une cartographie précise. Ainsi, les aires de la vision sont situées à l’arrière de la tête, tandis que le toucher est représenté sur le côté et le contrôle moteur à l’avant. Pour pouvoir accomplir leurs différentes fonctions, ces aires doivent cependant communiquer efficacement. « Et cela se vérifie continuellement : pour attraper un ballon, par exemple, l’aire de la vision et celle du mouvement doivent se coordonner », explique Denis Jabaudon, professeur au Département des neurosciences fondamentales de la Faculté de médecine de l’UNIGE, qui a dirigé ces travaux. Ces connexions sont essentielles pour que les êtres humains puissent construire une vision cohérente du monde qui les entoure et l’interpréter correctement. Cependant, un choix doit s’opérer afin que, d’une part, les associations ne soient pas erronées, et que, d’autre part, les associations les plus utiles soient aussi sélectionnées.
Les connexions entre les aires corticales sont assurées par les neurones dits "de projection corticale interaréaux" (ICPN), qui envoient des signaux électriques à d’autre(s) aire(s) corticale(s). « Or, pour que les aires corticales puissent communiquer, le système doit se connecter précisément », souligne Denis Jabaudon. « Et pour cela, différents types de connexions doivent impérativement s’établir au bon endroit et au bon moment ». Pour comprendre comment ce phénomène se met en place, l’équipe de Denis Jabaudon a étudié comment les connexions entre les aires responsables du toucher et de la motricité s’établissent après la naissance chez la souris. « A notre grande surprise, le programme génétique des populations d’ICPN n’est globalement pas différent malgré leurs différences anatomiques. Cependant, le tempo régissant l’expression de ce programme génétique varie, lui, considérablement ».
Ainsi, les neurones établissant des connexions d’un type donné se développent plus rapidement, tandis que d’autres se développant plus lentement connectent d’autres aires corticales. « Nos travaux suggèrent que pour créer la diversité des neurones, il n’y a pas toujours besoin de diversité génétique majeure. Il semble que dans ce cas, la partition est similaire, seul le rythme de lecture et d’exécution change ».
Pour confirmer leur découverte, les scientifiques ont modifié l’exécution de ce programme génétique en exprimant sur une longue période un gène qui normalement n’est exprimé qu’au début du processus. Les souris ont alors montré des connectivités sensitivomotrices anormales, ainsi qu’une exploration insolite de leur environnement. Cette seule modification a perturbé le système dans son entier.
Les différents types neuronaux ont donc des rythmes de différenciation postnatale distincts, qui se reflètent dans l’ordre selon lequel les connexions entre les aires cérébrales apparaissent. « Chez la souris, l’exploration active de l’environnement n’émerge progressivement qu’au cours des deux premières semaines de vie et suit la mise en place des connexions entre les aires cérébrales correspondantes », détaille Denis Jabaudon. « Le développement par étape de ces différents neurones permet aux aptitudes sensorielles d’émerger selon ce même calendrier: le souriceau nouveau-né a d’abord besoin de pouvoir téter — et développera donc en premier la relation toucher — puis aura besoin de se déplacer et développera alors des aptitudes motrices faisant appel à d’autres aires cérébrales ». Ainsi, peu à peu, le cortex apprend à n’établir des connexions que lorsque celles-ci sont nécessaires, afin de pouvoir traiter l’information correctement. Dans le cerveau aussi, il y a un temps et un lieu pour tout.
Article rédigé par Georges Simmonds pour RT Flash
UNIGE
|
|
|
|
|
|
|
|
L’ibrutinib, inhibiteur de BTK oral, est le seul traitement ciblé qui a démontré une amélioration de la survie sans progression (SSP) et la survie globale (SG) dans des études randomisées de phase III chez des patients atteints de leucémie lymphoïde chronique (LLC). Le vénétoclax est un inhibiteur oral de BCL-2, approuvé pour le traitement de la LLC en monothérapie ou en association avec un anticorps monoclonal anti-CD20. Il procure des réponses profondes avec maladie résiduelle indétectable (MRI) dans la moelle osseuse de 16 % des cas de LLC en rechute ou réfractaire (R/R) en monothérapie, et 57 % des cas de LLC non traitée par vénétoclax + obinutuzumab.
L'ibrutinib en continu offre un avantage en termes de survie, mais la demande s’oriente vers des traitements oraux, limités dans le temps, administrés en ambulatoire en toute sécurité. L'ibrutinib et le vénétoclax ont des mécanismes d'action complémentaires : l'inhibition de BTK par l'ibrutinib renforce la dépendance des cellules CLL à l'égard de BCL-2. En plus d'inhiber la prolifération et la survie des cellules de LLC, l'ibrutinib mobilise les cellules de LLC des niches du microenvironnement protecteur dans la circulation, ce qui rend les cellules plus sensibles à l'apoptose, qui est notamment accélérée par l'ajout de vénétoclax.
Chez les patients traités par chimio-immunothérapie, telle que la fludarabine, cyclophosphamide et rituximab (FCR), le statut MRI est corrélé à une durée plus longue de SSP et SG, indépendamment de la profondeur de la réponse clinique. Dans la LLC R/R, une MRI à la fin de l'association vénétoclax + rituximab est également prédictive d'une plus longue SSP. On peut anticiper que des combinaisons ciblées devraient conduire à une amélioration de la SSP et potentiellement de la SG. L'étude CAPTIVATE évalue l'association ibrutinib + vénétoclax dans le traitement de première ligne de la LLC. C’est une étude multicentrique, internationale, randomisée, de phase II, s’adressant à des patients de moins de 70 ans qui présentent une LLC non traitée, nécessitant un traitement selon les critères de l'iwCLL.
La phase de prérandomisation consiste en ibrutinib (420 mg par jour) PO en monothérapie pendant 3 cycles de 28 jours puis ibrutinib + vénétoclax PO (dose cible de 400 mg par jour après une montée en puissance sur 5 semaines) pendant 12 cycles. La prophylaxie du syndrome de lyse était réalisée en hospitalisation pendant les 24-48 premières heures d’administration du vénétoclax chez les patients à risque élevé de syndrome de lyse. Le statut de la MR et la réponse tumorale sont alors évalués et le traitement ultérieur est fonction du statut de la MR.
Les patients avec MRI confirmée sont randomisés entre placebo (PBO) ou ibrutinib jusqu’à perte de la MRI. Les patients n’ayant pas obtenu de MRI (MRNI) sont randomisés entre ibrutinib seul ou poursuite de ibrutinib + vénétoclax (max 2 ans de vénétoclax) jusqu'à progression de la maladie ou toxicité inacceptable.
Les 164 patients inclus étaient d'âge médian de 58 ans, et la plupart présentaient une maladie à haut risque, notamment mutation del(17p) (16 %), del(11q) (17 %), del(17p) ou mutation TP53 (20 %), caryotype complexe (19 %), mutation TP53 (12 %), gène IGHV non muté (60 %). La phase de prérandomisation a permis d’obtenir une MRI dans le sang chez 75 % (123 sur 164) et dans la moelle chez 68 % (112 sur 164).
Parmi les patients présentant une MRI dans le sang avant la randomisation, 94 % présentaient aussi une MRI dans la moelle. Selon les sous-groupes basés sur les caractéristiques cliniques ou biologiques, des taux élevés de MRI médullaire sont observés, allant de 56 à 79 %, incluant les patients à haut risque. Une réponse clinique complète (RC) a été observée chez 46 % des patients. Parmi eux, 83 % étaient en MRI dans le sang et 80 % dans la moelle. Parmi les patients en réponse partielle, 72 % étaient en MRI dans le sang et 61% dans la moelle.
A 1 an après randomisation des patients en MRI, la survie sans maladie chez les patients sous PBO était à 95 % et sous ibrutinib à 100 %. La SSP estimée à 30 mois est à 95 % sous PBO et à 100 % sous ibrutinib. Les taux de MRI deviennent pour le groupe PBO 84 % dans le sang et 81 % dans la moelle, et pour le groupe ibrutinib 77 % dans le sang et la moelle.
Pour la population de patients en MRNI, la SSP à 30 mois est de 95 % dans le groupe ibrutinib et 97% dans le groupe ibrutinib+vénétoclax. Environ 50 % des patients en réponse clinique partielle ont progressé en RC avec ibrutinib ou ibrutinib+vénétoclax. Une MRI a pu être obtenue pour le groupe ibrutinib dans 45 % des cas dans le sang et 42 % dans la moelle et pour le groupe ibrutinib+vénétoclax dans 69 % des cas dans le sang et 66 % dans la moelle. La prévalence des EI grade 3 ou 4 a été plus importante dans le groupe ibrutinib+vénétoclax que dans le groupe ibrutinib. Ainsi un traitement de 3 mois par ibrutinib suivi de 12 mois d’ibrutinib+vénétoclax permet d’obtenir des réponses profondes, attestées par une MRI chez plus de 2/3 des patients, incluant des taux élevés de MRI dans la moelle chez des patients à haut risque.
Article rédigé par Georges Simmonds pour RT Flash
JIM
|
|
|
|
|
|
|
|
La maladie de Huntington est une maladie neurologique dégénérative provoquant des mouvements incontrôlés, des problèmes psychologiques et la perte des fonctions cognitives. Sa cause est une mutation du gène qui code la huntingtine, protéine qui joue normalement un rôle essentiel pour préserver la santé et l’activité des cellules cérébrales. Mais la mutation "donne" à la huntingtine une queue anormalement longue de glutamine, et ces acides aminés poussent la huntingtine à s’accumuler dans les neurones et finalement à les tuer.
Ces agrégats ou "inclusions" de huntingtine ont fait l’objet de nombreux efforts de recherche pour tenter de découvrir comment comprendre et traiter la maladie de Huntington. Cependant, il manquait jusqu’à présent une analyse approfondie de l’ultrastructure des inclusions, c’est-à-dire du niveau de structure qui dépasse la capacité d’observation d’un microscope traditionnel. Grâce à la microscopie avancée et la protéomique, les scientifiques de l’EPFL menés par Hilal Lashuel, en collaboration avec l’établissement de microscopie bioélectronique BioEM, sont parvenus avec succès à mener la première étude qui s’interroge sur l’ultrastructure des inclusions de huntingtine et sur leur composition, dans les cellules qui modélisent la formation pathologique de la maladie de Huntington.
Les chercheurs ont fait appel à une technique sophistiquée appelée microscopie corrélative qui allie la microscopie optique et la microscopie électronique (CLEM), capable d’identifier les inclusions dans différents compartiments cellulaires (cytoplasme ou noyau) et d’étudier leurs caractéristiques structurelles et organisationnelles à l’intérieur de neurones de culture. La méthode CLEM combine pour l’essentiel un microscope électronique et un microscope à fluorescence. Le premier fournit des informations haute résolution allant jusqu’à l’échelle nanométrique, tandis que le microscope à fluorescence peut (littéralement) mettre en lumière les régions d’intérêt.
Les chercheurs ont aussi utilisé la tomographie électronique qui leur a permis de visualiser chaque agrégat isolé au sein de ces inclusions. « Nous voulions dépasser le simple stade de la représentation détaillée de formation de ces inclusions », explique Nathan Riguet, auteur principal de l’étude. « C’est pourquoi nous avons élargi nos études afin de comprendre comment ces inclusions se forment, comment elles modifient leur environnement subcellulaire, la fonction des organelles dans leur voisinage et, à terme, la viabilité des neurones ».
L’étude a montré que l’agrégation de la huntingtine et la formation des inclusions dans le cytoplasme et le noyau des neurones découlent de différents mécanismes, entraînant des propriétés ultrastructurelles et biochimiques distinctes. Cela signifie aussi que ces deux types d’inclusion peuvent exprimer leur toxicité de différentes façons. Les traitements devront alors recourir à différentes stratégies pour cibler la formation, la maturation et la toxicité des inclusions.
L’étude suggère également que la recherche de méthodes visant à modifier la croissance des inclusions et leurs interactions avec d’autres protéines et organelles constitue une stratégie complémentaire ou alternative valide pour ralentir la progression de la maladie de Huntington, en particulier après son apparition. En effet, ce processus entraîne la séquestration de protéines fonctionnelles et perturbe le fonctionnement des organelles importantes dans la cellule, comme la mitochondrie. Les auteurs concluent et soulignent que « La stratégie thérapeutique qui consiste à cibler la croissance des inclusions et leur maturation est viable ».
Article rédigé par Georges Simmonds pour RT Flash
EPFL
|
|
|
|
|
|
|
|
Des chercheurs de l'Intermountain Healthcare Heart Institute de Salt Lake City ont montré que le jeûne intermittent permettait de lutter contre l'inflammation. « L'inflammation est associée à un risque plus élevé de développer plusieurs maladies chroniques, dont le diabète et les problèmes cardiaques. Nous sommes heureux de constater que le jeûne intermittent incite l'organisme à combattre l'inflammation et à réduire ces risques », a déclaré Benjamin Horne, auteur de l'étude. Sa recherche a porté sur 67 patients âgés de 21 à 70 ans qui présentaient tous au moins un symptôme du syndrome métabolique ou un diabète de type 2. Aucun participant ne prenait de médicaments antidiabétiques ou de statines, et tous avaient des taux élevés de cholestérol LDL.
Sur les 67 patients étudiés, 36 ont dû suivre un jeûne intermittent : un mois durant, deux fois par semaine, ils n’ont bu que de l’eau pendant 24 heures. Une fois cette étape passée, ils ont continué à jeûner une fois par semaine, pendant 22 semaines. Les jeûnes ne pouvaient pas être effectués sur deux jours consécutifs. Les 31 autres membres de la cohorte n'ont rien changé, ni à leur régime alimentaire ni à leur mode de vie.
Au bout de 26 semaines, les chercheurs ont mesuré la galectine-3 de tous les participants et ont constaté que cette protéine liée à la réponse inflammatoire était plus élevée dans le groupe du jeûne intermittent. Ils ont également observé dans ce groupe des taux plus faibles de HOMA-IR (résistance à l'insuline) et de MSS (syndrome métabolique), ce qui, selon eux, pourrait être similaire aux effets des inhibiteurs du SGLT-2, une classe de médicaments utilisés pour réduire les taux élevés de glucose chez les patients atteints de diabète de type 2.
Article rédigé par Georges Simmonds pour RT Flash
IHHI
|
|
|
|
|
|
|
|
Une équipe de recherche anglo-germanique, regroupant des chercheurs de l'Université de Leicester, du Centre médical universitaire de Göttingen et de l'association caritative de recherche médicale LifeArc, a montré qu'un nouveau traitement à base d'anticorps, ainsi qu'un vaccin ciblant une forme particulière de la protéine bêta-amyloïde pouvaient réduire les symptômes de la maladie d’Alzheimer chez la souris.
Plutôt que de se concentrer sur la protéine bêta-amyloïde dans les plaques qui se forment dans le cerveau qui sont associées à la maladie d'Alzheimer, cet anticorps et le vaccin correspondant ciblent tous deux une forme soluble différente de la protéine, considérée comme hautement toxique. Le professeur Thomas Bayer, du Centre médical universitaire de Göttingen, souligne : « Dans les essais cliniques, aucun des traitements qui dissolvent les plaques amyloïdes dans le cerveau n'a montré beaucoup de succès en termes de réduction des symptômes de la maladie d'Alzheimer. Certains ont même montré des effets secondaires négatifs. Nous avons donc opté pour une approche différente. Nous avons identifié un anticorps chez la souris qui neutralise les formes tronquées de bêta-amyloïde soluble, mais ne se lient ni aux formes normales de la protéine ni aux plaques ».
Le Docteur Preeti Bakrania et ses collègues de LifeArc ont adapté cet anticorps afin qu'un système immunitaire humain ne le reconnaisse pas comme étranger et l'accepte. Lorsque les chercheurs ont examiné comment cet anticorps "humanisé", appelé TAP01_04, se liait à la forme tronquée de la bêta-amyloïde, ils ont observé que la protéine bêta-amyloïde s'était repliée sur elle-même, dans une structure en épingle à cheveux, qui n'avait jamais encore été observée. Ces scientifiques ont alors eu l'idée d'utiliser cette forme modifiée de bêta-amyloïde pour concevoir un vaccin qui incite le système immunitaire à fabriquer des anticorps de type TAP01_04. Et lorsque l'équipe a testé la protéine bêta amyloïde modifiée chez la souris, elle a constaté qu'effectivement, les souris qui avaient reçu ce vaccin produisaient des anticorps de type TAP01.
Le groupe de Göttingen a ensuite testé à la fois l'anticorps "humanisé" et le vaccin bêta-amyloïde modifié, appelé TAPAS, dans deux modèles murins différents de la maladie d'Alzheimer. Sur la base de techniques d'imagerie similaires à celles utilisées pour diagnostiquer la maladie d'Alzheimer chez l'homme, ils ont découvert que l'anticorps et le vaccin aidaient à restaurer la fonction neuronale, à augmenter le métabolisme du glucose dans le cerveau, à restaurer la perte de mémoire et à réduire la formation de plaques bêta-amyloïde.
L'étude souligne que, « Si ces résultats devaient être reproduits dans des essais cliniques sur l'homme, ils pourraient ouvrir la possibilité non seulement de traiter la maladie d'Alzheimer une fois les symptômes détectés, mais aussi de prévenir cette redoutable pathologie avant l'apparition des symptômes ».
Article rédigé par Georges Simmonds pour RT Flash
Eurekalert
|
|
|
|
|
|
|
|
Le psoriasis, maladie inflammatoire chronique de la peau qui se manifeste par des plaques rouges recouvertes de squames, affecte 2 à 3 % de la population mondiale. S’il s’agit le plus souvent d’une maladie bénigne, il existe des formes sévères (environ 20 % des cas), associées à une atteinte généralisée et/ou à des douleurs articulaires. L’inflammation qui caractérise les lésions psoriasiques résulte de l’infiltration de l’épiderme et du derme par des cellules immunitaires, en particulier par une sous-population de lymphocytes T − les LTh17 − producteurs de molécules pro-inflammatoires (IL-17, IL-22, IFNg, TNFα…). Ce phénomène provoque une hyperprolifération pathologique des kératinocytes, les cellules qui composent majoritairement l’épiderme.
Les principaux traitements actuels du psoriasis ciblent cette voie inflammatoire, mais les anticorps thérapeutiques dirigés contre l’IL-17, l’IL-22 ou le TNFα sont excessivement chers, nécessitent une administration par voie sous-cutanée réalisée par un spécialiste, et sont associés à de potentiels événements indésirables tels qu’un surrisque infectieux. Des solutions alternatives sont donc recherchées.
À l’Institut toulousain des maladies infectieuses et inflammatoires, en collaboration avec des chercheurs du Centre de biologie intégrative (CNRS), des cliniciens du CHU Larrey et les laboratoires Pierre Fabre Cosmétiques, l’équipe de Magali Savignac pourrait avoir trouvé une piste prometteuse. Au cours de précédents travaux, la chercheuse Inserm a en effet montré que les lymphocytes Th17 présents dans la circulation sanguine expriment à leur surface un canal calcique particulier, le canal calcique Cav1.4, dont le fonctionnement est indispensable à la production de cytokines. Ce canal est spécifique des LTh17 : il n’est pas retrouvé sur d’autres types de lymphocytes. Dans une nouvelle étude, l’équipe vient de montrer que ces canaux sont en outre présents à la surface des LTh17 qui infiltrent la peau des patients atteints de psoriasis. Plus encore, ces travaux prouvent qu’inhiber les canaux Cav1.4 réduit la production locale de cytokines et les symptômes de psoriasis.
Pour confirmer la présence des canaux Cav1.4 sur les LTh17 des patients, les chercheurs ont travaillé à partir de biopsies de lésions psoriasiques et utilisé des biomarqueurs spécifiques qui permettent de repérer les cellules Th17 et de visualiser le canal Cav1.4 à leur surface. Dans un second temps, ils ont voulu bloquer ce canal pour observer les conséquences sur la production de cytokines dans différents modèles d’étude du psoriasis. Pour cela, ils ont eu recours à un produit déjà commercialisé dans le traitement de l’hypertension, qui agit en inhibant des canaux Cav1 des vaisseaux sanguins : la nicardipine.
Les chercheurs toulousains ont d’abord travaillé avec des LTh17 issus d’échantillons sanguins de patients ou de sujets sains, puis de biopsies cutanées de patients. Ils ont alors pu établir que la production de cytokines IL-17, IL-22, IFNg et TNFα par les lymphocytes Th17 chute en présence de nicardipine. Le même résultat a été obtenu dans un modèle de souris atteintes d’un psoriasis induit.
Les chercheurs ont ensuite utilisé un modèle de peau humaine, reconstituée en culture en trois dimensions à partir de cellules saines. Dans ce dernier modèle, les chercheurs ont d’abord conduit une première expérience au cours de laquelle ils ont inséré des LTh17 : ces derniers ont infiltré la peau en culture et entraîné l’apparition de signes de psoriasis en quelques jours. Quand l’équipe a renouvelé l’expérience en exposant préalablement les Th17 à la nicardipine, les signes de psoriasis ne sont pas apparus.
« Notre travail apporte la preuve que les lymphocytes Th17 qui infiltrent la peau dans le psoriasis expriment bien le canal calcique Cav1.4, et qu’inhiber ce canal bloque la production de cytokines pathogènes. Ces résultats ouvrent ainsi un nouveau champ thérapeutique fondé sur le développement de médicaments qui ciblent spécifiquement ces canaux calciques pour réduire les symptômes de psoriasis », se réjouit Magali Savignac.
Article rédigé par Georges Simmonds pour RT Flash
Inserm
|
|
|
|
|
|
|
|
Des chercheurs de l'Université de Genève (UNIGE) on découvert, en travaillant sur des souris souffrant d’un modèle de sclérose en plaques, comment l’exposition au froid poussait l’organisme à détourner ses ressources du système immunitaire vers le maintien de la chaleur corporelle. Ainsi, lors de l’exposition au froid, le système immunitaire diminuait son activité néfaste, atténuant considérablement l’évolution de la maladie auto-immune. Ces résultats posent les bases d’un concept biologique fondamental sur l’allocation des ressources énergétiques.
Les maladies auto-immunes surviennent lorsque le système immunitaire attaque ses propres organes. Le diabète de type 1, par exemple, est causé par la destruction erronée des cellules pancréatiques productrices d’insuline. La sclérose en plaques est, quant à elle, la maladie auto-immune la plus courante du système nerveux central (soit le cerveau et la moelle épinière). Elle se caractérise par la destruction de la myéline, une isolation protectrice des cellules nerveuses qui joue un rôle important dans la transmission correcte et rapide des signaux électriques. Sa destruction entraîne ainsi des troubles neurologiques et peut notamment conduire à la paralysie.
« Les mécanismes de défense de notre corps sont coûteux en énergie et peuvent faire l’objet de compromis lorsque plusieurs d’entre eux sont activés. L’organisme peut ainsi être amené à prioriser l’allocation des ressources dans ses différents programmes de défense en fonction de leur valeur de survie », explique Mirko Trajkovski, professeur au Département de physiologie cellulaire et métabolisme, au Centre du diabète de la Faculté de médecine de l’UNIGE et auteur principal de l’étude. « Ainsi, dans le cadre de l’auto-immunité, nous avons émis l’hypothèse qu’introduire un programme supplémentaire coûteux en énergie pourrait mitiger la réponse immunitaire et améliorer les symptômes de la maladie. En d’autres termes, pourrions-nous détourner l’énergie dépensée par l’organisme lorsque le système immunitaire se dérègle » ?
Pour vérifier leur hypothèse, les scientifiques ont placé des souris souffrant d’encéphalomyélite auto-immune expérimentale, un modèle de sclérose en plaques humaine, dans un environnement un peu plus froid — environ 10°C — après une période d’acclimatation consistant à diminuer progressivement la température ambiante. « Après quelques jours, nous avons observé une nette amélioration de la sévérité clinique de la maladie, ainsi que de l’étendue de la démyélinisation observée dans le système nerveux central », explique Doron Merkler, professeur au Département de pathologie et immunologie, au Centre de recherche sur l’inflammation de la Faculté de médecine de l’UNIGE et co-auteur des travaux. « Les animaux n’ont eu aucune difficulté à maintenir leur température corporelle à un niveau normal, mais, singulièrement, les symptômes de troubles locomoteurs ont diminué de façon spectaculaire, passant de l’impossibilité de marcher sur leurs pattes arrières à une légère paralysie de la queue ».
La réponse immunitaire repose, entre autres, sur la capacité de certains monocytes — des cellules immunitaires dites ‘présentatrices d’antigènes’ — à indiquer aux lymphocytes T immunitaires comment reconnaître les éléments du "non-soi" qui doivent être combattus. Or, dans les maladies auto-immunes, les antigènes du "soi" sont confondus avec ceux du "non-soi". « Nous montrons ici que le froid module l’activité des monocytes inflammatoires en diminuant leur capacité de présentation de l’antigène à combattre, ce qui limite de ce fait l’activation des lymphocytes T, des cellules au rôle critique dans l’auto-immunité », explique Mirko Trajkovski. En obligeant l’organisme à augmenter son métabolisme pour maintenir sa chaleur, le froid prive le système immunitaire de ressources. Cela entraîne une diminution des cellules immunitaires nocives et améliore par conséquent les symptômes de la maladie.
« Si le concept consistant à donner la priorité à la réponse thermogénique sur la réponse immunitaire est évidemment protecteur contre l’auto-immunité, il convient de noter que l’exposition au froid augmente la susceptibilité à certaines infections. Nos recherches pourraient ainsi être utiles non seulement pour comprendre la neuroinflammation, mais aussi d’autres maladies infectieuses ou à médiation immunitaire, qui devront faire l’objet de recherches plus approfondies », ajoute Mirko Trajkovski.
L’amélioration des conditions de vie dans les pays occidentaux, notable au cours des dernières décennies, est allée de pair avec une augmentation des cas de maladies auto-immunes. « Si cette augmentation est sans aucun doute multifactorielle, le fait que nous disposions de ressources énergétiques en abondance pourrait jouer un rôle important, mais encore mal compris, dans le développement des maladies auto-immunes », conclut Doron Merkler.
Article rédigé par Georges Simmonds pour RT Flash
UNIGE
|
|
|
|
|
|
|
|
Au cours de l'évolution, les protéines explorent l'espace des séquences fonctionnelles. L'interaction entre mutations aléatoires du génome et sélection naturelle des organismes a permis l’apparition de milliers de protéines ayant des séquences d'acides aminés distinctes, mais des fonctions biologiques ou des structures tridimensionnelles équivalentes. Grâce aux techniques modernes de séquençage des génomes, de plus en plus de ces séquences sont connues. La base de données Uniprot rassemble, par exemple, plus de 200 millions de séquences distinctes, mais seulement environ 0,25 % de ces séquences ont une structure ou une fonction connue expérimentalement.
Les approches informatiques basées sur la science des données, la physique statistique et/ou l'intelligence artificielle gagnent rapidement en importance pour explorer cette richesse croissante de données et en extraire des informations biologiques. Récemment, un exemple impressionnant a été donné par AlphaFold soutenu par Google Deepmind, qui arrive à prédire les structures des protéines à partir des séquences avec une précision sans précédent. Dans ce contexte, les modèles dits "génératifs" suscitent également un intérêt croissant, de par leur capacité à générer de manière computationnelle des séquences artificielles d'acides aminés statistiquement équivalentes à leurs homologues naturels. Il a récemment été démontré que la modélisation générative offre un nouveau paradigme pour concevoir et optimiser de nouvelles protéines en utilisant les bases de données existantes, avec des enjeux économiques importants.
Une équipe de recherche de l’Institut de biologie Paris-Seine (IBPS – Sorbonne Université/CNRS) dirigée par Martin Weigt, enseignant-chercheur à Sorbonne Université, a proposé, en collaboration avec des chercheurs du Laboratoire de physique de l’ENS (LPENS, École normale supérieure/CNRS/SU/Université de Paris) et de l’École Polytechnique de Turin, une nouvelle méthode plus performante pour l’apprentissage de modèles génératifs. Cette approche dite "autorégressive", proche de familles connues de protéines et de leurs séquences pour ajuster un modèle statistique, permet à la fois de proposer de nouvelles séquences protéiques et de donner des informations sur la structure et la fonction des protéines associées.
Grâce à son efficacité, cette méthode peut être utilisée sur des milliers de familles de protéines, y compris celles ayant de très longues séquences. Elle permet de générer et d’évaluer de nouvelles séquences, qui n’ont jamais été trouvées dans la nature auparavant. Selon l’équipe de chercheurs, ces séquences artificielles seront importantes pour l'optimisation et la conception de grandes protéines de fonctionnalité donnée (par exemple, des enzymes efficaces et thermostables), question où la recherche fondamentale rejoint des enjeux technologiques et biomédicaux.
Article rédigé par Georges Simmonds pour RT Flash
CNRS
|
|
|
|
|
|
|
|
Selon une nouvelle étude, menée par le Barts Cancer Institute de l'Université Queen Mary de Londres (Royaume-Uni) et présentée au congrès du National Cancer Research Institute, des analyses de sang régulières avant et pendant une chimiothérapie pour le cancer de la prostate peuvent détecter si un patient est résistant ou développe une résistance au traitement par chimiothérapie.
Chez les hommes atteints d'un cancer de la prostate qui a commencé à métastaser et qui ne répond pas à un traitement d’hormonothérapie, le traitement préconisé est le docétaxel, une chimiothérapie qui peut améliorer considérablement la survie. Cependant, certains patients sont résistants ou acquièrent une résistance au docétaxel.
Le test sanguin élaboré par l’équipe de recherche permet d’identifier cette résistance au docétaxel et de prédire la survie à partir du nombre et des types de cellules cancéreuses qui se sont détachées de la tumeur et ont pénétré dans la circulation sanguine. Ces cellules sont appelées cellules cancéreuses circulantes ou CTC. « Notre capacité à collecter et à analyser les CTC avant, pendant et après le traitement signifiait que nous pouvions surveiller les changements dans les CTC en réponse au traitement », explique Caitlin Davies, qui a supervisé les recherches.
Pour le mettre au point, les chercheurs ont prélevé des échantillons de sang chez 56 patients atteints d'un cancer avancé de la prostate. Les échantillons ont été prélevés avant qu'ils ne commencent le traitement au docétaxel, après leur première dose de chimiothérapie, avant leur cinquième dose, et une fois qu'ils ont terminé toutes les doses, soit pendant une période d'environ six à huit mois. Au total, 205 échantillons ont été disponibles pour l'analyse. En utilisant un système de filtration sanguine appelé Parsortix, les chercheurs ont pu identifier les CTC présentes dans le sang, et les classer suivant différents sous-types.
« Nous avons ensuite recherché des modèles dans les données des hommes qui ont répondu ou non au traitement, ou dont la maladie a progressé plus tôt que les autres après le traitement. (…) Par exemple, une augmentation du nombre de CTC peut indiquer une absence de réponse au traitement. En outre, en surveillant l'apparition de CTC potentiellement résistantes aux médicaments, nous pouvons modifier la tactique de traitement à un stade précoce et de manière personnalisée et opportune pour le patient », détaille la chercheuse.
Avec son équipe, Caitlin Davies a constaté que les hommes étant moins susceptibles de répondre au docétaxel voyaient leurs chances de guérison diminuer et leur risque de mourir dans les 18 mois si plus de six CTC par 7,5 ml de sang étaient détectés avant leur première dose de docétaxel. En comparaison, la survie sans progression était de 17 mois et la survie globale de trois ans pour les hommes ayant détecté moins de six CTC par 7,5 ml de sang.
Un nombre élevé de CTC vers la fin du traitement prédisait quant à lui un délai plus court avant la progression de la maladie et le décès.
« Cet aperçu de la façon dont la dynamique des CTC conduit à une réduction des temps de survie et sans progression est vital pour les cliniciens. Elle leur permettra de modifier rapidement le traitement en passant du docétaxel à une autre solution, ce qui pourrait améliorer considérablement les chances de survie à long terme des patients », souligne Caitlin Davies. Les chercheurs ont également découvert qu'une protéine codée par un gène appelé KLK2 était nettement plus efficace pour prédire le délai de progression de la maladie et le décès que la protéine de référence actuelle, l'antigène prostatique spécifique (PSA), qui est codée par le gène KLK3.
« On a constaté des niveaux élevés d'expression du gène KLK2 chez les patients qui n'ont pas répondu au docétaxel, et cette expression élevée était également associée à un délai plus court avant la progression de la maladie et le décès. Ces résultats sont importants car ils mettent en évidence le KLK2 comme un possible biomarqueur alternatif et meilleur pour le pronostic du cancer de la prostate », affirme Caitlin Davies, qui espère que cette découverte pourra déboucher sur le développement d’une nouvelle génération de thérapies.
Dernier avantage à cette biopsie liquide qui permet le dépistage des CTC dans le sang : la facilité avec laquelle elle peut être généralisée. « Elle est peu invasive, indolore et facilement reproductible, ce qui permet aux patients d'éviter de subir des biopsies tissulaires douloureuses. Elle ne prend que quelques minutes au patient, et nous pouvons obtenir des résultats dans les deux ou trois jours, alors qu'une biopsie tissulaire peut prendre jusqu'à dix jours ».
Article rédigé par Georges Simmonds pour RT Flash
Eurekalert
|
|
^ Haut |
|
|
|
|
|
VOTRE INSCRIPTION |
|
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
|
|
|
|
|
|