RTFlash

RTFLASH Recherche & Technologie
NUMERO 1146
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 11 Mars 2022
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
L'archivage sur ADN redéfinit le concept de durée des supports de stockage
Des retraits bancaires sécurisés sans code secret grâce à la relativité restreinte
Matière
Une batterie lithium-air atteint une densité d’énergie supérieure à 500 wh/kg
De l'hydrogène produit à partir de peaux de banane
Des volants d'inertie en béton pour stocker l'énergie solaire
Espace
Un vaisseau spatial chinois détecte de l’eau à la surface de la Lune
Terre
La mortalité pourrait augmenter de 42 % avec un réchauffement climatique de 2°C !
Les mélanges variétaux : une pratique agroécologique prometteuse analysée par la génétique
Vivant
L'allaitement apporte un bénéfice cardiovasculaire pour les mères
L'intelligence artificielle au service des enfants diabétiques
Un vaccin nasal anti-grippal à base de nanoparticules
Le blocage des sphingolipides empêche la dystrophie musculaire
Découverte d'anomalies cérébrales associées à la maltraitance infantile
Combiner l’IA et l’IRM pour mieux traiter le cancer
Un composé du brocoli confirme son efficacité contre le cancer
Edito
Les propriétés de la lumière sont un moteur-clé d’innovation scientifique et technique



Cette semaine, je vais évoquer un phénomène physique fascinant, connu depuis l’antiquité, qui est à l’origine depuis quelques années d’une multitude d’innovations : la luminescence. Ce phénomène se distingue de l’éclairage ordinaire par le fait qu’il s’agit d’une émission de lumière qui est produite, sans dégagement de chaleur, par une source qui peut être d'origine lumineuse, chimique, ou électrique. Dans la nature, de très nombreux, animaux sont luminescents, comme le ver luisant, ou la luciole. Mais c’est dans le milieu marin qu’on trouve le plus d’animaux lumineux puisqu’une vaste étude d’exploration, publiée en 2017, a révélé de manière étonnante que les trois quarts des espèces marines vivant entre la surface et 4000 mètres de profondeur étaient luminescents… (Voir Nature). Sur terre, bien que ce phénomène soit plus rare, on trouve néanmoins des mammifères dotés de cette propriété, comme l’étrange ornithorynque, dont on a découvert il y a seulement deux ans, qu’il brillait la nuit (Voir De Gruyter).

Longtemps considérée comme une simple curiosité, la luminescence, dans ses différentes déclinaisons, est pourtant à l’origine, depuis quelques années, d'un nombre croissant de nombreuses et remarquables avancées dans de multiples domaines. En biologie, une étude réalisée par des chercheurs de l’Université de Pittsburgh, dirigés par le Docteur Yang Liu, a révélé que le colorant de liaison à l'ADN, associé à des échantillons de tissus cliniques, permettait d’obtenir des images de haute qualité via la microscopie à fluorescence à super résolution, une nouvelle technique inventée en 2014 (Voir Science Advances). Contrairement à la microscopie à fluorescence classique, qui utilise des marqueurs qui brillent en permanence, cette approche permet d'allumer, à la demande, grâce à un nouveau type de marqueur combinant la molécule de liaison à l'ADN Cy5 et un colorant fluorescent appelé Hoechst, uniquement un groupe d'étiquettes, pour un temps très bref. Il suffit ensuite de superposer les nombreuses images ainsi obtenues, pour reconstruire une image complète à très haute définition.

Ces recherches ont montré qu’à l’aide de cette nouvelle technique, il devenait possible de distinguer rapidement les cellules normales, des cellules malignes. En effet, dans le premier cas, la chromatine est dense, et l'ADN émet un signal lumineux plus fort. En revanche, dans le cas de cellules cancéreuses, la chromatine est moins dense et va produire un signal plus faible. « Nous pensons que les patients avec une chromatine plus ouverte sont ceux qui sont les plus susceptibles de développer un cancer. En suivant ces patients dans la durée, nous pourrons confirmer que la perturbation de la chromatine dans les cellules normales est bien prédictive d’un risque de cancer » souligne le Docteur Yang Liu. Ces chercheurs vont à présent utiliser cette nouvelle technique de marquage fluorescent pour examiner des échantillons d'expectorations de fumeurs, afin de pouvoir détecter de manière très précoce d’éventuels cancers du poumon.

En France, des chercheurs de l’Institut des sciences moléculaires d’Orsay et de l’Institut Langevin ont développé une nouvelle technique de microscopie optique de super-résolution qui atteint une précision nanométrique uniforme dans les trois dimensions dont la profondeur, ce que ne permettent pas les techniques actuelles. Baptisée ModLoc (Localisation Modulé), cet outil permet de révéler la position en 3D des molécules, quelle que soit la profondeur de l’échantillon biologique. Pour parvenir à ce résultat exceptionnel, les chercheurs ont eu l’idée de remplacer l’éclairage homogène habituel par des interférences (alternance de franges sombres et lumineuses), créées par les faisceaux laser dans l’échantillon. Grâce à cet éclairage structuré, ces scientifiques ont pu produire une modulation de la fluorescence, ce qui a permis, in fine, d’obtenir cette précision nanométrique dans la localisation des molécules étudiées.

Dans le domaine chirurgical, l'imagerie moléculaire de fluorescence (IMF) peropératoire est de plus en plus utilisée dans les interventions visant à extraire des tumeurs cancéreuses. Cette technique apporte une aide précieuse au chirurgien, qui peut prendre des décisions en temps réel en visualisant précisément les contours de la tumeur (Voir Springer). Les agents d’IMF approuvés à ce jour sont la fluorescéine (FS), le bleu de méthylène (MB), le vert d'indocyanine (ICG) et l'acide 5-aminolévulinique (5-ALA). Mais malheureusement, ces agents, faute de sensibilité suffisante, n'ont pas la capacité de cibler toutes les cellules cancéreuses. Toutefois, de récentes avancées ont permis de développer de nouveaux agents, comme le récepteur alpha du folate "OTL38", approuvé fin 2021. Cette panoplie de plus en plus large d’agents fluorescents à ciblage moléculaire, associée aux nouvelles techniques d'imagerie multimodales sont appelés à jouer un rôle-clé dans la chirurgie de précision.

Retournons en Chine, où des scientifiques de l’Université Fudan, à Shanghai, ont développé une étonnante technique permettant de rendre des vers à soie fluorescents (Voir Wiley). Pour parvenir à conférer au Bombyx du mûrier – le papillon dont la chenille est le ver à soie – cette propriété de fluorescence, ces chercheurs ont eu l’idée assez surprenante de nourrir des vers à soie avec des points quantiques de carbone (CQD). Il s’agit de nanoparticules de carbone, de moins de 10 nanomètres et qui émettent des longueurs d’onde spécifiques de lumière, nécessaires pour obtenir une forte photoluminescence, accompagnée d’une bonne biocompatibilité. Ces points quantiques ont été absorbés par les vers à soie, via leurs tubes digestifs, puis acheminés dans les glandes à soie et enfin dans les cocons. Finalement, ces chercheurs ont obtenu des cocons qui s’illuminaient d’une couleur rouge vif sous lumière ultraviolette (UV). Les papillons issus de ces cocons étaient également rouges fluorescents, et ils ont eux-mêmes pondus des œufs fluorescents, qui ont éclos normalement. Cette nouvelle technique très innovante pourrait, selon les scientifiques chinois, trouver une multitude d’applications. Il serait par exemple possible de produire industriellement des textiles fluorescents.

Ce phénomène de fluorescence est également à l’origine d’une récente et extraordinaire étude, menée par trois chercheurs américains de l’Université de Californie du Sud (USC) dans le domaine des neurosciences. Ces trois chercheurs, Scott Fraser, Don Arnold et Carl Kesselman, ont réussi, il y a quelques semaines, la première observation directe de synapses vivantes dans un cerveau intact. Pour réaliser cet exploit, ils ont travaillé sur le poisson-zèbre, dont le cerveau transparent est plus facile à visualiser. Dans un premier temps, ces chercheurs ont mis au point une nouvelle technique pour modifier l’ADN du poisson afin que l’emplacement d’une synapse soit marqué d’une protéine fluorescente qui s’illumine lorsqu’elle est balayée par un faisceau-laser (Voir USC Dornsife).

Dans un second temps, ces scientifiques ont construit un puissant microscope à feuille de lumière, optimisé pour traiter les images de synapses. Dans ce nouvel outil de microscopie, la lumière utilisée pour éclairer l’échantillon émane d'une feuille de quelques micromètres d’épaisseur. Cette "feuille de lumière" est placée perpendiculairement à l’objectif, qui détecte la fluorescence émise par l’objet. L’objet se déplace dans cette feuille de lumière, ce qui permet de réaliser des coupes optiques sur l’ensemble de l’échantillon. Il suffit ensuite de fusionner les images ainsi acquises pour obtenir une magnifique représentation en 3D de l’objet étudié. Grâce à cette technique, aussi élégante qu’innovante, ces chercheurs ont pu, pour la première fois, analyser en temps réel les modifications synaptiques au fur et à mesure qu’un souvenir était créé dans le cerveau du poisson-zèbre...

Ce phénomène de luminescence est également en train de bouleverser un secteur économique en plein essor, celui de la lutte contre les contrefaçons. Ces contrefaçons, souvent réalisées et diffusées par des organisations criminelles transnationales puissantes, sont devenues un véritable fléau pour l’économie et le commerce mondial. Elles représenteraient un marché mondial illégal de l’ordre de 400 milliards d’euros (2,5 % des importations mondiales), dont 60 milliards pour l’Europe et 8 milliards pour la France. Dans notre pays, on estime que ces contrefaçons entraînent la perte d’environ 40 000 emplois par an. La lutte active contre cette forme de criminalité est donc devenue une priorité et, parmi les nouveaux moyens mis en œuvre, l’un d’eux consiste à marquer les produits en y incorporant un marqueur luminescent qui pourra, le cas échéant, réagir aux rayons ultraviolets, et permettre ainsi d’identifier la nature et l’origine du produit.

Les polymères à base de terres rares ont ouvert de nouvelles perspectives pour produire des marqueurs luminescents particulièrement performants dans deux domaines : la lutte anti-contrefaçon, mais également l’optimisation du recyclage des matériaux. Récemment, plusieurs avancées scientifiques ont montré qu’il était possible de fabriquer des particules de polymères à base de terres rares dont les parties internes et externes ne présentent pas la même composition. Ces particules présentent des transferts d’énergie bien plus faibles entre le noyau et l’enveloppe, tout en ayant une luminescence bien plus forte. Cette nouvelle génération de marqueurs luminescents pourrait permettre des avancées majeures en matière de lutte contre la contrefaçon et de traçabilité des matériaux.

Outre-Atlantique, des chercheurs du MIT travaillent depuis plusieurs années sur l’utilisation, à des fins scientifiques et industrielles, de deux enzymes, la luciférase et de la luciférine, à l’origine de la lueur caractéristique des lucioles (Voir Science Advances). Au fil des années, ils ont réussi à conférer à différentes plantes, notamment du cresson, du tabac et du basilic, un pouvoir de bioluminescence de plus en plus fort. Récemment, ces chercheurs ont franchi une nouvelle étape en ayant l’idée d’intégrer directement dans les feuilles de ces plantes, sous forme de nanoparticules, un matériau luminophore, qui émet de la lumière lorsqu’il est stimulé. Les plantes ainsi modifiées deviennent alors capables d’absorber et de restituer les photons, provenant d’une lumière naturelle, ou artificielle. Exposées pendant seulement quelques secondes, ces plantes peuvent émettre de la lumière pendant une heure, et peuvent même être rechargées pour plusieurs semaines….

En France, une startup fondée par deux biologistes, Rose-Marie et Ghislain Auclair, en coopération avec l'Université de Strasbourg, a mis au point une technique reposant sur le transfert de gènes bioluminescents de certains animaux (lucioles, méduses et certains poissons) qui permet de créer une matière première bioluminescente faite de micro-organismes. Cette source d’énergie biochimique peut être intégrée dans de nombreux supports et émettre une lumière dont l’intensité et la durée vont varier en fonction de la quantité d’arabinose (une variété de sucre) ajoutée. Pour l’instant cette "bio-innovation" permet de proposer des décors luminescents, utilisables dans différentes manifestions et événements. Mais à terme, ces sources bioluminescentes devraient également trouver de nombreuses applications, notamment dans les domaines biologiques et médicaux.

Toutes ces récentes avancées, qu’il s’agisse de découverte fondamentales ou de recherches appliquées, montrent à quel point un phénomène naturel, considéré pendant des siècles comme une curiosité offrant peu d’applications utiles, est devenu, en seulement quelques années, une formidable source d’inspiration et d’innovation scientifique et technique, au point de se diffuser dans presque tous les secteurs d’activités. Et ce n’est qu’un début, car les scientifiques sont unanimes pour penser que la luminescence, dans ses nombreuses versions, pourrait bien révolutionner, plus vite que prévu, l’éclairage et le bâtiment. On peut en effet tout à fait imaginer, au rythme où ces technologies lumineuses progressent, des systèmes d’éclairage public végétaux, à base de feuille à bioluminescence rechargeable, ou encore, des murs ou matériaux à luminescence contrôlée, pouvant s’éclairer de différentes façons, en fonction de circonstances particulières (incendie, accidents, présence d’occupants, risques de ruptures ), et ne consommant quasiment pas d’énergie. En médecine, les applications potentielles ne sont pas moins immenses. On pourrait, par exemple, imaginer des nanoparticules "sentinelles" qui deviendraient fluorescentes en présence de situations pathologiques, présence de cellules anormales, dépôt de graisses dans les artères, présence de protéines néfastes dans le cerveau, annonçant une maladie neurodégénérative…Dans notre vie quotidienne, il est probable que nous porterons, dans quelques années, des vêtements qui auront également des propriétés luminescentes, qui seront programmables en fonction de notre environnement et des tâches que nous avons à accomplir.

Presque quatre siècles après le traité du monde et de la lumière de Descartes, trois siècles et demi après le fameux traité de la lumière du grand scientifique hollandais Christiaan Huygens, et plus d'un siècle après la géniale théorie des quanta de lumière d’Einstein (qui sera l’un des fondements de la physique quantique), cette composante essentielle de la nature, à la fois omniprésente et insaisissable, qui fascine les hommes depuis des temps immémoriaux, n’en finit pas de révéler ses secrets, et ses propriétés aussi subtiles qu’étonnantes.

René TRÉGOUËT

Sénateur honoraire

Fondateur du Groupe de Prospective du Sénat

e-mail : tregouet@gmail.com


TIC
Information et Communication
L'archivage sur ADN redéfinit le concept de durée des supports de stockage
Mardi, 08/03/2022 - 08:39

Aujourd'hui, tout est documenté. Écrits ou vidéos, des dizaines de milliards de documents sont produits chaque jour. Un océan d’informations difficile à gérer. « On stocke environ 30 % de l'information générée. D'ici 10 ans, ce sera 3 %. Avec l'explosion de l'intelligence artificielle et l’abondance des objets connectés, on a besoin de stocker de plus en plus de données, mais nos supports actuels ne pourront plus le faire », souligne Stéphane Lemaire, biologiste moléculaire au CNRS. Aujourd’hui, l’information est emmagasinée sur des supports numériques, mais ces derniers posent de nombreux défis. Ils sont fragiles, encombrants, énergivores, et leur empreinte environnementale est peu reluisante.

La molécule qui porte les instructions génétiques de la vie, Stéphane Lemaire s’en inspire pour créer un outil d'archivage. L’ADN est une forme de stockage ultradense, des millions de fois plus dense que les supports numériques actuels. Par exemple, l'intégralité des données numériques du monde entier, de tous les disques durs, de tous les datacenters, pourrait tenir dans 100 grammes d'ADN, c'est-à-dire l'équivalent du volume d'une tablette de chocolat, explique Stéphane Lemaire.

Grâce à l’informatique, aujourd’hui, on numérise les données sous la forme de 0 et de 1. Pour transposer un document sur l’ADN, on utilise la même série de chiffres qu’il suffit de convertir en lettres.

Ici, on utilise l’alphabet des généticiens, les lettres A, C, T et G. Un robot produit chimiquement une paire de lettres à la fois. On crée de petits fragments qu’on assemble ensuite pour former une longue molécule d’ADN synthétique. Cette molécule est hyperstable, exactement comme un polymère, dit le biologiste Lemaire. Elle est ultrarésistante et ne présente aucun risque de cassure. À l’automne 2021, deux capsules en acier inoxydable ont été ajoutées à l’Armoire de fer des Archives nationales à Paris. Une première. L'équipe de Stéphane Lemaire a décidé d'encoder sur ADN deux textes historiques français : la Déclaration des droits de l'homme et du citoyen de 1789 et la Déclaration des droits de la femme et de la citoyenne rédigée en 1791 par Olympe de Gouges.

Ce n'est pas une seule bactérie, un seul organisme qui multiplie les copies, mais un très grand nombre, précise Stéphane Lemaire. Sur les 100 milliards de copies, certaines auront des mutations, mais les autres n'en auront pas. On pourra toujours relire l'information parce que la majorité des molécules n'auront pas de mutation. Bien qu’elle soit spectaculaire, cette technologie reste cantonnée, pour l'instant, au stockage de données particulières, que l'on consulte rarement, car l'encodage des informations reste lent et coûteux. Le décodage, lui, se fait à l’aide d’un séquenceur classique, ce qui demande plusieurs heures.

Article rédigé par Georges Simmonds pour RT Flash

Radio Canada

Des retraits bancaires sécurisés sans code secret grâce à la relativité restreinte
Lundi, 07/03/2022 - 12:13

Comment confirmer son identité à un distributeur sans devoir saisir son code secret ? Un protocole sécurisé s’appuyant sur le principe de "preuve à divulgation nulle de connaissance" et sur la relativité restreinte a été mis au point. Quand vous retirez de l’argent à un distributeur, vous devez taper votre code secret sur un clavier pour confirmer votre identité. Cette opération est un point faible du système. De toute évidence, vous devez entrer votre code à l’abri de regards indiscrets. Mais, plus difficile à détecter, certains escrocs équipent les distributeurs de faux claviers ou de faux lecteurs de cartes qui enregistrent toutes vos informations. Existe-t-il une solution pour sécuriser cette étape d’identification ? En 1985, Shafi Goldwasser et Silvio Micali, du MIT (l’institut de technologie du Massachusetts), et Charles Rackoff, de l’Université de Toronto, ont introduit le concept de "preuve à divulgation nulle de connaissance".

Ce protocole permet, dans le cas du distributeur de billets, de confirmer votre identité sans révéler votre code secret qu’un tiers mal intentionné pourrait exploiter. Mais pour des raisons techniques, il était difficile de mettre en œuvre ce protocole. Sébastien Designolle, avec ses collègues de l’Université de Genève et de l’Université McGill à Montréal, vient d’en faire une démonstration concrète en s’appuyant sur le fait que l’information ne peut être transmise à une vitesse plus grande que celle de la lumière, comme le stipule la théorie de la relativité restreinte.

En quoi consistent les preuves à divulgation nulle de connaissance ? Imaginez que vous avez résolu un des problèmes mathématiques du millénaire mis à prix un million de dollars, ou que vous avez inventé une machine révolutionnaire, mais que vous avez peur qu’on vous vole vos idées. Comment prouver que vous avez une démonstration ou une invention sans en révéler les détails ? C’est là qu’intervient la preuve à divulgation nulle de connaissance. Imaginez qu’Alice (le "fournisseur de preuve") ait découvert une technique infaillible pour distinguer du Coca-Cola de toute autre marque de cola simplement en regardant les liquides, et elle veut le prouver à Bob (le "vérificateur").

Grâce à un jeu de questions-réponses, Bob peut s’assurer qu’Alice a bien en sa possession ce qu’elle affirme. Il sert deux verres de cola. Grâce à sa technique, Alice identifie celui qui contient le Coca et l’indique à Bob. Bob répète l’expérience de nombreuses fois pour s’assurer qu’Alice n’a pas simplement eu un coup de chance. À la fin des tests, Bob ne connaît pas la technique, mais il sait qu’Alice peut détecter correctement le Coca (cet exemple a été imaginé par Gilles Brassard, un spécialiste en cryptographie de l’Université de Montréal).

La plupart des protocoles conventionnels de preuve à divulgation nulle d’information, comme ceux développés en 1988 par Adi Shamir (un des inventeurs du protocole RSA qui sert à sécuriser de nombreuses communications sur internet), impliquent de résoudre des problèmes mathématiques difficiles comme la décomposition d’un grand nombre en ses facteurs premiers. La robustesse du système dépend donc de la puissance des ordinateurs utilisés pour résoudre le problème mathématique. Or les spécialistes savent déjà qu’un algorithme quantique, proposé en 1995 par le mathématicien américain Peter Shor, pourra factoriser des nombres premiers très rapidement quand les ordinateurs quantiques seront assez puissants.

En 1988, Avi Wigderson, mathématicien à l’Institut des études avancées de Princeton et lauréat du prix Abel 2021, et ses collègues, ont montré qu’il était possible d’implémenter le protocole de preuve à divulgation nulle d’information tout en contournant le problème des capacités de calcul suffisantes pour casser le code. L’idée consiste à avoir plusieurs fournisseurs de preuve qui doivent convaincre le vérificateur, un peu comme des enquêteurs qui interrogent plusieurs suspects d’un braquage en même temps dans deux cellules différentes pour voir si leurs réponses concordent ou s’ils se contredisent et sont donc en train de mentir.

Dans son expérience, l’équipe des Universités de Genève et de McGill, au Canada, ne cherchait pas à factoriser des grands nombres mais à analyser un graphe colorié avec trois couleurs. Un graphe est constitué de sommets reliés par des arêtes. Pour un graphe donné, il est très difficile de montrer qu’il est possible de le colorier avec juste trois couleurs de sorte que toutes les paires de sommets reliés par une arête soient de couleurs différentes. En revanche, il est très simple de vérifier qu’une solution fonctionne. Pour ces raisons, les mathématiciens classent le coloriage des graphes en trois couleurs dans la catégorie des problèmes de complexité dite "NP" (ce qui est aussi le cas de la factorisation des grands nombres). En choisissant un problème de complexité NP, les chercheurs s’assurent qu’un tiers mal intentionné ne peut pas déterminer facilement le coloriage d’un graphe.

Ici, les fournisseurs de preuve partagent un graphe dont ils connaissent le coloriage. Le vérificateur choisit au hasard une paire de sommets connectés par une arête, puis interroge simultanément les deux fournisseurs et demande à chacun d’annoncer la couleur d’un des deux sommets. Le vérificateur itère de nombreuses fois cette opération pour s’assurer de la cohérence des réponses des deux fournisseurs de preuve. Dans l’expérience, le graphe contient 588 sommets et 1 097 arêtes. Le vérificateur reproduit le test environ 500 000 fois pour garantir la sécurité du protocole. Il peut ainsi confirmer l’identité des fournisseurs de preuve, sans pour autant connaître le coloriage du graphe (pour être précis, les fournisseurs de preuve partagent une série de coloriages qu’ils changent de la même façon à chaque question).

Comme pour les suspects d’un braquage, les deux fournisseurs de preuve ne doivent pas pouvoir communiquer pour synchroniser leurs réponses : il faut que le système de question-réponse fonctionne plus rapidement que le temps nécessaire à un signal pour transiter d’un fournisseur de preuve à l’autre. Rappelons que la lumière se déplace dans le vide à la vitesse de 300 000 kilomètres par seconde, une vitesse qui ne peut être dépassée, d’après la théorie de la relativité restreinte. Avec un distributeur de billets large d’un mètre, Alice utiliserait deux dispositifs servant de fournisseurs de preuve de son identité qu’elle doit insérer aux deux extrémités de la machine. Le système devrait alors réaliser chaque test en moins de 3,3 nanosecondes, ce qui semblait techniquement impossible !

Avec un protocole optimisé, les chercheurs ont mis en place ce dispositif dans deux expériences. Dans la première, les deux fournisseurs de preuve sont distants de 400 mètres et les questions sont synchronisées grâce à une horloge GPS ; dans la seconde, la distance est de seulement 60 mètres et la synchronisation se fait avec une fibre optique. Chaque test est effectué assez vite de sorte que les fournisseurs de preuve ne puissent pas communiquer entre eux, contraints par la vitesse finie de transmission de l’information. L’ensemble du processus de confirmation de l’identité est réalisé en une seconde.

Ce résultat montre que le protocole d’identification sans divulgation d’information peut être implémenté sur des distances assez courtes, et il serait encore possible de les réduire. Les chercheurs envisagent de nombreuses applications en dehors des distributeurs, par exemple pour les systèmes de vote électronique, la signature de contrats électroniques, etc. « Cette approche est vraiment intéressante », souligne Nicolas Brunner, de l’Université de Genève, « car la sécurité du système repose sur les lois de la physique, et non plus sur une hypothèse limitant le pouvoir de calcul ou le niveau de technologie de l’espion ».

Par ailleurs, des questions intéressantes émergent quand on ajoute la mécanique quantique dans le dispositif. Que se passe-t-il si les deux fournisseurs de preuve sont intriqués ? L’intrication quantique est un phénomène dans lequel deux objets (typiquement deux particules) ont des propriétés corrélées et forment un système lié. De nombreuses expériences ont permis de montrer que l’intrication quantique est un phénomène non local, c’est-à-dire qu’une opération menée sur une particule altère instantanément les propriétés de l’autre, peu importe la distance qui les sépare. Ce phénomène pourrait-il aider les fournisseurs de preuve à déjouer le test d’identification ? « Nous avons des raisons de penser que notre protocole est sûr face à des fournisseurs de preuve quantique », note Nicolas Brunner, « mais nous n’avons pas encore de preuve formelle. C’est une question intéressante à laquelle les théoriciens doivent s’atteler ».

Article rédigé par Georges Simmonds pour RT Flash

Pour La Science

^ Haut
Matière
Matière et Energie
Une batterie lithium-air atteint une densité d’énergie supérieure à 500 wh/kg
Mercredi, 09/03/2022 - 08:53

Les batteries lithium-air ont le potentiel pour être les batteries rechargeables ultimes : elles sont légères et de haute capacité, avec des densités d’énergie théoriques plusieurs fois supérieures à celles des batteries lithium-ion actuellement disponibles. En raison de ces avantages potentiels, elles pourraient être utilisées dans un large éventail de technologies, telles que les drones, les véhicules électriques et les systèmes de stockage d’électricité à domicile.

Le NIMS a mené des recherches fondamentales sur les batteries lithium-air avec le soutien du programme ALCA-SPRING (ALCA : Advanced Low Carbon Technology Research and Development Program, SPRING : Specially Promoted Research for Innovative Next Generation Batteries).

Ce programme a été financé par l’Agence japonaise pour la science et la technologie (JST) dans le but d’accélérer la R&D sur les batteries rechargeables de grande capacité. En 2018, le NIMS et Softbank ont cofondé le Centre de développement des technologies avancées pour mener des recherches dans le but de mettre en pratique les batteries lithium-air dans les stations de base de téléphonie mobile, l’Internet des objets (IoT), les stations de plate-forme à haute altitude (HAPS) et d’autres technologies. Malgré leurs densités d’énergie théoriques très élevées, seul un petit nombre de batteries lithium-air à haute densité d’énergie ont effectivement été fabriquées et évaluées.

Ce succès limité est attribué au fait qu’une grande proportion en poids de la batterie lithium-air contient des composants inactifs lourds (par exemple, des séparateurs et des électrolytes) qui ne participent pas directement aux réactions réelles de la batterie. Cette équipe de recherche avait déjà développé des matériaux de batterie originaux qui augmentent considérablement les performances des batteries lithium-air dans le cadre de recherches soutenues par ALCA-SPRING.

L’équipe a ensuite mis au point une technique pour fabriquer des piles lithium-air à haute densité énergétique au centre de développement des technologies avancées NIMS-SoftBank. Enfin, l’équipe a créé une nouvelle batterie lithium-air en combinant ces nouveaux matériaux et les techniques de fabrication.

La batterie développée présente une densité d’énergie de plus de 500 Wh/kg, ce qui est nettement supérieur aux batteries lithium-ion actuelles. En particulier, la réaction répétée de décharge et de charge se déroule à température ambiante. La densité d’énergie et le cycle de vie de cette batterie sont parmi les plus élevés jamais atteints. L’équipe développe actuellement des matériaux de batterie plus performants et prévoit de les intégrer dans la batterie lithium-air nouvellement développée dans le but d’augmenter considérablement la durée de vie de la batterie. L’équipe prévoit ensuite d’accélérer les efforts pour mettre la batterie en pratique au centre de développement des technologies avancées NIMS-SoftBank.

Article rédigé par Georges Simmonds pour RT Flash

Enerzine

De l'hydrogène produit à partir de peaux de banane
Lundi, 07/03/2022 - 11:04

L’augmentation de la demande mondiale en énergie s’accompagne d’une hausse de notre consommation de combustibles fossiles. Il s’ensuit un accroissement important des émissions de gaz à effet de serre, avec de graves effets sur l’environnement. Afin d’y remédier, les scientifiques ont cherché des sources d’énergie renouvelables alternatives. L’un des principaux candidats est l’hydrogène produit à partir des déchets organiques, ou «biomasse», des plantes et des animaux. La biomasse permet d’absorber, d’éliminer et de stocker le CO2 de l’atmosphère. Sa décomposition peut également nous permettre de supprimer les émissions néfastes ou les gaz à effet de serre. Cependant, même si la biomasse est une solution d’avenir, reste à savoir comment optimiser au mieux sa transformation en énergie.

Jusqu’à présent, il existe deux méthodes principales pour transformer la biomasse en énergie: la gazéification et la pyrolyse. La gazéification soumet la biomasse à l’état solide ou liquide à des températures avoisinant les 1 000°C, la transformant en gaz et en composés solides. Le gaz est appelé "gaz de synthèse" tandis que le solide est le «biochar». Le gaz de synthèse est un mélange d’hydrogène, de méthane, de monoxyde de carbone et d’autres hydrocarbures. C’est ce mélange qui est utilisé comme "biocarburant" pour produire de l’énergie. Par ailleurs, le biochar est souvent considéré comme un déchet de carbone solide, bien qu’il puisse être utilisé en agriculture.

L’autre méthode, la pyrolyse de la biomasse, est similaire à la gazéification, à l’exception que la biomasse est chauffée à des températures inférieures, entre 400 et 800°C, et à des pressions allant jusqu’à 5 bars dans une atmosphère inerte. Il existe trois types de pyrolyse : la pyrolyse classique, la pyrolyse rapide et la pyrolyse flash. Les deux premières prennent plus de temps mais produisent plus de charbon. La pyrolyse flash, quant à elle, a lieu à 600°C et produit davantage de gaz de synthèse, avec le temps de séjour le plus court. Malheureusement, elle nécessite des réacteurs spécialisés capables de supporter des températures et des pressions élevées.

Aujourd’hui, des scientifiques dirigés par le professeur Hubert Girault de la Faculté des sciences de base de l’EPFL ont mis au point une nouvelle méthode de photo-pyrolyse de la biomasse. Celle-ci produit non seulement un gaz de synthèse précieux, mais aussi un biochar de carbone solide qui peut être réutilisé dans d’autres applications. Leurs travaux sont publiés dans la revue Chemical Science. La méthode réalise une pyrolyse flash à l’aide d’une lampe au xénon, couramment utilisée pour le durcissement des encres métalliques dans le domaine de l’électronique imprimée. Ces dernières années, l’équipe d’Hubert Girault a également utilisé le système à d’autres fins, comme la synthèse de nanoparticules.

La lumière flash blanche de la lampe fournit une source d’énergie de haute puissance ainsi que de courtes impulsions qui favorisent les réactions chimiques photo-thermiques. L’idée est de générer un puissant faisceau de lumière flash, que la biomasse absorbe et qui déclenche instantanément une transformation photothermique de la biomasse en gaz de synthèse et en biochar.

Cette technique de flashage a été utilisée sur différentes sources de biomasse : peaux de banane, épis de maïs, pelures d’orange, grains de café et coquilles de noix de coco. Elles ont toutes été d’abord séchées à 105°C pendant 24 heures, puis broyées et tamisées pour obtenir une poudre fine. La poudre a ensuite été placée dans un réacteur en acier inoxydable pourvu d’une fenêtre en verre standard, à la pression ambiante et sous une atmosphère inerte. La lampe au xénon clignote, et l’ensemble du processus de transformation est terminé en quelques millisecondes. « Chaque kilogramme de biomasse séchée peut produire environ 100 litres d’hydrogène et 330 grammes de biochar, ce qui représente jusqu’à 33 % en poids de la masse initiale de la peau de banane séchée », déclare Bhawna Nagar, qui a travaillé sur l’étude. La méthode a également donné un résultat positif en termes d’énergie calculée de 4,09 MJ par kilogramme de biomasse séchée.

La particularité de cette méthode réside dans le fait que ces deux produits finals, l’hydrogène et le biochar de carbone solide, sont précieux. L’hydrogène peut être utilisé comme carburant vert, tandis que le biochar de carbone peut être enfoui et utilisé comme engrais ou servir à fabriquer des électrodes conductrices. « La pertinence de nos travaux est renforcée par le fait que nous capturons indirectement les réserves de CO2 de l’atmosphère pendant des années », affirme Bhawna Nagar. « Nous avons transformé cela en produits finis utiles en un rien de temps à l’aide d’une lampe flash au xénon ».

Article rédigé par Georges Simmonds pour RT Flash

EPFL

Des volants d'inertie en béton pour stocker l'énergie solaire
Lundi, 07/03/2022 - 10:58

André Gennesseaux, fondateur d'Energiestro, a mis au point un concept innovant pour permettre aux producteurs d'énergie solaire de répondre aux contraintes de coûts et de stockage, tout en promettant une durée de vie de 30 ans et une sécurité d'utilisation. Pour cela, le chercheur a inventé un système de volant d'inertie en béton qui, en action à grande vitesse, permet de stocker l'énergie sous forme cinétique. « L'objectif est de réussir à stocker l'énergie excédentaire produite le jour pour la restituer la nuit ou lorsque le soleil est absent », explique-t-il. Cette technologie a ainsi été validée grâce au prototype du Volant stockage solaire (Voss).

« Pour le monde des volants, utiliser le béton, c'est vraiment une rupture ! Personne n'a encore utilisé du béton jusque-là », confie André Gennesseaux. Et pour cause : le béton n'est pas un matériau pour volant. « Quand le volant tourne, la force centrifuge tire sur la matière. C'est pourquoi, ce sont des matériaux très résistants, tels que des métaux ou du composite qui sont habituellement utilisés », explique l'ingénieur chercheur.

La société avait lancé en 2014 son concept du volant de stockage d'énergie solaire en béton qui permet d'envisager le prix du kilowatt heure solaire à 4 centimes. En stockant l'énergie sous forme cinétique, ce cylindre est une alternative écologique et économique aux batteries. « Notre innovation consiste à comprimer le béton avec des composites comme la fibre de verre, avant de faire tourner le cylindre. Cette opération permet de mettre le béton dans un état très résistant pour ensuite le faire tourner à des vitesses très élevées, et stocker de l'énergie », poursuit-il. L'entreprise a déposé un brevet pour cette innovation dans plusieurs pays dans le monde, puis six autres brevets en complément sur des aspects secondaires de la technologie.

Article rédigé par Georges Simmonds pour RT Flash

La Tribune

^ Haut
Espace
Espace et Cosmologie
Un vaisseau spatial chinois détecte de l’eau à la surface de la Lune
Lundi, 07/03/2022 - 10:54

Selon une étude menée par les professeurs Lin Yangting et Lin Honglei, de l’Institut de géologie et de géophysique de l’Académie chinoise des sciences (IGGCAS), l’atterrisseur de la mission chinoise Chang’e 5 a détecté des signes indubitables de la présence d’eau sur la surface lunaire. Plusieurs études et observations faites depuis l’orbite au cours de la dernière décennie ont pointé la présence d’eau, sous forme de H₂O ou Hydroxyle (OH, combinaison d’une molécule d’oxygène avec une molécule d’hydrogène) sur la surface lunaire. Mais les mêmes résultats n’avaient jamais été obtenus par des analyses directement dans le sol. La mission Chang’e 5 visait à collecter des échantillons de sol lunaire et à les renvoyer sur Terre. Pour cela, elle était composée d’un module orbital (Orbiter), d’un module d’atterrissage (Lander), d’un module de remontée (Ascender) et d’une capsule de retour (Returner).

L’atterrisseur a atteint la surface de la Lune le 1er décembre 2021, 1,7 kg d’échantillons ont été prélevés et transférés vers le module de remontée, qui a décollé le 3 décembre. Le 5 décembre, il a retrouvé l’orbiteur, qui a transféré les échantillons dans la capsule de retour et a commencé le voyage de retour vers la Terre. En passant devant notre planète, l’orbiteur a éjecté la capsule, qui a atterri à l’intérieur de la Mongolie le 16 décembre 2021. Selon le site Physique, tout en collectant des échantillons, l’atterrisseur a utilisé un instrument appelé spectromètre minéralogique lunaire (LMS) pour effectuer une analyse spectrale du régolithe (sol lunaire) et d’une roche. Après avoir compensé l’émission de chaleur de la surface lunaire, qui pourrait fausser les données, les scientifiques ont trouvé "sans aucun doute" une absorption spectrale de l’ordre de 2,85 micromètres (µm), cohérente avec ce qui était attendu pour la présence d’eau.

Les données indiquent une quantité d’eau dans le sol lunaire de 120 parties par million, ce qui est cohérent avec l’implantation solaire : c’est-à-dire que les molécules d’eau sont transportées par le vent solaire et se retrouvent piégées dans le sol. L’analyse de la roche a montré une concentration encore plus élevée, 180 parties par million. La différence de composition indique que la roche peut s’être formée dans une région différente, composée de basalte, et éjectée vers le site de Chang’e 5 par un impact de météorite. La recherche d’eau, sous forme d’H₂O ou d’Hydroxyl, était l’un des objectifs de la mission indienne Chandrayaan-2, qui tenta sans succès de se poser sur la Lune en septembre 2021. Le contact avec l’atterrisseur, appelé Vikram, était alors perdu. il était à 2,1 km de la surface.

On suppose que la surface de la Lune contient également de l’eau sous forme de glace, au fond des cratères et des vallées qui ne sont pas éclairées par la lumière du soleil. Si c’est confirmé, ce serait une ressource inestimable pour les futures missions habitées, à la fois à court terme, et celles visant à établir une présence humaine permanente. En plus de soutenir les astronautes, l’eau peut également être utilisée pour produire de l’oxygène afin de maintenir une atmosphère respirable et comme source de carburant pour les fusées. Cela ferait de la Lune, grâce à sa faible gravité, un bon point de départ pour l’exploration du système solaire.

Article rédigé par Georges Simmonds pour RT Flash

Science Advances

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
La mortalité pourrait augmenter de 42 % avec un réchauffement climatique de 2°C !
Mercredi, 09/03/2022 - 09:04

Des chercheurs du Collège Universitaire de Londres (UCL, Royaume-Uni) ont examiné l'impact du changement climatique, en Angleterre et au Pays de galles, sur le nombre de décès directement liés à la température. Et leurs conclusions sont plutôt alarmantes : pendant les jours les plus chauds de l'année, la mortalité pourrait augmenter de 42 % par rapport aux niveaux préindustriels. Les chercheurs soulignent qu'à mesure que la température moyenne mondiale augmente, la mortalité liée aux températures en été augmentera à un rythme rapide et non linéaire. Avec une accélération et un risque bien plus élevé dès lors que le réchauffement atteint les 2,5°C à +3°C, la hausse de mortalité pourrait atteindre les 75 %.

En hiver, le taux de mortalité semble vouloir continuer à diminuer. Mais le résultat est à prendre avec précaution. Car il ne tient pas compte des décès liés aux événements météorologiques extrêmes qui pourront, dans le contexte de réchauffement, survenir de manière plus fréquente et plus marquée, notamment au cours de cette saison. Jusqu'à aujourd'hui, la plupart des décès liés à la température en Angleterre et au Pays de Galles -- 9 % des décès en 2021 -- restent d'ailleurs dus aux températures froides. Un chiffre que les chercheurs s’attendent à voir encore diminuer. De manière tout à fait linéaire avec la poursuite du changement climatique.

Mais à l'avenir, si le réchauffement dépasse les 2°C, ce ne seront pas seulement les jours de canicules qui seront à craindre, mais aussi les jours durant lesquels les températures d'été seront de niveau moyen. Ainsi les conséquences de 2°C de réchauffement seront bien plus importantes que ce que les chercheurs avaient imaginé par le passé. Après la récente publication du rapport du Groupe d’experts intergouvernemental sur l’évolution du climat (Giec) consacré justement aux impacts du changement climatique sur nos vies, cette nouvelle étude confirme à quel point il est important de limiter le réchauffement, dont les conséquences sanitaires ont été largement sous-estimées…

Article rédigé par Georges Simmonds pour RT Flash

OIP

Les mélanges variétaux : une pratique agroécologique prometteuse analysée par la génétique
Lundi, 07/03/2022 - 11:01

En observant les milieux naturels, il apparaît souvent que la diversité végétale favorise de multiples mécanismes nécessaires au bon fonctionnement et à la stabilité des écosystèmes. C’est un principe que l’agroécologie vise à intégrer dans ses pratiques et ses cultures pour développer une agriculture plus durable. Cependant, les mécanismes biologiques à l’origine du lien positif entre diversité génétique des peuplements végétaux et fonctionnement de ces peuplements restent encore peu documentés. Il est ainsi encore difficile de mobiliser cette diversité de façon optimale dans les agrosystèmes.

Pour éclairer les mécanismes sous-jacents, un groupe de scientifiques d’INRAE, du CNRS et de l’Institut Agro Montpellier, propose une approche basée sur l’information génétique des composants du mélange de variétés. Pour leur expérience, ils ont constitué 200 mélanges variétaux binaires (c’est-à-dire constitués de deux variétés) de blé dur. Ils ont ensuite mesuré leur productivité et leur sensibilité à la septoriose, une des maladies les plus préoccupantes pour le blé. Leur but : identifier des zones du génome dans lesquelles la diversité génétique est significativement associée à la performance des mélanges (à la fois productivité et sensibilité à la maladie).

En premier lieu, leurs résultats confirment la littérature agronomique : les mélanges sont en moyenne plus productifs et moins malades que les cultures monovariétales. Mais les scientifiques notent un point surprenant, une région de l’ADN qui sort du lot. A cet endroit du génome, la présence de diversité dans le mélange est corrélée à une production moindre et une sensibilité accrue à la maladie. Il semblerait donc que les effets positifs de la diversité des mélanges puissent être contrecarrés par des associations génétiques à certaines zones du génome défavorables.

Ces effets négatifs induits par la diversité génétique pourraient donc expliquer, au moins en partie, la forte variabilité de performance entre mélanges classiquement reportée dans la littérature. Ainsi identifier les régions génomiques qui affectent la performance des mélanges permettrait de guider l’assemblage de mélanges performants en s’affranchissant, au moins en partie, de mesures phénotypiques plus lourdes et plus coûteuses. Une piste prometteuse pour des pratiques agroécologiques diversifiées et efficaces.

Article rédigé par Georges Simmonds pour RT Flash

CNRS

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
L'allaitement apporte un bénéfice cardiovasculaire pour les mères
Mercredi, 09/03/2022 - 08:50

Une étude épidémiologique de l’Université d’Innsbruck (Autriche) a montré que les femmes qui ont allaité sont moins susceptibles de développer une maladie cardiaque ou de subir un accident vasculaire cérébral, ou même un décès avec une  cause cardiaque.

Si les multiples bienfaits de l'allaitement maternel sont à présent mieux identifiés, y compris pour la santé maternelle, peu d’études ont encore validé l'association entre l'allaitement et un risque réduit de maladie cardiovasculaire chez la mère. Et les quelques études menées sur le sujet ont pris en compte différentes durées d'allaitement. « Par conséquent, il était important d’effectuer cet examen systématique de la littérature disponible et de combiner de manière rigoureuse les données disponibles sur ce sujet », explique l'auteur principal, le Docteur Peter Willeit, professeur d'épidémiologie clinique à l’Université d’Innsbruck.

L’équipe a analysé les données de 8 études menées entre 1986 et 2009 en Australie, en Chine, en Norvège, au Japon et aux États-Unis ainsi que les données d’une étude internationale. Au total, cette méta-analyse a porté sur les données de 1,2 million de femmes, âgées en moyenne de 25 ans, lors de la première naissance. L’analyse a pris en compte la durée d'allaitement, le nombre de naissances, l'âge à la première naissance et l’incidence des crises cardiaques ou de l’accident vasculaire cérébral plus tard dans la vie.

L’analyse constate que 82 % des femmes déclarent avoir allaité à un moment de leur vie. Ces recherches montrent que, par rapport aux femmes n’ayant jamais allaité, les femmes ayant allaité présentent un risque réduit de 11 % de maladie cardiovasculaire ; en outre,  sur une période de suivi moyenne de 10 ans, les femmes ayant allaité présentent un risque réduit de 14 % de maladie coronarienne ; de 12 % d’AVC ; et de 17 % de décès de maladie cardiovasculaire. L'étude montre enfin que les femmes qui ont allaité pendant 12 mois ou plus au cours de leur vie apparaissent moins susceptibles de développer une maladie cardiovasculaire que les femmes n’ayant pas allaité.

Aujourd’hui, seul 1 nourrisson sur 4 reçoit du lait maternel pendant les 6 premiers mois de vie. Les femmes devraient être mieux informées des avantages de l'allaitement pour la santé de leur bébé et aussi pour leur propre santé. Ces nouvelles données soulignent la nécessité d'encourager et de soutenir l'allaitement par des programmes d'éducation à l'allaitement, avant et après l'accouchement.

Article rédigé par Georges Simmonds pour RT Flash

JAHA

L'intelligence artificielle au service des enfants diabétiques
Mercredi, 09/03/2022 - 08:46

Un nouveau traitement pourrait bientôt être disponible pour les jeunes enfants atteints de diabète de type 1 (2300 enfants en France, soit environ 20 cas pour 100 000 enfants). Selon une étude internationale, associant des chercheurs britanniques, allemands, belges et américains, un système d’intelligence artificielle appelé CamAPS FX serait capable de prédire les besoins en insuline de ces jeunes patients en temps réel, imitant ainsi le rôle que le pancréas aurait s’ils n’étaient pas malades. Pour cela, CamAPS FX mesure seul la glycémie des enfants et détermine la dose exacte d’insuline à leur délivrer.

S’ils sont équipés de ce dispositif, les enfants n’ont donc plus à penser à ce qu’ils mangent car le système d’intelligence régule tout seul leur taux de sucre dans le sang. Par exemple, si le jeune patient prend un goûter très sucré, CamAPS FX va automatiquement détecter une hyperglycémie et la contrôler en envoyant de l’insuline dans le corps. Autre avantage : comme le système est relié à l’organisme du porteur, l’analyse de la dose nécessaire sera plus précise et donc plus adaptée aux besoins réels de l’enfant, comparativement aux traitements existants. Jusqu’à présent, les essais cliniques menés sur des enfants diabétiques de moins de sept ans obtiennent de très bons résultats : les petits patients sont moins souvent en hyperglycémie qu’avec leur traitement habituel.

Article rédigé par Georges Simmonds pour RT Flash

NEJM

Un vaccin nasal anti-grippal à base de nanoparticules
Mardi, 08/03/2022 - 08:36

La grippe entraîne encore de 10 000 à 15 000 décès par an en France, principalement chez les sujets fragiles, selon l’Institut Pasteur. Tous les ans, une campagne de vaccination est organisée à l’échelle nationale pour prévenir cette maladie saisonnière. Le vaccin est plus particulièrement recommandé pour les personnes âgées de 65 ans et plus. Il est administré par injection sous-cutanée ou intramusculaire. Mais des chercheurs de l'Université d'Etat de Géorgie (USA) ont élaboré un nouveau vaccin intranasal - c’est-à-dire délivré par le nez - contre la grippe. Il a pour particularité d’être composé de nanoparticules qui améliorent la réponse immunitaire de l’organisme et offrent une meilleure protection contre les différentes souches du virus.

Pour élaborer leur vaccin, les scientifiques ont travaillé sur des souris. L’utilisation de nanoparticules leur a permis d’intégrer au produit deux composantes intéressantes : des antigènes, qui stimulent la réponse immunitaire de l’organisme, et des adjuvants qui la renforcent. Après administration, les chercheurs ont évalué l’efficacité de leur vaccin jusqu’à six mois après l’injection. Résultat : les rongeurs étaient bien protégés contre la grippe saisonnière mais aussi contre d’autres souches du virus. Un véritable avantage selon les scientifiques qui estiment qu’avec les vaccins classiques contre la grippe saisonnière, les réponses immunitaires des patients déclinent au fil des mois. Autrement dit, ceux-ci sont moins protégés face au virus et plus vulnérables aux nouvelles souches grippales.

« Nos résultats ont révélé que les nanoparticules amélioraient considérablement la réponse immunitaire, grâce à une protection croisée contre différentes souches de virus de la grippe »,  estime Baozhong Wang, l’un des auteurs. Mais pourquoi les chercheurs ont-ils voulu mettre au point un vaccin intranasal ? La réponse est simple, selon eux c’est l’administration la plus adéquate pour les maladies respiratoires comme la grippe. En effet, en étant administré dans le nez, le vaccin peut mieux agir sur les muqueuses locales et davantage protéger les patients contre l’entrée du virus dans cette partie de leur corps.

« Les nanoparticules ont montré des caractéristiques intéressantes et un grand potentiel dans le développement de vaccins antigrippaux à protection croisée de nouvelle génération », souligne Chunhong Dong, premier auteur de l'étude. « Bien qu'aucun effet indésirable apparent n'ait été observé dans l'étude, une évaluation plus complète de l'innocuité est nécessaire avant les essais cliniques ». À l’avenir, les scientifiques comptent donc poursuivre leurs recherches sur ce vaccin afin d’envisager, à terme, une mise sur le marché de cette nouvelle solution contre la grippe.

Article rédigé par Georges Simmonds pour RT Flash

ACS

Le blocage des sphingolipides empêche la dystrophie musculaire
Mardi, 08/03/2022 - 08:33

Le laboratoire de Johan Auwerx de la Faculté des sciences de la vie de l’EPFL (Ecole Polytechnique Fédérale de Lausanne) a établi la première connexion entre la dystrophie musculaire et les sphingolipides, un groupe de lipides bioactifs. Le terme générique "dystrophie musculaire" regroupe des maladies dans lesquelles des mutations génétiques entraînent une faiblesse et une dégénérescence progressive des muscles squelettiques. La myopathie de Duchenne (Duchenne muscular dystrophy, DMD) représente près de la moitié des cas de dystrophie musculaire. La DMD est causée par une mutation du gène qui code pour la dystrophine, une protéine de soutien de la structure musculaire qui permet l’ancrage du cytosquelette des cellules musculaires à la face cytoplasmique du sarcolemme.

Les mutations de la dystrophine affectent différentes voies biologiques, ce qui provoque les symptômes caractéristiques de la myopathie de Duchenne : perte d’intégrité des membranes cellulaires, dérégulation de l’homéostasie calcique, inflammation chronique, fibrose et trouble du remodèlement tissulaire. Découverts en 1870 et nommés d’après le fameux Sphinx, les sphingolipides constituent un groupe de lipides bioactifs que l’on pense impliqués dans la signalisation cellulaire et, étonnamment, dans beaucoup de symptômes de la DMD. Les chercheurs se sont donc demandé si la synthèse des sphingolipides pouvait être altérée dans la DMD et, dans ce cas, si ces lipides pouvaient participer à la pathogenèse de la DMD. Pour répondre à cette question, les chercheurs ont étudié un modèle murin de dystrophie musculaire.

Tout d’abord, ils ont découvert que les souris atteintes de DMD présentaient une accumulation d’espèces intermédiaires de la biosynthèse des sphingolipides. Ce premier indice montrait donc que le métabolisme des sphingolipides était anormalement augmenté dans le contexte de la dystrophie musculaire. Ensuite, les chercheurs ont utilisé un composé appelé «myriocine» pour bloquer l’une des enzymes clés de la voie de synthèse de novo des sphingolipides. Le blocage de la synthèse des sphingolipides a empêché la perte de fonction musculaire liée à la DMD chez les souris.

En poursuivant cette piste, les chercheurs ont constaté que la myriocine stabilisait le renouvellement du calcium musculaire et réversait la fibrose du diaphragme et du muscle cardiaque. Le blocage de la synthèse des sphingolipides a également réduit l’inflammation musculaire observée dans la DMD, notamment en promouvant un phénotype anti-inflammatoire des macrophages, un sous-type de cellule immunitaire. « Notre étude identifie l’inhibition de la synthèse des sphingolipides, qui cible ainsi de multiples voies pathogéniques simultanément, comme une stratégie prometteuse pour le traitement des dystrophies musculaires », écrivent les auteurs.

Article rédigé par Georges Simmonds pour RT Flash

EPFL

Découverte d'anomalies cérébrales associées à la maltraitance infantile
Mardi, 08/03/2022 - 08:29

On sait depuis longtemps que la maltraitance infantile a des effets sur le développement psychologique avec notamment un risque accru de dépression et de suicide au cours de la vie. Violences sexuelles, physiques ou encore négligence chronique pendant l’enfance ou l’adolescence sont suspectées d’entraîner des modifications structurelles et fonctionnelles durables sur le cerveau. C’est en effet au cours de ces périodes que les traits de personnalité, les modèles d’attachement, les fonctions cognitives et les réponses émotionnelles sont façonnés par ce que nous vivons, y compris les traumatismes.

Pour mieux comprendre les modifications neurobiologiques associées à la maltraitance infantile, des chercheurs et chercheuses de l’Inserm et de l’Université de Tours, en collaboration avec l’Université McGill University – Douglas Mental Health University Institute, à Montréal au Canada, se sont intéressés au cortex préfrontal ventromédian, une région cérébrale régulant les réponses émotionnelles. Ils ont tout particulièrement étudié les "filets périneuronaux", des structures particulièrement compactes et denses qui encerclent certains neurones, en particulier ceux à parvalbumine, dont l’action inhibitrice participe au contrôle de l’activité de larges ensembles de neurones.

Les filets périneuronaux apparaissent au cours de la petite enfance et se développent jusqu’à la fin de l’adolescence, augmentant en taille et en nombre. Chez l’animal, leur développement est une étape importante de la maturation cérébrale. Leur apparition marque en effet la fermeture de "périodes critiques" de plasticité pendant lesquelles le développement de la circuiterie neuronale peut être facilement modifié par les expériences.

Les chercheurs estiment que ces filets périneuronaux pourraient jouer un rôle en cas de traumatisme pendant l’enfance, en figeant les réseaux neuronaux associés à ces souvenirs, prédisposant à des troubles dépressifs ou comportementaux par la suite.

Pour étudier ces structures, les chercheurs ont analysé des coupes de cerveau post-mortem d’adultes (issus de dons de cerveau avec accord des familles), qui s’étaient suicidés au cours d’un épisode de dépression majeure. Sur les 28 sujets concernés, 12 sujets avaient eu une histoire lourde de maltraitance infantile. Ces coupes ont par ailleurs été comparées avec celles de sujets contrôles, décédés de mort naturelle et sans antécédent de maltraitance ou de maladie psychiatrique. Différents types d’analyses ont abouti à plusieurs observations.

Tout d’abord, chez les sujets maltraités au cours de l’enfance, les filets périneuronaux étaient plus denses et plus nombreux que ceux des autres individus. Ils présentaient en outre des caractéristiques de maturation plus importante, notamment un développement structurel accru autour des neurones à parvalbumine Enfin, les chercheurs ont montré que les cellules qui produisent les principales protéines composant les filets périneuronaux sont les progéniteurs d’oligodendrocytes, des cellules présentes partout dans le cerveau.

« Ces observations renforcent l’hypothèse d’une corrélation entre stress précoce et développement accru des filets périneuronaux. Reste à découvrir s’il existe un lien causal, c’est-à-dire si ces changements contribuent au développement de comportements associés à la maltraitance et de quelle façon. On pourrait peut-être à plus long terme envisager de manipuler les filets périneuronaux pour permettre de restaurer une certaine plasticité et réduire l’impact du traumatisme et le risque psychiatrique par la suite », explique Arnaud Tanti, chercheur Inserm et premier auteur de ces travaux.

Article rédigé par Georges Simmonds pour RT Flash

Nature

Combiner l’IA et l’IRM pour mieux traiter le cancer
Mardi, 08/03/2022 - 08:25

Des chercheurs du Massachusetts General Hospital (MGH) ont développé un nouvel outil qui combine de manière non-invasive l'intelligence artificielle (IA) et l’imagerie par résonance magnétique (IRM), pour suivre les résultats d’un traitement viral contre le cancer. Jusque-là, les scientifiques avaient juste mis au point un virus thérapeutique capable de tuer sélectivement les cellules cancéreuses. Ce progrès avait donné espoir quant au traitement des tumeurs cérébrales.

En revanche, l’avancée d’aujourd’hui permet de détecter les signes précoces de la mort des cellules tumorales. Elle a été lancée en réponse au nouveau traitement anticancéreux à base de virus. Ces chercheurs du MGH ont utilisé des images d’IRM moléculaires quantitatives pour mesurer plusieurs propriétés des tissus. Selon eux, cette méthode permet de surveiller la réponse thérapeutique beaucoup plus tôt que les autres techniques, visible 48 h après la thérapie virale.

Le Docteur Christian Farrar, chercheur à l’Athinoula A. Martinos Center for Biomedical Imaging, a expliqué le principe de l’IRM. En effet, elle consiste à créer des "empreintes" de signaux uniques pour chaque ph cellulaire et chaque composé moléculaire. Ensuite, pour décoder les empreintes et générer des cartes quantitatives du pH et des molécules, un réseau neuronal d’apprentissage profond a été utilisé. « La méthode d’empreinte moléculaire par IRM a été validée dans une étude sur les tumeurs cérébrales chez la souris où les tumeurs ont été traitées avec une nouvelle thérapie à base de virus qui a tué sélectivement les cellules cancéreuses ».

Après cela, les chercheurs ont eu recours à l’IA pour déceler la mort des cellules tumorales causée par le virus. Le Docteur Perlman, collègue du Docteur Farrar, affirme que l’IA en médecine permet même une approche non invasive. L’utilisation des empreintes moléculaires simulées a été l’un des éléments les plus intéressants et les plus importants pour le succès de cette thérapie. Afin de résoudre d’autres défis médicaux et scientifiques, cette méthode pourrait être utilisée dans le monde entier.

Article rédigé par Georges Simmonds pour RT Flash

Eurekalert

Un composé du brocoli confirme son efficacité contre le cancer
Lundi, 07/03/2022 - 12:16

Plusieurs études ont montré que la consommation régulière de brocoli réduisait les risques de développer certains cancers, à cause de l'effet protecteur d'un composé organosulfuré particulier de ce chou, le sulphoraphane. Récemment, des scientifiques de l’Université d’Hiroshima, au Japon, ont dévoilé qu’un composé appelé "3,3′-diindolylméthane" ou "DIM", contenu dans le brocoli, pourrait soigner le cancer du sein, de la prostate, de l’estomac, du pancréas ou encore du côlon. Selon les travaux, cette molécule déclencherait l’apoptose, à savoir le processus par lequel des cellules déclenchent leur autodestruction en réponse à un signal, et l’autophagie, soit un mécanisme physiologique, intracellulaire, de protection et de recyclage d'éléments cellulaires.

« Nous avons découvert que le composé DIM induit une nouvelle activité biologique qui endommage les membranes nucléaires chez la levure de fission Schizosaccharomyces pombe », a déclaré Masaru Ueno, professeur à l'Université d'Hiroshima et auteur de l’étude. Les membranes nucléaires renferment l'information génétique des cellules. Une fois le matériel génétique répliqué, l'enveloppe nucléaire, qui comprend les membranes interne et externe, se divise en deux parties, créant deux cellules au lieu d'une.

D’après les scientifiques, une concentration élevée de DIM perturbe la structure de l'enveloppe nucléaire et induit une condensation des chromosomes à un moment précoce. En revanche, une faible concentration de DIM a induit l'autophagie mais n'a pas perturbé la structure de l'enveloppe nucléaire. Les auteurs des travaux ont précisé que plusieurs médicaments anticancéreux déclenchaient l'apoptose afin de détruire les cellules cancéreuses. Si l'équipe parvient à contrôler cette mort programmable, cela pourrait conduire à une nouvelle piste de traitement contre le cancer.

« La recherche démontre que le DIM induit l'autophagie dans les cellules cancéreuses. Cependant, l'impact de l'autophagie sur la formation et la progression des tumeurs n'est pas entièrement compris. La compréhension des mécanismes d'apoptose et d'autophagie par le DIM dans la levure de fission peut être utile pour la recherche sur le cancer et la longévité chez l'homme. Nous pensons que l'étude de la structure de l'enveloppe nucléaire pourrait être un bon point de départ pour ces cas », ont développé les chercheurs.

Article rédigé par Georges Simmonds pour RT Flash

PLOS one

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top