RTFlash

RTFLASH Recherche & Technologie
NUMERO 1107
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 11 Juin 2021
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
Avenir
Un robot agricole pour un désherbage de précision au laser
Matière
Le solaire hybride, un outil d'avenir pour mieux recycler les déchets
Un nouveau procédé de production de carburants à partir de déchets plastiques
Terre
La forêt amazonienne brésilienne émet à présent plus de carbone qu'elle n'en absorbe…
Vivant
Un test COVID-19 détecte des anticorps dans une petite goutte de sang
Maladie de Parkinson : la stimulation cérébrale profonde confirme son intérêt thérapeutique
Le jeûne intermittent permettrait de diminuer la tension artérielle
COVID-19 : Données rassurantes sur le variant Delta
COVID-19 : 4 médicaments anti-VHC qui décuplent l'efficacité du Remdesivir
Des batteries écologiques produites par des virus…
Sanofi annonce des résultats positifs pour un essai de phase III avec le nirsevimab
Vaccins anti Covid-19 et thrombose : de quoi parle-t-on ?
Le cerveau préfère additionner et rajouter plutôt que soustraire et supprimer
Des chercheurs impriment un pancréas en 3D pour tester des traitements contre le diabète
Recherche
Volvo et Luminar dévoilent un système de conduite autonome sur autoroute
Edito
Le stockage biologique de données va accélérer la convergence entre numérique et sciences de la vie



Selon les estimations de l’annuaire économique numérique de Statista, le monde stocke actuellement, annuellement, 20 fois plus de données qu’il y a 10 ans. Statista estime à 50 zettaoctets le volume de données stockées en 2020. Pour mémoire, un Zettaoctet équivaut à un milliard de milliards d'octets, soit un milliard de disques durs d’un TO (Téraoctet) ou de 1000 Go. Le cabinet IDC prévoit, quant à lui, que le volume total de données produites atteindra les 175 zettaoctets en 2025 et…2000 zettaoctets en 2035. Une autre façon de mieux réaliser l’incroyable explosion de la quantité d’informations numériques est de rappeler que l’Humanité produit maintenant en une semaine autant d’informations que ce qu’elle a généré entre l’apparition des premières grandes civilisations, il y a 5000 ans, et l’an 2000 !

Pour conserver cette immense masse de données, l’industrie du numérique compte actuellement près de 4800 centres de stockage (data centers) dans le monde, répartis dans 127 pays. Des progrès considérables ont été accomplis dans la capacité de stockage des disques durs (qui a été multipliée par 1000 en 25 ans, pendant que le coût de stockage était divisé par cent et descendait à 2 centimes le Go) Parallèlement, la technologie « Full Flash », matérialisée par l’apparition de disques SSD (utilisant des mémoires non volatiles) de grande capacité, plus rapides et moins gourmands en énergie, a encore repoussé les limites en matière de capacité de stockage des centres et serveurs informatiques. Tout le problème est que, depuis le début de siècle, ces avancées techniques ne permettent plus de compenser la foudroyante accélération de la production globale de données numériques sur le Net, et les besoins croissants de stockage numérique qui en résultent.

En 2018, dans un rapport sur la consommation d’énergie dans les centres de stockage de données, la Commission européenne estimait la consommation énergétique des data centers de l’Union européenne à 77 TWh/an, ce qui représente déjà plus de 3 % de toute la consommation électrique de l’Union européenne. On estime qu’en moyenne, un seul data center consomme autant d'électricité qu'une ville de 30.000 habitants et, à ce rythme, d’ici 2030, ces centres de données pourraient encore tripler leur consommation électrique et doubler leurs émissions de CO2, qui dépasseraient alors 5 % des émissions mondiales. Pour mieux se rendre compte de l’impact de ce stockage de données, il faut rappeler que les data centers chinois, à eux seuls, ont rejeté, en 2018, 99 millions de tonnes de CO2, soit l’équivalent de 21 millions de voitures, ou encore le quart des émissions françaises annuelles de CO2.

Dans cette course technologique effrénée entre explosion de la production de données numériques et capacité de stockage, les scientifiques explorent de nombreuses voies de recherche pour trouver le nouveau « Graal », c’est-à-dire une nouvelle technologie qui permette à la fois de gagner d’un coup plusieurs ordres de grandeur dans le stockage numérique, tout en réduisant drastiquement sa consommation d’espace et d’énergie, et en restant compétitive, par rapport aux outils de stockage existants…

Précisons que les technologies « classiques » de stockage n’ont pas dit leur dernier mot et, qu’en 2017, l’entreprise japonaise Sony a annoncé qu’en partenariat avec IBM, elle a réussi à mettre au point une technologie de stockage sur bande magnétique qui permet d’atteindre des densités de stockage record, de l’ordre de 31 Go/cm², ce qui multiplie par vingt la capacité de stockage de données non compressées sur une seule cartouche, qui peut désormais atteindre les 330 To, soit 330 000 Go.

L’année dernière, l’Université d’Alberta a présenté une nouvelle technique de stockage de données qui repose sur la présence ou l’absence d’atomes individuels d’hydrogène. La densité de stockage résultant de cette technique serait d’environ 1,2 pétabit par pouce carré, soit une densité 1000 fois supérieure à celle des disques durs SSD actuels et 100 fois supérieure à celle des disques Blu-ray. Cette nouvelle technologie présente en outre l’avantage de pouvoir fonctionner à température ambiante et d’être capable de conserver les informations pendant plus de 500 ans. Elle pourrait, par exemple, permettre de stocker les 45 millions de chansons de la musicothèque iTunes sur la surface d’une pièce de monnaie. Mais, pour l’instant, l’écriture et la lecture des informations avec le procédé reste 10 000 fois trop lentes, par rapport aux performances des derniers SSD, et de nombreuses années de recherche seront nécessaires pour atteindre des temps d’accès et d’écriture aussi brefs que ceux des meilleurs disques magnétiques ou SSD actuels.

C’est dans ce contexte que la recherche s’est focalisée, depuis une dizaine d’années, sur l’ADN, comme possible outil de stockage massif et fiable de données. L’ADN, l’acide désoxyribonucléique, se trouve dans les cellules des êtres vivants. Il contient les informations génétiques. On estime qu’un seul gramme d’ADN peut stocker 200 millions de Go de données, ou encore 200 000 To, c’est-à-dire une quantité d’informations 10 000 supérieure à celle que l’on peut enregistrer sur les plus gros disques durs actuels. Autre avantage décisif, il faut 100 millions de fois moins d’énergie pour stocker la même quantité de données sur de l’ADN, par rapport à un disque dur. En théorie, on pourrait stocker sur seulement 5 grammes d’ADN toute la production annuelle mondiale d’informations de 2020, et tout le contenu du Web, depuis ses origines, dans un volume équivalent à une boîte à chaussures. Quant à la totalité des informations produites par l’humanité depuis l’invention de l’écriture, elle serait entreposable dans l’équivalent d’une grosse armoire…

En 2017, une équipe de l’Université de Columbia, à New York, est parvenue à stocker, puis à récupérer dans des brins d’ADN plusieurs types de données, celles d’un système d’exploitation d’ordinateur, d’un livre et du premier film historique réalisé en 1895 par les frères Lumière, "L’arrivée d’un train à La Ciotat". La molécule d’ADN, dont la structure en double hélice a été, on le sait, découverte en 1953 par James Watson et Francis Crick, se compose de quatre principaux composants : l’adénine la cytosine, la guanine et la thymine, représentés par les lettres A, C, G et T. Pour stocker des données dans de l’ADN, on utilise, à la place des "1" et des "O", les lettres A, C, G et T des composants de l’ADN. Par ce moyen, les quatre composants de l’ADN, A, C, G et T forment une séquence précise qui est identique à l’ordre des données du fichier numérique d’origine.

Mais, outre sa lenteur d’inscription et de lecture, le principal inconvénient du stockage ADN reste indéniablement son coût prohibitif. Selon l’Université de Columbia, l’inscription d’un Mo de données coûterait environ 2500 euros, et sa lecture 1500 euros, un coût qui reste évidemment incompatible avec une utilisation à l’échelle industrielle. Pour lever cet obstacle, les chercheurs du monde entier tentent de mettre au point des systèmes de « traduction » automatique des données numériques en données biochimiques.

Aux Etats-Unis, une équipe de chercheurs du Laboratoire national de Los Alamos travaille par exemple sur un logiciel de traduction, ADS Codex (Adaptive DNA Storage Codec), qui peut traduire des bits numériques en nucléotides et vice-versa. L’objectif final de ces recherches est de parvenir à écrire 1 To, et lire 10 To en 24 heures pour moins de 1 000 dollars. Pour parvenir à surmonter le défi que représente la correction d’erreurs de transcription, ces chercheurs ajoutent des informations supplémentaires, sous forme de codes de détection d'erreur, qui vont permettre de valider les données. Lorsque le logiciel convertit les données biologiques en bits numériques, il s’assure que les codes correspondent. Si ce n’est pas le cas, le programme va générer ou supprimer des nucléotides jusqu'à ce que la vérification soit pleinement conforme.

Il y a quelques semaines, la société Iridia, basée à Carlsbad, en Californie, et dirigée par Murali Prahalad, a dévoilé une solution innovante qui permettrait de réduire de 99 % les coûts de fonctionnement d’un datacenter qui stocke 1 exaoctet d’informations sur des SSD. Cette entreprise est en train de développer un système qui tienne sur une puce et qui puisse être intégré directement dans les équipements des datacenters, avec des temps d’accès et de lecture au moins aussi rapides que ceux des bandes magnétiques, ainsi qu’une consommation d’énergie 2 500 fois inférieure à celle des SSD. Iridia promet, grâce à sa solution technologique, une réduction de 99 % des coûts de fonctionnement d’un datacenter qui stocke 1 exaoctet d’informations sur des SSD (Voir Search Storage).

En outre, Iridia affirme que sa puce à ADN offrira, dans un premier temps, une densité de stockage quatre fois meilleure que celle des bandes et des disques durs magnétiques pour un prix moindre. Concrètement, Iridia a mis au point des cellules de mémoire à base de nanopores ainsi qu’un système capable d’y déplacer et d’y manipuler les données à volonté. Iridia précise que sa solution permet à la fois d’écrire des bits sur ce brin d’ADN et de les relire. Pour faire face à la demande en capacité massive de stockage, qui va continuer d’exploser, Iridia compte augmenter au fur et à mesure des générations la densité de cellules de nanomémoire par centimètre carré, ainsi que le nombre de bits par cellule de nanomémoire.

Une équipe de l’Université d’État de Caroline du Nord (NCSU) a, pour sa part, développé un nouvelle approche appelé Dynamic Operations and Reusable Information Storage, ou DORIS, qui ne repose pas sur la PCR (Polymerase Chain Reaction), ce qui lui a permis de surmonter les principaux obstacles à la mise en œuvre des technologies de stockage des données sur l’ADN. Avec les outils basés sur la PCR, l’information est encodée dans des brins d’ADN qui flottent dans une « soupe génétique ». Pour répertorier et nommer ces fichiers, on utilise des séquences de liaison qui sont attachées aux extrémités de ces brins et forment les noms de ces fichiers. Le problème est que, pour récupérer le bon fichier, et obtenir la bonne séquence de liaison, il faut, à chaque fois, chauffer puis refroidir cette soupe, de manière à séparer l’ADN en double brin. Cette technique finit donc par altérer, puis détruire les fichiers originaux.

Pour surmonter cet obstacle de taille, les chercheurs utilisent des séquences qui se lient à l’amorce et sont constituées d’une queue d’ADN d’un simple brin qui pend à l’extrémité. Cette astuce permet d’identifier et de récupérer des fichiers sans avoir besoin d’ouvrir les brins d’ADN codés. En outre, DORIS peut fonctionner à température ambiante, ce qui constitue un autre avantage majeur. Selon ces chercheurs, leur technique DORIS permet non seulement de lire à volonté un fichier en le préservant, mais autorise également une modification ou un verrouillage de ces fichiers pour certains utilisateurs.

En Suisse, des chercheurs de l’EPFL travaillent sur une technique utilisant  les nanopores – des trous de taille nanométrique – identiques à ceux que font les bactéries, qui savent très bien perforer d’autres cellules pour les détruire, en utilisant des protéines spécialisées appelées «toxines formant des pores», qui vont s’arrimer à la membrane de la cellule et y former un canal tubulaire. Ces chercheurs ont montré que les nanopores d’aérolysine peuvent servir à décoder les informations binaires. Ils ont réussi à modifier l’aérolysine pour détecter les molécules conçues précisément pour être lues par ce pore. Appelées «polymères numériques», ces molécules ont été développées dans le laboratoire de Jean-François Lutz à l’Institut Charles Sadron du CNRS à Strasbourg. Elles sont constituées d’un assemblage de nucléotides d’ADN et de monomères non biologiques conçus pour traverser les nanopores d’aérolysine et produire un signal électrique qui peut être lu comme un «bit».

Les chercheurs ont réussi à optimiser la vitesse des polymères traversant le nanopore, afin qu’il puisse émettre un signal spécifique et identifiable. « Mais, contrairement aux lectures de nanopores classiques, ce signal a permis une lecture numérique avec une résolution à un seul bit, sans restreindre la densité des informations, » souligne le Docteur Chan Cao, qui a dirigé ces recherches. Pour décoder les signaux de lecture, ces chercheurs ont eu recours au « deep learning », l’apprentissage profond ; ils ont ainsi pu décoder jusqu’à 4 bits d’informations des polymères. Ce procédé présenterait, selon ses concepteurs, deux avantages décisifs par rapport au stockage sur ADN : d’abord, il serait beaucoup moins cher pour le stockage de données ; ensuite, il serait facilement miniaturisable, et pourrait être facilement intégré dans des dispositifs de stockage de données portables.

De son côté, l’Europe a heureusement pris conscience de l’enjeu considérable que représente de l’ADN de synthèse pour stocker des données. Elle a lancé le projet "OligoArchive", dont le but est de produire, d’ici trois ans, un premier prototype de disque de stockage sur ADN, qui soit à la fois économiquement viable et suffisamment rapide et fiable pour se substituer, dans un certain nombre d’applications, aux disques durs magnétiques ou SSD.

Que nous disent ces avancées et découvertes récentes ? Avant la fin de cette décennie, nous verrons arriver sur le marché les premiers systèmes de stockage massif de données sur ADN, ou sur support biochimique. Ce saut technologique extraordinaire fera d’une pierre trois coups, en permettant, à volume égal, de multiplier par au moins un million la quantité d’informations stockées, tout en réduisant drastiquement la consommation d’énergie et les émissions de CO2 liées à ce stockage numérique.

Mais pour bien mesurer l’extraordinaire puissance de cette rupture technique, il faut l’envisager en synergie avec la montée en puissance de l’Internet 3.0, caractérisé par le Web sémantique et l’intégration de tous les objets qui constituent notre réalité dans le Net, ainsi qu’avec l’arrivée probable, d’ici 2030, des premiers ordinateurs quantiques pleinement polyvalents (c’est-à-dire capables d’effectuer toutes sortes d’opérations et pas seulement des calculs spécialisés), dont la puissance de calcul va nous permettre de résoudre les problèmes d’une complexité insoluble pour l’instant.

On voit bien que la combinaison intelligente des machines quantiques, du stockage biologique de l’information et de l’Internet des objets va permettre l’émergence d’un monde virtuel complet, intégrant toutes les dimensions spatiales, temporelles et cognitives, et qui sera capable de s’auto-enrichir en permanence. Loin d’être une simple représentation du réel, ce monde virtuel autonome et vivant deviendra consubstantiel à notre réalité et à nos vies, au point qu’il deviendra tout simplement impossible pour nous de le distinguer du monde réel, puisqu’il en sera devenu une nouvelle dimension. C’est peu de dire que les conséquences économiques, politiques, sociales et culturelles de cette mutation de civilisation qui s’annonce seront immenses ; c’est pourquoi nous devons dès à présent nous préparer à l’avènement inéluctable de ce nouvel âge de l’espèce humaine, en réfléchissant ensemble au moyens et conditions qui permettront de conserver notre humanité dans ce nouveau monde et de lui donner une finalité collective qui ne se réduise pas au seul horizon technologique…

René TRÉGOUËT

Sénateur honoraire

Fondateur du Groupe de Prospective du Sénat

e-mail : tregouet@gmail.com


Avenir
Nanotechnologies et Robotique
Un robot agricole pour un désherbage de précision au laser
Mercredi, 09/06/2021 - 06:00

Dévoilé en avril par Carbon Robotics, ce véhicule autonome cache sous son châssis une batterie d’outils technologiques. À coups de lasers et d’intelligence artificielle, l’entreprise américaine espère proposer une alternative aux herbicides pour les agriculteurs.

Avec un poids de 4 300 kilos et un moteur de 74 chevaux, l’imposante machine évolue à 8km/h. Elle se démarque davantage par son nombre de capteurs, digne d’un concept car : 12 caméras à haute résolution qui balaient le champ, deux autres à l’avant et à l’arrière pour guider le véhicule, des capteurs LiDAR pour détecter les obstacles et des cartes graphiques Nvidia pour alimenter la technologie d’IA.

« Un superordinateur robuste intégré à bord utilise le machine learning pour identifier les mauvaises herbes envahissantes et vos cultures précieuses, en quelques millisecondes, tout en roulant », décrit Carbon Robotics. Une fois les indésirables détectés, huit lasers entrent en action. Avec une puissance de 150 watts, les lasers à dioxyde de carbone peuvent tirer toutes les 50 millisecondes avec une précision de trois millimètres.

« Les lasers ne perturbent pas la microbiologie du sol, contrairement au labourage », argumente Carbon Robotics. « Les robots automatisés permettent aux agriculteurs de réduire le coût très variable du travail manuel ainsi que l'utilisation d'intrants agricoles tels que les herbicides et les engrais ». Selon l’entreprise, une machine peut traiter six à huit hectares par jour.

Article rédigé par Georges Simmonds pour RT Flash

L'Usine Nouvelle

^ Haut
Matière
Matière et Energie
Le solaire hybride, un outil d'avenir pour mieux recycler les déchets
Mercredi, 09/06/2021 - 06:40

Dans les Landes, un centre de gestion des ordures ménagères a montré qu'en combinant production de chaleur et d’électricité renouvelables, les panneaux thermovoltaïques pouvaient faciliter  le processus de valorisation des déchets et leur transformation en combustible.

Les panneaux solaires hybrides permettent de générer chaleur et électricité propres aux bâtiments, mais connaissiez-vous son autre vocation ? A Saint-Perdon (Landes), le centre de traitement des déchets du Syctom en a déployé afin d’optimiser un de ses processus de valorisation. La petite centrale thermovoltaïque installée sur le site intervient dans le séchage des déchets à haut pouvoir calorifique.

Ces ordures ultimes sont majoritairement composées de plastiques non recyclables, papiers, cartons et textiles souillés. Elles sont destinées à être transformées en « combustible solide de récupération » (CSR) sous forme de poudre ou de pellets, qui seront brûlées dans des cimenteries, incinérateurs ou chaufferies en substitution aux carburants traditionnels. Mais avant de livrer la matière aux fabricants de CSR, le centre de traitement doit les assécher. Pour cela, les déchets sont placés dans un hangar recouvert de panneaux thermovoltaïques.

À partir du rayonnement solaire, ils produisent de la chaleur et de l’électricité consommée par deux ventilateurs, qui propulsent l’air chaud sur les ordures. Un processus 100 % renouvelable qui permet d’élever la température ambiante de 5 à 10°C et ainsi faire passer de 35 à 18 % le taux d’humidité des déchets. La centrale est composée de 126 modules développant une puissance électrique cumulée de 38 kWc et 94 kW thermiques.

L’hybridation offre aux panneaux un beau rendement de 60 %, contre environ 20 % pour les modules photovoltaïques classiques. Le dispositif installé est d’autant plus intéressant qu’il régule la température des cellules en été. L’air brassé par les ventilateurs les refroidit, ce qui optimise davantage leur fonctionnement. L’installation a nécessité 600 000 € d’investissement, dont 97 000 € de subventions accordées par la région Nouvelle-Aquitaine. Elle devrait être rentabilisée en moins de 7 ans selon l’opérateur, grâce à la réduction des coûts de traitements des déchets.

Article rédigé par Georges Simmonds pour RT Flash

Révolution Energétique

Un nouveau procédé de production de carburants à partir de déchets plastiques
Mercredi, 09/06/2021 - 06:10

9,2 milliards de tonnes. C’est la quantité de plastiques produite dans le monde depuis 1950. Un volume qui ne cesse de progresser et qui devrait dépasser le seuil des 12 milliards d’ici 2050. En France, 3,5 millions de tonnes de déchets plastiques ont été collectés en 2018, dernier chiffre connu. 23 % de ce volume sont recyclés, 42 % sont incinérés pour produire de l’énergie et 35 % sont stockés dans des centres de stockage. L’IMT Atlantique développe un procédé de valorisation des déchets thermoplastiques par voie de pyrolyse qui produit des carburants alternatifs ainsi que de l’électricité.

Certes, ce procédé thermique pour traiter les déchets plastiques n’est pas nouveau, mais le concept développé présente une originalité, comme le décrit Sary Awad, chercheur à l’IMT Atlantique : « Une partie des carburants produits par la pyrolyse va servir à alimenter un moteur diesel dont la chaleur résiduelle, comprise entre 400 à 500 degrés, va permettre d’alimenter la pyrolyse, qui a besoin de la même température pour fonctionner. Sur le plan thermique, ce système tourne en boucle et est donc auto-therme ».

Concrètement, sur un kilogramme de déchets plastiques, composé d’une proportion plus ou moins grande de polyéthylène et de polypropylène, la pyrolyse va produire des gaz (entre 190 et 240 grammes), sous la forme d’hydrocarbures légers tels que du méthane, du propane, du butane. Ces derniers pourront être valorisés comme gaz de pétrole comprimés (GPC) car ils possèdent une bonne teneur énergétique et ne contiennent pas d’oxygène.

Deux types de liquides vont aussi être issus de la pyrolyse : du diesel (entre 140 et 160 grammes) et de l’essence (environ 400 grammes). Ce diesel va être entièrement utilisé pour alimenter le moteur à combustion ; ce dernier produit quant à lui environ 7 kW d’électricité qui peuvent ensuite être injectés dans le réseau électrique. « Pour améliorer les caractéristiques de ce carburant, il est possible de lui rajouter jusqu’à 7 % de biodiesel afin qu’il soit identique au diesel distribué dans les stations-service, mais ce moteur peut également très bien fonctionner sans biodiesel », ajoute le chercheur.

Concernant l’essence, un additif devra obligatoirement être rajouté afin de valoriser ce carburant et lui donner les mêmes caractéristiques qu’une essence classique. De l’éthanol pourrait ainsi être introduit, jusqu’à 25 %. Par contre, étant donné que ce taux d’incorporation est actuellement réservé à la catégorie superéthanonol (E85), ce qui restreint son utilisation aux véhicules de type flex-fuel, il est possible de le substituer par de l’ETBE (Ethyl-ter-butyl-ether), un additif mis sur le marché pour remplacer le plomb dans l’essence. Dans ce cas, il est introduit avec une proportion moins importante.

Grâce à la pyrolyse, les déchets thermoplastiques sont recyclés en carburants. La pyrolyse produit aussi un dernier composé, dont les premières analyses ont montré que sa composition est située dans la plage de distillation du kérosène. Mais les chercheurs de l’IMT n’ont, pour l’heure, pas tous les éléments pour le certifier totalement et des ajustements seront peut-être nécessaires pour que ce composé devienne du kérosène.

Les premiers résultats de ce travail de recherche, encore au stade de la preuve de concept, sont prometteurs. Alors qu’il n’a fait l’objet d’aucune optimisation, le prototype développé produit en effet 1,5 fois plus d’énergie primaire qu’il n’en consomme. Ce chiffre correspond à la différence entre l’énergie consommée par le moteur sous la forme de diesel et l’énergie produite par les autres carburants formés à la sortie de la pyrolyse et l’électricité produite par le moteur.

Un important axe de progrès a été observé pour améliorer ce prototype. « Nous avons constaté que seulement 10 % de la chaleur résiduelle pouvant être récupérée dans les gaz d’échappement servait à alimenter la pyrolyse », confie Sary Awad. « Pour augmenter ce chiffre, nous avons démarré une étude pour modéliser les phénomènes thermochimiques afin de concevoir un réacteur plus compact et plus efficace en termes d’échanges thermiques ».

La pyrolyse offre une meilleure maîtrise de la dégradation des matières premières. À terme, ce nouveau procédé pourrait être adapté au recyclage des plastiques dans des secteurs où le rayon de collecte est faible, comme des zones peu urbanisées ou des îles. Car les quantités de déchets pour l’alimenter n’ont pas besoin d’être importantes pour qu’il soit rentable. Et contrairement à l’incinération qui ne produit que de la chaleur et de l’électricité, il présente l’avantage de produire en plus des carburants ou des produits chimiques, sous formes d’hydrocarbures légers. Concernant la chaleur résiduelle du moteur, une partie pourrait en effet ne pas servir à alimenter la pyrolyse et être valorisée différemment.

Article rédigé par Georges Simmonds pour RT Flash

Techniques de l'Ingénieur

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
La forêt amazonienne brésilienne émet à présent plus de carbone qu'elle n'en absorbe…
Mercredi, 09/06/2021 - 06:20

Cette étude n'a guère trouvé d'écho dans les médias, mais elle confirme le basculement climatique immense qui est en train de se produire au niveau planétaire : selon ces recherches, réalisées par des chercheurs américains, chinois et français, dont Jean-Pierre Wigneron, de l'Inra, et Philippe Ciais, du CNRS, la forêt amazonienne brésilienne rejette à présent davantage de carbone qu'elle n'en absorbe.

Depuis plusieurs années, les scientifiques alarment la communauté internationale sur la baisse de capacité des forêts tropicales à stocker le carbone émis par les activités humaines. Il y a un an, en mai 2020, une étude publiée dans Science (Voir Science) sous la direction du Docteur Martin Sullivan (Université de Manchester), et s'appuyant sur un travail colossal de mesures et d'analyses réalisé pendant trente ans sur plus d'un demi-million d'arbres de dix mille espèces différentes dans 813 forêts tropicales réparties sur vingt-quatre pays à travers le monde, a montré que, dans les années 90, les forêts tropicales intactes ont capté environ 46 milliards de tonnes de dioxyde de carbone de l'atmosphère, mais cette capture est tombée à environ 25 milliards de tonnes dans les années 2010. Alors que les forêts tropicales parvenaient à capter 17 % des émissions de dioxyde de carbone d'origine humaine dans les années 1990, elles n'en captaient plus que  6 % dans les années 2010.

Cette perte d'efficacité des forêts tropicales de la  planète à stocker du carbone aurait entraîné, sur trois décennies, une augmentation de la concentration de CO2 dans l'atmosphère de 21 milliards de tonnes de dioxyde de carbone, soit l'équivalent d'une décennie d'émissions de combustibles fossiles du Royaume-Uni, de l'Allemagne, de la France et du Canada combinés. Le Docteur Sullivan précise que « Chaque degré d'augmentation de la température va libérer 51 milliards de tonnes de CO2 des forêts tropicales dans l'atmosphère, soit plus du double que les émissions mondiales annuelles de CO2 actuelles, qui sont de l'ordre de 33 milliards de tonnes ».

La nouvelle étude publiée le 29 avril 2021 montre, pour sa part, que l'Amazonie brésilienne enregistre, entre 2010 et 2019, des pertes en carbone qui sont environ de 18 % supérieures aux gains. L'étude souligne que « Jusqu'à présent, les forêts, en particulier les forêts tropicales, nous protégeaient en permettant de freiner le réchauffement, mais notre dernier rempart, l'Amazonie, est en train de basculer ».

L'étude révèle également que, contrairement aux idées reçues, ce sont les multiples dégradations, difficilement décelables, de la forêt qui sont les plus dévastatrices : ces innombrables atteintes causées par une surexploitation humaine auraient contribué à 73 % des pertes de carbone, contre 27 % pour la déforestation, pourtant de grande ampleur.

Rappelons en effet, qu'en 2020, plus de 11 000 km² de la plus grande forêt tropicale du monde sont partis en fumée, ce qui représente une hausse de 9,5 % par rapport à 2019, selon les données de l’Institut national de recherche spatiale brésilien (INPE). Depuis 50 ans, la forêt amazonienne a perdu 20 % de sa superficie, soit 792 000 km2, et le Brésil, faute d'une réelle volonté politique dans la durée (à l'exception notable de la période 2004-2014), s'avère incapable d'atteindre l'objectif qu'il s'est lui-même fixé : réduire la déforestation à environ 3900 km², conformément à la loi sur le changement climatique de 2009. L'extension de l'élevage, de la culture industrielle du soja et des filières mafieuses très puissantes d'exportations illégales de bois, agissant souvent en collusion avec les autorités politiques locales, sont les trois causes principales de cette déforestation massive et continue.

Dans la mesure où il est à présent solidement démontré que la destruction des forêts tropicales, qui sont un bien commun de toute l'humanité, non seulement par déforestation mais également par dégradation diffuse et insidieuse, risque d'avoir des conséquences bien plus catastrophiques que prévues sur l'ampleur du dérèglement climatique mondial en cours, la communauté internationale doit utiliser tous les leviers à sa disposition, notamment ceux liés à la conditionnalité écologique des prêts, des aides au développement et des échanges économiques et commerciaux, de manière à ce que les pays qui possèdent les plus grandes forêts tropicales du monde (Brésil, RDC, Indonésie, Colombie, Bolivie, Malaisie, Pérou, Madagascar, Papouasie et Cameroun) s'engagent à adopter une gestion durable de leurs forêts, qui concilie développement économique, préservation de l'environnement et de la biodiversité (porteuse d'un immense potentiel biomédical dont l’ensemble de l’humanité a besoin) et respect des modes de vie des communautés indigènes locales, qui sont malheureusement souvent  les premières victimes de cette destruction criminelle et cupide des forêts tropicales.

Article rédigé par Georges Simmonds pour RT Flash

Nature Climate Change

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Un test COVID-19 détecte des anticorps dans une petite goutte de sang
Mercredi, 09/06/2021 - 12:15

Les personnes infectées par le virus SARS-CoV-2, responsable du COVID-19, produisent des molécules immunitaires appelées anticorps. Les tests d’anticorps COVID-19 détectent la présence dans le sang d’anticorps dirigés contre le SARS-CoV-2. Comme ces anticorps peuvent prendre plusieurs jours voire plusieurs semaines pour se développer, les tests d’anticorps ne permettent pas de détecter des infections actives mais ils peuvent aider à la détermination de la proportion de membres d’une communauté infectés par le virus dans le passé.

Cette connaissance est utile pour des investigations épidémiologiques et pour l’information des politiques de santé publique. Les tests d’anticorps sont également un puissant outil permettant d’évaluer l’efficacité du vaccin contre le COVID-19 dans des essais cliniques, lorsque les scientifiques suivent la montée des anticorps après l’administration d’un vaccin.

Toutefois, les tests d’anticorps utilisent des réactifs coûteux et nécessitent typiquement de grandes quantités de sang prélevé par une prise de sang veineux, qui ne peut être faite que par du personnel soignant formé. De plus, certains tests en vente sur le marché sont trop imprécis pour fournir des résultats fiables. Des chercheurs de l’EPFL, de l’UNIGE et des HUG viennent de développer un test très précis qui permet d’analyser des centaines d’échantillons à la fois, en utilisant de très petites quantités de réactifs et une seule goutte de sang. « Le plus gros avantage de notre approche est que l’on peut faire beaucoup de tests à la fois avec un minimum de réactifs, et que l’on peut même demander aux gens de prélever leurs propres échantillons de sang à la maison», déclare Zoe Swank, première auteure de l’étude, ancienne doctorante au Laboratoire de caractérisation du réseau biologique de l’EPFL dirigé par Sebastian Maerkl.

La plate-forme, qui peut analyser jusqu’à 1024 échantillons à la fois, consiste en un réseau complexe de très petits tubes taillés dans une puce en plastique de la taille d’une clé USB environ. Pour effectuer le test, les chercheurs introduisent des échantillons de sang individuels et des réactifs dans les canaux de cette puce « microfluide ». Si des anticorps contre le SARS-CoV-2 sont présents dans un échantillon de sang, une molécule génère un signal qui peut être détecté au microscope sous forme de lueur fluorescente.

Lorsque l’équipe a testé des échantillons de sang de 155 individus infectés par le SARS-CoV-2, le test a détecté des anticorps dirigés contre le virus dans 98 % des cas. Le test est aussi extrêmement spécifique: il n’a jamais détecté d’anticorps contre le virus chez des sujets qui n’avaient pas été infectés par le SARS-CoV-2.

Sebastian Maerkl et ses collaborateurs utilisent maintenant le test pour déterminer la prévalence d’anticorps dirigés contre le SARS-CoV-2 dans des jardins d’enfants à Genève, en collaboration avec Silvia Stringhini et Idris Guessous de l’Unité d’épidémiologie populationnelle des HUG et professeurs au Département de santé et médecine communautaires de la Faculté de Médecine de l'UNIGE. « À l’avenir, déclare Sebastian Maerkl, cette technologie pourrait permettre aux gens d’acheter une trousse de prise de sang à la pharmacie ou au supermarché, de prélever leur propre sang par une simple piqûre au bout du doigt et de l’envoyer à un laboratoire central qui analyse les échantillons de sang et renvoie les résultats du test par email ou sur une app de smartphone ».

Article rédigé par Georges Simmonds pour RT Flash

EPFL

Maladie de Parkinson : la stimulation cérébrale profonde confirme son intérêt thérapeutique
Mercredi, 09/06/2021 - 12:11

Selon une étude américaine, la stimulation cérébrale profonde permet une amélioration significative à dix ans de la fonction motrice de patients atteints de la maladie de Parkinson, autant en stimulant le noyau sous-thalamique (NST) que le pallidum interne (GPi). Il s’agit de la première étude comparant les deux stimulations sur une si longue période. Les résultats ont été présentés lors du congrès en ligne de l’American Academy of Neurology (AAN 2021).

« Le bénéfice sur les troubles moteurs de la stimulation cérébrale profonde du noyau sous-thalamique ou du pallidum interne se maintiennent pendant dix ans, avec une amélioration plus importante sur les tremblements et la rigidité des membres que sur la bradykinésie », a commenté l’auteure principale de l’étude, le Docteur Jill Ostrem (Movement Disorders and Neuromodulation Center, Université de Californie, San Francisco, Etats-Unis), interrogée par Medscape édition internationale.

Le bénéfice sur les troubles moteurs de la stimulation cérébrale profonde du noyau sous-thalamique ou du pallidum interne se maintient pendant dix ans. « Le traitement médicamenteux a pu être réduit et les patients ont présenté moins de fluctuations motrices et de dyskinésies », a ajouté la neurologue. En revanche, les symptômes non moteurs, tels que les troubles de l’humeur ou autres symptômes moins sensibles à ce traitement, n’ont pas montré une réelle amélioration avec le temps et ont même contribué à altérer la qualité de vie des patients.

De nombreuses études ont évalué l’intérêt de choisir le NST ou le GPi comme zone cérébrale cible de la stimulation profonde dans le traitement de la maladie de Parkinson. Certaines d'entre elles ont également comparé les deux stimulations, mais aucun essai prospectif randomisé n’a permis une comparaison au-delà de trois ans de suivi.

Pour cette nouvelle étude, le Docteur Ostrem et ses collègues ont repris les données de Study 468, une étude randomisée contrôlée multicentrique menée par le département américain des Anciens combattants (VA) et le National Institute of Neurological Disorders and Stroke (NINDS).

Ils ont sélectionné celles concernant 349 patients parkinsoniens traités par stimulation profonde du NST ou du GPi et suivis pendant une période de dix ans, avec un bilan à 2 ans, à 7 ans et à 10 ans. Pour la dernière visite de contrôle, 77 patients se sont présentés (28 traités par stimulation du SNT et 49 traités par stimulation du GPi).

Les caractéristiques des patients étaient similaires entre les deux groupes recevant la stimulation profonde. Lors de l’inclusion, les patients étaient atteints de la maladie de Parkinson depuis 11 ans en moyenne. Ils étaient âgés en moyenne de 59 ans et les plus de 70 ans représentaient 10 % de la cohorte.

Le critère principal d’évaluation était l’évolution du score UPDRS (Unified Parkinson’s Disease Rating Scale) après arrêt des médicaments et application de la stimulation cérébrale profonde. Les critères secondaires portaient sur les tremblements, la rigidité des membres et la fréquence de la bradykinésie (ralentissement des mouvements moteurs).

Article rédigé par Georges Simmonds pour RT Flash

Mirasmart

Le jeûne intermittent permettrait de diminuer la tension artérielle
Mercredi, 09/06/2021 - 12:05

Des chercheurs américains du Baylor College of Medicine à Houston (Texas) ont montré qu’il est possible de réduire l’hypertension artérielle en remodelant le microbiote intestinal dans un modèle animal. Selon le Docteur David J. Durgan, premier auteur de l’étude, « la dysbiose intestinale n'est pas seulement une conséquence de l'hypertension, elle est en fait impliquée dans sa cause ».

Les chercheurs ont déjà cherché à savoir si une manipulation du microbiote permettait de diminuer l’hypertension artérielle. Pour cela, ils se sont appuyés sur des recherches antérieures montrant que le jeûne était à la fois l'un des principaux moteurs de la composition du microbiote intestinal et un promoteur d'effets cardiovasculaires bénéfiques. Aucune de ces études n'avait toutefois fourni de preuves reliant le microbiote et la pression artérielle.

Ils ont travaillé sur deux types de rats : des rongeurs normaux et un modèle dit SHRSP (rat spontanément hypertendu sujet à une attaque), divisés en deux groupes. Le premier groupe était composé de rats normaux et de rats SHRSP (Rats spontanément hypertendus sujets aux accidents vasculaires cérébraux)  qui étaient nourris tous les deux jours, tandis que l'autre groupe, appelé groupe témoin, était composé de rats SHRSP et de rats normaux qui avaient accès à la nourriture sans restriction.

Après neuf semaines, les chercheurs ont constaté que les rats SHRSP du groupe témoin avaient une pression artérielle plus élevée que celle des rats normaux. Il est intéressant de noter que dans le groupe qui était à jeun tous les deux jours, les rats du groupe SHRSP avaient une pression artérielle significativement réduite par rapport aux rats du groupe SHRSP qui n'étaient pas à jeun.

Les chercheurs ont ensuite cherché à savoir si le microbiote était impliqué dans la réduction de la pression artérielle observée chez les rats SHRSP à jeun. Pour cela, ils ont transplanté le microbiote des rats qui avaient jeûné ou s'étaient nourris sans restriction chez des rats sans germes, qui n'ont pas de microbiote propre.

Ils ont pu remarquer que les rats sans germes ayant reçu le microbiote de rats SHRSP normalement nourris avaient une pression artérielle plus élevée que les rats sans germe ayant reçu le microbiote de rats témoins normaux. « Nous avons pu montrer que les rats sans germe qui avaient reçu le microbiote de rats SHRSP à jeun avaient une pression artérielle significativement plus basse que les rats qui avaient reçu le microbiote de rats témoins SHRSP. Ces résultats montrent que les modifications du microbiote induites par le jeûne sont suffisantes pour provoquer l'effet hypotenseur du jeûne intermittent ».

Pour comprendre comment le microbiote intestinal intervenait pour réguler la pression artérielle, les chercheurs ont procédé à des analyses du génome entier du microbiote et ont découvert que les rats hypertendus du modèle SHRSP, qui étaient nourris normalement, avaient moins d'acides biliaires dans la circulation que les animaux sans forte pression artérielle. En revanche, les animaux du SHRSP qui suivaient un programme d'alimentation intermittent avaient plus d'acides biliaires dans la circulation. Cette étude a permis de montrer que le jeûne peut avoir des effets positifs sur le microbiote intestinal, qui lui-même a un rôle à jouer dans la réduction de l’hypertension artérielle.

Article rédigé par Georges Simmonds pour RT Flash 

Circulation

COVID-19 : Données rassurantes sur le variant Delta
Mercredi, 09/06/2021 - 11:49

L’étude SEROCoV-HUS (Institut Pasteur et Hôpitaux Universitaires de Strasbourg), menée chez 1.309 personnels hospitaliers, dont 393 ayant eu une forme légère du COVID-19, suivis pendant un an, révèle de premiers résultats rassurants. Chez les personnes positives au SARS-CoV-2, les anticorps dirigés contre la protéine S du virus persistent jusqu’à 13 mois après l’infection.

Après une seule dose de vaccin, le taux d’anticorps augmente fortement, quel que soient le taux prévaccinal et le vaccin. L’incidence de réinfection a été réduite de 96,7 % chez les patients COVID-19 convalescents (une seule réinfection, asymptomatique, versus 69 infections chez les autres). La protection induite par l’infection ou les vaccins vaut pour le virus « sauvage » comme pour les variants britanniques et sud-africains.

Cependant, l’inquiétude se porte à présent sur le variant Delta (indien) (B.1.617). Il a d’abord été rendu responsable en partie de la flambée épidémique dans le sous-continent éponyme, où il est largement majoritaire, mais il est avéré aujourd’hui que celle-ci est due avant tout aux gigantesques rassemblements politiques et religieux autorisés en début d’année.

Ce variant comporte en fait trois lignées, notées B.1.617.1, B.1.617.2 et B.1.617.3. Les trois portent une mutation, L452R, au niveau de la protéine Spike, qui serait associée à un risque d’augmentation de la transmissibilité du virus. Contrairement aux deux autres, la  seconde lignée, B.1.617.2, ne comporte pas la mutation E484Q favorisant un échappement immunitaire partiel post-infectieux et post-vaccinal. Cependant, elle a une mutation T478K qui augmenterait sa transmissibilité.

Actuellement, cette lignée est celle des trois qui est le plus souvent détectée en Europe et en France. Elle semble en passe de devenir majoritaire en Grande-Bretagne, devant le variant dit britannique. Elle y circule davantage chez les plus jeunes, qui sont aussi les moins vaccinés, et essentiellement dans la communauté indienne, importante au Royaume-Uni.

Cependant, sa propagation semble relever d’une plus grande transmissibilité par rapport au variant britannique (environ 50 % supérieure), et non d’une couverture vaccinale insuffisante ou de différences de comportement des populations affectées. En revanche, aucun élément n’est en faveur d’une plus grande sévérité clinique, mais ce point reste à confirmer.

Le 18 mai 2021, 37 cas ou clusters, représentant 77 cas confirmés de variant indien, avaient été identifiés en France. Parmi eux, 35 avaient un lien direct (voyage en Inde) ou indirect avec l’Inde (par exemple, contact avec un cas contact). Le Conseil scientifique rapporte que l’efficacité vaccinale contre le variant B.1.617.2 semble conservée contre l’ensemble des formes cliniques du COVID-19 après deux doses du vaccin AstraZeneca (60 %) et de Pfizer (88 %), mais pas après une seule dose (33 % pour les deux vaccins).

Une étude récente de l’Institut Pasteur va dans ce sens. Elle montre que chez des patients ayant été infectés par le SARS-CoV-2 dans les 12 mois précédents, des concentrations trois à six fois supérieures d’anticorps sont nécessaires pour neutraliser ce variant indien par rapport au variant britannique. En revanche, le sérum des personnes vaccinées avec une dose du vaccin Astrazeneca est très peu actif contre ce variant (ainsi que contre le variant sud-africain).

En conclusion, même si dans les études in vitro, l’efficacité vaccinale contre les variants indiens est diminuée, elle semble préservée, y compris pour le vaccin AstraZeneca, mais avec deux doses.

Article rédigé par Georges Simmonds pour RT Flash 

Univadis

COVID-19 : 4 médicaments anti-VHC qui décuplent l'efficacité du Remdesivir
Mercredi, 09/06/2021 - 06:30

Des chercheurs américains de l’Université du Texas à Austin, en collaboration avec leurs collègues du Rensselaer Polytechnic Institute (RPI) et de la Icahn School of Medicine de Mount Sinai (New York) ont montré qu'un cocktail de remdesivir et d’anti-VHC (virus de l’hépatite C) pourrait fonctionner comme une thérapie antivirale combinée pour traiter la maladie COVID-19. Un antiviral aussi puissant pourrait apporter une protection quasi-immédiate aux personnes non vaccinées infectées ou aux personnes vaccinées dont l'immunité a diminué. Les auteurs soulignent que ces médicaments contre l'hépatite étant déjà approuvés et leurs effets secondaires possibles documentés, la thérapie combinée pourrait faire l’objet rapidement d’un essai clinique.

Une similitude frappante entre les structures des protéases du VHC et la protéase principale du SRAS-CoV-2 : le remdesivir cible une partie du coronavirus SARS-CoV-2 appelée ARN polymérase, qui permet au virus de se répliquer ou de se reproduire. Les médicaments anti-VHC, quant à eux, ciblent deux autres parties du VHC qui sont également essentielles pour la réplication virale, appelées protéases. Or il existe une similitude frappante entre les structures des protéases du VHC et l'une des protéases du SRAS-CoV-2, appelée protéase principale. C’est pourquoi, au départ, les chercheurs ont fait l’hypothèse selon laquelle les anti-VHC qui se lient à et inhibent une protéase du VHC pourraient également se lier à cette protéase du SRAS-CoV-2 et l'inhiber.

Modéliser la manière dont les médicaments se lient aux protéines virales : à l’aide d’un super-calculateur, les chercheurs ont prédit que 10 médicaments anti-VHC se lieraient parfaitement à la protéase du SRAS-CoV-2. 4 de ces molécules (siméprévir, vaniprevir, paritaprévir et grazoprevir) qui, en fait, inhibent une autre protéase du SRAS-CoV-2, appelée protéase de type papaïne, s’avèrent multiplier par 10 l’efficacité du remdesivir.

Article rédigé par Georges Simmonds pour RT Flash

Cell

Des batteries écologiques produites par des virus…
Mardi, 08/06/2021 - 07:15

Sera-t-il un jour possible d'obtenir des batteries parfaitement écologiques, produites à partir de culture biologique ? Peut-être, si l'on en croit une équipe de recherche du MIt, dirigée par Angela Belcher.

Cette chercheuse reconnue s'est inspirée des coquilles d’ormeau, « un matériau bio-composite fait de 98 % de carbonate de calcium […], pourtant 3 000 fois plus résistant que son homologue géologique ». La raison de ces performances extrêmes, obtenues sans produit chimique ni température extrême ? « Ces matériaux ont des structures macroscopiques, mais sont formés à l’échelle nanométrique », détaille la scientifique. « Ils utilisent des protéines codées au niveau génétique pour construire des structures complexes ».

C’est là le point de départ de recherches menées depuis plus de quinze ans au MIT : de la même manière que des protéines assemblent des atomes de carbone et de calcium pour former une coquille d’ormeau, elles peuvent assembler un matériau semi-conducteur pour former une électrode de batterie.

Pour y parvenir, la chercheuse utilise un virus non-toxique, appelé bactériophage M13. « Il a une structure d’ADN simple que vous pouvez couper pour y coller des séquences d’ADN supplémentaires », explique Angela Belcher. « Ce faisant, il permet d’exprimer des séquences de protéines aléatoires ».

«  Cette manipulation de biotechnologie simple permet d’obtenir des milliards de virus uniques, génétiquement identiques, mais équipés de protéines différentes. Ne reste plus qu’à introduire ces virus dans une goutte de liquide pour les mettre en contact avec les molécules de métal. Et à sélectionner ceux qui interagissent le mieux. A travers un processus d’évolution de sélection, vous pouvez en tirer un sur un milliard qui fait quelque chose que vous voulez », précise la chercheuse. Comme, par exemple, assembler une électrode de batterie.

Une fois un micro-organisme efficace repéré, il suffit de répéter l’opération. « Nous sommes passés d'un virus qui créait une batterie minable à un virus qui fait une bonne batterie, puis à un virus qui a fait une batterie de forte puissance », se félicite-t-elle. Le tout, à température ambiante. L'objectif de ces chercheurs est à présent de réaliser une batterie biosynthétique dont la densité énergétique soit au moins, grâce à sa structure nanométrique maîtrisée, deux fois plus importante que celles de ses homologues issues de l'industrie chimiques…

Article rédigé par Georges Simmonds pour RT Flash

Medium

Sanofi annonce des résultats positifs pour un essai de phase III avec le nirsevimab
Mardi, 08/06/2021 - 07:04

Le groupe pharmaceutique Sanofi a annoncé que les premiers résultats d'un essai de phase III sur son vaccin nirsevimab montraient une réduction des infections des voies respiratoires inférieures causées par le virus respiratoire syncytial (VRS) chez les nourrissons prématurés et à terme en bonne santé.

« L'essai consacré au nirsevimab a atteint son critère d'évaluation principal et a permis d'observer une réduction absolue statistiquement significative des infections des voies respiratoires inférieures causées par le VRS, chez les nourrissons prématurés et à terme en bonne santé, comparativement au placebo, pendant toute la durée d'une saison type de circulation du VRS », a indiqué Sanofi dans un communiqué.

Sanofi prévoit de déposer des demandes d'autorisation de mise sur le marché du nirsevimab en vue de son indication pour tous les nourrissons à partir de 2022. « Développé en partenariat avec AstraZeneca, le nirsevimab est le premier anticorps monoclonal expérimental à demi-vie prolongée destiné à protéger tous les nourrissons pendant la première saison de circulation du VRS de leur vie, lorsqu'ils sont le plus à risque de contracter une forme sévère d'infection », a ajouté Sanofi. Rappelons que le VRS est la cause la plus fréquente d'infections et la principale cause d'hospitalisation chez les nourrissons.

Article rédigé par Georges Simmonds pour RT Flash

Les Echos

Vaccins anti Covid-19 et thrombose : de quoi parle-t-on ?
Mardi, 08/06/2021 - 07:00

Une des principales complications de la Covid-19 en phase aiguë est une maladie vasculaire qui provoque une activation de la coagulation sanguine et donc la formation de caillots sanguins à l’origine de thromboses, notamment au niveau pulmonaire. Créée depuis plus d’un an, l’équipe Covid (ANR-Fondation de France : Projet SARCODO), dirigée par le Professeur David Smadja, s’intéresse plus particulièrement aux troubles de la coagulation.

Le Professeur Smadja a été sollicité par le Centre de Pharmacovigilance de l’Organisation Mondiale de la Santé (OMS), dès les premières alertes de cas de thrombose chez des patients vaccinés avec le vaccin AstraZeneca (Suède).

Il lui a ainsi été demandé d’étudier et d’analyser les cas de thrombose survenus suite à la vaccination anti-Covid, et ce, pour les vaccins Pfizer, Moderna et AstraZeneca. L’équipe a analysé et classifié près de 2 000 cas de thrombose signalés dans le monde, et remontés par les professionnels de santé au Centre de Pharmacovigilance de l’OMS, entre le 15 décembre 2020 et le 16 mars 2021.

Alors même qu’il est impossible de calculer une vraie incidence (nombre de cas par rapport au nombre de vaccins administrés), et dans la mesure où il s’agit de remontées de déclaration d’effets indésirables, les premiers résultats montrent que des cas de thromboses veineuses et artérielles existent avec les 3 vaccins. Toutefois, ces événements thrombotiques sont en proportions infimes, ce qui ne permet pas de conclure à un sur-risque de thrombose lié aux vaccins, et ce quel que soit le vaccin.

Suivant cette étude, il semble que le phénomène de thrombose puisse être lié dans de rares cas à une réaction immunitaire de l’organisme. Cette réaction peut se traduire par une thrombopénie, c’est-à-dire par une diminution du nombre de plaquettes sanguines dans la circulation sanguine.

Au 16 mars 2021, l’équipe avait identifié, suite à la vaccination par AstraZeneca, 1 cas de thrombose semblable à ce qui était déjà connu du phénomène de réaction allergique à l’héparine (thrombopénie à l’héparine) alors même que ce patient n’avait jamais reçu d’héparine. Dans ce cas précis, la diminution du nombre de plaquettes sanguines (thrombopénie) est due à leur agrégation entre elles pour former des caillots sanguins, provoquant alors une thrombose.

Depuis le 16 mars, d’autres cas de patients présentant ces mêmes effets secondaires ont été rapportés, suite à une vaccination par les vaccins à adénovirus (AstraZeneca, Janssen). Aujourd’hui, c’est plus d’une cinquantaine de cas qui sont décrits dans le monde, ce qui reste extrêmement rare au vue du nombre de personnes vaccinées. Une prise en charge médicale de ces rares patients est maintenant décrite et recommandée par la société internationale d’hémostase et thrombose.

Le Professeur Smadja précise qu’il n’y a aucun facteur de risque particulier, identifié à ce jour, prédisposant à ses effets secondaires post vaccination (voir Recommandations groupe de travail COVID AP-HP). Des études complémentaires seront nécessaires pour étudier la prévalence d’une anomalie de l’hémostase associée à des thromboses multiples après les vaccins à adénovirus mais aussi à ARN. Malgré la survenue d’effets secondaires très rares, le Professeur Smadja réaffirme que les bienfaits du vaccin dans la lutte contre l’épidémie de COVID-19 l’emportent très largement sur le risque d’effets secondaires.

Article rédigé par Georges Simmonds pour RT Flash

Inserm

Le cerveau préfère additionner et rajouter plutôt que soustraire et supprimer
Mardi, 08/06/2021 - 06:56

Des chercheurs américains de l'Université de Virginie, à Charlottesville, ont mené une série d’expériences et d’observations desquelles ils ont découvert que le cerveau humain se tourne naturellement vers l’ajout de nouveaux éléments pour résoudre un problème. « La plupart des gens supposent que la meilleure façon de gérer un problème est d'ajouter de nouvelles fonctionnalités, même si ce n'est pas la solution la plus rationnelle », résume Benjamin Converse, psychologue et auteur principal de l’étude.

Les chercheurs ont observé comment les gens essayent de changer des objets, des concepts ou des situations. Ils ont noté que lorsqu’un nouveau recteur d'université est nommé et qu’il propose de nouvelles idées, seulement 11 % d'entre elles impliquent de se débarrasser de quelque chose.

Chez des voyageurs à qui ils ont demandé d'améliorer un itinéraire de voyage, moins d’un sur trois (28 %) a éliminé des destinations, même si l'emploi du temps était déjà surchargé. Même constat chez des personnes qui ont retouché un texte : seuls 17 % ont enlevé des mots plutôt que d’en rajouter. Concernant des idées d’amélioration d’une recette de soupe, les participants ont eu tendance à rajouter 2,85 ingrédients supplémentaires par rapport aux cinq de départ.

Dans une deuxième étape, les chercheurs ont souhaité confronter cette manie du “toujours plus” à des problèmes dont la solution la plus rationnelle est de soustraire et de supprimer. Ils ont donné aux participants des carrés avec des motifs colorés en leur demandant de rendre le motif symétrique en changeant des éléments de la figure. Pour obtenir la symétrie de la manière la plus simple, la solution était d’enlever des motifs. Pourtant, seulement une petite moitié des volontaires (49 %) a opté pour cette solution. Dans une autre expérience, les participants devaient stabiliser une structure en Lego avec un pied plus long que l'autre en ajoutant ou en ôtant des blocs. Près de deux sur trois ont choisi d’ajouter des blocs (59 %) plutôt que d’en enlever.

Les auteurs proposent plusieurs hypothèses pour expliquer cette habitude cognitive. « Les idées additives viennent plus rapidement et facilement à l'esprit, alors que les idées soustractives nécessitent plus d'effort cognitif », estime Benjamin Converse. « Et comme les gens n'agissent souvent qu'à partir des premières idées qui leur viennent, ils finissent par accepter des solutions additives sans envisager la soustraction ». Autre idée avancée : notre subconscient associerait la soustraction comme une action liée à une perte et se dirait que naturellement « plus il y a, mieux c’est ».

Cette tendance n’est pas forcément une bonne chose. « Au fil du temps, notre habitude à l'addition s'installe et se renforce, ce qui fait que sur le long terme, nous manquons des opportunités pour traiter efficacement les problèmes », déplore Gabrielle Adams, coauteur de l'étude. « On en voit les résultats tous les jours à travers des emplois du temps surchargés, une complexification croissante des administrations ou une exploitation sans limite des ressources naturelles ».

Article rédigé par Georges Simmonds pour RT Flash

Nature

Des chercheurs impriment un pancréas en 3D pour tester des traitements contre le diabète
Mardi, 08/06/2021 - 06:51

Le Laboratoire de dispositifs phoniques appliqués de l'Ecole Polytechnique fédérale de Lausanne (EPFL) et la start-up suisse Readily3D, spin-off de l'EPFL, développent une technique de bio-impression pour fabriquer une version miniaturisée d'un pancréas humain.

L'objectif de ces travaux est de pouvoir tester des traitements contre le diabète, une pathologie qui affecte près de 463 millions de personnes dans le monde, d'après le Centre européen du diabète. Elle est également la première cause d'amputations hors accident et multiplie par huit le risque d'infarctus du myocarde. Les enjeux autour de son traitement sont donc considérables.

Les scientifiques travaillent sur le pancréas car c'est cet organe qui sécrète l'insuline. Cette hormone aide le corps à réguler le glucose, une source indispensable d'énergie. Le diabète survient lorsqu'une personne ne produit pas, naturellement, suffisamment d'insuline ou ne l'utilise pas efficacement. Pour fabriquer ce pancréas artificiel, les chercheurs ont recours à la bio-impression 3D, une application médicale des procédés de fabrication additive permettant de produire des tissus biologiques. En pratique, ils utilisent du "gel biologique" contenant des cellules souches de la personne atteinte de diabète.

Cette matière est insérée dans l'imprimante 3D "Tomolite" conçue par la start-up Readily3D. Elle est traversée par un laser qui la solidifie grâce au processus de polymérisation (assemblage de plusieurs molécules identiques afin d'en former une plus grosse). Le procédé ne dure que trente secondes. « L’un des principaux atouts de la technique est ainsi la possibilité de fabriquer une pièce d’un seul bloc, ce qui est particulièrement intéressant dans le cas de l’impression de tissus mous tels que des organes », détaille Paul Delrot, CTO de Readily3D, interrogé par l'EPLF.

Grâce à ce pancréas bio-imprimé, « les patients n'auraient plus à tester toute une panoplie de médicaments aux effets secondaires parfois pénibles avant de trouver celui qui fonctionne », ajoute Damien Loterie, directeur de la jeune pousse. En effet, la technique permet de fabriquer des modèles personnalisés en fonction des cellules souches de chaque malade, et donc de leurs particularités.

Ces travaux sont prometteurs mais restent préliminaires. Les choses pourraient cependant s'accélérer car l'EPLF et la start-up Readily3D ont rejoint un consortium multidisciplinaire, aux côtés de l'Université de Naples ou encore d'AstraZeneca, pour réaliser le premier modèle de tissu fonctionnel d'ici trois ans. Le projet baptisé "Enlight" a reçu une contribution de 3,6 millions d'euros du Fonds européen d'innovation Horizon 2020.

Article rédigé par Georges Simmonds pour RT Flash

Usine Digitale

^ Haut
Recherche
Recherche & Innovation, Technologies, Transports
Volvo et Luminar dévoilent un système de conduite autonome sur autoroute
Mardi, 08/06/2021 - 07:11

Luminar et Volvo, via sa filiale Zenseact spécialisée dans le développement des logiciels pour le véhicule autonome, ont annoncé un partenariat dont l'objectif est de commercialiser une solution de conduite autonome sur autoroute spécifiquement conçue pour être produite en série.

Luminar et Zenseact expliquent ne pas vouloir mettre en place un service de robot taxi, contrairement à bon nombre de concurrents, mais rester concentrés sur le développement de fonctionnalités de conduite autonome qui puissent être produites en série et intégrées aux véhicules, l'objectif étant de commercialiser ces systèmes auprès de constructeurs et d'équipementiers, à commencer par Volvo.

Les partenaires proposent un produit baptisé Sentinel. Ce système s'appuie sur le Lidar Iris de Luminar et le logiciel OnePilot de Zenseact, ainsi que des logiciels de perception et d'autres composants. Sentinel est un système de conduite autonome qui peut fonctionner sur autoroute. Le conducteur n'a ni à avoir les mains sur le volant ni à suivre la route des yeux lorsque le système est enclenché.

Ce système pourra aussi gérer certaines fonctionnalités de sécurité comme des alertes anticollisions et réaliser certaines manœuvres. Produire un tel système, qui correspond à une fonctionnalité de conduite autonome de niveau 3 SAE, leur permet de commercialiser plus rapidement un produit que s'ils mettaient au point un système de conduite entièrement autonome, ce qui est long et coûteux. Honda a aussi récemment annoncé débuter la commercialisation d'un véhicule doté d'un système de conduite autonome sur autoroute.

Article rédigé par Georges Simmonds pour RT Flash

TC

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top