|
|
|
|
|
NUMERO 1243 |
|
|
|
|
|
|
|
Edition du 02 Février 2024
|
|
|
|
|
Edito
Les dix technologies de rupture qui vont s’imposer en 2024…
Cette semaine, je reviens, comme chaque année, sur le palmarès toujours intéressant des dix innovations marquantes pour 2024, sélectionnées par le prestigieux MIT de Boston, sans doute le meilleur centre de recherche technologique du monde. Sur ces dix innovations, on remarquera que la moitié concerne les technologies numériques, trois le secteur de l’énergie et deux le domaine des biotechnologies.
S’agissant de la sphère numérique, le MIT a d’abord retenu, on ne s’en étonnera pas, l’intelligence artificielle générative, qui est en train de se diffuser partout de manière fulgurante. Des centaines de millions de personnes interagissent à présent directement avec des outils génératifs comme ChatGPT qui produisent du texte, des images, des vidéos. Lorsqu’OpenAI a lancé une application web gratuite appelée ChatGPT en novembre 2022, personne ne savait ce qui allait arriver. Dès janvier 2023, ChatGPT était devenue l’application Web à la croissance la plus rapide de tous les temps, offrant à toute personne disposant d’un navigateur l’accès à l’un des réseaux neuronaux les plus puissants jamais construits. Face à ce déferlement, Microsoft et Google ont immédiatement dévoilé des plans rivaux visant à combiner les chatbots avec le Net et les outils numériques.
L’objectif de ces géants numériques est de rendre incontournables leurs assistants basés sur des chatbots, en les intégrant dans leurs logiciels de bureau. Ces nouveaux outils peuvent, entre autres, résumer les mails, rédiger des synthèses pointues, faire d’excellents comptes-rendus de réunions ou encore générer des diaporamas complets en quelques secondes. Microsoft et Meta ont également publié des modèles de création d’images qui permettent aux utilisateurs de générer des images partageables en un clic.
De manière révélatrice, le dernier CES de Las Vegas, qui vient de se terminer, il y a moins d’un mois, a également consacré ce triomphe de l’IA. Le géant sud-coréen de l’électronique LG a par exemple présenté un nouveau petit robot sur roulettes, capable d’interagir avec les membres du foyer, de leur rendre de nombreux services et de leur délivrer une multitude d’informations utiles : rendez-vous à venir, médicaments à prendre, météo, horaires d’un magasin… Le constructeur automobile Volkswagen a présenté ses premiers véhicules avec ChatGPT intégré à son assistant vocal. Cet outil permettra au conducteur d’obtenir des réponses précises à des réponses complexes.
Toujours dans le cadre de ce CES 2024, la start-up Zoe Care, lancée en 2022, a présenté Zoe Fall, "l'assistant invisible pour la bonne santé des séniors". Cet outil utilise le Wi-Fi (et non la caméra, ce qui préserve l’intimité) pour reconnaître les mouvements, détecter les chutes, ou prévenir les soignants en cas d'urgence. « Nous sommes persuadés que notre technologie peut changer la vie de millions de seniors en permettant leur maintien à domicile et en leur apportant la sérénité dont ils ont besoin au quotidien », affirme Thomas Saphir, cofondateur et CEO de la start-up.
La jeune société française Ontbo a mis au point, après plusieurs années de recherche, une IA capable d'analyser les données émotionnelles des personnes. Cet outil d’analyse émotionnelle intéresse le secteur du commerce car il peut personnaliser et améliorer la relation client dans de nombreux domaines, comme la grande distribution, la banque ou le prêt à porter
La deuxième innovation retenue par le MIT est l’Apple Vision Pro, qui ambitionne de révolutionner les jeux et loisirs video. Il s’agit d’un casque de réalité mixte qui marque une étape importante dans la technologie d’affichage. Ce nouveau casque de réalité virtuelle est doté de deux écrans haute définition en 4K ; il embarque de multiples capteurs et caméras pour situer l’utilisateur dans l’environnement. Ce casque propose également, pour parfaire l’immersion, un son Audio spatial à ses utilisateurs. L’Apple Vision Pro s’appuie sur deux puissants microprocesseurs, le M2, déjà présent sous le capot des iPad Pro et des MacBook Air, et le R1 pour le graphisme. Cette électronique permettra notamment de passer des appels visio, avec l’app FaceTime ou avec Zoom.
Troisième innovation, les chiplets. Alors que la miniaturisation des transistors devient de plus en plus coûteuse et complexe et approche de ses limites physiques, les chiplets apparaissent comme une nouvelle solution. Ces petites puces spécialisées, qui sont gravées sur un même processeur, ont révolutionné l’électronique depuis 5 ans et ont notamment permis à AMD de passer devant Intel. Elles peuvent être reliées entre elles pour remplir les fonctions d’une puce conventionnelle, mais avec une souplesse, une efficacité et une vitesse bien supérieures, annonçant une nouvelle ère dans l’informatique. Le marché des Chiplets a d’ailleurs été multiplié par huit depuis cinq ans, pour atteindre 2,5 milliards d’euros et, selon Omdia, ce marché pourrait atteindre 57 milliards de dollars à l’horizon 2035, principalement tiré par des puces composites, qui combinent de multiples applications.
La quatrième innovation est l’ordinateur exaflopique ou informatique exascale. Il s’agit de nouvelles machines capables d’effectuer plus d’un milliard de milliards d’opérations par seconde (un exaflop). Cette avancée devrait révolutionner la recherche scientifique. En 2024, l'Union européenne franchira une étape significative dans le domaine de la recherche scientifique avec la mise en service de Jupiter, (Joint Undertaking Pioneer for Innovative and Transformative Exascale Research), une machine annoncée comme le supercalculateur le plus puissant du monde, surpassant tous ses concurrents, en Chine et aux États-Unis.
Ce projet ambitieux est une collaboration entre l'Union européenne et des entreprises privées. Jupiter sera installé sur le campus du centre de recherche de Juliers en Allemagne, exploité par le centre de supercalcul de Juliers. Cette initiative permettra à des chercheurs et entreprises européens de réaliser des simulations climatiques à haute résolution à l'échelle mondiale, ouvrant de nouvelles perspectives dans le domaine de la modélisation climatique. Le supercalculateur Jupiter, avec ses capacités exaflopiques, devrait également contribuer de manière significative au développement de médicaments et de matériaux innovants. Avec un tel outil, l'Europe s’affirme comme un acteur majeur dans la course aux supercalculateurs. En 2025, la France prévoit d'accueillir le deuxième supercalculateur européen exaflopique, consolidant ainsi sa position en tant que leader technologique sur la scène mondiale. Ce second supercalculateur a été baptisé Jules Verne. Ces initiatives européennes arrivent dans un contexte concurrentiel fort dans le domaine de l’exascale, dominé par les Etats-Unis qui ont été les premiers à mettre en service en 2022, dans le Laboratoire National d'Oak Ridge (Tennessee), une machine exaflopique, avec leur ordinateur Frontier, conçu par Cray, basé sur des processeurs AMD (qui équipent à présent la moitié des dix ordinateurs les plus puissants du monde) et capable d’atteindre la vitesse vertigineuse de 1,5 exaflops.
La cinquième innovation concerne les plates-formes de médias sociaux décentralisées. Le paysage des médias sociaux est en train d’être bouleversé avec l’essor des plates-formes décentralisées. À la suite de l’acquisition de Twitter par Elon Musk, des plates-formes comme Bluesky et Threads ne cessent d’étendre le nombre de leurs utilisateurs. Contrairement aux médias sociaux les plus utilisés tels que Facebook, Instagram ou encore LinkedIn, ces médias sociaux décentralisés fonctionnent sur le schéma du peer-to-peer : chaque machine connectée à Internet via la blockchain, ou chaque utilisateur, représente un serveur à part entière. Cette architecture en nœuds confère une fiabilité extrême à ces réseaux et permet également une excellente protection des données personnelles et de la vie privée.
La sixième innovation concerne les cellules solaires haute performance de nouvelle génération. Les panneaux solaires traditionnels convertissent la lumière du soleil en électricité grâce à l’effet photovoltaïque, mais présentent souvent des inconvénients tels que des coûts élevés, une construction rigide et une intégration difficile dans les bâtiments ou les appareils. Le nouveau type de cellule solaire ultra-mince et flexible du MIT représente une étape-clé pour surmonter ces défis. La clé de la cellule solaire à couche mince du MIT réside dans les structures cristallines à l’échelle nanométrique, qui peuvent capter la lumière de manière plus efficace. Le résultat est un film en polymère plastique de seulement un micron d’épaisseur.
Cette nouvelle technologie de cellule solaire du MIT permet d’atteindre à la fois un rendement élevé et une polyvalence sans précédent en tirant parti de la puissance des nano-cristaux photoniques. Ces cellules pourraient atteindre une efficacité comparable à celle des panneaux rigides tout en ouvrant de nombreuses autres applications. Leur légèreté et leur flexibilité permettent en effet une intégration directe sur de multiples surfaces. Pour une installation solaire typique sur le toit d’environ 8 000 watts, ces cellules n’ajouteraient qu’environ 20 kg au toit d’une maison. Mais le plus surprenant, c’est la durabilité de ces cellules qui conservent encore plus de 90 % de leurs capacités initiales de production d’énergie après 500 pliages.
L’énergie solaire est une composante cruciale dans la lutte contre le changement climatique et il est capital de concevoir des panneaux solaires à la fois plus efficients, plus souples et moins onéreux. L’ajout d’une couche de minuscules cristaux aux panneaux solaires est un développement prometteur qui pourrait augmenter considérablement leur efficacité dans la conversion de la lumière du soleil en électricité. Selon une récente étude prospective de l’AIE, la production d’électricité solaire pourrait être multipliée par quinze d’ici 2050, pour dépasser les 22 000 TWH, soit la moitié de la production mondiale d’électricité prévue à cette échéance. Dans une telle perspective, on comprend mieux l’immense intérêt de ces nouvelles générations de cellules solaires minces, flexibles et bon marché qui pourraient permettre d’accélérer sensiblement la décarbonation du mix énergétique mondial.
La septième innovation concerne les systèmes géothermiques améliorés. L’énergie géothermique constitue une ressource propre et illimitée, mais elle reste sous-utilisée en raison de défis techniques à surmonter. Cependant, les progrès des techniques de forage permettent désormais d’exploiter plus profondément et plus efficacement la chaleur de la Terre, marquant ainsi un bond significatif dans la production d’énergie propre. Une centrale géothermique de nouvelle génération, développée conjointement par Google et Fervo Energy, a commencé à envoyer de l’électricité sans carbone au réseau du Nevada. Ce projet d’une puissance de de 5 mégawatts, appelé Project Red, fournit désormais de l’électricité directement à Las Vegas. Contrairement aux centrales géothermiques conventionnelles, qui exploitent la chaleur trouvée près de la surface de la terre, Fervo utilise des techniques de forage avancées pour accéder à des ressources plus profondes ou plus difficiles à atteindre que les sources chaudes ou les geysers.
Aux États-Unis, l’énergie géothermique ne fournit qu’environ 3 700 MW d’électricité, soit 0,5 % de la production totale d’électricité aux États-Unis. Mais, selon le département américain de l’Énergie, la géothermie pourrait fournir potentiellement 90 GW d’énergie ferme et flexible au réseau américain d’ici 2050, soit plus de 10 % de la consommation électrique américaine. Le projet de Fervo utilise des techniques de forage horizontal et des outils de détection à fibre optique issus de l’industrie pétrolière et gazière. Sur le site géothermique, deux puits atteignent 2,5 km de profondeur, puis se connectent à des conduits horizontaux. En juillet, Fervo a annoncé qu’elle avait réalisé avec succès un test de puits à grande échelle dans le Nevada, qui a confirmé la viabilité commerciale de sa technologie qui permet d’exploiter de la vapeur à 200 degrés. Pour augmenter la capacité géothermique des États-Unis, le gouvernement fédéral s’est fixé pour objectif de réduire le coût de l’électricité provenant des systèmes géothermiques améliorés à 45 dollars par mégawattheure d’ici 2035, soit une baisse de 90 % par rapport aux prix actuels.
La huitième innovation concerne les pompes à chaleur double flux, capables à la fois de chauffer et de refroidir bâtiments et habitations. Les pompes à chaleur actuelles reposent sur la compression et ont fait de gros progrès, avec l’arrivée de pompes à puissance variable et de réfrigérants à bas point d’ébullition. Mais demain, un nouveau type de pompe à chaleur pourrait révolutionner la production propre d’énergie : les pompes à chaleur électrocaloriques à semi-conducteurs. Ces pompes ne nécessitent aucun fluide frigorigène et promettent des rendements plus élevés, de l’ordre de 85 %, au lieu de 50 % pour les pompes à compression. La généralisation de ces pompes à chaleur de nouvelle génération, couplées aux énergies renouvelables, pourrait permettre à terme de diminuer de moitié, à niveau de chauffage ou de climatisation égal, la consommation des bâtiments qui représente 40 % de l’énergie utilisée dans le monde et 40 % des émissions humaines de CO2.
J’en arrive maintenant aux deux dernières innovations de ce classement 2024 du MIT, le premier traitement par édition génomique et les nouveaux médicaments amaigrissants. La technologie CRISPR vient de réaliser une avancée majeure, avec le premier traitement d’édition de gènes approuvé pour la drépanocytose. Si ce nouveau traitement a reçu cette autorisation de l'Agence de santé britannique, c’est parce que la drépanocytose est une maladie courante : elle concerne environ 30 000 personnes en France et 300 000 naissances chaque année à travers le monde. Une unique mutation génétique entraîne une déformation des globules rouges : au lieu d’être arrondis, ils prennent une forme de faux. En premier lieu, cela conduit à leur destruction et donc à une anémie. Par ailleurs, ces globules rouges, plus rigides, se déplacent moins bien dans les petits vaisseaux sanguins, et obstruent les organes, provoquant d’intenses douleurs.
Les seuls traitements disponibles consistent en des transfusions sanguines qui permettent de remplacer les cellules anormales, mais ce traitement n’est pas curatif et doit être renouvelé tous les 15 jours. Quant à la greffe de moelle osseuse, c’est une intervention lourde, qui nécessite d'avoir un donneur compatible. Ce nouveau traitement nommé Casgevy, développé par la société CRISPR Therapeutics, a été testé avec succès chez des patients atteints par cette maladie. Les résultats cliniques sont vraiment spectaculaires : la plupart des patients n'ont plus de crise douloureuse et n’ont plus besoin de recevoir des transfusions de globules rouges. Mais surtout, il n'aurait donc fallu que onze ans entre la découverte de cet outil, qui a valu le Nobel de chimie à Jennifer Doudna et Emmanuelle Charpentier, et la première thérapie opérationnelle utilisant CRISPR-CAS9.
Enfin, dixième et dernière innovation retenue par le MIT, les nouveaux médicaments amaigrissants, très prometteurs, comme le Mounjaro et le Wegovy, qui se sont révélés particulièrement efficaces, non seulement dans la gestion du poids, mais aussi dans la réduction potentielle des risques de crises cardiaques et d’accidents vasculaires cérébraux liés au surpoids. Ces nouvelles molécules, qui sont proches d’une hormone impliquée dans la régulation de l’appétit, le glucagon-like peptide 1 (GLP-1), appartiennent à une nouvelle classe de médicaments utilisés depuis quelques années contre le diabète de type 2. Ils ressemblent chimiquement à une hormone impliquée dans la régulation de l’appétit, le glucagon-like peptide 1 (GLP-1). Les essais cliniques ont monté que ces nouveaux médicaments sont d’une efficacité sans précédent et permettent de perdre jusqu’à 15 kg, après un an de traitement. Alors qu’on estime que deux milliards d'adultes (39 % de la population mondiale) sont à présent en surpoids, dont 650 millions sont obèses (13 % de la population mondiale), on voit à quel point cette nouvelle génération de médicaments constitue une vraie révolution thérapeutique et peut contribuer à surmonter ce défi sanitaire mondial que représente le surpoids et son cortège de pathologies associées.
Ces dix technologies retenues par le MIT sont appelées à révolutionner le secteur numérique, le domaine de l’énergie et du climat et les sciences médicales et biologiques. Il est frappant de constater que la majorité de ces innovations de rupture n’auraient pas été possibles si elles ne s’étaient pas appuyées sur des recherches théoriques et fondamentales souvent réalisées il y a plusieurs décennies. C’est pourquoi il est si important, si nous voulons continuer à réaliser des avancées majeures qui transformeront et amélioreront la vie des hommes, que nous sachions raisonner sur le temps long et investir dans des projets et programmes de recherche à très long terme, sans en attendre de profits immédiats. A cet égard, la révolution quantique en cours nous montre que les ruptures théoriques finissent toujours par se traduire par des progrès techniques décisifs…
René TRÉGOUËT
Sénateur honoraire
Fondateur du Groupe de Prospective du Sénat
e-mail : tregouet@gmail.com
|
|
|
|
|
|
|
|
TIC |
|
|
Information et Communication
|
|
|
|
|
|
|
|
|
Des chercheurs de l'université d'État de l'Indiana, aux États-Unis, ont créé un système appelé Brainoware qui relie des organes cérébraux - organoïde - à des circuits électroniques, permettant aux tissus cérébraux et aux circuits d'envoyer et de recevoir des signaux électriques. Les organoïdes sont de petits organes biologiques cultivés à partir de cellules souches. Ils sont utilisés dans la recherche médicale et devraient à terme remplacer les animaux de laboratoire. Dans cette étude, les organoïdes cérébraux ont une taille de quelques millimètres carrés et sont constitués d'environ 100 millions de cellules nerveuses.
Les chercheurs ont converti les informations qu'ils souhaitaient transmettre en signaux électriques et les ont envoyés aux organoïdes cérébraux, qui ont détecté et interprété les réponses à l'aide de capteurs et d'algorithmes d'apprentissage automatique. Ils ont converti 240 fichiers vocaux enregistrés par huit personnes en signaux électriques et les ont entraînés de manière non supervisée. Les organoïdes cérébraux ont affiché différents modèles de signaux neuronaux pour chaque voix. Au fur et à mesure de l'entraînement, la précision de la reconnaissance vocale de Brainoware a atteint 78 %.
Selon les chercheurs, Brainoware montre qu'il est possible d'intégrer des réseaux neuronaux biologiques et des réseaux neuronaux artificiels. Cela pourrait permettre de résoudre le problème des LLM actuels qui consomment beaucoup d'énergie. L'imitation de la capacité du cerveau à fonctionner efficacement avec moins d'énergie pourrait ainsi révolutionner la structure des ordinateurs actuels, où le stockage et le traitement de l'information sont séparés, ce qui crée des goulets d'étranglement et une consommation d'énergie élevée. Les chercheurs espèrent également que la recherche sur les organoïdes cérébraux améliorera notre compréhension du cerveau et permettra des avancées dans le traitement des maladies neurodégénératives telles que la maladie d'Alzheimer.
Cependant, il s'agit encore d'un POC. Le défi consiste encore à augmenter la durée de vie et la taille des organoïdes. Les organoïdes utilisés dans l'étude ont mis deux à trois mois à se développer, avec une durée de vie d'un à deux mois. Des organoïdes plus grands sont nécessaires pour effectuer des tâches plus complexes. Et pour la plupart des tâches, l'IA traditionnelle est encore bien plus performante et efficace. « Il reste encore beaucoup à faire pour relier les organoïdes à l'IA », a déclaré Peng Guo, professeur à l'Université d'État de l'Indiana, « Le prochain défi consistera à trouver des moyens de rendre les organoïdes cérébraux plus stables et de leur permettre d'accomplir des tâches plus complexes ».
Article rédigé par Georges Simmonds pour RT Flash
Nature
|
|
^ Haut |
|
|
|
|
|
|
|
Matière |
|
|
Matière et Energie
|
|
|
|
|
|
|
|
|
Des chercheurs de l’Université de Jena, dirigés par la chimiste Kalina Peneva, ont développé des colorants qui sont exempts de métaux, simples à produire et capables de transférer l’énergie lumineuse absorbée à un catalyseur pour produire de l’hydrogène. « Ces molécules de colorant, également appelées photosensibilisateurs, absorbent la lumière et convertissent son énergie en un état excité de longue durée à l’intérieur de la molécule », explique la chimiste. Elle compare ce processus à la fluorescence, comme on peut le voir dans les objets ou les vêtements qui brillent sous la lumière noire.
« Cependant, nos colorants ne libèrent pas l’énergie sous forme de lumière », précise-t-elle. « Au lieu de cela, nous utilisons cette énergie stockée en la transférant à un catalyseur spécifiquement adapté. Cela génère ensuite de l'hydrogène à partir de l’eau ». Les systèmes de catalyseurs qui génèrent de l’hydrogène avec la lumière du soleil sont développés et recherchés depuis de nombreuses années. Ce qui distingue les molécules de colorant de l’équipe de Kalina Peneva, c’est qu’elles fonctionnent sans l’ajout de métaux nobles. « Souvent, ces colorants impliquent du ruthénium ou de l’osmium – des métaux qui sont rares et coûteux. Et le catalyseur que nous utilisons, au lieu de métaux nobles coûteux comme le platine ou le palladium, utilise du cobalt beaucoup plus abordable », explique une nouvelle fois Kalina Peneva.
La production de ces colorants durables est également prometteuse : « Ce que nous avons développé est unique car il offre une méthode simple et efficace de synthèse de ces molécules, ce qui améliore considérablement la scalabilité du processus », précise la chimiste. « Nous formons le colorant par une simple réaction de condensation dite. Et comme le colorant précipite sous forme solide, nous pouvons facilement le séparer du mélange réactionnel par filtration », ajoute-t-elle. « Par conséquent, contrairement à de nombreuses autres approches de synthèse, il n’y a pas besoin d’étapes de purification coûteuses et compliquées pour le produit désiré ».
Article rédigé par Georges Simmonds pour RT Flash
Jena
|
|
|
|
|
|
|
|
Des chercheurs de l'Université de Nankai à Tianjin (Chine) ont créé un système de vêtements thermorégulateurs fonctionnant à l'énergie solaire. Ce nouveau dispositif est auto-alimenté à l’énergie solaire et capable de réagir rapidement aux fluctuations de température, en combinant une cellule solaire flexible avec un dispositif électrocalorique.
Ce nouveau dispositif pourrait garantir la sécurité et le confort du corps humain en cas de fluctuation des températures ambiantes. Mieux, il pourrait même accroître la capacité de survie de l’Homme dans des environnements extrêmes, comme les régions polaires et l'espace extra-atmosphérique. Dans cette étude, Ziyuan Wang et ses collègues présentent un système de vêtements thermorégulateurs fonctionnant à l'énergie solaire, qui sont capables de réagir rapidement à divers changements de température complexes ou rapides dans l'environnement. Les vêtements sont le moyen le plus courant pour les humains de réguler la température de leur corps au quotidien par rapport à leur environnement. Mais la capacité des vêtements à s'adapter aux changements rapides de température, notamment dans les environnements difficiles – comme les régions polaires, les déserts ou l'espace – où les températures peuvent rapidement fluctuer entre le très chaud et le très froid, reste un défi pour les approches actuelles en matière de vêtements thermorégulateurs.
Jusqu'à présent, les vêtements thermorégulateurs pouvaient être classés en deux catégories. D'une part, le type passif, qui comprend les systèmes de refroidissement radiatif, de changement de phase et d'adsorption (phénomène de fixation d'une substance sur une surface, à ne pas confondre avec l'absorption). Bien que ces vêtements aient l'avantage de ne pas nécessiter d'énergie externe, nombre d'entre eux n'assurent qu'une thermorégulation à sens unique, soit le réchauffement, soit le refroidissement. D'autre part, on trouve le type actif, qui permet un refroidissement ou un réchauffement rapide, grâce à des systèmes de thermorégulation active à semi-conducteurs. Toutefois, ces vêtements sont souvent gourmands en énergie et nécessitent des équipements mécaniques importants et complexes.
Mais d'après le chercheur Ziyuan Wang et ses collègues, leurs vêtements thermorégulateurs flexibles OPV-EC (baptisés “OETC”) peuvent à la fois refroidir la peau de 10,1 kelvins (K) par temps chaud et maintenir le corps à une température supérieure de 3,2 kelvins à celle de la peau nue dans l'obscurité ou pendant la nuit. Pour ce faire, leur système combine un module photovoltaïque organique (OPV) – pour acquérir directement l'énergie de la lumière du soleil – avec une unité électrocalorique (EC) bidirectionnelle – pour chauffer ou refroidir sous l'action d'un courant électrique – en un seul dispositif flexible, qui peut être intégré dans des vêtements conventionnels. Ce dispositif s'auto-alimente donc grâce à la lumière du soleil et ne nécessite aucune source d'énergie supplémentaire. Ainsi, ce dispositif intégré OETC maintient la température de la peau humaine dans une zone de confort thermique comprise entre 32,0°C et 36,0°C, et ce même si la température ambiante varie entre 12,5°C et 37,6°C. La faible consommation d'énergie et la grande efficacité du dispositif permettent une thermorégulation contrôlable et bi-mode pendant 24 heures avec 12 heures d'énergie solaire.
Article rédigé par Georges Simmonds pour RT Flash
Science
|
|
^ Haut |
|
|
|
|
|
|
|
Terre |
|
|
Sciences de la Terre, Environnement et Climat
|
|
|
|
|
|
|
|
|
Sous la direction de Karen Scrivener, responsable du Laboratoire des matériaux de construction de l'EPFL à la Faculté des sciences et techniques de l'ingénieur, une équipe de chercheurs s'est penchée sur les implications environnementales du béton, un matériau produit à raison de quatre tonnes par an et par personne sur terre. Le défi ? Le ciment, la « colle » du béton, représente 8 % des émissions mondiales. Et le clinker, composant clé du ciment, est extrêmement émetteur de carbone, représentant 90 % des émissions globales de ciment lors de la fabrication du béton. La solution ? LC3, abréviation de Limestone Calcined Clay Cement, ou ciment aux argiles calcinées et au calcaire. Le LC3 est une alternative qui offre aussi une durabilité améliorée et une réduction significative des émissions tout en restant rentable. Il est donc impératif de trouver une solution pour réduire les impacts du béton sur le climat tout en répondant aux besoins des économies en croissance.
Le LC3 s'attaque aux deux sources d'émissions de carbone liées à la fabrication du clinker. Tout d'abord, il remplace la moitié du clinker par de l'argile calcinée et de la roche calcaire moulue. L’argile ne libère pas de carbone lorsqu'elle est chauffée, contrairement au calcaire, et elle est chauffée à une température beaucoup plus basse, ce qui réduit la quantité de combustible nécessaire et les émissions qui en résultent. Avec des températures plus basses, il est également plus facile de passer à des sources d'énergie plus propres telles que l'électricité que de fabriquer du clinker. Le LC3 peut réduire les émissions de CO2 d'environ 40 % par rapport au ciment conventionnel en remplaçant la moitié du clinker.
Le LC3 est également fonctionnel. Il est moins perméable à l'eau et au sel, les routes et les ponts en béton sont donc plus durables avec une durée de vie plus longue, ce qui permet de réduire les coûts et les perturbations que cause leur remplacement. Comme sa fabrication nécessite moins d'énergie et qu'elle utilise de l'argile disponible partout, il peut être produit à un coût jusqu'à 25 % inférieur. Le LC3 connaît déjà une croissance rapide et est actuellement produit dans un certain nombre d'usines à travers le monde. Pour chaque tonne d'argile calcinée produite, nous économisons 600 kilogrammes de CO2. Fin 2023, environ 15 millions de tonnes de CO2 auront pu être économisés grâce au LC3. D'ici 2025, le LC3 devrait avoir permis d'économiser 45 millions de tonnes.
Si l'industrie du ciment adopte largement l'utilisation du LC3, elle peut contribuer à prévenir jusqu'à 500 millions de tonnes d'émissions de CO2 d'ici à 2030. De nombreux grands cimentiers sont en train d'adopter le ciment aux argiles calcinées et au calcaire. Holcim, par exemple, a annoncé en janvier 2023 qu’une usine en France va fournir jusqu'à 500 000 tonnes de ciment "bas carbone" par an. Argos Cementos, en Colombie, produit 2,3 millions de tonnes de ciment LC3 par an, lequel est déjà utilisé localement dans la construction de routes, de tunnels et de bâtiments.
En adoptant la technologie LC3 et en remplaçant une grande partie du clinker par des ressources locales, les pays africains et ceux du Sud peuvent créer des industries locales et en retirer des avantages sur les plans économique et de l’emploi. Le besoin d'importer du clinker avec des devises étrangères se fera de moins en moins sentir, et cela permettra de construire des logements et des infrastructures à moindre coût, tout en limitant les émissions de CO2.
Réduire la quantité de clinker dans le ciment réduit les émissions lors de la production du ciment, mais il existe de nombreuses autres stratégies si l'on considère l'ensemble de la chaîne de valeur du béton. En améliorant l'efficacité énergétique des usines et en utilisant des carburants alternatifs tels que les combustibles résiduaires, nous pouvons réduire davantage les émissions de CO2 liées à la production de clinker. En optimisant la granulométrie, on diminue les vides à remplir par la pâte de ciment, ce qui permet de réduire le coût du ciment et les émissions.
Nous pouvons également améliorer la conception et l'efficacité du béton utilisé dans les structures et les bâtiments. L’Association mondiale du ciment et du béton (GCCA) estime que cela pourrait permettre de réduire de 22 % le béton tout en diminuant les coûts. Enfin, adapter certains éléments de conception et augmenter l'efficacité et le recyclage des matériaux réduiront davantage l'impact du béton sur le climat. Si toutes ces stratégies sont combinées, nous pouvons réduire de 80 % les émissions du ciment et du béton grâce aux technologies actuelles.
Article rédigé par Georges Simmonds pour RT Flash
EPFL
|
|
^ Haut |
|
|
|
|
|
|
|
Vivant |
|
|
Santé, Médecine et Sciences du Vivant
|
|
|
|
|
|
|
|
|
En comparant des cerveaux humains et simiesques, une équipe du Centre de recherche sur le cerveau et les maladies du VIB-KU Leuven a identifié un gène qui s’exprime uniquement dans les neurones humains. Cette découverte du gène LRRC37B pourrait ainsi permettre, à terme, de mieux traiter certaines formes d’épilepsies ou d’autisme.
Les chercheurs de l’institut flamand pour les biotechnologies (VIB) se sont penchés sur les mécanismes moléculaires qui rendent les neurones du cortex cérébral – qui participe aux fonctions cognitives supérieures – moins excitables. Des neurones moins excitables pourraient en effet permettre le traitement d’informations plus complexes, expliquant ainsi la différence entre le cerveau humain et celui d’autres espèces.
Selon ce travail de recherche mené par Baptiste Libé-Philippot, Joris De Wit et Pierre Vanderhaeghen du VIB-KU Leuven, un gène jusqu’ici inconnu module l’excitabilité des neurones chez l’humain, une caractéristique a priori unique à notre espèce. « Cette découverte suggère que certains de nos neurones pourraient fonctionner différemment de ceux d’autres primates, même des chimpanzés, nos plus proches cousins », explique le professeur Vanderhaeghen.
Les chercheurs ont identifié une protéine réceptrice appelée LRRC37B qui interagit avec d’autres protéines pour moduler l’activité de courants électriques à la membrane des neurones. « Par exemple, cela pourrait nous permettre de traiter des informations plus complexes, comme le langage, avec une meilleure efficacité et une plus grande précision », précise le Docteur Libé-Philippot.
Cette découverte pourrait mener à une meilleure compréhension de certaines maladies. Les scientifiques belges ont ainsi découvert que la protéine LRRC37B interagit avec d’autres protéines impliquées dans des formes graves d’épilepsie et d’autisme. Cela pourrait favoriser le développement de « traitements novateurs pour certaines maladies neurologiques », se réjouit le Professeur Vanderhaghen.
Article rédigé par Georges Simmonds pour RT Flash
Flanders
|
|
|
|
|
|
|
|
Des chercheurs du MIT ont développé une pilule ingérable intelligente, nommée VM Pill, qui promet de surveiller en toute sécurité les signes vitaux tels que la respiration et la fréquence cardiaque à l’intérieur du corps. Ce dispositif innovant apparaît tout particulièrement prometteur pour la surveillance de patients "à risque" dont les personnes à risque de surdose d’opioïdes. C’est le premier essai clinique sur ce dispositif qui, selon l’auteur principal, Giovanni Traverso, professeur agrégé de génie mécanique de l’Université d’Ottawa, au Massachusetts Institute of Technology (MIT) et gastro-entérologue au Brigham and Women’s Hospital (BWH), « a vocation de diagnostiquer et surveiller de nombreuses affections sans avoir à se rendre à l’hôpital et donc à renforcer l’accès aux soins de santé ».
Ces dernières années, une multitude de dispositifs ingérables ont été proposés, en particulier pour détecter et traiter les MICI. Contrairement aux dispositifs implantables tels que les stimulateurs cardiaques, les dispositifs ingérables sont faciles à utiliser et ne nécessitent pas d’intervention chirurgicale. Des caméras ingérables de la taille d’une pilule permettent ainsi aujourd’hui d’effectuer des coloscopies. « Les patients n’ont aucun frein à prendre des pilules, et les coûts liés à l’utilisation de dispositifs ingérables sont bien plus abordables que ceux liés aux procédures médicales traditionnelles ».
Le dispositif peut ainsi détecter depuis l’intérieur du tube digestif si la personne arrête de respirer. L’étude a consisté à placer le dispositif dans l’estomac de gros animaux modèles, qui ont été anesthésiés. Les chercheurs ont ensuite administré aux modèles une forte dose de fentanyl qui a provoqué l’arrêt de leur respiration. Le dispositif a démontré sa capacité à suivre la fréquence respiratoire du modèle en temps réel et a alerté les chercheurs, qui ont pu inverser l’overdose. Testée chez l’Homme pour la première fois, à 10 patients souffrant d’apnée du sommeil, la pilule VM s’est révélée capable de surveiller leurs signes vitaux pendant leur sommeil. Il se trouve, rappellent les auteurs, que l’apnée du sommeil entraîne en grande partie les mêmes symptômes que la dépression respiratoire induite par les opioïdes.
Ce dispositif détecte l’arrêt de la respiration avec une précision de 92,7 % ; à l’instar des dispositifs externes de surveillance standards des fonctions vitales, la pilule permet de surveiller la fréquence cardiaque avec une précision d’au moins 96 % ; enfin, la VM Pill confirme sa sécurité et tous les participants ont excrété le dispositif quelques jours après l’expérience. « La précision des enregistrements se confirme comme excellente. Cette nouvelle possibilité de surveiller à distance les signaux vitaux critiques des patients, sans fils et sans recours à des techniciens ouvre la porte à une surveillance élargie, accessible à tous et en environnement naturel plutôt qu’en clinique ou en milieu hospitalier ».
Article rédigé par Georges Simmonds pour RT Flash
Science Direct
|
|
|
|
|
|
|
|
Des chercheurs de l’Université du Nouveau-Mexique (Etats-Unis) travaillent sur un vaccin thérapeutique susceptible de traiter le "mauvais cholestérol", ou LDL, qui augment les risques de nombreuses pathologies cardiovasculaires. Concrètement, il s’agit d'un nouveau traitement qui cible spécifiquement la protéine PCSK9, une enzyme fabriquée dans le foie qui circule dans le sang et participe à la régulation du métabolisme du cholestérol LDL. « Plus notre corps produit de PCSK9, plus notre taux de cholestérol LDL sera élevé », peut-on lire dans un communiqué. Il existe déjà des injections bimensuelles permettant de bloquer cette protéine à 60 %, mais elles sont souvent très coûteuses et nécessitent l’autorisation préalable d’un médecin de premier recours ou d’un cardiologue.
En utilisant une technologie de plate-forme vaccinale, les chercheurs ont créé un nouveau vaccin « basé sur une particule virale non infectieuse », explique le professeur Bryce Chackerian, auteur principal de la recherche. « C'est juste la coquille d'un virus, et il s'avère que nous pouvons utiliser cette coquille de virus pour développer des vaccins contre toutes sortes de choses différentes ».
Grâce au traitement expérimental, « le système immunitaire produit une très forte réponse en anticorps contre cette protéine », poursuit le chercheur. Au cours des dix dernières années, le vaccin a été testé sur des souris et des singes avec des résultats prometteurs. « Chez les animaux que nous avons vaccinés, nous avons constaté une forte réduction du taux de cholestérol – jusqu’à 30 %. Réduction qui va être corrélée à une diminution du risque de taux de maladie cardiaque ». Prochaine étape : les essais cliniques sur l’Homme. Le Professeur Chackerian espère aboutir à un vaccin sûr et prêt à l’emploi « dans les dix prochaines années ».
Article rédigé par Georges Simmonds pour RT Flash
Nature
|
|
|
|
|
|
|
|
Lorsqu'on avance en âge, notre cerveau perd naturellement du volume par rapport à sa taille optimale d’origine. C’est comme ça, on ne peut pas y échapper. Mais certains modes de vie, a fortiori évitables, peuvent aggraver le processus et intensifier le rétrécissement de notre matière grise. C’est notamment le cas du tabagisme, provoquant ainsi un vieillissement prématuré du cerveau et augmentant le risque de déclin cognitif lié à l’âge et de maladie d’Alzheimer,
« Jusqu’à récemment, les scientifiques ont négligé les effets du tabagisme sur le cerveau, en partie parce qu’ils se sont concentrés sur tous ses ravages sur les poumons et le cœur », explique la psychiatre Laura J. Bierut, autrice principale de l’étude. On sait depuis longtemps qu’il existe un lien entre consommation de tabac et petite taille du cerveau, mais les raisons de cette association restent floues.Pour démêler le vrai du faux, les chercheurs de l’Université Washington (St-Louis-Etats-Unis) ont analysé les données de quelque 40.000 adultes volontaires issues de la UK Biobank, il s'agissait de leurs imageries de volume cérébral, leurs antécédents de tabagisme et leur risque génétique de tabagisme, le comportement tabagique étant pour moitié héréditaire.
Résultat, chaque paire de données s’est avérée liée : les antécédents de tabagisme et le volume du cerveau, le risque génétique de tabagisme et les antécédents de tabagisme, et enfin le risque génétique de tabagisme et le volume du cerveau. Fait notable, l'association entre le tabagisme et le volume cérébral dépendait de la dose : plus une personne fumait de cigarettes par jour, plus son cerveau était petit.
Article rédigé par Georges Simmonds pour RT Flash
Science Direct
|
|
|
|
|
|
|
|
Au Québec, l’équipe de recherche du Laboratoire de sources femtosecondes de l’INRS a réussi à montrer que dans certaines conditions, un faisceau laser fortement focalisé dans l’air ambiant permet d’accélérer des électrons à des énergies qui soit du même ordre de grandeur qu’en radiothérapie pour le cancer. A la lumière de récents travaux dirigés par François Légaré, professeur et directeur du Centre Énergie Matériaux Télécommunications, l’équipe à démontré que les énergies des électrons accélérés dans l’air ambiant pouvaient atteindre l’ordre du "MeV" (mégaélectronvolts), soit environ 1000 fois plus que cette limite auparavant infranchissable.
Ces travaux sont le fruit d’une collaboration avec des physiciens médicaux du Centre universitaire de santé McGill. L’étude remet en question des connaissances qui prévalaient jusqu’alors dans la communauté scientifique. Jusqu’à tout récemment, il n’était pas possible d’atteindre des énergies plus hautes dans l’air ambiant. La percée réalisée par l’équipe du Centre EMT de l’INRS ouvre la porte à des avancées en physique médicale.
Un exemple est la radiothérapie FLASH, une nouvelle approche dans le traitement de tumeurs résistantes à la radiothérapie conventionnelle. Cette technique consiste à délivrer de fortes doses de radiation en quelques microsecondes plutôt que quelques minutes. Elle a pour effet de mieux protéger les tissus sains qui entourent la tumeur. Les sources d’électrons utilisées en radiothérapie FLASH ont des caractéristiques similaires à celle produite en focalisant fortement dans l’air avec le laser de l’équipe. Une fois les effets de radiation mieux contrôlés, la poursuite des recherches permettra d’investiguer ce qui cause ce phénomène et, ultimement, d’offrir de meilleurs traitements de radiothérapie aux patients atteints de cancer.
Article rédigé par Georges Simmonds pour RT Flash
Courrier Laval
|
|
|
|
|
|
|
|
La maladie de Parkinson est la deuxième maladie neurodégénérative la plus répandue après la maladie d’Alzheimer, touchant des millions de personnes dans le monde. Les traitements actuels visent à gérer les symptômes à différentes étapes de la maladie, mais aucun ne permet de la guérir complètement. C’est pourquoi les chercheurs étudient de nouvelles approches pour améliorer la prise en charge de cette maladie.
Au cours des dernières années, les scientifiques se sont intéressés à la nicotinamide adénine dinucléotide (NAD+), une molécule essentielle pour la production d’énergie dans le corps. Des recherches antérieures ont suggéré que les personnes atteintes de la maladie de Parkinson pourraient présenter une carence en NAD+ et que l’augmentation de ses niveaux pourrait avoir un effet positif. C’est dans cette optique qu’une étude clinique de phase 1 a été menée par des chercheurs norvégiens de l'Université de Bergen pour évaluer l’effet de la supplémentation en nicotinamide riboside (NR), une source de vitamine B3 et un précurseur de la NAD+, chez les patients atteints de la maladie de Parkinson.
L’étude clinique a été réalisée auprès de 20 participants atteints de la maladie de Parkinson. Les participants ont reçu soit 3 000 milligrammes de NR sous forme de complément alimentaire, soit un placebo, chaque jour pendant 4 semaines consécutives. À la fin de la période d’essai, les participants ont été évalués en fonction de mesures cliniques et moléculaires, d’un électrocardiogramme et de la gravité des symptômes de la maladie de Parkinson grâce à l’échelle d’évaluation MDS-UPDRS.
Les chercheurs ont constaté que la supplémentation en NR augmentait significativement les niveaux de NAD+ et modifiait le métabolisme de la NAD+ dans le sang, par rapport aux participants ayant reçu le placebo. De plus, la supplémentation en NR a été jugée sûre et bien tolérée par les participants à l’étude, et elle était associée à une amélioration significative des symptômes cliniques de la maladie de Parkinson, mesurée par l’échelle MDS-UPDRS. Ces résultats suggèrent que l’augmentation des niveaux de NAD+ pourrait avoir un effet anti-Parkinsonien sur les symptômes.
Des études à plus grande échelle et de plus longue durée seront nécessaires pour confirmer ces résultats et évaluer l’efficacité de la supplémentation en vitamine B3 dans le traitement de la maladie de Parkinson. Les chercheurs sont également conscients de l’importance d’explorer des doses plus élevées de NR pour exploiter pleinement son potentiel thérapeutique. Une étude de phase 2/3, appelée NO-PARK, est déjà en cours et vise à évaluer les effets de la supplémentation en NR sur 400 personnes atteintes de la maladie de Parkinson. Les résultats de cette étude sont attendus d’ici la fin de l’année 2024 et pourraient fournir des informations plus précises sur l’efficacité de la vitamine B3 dans le traitement de cette maladie.
Article rédigé par Georges Simmonds pour RT Flash
Nature
|
|
|
|
|
|
|
|
Le séquençage métagénomique de nouvelle génération (mNGS – Metagenomic next-generation sequencing) permet de détecter des agents pathogènes non reconnus par les méthodes microbiologiques conventionnelles, y compris ceux qui sont rares ou nouveaux. Si sa validité diagnostique est bien établie, on ne dispose pourtant pas d’étude identifiant les patients les plus susceptibles d’en bénéficier. La question est d’autant plus importante qu’il s’agit d’une technologie innovante coûteuse.
Formée de scientifiques de l’hôpital Necker-Enfants malades AP-HP, de l’Institut Pasteur, de l’Université Paris Cité, de l’Inserm (Institut national de la santé et de la recherche médicale), de l’université Paris-Est Créteil et de l’École nationale vétérinaire d’Alfort, une équipe a mené un travail (publié dans le Lancet Microbe) pour apporter des éléments de réponse.
Elle a analysé 742 échantillons biologiques prélevés sur 523 patients entre le 20 octobre 2019 et le 7 novembre 2022. Le recrutement a eu lieu dans les hôpitaux de l’AP-HP (Assistance Publique-Hôpitaux de Paris) et dans des centres de soins en métropole et en outre-mer. Leurs praticiens décidaient de recourir ou non à l’analyse mNGS qui leur était proposée et aucune restriction n’était formulée sur la nature des échantillons ni sur le type de patient inclus : les praticiens décidaient de l’opportunité du type de prélèvement et du type de patient.
Chaque médecin prescripteur devait remplir un formulaire indiquant notamment la plus ou moins forte présomption d’infection. Les dossiers “échantillon/patient” ont ensuite été divisés en deux groupes : à suspicion forte d’infection (63 % des dossiers) ou faible (37 %). L’analyse mNGS a permis d’établir un diagnostic étiologique dans 25 % des cas où une infection était fortement suspectée (117 échantillons sur 470) et à confirmer l’absence d’infection dans 97 % des cas (263 échantillons sur 272) où cette absence était présumée.
Elle avait plus de chances de détecter un pathogène causal ou possiblement causal de l’infection quand le choix de prélever l’échantillon portait sur le tissu cérébral plutôt que le liquide céphalo-rachidien et quand les patients étaient atteints d’un syndrome d’immunodéficience. Les résultats de l'analyse étaient concordants avec ceux des techniques classiques dans 103 cas sur 106 quand elle détectait des pathogènes.
Sur les 231 échantillons analysés à la fois par les techniques classiques et par l’analyse mNGS, des résultats discordants ont été trouvés dans 69 d’entre eux (30 %), dont 58 (84 %) étaient positifs à l’analyse mNGS et négatifs aux techniques classiques et 11 (16%) étaient négatifs à l’analyse mNGS et positifs aux autres tests. Enfin, l'étude a montré que l’analyse mNGS était utile pour rechercher des agents pathogènes dans les selles, non seulement en cas de troubles digestifs, mais aussi d’hépatites et de plusieurs manifestations neurologiques.
Article rédigé par Georges Simmonds pour RT Flash
The Lancet
|
|
|
|
|
|
|
|
Des chercheurs de l'Université de Toronto ont découvert que certains gènes s'expriment différemment chez l'homme par rapport à nos cousins primates tels que les chimpanzés et les gorilles. Cette découverte pourrait éclairer les mystères de nos capacités cognitives, telles que la réflexion complexe et le langage. Pour arriver à ces résultats, les chercheurs ont analysé les cerveaux de différents primates en se concentrant sur la manière dont les gènes y sont exprimés. Ils ont utilisé une méthode récente d'analyse des cellules uniques, permettant une étude plus précise du séquençage génétique.
L'équipe a identifié 139 gènes présents chez tous les primates, mais qui, chez les humains, montrent une divergence significative. Cela signifie que ces gènes chez l'homme ont évolué différemment, leur permettant de supporter des mutations sans altérer leur fonction. Cette flexibilité pourrait être la clé de l'évolution rapide de notre cerveau. Cette recherche suggère que la manière unique dont ces gènes fonctionnent chez les humains pourrait être à l'origine de notre intelligence avancée. De plus, certains de ces gènes sont liés à des troubles du cerveau, ce qui souligne l'importance de cette étude pour comprendre certaines maladies. Les chercheurs ont également découvert que ces gènes particuliers sont actifs dans différentes cellules du cerveau, y compris les neurones (cellules nerveuses) et les cellules gliales (qui supportent et protègent les neurones). Ces découvertes offrent de nouvelles perspectives sur l'évolution et la structure du cerveau humain.
Article rédigé par Georges Simmonds pour RT Flash
University of Toronto
|
|
|
|
|
|
|
|
Tous les virus dits à ARN, comme SARS-CoV-2, stockent leur information génétique dans un simple brin d’Acide RiboNucléique (ARN), enchaînement des 4 bases adénosine (A), cytosine (C), guanine (G) et uracyl (U). Le virus détourne la machinerie de la cellule infectée pour copier cet ARN, se dupliquer et infecter d’autres cellules ainsi que produire les protéines nécessaires à son fonctionnement. Bien que plus simple que celui des cellules eucaryotes, ou même des bactéries, le génome des virus à ARN se replie sur lui-même et s’organise dans l’espace pour présenter une grande diversité de motifs structuraux. Parmi ces arrangements, les structures dites à quadruplexe de guanine, caractérisées par l’empilement successifs de feuillets composés de quatre guanines, ont récemment fait l’objet de plusieurs études car elles semblent jouer un rôle très important dans la régulation de la réplication virale.
Des scientifiques du laboratoire ITODYS (CNRS/Université Paris Cité) et du Laboratoire physique et chimie théoriques (CNRS/Université de Lorraine), en collaboration avec une équipe italienne, ont récemment révélé la structure particulière du quadruplexe de guanine présent dans la région dite RG2 du génome de SARS-CoV-2. Ils ont pour cela combiné des techniques spectroscopiques comme le dichroïsme circulaire à des simulations moléculaires. Ils ont ainsi pu montrer que cette région est composée d’un cœur rigide, qui correspond aux empilements de guanines, flanqué de boucles très flexibles.
Mais ils ont surtout mis en évidence qu’il est possible de figer cette structure complexe en la faisant interagir avec des ligands opportuns. Cette stratégie permettrait d’empêcher le dépliement de cette zone de l’ARN, nécessaire à sa réplication. Ce dernier aspect est crucial car la zone RG2 détient l’information nécessaire à la production d’une protéine virale fondamentale (Nsp10) impliquée dans la maturation du virus et la propagation de l’infection. Bloquer la zone RG2 dans cette structure de quadruplexe de guanine empêcherait la synthèse de cette protéine et pourrait donc être utilisée comme une stratégie antivirale.
Ces travaux permettent d’envisager des nouvelles pistes thérapeutiques ciblant les virus à ARN, qui sont parmi les agents infectieux les plus dangereux pour la santé publique. Ils s’inscrivent dans le cadre du projet d’envergure nationale GAVO qui vise à développer des antiviraux innovants et ont bénéficié d’une utilisation massive des ressources de calculs nationales et locales, notamment via l’accès aux ressources du Grand équipement national de calcul intensif GENCI.
Article rédigé par Georges Simmonds pour RT Flash
CNRS
|
|
^ Haut |
|
|
|
|
|
|
|
Homme |
|
|
Anthropologie et Sciences de l'Homme
|
|
|
|
|
|
|
|
|
Près d’Angers, une jeune start-up s’est donné pour objectif de transformer les déchets jusqu’ici non recyclables en cailloux, pour être ensuite utilisés comme matériau de construction. Néolithe, c’est son nom, vient d’annoncer une nouvelle levée de fonds de 60 millions d’euros pour accélérer « l’alternative de grande ampleur » qu’elle est en passe de proposer. « Aujourd’hui, les déchets que l’on ne valorise pas sont soit enfouis soit incinérés, c’est une catastrophe sur le plan environnemental », explique Quentin Laurens, directeur des affaires publiques. « Notre objectif, c’est de proposer une troisième voie : celle de la fossilisation accélérée ». En gros, reproduire le cycle naturel de formation de la roche mais beaucoup plus rapidement que ce qui a pu se passer il y a des millions d’années.
C’est William Cruaud, ancien tailleur de pierre de tuffeau, qui a eu cette révélation, se lançant en 2019 dans cette prometteuse aventure entrepreneuriale avec son fils ingénieur, Nicolas, et un troisième associé. Concrètement, ils se sont penchés sur les déchets industriels non inertes et non dangereux pour les broyer en une poudre très fine, puis les transformer en une pâte minérale grâce à un « liant naturel » dont la recette est secrètement gardée. En moins d’une heure se forme un caillou de la forme et de la taille souhaitée, qui peut être comparé à de la pierre naturelle après deux ou trois mois. « Tout est protégé, breveté », indique Quentin Laurens. « Nous sommes les seuls au monde à proposer ce process qui a une empreinte carbone négative, car la fossilisation des déchets séquestre plus de CO2 qu’elle n’en émet ».
En trois ans, l’idée a déjà fait du chemin. Une première usine pré-industrielle a poussé à Chalonnes-sur-Loire, avec une capacité de traitement de 10.000 tonnes de déchets industriels par an. Et les demandes des entreprises de travaux sont bien là, avec plusieurs dalles ou cheminements piétons déjà réalisés avec ce nouveau matériau écolo, appelé anthropocite. « Il a des propriétés mécaniques très bonnes. On peut aujourd’hui en intégrer 20 % en remplacement du granulat classique dans du béton de propreté, ce qui est déjà pas mal ». Des études sont en cours pour passer au béton structurel, mais aussi pour pouvoir en faire des sous-couches routières, aux exigences fortes en matière de résistance et de tolérance environnementale. Un marché porteur alors que 450 millions de tonnes de granulats sont consommées chaque année et que l’activité des carrières de roche fait parfois débat.
Néolithe, qui compte déjà 200 salariés, compte construire une première usine dans les Pays-de-la-Loire d’ici à 2025, avec cette fois une capacité de traitement de 100.000 tonnes de déchets par an. Un équipement qui serait dupliqué partout en France avec une autre ambition, celle de pouvoir aussi valoriser les ordures ménagères de la poubelle noire (hors matière organique, qui a de toute façon vocation à être elle aussi triée). A terme, Néolithe assure pouvoir « diminuer l’empreinte carbone du pays de 7 % » et ce, alors que le secteur du bâtiment représente actuellement 43 % des consommations énergétiques annuelles françaises et génère 23 % des émissions de gaz à effet de serre.
Article rédigé par Georges Simmonds pour RT Flash
20 minutes
|
|
^ Haut |
|
|
|
|
|
|
|
Recherche |
|
|
Recherche & Innovation, Technologies, Transports
|
|
|
|
|
|
|
|
|
Pour passer de zéro km/h et atteindre plus de Mach 5, il faudrait combiner un turboréacteur, un statoréacteur et un superstatoréacteur (scramjet). C'est ce dernier qui permet de se maintenir à une vitesse hypersonique, mais ce type de motorisation ne peut fonctionner qu'à partir du moment où le flux d'air qu'il reçoit est supersonique, c'est-à-dire autour de vitesses supérieures à Mach 3. Créer un moteur combinant plusieurs technologies de propulsion, c'est ce que GE Aerospace est parvenu à réaliser. Le motoriste a mixé à la fois un turbomoteur, un moteur à détonation rotative, un statoréacteur et enfin un scramjet ! L'ensemble pourrait donc permettre d'aller en théorie de 0 à plus de Mach 10. Et il ne s'agit justement pas que de théorie, puisque GE Aerospace a annoncé avoir réalisé le premier essai au monde de ce type de moteur combiné. Pour pousser la propulsion jusqu'à Mach 3, le motoriste a choisi une solution à combustion à détonation rotative (RDC).
Avec la technologie RDC, au lieu de brûler du carburant pour obtenir la propulsion, l'air et le carburant sont mélangés et enflammés pour produire des explosions contrôlées à l'intérieur de tubes. Ce procédé crée une onde de choc supersonique qui pulse continuellement et génère une poussée. Avec ce système, la combustion de carburant se déroule à volume quasi constant, ce qui le rend très économe en énergie. De fait, l'autonomie augmente considérablement. Ce premier niveau de motorisation permet d'assurer le décollage jusqu'au moment d'atteindre la vitesse hypersonique. Ensuite, c'est un scramjet qui va prendre la relève, puisque ce type d'engin nécessite au moins une vitesse supersonique pour pouvoir démarrer. GE Aerospace explique qu'avec une motorisation conventionnelle, seul un tiers de la poussée aurait été assuré pour la même consommation de carburant. Avec son moteur, les économies seraient de 5 à 20 % selon le motoriste.
Au final, le RDC permet de générer une poussée plus élevée de manière plus efficace, pour une taille et un poids de moteur globalement plus petits, en brûlant le carburant par des ondes de détonation au lieu d'un système de combustion standard qui alimente les moteurs à réaction traditionnels d'aujourd'hui. L'équipe est sur la bonne voie pour atteindre son objectif, à savoir faire la démonstration d'une DMRJ complète avec RDC à l'échelle l'année prochaine.
Article rédigé par Georges Simmonds pour RT Flash
GE Aerospace
|
|
^ Haut |
|
|
|
|
|
VOTRE INSCRIPTION |
|
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
|
|
|
|
|
|