|
|
Edito
ENERGIE : Comment la France pourrait atteindre son indépendance énergétique avec l' « Hydrogène Blanc »
Le 7 juin dernier, un rapport de RTE -Réseau d’Electricité de France-, gestionnaire du réseau électrique, est venu jeter un sérieux pavé dans la mare déjà bien agitée de notre futur paysage énergétique national. Dans cette étude instructive, on peut lire que notre pays risque fort de connaître d'ici 2035 une reprise à la hausse de la consommation électrique bien plus forte que prévue. RTE prévoit en effet que, sous l'effet conjugué de plusieurs facteurs, nouvel objectif européen de réduction à 55 % des émissions de CO2 dès 2035, sortie accélérée de la consommation gazière (à l’exception du biogaz produit localement) et forte accélération de l'électrification de l’économie et des transports (16 millions de véhicules électriques consommant environ 28 TWh par an sont prévus en 2050), notre consommation nationale pourrait bien passer de 470 TWh en 2022... à 640 TWh en 2035 (+ 39 % sur seulement 11 ans), dans l'hypothèse haute, incluant notamment les effets d'une forte réindustrialisation de notre pays (Voir Rapport RTE).
De manière lucide, ce rapport souligne que la France doit faire reposer sa transition énergétique sur quatre piliers : « l’efficacité, la sobriété, la disponibilité maximale du parc nucléaire installé, et l'augmentation considérable de la production d’électricité renouvelable. L'équation est, il est vrai, relativement simple et implacable : Si les besoins en électricité atteignent les 640 TWh en 2035, et sachant que le nucléaire et l'hydroélectricité ne pourront fournir, au mieux, que 422 TWH par an en 2035 (350 TWh pour le nucléaire et 72 TWh pour l'hydroélectricité), il manquera encore 218 TWh par an (un tiers de la consommation totale d'électricité prévue en 2035) pour boucler notre budget énergétique. Cela veut dire qu'il va falloir multiplier par quatre en 11 ans la production totale d'électricité renouvelable et décarbonée, issue de l'éolien (terrestre et marin), du solaire photovoltaïque et, de manière plus marginale, des énergies marines, ce qui représente un défi économique, industriel et technologique majeur, mais pourtant pas insurmontable.
Reste que cette accélération nécessaire de notre transition énergétique, combinée à l'augmentation plus forte que prévue de notre consommation électrique nationale, à une montée en charge des futures centrales EPR qui sera, par nature, lente et étalée dans le temps et à une sortie anticipée des sources fossiles (gaz notamment), pour produire notre électricité, représente un défi de première ampleur pour notre économie et notre société. Il est en effet assez facile de calculer que l'accélération bienvenue des énergies renouvelables, décidée il y a quelques mois par l’État, permettra au mieux de disposer d'environ 110 TWH propres supplémentaires en 2035, essentiellement grâce à l’extraordinaire essor attendu de l'éolien marin qui devrait à lui seul, dégager 65 TWH supplémentaires d'ici 2035. Cet effort pourtant très important ne comblera donc que la moitié du déficit énergétique et il restera au moins 108 TWh (l’équivalent d'un tiers de la production électronucléaire actuelle) par an à trouver d'ici 13 ans pour boucler en toute sécurité et toute indépendance notre budget énergétique.
Pourtant, si nous élargissons notre vision des sources d'énergies disponibles et potentiellement exploitables de manière à la fois rentables et durables, nous pouvons être raisonnablement optimistes car, bien que nous n'en ayons pas encore pleinement conscience, de nouvelles sources d'énergies propres et récupérables sont disponibles en grande quantité dans notre pays.
C'est par exemple le cas d'une nouvelle forme d'exploitation de l'énergie issue du courant des rivières. Dans quelques semaines, un nouveau type d'hydrolienne ondulante, inspirée de la nature et de la propulsion de certains poissons très rapides, sera expérimentée sur le Rhône, à hauteur de la commune de Caluire, entre le Parc de Saint Clair (Caluire et Cuire) et le Parc de la Feyssine (Villeurbanne). A terme, trois autres hydroliennes similaires seront également installées sur cette partie du Rhône. Ces quatre machines devraient être en mesure de produire environ 400 MWh par an l’électricité verte par ondulation, de quoi satisfaire la consommation de 1000 foyers. Par extrapolation, on estime qu’un parc de mille hydroliennes de ce type pourrait produire environ 12 TWH par an, de quoi fournir de l’électricité à 3 millions de personnes sans dommage pour la faune et la flore aquatique.
Une autre source constante et inépuisable d'énergie propre est en passe d'être exploitée à l'échelle industrielle, l'énergie osmotique, qui repose sur la différence de concentration en sel entre l'eau douce et l'eau salée pour produire de l'électricité. La CNR a annoncé qu'une première centrale pilote d'électricité dite osmotique sera implantée avant la fin de l'année dans le delta du Rhône, au niveau de l'écluse de Barcarin, à Port-Saint-Louis-du-Rhône, dans le sud de la France.
Cette forme d'énergie est connue depuis des décennies mais n'a jamais pu être exploitée à grande échelle, faute de solutions techniques fiables et abordables. Mais Sweetch Energy, une start-up bretonne, a développé un nouveau type de membrane biosourcée qui permet de multiplier par 20 la production d'énergie osmotique, tout en divisant par 10 les coûts d'exploitation. La CNR, qui espère produire à terme 4 TWH par an grâce à cette centrale osmotique révolutionnaire, soit deux fois la consommation annuelle d'une ville comme Marseille, estime que le potentiel osmotique du Rhône représente le tiers du potentiel français, estimé à environ 12 TWH par an
Une autre filière énergétique prometteuse pourrait contribuer, elle aussi, à développer encore plus vite la part des énergies propres dans notre mix énergétique, le solaire flottant. Le parc solaire photovoltaïque flottant conçu par la filiale française du groupe britannique RES (Renewable Energy Systems), la plus grande entreprise indépendante d'énergies renouvelables au monde, sera situé à Perthes, en Haute-Marne, sur un site d'anciennes gravières de 127 hectares. Il sera constitué de près de 120 000 modules photovoltaïques fixés sur des flotteurs, ce qui en fera la plus grande centrale flottante de France autorisée à ce jour. Cette centrale, qui sera raccordée au réseau d'ici la fin de l'année, pourra produire environ 70 millions de KWh par an, de quoi satisfaire les besoins en électricité (chauffage compris) de 14 000 foyers chaque année. Au total, on estime que notre pays dispose d'un potentiel minimum de 12 TWh par an de solaire flottant, en utilisant uniquement les plans d'eau artificiels.
L'agrivoltaïsme, également en plein essor dans notre pays, pourrait également contribuer de manière importante à décarboner plus vitre notre électricité : il suffirait que 5 % des superficies dévolues à la vigne et aux fruits en France (soit 500 km2 environ) soient équipées en systèmes agrivoltaïques, pour produire environ 25 TWh par an, tout en améliorant la productivité agricole grâce au contrôle de luminosité de ces panneaux suspendus et orientables, qui permettent le travail mécanisé en toute sécurité et ont un faible impact esthétique sur les paysages. Le parc hydroélectrique assure aujourd'hui 12 % de la production d'électricité du pays. En moyenne, ces installations produisent 60 térawattheures (TWh) par an, soit la consommation électrique de 27 millions de Français. Selon le Syndicat de France Hydro Electricité, qui rassemble les exploitants des 720 installations en service, le potentiel de développement de l'hydroélectricité en France doit être revu à la hausse pour atteindre environ 12 TWh, ce qui représentera 20 % de plus qu’actuellement, grâce à la modernisation des installations existantes et au développement de nouveaux ouvrages. Ce potentiel inexploité représente l'équivalent de la consommation de 2,5 millions de foyers (chauffage compris), ou encore la production annuelle d'un gros EPR, comme celui de Flamanville.
On le voit, l'ensemble de ces nouvelles sources d'énergies renouvelables représentent un potentiel exploitable économiquement d'au moins 70 TWH par an, en restant très prudent. Dans cette hypothèse, il ne resterait donc plus d’une quarantaine de TWH à trouver (sur les 108 TWh propres qui nous manquent pour 2035) pour boucler enfin notre nouveau plan énergétique décarboné et respectueux de l'environnement. Et c'est là que deux formidables découvertes récentes, confirmées par des institutions scientifiques reconnues de notre pays, risquent de bouleverser la donne énergétique de la France. Il y a quelques semaines, le CNRS et l'Université de Lorraine ont confirmé, après 5 ans de recherches, dans le cadre du projet REGALOR, la présence inattendue d'un gisement colossal d'hydrogène naturel, ou hydrogène “blanc”, dans le sous-sol national, en Lorraine, sur le site de Folschviller. Selon ces chercheurs, ce gisement pourrait contenir environ 46 millions de tonnes d’hydrogène naturel, soit l'équivalent d’environ la moitié de la production mondiale d’hydrogène actuelle, de l'ordre de 100 millions de tonnes par an.
Initialement prévus pour rechercher du méthane, ces forages ont constaté que le sous-sol contenait non seulement le méthane attendu, mais aussi, et à la grande surprise des chercheurs, des quantités tout à fait considérables d’hydrogène, dont la teneur augmente avec la profondeur : 6 % environ à 800 mètres de profondeur, 15 % à 1100 mètres, et probablement 90 % à 3000 mètres, ce qui correspond à seulement la moitié de la profondeur de cet énorme gisement de 6000 mètres de profondeur. Un autre gisement, également très important d'hydrogène blanc, a également été découvert dans les Pyrénées, entre Béarn et Soule. Dans cette région, des études menées à Sauveterre-de-Béarn sur la faille majeure frontale nord pyrénéenne démontrent que les concentrations d’hydrogène les plus élevées émises au niveau de cette faille proviennent d’un massif de péridotite, la roche mère, à dix kilomètres de profondeur. Une demande de permis de cinq ans de recherche d’hydrogène natif, dans la région située autour de Sauveterre-de-Béarn, entre le Béarn et le Pays Basque, a été récemment accordée à l’entreprise TBH2 Aquitaine, basée à Pau, qui envisage une possible exploitation d’hydrogène natif du sous-sol du bassin de Mauléon.
La présence avérée, et en grande quantité, de cet hydrogène "blanc" dans le sous-sol de notre pays est une découverte d'autant plus importante que beaucoup de scientifiques pensent que cet hydrogène naturel doit être considéré comme une énergie de flux, quasi-inépuisable, et non comme une énergie de stock, non renouvelable (comme le gaz ou le pétrole). Il semblerait en effet, selon de récentes recherches, que l'hydrogène naturel soit bel et bien produit de manière continue et importante par plusieurs processus géologiques distincts, bien qu'encore mal connus. Si tel est le cas et si l’exploitation de cet hydrogène "blanc" s'avère techniquement réalisable, l'humanité aurait à sa disposition, sans doute pour plusieurs siècles, des quantités suffisantes de ce gaz hautement énergétique et n'émettant pas de CO2.
S'agissant de notre pays, cet hydrogène blanc pourrait être utilisé soit directement, comme source d'énergie pour l'industrie, carburant propre dans les transports, pour le chauffage des bâtiments, soit indirectement, pour produire à la demande de l'électricité de manière décarbonée. Il va de soi que la France doit redoubler d'efforts pour exploiter au plus vite ces importantes sources déjà découvertes d'hydrogène naturel et en découvrir de nouvelles, car il en va à a fois de son indépendance énergétique et de la lutte impérieuse contre le réchauffement climatique, qui doit nous amener à actionner conjointement tous les leviers possibles pour sortir plus rapidement de l'ère du carbone et des énergies fossiles et construire le nouveau monde durable qu'attendent nos concitoyens, conciliant innovation technologique, progrès économique, amélioration de la qualité de vie et protection de notre environnement.
René TRÉGOUËT
Sénateur honoraire
Fondateur du Groupe de Prospective du Sénat
e-mail : tregouet@gmail.com
|
|
|
|
|
|
|
|
TIC |
|
|
Information et Communication
|
|
|
|
|
|
|
|
|
Le cancer du sein reste l'une des premières causes de décès par cancer chez les femmes en France. L’intelligence artificielle dépasse maintenant les modèles classiques de détection, avec une avance d’environ 5 ans sur les premiers symptômes de la maladie, selon une étude publiée le 6 juin dans la revue médicale Radiology.
Pour mener leur analyse, les chercheurs ont procédé par comparaison. En 2016, 324 009 femmes ont subi une mammographie négative 2D. Les scientifiques ont ensuite étudié les données de 13 628 d’entre elles. 4 584 femmes diagnostiquées d’un cancer du sein ont ensuite été suivies dans le cadre de l’étude jusqu’en 2021. Pour analyser le corpus de mammographies, les spécialistes ont eu recours à cinq algorithmes d’intelligence artificielle différents, dont trois disponibles aujourd’hui sur le marché.
Dans le cadre d’une détection préventive classique, les médecins utilisent plusieurs variables dont l’âge de la femme, les antécédents familiaux (chez une parente de premier degré), l’ethnie, la densité mammographique du sein ou encore les antécédents de biopsies mammaires bénignes. De leur côté, les programmes d’IA se sont basés essentiellement sur les mammographies en 2D des patients. Après analyse comparative des diagnostics classiques et ceux réalisés par l’IA, les chercheurs sont parvenus à déterminer quelle méthode était la plus précise pour détecter précocement le cancer du sein. Les programmes d’intelligence artificielle sont parvenus à obtenir des examens plus justes et détaillés pour prédire le risque de cancer du sein entre zéro et cinq ans.
Précisément, l’IA aurait réussi à prédire jusqu’à 28 % des cancers contre 21 % pour la méthode classique. Les scientifiques notent également un taux de détection encore plus élevé en combinant l’approche traditionnelle (avec les variables environnementales) et l’analyse des mammographies par IA. « Cette étude est particulièrement intéressante car tous les modèles d’IA examinés, sauf un, ont été conçus pour détecter la présence ou l’absence de cancer du sein dans une mammographie spécifique, et non pour prédire le risque futur de cancer chez une femme », analyse le Docteur Laura Heacock, radiologue mammaire au NYU Langone Perlmutter Cancer Center à New York.
Les scientifiques pensent que l’IA peut servir à diagnostiquer des cancers passés sous les radars ou à identifier des signes avant-coureurs de la maladie. « Les seins denses ne sont pas tous égaux ; il existe des modèles spécifiques et complexes de tissus mammaires qui prédisent un risque plus élevé de cancer du sein. L’IA peut identifier des schémas imperceptibles à l’œil humain ou qui ne sont visibles qu’en s’entraînant sur des centaines de milliers de mammographies », explique le Docteur Laura Heacock.
Article rédigé par Georges Simmonds pour RT Flash
Medical News Today
|
|
^ Haut |
|
|
|
|
|
|
|
Avenir |
|
|
Nanotechnologies et Robotique
|
|
|
|
|
|
|
|
|
Des chercheurs de la célèbre Université de Californie à Berkeley, menés par Simeon Adebola, ont mis au point un système robotique, baptisé “AlphaGarden” capable de maximiser la santé et la croissance des plantes. Celui-ci se compose d’une caméra haute résolution et de divers capteurs, permettant de surveiller l’humidité du sol et la croissance des plantes.
Le système a été conçu pour une parcelle en polyculture — qui consiste, comme son nom l’indique, à faire pousser plusieurs espèces de plantes différentes sur une même zone. Cette approche présente plusieurs avantages : grâce aux différentes structures racinaires (propres à chaque espèce), les sols sont plus sains et nécessitent généralement moins d’engrais ; les polycultures sont par ailleurs souvent plus résilientes face aux extrêmes climatiques et aux ravageurs (ce qui signifie moins de pesticides). Ce type de cultures nécessite néanmoins davantage de main-d’œuvre, car chaque espèce pousse à son rythme et exprime différents besoins. Un système comme AlphaGarden pourrait grandement faciliter les choses.
Les chercheurs ont souhaité évaluer les performances de leur système, en matière de productivité, comparativement à celles de jardiniers professionnels. Pour ce faire, ils ont utilisé deux parcelles, dans lesquelles ils ont introduit les mêmes séries de graines — 32 au total, de huit espèces de plantes, dont du chou frisé, des navets, de la laitue, de la coriandre, etc. L’une des deux parcelles a été confiée aux professionnels pendant deux mois, tandis que l’autre était supervisée par AlphaGarden.
Dans une seconde expérience, les conditions étaient les mêmes, mis à part le fait que le robot-jardinier pouvait échelonner la plantation des graines (en fonction du rythme de croissance de chaque espèce). Lors de la première expérience, les chercheurs avaient en effet récolté plusieurs données permettant d’améliorer le robot. Ils ont notamment ajusté un algorithme décrivant comment les taux de croissance de chaque espèce peuvent influer sur les autres lorsque toutes les graines sont semées en même temps. À partir de ces nouvelles informations, le robot a élaboré une plantation échelonnée pour optimiser la croissance de chaque espèce.
Article rédigé par Georges Simmonds pour RT Flash
Spectrum
|
|
|
|
|
|
|
|
Imaginez une petite machine ressemblant à une enceinte connectée que l’on peut poser dans le salon ou la chambre d’une personne âgée. Grâce à une caméra et à un micro, la voix et les expressions du visage sont enregistrées et analysées par un programme d’intelligence artificielle pour y repérer des signes avant-coureurs d’anxiété ou d’apathie et aider les médecins à établir un diagnostic précoce.
Eh bien, cet étonnant engin existe et a été présenté en février dernier au Consumer Electronics Show (CES) de Las Vegas, le plus grand salon high-tech du monde. Baptisé Emobot, il a été développé par trois jeunes ingénieurs de CentraleSupélec, associés à un chercheur de leur école, Renaud Séguier.
Après deux ans de R&D, Emobot a commencé à être déployé dans les Ehpad ou installé chez des patients suivis pour des troubles dépressifs. « Nous en avons déjà écoulé environ 150 à 1.500 euros pièce », détaille Tanel Petelot, l’un des cofondateurs, installés à Paris. Pas donné. Mais une fois reconnu comme dispositif médical, Emobot devrait pouvoir être remboursé.
Article rédigé par Georges Simmonds pour RT Flash
Capital
|
|
^ Haut |
|
|
|
|
|
|
|
Matière |
|
|
Matière et Energie
|
|
|
|
|
|
|
|
|
Des chimistes du CNRS ont découvert une nouvelle famille de matériaux organiques peu coûteux et qui n’utilisent pas de métaux critiques pour produire de l'hydrogène à partir d'eau et de la lumière du soleil. Une voie prometteuse pour la conversion et le stockage chimique de l’énergie solaire par des processus photocatalytiques.
Avec plus d'énergie irradiant la surface de la Terre en une heure que ce que la société humaine consomme en un an, le soleil semble être une source inépuisable d’énergie renouvelable. Cependant, l’intermittence et la distribution non uniforme de cette énergie limite son exploitation. Pour que l'énergie solaire fournisse une énergie renouvelable capable de remplacer celle actuellement générée par les ressources fossiles, il faut impérativement développer des moyens de la stocker et la transporter là où on souhaite l’utiliser.
Une solution très étudiée s’inspire de la nature : stocker l’énergie solaire dans des liaisons chimiques en formant un carburant qui peut être transporté et ultérieurement transformé en énergie électrique ou thermique. Cette photochimie permet par exemple la production de dihydrogène H2 à partir de l’eau et la lumière du soleil. Elle nécessite la mise au point de matériaux photocatalytiques peu coûteux et efficaces pour guider la réaction souhaitée, ici l’électrolyse de l’eau. Ces matériaux, typiquement des semiconducteurs, absorbent la lumière pour générer des porteurs de charge (paire électron – trou) qui permettent la réaction électrochimique d’électrolyse. Si le dioxyde de titane TiO2 est le semiconducteur photocatalytique par excellence, de nombreuses équipes cherchent des alternatives moins coûteuses et plus durables, basées sur des molécules organiques.
Ces scientifiques du Laboratoire de chimie des polymères organiques (CNRS/Bordeaux INP/Université de Bordeaux), en collaboration avec l’Institut de chimie physique (CNRS/Université Paris Saclay) et l’Institut des sciences moléculaires (CNRS/Université de Bordeaux), ont mis au point une famille de semiconducteurs organiques à base de trimères conjugués de type Donneur-Accepteur-Donneur. Sous irradiation UV ou lumière visible, ces trimères forment des paires électrons-trous efficaces pour la production de H2 dans l’eau. Tous les trimères étudiés sont actifs, avec des taux de dégagement d'hydrogène parfois supérieurs à celui du TiO2 dans les mêmes conditions. Leurs propriétés photophysiques, chimiques et électriques remarquables en font d’excellents candidats pour la conversion de l'énergie solaire en énergie chimique, et ouvrent la voie à de nouvelles technologies énergétiques plus durables.
Article rédigé par Georges Simmonds pour RT Flash
CNRS
|
|
|
|
|
|
|
|
Des chercheurs de l'Oak Ridge National Laboratory (Tennessee) ont démontré qu’un prototype de micro-cogénération, ou mCHP, équipé d’un moteur à piston, peut atteindre une efficacité énergétique globale supérieure à 93 %. Conçu pour remplacer un générateur de secours ou un chauffe-eau au gaz traditionnel, le mCHP alterne entre le gaz naturel, l’hydrogène ou le biogaz et combine le stockage d’énergie dans une batterie et l’énergie solaire.
Les chercheurs ont évalué un mCHP qui utilise un moteur à piston à quatre temps. Il est écologique et rentable car la chaleur qui serait autrement perdue est capturée et réutilisée pour fournir de l’énergie thermique à petite échelle pour un bâtiment en un seul processus. Cela permet une plus grande efficacité par rapport aux équipements conventionnels à fonction unique. « Les résultats ont dépassé les attentes », a déclaré Zhiming Gao de l’ORNL. « Même sans fournir de chaleur, en mode de combustion maigre, ce mCHP a montré plus de 35 % d’efficacité énergétique électrique ».
Cette innovation pourrait accélérer son utilisation dans les petits bâtiments résidentiels et commerciaux pour les communautés éloignées et mal desservies. La micro-génération fait référence à la production d’énergie à petite échelle, généralement au niveau individuel ou local. Elle implique l’utilisation de sources d’énergie renouvelable, telles que l’énergie solaire, éolienne, hydraulique ou biomasse, pour générer de l’électricité ou de la chaleur. Contrairement aux grandes centrales électriques traditionnelles, la micro-génération vise à produire de l’énergie de manière décentralisée, plus proche de l’endroit où elle est utilisée.
Les technologies de micro-génération incluent les panneaux solaires photovoltaïques installés sur les toits des bâtiments, les éoliennes domestiques, les systèmes de cogénération qui produisent à la fois de la chaleur et de l’électricité, ainsi que les installations utilisant la biomasse pour produire de la chaleur. La micro-génération présente plusieurs avantages, notamment la réduction de la dépendance vis-à-vis des sources d’énergie traditionnelles, la diminution des émissions de gaz à effet de serre et la possibilité de produire de l’énergie localement, ce qui réduit les pertes liées au transport de l’électricité. De plus, elle offre aux particuliers et aux communautés la possibilité de devenir des producteurs d’énergie et de contribuer à la transition vers une société plus durable.
Article rédigé par Georges Simmonds pour RT Flash
ORNL
|
|
|
|
|
|
|
|
Des chercheurs de l’EPFL ont développé un arbre artificiel capable de coproduire chaleur, hydrogène et oxygène à partir de la seule énergie solaire. Ces scientifiques suisses ont installé leur démonstrateur à échelle un sur le campus de l’EPFL. Cette machine est constituée d’une antenne parabolique qui fonctionne comme un "arbre artificiel". Elle est capable de capter près de 1 000 fois la lumière du soleil. Une fois que le rayonnement solaire est intercepté par la parabole, l’eau est transférée vers un réacteur photoélectrochimique intégré. À l’intérieur de ce réacteur, les cellules photoélectrochimiques sont alimentées par l’électricité photovoltaïque afin de décomposer les molécules d’eau en hydrogène et en oxygène. L’énergie thermique générée passe par un échangeur de chaleur pour être exploitée à des fins résidentielles ou industrielles. Des chercheurs de l’EPFL ont inventé un réacteur solaire qui produit de la chaleur et de l’oxygène tout en générant de l’hydrogène avec une efficacité sans précédente pour ses dimensions.
Selon Sophia Haussener, directrice du Laboratoire de science et d’ingénierie des énergies renouvelables (LRESE), ce système grandeur nature permet aux chercheurs de recueillir des informations précises sur le rendement énergétique de l’appareil. Ce qui n’est pas le cas avec les démonstrateurs à l’échelle du laboratoire. Cette antenne parabolique solaire affiche une puissance de sortie de plus de 2 kW, qui serait deux fois plus élevée que la puissance observée sur le réacteur pilote. Elle présente une efficacité record, affirme Haussener. La réussite de cette étape de démonstration est cruciale pour passer facilement à la phase de commercialisation de cette nouvelle génératrice d’hydrogène.
Selon les chercheurs, leur travail de développement actuel découle d’une recherche préalable approfondie sur le concept de production d’hydrogène à plus petite échelle. Lors de cette étude antérieure, ils avaient déployé un simulateur solaire à haut flux du laboratoire. Les résultats de cet essai étaient probants. Leur processus actuel à grande échelle serait aussi performant. Les trois produits à faible émission de carbone ont de multiples utilisations potentielles. L’hydrogène vert pourrait remplacer les combustibles fossiles employés dans les transports, dans les entreprises manufacturières, etc. L’oxygène pourrait être utilisé dans le secteur de la santé. La chaleur sera nécessaire pour chauffer des bâtiments et produire de l’eau chaude.
Article rédigé par Georges Simmonds pour RT Flash
Nature
|
|
|
|
|
|
|
|
Jean-Pierre Gervais a inventé la "roue thermogravitationnelle", un moteur qui utilise l'énergie de l'eau et du soleil pour fonctionner. L’enseignant en génie thermique, originaire des Ardennes, s’est installé dans les Landes il y a deux ans. Quand il ne fait pas de remplacement dans des lycées professionnels de la région, Jean-Pierre Gervais passe son temps libre à améliorer son invention, persuadé qu’elle peut contribuer à lutter contre le réchauffement climatique. « Mon invention est née de la nécessité de faire un geste pour le climat, trouver des solutions pour lutter contre le réchauffement climatique, pour l’avenir de nos enfants et petits-enfants. Je me suis dit, je suis professeur en génie thermique, je suis plombier-chauffagiste, je travaille dans le bâtiment… Je vais essayer d’utiliser toutes ces connaissances pour mettre au point un nouveau concept, une nouvelle approche du monde demain ».
« À l’occasion de notre venue, Jean-Pierre Gervais a installé sa “roue thermogravitationnelle” dans son jardin : une maquette faite de bouteilles et de pailles en plastique posées sur un petit bassin rempli d’eau et installé sous un parasol afin d’être à la fois à l’ombre et au soleil ». « Là, j'utilise du polystyrène pour la structure, mais on pourrait le remplacer par du bois, de la paille ou même du torchis. Alors qu’aujourd’hui, ce qu’on trouve dans les moteurs thermiques, c'est plutôt du métal, de l’huile et de l’essence » explique le scientifique bricoleur.
Si Jean-Pierre Gervais pense avoir inventé « le moteur écolo de demain », c’est parce qu’il fonctionne sans combustion. Sa “roue thermogravitationnelle” transforme la chaleur thermique en énergie mécanique : il n’y a pas de combustion donc pas d’émission de CO2. « On prend une roue, on l’incline sur son axe. Sur cette roue, on suspend des bouteilles à l’intérieur desquelles il y aura beaucoup d’air et un peu d’eau dans sa partie basse qui sera reliée par une paille à un bassin d’eau. Ça permet d’engendrer un mouvement rotatif ». La “roue thermogravitationnelle” transforme le rayonnement solaire en énergie mécanique, c'est ce qui va engendrer un mouvement, un alternateur qui pourra, par exemple, produire de l'électricité.
La “roue thermogravitationnelle” ne pourra pas remplacer les moteurs thermiques des voitures. Elle est destinée à produire de l’énergie renouvelable sur le modèle des éoliennes ou des panneaux solaires. Jean-Pierre Gervais estime, également, que son invention pourrait être appliquée dans les pays pauvres où l’accès à l’eau et à l’électricité est problématique : « Utiliser cet axe qui tourne, associé à une poulie, pour remonter de l'eau d'un puits par exemple » explique Jean-Pierre Gervais. L'enseignant a déposé le brevet de son invention au début de cette année 2023.
Article rédigé par Georges Simmonds pour RT Flash
France Bleu
|
|
|
|
|
|
|
|
A la Colle-sur-Loup près de Nice, le thermomètre grimpe à 40 degrés les après-midi d'été. Mais Michel Daniel est sûr que ses maisons préfabriquées en panneaux de bois remplis d'un béton de terre, une première, se passeront de climatisation. Faites de bois, de terre et d'un peu de béton, les trois maisons, en cours de construction, tentent de conjurer les effets du réchauffement autour de la Méditerranée avec des matériaux du passé, la science du bâtiment du présent, et des techniques numériques d'avenir. « Ce qui est important, c'est la science de la terre qu'on a développée » dit M. Daniel, directeur aménagement durable du groupe de matériaux Saint-Gobain.
Au lieu d'un isolant classique, il mise sur la terre d'excavation, un déchet recyclé issu des grands chantiers du bâtiment ou des travaux publics, pour renforcer l'inertie thermique des maisons préfabriquées. En se basant sur une connaissance ancestrale des pays du Sud : la terre stocke la chaleur et protège les habitants des températures trop élevées. Sur le chantier, un panneau de bois de 2,5 mètres sur un mètre est lentement hissé par une grue au premier étage d'une des trois maisons. Emboîté, ajusté, le panneau est fixé comme un jeu de construction géant. La maison, conçue numériquement, est bâtie en quelques jours, au lieu de plusieurs semaines sur un chantier classique.
Dans cette ville en zone climatique H3, la plus chaude de France qui court sur tout le pourtour méditerranéen, l'utilisation de terre dans les murs a un triple objectif : recycler un déchet naturel en luttant contre la pénurie d'autres ressources -le sable devient difficile à trouver-, lutter contre les effets du réchauffement climatique, et réduire les émissions de CO2 du bâtiment, explique M. Daniel. « Dans ce projet, on diminue légèrement les émissions de CO2, le plus important c'est le détournement de la matière première primaire », précise-t-il. Ici, les secousses sismiques sont fréquentes. Le béton armé, mal aimé des climatologues en raison des émissions de CO2 massives du ciment classique, reste requis pour les fondations du bâtiment.
Depuis l'extérieur, la terre, on ne la voit pas. Elle est enchâssée dans les panneaux fabriqués sur mesure dans l'Isère chez un charpentier, au pied du massif de la Grande Chartreuse. Le béton de terre est composé de terre d'excavation, de copeaux de bois, d'eau et d'un liant formulé dans une filiale de Saint-Gobain, issu du recyclage : un “laitier” de sidérurgie, soit un déchet des hauts fourneaux qui produisent l'acier. Son bilan carbone est meilleur que celui du ciment classique. « C'est comme un colombage, technique déjà utilisée au Moyen-Age, qui marie le bois et la terre, mais en version 4.0 », résume M. Daniel. Le toit posé, les maisons seront classiquement isolées contre le froid par une couche de laine de verre. Puis recouvertes d'un enduit. Elles ressembleront à tous les pavillons provençaux de ce coin de Côte d'Azur.
Article rédigé par Georges Simmonds pour RT Flash
Science et Avenir
|
|
^ Haut |
|
|
|
|
|
|
|
Vivant |
|
|
Santé, Médecine et Sciences du Vivant
|
|
|
|
|
|
|
|
|
Des bioingénieurs de l’Istituto Italiano di Tecnologia (IIT, Milan) ont développé la première batterie comestible rechargeable jamais fabriquée. Cet étonnant et ingénieux dispositif ouvre la possibilité de développer de nombreuses applications en diagnostic de santé, mais aussi pour la surveillance de la qualité des aliments et en robotique.
La batterie totalement comestible et rechargeable est composée de matériaux qui sont normalement consommés dans le cadre de notre alimentation quotidienne ! Ces recherches ont été menées par Mario Caironi, coordinateur du laboratoire d'électronique imprimée et moléculaire, un expert des propriétés électroniques des aliments et de leurs sous-produits, ou de "l’électronique comestible". L'électronique comestible est un domaine en pleine croissance qui pourrait avoir un impact important sur le diagnostic et le traitement des maladies du tractus gastro-intestinal, ainsi que sur la surveillance de la qualité des aliments. L'un des défis les plus intéressants dans le développement des futurs systèmes électroniques comestibles est de réaliser des sources d'énergie comestibles.
Le groupe de recherche de l'IIT s'est inspiré des réactions biochimiques d'oxydoréduction qui se produisent chez tous les êtres vivants et a développé une batterie qui l'utilise : la riboflavine (vitamine B2, présente par exemple dans les amandes) comme anode et la quercétine (un complément alimentaire et un ingrédient, présent dans les câpres, entre autres) comme cathode ; le charbon actif (un médicament en vente libre répandu) est utilisé pour augmenter la conductivité électrique, tandis que l'électrolyte est à base d'eau. Le séparateur, nécessaire dans toute batterie pour éviter les courts-circuits, est fabriqué à partir d'algues nori, les algues utilisées dans les sushis ; des électrodes sont encapsulées dans de la cire d'abeille d'où sortent 2 contacts en or alimentaire (utilisée par les pâtissiers) sur un support dérivé de la cellulose.
La batterie fonctionne avec une tension de 0,65 V, suffisamment basse pour ne pas créer de problèmes dans le corps humain en cas d'ingestion. Elle peut fournir un courant de 48 μA pendant 12 minutes, ou quelques microampères pendant plus d'une heure, assez pour alimenter de petits appareils électroniques, comme des LED basse consommation, pendant un temps limité.
Cet exemple de batterie rechargeable entièrement comestible, la première jamais fabriquée, ouvre la voie à de nouvelles applications électroniques comestibles. Quelles applications ? Ces applications possibles vont des circuits comestibles et des capteurs qui peuvent surveiller différents marqueurs de santé et jusqu'à la qualité de l’alimentation. Compte tenu du niveau de sécurité de ces piles, elles pourraient être utilisées dans des jouets pour enfants, pour lesquels le risque d'ingestion des piles est élevé. En résumé, ces minibatteries comestibles vont permettre d’alimenter des robots mous comestibles.
Article rédigé par Georges Simmonds pour RT Flash
AM
|
|
|
|
|
|
|
|
La maladie d’Alzheimer est traditionnellement associée à l’accumulation de plaques de protéines amyloïdes au niveau des neurones, selon la fameuse théorie de la "cascade amyloïde". La littérature scientifique de ces trois dernières décennies suggère majoritairement que ces agrégats protéinés sont responsables de la perte neuronale associée à la maladie. Cependant, la théorie est actuellement remise en question, les traitements ciblant ces protéines ne démontrant que peu d’efficacité.
De nouvelles hypothèses sont suggérées, telles que le dysfonctionnement du métabolisme mitochondrial. Une étude antérieure explorant cette théorie suggère que chez les personnes souffrant d’Alzheimer, les mitochondries sont endommagées de sorte qu’elles ne peuvent plus produire suffisamment d’énergie, leur métabolisme étant dérégulé. En effet, un métabolisme mitochondrial sain maintient l’activité optimale des neurones et contribue à leur protection, notamment en minimisant les dommages liés aux réactions oxydatives. En revanche, en cas d’altération, il se produit une inflammation puis une perte synaptique et neuronale, ainsi qu’une réponse immunitaire réduite.
Cette étude vise à développer une nouvelle stratégie thérapeutique centrée sur les mitochondries. Il est important de savoir qu’à l’heure actuelle, aucune thérapie contre la maladie d’Alzheimer ne cible le métabolisme mitochondrial. « Nous adoptons une approche très différente des efforts que nous avons vus jusqu’à présent pour les médicaments contre Alzheimer », explique l’auteur principal de l’étude Varda Shoshan-Barmatz, chercheur à l’Université Ben Gourion à Néguev (Israël). La nouvelle molécule conçue par les chercheurs cible une protéine servant de canal anionique voltage-dépendant-1 (VDAC1) et spécifiquement liée au dysfonctionnement mitochondrial, lorsqu’elle est surexprimée. D’après les experts, elle serait retrouvée en grande quantité près des cellules nerveuses présentant les plaques amyloïdes typiques d’Alzheimer.
En tant que canal ionique, VDAC1 joue un rôle fondamental dans le métabolisme et l’homéostasie des ions calcium (Ca 2+). Lorsqu’elle est exprimée en quantités normales au niveau des mitochondries, elle se positionne en tant que point de convergence pour différents signaux de survie et de mort cellulaire. Par contre, en étant surexprimée, elle entrave l’activité mitochondriale et entraîne la perte des neurones. Les chercheurs de la nouvelle étude ont découvert qu’elle est produite de manière exacerbée dans le cerveau des souris chez lesquelles une forme de maladie d’Alzheimer avait été induite.
La nouvelle molécule synthétique, appelée VBIT-4, se lie à cette protéine en inhibant son activité pro-apoptotique et empêche le dysfonctionnement mitochondrial. Sa conception est basée sur la synthèse de recherches antérieures, rassemblant un grand nombre de composés susceptibles d’interagir avec la VDAC1. Le nouveau composé a ensuite été testé in vitro sur des neurones et in vivo sur un groupe de 30 souris modèles d’Alzheimer, sur une période de 5 mois. Parallèlement, un nombre équivalent de souris malades n’a pas reçu le médicament. Résultats : dans les cultures neuronales, la surexpression de VDAC1 et la mort cellulaire ont été inhibées avec succès.
En examinant de plus près le cerveau des souris traitées, les scientifiques ont remarqué qu’il y avait une quantité normale de neurones, tandis que la perte était massive chez celles n’ayant pas été traitées. « La molécule a empêché la mort des cellules neuronales et donc d’autres changements associés à la maladie d’Alzheimer, notamment la neuroinflammation et les dysfonctionnements neurométaboliques », explique Varda Shoshan-Barmatz.
Fait remarquable : la molécule aurait fait preuve d’efficacité sans toutefois réduire significativement l’accumulation de plaques amyloïdes. Ces résultats soulignent le besoin de nouvelles orientations de stratégies thérapeutiques, plutôt que de se concentrer uniquement sur les plaques amyloïdes. Par ailleurs, certains des traitements visant à éliminer ces dernières ne parviennent pas à réduire suffisamment les symptômes de démence.
Article rédigé par Georges Simmonds pour RT Flash
TOI
|
|
|
|
|
|
|
|
Le système immunitaire protège le corps humain contre les maladies en détruisant des substances étrangères comme les bactéries et les virus. Les lymphocytes T, un type de globules blancs, sont les composants actifs dans ce processus car ils reconnaissent et détruisent les cellules étrangères. Par définition, les cellules cancéreuses ne sont pas des cellules étrangères et ne devraient donc pas être reconnues et attaquées par les lymphocytes T.
Pourtant, il y a environ trente ans, Thierry Boon et ses collègues de l'Institut de Duve et de l'Institut Ludwig ont découvert des marqueurs spécifiques à la surface des cellules cancéreuses (appelés antigènes tumoraux) qui peuvent être reconnus par les lymphocytes T qui détruisent alors les cellules cancéreuses. Ce travail a ouvert la voie à l’immunothérapie du cancer, une nouvelle approche de traitement qui aide les lymphocytes T à détruire les cellules cancéreuses. Grâce à la spécificité tumorale et à la mémoire de ces lymphocytes, l’immunothérapie permet de traiter des cancers avancés avec une certaine efficacité. Elle est aujourd’hui utilisée dans le monde entier. Cependant elle ne fonctionne pas chez tous les patients ni, de manière aussi efficace, pour tous les types de cancers.
De nouvelles recherches menées depuis quelques années à l’Institut de Duve et à l’Institut Ludwig par Jingjing Zhu et son équipe dans le laboratoire du Professeur Benoit Van den Eynde ont mené à la publication de cet article dans le magazine Nature. « L’immunothérapie telle qu’actuellement pratiquée ne permet de combattre efficacement que 30 à 40 % des cancers », explique le Professeur Van den Eynde, « beaucoup de cancers résistent, en grande partie parce que leurs lymphocytes T ne sont pas assez réactifs. Nous avons découvert que des médicaments utilisés jadis pour traiter l’hypertension pouvaient avoir un effet très intéressant pour lutter contre ces formes de cancers résistants à l’immunothérapie ». Ces molécules agissent sur les macrophages. Il s’agit d’un autre type de globules blancs, dont le rôle est d’engloutir et de digérer les débris issus des agents pathogènes, tels que les cellules cancéreuses, les microbes et les substances étrangères.
Ce sont, en quelque sorte, les "éboueurs" du corps humain. Mais, en faisant leur travail, ces macrophages alertent aussi les lymphocytes T des anomalies qu’ils rencontrent. Ils jouent ainsi le rôle de sentinelles : ils donnent l’alerte et déclenchent les réponses immunitaires. Les chercheurs de l’Institut de Duve ont découvert qu’à coté de leurs effets hypotenseurs et anesthésiants connus, ces molécules pouvaient également stimuler les macrophages dans leur rôle d’informateurs des lymphocytes T. Ces derniers deviennent ainsi plus réactifs et rejettent plus efficacement les cellules cancéreuses, notamment dans des modèles de cancers résistants à l’immunothérapie standard. Cette nouvelle approche pourrait dès lors "doper" le processus clinique d’immunothérapie, notamment pour ces nombreux cas de cancers pour lesquels l’efficacité de ce traitement est encore limitée.
Article rédigé par Georges Simmonds pour RT Flash
Gazette Labo
|
|
|
|
|
|
|
|
Des chercheurs de l'Université Washington à St Louis (Missouri) ont découvert qu'il était possible de créer artificiellement un état d'hibernation en envoyant des ultrasons au cerveau. Pour obtenir ces résultats, les chercheurs ont fait des expérimentations sur des souris et des rats, en testant sur les animaux une technique qui consiste à diriger des impulsions ultrasoniques vers une région du cerveau connue sous le nom d'aire préoptique (POA), ce qui entraîne l'activation des neurones déclencheurs des caractéristiques corporelles de l'hibernation.
Lors d'une première expérience sur les souris, l'effet a été presque instantané : après une décharge de 10 secondes d'impulsions ultrasoniques, les rongeurs ont connu une diminution de leur activité cardiaque, une baisse de leur consommation d'oxygène et une chute de leur température corporelle. Les chercheurs ont pu maintenir les souris dans leur état d'hibernation pendant 24 heures, sans aucun signe de dommage corporel ou d'inconfort chez les animaux. Les scientifiques ont ensuite reproduit cet effet chez douze rats.
« Les recherches sur le concept d'hibernation artificielle ont commencé en 1960 pour réduire la consommation d'énergie pendant les vols spatiaux humains de longue durée », rappellent les chercheurs. « Comme il a déjà été démontré que la neuromodulation par ultrasons était réalisable chez l'homme, notre technique a d'excellentes chances d'être transposée à l'homme », concluent-ils.
Cette découverte ouvre ainsi des perspectives pour une application en médecine, notamment pour ralentir le métabolisme de patients en situation de crise cardiaque ou d'AVC (accident vasculaire cérébral). Cela permettrait en effet de préserver les tissus corporels et de minimiser les dommages causés par l'arrêt de la circulation sanguine. Cette méthode non invasive pourrait également offrir une alternative à des traitements médicamenteux coûteux ou à des procédures chirurgicales invasives. Enfin, elle pourrait également être utilisée pour des missions de longue durée dans l'espace, afin de ralentir le métabolisme des astronautes et ainsi prolonger leur durée de vie en orbite.
Enfin, les résultats de cette étude ouvrent la voie à de nouvelles recherches sur la biologie et la physiologie du cerveau. Cela pourrait permettre de mieux comprendre les mécanismes de régulation du métabolisme et de la respiration, ainsi que les interactions complexes entre les neurones et les cellules gliales dans le cerveau.
Article rédigé par Georges Simmonds pour RT Flash
Nature
|
|
|
|
|
|
|
|
La taurine est une molécule présente dans l'organisme, qui se dégrade avec le temps et serait même associée aux effets du vieillissement. C'est en étudiant, sur des souris, les effets d'une prise de la taurine en complément que les scientifiques ont obtenu de probants résultats. « La quantité de taurine, un acide aminé semi-essentiel en circulation, diminue avec l'âge chez les souris, les singes et les humains », indiquent les auteurs de l'étude.
Pour déterminer si ce déclin contribue au vieillissement, les chercheurs ont administré par voie orale de la taurine ou une solution de contrôle une fois par jour à des souris femelles et mâles d'âge moyen souris jusqu'à la fin de leur vie. Et les résultats sont sans appel : « Les souris nourries à la taurine des deux sexes ont survécu plus longtemps que les souris témoins. La durée de vie médiane des souris traitées à la taurine a augmenté de 10 à 12 % et l'espérance de vie à 28 mois a augmenté d'environ 18 à 25 %", soit 7 ou 8 ans si ces résultats étaient les mêmes chez les humains ».
« Une thérapie anti-âge significative devrait non seulement améliorer la durée de vie, mais aussi la durée de la santé, la période de vie saine », assurent encore les scientifiques. La prise de taurine en complément a eu un effet positif sur « le fonctionnement des os, des muscles, du pancréas, du cerveau, des graisses, des intestins et du système immunitaire, indiquant une augmentation globale de la durée de vie ».
Aucun essai clinique n'a été lancé sur les humains mais les auteurs de l'étude ont d'ores et déjà noté les effets indésirables de la perte de taurine chez l'homme. Ainsi, la carence en taurine est associée à « des problèmes de santé, tels qu'une augmentation de l'obésité abdominale, de l'hypertension, de l'inflammation et de la prévalence du diabète de type 2 ». Les auteurs de l'étude concluent donc que la taurine est un moteur du vieillissement mais qu'une « inversion de ce déclin grâce à la supplémentation en taurine augmente la durée de vie des souris, des vers et des singes ». Reste donc à tester cette supplémentation chez l'homme à long terme pour confirmer ces résultats.
La taurine est un dérivé d’acide aminé « produit naturellement par notre organisme et que l’on trouve également dans l’alimentation (viandes, poissons, œufs, produits laitiers, algues) ». Professeur adjoint de génétique et de développement à l'Université de Columbia et coauteur d’une nouvelle étude sur la taurine, Vijay Yadav rappelle aussi que la taurine présente plusieurs avantages comme potentiel médicament anti vieillissement puisqu'elle « n'a pas d'effets toxiques connus (du moins à faible dose) et elle peut être stimulée grâce à l'exercice physique ». Enfin, la taurine tient son nom du taureau, certes mais uniquement parce qu'elle a été découverte en 1827 pour la première fois dans la bile du taureau par deux scientifiques allemands : Friedrich Tiedemann et Leopold Gmelin.
Article rédigé par Georges Simmonds pour RT Flash
Science
|
|
|
|
|
|
|
|
Pour prévenir l’apparition de l'Athérosclérose, une pathologie qui se traduit par la formation de dépôts de cholestérol, puis de calcaire sur les parois des artères, et affecte environ un adulte sur deux, l’hygiène de vie est très importante, notamment la perte de poids, l’activité physique et une alimentation équilibrée. À ce sujet, une récente étude réalisée par des chercheurs de l'hôpital de Barcelone a montré qu’un régime alimentaire riche en carotène pourrait diminuer les niveaux de lipides dans les artères et donc l’athérome.
La carotène est un pigment orangé du groupe des caroténoïdes, abondant chez les certains végétaux alimentaires comme la carotte. Pour parvenir à leurs résultats, les chercheurs ont étudié les données de 200 personnes, c’est-à-dire leur concentration de carotènes dans le sang et la présence de plaques d'athérosclérose dans leurs artères carotides (celles qui distribuent le sang du cœur vers la tête).
Les participants étaient âgés de 50 à 70 ans. « L'étude conclut que plus la concentration de carotènes dans le sang est élevée, moins les symptômes de l'athérosclérose sont importants, notamment chez les femmes », explique Chiva Blanch, l’une des autrices. « Ainsi, nous pouvons confirmer qu'une alimentation riche en fruits et légumes et donc en carotènes diminue le risque de souffrir de maladies cardiovasculaires ».
Article rédigé par Georges Simmonds pour RT Flash
JOCN
|
|
|
|
|
|
|
|
Lors d’une infection ou blessure, le système immunitaire est mobilisé pour contrôler l’infection et la réparation des tissus lésés. Cette activation se fait notamment grâce à libération de médiateurs pro-inflammatoires pour informer le cerveau de l'état immunitaire de l'organisme et coordonner la réponse immunitaire. En réponse à ce signal, le cerveau induit une réaction complexe connue sous le nom d’"état de maladie" qui vise à réaffecter l'énergie aux différents systèmes.
Cet état est associé à des changements comportementaux comme l’évitement social, la léthargie, à des ajustements métaboliques tel que la fièvre ou la perte d’appétit ainsi qu'à la libération d'hormones comme la cortisone, de manière à accroître la résistance à l'infection mais aussi à réguler les réponses immunitaires. Dans cette étude, un groupe pluridisciplinaire composé de neurobiologistes et d’immunologistes de l'Institut Pasteur, de l'Inserm et du CNRS a découvert un nouveau circuit par lequel le cerveau mesure les niveaux d'inflammation dans le sang et, en retour, régule cette inflammation. En effet, une région du tronc cérébral, appelée complexe vagal, détecte directement les niveaux et la nature des hormones inflammatoires dans la circulation sanguine. Ces informations sont ensuite transmises aux neurones d'une autre région du tronc cérébral, le noyau parabrachial, qui intègre également des informations en lien avec la douleur mais aussi certaines mémoires aversives ou traumatiques. Puis, ces neurones activent à leur tour des neurones de l'hypothalamus, ce qui entraîne l’augmentation rapide de la cortisone dans le sang, une hormone de régulation anti-inflammatoire.
Pour identifier ce circuit, les chercheurs ont utilisé des approches de pointe en neurosciences permettant d’observer individuellement les neurones impliqués pendant l'inflammation. Les experts ont pu observer comment l'activité de neurones spécifiques dans le noyau parabrachial pouvait réguler la production de globules blancs impliqués dans la réponse immunitaire. « Cette recherche démontre que l'activité neuronale du cerveau est capable, à elle seule, d'exercer un effet puissant sur le développement des réponses immunitaires dans le contexte d'une infection ou d'une blessure. Elle fournit donc un exemple clair de la puissante connexion bidirectionnelle entre le corps et le cerveau. Et elle nourrit également notre ambition de découvrir l'impact de notre cerveau sur notre façon de vivre avec les microbes, de combattre les agents pathogènes ou de réparer les blessures », explique Gérard Eberl, responsable de l’unité Microenvironnement et immunité à l’Institut Pasteur.
La découverte de ce circuit ouvre de nouvelles perspectives de recherche nourrissant conjointement les domaines de la neurobiologie et de l’immunologie : « Cette étude nous donne des clés supplémentaires pour mieux comprendre l'impact de l'inflammation systémique sur notre cerveau, notre humeur et sur certains processus de neurodégénérescence », complète Gabriel Lepousez, neurobiologiste au sein de l’unité Perception et mémoire (Institut Pasteur / CNRS).
Etant donné le rôle établi du noyau parabrachial dans les processus de mémoire aversive, la réactivation de ce circuit en cas de rappel d'expériences inflammatoires ou aversives passées pourrait permettre de devancer de potentielles menaces infectieuses. Grâce à cette communication neuro-immune, le système immunitaire pourrait ainsi bénéficier des capacités du cerveau à prédire et anticiper des menaces de notre environnement.
Article rédigé par Georges Simmonds pour RT Flash
CNRS
|
|
|
|
|
|
|
|
La société biopharmaceutique bordelaise Aelis Farma, spécialisée dans le développement de traitements pour les maladies du cerveau, a publié récemment, dans la revue Nature Medicine, une série d'études portant sur les premiers tests d'un médicament-candidat d'une nouvelle génération. Nommé AEF0117, il a entraîné « une réduction statistiquement significative » de la consommation de cannabis et de ses effets sur les fumeurs quotidiens, comme « aucun autre médicament n'a réussi » à le faire auparavant, d'après Margaret Haney, chercheuse américaine qui a supervisé les premières phases d'étude du médicament.
Ce traitement est le premier qui inhibe le récepteur CB1, celui qui est responsable des effets d'addiction au cannabis, ce qui veut dire qu'il réduit, par exemple, les effets euphorisants de cette drogue. De plus, il diminue l'envie de prendre du cannabis, sans précipiter les conséquences du sevrage. Cela est dû au fait que ce nouveau médicament se base sur le mécanisme naturel utilisé par le cerveau pour combattre les effets du cannabis.
Cette approche "révolutionnaire" selon les auteurs de cette étude, bien différente des anciennes générations d'inhibiteurs, qui bloquaient toute l'activité du récepteur CB1, ce qui provoquait des effets indésirables importants et empêchait la poursuite d'essais cliniques. « Ces nouveaux résultats suggèrent clairement que AEF0117 pourrait être une approche efficace pour les patients cherchant un traitement pour les troubles liés à la consommation excessive de cannabis », selon Margaret Haney.
Un article qui « couronne plus d'une décennie de recherche », a de son côté confié le Docteur Pier-Vincenzo Piazza, directeur général d'Aelis Farma. Ce nouveau traitement est désormais en cours d'évaluation dans une étude de Phase 2b aux États-Unis, sur 330 participants souffrant d'addiction au cannabis. Les résultats devraient être disponibles d'ici mi-2024.
Article rédigé par Georges Simmonds pour RT Flash
Nature
|
|
|
|
|
|
|
|
La maladie d’Alzheimer est la cause de démence la plus fréquente dans le monde. Malgré de nombreux essais cliniques, il n’existait fin 2022 aucun traitement modifiant réellement le pronostic de cette maladie neurodégénérative. Cependant, la physiopathologie et la physiogenèse de la maladie s’avèrent désormais assez bien connues et mettent en cause la protéine Tau et les peptides β amyloïdes. Ces derniers forment le composant principal des plaques amyloïdes, retrouvées dans les neurones affectés par des maladies neurodégénératives comme Alzheimer. L’accumulation de β amyloïdes marquerait le point de départ de la maladie, avec des lésions synaptiques, une perte neuronale et des troubles cognitifs.
« Cette “hypothèse amyloïde” a conduit au développement d’immunothérapies, notamment des anticorps ciblant la β amyloïde ou ses dérivés. Mais les essais cliniques se heurtent à des effets indésirables graves chez l’humain et aux limites des modèles animaux utilisés, le plus souvent des souris transgéniques », contextualise Nadine Mestre-Francès, responsable de l’équipe Vieillissement cérébral et pathologies neurodégénératives à Montpellier et spécialiste des lémuriens. « D’où l’intérêt de disposer de modèles animaux se rapprochant le plus possible, phylogénétiquement, de l’Homme. » C’est ici qu’intervient le microcèbe, un primate lémuriforme, plus facile d’accès que les singes, et chez qui le vieillissement entraîne des troubles cérébraux et cognitifs, similaires à un début de maladie d’Alzheimer. Ce lémurien se révèle donc un modèle intéressant dans une approche de recherche translationnelle.
Afin de valider ce modèle animal et de vérifier l’innocuité et l’efficacité d’un vaccin thérapeutique anti-amyloïde, l’équipe de Nadine Mestre-Francès a administré à 32 vieux lémuriens (âgés de 4 à 10 ans) quatre injections d’un dérivé de la β amyloïde. Ce dernier induit chez le lémurien une sécrétion contre le peptide. Et, même si cette sécrétion est faible, l’analyse des cerveaux des lémuriens ayant reçu le produit a montré une réduction significative de la quantité de β amyloïde intracellulaire, sans risque inflammatoire ou hémorragique accru. L’administration du dérivé atténue donc le dépôt de β amyloïde, mais n’a pas d’effet sur la protéine Tau.
Fait intéressant, les chercheurs ont observé une amélioration cognitive chez les animaux traités, probablement due à la diminution en β amyloïde circulante. « Alors que de nombreux essais cliniques sont en cours et que des traitements se profilent contre la maladie d’Alzheimer, l’intérêt majeur de notre étude est de démontrer la pertinence du microcèbe », détaille Nadine Mestre-Francès. L’utilisation de lémuriens âgés permet de disposer d’un modèle animal naturel de la maladie, ce qui constitue un atout précieux pour accélérer les phases de recherche et développement de futurs candidats-médicaments ».
Article rédigé par Georges Simmonds pour RT Flash
INSERM
|
|
|
|
|
|
|
|
Une nouvelle étude menée à long terme par des chercheurs de l'Université de New York sur 18 154 adultes a montré que les personnes âgées qui utilisaient régulièrement l’Internet avaient deux fois moins de risques de démence que celles qui n’étaient pas familières du Web.
Toutefois, il est prouvé qu’une utilisation excessive d’Internet (plus de six heures par jour) est néfaste pour la santé cognitive. Il s’agit donc de trouver un équilibre entre une non-utilisation et l'excès ; les estimations des heures d’utilisation quotidienne par les participants à l’étude suggèrent une relation "en forme de U" avec l'incidence de la démence. Le risque de démence le plus faible a été observé chez les personnes qui utilisaient Internet entre six minutes et deux heures par jour. « Mais les estimations n'étaient pas significatives en raison de la petite taille des échantillons », notent les chercheurs.
Ces derniers ont suivi des adultes de 50 à 65 ans ne présentant pas de démence pendant un maximum de 17 ans (médiane : 7,9) dans le cadre de l'étude sur la santé et la retraite Health and Retirement Study. Le sexe, l’origine ethnique et le niveau d’éducation n’ont pas influencé les résultats d’une façon ou d’une autre.
Il faut préciser que, si l’étude montre une corrélation entre l’utilisation d’Internet et la santé cognitive, elle ne prouve pas de lien de cause à effet. Une utilisation moins fréquente d'Internet n’est pas forcément à l'origine d’une démence, et le fait de se connecter en ligne ne garantit pas non plus de la prévenir.
Article rédigé par Georges Simmonds pour RT Flash
JAGS
|
|
^ Haut |
|
|
|
|
|
VOTRE INSCRIPTION |
|
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
|
|
|
|
|
|