RTFlash

RTFLASH Recherche & Technologie
NUMERO 1080
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 04 Décembre 2020
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
Une IA pour détecter le Covid-19 à partir de la toux…
Matière
Terberg teste un porte-conteneurs à hydrogène dans le Port de Rotterdam
Le Japon table sur l’ammoniac pour sa transition énergétique
Des chercheurs français et brésiliens réalisent une avancée vers la nourriture par impression 3D
Recharger les voitures électriques jusqu’à 90 % en 6 minutes
Terre
Généraliser l’usage du ciment recyclé pour réduire les émissions de CO2
L’empreinte géologique de l’humanité est visible depuis 1950
Vivant
Détecter et traiter immédiatement chaque AVC : un défi pour 2025
Manger des oméga-3 pour réduire ses risques de récidive de crise cardiaque
Cancer : un patient sur huit présente une mutation génétique héréditaire
Quand la musique soigne les douleurs chroniques
Une malformation illustre l’incroyable plasticité du cerveau
Le Coronavirus est bien une maladie systémique
Un anticorps monoclonal qui réduit de moitié le mauvais cholestérol
Une exposition prolongée au bruit augmente les risques de maladie d'Alzheimer
Edito
Fusion thermonucléaire : une grande aventure scientifique au service de toute l’Humanité



Avant-Propos :

Chers Lecteurs de RT Flash (que vous soyez sur notre site, sur Twitter, sur Facebook ou un autre média)

Mobilisons-nous pour sauver RT Flash ...

Il ne nous reste plus que 3 semaines (RT Flash ne paraissant pas entre Noël et la Nouvelle Année) pour atteindre notre objectif de 20.000 euros en cotisations d'adhésion et en dons à notre Association ADIST qui gère RT Flash.  Cette semaine, nous avons atteint 17.132 €. Il nous reste moins de 3.000 euros à collecter pour franchir sans difficulté particulière l'année 2021.

Notre Lettre hebdomadaire qui paraît depuis 22 ans, qui est totalement gratuite et qui n'accepte aucune publicité, ne doit sa survie qu'à vos cotisations et vos dons maintenant que les institutions nationales de Recherche ne peuvent plus nous verser leurs petites subventions annuelles.

Depuis le départ de la campagne d'adhésions vous avez été 248 à adhérer et faire un don à notre association. Plusieurs parmi vous m'ont fait parvenir cette semaine un message pour me dire qu'ils sont surpris de constater le petit nombre de lecteurs de RT Flash qui font un petit geste de reconnaissance envers l'association qui gère cette Lettre par rapport aux milliers de lecteurs qu'elle retrouve chaque semaine, non seulement directement sur notre site, mais bien plus nombreux encore sur Facebook, Twitter ou d'autres médias.

Je leur ai répondu, moi qui ai maintenant une ancienneté de plus de 22 ans d'échanges avec les lecteurs de RT Flash, que je ne puis pas surpris. Le lectorat de RT Flash est non seulement jeune et même très jeune. C'est une communauté typiquement Internet. Elle trouve naturel de pouvoir accéder gratuitement à tous les médias, et j'ai l'humilité de penser que si j'avais demandé ne serait-ce qu'un seul euro d'abonnement obligatoire, RT Flash aurait perdu 90 % de ses lecteurs.

Ce que je vous affirme là est tellement vrai, que j'ai eu la curiosité de me rendre sur le site d'HelloAsso qui gère cette campagne d'adhésions. Sur les 248 lecteurs de RT Flash qui ont accepté d'adhérer à notre association, il n'y a que 2 personnes qui ont moins de 40 ans...

Mais ne le cachons pas, je suis responsable de ce manque de motivation de la part des jeunes. Je n'ai pas su leur faire comprendre que RT Flash est non seulement gratuite mais de plus nous n'acceptons pas qu'une quelconque publicité vienne polluer la lecture d'un édito ou d'un article. Or, la communauté Internet accède gratuitement à de très nombreux médias car derrière eux se cachent de puissants acteurs de publicité. Je pense que si j'avais su faire comprendre à mon jeune lectorat, en particulier, cette spécificité de RT Flash, ils auraient été plus nombreux à se mobiliser.

Si vous prenez la décision de verser une cotisation de 30 € pour adhérer à notre Association ADIST qui soutient RT Flash, et si vous payez des impôts, je vous rappelle que 20 euros vous seront remboursés et diminueront d'autant vos impôts sur le revenu. Bien entendu si vous décidez d'ajouter un don à votre adhésion, vos impôts diminueront des 2/3 de la somme totale que vous verseriez pour sauver RT Flash.

Si vous voulez aider RT Flash, Lettre d'Informations Scientifiques, gratuite et sans publicité depuis 1998,

appuyez sur le lien suivant : Adhérez à notre Association ou faites un DON pour sauver RT Flash, vous bénéficierez d'une réduction fiscale de 66 %

EDITORIAL :

Lorsque Mikhaïl Gorbatchev, le dernier Président de l’Union soviétique, et Ronald Reagan, Président des Etats-Unis de 1981 à 1989, lancèrent, à l’issue du sommet de Genève en novembre 1985 l’initiative d’un grand projet de recherche internationale sur la fusion thermonucléaire contrôlée, qui allait devenir le projet ITER en 1987, ils ne se doutaient sans doute pas que, 35 ans plus tard, cette aventure scientifique hors du commun entrerait dans une phase nouvelle et décisive de son développement. C’est en effet le 28 juillet dernier que les responsables scientifiques et politiques représentant des pays membres d’Iter, dont le Président Macron, se sont réunis - physiquement ou virtuellement - à Cadarache en Provence pour annoncer en grande pompe le lancement de l’Assemblage du cœur du réacteur à fusion nucléaire, qui marque une nouvelle étape du plus grand chantier scientifique au monde, regroupant sept contributeurs : l’Union Européenne, la Chine, les États-Unis, la Russie, le Japon, la Corée et l’Inde.

On le sait, et c’est d’ailleurs ce qui lui est parfois reproché, l’ambition de ce projet est immense : Il s’agit ni plus, ni moins, de reproduire, de manière contrôlée, la réaction thermonucléaire qui se déroule de manière naturelle au cœur des étoiles, à commencer par notre soleil où, chaque seconde, plusieurs centaines de millions de tonnes d’hydrogène fusionnent, se transformant en atomes d’hélium, ce qui libère des quantités phénoménales d'énergies et permet à notre étoile, pour encore au moins 4, 5 milliards d’années, de rester à l’équilibre, en contrebalançant par ce processus de fusion la force gravitationnelle qui l’agite.

Ce processus dit, « de fusion » (en opposition à l’énergie nucléaire communément utilisée qui est une énergie de fission et qui consiste à casser des noyaux d’uranium à l’aide de neutrons pour libérer de l’énergie), la fusion, dont le combustible est constitué de deutérium (isotopes d’hydrogène, c’est-à-dire des atomes comportant le même nombre de neutrons) et de tritium, libère, à quantité de matière égale, quatre millions de fois plus d’énergie que le charbon.

Contrairement au nucléaire classique, qui nécessite de l’uranium, dont les réserves risquent d’être épuisées d’ici un siècle, au rythme actuel de consommation, le deutérium peut être extrait de l’eau de mer et ne risque pas de manquer. Quant au tritium, il sera, dans un premier temps, récupéré dans des réacteurs nucléaires existants, puis ensuite généré directement dans l'enceinte du tokamak en utilisant l'interaction entre les neutrons issus de la réaction de fusion et le lithium présent dans les éléments de couverture. Mais il faut bien avoir à l’esprit que les quantités de combustibles utilisés pour la fusion sont très faibles. Alors qu'une centrale au charbon d’un TWH brûle 2,7 millions de tonnes de charbon par an, une centrale de fusion de puissance équivalente ne consommera que 250 kilos de combustible chaque année, répartis à parts égales entre le deutérium et le tritium.

Mais il y a loin de la théorie à la pratique car, pour que les atomes fusionnent et puissent libérer une énorme quantité d’énergie, plus importante que celle nécessaire pour faire fonctionner le réacteur, il faut vaincre la puissante barrière électrostatique qui tend à les faire se repousser, en obtenant un plasma stable qui réponde simultanément aux fameux "3 critères de Lawson", atteindre une densité et une température suffisante pendant un temps suffisamment long.

Pour parvenir à cette prouesse technologique, le tokamak est constitué d’une chambre à vide en forme d’anneau. Grâce à une température et une pression extrêmes, le gaz d’hydrogène se transforme en plasma, au sein duquel les atomes d’hydrogène peuvent fusionner et produire de l’énergie. Mais comme aucun matériau connu ne peut résister aux températures atteintes par ce plasma (sous peine d’être instantanément désintégré), le plasma doit rester soigneusement confiné dans un champ magnétique très intense qui nécessite l’emploi d’énormes et complexes électroaimants, devant être assemblés avec une précision extrême et refroidis à une température proche du zéro absolu.

En décembre 2016, le tokamak West, précurseur d’Iter, a produit à Cadarache son premier plasma à 100 millions de degrés, franchissant ainsi une nouvelle étape décisive vers la fusion contrôlée à un niveau industriel. Et depuis quelques semaines, l’assemblage du réacteur Iter, dix fois plus grand que toutes les installations expérimentales existantes, a commencé et le premier plasma est prévu pour 2025. Ce réacteur est sans doute l’installation technique la plus complexe au monde : plus d’un million de pièces, pesant 23 000 tonnes, et une vaste chambre à vide de 830 m3, pour un coût total revu à 18 milliards d’euros, dont l’UE, il est bon de le rappeler, assure la part la plus importante (45 %, incluant la construction des bâtiments de l’installation), les six autres membres apportant chacun 9 %.

Si tout se passe bien, après dix ans de tests, Iter devrait atteindre sa pleine puissance en 2035 avec la fusion de tritium deutérium. A cette échéance, les scientifiques devront avoir démontré, et c’est là tout le défi qui les attend, que la machine est capable de fournir dix fois plus d'énergie qu'elle n'en consomme pendant au moins 6 minutes pour fonctionner. Mais pourquoi vouloir dompter la fusion thermonucléaire ? Pour plusieurs raisons très fortes.

D’abord parce que, nous l’avons vu, la fusion, même par rapport à la fission, ne nécessite que de minuscules quantités de combustible et que celui-ci est en outre disponible en quantité illimitée. Ensuite, outre sa capacité hors norme à produire d’énormes quantités d’énergie, à partir de seulement quelques grammes de matière, un réacteur de fusion de type ITER ne présente pas, contrairement aux réacteurs à fission, de risque d’emballement et d’accident majeur ; il est, et ce point est fondamental, « intrinsèquement sûr ». La chambre à vide de la machine ne contiendra jamais plus de quelques grammes de combustible et, en cas de dysfonctionnement, le réacteur s’arrêtera spontanément. Enfin, une centrale de fusion ne produirait pas, comme cela est le cas dans les centrales nucléaires classiques, de déchets hautement radioactifs pendant plusieurs centaines de milliers d’années.

Toutefois le fonctionnement du réacteur produit des neutrons rapides très énergétiques qui rendent ses parois radioactives et doivent être absorbés par des matériaux composites qu’il faudra remplacer régulièrement à l’aide de robots. Mais il faut préciser que les parties du réacteur qui deviendront radioactives sous l’effet du bombardement de ces neutrons rapides, ne le resteront que quelques dizaines d’années, ce qui change tout en matière de stockage et de sécurité, par rapport aux centrales à fission, qui produisent des déchets ultimes qui restent très longtemps fortement radioactifs…

Il n’en demeure pas moins que la fusion nucléaire n’est pas encore, à ce jour, totalement maîtrisée, en dépit des progrès tout à fait impressionnants réalisés depuis un demi-siècle. Iter va précisément permettre de progresser dans la compréhension des lois de phénomènes très complexes qui gouvernent le comportement des plasmas portés à des températures extrêmes, dépassant les 100 millions de degrés. Le but ultime d’Iter est de démonter qu’il est possible de produire, grâce à la fusion, pendant une durée suffisamment longue, au moins dix fois plus d’énergie qu’il n’en a fallu pour amorcer la réaction initiale. Le record est actuellement détenu par JET, qui est parvenu à restituer 70 % de l'énergie injectée : 24 mégawatts injectés pour 16 mégawatts produits. D’ici 15 ans, Iter devra monter qu’il peut produire 500 mégawatts pendant au moins dix minutes, en utilisant seulement 1 g de tritium comme combustible et après avoir investi environ 50 mégawatts d’énergie dans l’allumage du réacteur.

En cas de succès d'Iter, un autre projet, encore plus ambitieux, doit voir le jour : DEMO (DEMOnstration Power Plant), la machine qui devra succéder à ITER, la fusion nucléaire entamera alors son passage à l'échelle industrielle. Contrairement à Iter, Demo sera capable de produire une partie de son carburant thermonucléaire, le tritium, comme sous-produit de son fonctionnement.

Mais Iter, même s’il est le projet de fusion thermonucléaire le plus avancé et le plus médiatique, n’est pas le seul. Aux Etats-Unis, une équipe de recherche du MIT, dirigée par Martin Greenwald, explore une autre voie prometteuse, un réacteur à fusion nucléaire "compacte" baptisé SPARC. La construction de SPARC pourrait débuter en 2021 pour être terminée en 2025 avec une production électrique dès 2035. Il s'agit d'un réacteur torique de type Tokamak de petite taille, mais tout aussi efficace que son « grand frère » Iter. SPARC devrait, à terme, produire également 10 fois plus d'énergie qu'il n'en faut pour alimenter sa réaction, mais son coût de construction pourrait être de 50 à 100 fois moins élevé que celui d’Iter…

Pour faire la différence avec Iter et pouvoir produire bien plus vite, pour un coût bien inférieur, de l’électricité, SPARC compte utiliser des électroaimants plus efficaces que les bobines électromagnétiques utilisées par ITER. Bien que le MIT reste volontairement discret sur la nature de ces électroaimants, il laisse entendre que ceux-ci utilisent des supraconducteurs à haute température qui peuvent produire un champ magnétique beaucoup plus élevé que les aimants utilisés par Iter. Comme le précise le responsable du projet SPARC, « Notre objectif est d'accélérer le calendrier de l'énergie de fusion en tirant parti d'une percée dans la technologie des aimants ». Il ajoute : « La pierre angulaire de notre plan est SPARC, un dispositif de fusion conçu pour démontrer une production nette d'énergie pour la première fois aux environs de 2025 ».

Mais une autre voie vers la fusion thermonucléaire contrôlée que celle des Tokamak (géant comme Iter, ou compact comme SPARC) progresse également à grand pas, celle du confinement inertiel, qui utilise de puissants faisceaux laser pour comprimer de manière incroyablement puissante de minuscules billes de matière et amorcer ainsi un processus de fusion des atomes qui peut dégager, en théorie, plus d’énergie que n’en consomment ces lasers. Les Américains sont à la pointe de ces recherches, grâce à leur installation unique au monde, la NIF, National Ignition Facility, qui rassemble 192 faisceaux laser et se trouve au sein du Lawrence Livermore National Laboratory, à Livermore (Californie, États-Unis). Ces lasers convergent pour écraser violemment une bille millimétrique remplie d'hydrogène. Récemment, les ingénieurs du NIF ont réalisé une nouvelle avancée importante en montrant qu’un champ magnétique autour des billes de combustible permettait de mieux confiner la chaleur et favoriser les réactions de fusion.

Au cours de la dernière assemblée annuelle de la Division de physique des plasmas de l'American Physical Society (DPP) qui s’est tenue à Fort Lauderdale, en Floride, la physicienne du MIT Maria Gatu Johnson, l’une des meilleurs spécialistes au Monde dans ce domaine de recherche, a révélé de nouvelles avancées dans le domaine de la fusion inertielle. « Pour la première fois, nous avons pu observer récemment de manière expérimentale cette réaction de fusion à des conditions de température et de densité comparables à celles trouvées dans les étoiles » a-t-elle précisé (Voir MIRAGE) et, selon Vincent Bagnoud, de l'Institut Helmholtz (Allemagne), cette approche inertielle par laser progresse très rapidement et s'approche de puissances compatibles avec la production d'énergie de fusion.

Dans cette voie du confinement inertiel par laser, il existe aussi des projets de recherche alternatifs intéressants, comme celui développé par les chercheurs de l’Université de New South Wales, qui utilisent un laser pour créer un champ magnétique très puissant et un second laser pour chauffer des pastilles d’hydrogène et de bore et atteindre le point de fusion. Quand un noyau d’hydrogène avec un seul proton fusionne avec un noyau de bore contenant 11 protons, il produit trois noyaux d’hélium. Cette réaction présente le grand avantage, par rapport à la réaction deutérium-tritium, de ne pas produire de flux de neutrons très énergétiques. Mais en revanche, la réaction hydrogène-bore est très difficile à amorcer et nécessite des impulsions laser très puissantes et très brèves. Ces chercheurs se donnent dix ans pour faire la preuve de leur concept de fusion par laser au bore, sans émissions de neutrons.

La maîtrise de la fusion permettrait non seulement à l’humanité de disposer d’une source d’énergie quasiment inépuisable et n’émettant pas de CO2, mais, on l’oublie trop souvent, ouvrirait également des perspectives radicalement nouvelles en matière de voyages spatiaux et d’exploration de notre système solaire. Une équipe de chercheurs du Laboratoire de physique des plasmas de Princeton (PPPL) est en pointe dans ce domaine et travaille sur un nouveau moteur DFD (Direct Fusion Drive). Ces chercheurs, dirigés par le Docteur Samuel Cohen, travaillent actuellement sur la deuxième mouture de ce concept de moteur à fusion, le PFRC-2 (Princeton field-reversed configuration). Si les futurs tests sont concluants, leur technologie pourrait devenir le principal système de propulsion des vaisseaux spatiaux explorant le système solaire (Voir NEWS WISE).

Ce moteur à fusion directe permet un rapport puissance/poids extrêmement élevé. Le carburant est un mélange de deutérium (2H) et d’hélium 3 (3He). Son impulsion spécifique, c’est-à-dire sa force exercée en fonction de la quantité de carburant consommé par unité de temps — est comparable à celle des moteurs électriques les plus efficaces existant aujourd’hui. Ce moteur DFD fournirait en outre une excellente poussée de l’ordre de 4-5 N en mode faible puissance. Il pourrait donc combiner deux avantages décisifs, l’excellente impulsion spécifique des systèmes de propulsion électrique à la forte poussée des fusées à propulsion chimique.

La NASA se montre très intéressée par ce nouveau type de moteur qui ouvre la voie vers un voyage, dans un délai raisonnable – de l’ordre de seulement deux ans – vers Titan, situé à 1,2 milliard de km de la Terre. Avec plus de 5000 km de diamètre, Titan est le plus gros et le plus mystérieux satellite de Saturne. Il possède une atmosphère riche en composés organiques, des lacs d’hydrocarbures liquides (éthane et méthane), ainsi qu’un immense océan souterrain découvert par la sonde Huygens qui s’est posée sur Titan en 2005. Compte tenu de ses caractéristiques tout à fait extraordinaires, Titan pourrait abriter des formes de vie rudimentaires, ce qui excite la curiosité des chercheurs.

Alors qu’il y a moins dix ans, la question se posait encore de savoir si la maîtrise de la fusion était vraiment possible et serait effective un jour, et que des oiseaux de mauvais augure nous expliquaient que cette technologie ne serait jamais au point et que l’argent investi dans Iter relevait du gaspillage (sur ce point, rappelons que le coût total d’Iter depuis ses origines a été d’environ 20 milliards de dollars, répartis sur sept contributeurs, soit moins de 1 % du PIB annuel de la France et à peine plus qu’une nouvelle ligne de TGV), il ne fait aujourd’hui plus de doute, si l’on en croit les extraordinaires avancées réalisées depuis le début de ce siècle, et l’avis de nombreux physiciens et chercheurs, que la fusion thermonucléaire contrôlée deviendra une réalité avant le milieu de ce siècle, même si personne ne peut prévoir quelle voie technologique s’avérera finalement la plus efficace, tant du point de vue énergétique qu’économique et sécuritaire.

Ce projet scientifique unique en son genre, dans lequel la France joue un rôle-moteur, aura des répercussions positives considérables qui iront bien au-delà de la production propre et abondante d’énergie et permettra de faire des pas de géant dans notre connaissance intime des mécanismes fondamentaux qui régissent l’énergie et la matière, ce qui ne manquera pas, j’en suis convaincu, d’alimenter en aval une cascade d’innovations de rupture dans de nombreux domaines, de favoriser un développement plus durable pour l’économie mondiale et d’améliorer les conditions de vie pour tous les habitants de notre planète…

René TRÉGOUËT

Sénateur honoraire

Fondateur du Groupe de Prospective du Sénat

e-mail : tregouet@gmail.com


TIC
Information et Communication
Une IA pour détecter le Covid-19 à partir de la toux…
Lundi, 30/11/2020 - 14:31

Des chercheurs du MIT (Massachusetts Institute of Technology) ont pu montrer que la toux des personnes infectées par le Covid-19 est différente de celle des sujets sains.

Ces scientifiques ont développé un modèle d'Intelligence Artificielle qui distingue les personnes asymptomatiques des individus en bonne santé grâce... à des enregistrements de toux forcée, que les personnes soumettent volontairement via des navigateurs Web et des appareils tels que les téléphones portables et les ordinateurs portables.

L'idée est de repérer les personnes asymptomatiques infectées par le Covid-19 qui « ne présentent, par définition, aucun symptôme physique discernable de la maladie. Ils sont donc moins susceptibles de rechercher le virus et pourraient sans le savoir propager l'infection à d'autres personnes ».

Pour les chercheurs du MIT, les différences entre la toux de personnes asymptomatiques et celle de personnes en bonne santé ne sont pas perceptibles à l'oreille mais peuvent être détectées par l'intelligence artificielle.

Article rédigé par Georges Simmonds pour RT Flash

Medical Xpress

^ Haut
Matière
Matière et Energie
Terberg teste un porte-conteneurs à hydrogène dans le Port de Rotterdam
Mardi, 01/12/2020 - 20:23

Doté de capacités identiques à ses homologues diesel, le porte-conteneurs à hydrogène YT203-H2 vient d’entamer ses tests au sein du port de Rotterdam. Basé sur le YT203-EV, version entièrement électrique récemment introduite par Terberg, le YT203-H2 résulte d’un développement commun avec zepp.solutions, une entreprise spécialisée dans les systèmes à pile à combustible.

Equipé de quatre réservoirs d’hydrogène de 150 litres stockés sous 350 bars de pression, le YT203-H2 embarque 14.4 kilos d’hydrogène. L’autonomie n’est pas précisée mais Terberg l’annonce suffisante pour assurer une journée complète de fonctionnement.

Conçu pour fournir une capacité de traction égale voire supérieure aux tracteurs diesel, le prototype YT203-H2 vient d’entamer une première série de tests en partenariat avec le Port d’Amsterdam. Il sera ensuite testé sur d’autres sites clients dans différents pays. Pour Terberg, ces expérimentations en conditions réelles d’utilisation permettront de finaliser la conception du produit en vue d’une commercialisation qui pourrait intervenir dans les prochaines années.

Article rédigé par Georges Simmonds pour RT Flash

H2

Le Japon table sur l’ammoniac pour sa transition énergétique
Mardi, 01/12/2020 - 20:19

Importer de l’ammoniac à l’état liquide pour générer de l’énergie sans émettre de CO2 : c’est l’ambitieux pari à long terme d’un vaste consortium industriel au Japon, qui repose toutefois sur de nombreux facteurs encore incertains.

Bien que très corrosif et donc dangereux, ce gaz composé d’hydrogène et d’azote présente des attraits, notamment sa propriété de combustible ne dégageant pas d’émissions de CO2, contrairement aux énergies fossiles. L’ammoniac est aussi déjà massivement produit et exporté dans le monde, servant principalement au secteur des engrais. Par ailleurs, il se maintient à l’état liquide à une température de -33°C environ, bien moins que l’hydrogène liquide (-253°C), d’où un transport plus facile et moins onéreux. L’ammoniac peut être transformé en hydrogène, mais il est aussi envisageable de l’utiliser directement pour alimenter des centrales électriques thermiques et des fours industriels.

Toutes ces qualités font de l’ammoniac « l’option la moins chère et la plus viable » pour l’énergie du futur au Japon, affirme à l’AFP Shigeru Muraki, vice-président exécutif du Green Ammonia Consortium (GAC), un groupement de plus de 70 sociétés, créé en 2019 et réunissant le gratin industriel nippon du secteur de l’énergie.

Le Japon importe près de 90 % de ses ressources énergétiques, étant pauvre en combustibles fossiles et limitant son recours au nucléaire depuis l’accident de Fukushima. Le potentiel local en énergies renouvelables apparaît par ailleurs restreint, au vu des faibles surfaces disponibles et du risque élevé de catastrophes naturelles.

D’où le vif intérêt du Japon pour l’hydrogène depuis des années, et plus récemment pour l’ammoniac. Ce nouvel objectif du gouvernement de parvenir à la neutralité carbone d’ici 2050 devrait en outre donner un coup de fouet à ces énergies alternatives. Le GAC prévoit d’abord d’employer l’ammoniac pour coalimenter les centrales à charbon du pays, puis à partir des années 2030, ses centrales à gaz.

L’ammoniac pourrait ainsi couvrir en 2030 « 1,5 % des besoins en électricité » du Japon, puis « jusqu’à 10 % à l’horizon 2040 », en injectant à hauteur de 13 millions de tonnes par an d'ammoniac dans des centrales à gaz à cycle combiné, avance M. Muraki. Mais il y a plusieurs embûches. Le développement de nouvelles centrales à gaz, spécialement adaptées à l’ammoniac, sera notamment nécessaire pour être en mesure de contrôler ses rejets polluants d’oxydes d’azote (NOx). Et produire de l’ammoniac émet du CO2, à raison de 2,4 tonnes en moyenne pour une tonne d’ammoniac, selon l’Agence internationale de l’énergie (AIE). Ce gaz est responsable d’environ 1 % des rejets mondiaux de CO2 liés aux activités humaines.

Les fabricants de ce gaz devront ainsi profondément adapter leurs méthodes de production, notamment en se dotant de systèmes de captage, de stockage et de valorisation du carbone (CCUS, en anglais).

Ces techniques permettraient de produire de l’ammoniac dit «bleu», en comparaison à l’ammoniac «gris» actuel, obtenu à partir de ressources fossiles et donc polluantes. « Mais dans un premier temps, nous utiliserons de l’ammoniac gris parce que l’ammoniac bleu ne sera pas disponible dans les prochaines années en quantité suffisante, et l’ammoniac vert (produit à partir d’énergies renouvelables, NDLR) encore moins », explique M. Muraki. « Cela prendra du temps ».

M. Muraki est cependant convaincu que les producteurs d’ammoniac s’adapteront à terme : « Le marché de l’énergie est très large par rapport à celui des fertilisants », et l’ammoniac suscite aussi beaucoup d’intérêt comme potentiel carburant maritime, « un autre marché mondial », souligne-t-il.

Fin septembre, le géant saoudien des hydrocarbures Aramco, ainsi que IEEJ, un institut économique nippon dédié aux problématiques énergétiques, ont annoncé l’arrivée au Japon d’un premier chargement de 40 tonnes d’ammoniac bleu pour alimenter, à titre expérimental, une centrale à charbon et deux petites turbines à gaz.

Article rédigé par Georges Simmonds pour RT Flash

JDM

Des chercheurs français et brésiliens réalisent une avancée vers la nourriture par impression 3D
Lundi, 30/11/2020 - 14:37

Des chercheurs de l’Ecole Supérieure d’Agriculture Luiz de Queiroz (Esalq) de l’Université de São Paulo (USP), en partenariat avec l’Ecole Nationale Vétérinaire Agroalimentaire et de l’Alimentation Nantes Atlantique (Oniris) et l’Institut National de la Recherche pour l’Agriculture, l’Alimentation et l’Environnement (INRAE), sont parvenus à créer un gel qui pourra être utilisé dans le cadre de la nourriture par impression 3D.

Ce gel, fait à partir d’amidon modifié de manioc et de blé, possède les propriétés nécessaires pour faciliter l’impression future de nourriture 3D, dont le développement est le résultat d’un projet financé notamment par la région Pays de la Loire et dans le cadre du programme Food 4 tomorrow.

Le résultat positif de cette recherche devrait avoir des retombées dans différents domaines. Ainsi selon ces chercheurs, la technique utilisée servira également dans le cadre du développement de médicaments en capsules et d’alicaments.

Article rédigé par Georges Simmonds pour RT Flash

France Diplomatie

Recharger les voitures électriques jusqu’à 90 % en 6 minutes
Lundi, 30/11/2020 - 14:33

Contrairement aux voitures conventionnelles qui utilisent des moteurs à combustion interne, les voitures électriques sont uniquement alimentées par des batteries au lithium-ion, de sorte que les performances de la batterie définissent les performances globales de la voiture. Cependant, des temps de charge lents et une faible puissance restent des obstacles à surmonter. À la lumière de cela, une équipe de recherche POSTECH a récemment développé un matériau de batterie plus rapide et plus durable pour les voitures électriques.

Les équipes de recherche du professeur Byoungwoo Kang et du Docteur Minkyung Kim du département de science des matériaux et d’ingénierie de POSTECH et du professeur Won-Sub Yoon du département de science de l’énergie de l’Université de Sungkyunkwan ont prouvé ensemble pour la première fois que lors de la charge et de la décharge de Li-ion des matériaux d’électrode de batterie, une puissance élevée peut être produite en réduisant considérablement le temps de charge et de décharge sans réduire la taille des particules. Ces résultats de recherche ont été publiés dans le récent numéro de Énergie et sciences de l’environnement, une revue internationale de premier plan dans le domaine des matériaux énergétiques.

Pour la charge et la décharge rapides des batteries Li-ion, des méthodes qui réduisent la taille des particules des matériaux d’électrode ont été utilisées jusqu’à présent. Cependant, la réduction de la taille des particules a pour inconvénient de diminuer la densité d’énergie volumétrique des batteries.

Pour cela, l’équipe de recherche a confirmé que si une phase intermédiaire dans la transition de phase est formée pendant la charge et la décharge, une puissance élevée peut être générée sans perdre une densité d’énergie élevée ou réduire la taille des particules grâce à une charge et une décharge rapides, permettant le développement de longues -Piles Li-ion durables.

Dans le cas des matériaux de séparation de phases qui subissent le processus de création et de croissance de nouvelles phases lors de la charge et de la décharge, deux phases de volumes différents existent au sein d’une même particule, ce qui entraîne de nombreux défauts structurels à l’interface des deux phases. Ces défauts empêchent la croissance rapide d’une nouvelle phase au sein de la particule, empêchant une charge et une décharge rapides.

En utilisant la méthode de synthèse développée par l’équipe de recherche, on peut induire une phase intermédiaire qui agit comme un tampon structurel qui peut réduire considérablement le changement de volume entre les deux phases dans une particule. De plus, il a été confirmé que cette phase intermédiaire tampon peut aider à créer et à faire croître une nouvelle phase au sein de la particule, améliorant la vitesse d’insertion et d’élimination du lithium dans la particule. Ceci a à son tour prouvé que la formation de phase intermédiaire peut augmenter considérablement la vitesse de charge et de décharge de la cellule en créant une réaction électrochimique homogène dans l’électrode où de nombreuses particules sont composées.

En conséquence, les électrodes de batterie Li-ion synthétisées par l’équipe de recherche se chargent jusqu’à 90 % en six minutes et se déchargent à 54 % en 18 secondes, un signe prometteur pour le développement de batteries Li-ion haute puissance.

« L’approche conventionnelle a toujours été un compromis entre sa faible densité d’énergie et la vitesse rapide de charge et de décharge due à la réduction de la taille des particules », a fait remarquer le professeur Byoungwoo Kang, l’auteur correspondant de l’article. Il a expliqué : « Cette recherche a jeté les bases du développement de batteries Li-ion capables d’atteindre une vitesse de charge et de décharge rapide, une densité d’énergie élevée et des performances prolongées ».

Article rédigé par Georges Simmonds pour RT Flash

Postech

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
Généraliser l’usage du ciment recyclé pour réduire les émissions de CO2
Jeudi, 03/12/2020 - 09:19

La production des 10 milliards de tonnes de ciment dont nous avons besoin chaque année représente environ 8 % des émissions mondiales de CO₂, et il est impératif d’utiliser des ciments plus écologiques pour réduire plus rapidement nos émissions de CO2.

Selon une étude des Nations Unis, de nombreux ciments à faible teneur en CO₂ constituent des alternatives plus durables au ciment Portland traditionnel. Le ciment Portland est produit en chauffant un mélange de calcaire et d'autres minéraux à environ 1 450°C, un processus qui entraîne des réactions chimiques qui libèrent de grandes quantités de CO₂. Mais d'autres matériaux peuvent être utilisés dans le béton, soit en mélange avec du ciment traditionnel, soit comme liant (ou «colle») eux-mêmes, sans aucun ciment Portland. Il s’agit notamment de matériaux générés en grande partie à partir de déchets industriels ou de sous-produits tels que les cendres volantes de charbon, les scories de hauts fourneaux, les argiles calcinées, le calcaire finement broyé ou les fumées de silice.

La production de ces matériaux entraîne des émissions de CO₂ bien inférieures à celles du ciment Portland. Cela se traduirait par une réduction des émissions de CO₂ de 50 % à 80 %, selon la technologie utilisée. Des efforts importants ont été faits ces dernières années pour recycler le béton et autres déchets à base de ciment, notamment en produisant des granulats recyclés. La récupération du béton pour l'utiliser pour les nouvelles constructions est un enjeu majeur, car la rénovation et la démolition sont responsables d'environ 50 % des déchets produits chaque année dans le monde.

Des scientifiques de l’Institut royal de technologie de Melbourne (RMIT) estiment, par exemple, qu’une combinaison de gravats de construction et de vieux pneus pouvait être utilisée comme matériau durable pour la construction de routes. Cela permettrait de donner une deuxième vie aux pneus, qui sont chaque année jetés par milliards dans le monde. En France, le premier immeuble à utiliser un béton composé de granulats recyclés a vu le jour début 2020. Il s’agit de la résidence “Le Onze”, située à Chartres (Eure-et-Loir).

Article rédigé par Georges Simmonds pour RT Flash

ONU

L’empreinte géologique de l’humanité est visible depuis 1950
Jeudi, 03/12/2020 - 09:17

L’Anthropocène est un terme popularisé à la fin du XXe siècle par le prix Nobel de chimie Paul Josef Crutzen et le Biologiste Eugene Stoermer pour désigner une nouvelle époque géologique succédant à l’Holocène, qui aurait débuté avec la révolution industrielle à la fin du XVIIIe siècle. En étudiant 16 marqueurs d’impact majeurs, causés notamment par l’accroissement de la consommation énergétique lié aux activités humaines, une équipe composée de 18 chercheurs du monde entier et appartenant à un groupe de travail sur l’Anthropocène propose une date assez précise et bien plus récente : 1950.

Cette publication nous renseigne sur les moteurs naturels des changements environnementaux depuis les derniers 11 700 ans, c’est-à-dire le début de l’Holocène. Cette étude d’envergure met clairement en évidence que les changements planétaires survenus depuis 70 ans sont directement liés aux activités humaines.

L’étude met en avant 16 facteurs dont voici quelques exemples. Sur cette période de 70 ans, l’espèce humaine a réalisé plus de 500 explosions thermonucléaires en surface, à cause d’essais nucléaires militaires, laissant une signature claire et durable de nos activités à travers l’émission de radionucléides ; elle a doublé la quantité d’azote fixée, notamment à cause des productions industrielles pour l’agriculture ; elle a formé un trou dans la couche d’ozone, à cause des rejets industriels de composés organiques (CFCs) ; elle a relâché suffisamment de gaz à effet de serre par la combustion d’énergies fossiles pour créer un changement climatique.

L’étude précise néanmoins que ces facteurs de changements planétaires ne sont pas tous suffisants pour définir l’Anthropocène de manière géologique, mais ils le deviendront si les tendances actuelles se confirment. Par ailleurs, ce qui est certain, c’est qu’il existe un facteur emblématique de notre impact sur la planète : nous avons tellement produit de plastiques depuis la moitié du XXe siècle que les particules microplastiques sont en train de devenir un marqueur clair et omniprésent de l’Anthropocène. Jaia Syvitski ajoute : « Nous les humains, nous sommes mis tout seuls dans cette situation, nous devons travailler ensemble pour renverser ces tendances environnementales et nous en sortir ».

Article rédigé par Georges Simmonds pour RT Flash

University of Colorado Boulder

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Détecter et traiter immédiatement chaque AVC : un défi pour 2025
Jeudi, 03/12/2020 - 09:22

Agir vite. C’est la consigne à suivre en priorité en cas d’accident vasculaire cérébral (AVC). Plus tôt il est pris en charge, moins il laissera de séquelles. En effet, l’AVC se traduit par une diminution de la circulation sanguine dans le cerveau, aux conséquences très lourdes : « Cette baisse de l’apport sanguin occasionne la perte d’environ 2 millions de neurones par minutes », illustre Mikaël Mazighi, professeur de neurologie et chercheur au Laboratoire de recherche vasculaire translationnelle, à Paris. « C’est une vraie course contre la montre ».

Mais pour agir vite, encore faut-il savoir comment. Or, face à un AVC, la prise en charge n’est pas simple puisqu’elle dépend de l’origine de l’accident : hémorragique, c’est-à-dire dû à la rupture d’une artère cérébrale, ou ischémique, conséquence de l’obstruction d’une artère par un caillot. Dans ce dernier cas, la composition du caillot détermine également la marche à suivre.

Le caillot de sang, c’est le fil rouge du projet Booster, que dirige Mikaël Mazighi. Selon lui, chaque caillot possède une signature unique qui délivre de précieuses informations. En 2016, le chercheur et ses collaborateurs ont créé une biobanque de caillots, collectés auprès de patients victimes d’AVC. Jusqu’alors considérés comme de simples déchets médicaux destinés aux poubelles des blocs opératoires, ils se sont, en réalité, avérés extrêmement utiles. En analysant la composition de centaines d’entre eux, l’équipe a découvert que leurs caractéristiques peuvent être exploitées afin de mettre au point un test diagnostique rapide.

C’est le premier axe du projet : « Nous souhaitons développer un test embarqué dans l’ambulance, dans lequel une solution biologique révélera la présence d’un caillot et sa nature, grâce à une simple goutte de sang », explique le chercheur.  « En effet, le sang contient des biomarqueurs, paramètre physiologique ou biologique mesurable, qui permet par exemple de diagnostiquer ou de suivre l’évolution d’une maladie, qui nous fournissent des indices sur la présence du caillot dans les artères cérébrales, et sur sa résistance ». Le résultat de ce test permettra non seulement de confirmer, le cas échéant, qu’il s’agit bien d’un AVC, mais aussi sa cause, qui déterminera l’intervention.

En effet, il existe deux traitements pour les AVC ischémiques. La thrombectomie mécanique consiste à retirer le caillot (ou thrombus) à l’aide d’une sorte de harpon – un stent, prothèse ressemblant à un ressort et glissée dans une cavité de l'organisme pour la maintenir ouverte – introduit dans l’artère bouchée, depuis l’aine du patient. C’est un traitement récent, qui a été validé il y a à peine cinq ans. C’est grâce à cette intervention que Mikaël Mazighi a pu constituer sa biobanque, avec la participation de sept centres français.

Quant à la thrombolyse, il s’agit d’un traitement médicamenteux qui vise à dissoudre le thrombus, mais qui fonctionne dans 30 % des cas seulement. Grâce au résultat du test sanguin, le patient pourra être pris en charge selon une approche personnalisée : il sera orienté vers la structure la plus adaptée. Car les traitements ne sont pas proposés dans tous les hôpitaux : en France, seuls 40 centres proposent la première technique, 140 la seconde.

Ce manque d’accessibilité se reflète hélas dans les statistiques : seulement 15 % des victimes d’AVC bénéficient d’une thrombolyse, et 5 % d’une thrombectomie. Parmi elles, la moitié va conserver un handicap sévère. Le test sanguin pourrait contribuer à améliorer cette situation en déterminant immédiatement vers quelle structure le patient doit être acheminé. D’ici cinq ans, selon Mikaël Mazighi, il aura été validé sur une cohorte de plusieurs milliers de patients.

Le projet Booster ne s’arrête pas là cependant. Les chercheurs veulent aller plus loin dans l’approche personnalisée concernant les AVC. « Une fois arrivé à l’hôpital, le patient passera une imagerie cérébrale, qui fournira de nouvelles informations sur le caillot. Grâce à des algorithmes fondés sur l’intelligence artificielle, nous souhaitons individualiser le traitement », explique le chercheur. « Il s’agit de prédire le niveau de résistance du caillot au traitement, et d’adapter la thérapeutique en conséquence ». En effet, tous les caillots ne se ressemblent pas : ils diffèrent par leur taille et leur robustesse. « À l’image d’une noix, un caillot contient un cœur mou entouré d’une coque dure qui lui confère sa solidité », illustre le chercheur. Plus celle-ci est élevée, plus les traitements devront être puissants. Or, doser le traitement est primordial pour réduire le risque d’hémorragie cérébrale.

Enfin, le projet porte également l’ambition de découvrir de nouvelles cibles thérapeutiques pour améliorer la thrombolyse et la thrombectomie. L’analyse des caillots a, par exemple, fourni d’importantes informations concernant la structure de la coque : « Nous avons découvert qu’elle est constituée d’un réseau de fragments d’ADN, recrachés par des globules blancs – les neutrophiles », indique le neurologue. Cet ADN constitue une nouvelle cible thérapeutique : « Nous sommes en train de développer un stent bioactif recouvert d’une fine couche de molécules lui conférant une forte affinité pour l’ADN. Le but est d’augmenter les chances de capturer le caillot du premier coup, ce qui influence fortement le pronostic ».

Ces stents pourront entrer en production dans quatre ou cinq ans. Parallèlement, de nouveaux médicaments antithrombotiques sont testés. « La contrainte à laquelle nous sommes confrontés, c’est que le cerveau a tendance à saigner à la phase aiguë de l’AVC, ce qu’il faut éviter à tout prix. Or la thrombolyse peut aggraver l’hémorragie », explique Mikaël Mazighi. « Nous développons donc des médicaments qui ont un effet sur le caillot, mais pas de conséquences néfastes sur le risque hémorragique. Ces médicaments sont actuellement évalués par des essais cliniques ».

Ces nouveautés thérapeutiques sont attendues avec impatience. L’AVC est en effet la première cause de handicap, la première cause de mortalité chez les femmes (avant le cancer du sein) en France et, d’ici 2035, le nombre d’AVC devrait augmenter de 34 % en Europe.

Article rédigé par Georges Simmonds pour RT Flash

Inserm

Manger des oméga-3 pour réduire ses risques de récidive de crise cardiaque
Jeudi, 03/12/2020 - 09:15

Selon une étude de l’IMIM (Hospital del Mar Medical Research Institute) de Barcelone, les oméga-3 et les aliments à forte concentration en oméga-3 permettent d’améliorer le pronostic post-crise cardiaque. Ces travaux, publiés dans le Journal of the American College of Cardiology (JACC), montrent comment une consommation régulière d'oméga-3, d'origine animale et végétale, renforce les membranes cardiaques et contribue ainsi à réduire le risque de réadmission à l'hôpital et la mortalité après un premier infarctus du myocarde.

L’étude a suivi 950 patients. Les taux sanguins d'oméga-3 ont été mesurés à l’admission à l'hôpital pour crise cardiaque. Cette mesure indique, très précisément, la quantité de ce type d’acides gras, consommée dans les semaines précédant le prélèvement, c'est-à-dire avant la crise cardiaque.

Les patients ont ensuite été suivis pendant 3 ans après leur sortie. L’analyse montre que des niveaux sanguins élevés d’oméga-3 au moment de l'infarctus sont associés à un risque réduit de complications de l’infarctus. L'acide eicosapentaénoïque (EPA) est un type d'acide gras oméga-3 présent dans les poissons gras. Lorsque nous mangeons régulièrement du poisson gras, l'EPA est incorporé aux phospholipides dans les membranes des cardiomyocytes, ce qui les protège d'une grande variété de facteurs de stress cardiaques. Cet enrichissement des membranes myocardiques limite les dommages provoqués en cas de crise cardiaque.

L’acide alpha-linolénique (ALA) retrouvé dans les noix, le soja et leurs dérivés, est beaucoup moins étudiée que les oméga-3 marins EPA. L’ALA n’est pas en concurrence avec l’EPA, mais complémentaire : alors que des niveaux élevés d'EPA sont associés à un risque plus faible de réadmission à l'hôpital pour causes cardiovasculaires, des niveaux plus élevés d'ALA sont associés à un risque réduit de décès. Ainsi, intégrer des oméga-3 marins et végétaux dans l'alimentation des patients à risque de maladie cardiovasculaire apparaît comme une stratégie naturelle et efficace pour améliorer leur qualité de vie et leur pronostic en cas de crise cardiaque.

Article rédigé par Georges Simmonds pour RT Flash

IMIM

Cancer : un patient sur huit présente une mutation génétique héréditaire
Mardi, 01/12/2020 - 20:28

Des chercheurs de la Clinique Mayo (États-Unis) ont découvert qu’un patient sur huit développant un cancer présente une mutation génétique héréditaire. Pourtant, celle-ci n’est détectée que chez la moitié d’entre eux grâce aux approches standardisées. Cette découverte pourrait permettre de diminuer le risque de mortalité de ces cancers dus à des mutations génétiques, grâce notamment à des thérapies individualisées.

Testé sur plus de 3 000 patients atteints d'un cancer dans les centres de cancérologie de la Clinique Mayo en Arizona, en Floride et au Minnesota, ce test a permis de découvrir que 13,5 % des patients avaient une mutation héréditaire dans un gène associé au développement de leur cancer. « Tout le monde a un certain risque de développer un cancer et, dans la plupart des cas, la maladie se développe par hasard. Cependant, certaines personnes sont génétiquement prédisposées à développer certains types de cancer, comme les cancers du sein ou du côlon », explique le Docteur Niloy Jewel Samadder, gastro-entérologue et hépatologue à la Clinique Mayo.

L’équipe de recherche a suivi pendant deux ans 3 084 patients et leur a fourni des tests génétiques. Le projet, qui représente la plus grande étude multicentrique connue sur le dépistage universel des patients atteints de cancer, comprenait un large éventail de stades et de types de cancer, notamment les cancers du sein, colorectal, du poumon, des ovaires, du pancréas, de la vessie, de la prostate et de l'endomètre.

Les chercheurs ont été surpris de constater que les directives standard sur lesquelles les médecins se sont appuyés pour déterminer quels patients atteints de cancer devaient subir un test génétique n'ont permis d'identifier que 48 % des patients présentant effectivement une mutation génétique héréditaire. « Plus de la moitié des patientes qui ont développé un cancer dû à des mutations héréditaires n'ont pas été identifiées, ce qui a des conséquences majeures pour les membres de leur famille », souligne le Docteur Samadder. Pour un tiers des patients présentant des gènes du cancer, la découverte de cette mutation génétique a eu pour conséquence une modification de leur traitement médical initial, notamment le type de chirurgie ou de chimiothérapie qu’ils avaient reçu. « Ce traitement ciblé aurait été perdu si les patients n'avaient pas subi de test génétique », insiste le Docteur Samadder.

Selon les auteurs de l’étude, ces tests génétiques sont encore trop peu utilisés dans le cadre des soins apportés aux personnes atteintes d’un cancer, mais aussi pour les membres de leur famille, qui sont aussi à risque. « Tous les patients atteints de cancer devraient avoir accès à une information génétique complète qui puisse guider leurs soins et informer leur famille de ce risque », recommande le Docteur Robert Nussbaum, co-auteur des travaux.

Article rédigé par Georges Simmonds pour RT Flash

JAMA

Quand la musique soigne les douleurs chroniques
Mardi, 01/12/2020 - 20:26

On savait déjà que la musique pouvait avoir des effets bénéfiques avérés sur le stress et l’anxiété. « L’écoute musicale réduit les évaluations subjectives de sensation de stress et, en diminuant la concentration de cortisol, la pression artérielle et le rythme cardiaque », note Emmanuel Bigand, professeur de psychologie cognitive à Dijon, dans son ouvrage La Symphonie neuronale. Certaines études ont ainsi montré que la musique s’avérait aussi efficace qu’un anxiolytique.

De la même façon, l’écoute de la musique a montré son efficacité comme antalgique. Un pouvoir qui s’expliquerait par un effet de distraction qui détournerait l’attention de la douleur. « On peut également souligner que la musique plaisante active les structures neuronales du système limbique et du mésencéphale, aussi impliquées dans les sensations de douleur. Cette activation pourrait en quelque sorte court-circuiter les réseaux de la douleur », explique encore Emmanuel Bigand.

Ces différentes propriétés sont exploitées par l’application MusiCare, une méthode non médicamenteuse utilisée par les services d’une centaine d’hôpitaux et cliniques. Les séances durent une vingtaine de minutes pendant lesquelles les patients écoutent un morceau de musique dans un style qui leur plaît mais spécialement conçu pour l’application.

« Nous avons opté pour des créations originales pour éviter les souvenirs liés à des morceaux connus », explique le Professeur Jacques Touchon, président du conseil scientifique de la société qui a développé l’application. Généralement, la séance musicale suit une courbe en trois phases. Elle se base sur le principe de l’hypnoanalgésie : après une phase d’induction, elle va progressivement amener à un état hypnotique modifié de conscience par les variations des composantes musicales comme le rythme, les fréquences, la formation orchestrale et le volume.

Les premières études réalisées avec cette application concernaient des douleurs chroniques comme la lombalgie chronique ou la fibromyalgie. « Elles ont démontré une diminution de la douleur et surtout une réduction de plus de 30 % de la consommation d’antalgiques », affirme le Professeur Jacques Touchon.

Article rédigé par Georges Simmonds pour RT Flash

Le Figaro

Une malformation illustre l’incroyable plasticité du cerveau
Mardi, 01/12/2020 - 20:21

Une personne sur 4000 naît sans corps calleux, une structure cérébrale composée de fibres neuronales qui servent à faire passer des informations d’un hémisphère à l’autre. Un quart d’entre elles ne souffre d’aucun symptôme, les autres ont soit de faibles quotients intellectuels, soit des troubles cognitifs prononcés. Des neuroscientifiques de l’Université de Genève (UNIGE) ont découvert qu’en l’absence de fibres neuronales servant de pont entre les hémisphères, le cerveau se réorganise et crée un nombre remarquable de connexions à l’intérieur de chaque hémisphère. Elles y créent plus de connexions intrahémisphériques que dans des cerveaux sains, ce qui indique l’implication de mécanismes de plasticité. Ceux-ci permettraient au cerveau de compenser les pertes en recréant des connexions vers d’autres régions du cerveau en utilisant des voies neuronales alternatives.

Le corps calleux se développe in utero entre la 10e et la 20e semaine de gestation. L’agénésie du corps calleux est une malformation cérébrale congénitale qui correspond à l’absence de formation de cette structure cérébrale, si bien qu’un bébé sur 4000 naît sans corps calleux. En son absence, rien ne remplace cette structure d’une dizaine de centimètres, hormis du liquide céphalorachidien. Les informations transmises d’un hémisphère à l’autre ne peuvent donc plus être assurées par les projections neuronales du corps calleux.

Leur rôle dans un cerveau sain est, selon la chercheuse de la Faculté de médecine de l’UNIGE Vanessa Siffredi, « d’assurer le bon fonctionnement de diverses fonctions cognitives et sensori-motrices ». Étonnamment, 25 % des personnes atteintes par cette malformation n’ont aucun signe apparent, 50 % ont des quotients intellectuels moyens et des difficultés d’apprentissage, et les 25 % restant souffrent de troubles cognitifs prononcés. 

La littérature scientifique montre qu’en l’absence de corps calleux, certaines fibres destinées à servir de pont entre les hémisphères, appelées fibres de Probst, contournent la zone cérébrale absente et se recourbent à l’intérieur de chacun des hémisphères. « Les zones de repli varient totalement d’un individu à l’autre. On ne connaît ni leurs rôles ni leurs fonctions », indique la neuroscientifique. Afin de comprendre cette variabilité et d’examiner le rôle de ces fibres, les scientifiques de l’UNIGE, en collaboration avec leurs collègues de l’Université de Melbourne, ont étudié par imagerie cérébrale IRM les liens anatomiques et fonctionnels entre les structures cérébrales d’une vingtaine d’enfants australien(nes) de 8 à 17 ans souffrant d’agénésie du corps calleux. 

Leur approche a d’abord permis d’observer les relations physiques entre les différentes régions du cerveau, c’est-à-dire les liens structurels. Chez les enfants souffrant d’agénésie du corps calleux, les fibres neuronales présentes à l’intérieur de chaque hémisphère sont plus nombreuses et de meilleure qualité que dans des cerveaux sains. De plus, les scientifiques de l’UNIGE ont réussi à déterminer les corrélations entre l’activité des différentes régions du cerveau, donc leurs liens fonctionnels. « Si deux régions s’activent ensemble, cela signifie qu’elles communiquent entre elles », précise Vanessa Siffredi. Les données montrent que les connectivités fonctionnelles intra- et interhémisphériques des cerveaux sans corps calleux sont comparables à celles des cerveaux sains. « De manière remarquable, la communication entre les deux hémisphères est préservée. Nous pensons que des mécanismes de plasticité, tels que le renforcement des liens structurels à l’intérieur de chaque hémisphère, ont compensé l’absence de fibres neuronales entre les hémisphères. De nouvelles connexions sont créées et les signaux peuvent être déroutés afin de préserver la communication entre les deux hémisphères », poursuit la chercheuse. 

Les neuroscientifiques genevois(es) ont en outre observé une corrélation entre l’augmentation des connexions intra hémisphériques et les compétences cognitives. Une information très intéressante pour les aspects cliniques puisque l’agénésie étant actuellement détectée par échographie lors de la grossesse, une proposition d’interruption de grossesse est souvent formulée. « Dans un avenir proche, nous pourrions imaginer utiliser l’imagerie IRM afin de prédire si la malformation observée par échographie a des risques d’association avec une déficience cognitive ou pas et ainsi, mieux informer les futurs parents », conclut la chercheuse.

Article rédigé par Georges Simmonds pour RT Flash

UNIGE

Le Coronavirus est bien une maladie systémique
Lundi, 30/11/2020 - 14:34

Une équipe de recherche russo-japonaise vient de montrer que le Coronavirus provoquait une véritable attaque systémique dans notre organisme, ce qui expliquerait les atteintes pulmonaires, mais aussi cardiovasculaires, digestives et neurologiques constatées chez les malades. Le coronavirus SARS-CoV-2 s’attaquerait en effet à la moelle rouge et bloquerait la formation de nouveaux érythrocytes (ou globules rouges). Cette attaque massive des globules rouges entraînerait des dommages aux neurones cérébraux, aux vaisseaux sanguins et aux organes internes, dont la fibrose pulmonaire serait l’une des manifestations les plus évidentes mais pas la seule.

Selon ces chercheurs, les globules rouges seraient la cible principale du SARS-CoV-2. « Le virus pénètre dans l'épithélium, où il se multiplie, puis pénètre dans la circulation sanguine et attaque ses cibles, à la fois l'épithélium interne (tractus gastro-intestinal, poumons, système génito-urinaire) et les érythrocytes », explique Galina Reva, professeur au département de médecine fondamentale à la FEFU. La perte d'érythrocytes peut alors endommager les neurones cérébraux, les vaisseaux sanguins et les organes internes, qui ne reçoivent plus assez d'oxygène.

Toute personne ayant un faible taux d'hémoglobine est à risque. Il s'agit tout d'abord des personnes âgées, des patients souffrant d'hypertension artérielle, des personnes souffrant d'obésité et de diabète sucré, des femmes enceintes, des patients présentant un déficit immunitaire primaire et acquis, avec inhibition de la fonction hématopoïétique, des patients atteints du VIH et du cancer.

C’est pour cette raison que les cellules du système immunitaire et des mégacaryocytes, de très grandes cellules de la moelle osseuse, ont été trouvées dans les tissus de divers organes. Normalement, les mégacaryocytes produisent des plaquettes sanguines, qui sont responsables de la coagulation du sang, mais avec le COVID-19, ils coagulent le sang dans les vaisseaux sans aucune nécessité.

Ainsi, la fibrose pulmonaire n’est qu’une manifestation plus évidente du COVID-19, causée elle-aussi par un excès de mégacaryocytes dans la circulation sanguine et des processus similaires peuvent se produire dans les tissus de tous les organes parenchymateux (denses), à savoir les poumons, le foie, la rate, les reins, le pancréas et la thyroïde.

Article rédigé par Georges Simmonds pour RT Flash

Euromedica

Un anticorps monoclonal qui réduit de moitié le mauvais cholestérol
Lundi, 30/11/2020 - 14:26

Des chercheurs de la Mount Sinai School of Medicine (New York) ont confirmé  l’efficacité d’une nouvelle thérapie par anticorps monoclonal entièrement humain dans le traitement de l’hypercholestérolémie. L’analyse présentée lors de la dernière Réunion scientifique de l’American Heart Association, montre que le médicament expérimental evinacumab permet de réduire de 50 % les niveaux de cholestérol LDL (ou « mauvais » cholestérol) chez des patients atteints d'hypercholestérolémie sévère résistant aux traitements standards.

L’hypercholestérolémie sévère est « un mal des pays riches » avec une prévalence qui dépasse les 7 % en population générale. L'hypercholestérolémie familiale est présente chez 1 personne sur 313, mais est beaucoup plus fréquente (1 personne sur 15) chez les patients atteints d'une maladie cardiovasculaire à début précoce.

L'American Heart Association recommande un objectif de cholestérol LDL inférieur à ou égal à 70 mg par décilitre chez les patients présentant un risque très élevé de maladie cardiovasculaire athéroscléreuse, et des cibles plus agressives ont été établies par la Société européenne de cardiologie avec une cible de cholestérol LDL à 55 mg / dL ou moins. Ces objectifs restent difficiles à atteindre pour de nombreux patients atteints d'hypercholestérolémie.

L'évinacumab est un anticorps monoclonal entièrement humain qui fonctionne selon un mécanisme différent de celui des médicaments existants et qui permet ainsi, démontre cet essai, de ramener un taux de cholestérol dangereusement élevé à des niveaux normaux lorsqu'il est associé à des traitements hypolipidémiants tolérés, chez des patients atteints d'hypercholestérolémie familiale, une maladie héréditaire courante difficile à traiter.

L’essai a évalué l'innocuité et l'efficacité de l'évinacumab et conclut que le médicament permet de réduire de moitié le cholestérol LDL chez ces patients incapables d'atteindre les recommandations cibles avec les traitements hypolipidémiants standards. Précisément, l’essai mené auprès de 272 patients atteints d'hypercholestérolémie primaire montre que l'administration sous-cutanée de 450 mg par semaine de l’évinacumab entraîne une baisse du cholestérol LDL de 56 % et de 52,9 % à 300 mg par semaine vs placebo. Une administration intraveineuse mensuelle d'évinacumab à 15 mg / kg, induit une réduction du cholestérol LDL de 50,5 % vs placebo. Tous les patients recevant de l'évinacumab suivaient également des traitements hypolipidémiants de base.

L’auteur principal, le Docteur Robert Rosenson, professeur de cardiologie, précise : « L'évinacumab est un anticorps monoclonal entièrement humain qui inhibe l'angiopoïétine comme la protéine 3 et abaisse le cholestérol LDL par une voie indépendante des récepteurs LDL. Des études génétiques ont montré que les personnes qui manquent ou ont de faibles taux d'ANGPTL3 ont, à vie, des taux de cholestérol LDL faibles et souffrent rarement de maladie cardiovasculaire athéroscléreuse ».

Article rédigé par Georges Simmonds pour RT Flash

Eurekalert

Une exposition prolongée au bruit augmente les risques de maladie d'Alzheimer
Lundi, 30/11/2020 - 14:24

Des chercheurs américains des universités de Boston et du Michigan ont montré que le fait de vivre dans une zone bruyante conduit à augmenter les risques de développer Alzheimer sur le long terme. Cette forme de démence peut être causée par de nombreux facteurs et le bruit vient s’ajouter à la liste. « La maladie d’Alzheimer est multi-factorielle : elle est la conséquence d’une combinaison complexe de différents facteurs : âge, terrain génétique et facteurs environnementaux », précise la Fondation pour la Recherche médicale.

Les chercheurs ont étudié les données relatives à 5 277 participants, tous âgés de 65 ans et plus et vivant dans la partie sud de Chicago dans le cadre du Chicago Health and Aging Project. Ils ont étudié leur exposition au bruit et ont constaté qu’une augmentation sonore de seulement 10 décibels, une différence minime qui est celle qui existe entre respirer et chuchoter, accroît de 30 % le risque d’être atteint de maladie d’Alzheimer. Mais cela n’est pas tout puisque ce bruit supplémentaire augmente de 36 % les troubles cognitifs légers, tels que ceux touchant la mémoire et les capacités de réflexion.

Cette découverte permet d’imaginer des moyens de réduire les risques de développer la maladie d’Alzheimer. « Des niveaux de bruit plus élevés peuvent avoir un impact sur les capacités cognitives des personnes âgées et empêcher le cerveau de fonctionner correctement », a poursuivi Sara Adar, auteure de l’étude. « Il existe une opportunité de santé publique car il existe un moyen humain de réduire cette exposition aux bruits ».

Ces résultats s’ajoutent aux découvertes passées sur l’influence de l’environnement sur la santé. « Cette étude s’ajoute à des preuves croissantes suggérant que l’environnement dans lequel nous vivons pourrait avoir un impact sur notre risque de démence », conclut le Docteur Byron de la faculté de médecine de l’Université d’Exeter.

Article rédigé par Georges Simmonds pour RT Flash

Alzheimer's Association

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top