RTFlash

RTFLASH Recherche & Technologie
NUMERO 1060
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 17 Juillet 2020
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
Avenir
Des chercheurs du MIT placent des milliers de synapses artificielles sur une micropuce
Matière
Étape majeure pour le projet de fusion nucléaire ITER
Quand la silice accroît la durée de vie des batteries au lithium-soufre
Le « cinquième état de la matière » observé pour la première fois dans l’Espace
La séparation de l’eau par UV a maintenant une efficacité quantique de presque 100 %
Terre
Vers un carburant neutre en carbone pour les avions ?
Vivant
Un mauvais sommeil augmente les risques de maladies cardiovasculaires
Une nouvelle technique pour transporter les vaccins sans réfrigération
Influencer les rêves en modulant l’activité cérébrale
COVID 19 : La quantité d’anticorps capables de neutraliser le virus diminue après six semaines
Bientôt un masque chirurgical transparent pour garder le sourire
Un modèle humain d'embryon développé à partir de cellules souches
La perception de l'écoulement du temps est aussi liée au mouvement et à l’environnement
Recherche
Alstom va tester des trains autonomes pour le transport régional en Allemagne
Edito
L'hydrogène naturel pourrait devenir une véritable source d'énergie propre et inépuisable…



Actuellement, les 75 millions de tonnes par an d’hydrogène que consomme l’Humanité est essentiellement produit par vaporeformage, un procédé très énergivore qui utilise des énergies fossiles (méthane, pétrole, charbon). Le coût économique et écologique de cette production reste malheureusement très important : à capacité énergétique égale, l'hydrogène coûte cinq fois plus cher que le pétrole à fabriquer, et chaque kilogramme d'hydrogène issu des énergies fossiles entraîne l’émission de dix kilogrammes de dioxyde de carbone (CO2). Enfin, dernier obstacle qui freine l’utilisation d’hydrogène comme source directe d’énergie, le rendement énergétique de sa production est inférieur à celui de la combustion directe des ressources hydrocarbonées fossiles servant à le fabriquer. Si l'on devait produire l'ensemble de l’hydrogène que nous consommons au niveau mondial par électrolyse de l'eau, il faudrait dépenser pas moins de 3 600 térawattheures par an, l'équivalent de 15 % de la production mondiale d'électricité...

Il existe cependant une possibilité, encore sous-exploitée, de produire un hydrogène propre, à partir du nucléaire. Outre Atlantique, trois producteurs d’électricité et le Idaho National Laboratory viennent d'être chargés d'adapter trois centrales nucléaires, situées dans l’Ohio, le Minnesota et l’Arizona, afin qu'elles puissent produire de l’hydrogène par électrolyse de l'eau, sans émissions de CO2. En France, si nous voulons que l'hydrogène couvre 20 % de notre consommation en énergie en 2050, comme cela est prévu dans nos objectifs énergétiques, nous devons également adapter sans tarder certaines de nos centrales nucléaires, afin qu'elles soient en capacité de produire de grandes quantités d'hydrogène propre. Le gouvernement semble avoir pris conscience de cette nécessité et le Ministre de l'Economie a annoncé il y a quelques semaines une initiative commune avec l'Allemagne, visant à développer la production d'hydrogène sans émissions de CO2.

Quant aux piles à combustible, leur principe est connu depuis 1839, et elles permettent de convertir directement de l’énergie chimique en énergie électrique. Sans rentrer dans des détails trop techniques, ces piles à combustible utilisent soit des électrolytes acides, soit des électrolytes basiques. La première catégorie (électrolytes acides) fonctionne à basse température et elle est plutôt dévolue aux transports. La seconde catégorie (électrolytes basiques) fonctionne à haute température et est destinée à la cogénération, c’est-à-dire à la production simultanée de chaleur et d’électricité, ce qui permet d’alimenter en énergie des habitations et des bureaux.

Les piles à combustible à basse température, qui équipent déjà certaines voitures, utilisent la technologie dite à membrane échangeuse de protons (PEM). Mais cette technique reste très onéreuse car elle nécessite des catalyseurs à base de métaux précieux, comme le platine ou l'iridium, et des électrodes en titane. C’est ce qui explique que les voitures à hydrogène coûtent encore plus de 60 000 € (hors aides de l’État), ce qui ne permet pas d’envisager à court terme leur commercialisation massive, et cela d’autant plus que ces véhicules nécessitent le déploiement, lui aussi très coûteux, d’un réseau de distribution d’hydrogène devant répondre à des normes draconiennes en termes de sécurité.

Heureusement, l’obstacle rédhibitoire que constitue le prix actuel de fabrication des piles à combustible pour véhicule pourrait être levé plus rapidement que prévu grâce à plusieurs avancées technologiques récentes. Citons par exemple, les récentes recherches menées par des scientifiques de l'Université d'État de Washington. Cette équipe a réussi à concevoir un nouveau type de piles à combustible fonctionnant avec un excellent rendement dans un environnement alcalin ou basique, uniquement à l’aide de fer, de nickel, métaux abondants et bon marché, sans avoir recours au platine, à l’iridium et au titane. Ces piles de nouvelle génération, sous réserve qu’elles confirment leurs promesses en termes de fiabilité et de longévité, pourraient permettre de fabriquer en masse des véhicules à hydrogène au même prix que les véhicules thermiques, d’ici la fin de cette décennie.

Mais si l’utilisation de l’hydrogène comme source directe d’énergie reste problématique, le recours à l’hydrogène comme vecteur de stockage et de transformation de l’énergie est en revanche en plein essor, notamment grâce à une technologie qui ne cesse de se développer, tant en France qu’en Europe : le « Power-to-Gas ». Ce concept consiste à convertir en hydrogène, par électrolyse de l’eau, les excédents d’électricité issus des énergies renouvelables, solaire et éolien principalement. Cet hydrogène peut alors, soit être injecté directement dans le réseau de gaz naturel (jusqu’à une concentration de 20 %), soit être combiné à du CO2, pour obtenir du méthane de synthèse qui pourra également être utilisé dans les infrastructures de distribution de gaz.

En France, plusieurs études récentes ont montré que l'électrolyse pourrait ainsi assurer la gestion de surplus de production du système électrique français d'au moins 3 TWh/an en 2030, et jusqu’à 30 TWh/an à l'horizon 2050, ce qui représente respectivement 100 puis 1500 installations de 10 MW qui fonctionneraient 2500h/an !

Reste que, contrairement aux énergies fossiles (charbon, pétrole et gaz) que l’on peut directement exploiter et utiliser, l’hydrogène, bien qu’il soit trois fois plus énergétique, à masse égale que le pétrole, doit être fabriqué à partir d’autres sources d’énergie, car il n’existe qu’en quantité extrêmement faible à l’état naturel sur notre planète. C’est du moins ce que l’on a longtemps cru, jusqu’à ce qu’une publication de l’Institut Français du Pétrole et des énergies renouvelables -IFPEN- en 2013 ne vienne complètement remettre en cause cette quasi-certitude.

Dans cette note, l’IFPEN rappelait que les premières sources naturelles d’hydrogène - résultant du contact entre l’eau de mer et des roches provenant du manteau terrestre, les péridotites - avaient été découvertes le long des dorsales media-océaniques il y a plus d’un demi-siècle, mais cet organisme, à la compétence scientifique reconnue, précisait que l' exploitation de cet hydrogène marin n’était pas envisageable, en raison d’un coût économique prohibitif.

Depuis 2013, l'IFPEN a donc orienté ses travaux sur les sources terrestres d’hydrogène, les seules qui soient économiquement exploitables et ont été observées dans deux types de configuration géologique : d’une part, dans les grands massifs terrestres de péridotite, qui se caractérisent par une situation tectonique particulière, exposant les roches issues du manteau au contact des eaux météoriques ; d’autre part, dans certaines zones situées au cœur des continents, appelées zones intraplaques.

Plus récemment, de nouvelles recherches de l'IFPEN ont confirmé l'existence de flux beaucoup plus puissants que prévu d’hydrogène sur les plus grands massifs de péridotites, en différents endroits du globe. Ces investigations ont également confirmé la permanence de flux d'hydrogène dans des zones intraplaque.

De manière tout à fait inattendue, ces nouvelles explorations ont montré que les fluides naturels découverts pouvaient être composés de plus de 80 % d’hydrogène. Autre découverte importante, cet hydrogène est souvent associé à du méthane et à de l'azote, et, pour certains sites, à de l'hélium techniquement récupérable, un gaz rare et très recherché, notamment dans certaines applications de haute technologie.

À ce jour, la communauté scientifique reste partagée quant aux mécanismes qui sont à l’origine de cette production d’hydrogène océanique et terrestre. S’agissant de l’hydrogène marin, l’hypothèse scientifique la plus vraisemblable pour l’instant repose sur une interaction physico-chimique entre l'olivine, qui contient du fer ferreux (des ions Fe2+), et l'eau chaude, produite par l'hydrothermalisme qui caractérise les rides médio-océaniques. Selon cette hypothèse, il semblerait que ce fer ferreux se dissolve dans l’eau, provoquant une réaction d'oxydo-réduction, qui transforme le fer ferreux en fer ferrique (Fe3+), ainsi qu’une production d’hydrogène moléculaire. Cette réaction, dite de serpentinisation, peut se produire dans les conditions particulières de température et de pression qui règnent dans les grands fonds océaniques.

L'origine de l'hydrogène terrestre, qui serait présent en quantité importante, pouvant aller jusqu’à plusieurs dizaines de milliers de mètres cubes par jour et par structure, dans certaines zones continentales, fait également l’objet de plusieurs hypothèses. Pour expliquer l'émission d'hydrogène naturel, Nikolay Larin, de l'institut Schmidt de physique de la Terre à Moscou, et ses collègues, avancent que l'hydrogène serait piégé dans des hydrures métalliques (structures cristallines combinant des atomes d'hydrogène et de métal) au sein du noyau terrestre ; cet hydrogène se libérerait ensuite très progressivement et finirait par remonter jusqu'à la surface, au cours d’un processus de durée extrêmement longue : plusieurs centaines de milliers ou plusieurs millions d’années.

Quoi qu’il en soit, il est à présent avéré que les estimations du flux naturel d’hydrogène sont importantes et pourraient répondre, selon certaines études, à l’ensemble des besoins en hydrogène dans le monde, qui est de l’ordre de 75 Mt/an). Mais la découverte capitale qui ressort de ces récentes recherches et explorations est que cette importante production terrestre d’hydrogène naturel résulte bien d’un flux continu et permanent, qui vient des profondeurs de la terre, et non d’une ressource fossile, par définition limitée en quantité totale.

Pour d’autres chercheurs, il est également possible que cette présence en grande quantité d’hydrogène « primordial » s’explique par sa présence dans le manteau depuis la formation de la Terre. Si tel était le cas, cet hydrogène naturel serait alors une ressource que l’on pourrait qualifier de fossile, mais il existerait dans les profondeurs de notre planète en quantité quasiment inépuisable. Pour s’en convaincre, il suffit de rappeler que la totalité du pétrole produit depuis près de deux siècles représente un volume de l’ordre de 250 km³, à comparer au volume du manteau terrestre (≈ 920. 000 km³) …

Cette présence en grande quantité d’hydrogène sous nos pieds a également été confirmée par la découverte tout à fait accidentelle, au Mali, à la suite du forage d’un puits pour chercher de l’eau, d’un gisement d’hydrogène important et continu, qui a été mis en production par la compagnie Petroma, devenue Hydroma. Le directeur de cette société, Aliou Diallo, a rapidement compris qu’il avait découvert une source d’énergie très intéressante pour accompagner le développement local de ce pays très pauvre. L’hydrogène natif issu de ce puits est en effet pur à 96 %. Il est récupéré sur place et sert à alimenter une turbine à gaz qui peut produire suffisamment d’électricité pour tout un village.

Fait remarquable, ce puits d’hydrogène est à présent exploité depuis quatre ans, sans qu’aucune diminution de pression n’ait été pour l’instant observée, ce qui est d’autant plus troublant que le réservoir d’hydrogène n’est qu’à 110 m de profondeur. En outre, les nombreux capteurs d’hydrogène disséminés à la surface ont bien confirmé l’absence de fuite. Cette situation très étrange, mais pourtant bien réelle, montre donc que, contrairement à ce qui était admis jusqu’à présent, il existe bien des configurations géologiques particulières qui permettent une accumulation importante, à une profondeur relativement faible, d’hydrogène à l’état gazeux.

Pour essayer de mieux évaluer l’importance et la régularité de ces flux d’hydrogène terrestre, des chercheurs d’Engie ont mis au point un nouveau capteur d’hydrogène qui mesure ce flux toutes les heures et transmet automatiquement les données par satellite aux scientifiques. Ces chercheurs ont disposé plus d’une centaine de ces capteurs dans le bassin de Sao Francisco au Brésil, un site qui était déjà connu pour ses émanations d’hydrogène gazeux. Après deux ans d’observations rigoureuses, ces scientifiques ont pu confirmer l’importance du flux d’hydrogène observé : environ 7 000 m³/jour sur une structure de 0,4 km2…

L’ensemble de ces récentes explorations et découvertes a permis de montrer que la production d’hydrogène terrestre serait de l’ordre de 50 et 1 900 kg/km²/jour, selon la spécificité des sites géologiques observés, ce qui est tout à fait considérable, quand on sait qu’il suffit de seulement 5 kg d’hydrogène pour remplir le réservoir d’une voiture et faire 800 km.

Il reste à présent un vaste travail de recensement et d’exploration au niveau mondial de l’ensemble des sites et configurations géologiques les plus faciles et les plus rentables à exploiter pour produire et récupérer de grandes quantités d’hydrogène venant des entrailles de la Terre. L’enjeu de ces recherches est immense, car si cet hydrogène naturel s'avérait effectivement exploitable à un coût économique compétitif par rapport à celui des autres sources d’énergie fossile, l’humanité aurait à sa disposition une nouvelle source d’énergie propre et quasi inépuisable, de surcroît bien répartie sur les différents continents, ce qui n’est pas le cas des énergies fossiles.

Dans un tel scénario, l’utilisation massive de l’hydrogène deviendrait une réalité, non seulement en tant que vecteur pour le stockage et la transformation de l’énergie, mais également en tant que source directe d’énergie, pouvant se substituer aux énergies fossiles pour les transports et le chauffage des bâtiments, qui représentent à eux seuls près des deux tiers de la consommation mondiale d’énergie et des émissions de gaz à effet de serre d’origine humaine.

Une telle perspective permettrait évidemment de gagner de précieuses années dans le rythme de réduction de nos émissions de CO2 qui, rappelons-le inlassablement, doivent absolument être divisées par quatre d’ici 2050, si nous voulons avoir des chances raisonnables de limiter le réchauffement climatique en cours à moins de 2°.

Compte tenu de ces récentes découvertes, il serait éminemment souhaitable que la France prenne l’initiative, en coopération avec ses grands voisins européens, de lancer immédiatement un ambitieux projet visant à évaluer précisément le potentiel énergétique et économique d’exploitation de l’hydrogène terrestre, afin que ce gaz, qui présente l’immense avantage d’avoir à la fois une très grande efficacité énergétique et de ne pas produire de CO2, ni d’émanations polluantes lors de sa combustion, puisse devenir, en synergie avec l’ensemble des énergies renouvelables, en plein essor, le moteur qui permettra, en une seule génération, de réduire drastiquement nos émissions de gaz à effet de serre, de diminuer de manière décisive les effets désastreux de la pollution sur notre santé et de restaurer notre environnement.

René TRÉGOUËT

Sénateur honoraire

Fondateur du Groupe de Prospective du Sénat

e-mail : tregouet@gmail.com


Avenir
Nanotechnologies et Robotique
Des chercheurs du MIT placent des milliers de synapses artificielles sur une micropuce
Jeudi, 16/07/2020 - 18:35

Des chercheurs du MIT sont parvenus à insérer des milliers de synapses artificielles sur une unique puce, plus petite qu’un confetti. Une expérience qui vise à permettre la construction de micro-appareils exploitant les possibilités de l’intelligence artificielle.

Ces chercheurs expliquent comment leur puce a notamment permis de recréer une image de mémoire. La reconnaissance et la reconstitution d’images est une tâche fréquemment utilisée pour entraîner les algorithmes d’intelligence artificielle. Selon les chercheurs, leur expérience concluante montre que de petits appareils portables pourraient demain accomplir des tâches qui sont aujourd’hui l'apanage des superordinateurs. « Imaginez un appareil neuromorphique connecté à l’une des caméras de votre véhicule, qui serait capable d’identifier lumières et objets et de prendre des décisions instantanées, sans avoir à se connecter à l’internet », prédit Jeehwan Kim, professeur de génie mécanique au MIT.

Ce type d’expérimentation ouvre la possibilité de traiter les données localement, directement sur les appareils connectés, plutôt que de les transférer vers le Cloud. De quoi accroître l’efficacité énergétique et réduire la latence, avec des applications autour de la voiture autonome et de la maison connectée, notamment. Apple, Google, Microsoft, NVIDIA ou encore Intel s'efforcent tous de développer ce type de puces neuromorphiques.

Article rédigé par Georges Simmonds pour RT Flash

Nature

^ Haut
Matière
Matière et Energie
Étape majeure pour le projet de fusion nucléaire ITER
Jeudi, 16/07/2020 - 18:38

En deux jours, une équipe d’environ 200 personnes a installé la base du cryostat, une cuve en acier de 1 250 tonnes, pour la mettre en place dans le puits qui va accueillir le tokamak, un énorme tore au sein duquel la réaction de fusion aura lieu. Cet élément est la partie inférieure du « boîtier » qui va encapsuler le tokamak, l’ensemble étant placé dans un puits de 30 mètres de profondeur et de 30 m de diamètre.

Les éléments composant la base du cryostat ont été fabriqués par Larsen & Toubro dans son usine d’Hazira en Inde. Ils ont été livrés en 2015 sur le site d’ITER, à Cadarache. Et le composant de 1 250 tonnes a été assemblé sur place. Il attendait depuis juillet dernier sur site pour une mise en place. La difficulté de l’opération a consisté à vérifier que les déformations lors du levage et de la mise en place ne dépassaient pas les valeurs acceptables. Le cryostat aura un rôle de « thermos » permettant d’isoler le système magnétique qui va être mis à l’intérieur, des températures cryogéniques de l’extérieur.

En effet, dans un tokamak, trois conditions doivent être remplies pour obtenir des réactions de fusion : une température de l’ordre de 150 millions de degrés Celsius, une densité de particules suffisante pour produire le plus grand nombre de collisions possibles, et un temps de confinement de l’énergie suffisamment long pour que les collisions se produisent avec la plus grande vitesse possible.

Ainsi, le cœur du tokamak est constitué d’une chambre à vide en forme d’anneau (tore). Sous l’influence d’une température et d’une pression extrêmes, le gaz d’hydrogène se mue en plasma, au sein duquel les atomes d’hydrogène peuvent fusionner et produire de l’énergie.

La fusion présente plusieurs avantages par rapport à la fission nucléaire utilisée dans les réacteurs du parc nucléaire existant. D’abord, le « combustible » est abondant, l’hydrogène pouvant être fabriqué à partir d’eau.

Ensuite, la fusion n’utilise pas de matières fissiles (comme l’uranium ou le plutonium) susceptibles d’être utilisées à des fins militaires. En outre, la fusion ne produit pas de déchets radioactifs à vie longue (des dizaines de milliers d’années), les matériaux utilisés peuvent être recyclés ou réutilisés dans les 100 ans après arrêt de l’installation, selon les concepteurs.

Enfin, le risque d’accident est largement réduit, la fusion s’arrêtant en cas de perturbation et la quantité de matière présente dans l’enceinte ne permet pas d’alimenter des réactions au-delà de quelques secondes, évitant ainsi toute réaction en chaîne. En revanche, comme la fission, la fusion n’entraîne que des émissions de CO2 marginales.

Si la fusion n’a pas encore été utilisée commercialement, c’est à cause de la complexité pour mettre en œuvre une telle source d’énergie : notamment parvenir à une température très élevée à laquelle aucun matériau connu ne peut résister, ce qui implique de former un plasma « dans le vide » sans toucher les parois du tokamak.

L’objectif des équipes d’ITER est de positionner l’ensemble des grands composants d’ici 2021, afin de respecter la date de décembre 2025 pour démarrer les premiers essais sur la machine et produire le « premier plasma » imitant le soleil. Néanmoins, il faudra attendre 2035 pour que l’installation de fusion soit pleinement opérationnelle avec une exploitation complète du plasma deutérium-tritium auto-entretenu.

La machine réalisera des décharges de plasma de longue durée et testera également, pour la première fois, les technologies, les matériaux, ainsi que les régimes de plasma requis pour produire de l’électricité dans une perspective commerciale. Avec un volume de plasma dix fois supérieur à celui de la plus grande machine de fusion opérationnelle aujourd’hui.

Le record de puissance de fusion produite est à ce jour détenu par le tokamak européen JET (Joint European Torus), au Royaume-Uni. En 1997, il a produit 16 MW de puissance de fusion pour une puissance de chauffage totale de 24 MW. Ce ratio de 0,67 devrait être porté à 10 par ITER, soit 500 MW de puissance de fusion pour une puissance en entrée de 50 MW. Attention, ITER ne fonctionnera pas en continu, et l’électricité produite ne sera pas injectée sur le réseau.

En 1985 le projet a été lancé, mais les membres d’ITER (la Chine, l’Union européenne, l’Inde, le Japon, la Corée, la Russie et les États-Unis) se sont engagés dans une collaboration de 35 ans pour construire et exploiter l’installation expérimentale ITER.

L’accord signé alors par les partenaires prévoit un financement par les sept membres. Au passage, le Royaume-Uni, qui sort de l’Union européenne, a demandé à continuer à participer au projet. Des 5 milliards de dollars prévus au départ, le projet mise désormais sur 20 milliards de dollars (près de 18 milliards d’euros), pour construire le plus grand réacteur à fusion du monde.

Article rédigé par Georges Simmonds pour RT Flash

Techniques de l'Ingénieur

Quand la silice accroît la durée de vie des batteries au lithium-soufre
Jeudi, 16/07/2020 - 18:30

Trouver des alternatives plus écologiques et moins coûteuses aux batteries lithium-ion est devenue une priorité de recherche, dans la perspective du développement rapide des véhicules électriques et du stockage massif d’électricité rendu nécessaire par la montée en puissance des énergies renouvelables. Les batteries au lithium-soufre (LSB) – composées d’une cathode à base de soufre et d’une anode de lithium plongée dans un électrolyte liquide – sont des candidats prometteurs pour remplacer l’omniprésente batterie au lithium-ion en raison de leur faible coût et de la non-toxicité et de l’abondance du soufre.

Cependant, l’utilisation du soufre dans les batteries est délicate pour deux raisons. Premièrement, pendant le cycle de “décharge”, des polysulfures de lithium solubles (LiPS) se forment à la cathode, se diffusent dans l’électrolyte et atteignent facilement l’anode, où ils dégradent progressivement la capacité de la batterie. Deuxièmement, le soufre n’est pas conducteur. Ainsi, un matériau hôte conducteur et poreux est nécessaire pour accueillir le soufre et simultanément piéger les LiPS à la cathode. Dans un passé récent, des structures hôtes à base de carbone ont été explorées en raison de leur conductivité. Cependant, les hôtes à base de carbone ne peuvent pas piéger le LiPS.

Dans une étude récente publiée dans Advanced Energy Materials, des scientifiques de l’Institut des sciences et technologies de Daegu Gyeongbuk ont proposé une nouvelle structure hôte appelée “silice mésoporeuse ordonnée en plaquettes (pOMS)“. Ce qui est inhabituel dans leur choix, c’est que la silice, un oxyde métallique peu coûteux, est en fait non conductrice. Cependant, la silice est très polaire et attire d’autres molécules polaires telles que les LiPS.

Après application d’un agent conducteur à base de carbone sur la structure de la pOMS, le soufre solide initial dans les pores de la structure se dissout dans l’électrolyte, d’où il diffuse ensuite vers l’agent conducteur à base de carbone pour être réduit afin de générer du LiPS. De cette manière, le soufre participe efficacement aux réactions électrochimiques nécessaires malgré la non-conductivité de la silice.

En même temps, la nature polaire des pOMS garantit que le LiPS reste proche de la cathode et éloigné de l’anode. Les scientifiques ont également construit une structure hôte analogue, non polaire et hautement conductrice, en carbone poreux conventionnel, afin de mener des expériences comparatives avec la structure pOMS. Le professeur Jong-Sung Yu, qui a dirigé l’étude, remarque : « La batterie avec le carbone hôte présente une capacité initiale élevée qui chute rapidement en raison de la faible interaction entre le carbone non polaire et le LiPS. La structure de la silice retient clairement beaucoup plus de soufre pendant les cycles continus, ce qui se traduit par une rétention de capacité et une stabilité beaucoup plus importantes sur pas moins de 2000 cycles ».

Comme le souligne le Professeur Yu : « Nos résultats sont surprenants, car personne n’aurait jamais pensé que la silice non conductrice pouvait être un hôte de soufre très efficace et même surpasser les hôtes de carbone de pointe ». Cette étude élargit la sélection de matériaux hôtes pour les LSB et pourrait conduire à un changement de paradigme dans la réalisation des batteries au soufre de la prochaine génération.

Article rédigé par Georges Simmonds pour RT Flash

AEM

Le « cinquième état de la matière » observé pour la première fois dans l’Espace
Lundi, 13/07/2020 - 18:51

En utilisant les ressources du «Cold Atom Lab», un microlaboratoire spatial installé par la NASA à bord de l’ISS en 2018, dédié à des expérimentations sur des atomes à des températures de froid extrême, proches du zéro absolu soit -273,2 degrés Celsius, une équipe de physiciens de la NASA, opérant depuis la Terre, a réussi à maintenir et à observer un condensat de Bose-Einstein, prévu il y a presque un siècle par ces deux géants de la physique, pendant plus d'une seconde sur la Station spatiale internationale.

C'est la première fois que des scientifiques arrivent à former et à observer dans l’espace, un condensat Bose-Einstein. Celui-ci est parfois surnommé « cinquième état de la matière » (les quatre états habituels étant le solide, le liquide, le gaz et le plasma).

Il faut percevoir cet état de la matière comme un nuage gazeux d’atomes. À cette température, frôlant le zéro absolu sans jamais l’atteindre, les atomes sont à leur plus faible niveau d’énergie, ce qui a pour effet de les ralentir. C’est alors qu’en présence d’un piège magnétique, ils se rapprochent, se chevauchent, se condensent, pour ne former plus qu’un seul et même état quantique. Ils ne sont plus des atomes individuels, mais un collectif d’atomes. Un « super atome », comparable à une vague composée de vaguelettes. En relâchant le piège magnétique, les scientifiques peuvent observer cet état de la matière un court instant.

Lorsque les atomes deviennent ce condensat, ils adoptent des propriétés quantiques qui sont plus facilement observables. Rares sont les moments où le monde quantique est suffisamment stable pour être étudié. Les condensats sont une forme de milieu intermédiaire entre le monde macroscopique et le monde microscopique. Et c’est donc, également, un portail scientifique vers une meilleure compréhension de la mécanique quantique.

Grâce à son environnement en micro-gravité, les atomes sont plus facilement maintenus sous ce cinquième état de la matière. L’expérience relatée dans Nature a permis de maintenir des condensats de Bose-Einstein plus d’une seconde, quand, ici-bas, ils se dissipent en quelques millisecondes. Or, plus le condensat peut être maintenu, plus les scientifiques ont un temps d’observation accru et une capacité d’imagerie plus nette.

Les physiciens auteurs de l’étude écrivent qu’il s’agit d’une « démonstration initiale des avantages offerts par un environnement de microgravité pour des expériences de refroidissement des atomes, et cela confirme le succès opérationnel de cette installation ». Comme ils l’indiquent eux-mêmes, ce n’est qu’une première étape, mais elle relève d’un véritable accomplissement scientifique et technologique, ouvrant la voie à de nouvelles avancées importantes.

En réussissant à produire cet état de la matière si longtemps, dans l’Espace, à bord de l’ISS, les physiciens progressent vers la compréhension de la mécanique quantique, mais ils développement aussi un outil précieux. « Les applications vont des expériences en relativité générale et de la quête d’énergie sombre ainsi que d’ondes gravitationnelles à la navigation des vaisseaux spatiaux et à la recherche de minéraux sous la surface de la lune et autres corps planétaires », commente l’un des physiciens travaillant sur le projet.

Article rédigé par Georges Simmonds pour RT Flash

Nature

La séparation de l’eau par UV a maintenant une efficacité quantique de presque 100 %
Lundi, 13/07/2020 - 18:49

Des scientifiques japonais ont réussi à diviser l’eau en hydrogène et en oxygène en utilisant des catalyseurs légers et méticuleusement conçus, et ils l’ont fait avec une efficacité maximale, ce qui signifie qu’il n’y a eu pratiquement aucune perte et aucune réaction secondaire indésirable.

Cette dernière percée dans la production d’hydrogène solaire rend plus que probable une production d’hydrogène évolutive et économiquement viable, ouvrant la voie à l’humanité pour passer à une énergie propre. Le fractionnement de l’eau à l’aide de catalyseurs et de la lumière du soleil, appelé photocatalyse, est une méthode prometteuse pour parvenir à la production d’hydrogène solaire depuis des décennies.

Cependant, la plupart des tentatives précédentes n’ont donné qu’un rendement quantique externe inférieur à environ 50 %, ce qui représente la difficulté de concevoir des catalyseurs efficaces pour une utilisation dans le monde réel. Le catalyseur devait être mieux conçu pour que chaque photon absorbé par la source lumineuse soit utilisé pour fabriquer de l’hydrogène.

La clé de l’amélioration de l’efficacité était le placement stratégique des co-catalyseurs et la prévention des défauts dans le semi-conducteur. Publié dans le numéro du 27 mai de Nature, Tsuyoshi Takata de l’Université de Shinshu a franchi de nouvelles frontières dans la production d’énergie en utilisant comme photocatalyseur du titanate de strontium dopé à l’aluminium, dont les propriétés ont été largement étudiées et donc les mieux comprises.

Ils choisissent des co-catalyseurs, le rhodium pour l’hydrogène avec de l’oxyde de chrome, et l’oxyde de cobalt pour l’oxygène, en les réglant avec précision pour qu’ils ne s’engagent que dans les réactions souhaitées. Cette méthode a permis que la réaction n’ait pas de pertes de recombinaison.

Ces nouvelles découvertes ouvrent la voie à une production d’hydrogène solaire modulable et économiquement viable. Leurs stratégies de conception ont réussi à réduire les défauts qui conduisent à une efficacité presque parfaite, et les connaissances obtenues seront appliquées à d’autres matériaux ayant une absorption intense de la lumière visible.

Article rédigé par Georges Simmonds pour RT Flash

Enerzine

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
Vers un carburant neutre en carbone pour les avions ?
Mercredi, 15/07/2020 - 13:36

Consortium composé de Sunfire, Climeworks, Paul Wurth et Valinor, Norsk e-fuel a annoncé son intention d’industrialiser une technologie « power-to-liquid » en Norvège pour le marché européen. Le but est de produire du carburant pour l’aviation à partir d’énergie renouvelable.

A partir d’électricité renouvelable, d’eau et de CO2 capturé par la technologie de Climeworks, la pile à combustible à oxyde solide de Sunfire permet de produire du gaz de synthèse (syngaz), composé d’hydrogène et de monoxyde de carbone. Ce syngaz peut ensuite être raffiné pour obtenir du carburant pour l’aviation, comme du « jet fuel ».

La mise en service d’un premier site de production est prévue sur le parc industriel d’Herøya à Porsgrunn (Norvège) en 2023. Sa capacité annuelle sera alors de 10 millions de litres. Il est envisagé que celle-ci atteigne 100 millions de litres avant 2026, de quoi « éviter 250 000 tonnes de CO2 émis dans l’atmosphère.

« Pour mettre ceci en perspective, un seul site industriel fournira suffisamment de carburant renouvelable pour les cinq lignes domestiques les plus fréquentées en Norvège (Oslo-Trondheim, Oslo-Bergen, Oslo-Stavanger, Oslo-Tromso and Oslo-Bodo) », affirme Lars Helge Helvig, fondateur de Valinor, dans le communiqué. « Cela réduirait de 50 % les émissions de CO2 de ces vols ».

Ce n’est pas la première fois que Sunfire et Climeworks sont associés dans un projet carburant renouvelable. En 2015 déjà, et en partenariat avec Audi, les deux industriels produisaient du e-diesel dans une usine de Dresde (Allemagne).

Aujourd’hui, le diesel n’a plus la côte. En revanche, la réduction des émissions de CO2 dans l’aviation est devenue un enjeu fort. Les industriels du secteur affichent l’objectif de réduire de moitié les émissions de CO2 de l’aviation en 2050 par rapport au niveau de 2005. Cette semaine en France, le plan de soutien à l’aéronautique suite à la crise du Covid-19 mettait l’accent sur le développement l’avion neutre en carbone.

L'activité de R&D pour des carburants « renouvelables » pour les avions s'intensifie. L’année dernière, un démonstrateur installé près de Madrid a commencé à produire du kérosène à partir d'air et de soleil. Une première pour cette technologie reposant sur des réactions d'oxydoréduction à 1500°C. En mai de cette année, la société Khimod, spécialisée dans la mise au point de réacteurs-échangeurs, a annoncé les résultats d'une campagne de tests d'un procédé de production de kérosène à partir de CO2 et d'hydrogène : une efficacité de 45 %, proche du maximum théorique.

Article rédigé par Georges Simmonds pour RT Flash

Industrie & Technologies

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Un mauvais sommeil augmente les risques de maladies cardiovasculaires
Jeudi, 16/07/2020 - 18:33

Ces résultats d’une équipe de l’Université de Californie, Berkeley publiés dans la revue PLOS Biology, ajoutent un mauvais sommeil comme facteur de risque clé de maladies cardiovasculaires. Ces scientifiques associent en effet un sommeil perturbé à l'accumulation de plaque ou athérosclérose, la cause principale d’événement ou de maladie cardiaque fatale.

L’étude menée sur un échantillon de plus de 1. 600 participants décrit un processus par lequel la fragmentation du sommeil augmente le nombre de globules blancs inflammatoires (neutrophiles et monocytes), exacerbe ainsi l'athérosclérose qui se développe avec l’âge, mais de manière indépendante d'autres facteurs de risque courants.

Une inflammation, qui, à, son tour, favorise des quantités plus élevées de plaques dans les artères coronaires, explique l'auteur principal, Matthew Walker, professeur de psychologie et de neurosciences à Berkeley. Une mauvaise qualité de sommeil vient ainsi s’ajouter aux facteurs de risque établis de maladie cardiovasculaire dont une mauvaise alimentation, le manque d'exercice, l'obésité, l'hypertension artérielle et le tabagisme.

C’est la conclusion de cette modélisation des données diagnostiques de plus de 1.600 participants à la Multi-Ethnic Study of Atherosclerosis, d’âge moyen et avancé. Pour isoler l'effet de la qualité du sommeil sur la santé cardiaque, l’équipe a contrôlé l'âge, l'origine ethnique, le sexe, l'indice de masse corporelle (IMC), les troubles du sommeil, la pression artérielle et les comportements à risque tels que le tabagisme. Les participants ont été suivis par tests sanguins, scores de calcium (marqueurs de l'accumulation de plaque), différentes mesures du sommeil…

Le modèle confirme une corrélation entre perturbations du sommeil et niveaux plus élevés de facteurs inflammatoires circulants et de globules blancs monocytes et neutrophiles, facteurs clés de l'athérosclérose. Cette étude montre qu’un sommeil fragmenté peut ainsi favoriser une rigidité artérielle, des niveaux plus élevés d'inflammation et des lésions athérosclérotiques. En d’autres termes, il existe un lien indépendant entre un mauvais sommeil et l'athérosclérose via une inflammation chronique.

Selon ces chercheurs, « Ce processus passe malheureusement inaperçu jusqu'à ce que l'accumulation de plaque, à un âge moyen ou avancé, bloque soudainement le flux sanguin artériel vers le cœur, les poumons, le cerveau et / ou d'autres organes. Il est donc essentiel de prêter attention à notre hygiène du sommeil, dès le début à la quarantaine ».

Article rédigé par Georges Simmonds pour RT Flash

PLOS

Une nouvelle technique pour transporter les vaccins sans réfrigération
Mercredi, 15/07/2020 - 13:48

Des chercheurs de l’Université de Bath (Royaume-Uni) ont présenté une innovation majeure dans la conservation et l'acheminement des vaccins. Ils sont parvenus à placer les protéines actives du vaccin contre le tétanos dans une coquille faite de silice. La technique permet de conserver les principes actifs du produit, même en le transportant sans réfrigération ou en l’exposant à des températures élevées.

Les scientifiques appellent cette méthode “ensilication” en anglais ; cela signifie entourer hermétiquement une substance grâce à la silice, un produit naturellement présent dans l’environnement. Ils ont envoyé des vaccins contre le tétanos par voie postale : une partie était dans une capsule de silice, l’autre était dans son contenant habituel. Les échantillons ont été transportés sur près de 500 km, entre Bath et Newcastle, soit un voyage de deux à trois jours.

À leur arrivée, les chercheurs ont injecté les doses à des souris. Ils ont constaté que le vaccin transporté dans une coquille de silice fonctionnait toujours, car une réponse immunitaire a pu être observée. En revanche, celui transporté dans un contenant classique n’a pas provoqué cette réaction chez la souris. Pour l’équipe scientifique, c’est le signe que le produit a été endommagé suite à son transport.

« Ce sont vraiment des données importantes, souligne la docteure Asel Sartbaeva, directrice de ce projet scientifique, parce que cela nous montre que cette technique permet de préserver la structure des protéines du vaccin, mais également leur fonctionnement, c’est-à-dire leur immunogénicité ». D’autres essais ont également montré que cette technique de conservation permet de protéger le vaccin lorsqu’il est exposé à des températures élevées, jusqu’à 100°C.

Les chercheurs souhaitent étendre cette technique, et mener des essais sur le vaccin contre la diphtérie et sur celui contre la coqueluche. À terme, ils aimeraient pouvoir l’utiliser pour le DTP : le vaccin contre la diphtérie, le tétanos et la polio, administré aux enfants en bas âge. « Ainsi tous les enfants à travers le monde pourraient recevoir les infections de DTP », ajoute la scientifique.

Pour elle, l’objectif à plus long terme est d’éradiquer les maladies pour lesquelles un vaccin est disponible dans les pays pauvres, en « utilisant des vaccins non-thermosensibles et en coupant la dépendance aux chaînes réfrigérées ». D’après ses estimations, près de 50 % des doses de vaccin disponibles dans le monde sont détruites avant leur usage pour cause d’exposition à des températures trop élevées.

Article rédigé par Georges Simmonds pour RT Flash

University of Bath

Influencer les rêves en modulant l’activité cérébrale
Mercredi, 15/07/2020 - 13:45

Lorsque vous rêvez, votre cerveau se lance dans une grande simulation virtuelle : il recrée tout un monde, dans lequel vous voyez des images, expérimentez des émotions et effectuez toutes sortes de mouvements. Pour ce faire, il utilise les mêmes régions que dans la réalité : serrer le poing en rêve active par exemple la zone du cortex moteur qui commande ce mouvement lorsqu’on est éveillé. Et si l’on pouvait, dès lors, influencer le contenu des songes en modulant l’activité de ces zones cérébrales ? C’est le pari qu’ont tenté – et réussi – Valdas Noreika, de l’Université de Cambridge, et ses collègues.

Les chercheurs ont appliqué un protocole de stimulation électrique transcrânienne à 10 participants endormis. Inoffensif et non invasif, ce protocole consistait à faire passer un léger courant électrique à travers le crâne des sujets, via des électrodes, pendant dix minutes.

La stimulation ciblait plus précisément leur cortex moteur. Réveillés une minute plus tard, les participants remplissaient un questionnaire, opportunément nommé « BED » (acronyme anglais de Bodily Experiences in Dreams, ou « expériences corporelles dans les rêves »). Les résultats ont montré qu’ils avaient accompli bien moins de mouvements en rêve que les membres du groupe témoin. La diminution ne concernait toutefois que les mouvements répétitifs, comme la marche ou le footing, et pas les gestes ponctuels, comme placer un objet sur une table.

Comment l’expliquer ? Le protocole de stimulation semble avoir produit un mélange d’effets inhibiteurs – l’activité a diminué dans une partie du cortex moteur – et « désynchronisateurs » – les communications entre les deux hémisphères cérébraux ont été perturbées. Or, les mouvements répétitifs comme la marche sont automatisés et ne nécessitent qu’une faible activation du cortex moteur, que la légère inhibition consécutive à la stimulation a sans doute suffi à annuler.

Mais il se pourrait aussi que la désynchronisation des deux hémisphères cérébraux, qui commandent chacun une moitié du corps, ait compliqué la simulation de mouvements nécessitant une coordination des jambes ou des bras. Quoi qu’il en soit, la preuve est faite : il est possible de moduler directement le contenu des rêves en agissant sur le cerveau.

Article rédigé par Georges Simmonds pour RT Flash

Cerveau & Psycho

COVID 19 : La quantité d’anticorps capables de neutraliser le virus diminue après six semaines
Mercredi, 15/07/2020 - 13:41

Si les anticorps neutralisants sont à la base de la mise au point de futurs vaccins contre le SRAS-CoV-2, il faut néanmoins rester prudent, affirment des chercheurs et chercheuses du Centre de recherche hospitalier de l’Université de Montréal (CRCHUM).

« Notre étude montre que plus de 6 personnes infectées sur 10 ont produit des anticorps neutralisants deux semaines seulement après le début des symptômes de la maladie. Cependant, cette capacité de neutralisation diminue après six semaines. Dans ce cas, quelques piqûres de rappel du vaccin seront peut-être nécessaires pour protéger à long terme la population », dit le chercheur Andrés Finzi, titulaire de la Chaire de recherche du Canada en entrée rétrovirale et professeur à l’Université de Montréal.

Dans une étude non révisée par les pairs et mise en ligne sur le serveur de prépublication bioRxiv, l’équipe du Docteur Finzi a évalué la capacité de neutralisation du plasma ‒ le composant liquide du sang contenant les anticorps ‒ une, deux, trois et six semaines après le début des symptômes de la maladie. Pour ce faire, elle a utilisé des pseudoparticules virales qui expriment à leur surface la glycoprotéine S (ou glycoprotéine Spike) du SRAS-CoV-2. Cette « clé d’entrée » permet au virus de débloquer la porte des cellules saines, d’y entrer et de les infecter.

Pour mener ses expérimentations, l’équipe scientifique s’est servie des échantillons de plasma de 108  patients, sains, infectés ou convalescents, fournis par ses collègues d’Héma-Québec et du Laboratoire de santé publique du Québec.

Les résultats de l’étude confirment aussi ceux d’autres études récentes : après trois semaines, plus de 90 % des personnes infectées ont des anticorps qui reconnaissent l’une des signatures du SRAS-CoV-2, la glycoprotéine S. Après six semaines, c’est 100 %.

Mais pour un anticorps, reconnaître un virus ne signifie pas pour autant qu’il est capable de le neutraliser. L’éventail d’action est large : certains le mettent en échec avec efficacité, d’autres le bloquent timidement ou pas du tout.

« Est-ce que les personnes qui ont développé des anticorps neutralisants seront protégées d’une réinfection ? Nous ne le savons pas encore », mentionne Andrés Finzi. « En cas de réinfection, on peut supposer que les lymphocytes B dits à mémoire seront rapidement activés pour produire les anticorps neutralisants du virus ».

D’autres études seront nécessaires pour déterminer, par exemple, pendant combien de temps une personne exposée une seconde fois au virus est protégée ou si la protection nécessite la production d’anticorps neutralisants.

Article rédigé par Georges Simmonds pour RT Flash

NSM

Bientôt un masque chirurgical transparent pour garder le sourire
Mercredi, 15/07/2020 - 13:38

Depuis deux mois on a pu se rendre compte à quel point il est étrange de parler avec des personnes dont on ne voit que la moitié du visage. Les émotions deviennent difficiles à décrypter, le son est étouffé. Mais il est des personnes pour qui le masque chirurgical entrave encore davantage la communication : les enfants, les personnes âgées ou malentendantes par exemple.

C’est pour ces dernières qu’une protection chirurgicale transparente est pensée et développée depuis deux ans par le Centre EssentialTech à l’EPFL, en collaboration avec l’Empa (Centre de recherche sur les matériaux de la Confédération). Le matériau pour les fabriquer, composé en grande partie de biomasse, est aujourd’hui au point et la start-up HMCARE vient d’être créée.

La toute jeune entreprise vient de lever un million de francs, ce qui va lui permettre de passer en une phase d’industrialisation. Les contacts sont pris et une commercialisation est espérée pour début 2021.

Les HelloMask, c’est leur nom, sont destinés à remplacer les masques chirurgicaux à trois plis habituellement portés par le personnel médical et qui pullulent dans l’espace public depuis la pandémie. La version totalement transparente est avant tout développée dans le but d’améliorer la relation entre soignants et patients.

Klaus Schönenberger, directeur du Centre EssentialTech à l’EPFL, qui s’occupe de mettre la technologie au service des pays en développement et de l’action humanitaire, a été très touché en 2015, en voyant les infirmiers œuvrant auprès des malades d’Ebola en Afrique de l’ouest : « Protégés de la tête aux pieds, ils portaient une photo d’eux épinglée sur la poitrine pour humaniser un peu leur relation avec leurs patients ». Il n’a donc pas hésité à héberger le projet lorsque l’année suivante Thierry Pelet, futur CEO de la start-up, et Sacha Sidjanski, chef de projet de la Faculté des sciences de la vie, sont venus lui présenter l’idée d’une ancienne conteuse des HUG. Diane Baatard regrettait que ces petits auditeurs gravement atteints dans leur santé ne puissent pas voir les expressions de son visage.

« En surfant sur Internet, on peut voir quelques prototypes de masques laissant apparaître le bas du visage, mais il s’agit d’une partie en plastique intégrée dans un masque traditionnel », souligne Thierry Pelet. Ce genre de polymère n’étant pas poreux, il entrave le confort de la respiration et génère de la buée. C’est justement pour concilier transparence, résistance et porosité, que deux ans de recherches ont été nécessaires entre l’EPFL et l’Empa. Le résultat est une membrane élaborée dans un polymère spécifiquement mis au point pour cette application. L’agencement de ses fibres laisse de minuscules interstices de 100 nanomètres, une taille identique au matériau des masques traditionnels, laissant passer l’air, mais filtrant virus et bactéries.

Afin de garantir une protection optimale, les masques sont à usage unique comme ceux utilisés actuellement. La question du recyclage ou l’utilisation d’un matériau biodégradable s’est donc posée dès le début du projet. « Notre matériau contient 99 % de dérivé de biomasse et nous continuons à travailler dans ce sens, afin de les rendre entièrement écocompatibles », souligne Thierry Pelet.

La technique utilisée, l’électrofilage, est courante : elle utilise une force électrique pour étirer des filaments de polymère. Seules quelques adaptations sont nécessaires pour une production à large échelle. Ce nouveau matériau sera ensuite disponible sous forme de rouleau à partir desquels les masques seront découpés et assemblés. Initialement prévue en Asie, la production des HelloMask pourrait se faire en Suisse.

La récente pandémie ayant fait exploser la demande en masques chirurgicaux traditionnels, des lignes de production devraient en effet prochainement voir le jour ici. La fabrication des masques de la start-up pourrait s’y insérer. Le CEO de HMCARE est actuellement en négociations avec plusieurs entreprises et services publics. La mise sur le marché pourrait intervenir début 2021.

Article rédigé par Georges Simmonds pour RT Flash

EPFL

Un modèle humain d'embryon développé à partir de cellules souches
Lundi, 13/07/2020 - 18:47

Des scientifiques britanniques ont développé un modèle humain d'embryon à partir de cellules souches embryonnaires humaines qui reproduit en laboratoire les premiers stades de son développement; une avancée en trois dimensions qui pourrait s'avérer utile pour étudier les malformations congénitales ou d'autres anomalies, selon une étude.

Selon les équipes de l'Université de Cambridge (Grande-Bretagne) et de l'Institut Hubrecht (Pays-Bas), ce modèle de pseudo-embryon permet d'observer des processus inédits sous-jacents à la formation du corps humain, jamais directement observés auparavant.

Ce système est une première étape vers la modélisation de l'émergence du plan du corps humain et pourrait s'avérer utile pour étudier ce qui se passe lorsque les choses tournent mal, comme dans les malformations congénitales, estime la Dre Naomi Moris (Département de génétique de l'Université de Cambridge) co-auteure de l'étude.

Le plan du corps humain, ou schéma directeur de construction de l'organisme, découle d'un processus appelé gastrulation, durant lequel se forme une structure de trois couches distinctes de cellules qui constitueront ultérieurement les différents tissus du corps.

La période de la gastrulation est considérée comme la boîte noire du développement humain, car des restrictions légales empêchent de développer des embryons en laboratoire au-delà de 14 jours.

Or, de nombreuses anomalies congénitales se produisent au cours de cette période du développement embryonnaire, de causes telles que l'alcool, les médicaments, les produits chimiques et les infections. Son étude pourrait également aider à comprendre des problèmes médicaux comme l'infertilité, les fausses couches et les troubles génétiques, ajoutent les chercheurs.

« Notre modèle produit une partie du plan d'un humain », commente Alfonso Martinez-Arias, du Département de génétique de Cambridge, responsable de l'étude.  « C'est passionnant de voir les processus de développement qui jusqu'à présent ont été cachés à la vue, et à l'étude ». Pour créer et développer ce modèle, l'équipe a collecté des agrégats serrés de cellules humaines cultivées en laboratoire et les a soumis à des produits chimiques pour activer certains gènes.

C'est la première fois que des cellules souches humaines sont utilisées pour créer un modèle tridimensionnel d'embryon humain, après ceux réalisés avec des cellules souches de souris et de poissons-zèbres.

Ces ébauches embryonnaires, les gastruloïdes, ne peuvent pas devenir de vrais embryons entièrement formés, car ils n'ont pas de cellules cérébrales ni les tissus nécessaires à leur implantation dans l'utérus, soulignent les chercheurs. Cependant, ils ont observé à 72 heures de développement des signes évidents des événements conduisant à la formation de muscles, d'os et de cartilage.

L'étude ouvre une fenêtre fantastique sur la formation précoce du corps humain, relève le professeur de biologie du développement au King's College de Londres, Jeremy Green, qui n'y a pas participé.

Article rédigé par Georges Simmonds pour RT Flash

Radio Canada

La perception de l'écoulement du temps est aussi liée au mouvement et à l’environnement
Lundi, 13/07/2020 - 18:42

Les animaux ont une certaine notion du temps. Des travaux ont montré qu’après un entraînement approprié, ils peuvent s’attendre à la survenue d’un événement régulier. Plusieurs scientifiques estiment que cette capacité repose sur l’existence d’une ou plusieurs horloges internes, capables de renseigner sur le temps qui passe.

Des études suggèrent, d’après l’activité électrique des neurones enregistrée lors de ces apprentissages temporels, que ces horloges se nicheraient dans le striatum. Or cette région du cerveau, la principale affectée chez les personnes atteintes de la maladie de Parkinson, contrôle essentiellement les mouvements.

Compte tenu de cette association, David Robbe, chercheur Inserm à l’Institut de neurobiologie de la Méditerranée (Inmed) à Marseille, pense que la mesure du temps pourrait être davantage associée au mouvement qu’à une horloge interne : « D’ailleurs, les personnes atteintes de la maladie de Parkinson ont souvent une distorsion de la perception du temps », remarque-t-il.

Pour vérifier cette hypothèse, il a développé avec son équipe un protocole spécifique chez le rat. L’exercice consistait à proposer aux rongeurs une boisson sucrée, de manière récurrente après un délai de sept secondes. Cette récompense était placée à l’extrémité d’un tapis roulant dont la vitesse était modulable.

Au cours de la première session, les animaux se ruaient vers la récompense et arrivaient trop tôt pour en bénéficier. Au fur et à mesure des essais, ils attendaient plus longtemps, jusqu’à arriver au bon moment pour obtenir la récompense.

Cette amélioration de leur performance s’est accompagnée de la mise en place d’une routine très précise. Après avoir obtenu une récompense, ils se laissaient pousser en arrière par le tapis roulant jusqu’à atteindre son extrémité, puis repartaient vers l’avant en direction de la boisson.

Les animaux qui ont développé cette routine arrivaient au bon moment alors que les autres échouaient. Les auteurs ont ensuite arrêté le tapis ou encore modifié sa vitesse. Ces changements ont bouleversé la routine des animaux qui n’étaient alors plus capables d’accéder au bon moment à la récompense.

« Cette expérience indique que la notion du temps ne dépend pas d’une horloge interne qui aurait permis à l’animal de savoir qu’il fallait attendre sept secondes entre deux récompenses, mais bien de la mise en place d’une routine fondée sur l’activité physique.

Celle-ci dépend à la fois de la capacité de l’animal à apprendre, mais aussi de l’acquisition de mouvements dépendants de l’environnement. L’animal utilise le tapis, les murs, pour adapter ses gestes et développer cette routine », explique David Robbe. « L’Homme met également en place des routines qui permettent de rythmer les journées et aident à évaluer l’heure.

En raison de leur perte, le confinement a d’ailleurs dû bouleverser la notion du temps chez beaucoup d’individus. Et si l’on pense pouvoir compter le temps qui passe assis sur une chaise sans bouger, rien ne dit que l’organisme n’effectue pas des micro-mouvements réguliers non perceptibles et inconscients comme des contractions musculaires pour mieux l’évaluer.

Cette hypothèse ne peut être exclue. Un enfant qui compte lors d’un jeu va, par exemple, balancer son corps ou son bras pour s’aider. Chez l’Homme, la notion du temps pourrait donc aussi être une affaire de mouvement ».

Article rédigé par Georges Simmonds pour RT Flash

Inserm

^ Haut
Recherche
Recherche & Innovation, Technologies, Transports
Alstom va tester des trains autonomes pour le transport régional en Allemagne
Lundi, 13/07/2020 - 18:45

Alstom a annoncé le 27 mai son intention de tester son système de conduite automatique pour des trains de voyageurs régionaux en Allemagne. Une première mondiale qui devrait débuter en 2021, pour une homologation espérée en 2023.

Après avoir mis en service les premiers trains régionaux à hydrogène du monde, Alstom s’attaque aux trains autonomes. Le constructeur ferroviaire a annoncé le 27 mai qu’il allait tester son système de conduite automatique (ATO) pour des trains de voyageurs régionaux en Allemagne.

Le projet débutera en 2021 en collaboration avec l’Association régionale de la ville de Braunschweig (Allemagne), du Centre aérospatial allemand (DLR) et de l’Université technique de Berlin (TU Berlin). L'annonce intervient après l'obtention d'un « Prix de l'innovation pour les bacs à sable réglementaires » décerné à Alstom par le Ministère fédéral allemand de l'économie. Les essais seront effectués avec deux trains régionaux Coradia Continental appartenant à Regionalbahnfahrzeuge Großraum Braunschweig GmbH.

Différents niveaux d’automatisation (GOA, pour Grade of automation) seront testés : GOA3 en service voyageurs normal et GOA4 pendant les manœuvres pour rapatrier les trains vers le dépôt. « Cela sera une première mondiale pour les trains régionaux de passagers », indique Jean-Marc Nizet, vice-président signalisation grandes lignes chez Alstom. « Avec le niveau GOA3, le système prend complètement la main sur le fonctionnement du train, mais un opérateur est toujours présent à bord pour intervenir en cas de problème. En GOA4, il n'y a plus de personnel à bord, mais il est toujours possible de prendre les commandes à distance ».

« Les niveaux d'automatisation semi-automatique sont déjà en vigueur dans des réseaux fermés en milieu urbains », poursuit M. Nizet. « Le niveau GOA2 n'est pas encore très déployé au niveau des grandes lignes, mais c'est une technologie mature et la tendance va dans ce sens avec beaucoup de projets pilotes ». Contrairement aux rames de métro, les trains circulent en milieu ouvert, ce qui ajoute une difficulté non négligeable pour les rendre autonomes, comme nous le décrivions dans notre précédent dossier sur le train de demain.

Les arguments avancés en faveur de l'automatisation des trains sont de plusieurs ordres, explique M. Nizet : « Nous pouvons améliorer la capacité en optimisant la table horaire, la conduite et le profil de mission des trains, et en améliorant leur ponctualité », explique-t-il. « Le deuxième gros gain est énergétique en évitant les gros coups d'accélération et de freinage. Au niveau GOA2, nous estimons qu'il est possible de gagner environ 20 % de capacité et 20 % d'énergie. Avec GOA3, nous apportons en plus la détection d'obstacles et de signaux ».

Les trains sur lesquels sera testé le système ATO sont des trains existants. Ils seront équipés du système européen de contrôle des trains (ETCS) - briques de base à bord et au sol qui assurent le contrôle du train dans le cadre du système européen de gestion du trafic ferroviaire ERTMS - et de capteurs optronique et de caméras pour lire des signaux et détecter des obstacles. Un système de traitement permettra d'analyser les données et de prendre les décisions. « L'objectif est d'être capable d'équiper des trains existants pour y intégrer ces nouvelles fonctionnalités sans forcément avoir à en construire de nouveaux », précise M. Nizet.

Prévu sur trois ans, le projet se déroulera en trois phases. La première consiste à mettre au point le projet avec la définition du périmètre technique, la répartition des rôles entre les partenaires et les financements associés. « Nous allons travailler sur la R&D mais aussi sur les aspects réglementaires pour autoriser des trains autonomes à rouler en Allemagne, sur les règles opérationnelles et l'impact de l'automatisation pour le conducteur ou les opérateurs », précise M. Nizet.

Dans un second temps, une phase de test s'étendra sur neuf mois avec les deux trains équipés. Enfin, une dernière phase d'homologation devrait permettre d'être prêt à rouler sur le réseau en 2023. « Cela devrait déboucher sur l'équipement de 24 trains destinés à rouler sur le réseau allemand, et, nous l'espérons, sur d'autres contrats commerciaux », ajoute M. Nizet.

En France, la SNCF souhaite faire rouler les premiers trains autonomes d’ici 2023. Dès janvier 2018, deux consortiums pilotés en partenariat avec l’Institut de recherche technologique (IRT) Railenium ont été créés. Le premier rassemble Alstom, Altran, Ansaldo et Apsys et vise à créer un prototype autonome pour le fret qui devrait être mis en circulation en 2020. L’autre réunit Bombardier, Bosch, Spirops et Thales en vue de réaliser un TER autonome pour le transport de passagers. Sa mise en circulation est espérée d’ici 2023.

Article rédigé par Georges Simmonds pour RT Flash

Industrie & Technologies

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top