RTFlash

RTFLASH Recherche & Technologie
NUMERO 1043
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 20 Mars 2020
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
Avenir
Un robot capable de prélever du sang avec une très grande précision
Matière
Produire de l’électricité à partir… de l’humidité de l’air !
Les batteries lithium-métal débarrassées des courts-circuits grâce aux ultrasons
Annecy : le réseau de chauffage d’un nouveau quartier puisera son énergie dans le lac
Espace
Première détection d'oxygène moléculaire dans une autre galaxie
Terre
Réchauffement climatique : Les baleines capturent plus de CO2 que les arbres
Les grandes forêts tropicales perdent leur capacité à stocker le carbone
Une solution suisse pour réduire de 90 % les émissions CO2 des camions
Les émissions humaines de méthane seraient sous-estimées
La mer du Nord sera-t-elle transformée en lac pour lutter contre la montée des eaux ?
Vivant
Cancer de la vessie : un simple test urinaire de détection précoce
Maladie d’Alzheimer : un risque accru chez les hommes de petite taille
Des chercheurs parviennent à inverser l’horloge biologique d'une souris !
L'hyperthermie magnétique : un nouvel outil contre le cancer
Recherche
Les Pays-Bas réalisent les premiers tests d'un train autonome avec des passagers à bord
Edito
La pandémie du Coronavirus va nous obliger à repenser nos sociétés



Apparue le 13 janvier dernier en Chine, l’épidémie actuelle de Coronavirus qui déferle sur la planète a été déclarée pandémie le 11 mars dernier par l’OMS. Au 18 mars, plus de 207 000 cas ont été confirmés dans le monde, dont environ 83 000 guéris et 8 300 décédés. Foyer originel de la pandémie, la Chine est le pays qui dénombre le plus de cas, 81 000, suivie de l’Italie (31 500 cas), de l'Iran (17 300 cas), de l'Espagne (14 000 cas), de l'Allemagne (10 000 cas), de la Corée du Sud (8 400 cas), de la France (8 000 cas) et des Etats-Unis (6 500 cas). S’agissant du nombre de décès, ils se concentrent dans cinq pays, particulièrement touchés, la Chine (3 200 morts), l’Italie (3 000 morts), l’Iran (1 000 morts) l’Espagne (500 morts) et la France (300 morts).

Comme l’a rappelé avec force le Président de la République, lors de son allocution télévisée du 17 mars (la plus regardée de toute l’histoire de la télévision), nous sommes « en guerre » contre cet ennemi invisible, sournois, plein de ressources qu’est le Covid-19 et sommes à présent contraints de prendre des mesures de confinement draconiennes, sans précédent en temps de paix, si nous voulons endiguer cette pandémie galopante et éviter une catastrophe sanitaire de plus grande ampleur encore. Ces mesures qui bouleversent la vie politique, économique et sociale de notre pays, sont heureusement largement comprises et acceptées par plus des trois quarts de nos concitoyens, si l’on en croit les sondages réalisés sur l’intervention du chef de l’Etat. La Chancelière allemande, Angela Merkel, a également eu raison de souligner, le 18 mars dernier, que la lutte contre le coronavirus constitue « le plus grand défi » qu’ait connu l’Europe et Allemagne depuis la seconde guerre mondiale ».

Pour traduire la volonté de solidarité nationale que veut, à juste titre, mettre en œuvre l’Etat, notamment en faveur des personnes les plus modestes, mais aussi des petites entreprises, le Parlement va dès aujourd’hui adopter une loi qui autorise la déclaration d’un état d’urgence sanitaire et précisera l’ensemble de mesures juridiques, politiques et économiques annoncées par le Président de la République, pour faire face à cette situation exceptionnellement grave que doit affronter notre pays. Cette loi donnera au Gouvernement des pouvoirs spéciaux en matière sanitaire pour le temps que durera cette pandémie ; ce texte prévoit également de nombreuses mesures d’aides et de soutien aux entreprises et salariés qui vont subir pendant de longs mois encore les effets dévastateurs du Coronavirus sur leurs activités.

Sur le plan scientifique, les centres de recherche et laboratoires du monde entier sont évidemment mobilisés contre le Covid-19 et bien que sur ce virus qui présente encore certaines zones d’ombres les connaissances s’accumulent aussi bien sur sa nature, son fonctionnement et son évolution. Nous venons par exemple, grâce à une récente étude chinoise, d’avoir la confirmation que nous n’étions pas égaux face au Covid-19 (Voir CCDC).

Selon cette étude, le virus touche beaucoup plus gravement les personnes âgées ayant des problèmes de santé préexistants. Ces recherches montrent qu’heureusement 80 % des cas de coronavirus restent bénins et n’entraînent  ni complications, ni hospitalisations. Quant au taux de létalité de ce virus, il varie considérablement en fonction de l’âge et de l’état de santé du patient : d’1 % ou moins pour les sujets jeunes et en bonne santé, cette mortalité peut dépasser les 12 % pour les sujets âgés qui ont une santé dégradée. Au total, l’OMS a tout de même été amenée à revoir à la hausse le taux moyen de létalité, qui serait en fait de 3,4 % au niveau mondial et non de 2 %, comme on le croyait jusqu’à présent.

Cette vaste étude épidémiologique chinoise, qui porte sur 44 000 patients, est riche d’enseignements ; elle montre de manière solide que les risques de mourir de la maladie sont directement corrélés à l’âge. L'étude révèle notamment qu’on ne trouve aucun décès chez les enfants de moins de 10 ans, qui représentent moins d'1 % des patients. S’agissant des malades âgés de 10 à 19 ans, l’étude établit qu’ils présentent autant de risques de mourir que les trentenaires. En revanche, les patients ayant de 50 à 60 ans ont trois fois plus de risques de mourir que ceux ayant entre 40 et 50 ans. Enfin, et de manière cohérente, l’étude montre que les sujets âgés de plus de 70 ans, atteints de différentes pathologies comme des problèmes respiratoires ou cardiovasculaires, ont un taux de mortalité qui dépasse les 10 %. A contrario, ces recherches montrent que, pour  les trois quarts des patients chinois qui n'avaient pas de problèmes de santé préexistants, le taux de mortalité était inférieur à 1 %.

Une  autre étude importante, publiée le 17 mars dernier, montre que le coronavirus peut survivre plusieurs heures à l'air libre (Voir NEJM). D'après ces recherches, le virus aurait une capacité de survie à l'air libre comparable à celui du SRAS. Il pourrait survivre pendant plusieurs heures en dehors du corps humain, sur des surfaces diverses ou même dans l'air. Cette capacité expliquerait notamment le niveau de contagiosité du virus, qui est capable de se transmettre beaucoup plus facilement d'un porteur sain (sans symptômes apparents) à un autre. Ce travail précieux montre également que le nouveau coronavirus était détectable jusqu'à deux à trois jours sur des surfaces en plastique ou en acier inoxydable, et jusqu'à 24 heures sur du carton. Les chercheurs ont par ailleurs tenté d’évaluer la capacité de survie du virus en milieu ouvert, en utilisant la technique du nébulisateur pour diffuser le virus dans l'air ambiant. Selon eux, le virus pourrait survivre pendant au moins trois heures dans les gouttelettes en suspension dans l’air.

Pour expliquer le haut niveau de contagion de ce Coronavirus, il faut également évoquer la forte probabilité que ce virus puisse aussi se transmettre par voie fécale, comme le suspecte une étude chinoise (Voir Jama Network) publiée début février. Selon ces recherches, « le 2019-nCoV retrouvé dans les selles pourrait se transmettre par voie fécale ». Ce nouveau mode de transmission qui accroit les risques de transmission du virus  représente évidemment un défi supplémentaire à prendre en compte et à gérer pour le système sanitaire et hospitalier.

Dans une autre étude chinoise, des scientifiques ont découvert que le coronavirus, comme tous ses homologues, avait continué à muter et se déclinait à présent en deux types : la souche S, qui est la plus ancienne et la moins agressive et provient du foyer initial d’infection, c’est-à-dire Wuhan en Chine, et la souche L, plus dangereuse et mieux adaptée à l’Homme, qui représente à présent plus  de  de 70 % des cas, contre 30 % pour la souche S (Voir Oxford Academic NSR).

Bien que la plupart des mutations génétiques des virus soient neutres (certaines étant même bénéfiques pour l’homme car elles réduisent la dangerosité du virus), il existe toujours un risque, certes très faible, mais réel que de nouvelles souches mutées de Covid-19, beaucoup plus agressives pour l’homme, n’apparaissent dans les mois ou les années qui viennent, d’où l’importance vitale, d’une part, de stopper par tous les moyens la propagation du virus, pour réduire le nombre de personnes infectées, d’autre part de développer rapidement des stratégies thérapeutiques efficaces, soir des médicaments antiviraux, soit, à plus long terme, un vaccin qui pourra offrir un fort taux de protection (même si cette protection n’est pas totale) contre ce virus.

En matière de traitement antiviral, le remdesivir de l'Américain Gilead tient la corde et pourrait être le premier à arriver sur le marché. Ce médicament aurait donné des résultats positifs dans le traitement de patients atteints du coronavirus en Chine, mais également aux Etats-Unis et en France. En France, le directeur de l’IHU de Marseille, le professeur Didier Raoult, a présenté il y a quelques jours des résultats très encourageants pour ses premiers essais cliniques concernant l’hydroxychloroquine contre le coronavirus. « On a pu comparer la négativation du portage viral chez des patients qui ont suivi le protocole, avec des patients d’Avignon et de Nice qui n’ont pas reçu le traitement. Ceux qui n’ont pas reçu le Plaquenil médicament à base d’hydroxychloroquine sont encore porteurs à 90 % du virus au bout de six jours, tandis qu’ils sont 25 % à être positifs pour ceux qui ont reçu le traitement », a précisé Didier Raoult. Celui-ci a par ailleurs souligné que la combinaison associant l’hydroxychloroquine et l’Azithromycine (un antibiotique qui présente la particularité d’avoir également une action contre certains virus) semblait une voie thérapeutique particulièrement prometteuse ». Quand on compare le pourcentage de positifs avec l’association hydroxychloroquine et Azithromycine, on a une diminution absolument spectaculaire du nombre de positifs », précise le Professeur Raoult.

Ce scientifique de renom rappelle également qu’il est tout fait fondamental de parvenir à réduire très sensiblement la charge virale chez les malades, car lorsque cette charge descend en dessous d’un certain niveau, ces malades guérissent et ne sont plus contagieux. Le professeur Raoult insiste donc sur la nécessité d’augmenter le nombre de tests, pour pouvoir  traiter tous les porteurs. "Les tests au Covid-19 reposent sur la technique PCR, très bien maîtrisée et nous sommes capables dans ce pays de faire des milliers de tests et de tester tout le monde, si nous nous en donnons les moyens", ajoute le Professeur Raoult.

Et il semble bien que cette thèse défendue avec force par le Professeur Raoult se vérifie de manière saisissante, si l’on examine la situation tout à fait particulière de l’Allemagne, pays qui connaît pour l’instant un nombre de décès bien plus faible que tous ses voisins européens. L’Allemagne comptait, le 15 mars dernier, 6 012 cas confirmés, dont 13 morts (soit un taux de mortalité de 0,2 %), selon les autorités sanitaires de ce pays. La France comptabilisait dans le même temps 6 633 cas confirmés, dont 148 morts (soit un taux de mortalité de 2,2 %), selon Santé publique France. Et l'Italie indiquait de son côté avoir comptabilisé 27 980 cas pour 2 158 morts (soit 7,7 % de mortalité).

Certes, l’Allemagne possède l’un des meilleurs ratios européens, en termes de lits d’hôpitaux et de lits de réanimation par habitant. Mais il semble bien, selon de nombreux experts et scientifiques que l’explication du très faible niveau de la mortalité allemande soit ailleurs, et notamment dans le recours précoce et généralisé à des tests de dépistage. "Depuis le début de l'épidémie, nous avons systématiquement demandé à nos médecins de tester les gens, et il est toujours possible d'être testé en Allemagne sur une simple demande de son médecin généraliste", précise à cet égard le docteur Lothar H. Wieler, président de l'Institut Robert Koch. Contrairement à la France, qui ne dispose que d'une capacité de 2 500 tests par jour et a vite été contrainte, face à l’explosion du nombre de cas, de réserver ces tests aux patients présentant des symptômes avancés, notre voisin allemand dispose d'une capacité de dépistage massive évaluée à 12 000 tests par jour, et s’appuyant sur un maillage territorial de plusieurs centaines de laboratoires, alors qu’en France, seuls 70 laboratoires sont en mesure de réaliser ces tests.

La recherche d’un vaccin efficace contre le coronavirus mobilise également de très nombreux chercheurs et centres de recherche de par le Monde, et on assiste à une compétition scientifique effrénée, qui n’est pas sans arrière-pensées économiques et industrielles, compte tenu de l’importance des enjeux sanitaires, pour être le premier à mettre sur la marché ce vaccin tant attendu contre le Coronavirus. En France, après avoir réalisé le séquençage complet du génome du coronavirus 2019-nCoV, l’Institut Pasteur a réussi il y a quelques semaines à isoler en culture cellulaire le Coronavirus. Ce virus isolé, baptisé 2019-nCoV, est responsable des pneumonies survenues en Chine et diffère de deux autres virus bien connus pour être responsables d’épidémies respiratoires récentes : les virus SARS-CoV, responsable de l’épidémie de SRAS en 2003, et MERS-CoV, responsable d’une épidémie évoluant depuis 2012 au Moyen-Orient. Cet isolement viral ouvre également la voie à la mise au point d’un vaccin.

En Chine, foyer d’origine de la pandémie, l'Académie des sciences médicales militaires vient de commencer, jusqu’à la fin de l’année, les essais cliniques de phase 1, sur 108 volontaires, d’un vaccin expérimental. Aux Etats-Unis, un essai clinique sur 45 adultes volontaires en bonne santé âgés de 18 à 55 ans a commencé le 16 mars et va durer environ six semaines. Ce candidat vaccin, baptisé mRNA-1273 a été développé par des scientifiques des NIH et de l'entreprise de biotechnologies Moderna, basée à Cambridge dans l'État du Massachusetts. Fait révélateur, qui montre la souplesse, la rapidité et la capacité réactive des Américains en matière de recherche, la société américaine de biotechnologie Moderna n’a mis que six semaines à mettre au point son vaccin, en exploitant habilement ses recherches précédentes sur les coronavirus.

Les Américains ont également failli réussir à prendre le contrôle de CureVac, une société allemande de biotechnologie très avancée dans ses recherches sur un vaccin contre le Coronavirus. Heureusement, l’Europe a réagi in extrémis pour empêcher cette mainmise qui aurait conféré aux Etats-Unis un avantage scientifique et économique décisif. L’Union européenne a par ailleurs décidé de débloquer 80 millions d’euros pour aider le laboratoire allemand CureVac, dans le cadre du programme de recherches Horizon, et ainsi accélérer la mise au point d'un vaccin d’ici l'automne et tenter de rester dans la course avec les Etats-Unis.

Il est vrai que l’éradication de cette pandémie du coronavirus n’est pas seulement une nécessité médicale sanitaire, mais constitue également une priorité politique et économique majeure. Le coût total du Coronavirus pourrait en effet dépasser de très loin celui du SARS1 (40 milliards d’euros en 2003) ou du H1N1 (50 milliards en 2009), et atteindre, selon certains experts, les 1000 milliards de dollars, soit plus de 1 % du produit mondial brut.

Au moment où j’écris ces lignes, il ne fait nul doute que, compte tenu des mesures drastiques prises au niveau des Etats et des moyens considérables engagés dans la recherche scientifique et médicale pour contrer ce coronavirus, cette pandémie très inquiétante sera surmontée. Mais personne n’est en mesure de dire combien de morts – 100 000, un million, 10 millions, fera au total ce virus qui semblait à l’origine plutôt anodin, et nos sociétés ne sortiront pas indemnes de cet épisode qui nous rappelle à quel point la Nature nous domine et combien notre puissance, qui repose sur une haute technologie et une grande complexité d’organisation sociétale est fragile.

Le Président de la République a eu raison de dire que notre pays, et cela est vrai pour notre civilisation toute entière, ne retrouvera pas, après cette crise sanitaire mondiale, l’état qu’il avait avant, comme si rien ne s’était passé et que nous refermions simplement une pénible parenthèse. Nous allons en effet, une fois que nous aurons réussi à surmonter cette épreuve sanitaire, sociale, économique, mais aussi existentielle majeure, être contraints de réfléchir collectivement aux finalités que nous voulons donner au progrès, à la croissance économique, aux ensembles collectifs auxquels nous appartenons (de la commune à l’Etat, en passant par l’entreprise) et plus intimement, à nos vies.

Nous allons notamment devoir interroger en profondeur le modèle de développement actuel, qui, en dépit de ses incontestables succès, et des avancées sans précédents qu’il a apportées à l’Humanité depuis plus de deux siècles en matière du niveau et de qualité de vie, touche aujourd’hui à ses limites, et doit être repensé, nous le sentons tous… Quel que soit le niveau technologique et scientifique que nous atteindrons dans le futur, la Nature et le vivant seront toujours plus forts, plus inventifs, plus rusés que nous. C’est pourquoi nous ne pourrons jamais, il faut avoir la lucidité et l’humilité de l’admettre, prévenir complètement ce genre d’événement et de crise qui parsèment la longue histoire de l’ humanité, de la peste décimant l’Empire romain au IIème siècle, à la terrible « grippe espagnole », qui fit, on le sait maintenant, plus de 50 millions de morts en 1918-1919.

Mais il dépend de nous, en revanche, de tirer toutes les leçons de ces catastrophes que nous traversons et finissons par surmonter, au prix de beaucoup de souffrance, de courage et de dévouement. Faisons en sorte que, lorsqu’un tel événement mondial se reproduira, et cela arrivera tôt ou tard, nous soyons en capacité de réagir plus vite et plus efficacement – non seulement par des moyens scientifique et techniques appropriés, mais aussi par une organisation sanitaire et sociale et des comportements individuels profondément transformés -  contre un tel péril. Entendons enfin le message, l’avertissement que nous envoie cette pandémie et construisons ensemble, dans le cadre d’un  débat démocratique plus ouvert et plus exigeant, une société plus humaine, plus résiliente, plus solidaire, moins individualiste et enfin recentrée sur une finalité qui fasse sens pour tous et mérite d’être refondée, celle de la primauté du bien commun et de l’intérêt général.

René TRÉGOUËT

Sénateur honoraire

Fondateur du Groupe de Prospective du Sénat

e-mail : tregouet@gmail.com


Avenir
Nanotechnologies et Robotique
Un robot capable de prélever du sang avec une très grande précision
Mardi, 17/03/2020 - 10:48

Sur des patients qui possèdent des veines fragiles ou difficiles d'accès, une prise de sang peut devenir un acte médical fastidieux. Pour surmonter cette difficulté, des chercheurs de l'Université de Rutgers (New Jersey) et de l'hôpital de Mount Sinai (New York) ont mis au point un robot capable d'effectuer des prises de sang de façon très précise.

Le dispositif automatisé a un fonctionnement très simple. Guidé par ultrasons, il trouve plus facilement la veine, la perce avec une aiguille et prélève la quantité de sang nécessaire. Le robot comprend également une centrifugeuse capable de séparer les constituants du sang en vue d'une analyse. Pour l'instant, le système n'a été conçu que pour prélever du sang à partir des veines périphériques de l'avant-bras.

Les résultats de l'essai clinique ont été plutôt concluants. En effet, le robot a eu "un taux de réussite global de 87 % pour les 31 participants dont le sang a été prélevé". Et pour les 25 personnes dont les veines étaient faciles d'accès, le taux est monté à 97 %. A titre de comparaison, les études antérieures présentent des taux plus faibles. En moyenne, les professionnels de santé ont un taux de réussite de 73 % chez les patients sans veines visibles et 60 % pour les personnes sans veines palpables.

"Un appareil comme le nôtre pourrait aider les cliniciens à prélever des échantillons de sang rapidement, en toute sécurité et de manière fiable, en évitant les complications et la douleur chez les patients suite à de multiples tentatives d'insertion d'aiguille", s'est félicité Josh Leipheimer, auteur principal de l'étude et chercheur en biologie à l'Université de Rutgers. En plus de la douleur infligée par des essais à répétition, cette difficulté à accéder aux veines coûterait 4 milliards de dollars par an aux Etats-Unis, du fait du gaspillage de matériel et de la perte de temps pour le personnel...

Selon ces chercheurs, dans quelques années, les robots seront capables d'effectuer, en routine, non seulement des prélèvements sanguins, mais aussi des actes plus complexes, tels que des poses de cathéter veineux périphérique, dispositif pour administrer des traitements par voie intraveineuse, et pour la dialyse.

Article rédigé par Georges Simmonds pour RT Flash

WS

^ Haut
Matière
Matière et Energie
Produire de l’électricité à partir… de l’humidité de l’air !
Jeudi, 19/03/2020 - 00:00

Des chercheurs de l’Université du Massachusetts, à Amherst (États-Unis), ont développé un dispositif s’appuyant sur une protéine naturelle pour créer de l’électricité à partir de l’humidité présente dans l’atmosphère. Derek Lovley, aujourd’hui chercheur à l’Université du Massachusetts, a découvert il y a un an un type inhabituel de bactérie évoluant dans la boue, aux abords d’une rivière. Des études ont montré que cette bactérie – Geobacter sulfoaducens – gagne en énergie grâce à des processus électriques. À cette fin, ce microbe a donc développé des protéines “spéciales”.

Partant de ce constat, Lovley et ses équipes ont exploré le potentiel technique de ces bactéries et de leurs nanofils protéiques électriquement conducteurs. Ils ont alors découvert que, lorsque des couches de ces protéines sont mises en contact avec des électrodes d’une certaine manière, une tension se crée. Des études ultérieures ont ensuite montré que cet effet est basé sur le fort pouvoir d’absorption de l’humidité de l’air de ces protéines.

Récemment, les chercheurs ont donc exploité ces connaissances pour développer un petit appareil – baptisé Air-Gen. Celui-ci se compose d’une fine couche de dix microns d’épaisseur de nanofils de protéines. Le tout est entièrement recouvert par le bas avec une électrode plate en or. En haut, la couche est connectée à une plus petite électrode qui scelle seulement une partie de la surface des protéines.

Une fois le dispositif mis en place, les nanofils de protéines se retrouvent directement exposés à l’humidité de l’air ambiant, dont ils absorbent les molécules. À cause de différences de tensions générées par les deux différentes électrodes, la zone supérieure du dispositif devient le pôle négatif et la zone inférieure devient le pôle positif. De l’électricité peut alors être générée. "Nous produisons littéralement de l’électricité à partir de l’air", explique Jun Yao, co-auteur de ces nouveaux travaux. "Ce dispositif génère une énergie propre 24h / 24 et 7j / 7. C’est l’application la plus étonnante et la plus excitante des nanofils de protéines à ce jour".

Comme le rapportent les chercheurs, une unité Air-Gen ne peut fournir qu’une tension soutenue d’environ 0,5 volt et un courant d’environ 17 micro-ampères par centimètre carré. Mais en reliant plusieurs unités, des tensions et des courants plus élevés peuvent être générés. Les chercheurs, par exemple, ont réussi à allumer une lampe LED.

Ce n’est pour l’heure qu’un début, mais le fait est que ces chercheurs ont tout de même réussi à développer une technologie non polluante et peu coûteuse capable de produire de l’électricité. Le dispositif Aig-Gen, selon eux, serait même capable de générer de l’énergie même dans des zones à très faible humidité. Ils ont évoqué le désert du Sahara, notamment. À terme, ils ambitionnent le développement d’unités capables d’alimenter de petits appareils électroniques.  

Article rédigé par Georges Simmonds pour RT Flash

Nature

Les batteries lithium-métal débarrassées des courts-circuits grâce aux ultrasons
Mercredi, 18/03/2020 - 12:22

En utilisant des ondes acoustiques de surface émises par un dispositif bon marché équipant les smartphones, une équipe de recherche de l’Université de San Diego Californie lève le principal verrou technologique des batteries lithium-métal : la formation de dendrites produisant des courts-circuits.

Les batteries lithium-métal peinent à conquérir les marchés, malgré leurs performances plus élevées que les batteries lithium-ion. En cause, leur tendance à laisser se former des dendrites, soit des structures composées d’atomes de lithium agglomérés qui croissent de l’anode vers la cathode et peuvent conduire à un court-circuit dévastateur.

La formation de ces dendrites est favorisée par la concentration très hétérogène des ions lithium dans l’électrolyte au cours de la recharge – et ce d’autant plus que la recharge est rapide.

Pour résoudre ce problème, les chercheurs intègrent à la batterie un dispositif émetteur d’ondes acoustiques de surface, un dispositif utilisé dans les téléphones portables et peu coûteux. Pendant la charge, celui-ci génère des ondes acoustiques haute fréquence (100 MHz) qui entraînent un écoulement fluide au sein de l’électrolyte. Contrairement à une batterie sans dispositif, la distribution des ions est homogène dans l’électrolyte – même pendant une charge rapide – et le dépôt de lithium uniforme, ce qui bloque totalement la formation de dendrites.

L’équipe démontre la performance de son dispositif dans une batterie lithium-cuivre et lithium-fer-phosphate jusqu’à 250 cycles de charge. La batterie est complètement rechargée en dix minutes à 6 mA.cm-2, même en utilisant un électrolyte à base de carbonate actuellement commercialisé qui entraîne normalement un court-circuit à 2 mA.cm-2.

Ce dispositif permet de résoudre le problème de la faible durée de vie des batteries lithium-métal. Grâce à leur capacité deux fois plus importante, à poids égal, que les batteries lithium-ion, elles sont très intéressantes pour les voitures électriques par exemple. Les chercheurs précisent également que cette technologie simple pourrait être utilisée dans n’importe quel type de batterie pour augmenter leur efficacité et durabilité.

Article rédigé par Georges Simmonds pour RT Flash

AM

Annecy : le réseau de chauffage d’un nouveau quartier puisera son énergie dans le lac
Mercredi, 18/03/2020 - 12:18

Situé sur le site de l’ancien hôpital, au bord du lac, le projet immobilier des Trésums à Annecy accueillera, d’ici 2022, 480 logements privés, 152 logements sociaux, un hôtel de 110 chambres, une maison de repos et le futur centre nautique municipal. Il sera desservi par un réseau de chaleur et de froid qui puisera l’énergie dans le lac, à 20 mètres de profondeur.

L’eau s’y trouve à une température constante de 7°C, été comme hiver. Elle alimentera des pompes à chaleur réversibles qui produiront les besoins en chauffage, eau chaude sanitaire et climatisation du quartier. Grâce à l’utilisation d’échangeurs de chaleur, la totalité de l’eau pompée dans le lac lui sera restitué.

En été, les pompes à chaleur réversibles permettront au réseau de distribuer de la fraîcheur. C’est le principe du « géocooling », une solution qui permettra de consommer quinze fois moins d’électricité que des climatiseurs individuels classiques.

Même bénéfice pour ce qui concerne le chauffage, puisque le système permettra d’économiser chaque année 2.250 tonnes de CO2.

Une étude d’incidence a été réalisée pour vérifier l’impact environnemental du projet sur le lac d’Annecy. « Les mesures mises en œuvre permettront de surveiller et de préserver la qualité du milieu naturel », précise le groupe Idex qui a conçu l’installation. Il espère couvrir 95 % des besoins en chauffage et en eau chaude sanitaire des bâtiments reliés à ce réseau. Les 5 % restants seront assurés par des chaudières à gaz, lesquelles apporteront un appoint en cas de nécessité.

Article rédigé par Georges Simmonds pour RT Flash

RE

^ Haut
Espace
Espace et Cosmologie
Première détection d'oxygène moléculaire dans une autre galaxie
Mardi, 17/03/2020 - 10:35

Le dioxygène (ou O2) est une molécule-clé dans les processus biologique, car il permet la respiration cellulaire. Il est abondant sur notre planète mais dès qu'on s'en éloigne, il est très difficile à identifier dans la Voie lactée et les galaxies plus lointaines. L'oxygène est pourtant le troisième élément le plus abondant dans l'Univers mais l'atmosphère terrestre masque en partie sa signature et d'autres processus physiques pourraient "capturer" les molécules d'O2 et empêcher leur détection.

Depuis la Terre, les quasars ont l'apparence d'étoiles, d'où leur nom de "radiosource quasi stellaire". Il s'agit en fait de galaxies très énergétiques dont le noyau actif est la demeure d'un trou noir supermassif. Ou même de deux trous noirs, comme c'est sans doute le cas pour Markarian 231. Ce quasar situé à 581 millions d'années-lumière de la Terre, est le plus proche de nous, et en son cœur dansent deux trous noirs, l'un d'une masse de 150 millions de masses solaires et l'autre de 4 millions.

C'est en scrutant Markarian 231, à l'aide de deux radiotélescopes en France et en Allemagne, que des astrophysiciens Chinois ont identifié la trace de molécules de dioxygène. C'est la première fois que cette molécule est identifiée en dehors de la Voie lactée et elle n'avait été entraperçue qu'à deux occasions dans notre galaxie, dans deux nébuleuses où des étoiles se forment à un taux élevé. Les spécialistes estiment que la pénurie d'oxygène interstellaire s'explique par le fait que cet élément est piégé sous forme de glace d'eau accrochée à de minuscules particules de poussières.

Mais dans les nébuleuses comme dans le quasar qui produit des étoiles à un taux effarant (plus de 700 masses solaires par an contre 1 pour la Voie lactée), l'énergie des nouvelles étoiles pourrait briser cette glace d'eau et libérer les atomes qui auraient alors la liberté de se lier pour former du dioxygène. Au cours de leurs observations, les auteurs ont repéré dans la périphérie du disque du quasar des concentrations d'oxygène 100 fois plus importantes que dans la nébuleuse d'Orion, un des deux nuages de la Voie lactée où le gaz avait été identifié. Cet O2 libéré dans le quasar pourrait contribuer à le maintenir en activité : le rayonnement émis par l'oxygène contribue à refroidir le gaz environnant qui peut alors s'effondrer pour former encore plus de nouvelles étoiles.

Article rédigé par Georges Simmonds pour RT Flash

AJ

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
Réchauffement climatique : Les baleines capturent plus de CO2 que les arbres
Jeudi, 19/03/2020 - 00:20

Le FMI (Fonds monétaire international), en partenariat avec la GWC (Great whale conservancy), s’est donné pour mission de donner une valeur chiffrée aux baleines — calculée en fonction de leur impact positif sur l’environnement — pour encourager leur protection. Cette idée fait suite à une étude scientifique récente qui démontre que les baleines seraient plus efficaces que les arbres pour piéger le CO2 contenu dans l’atmosphère et donc lutter contre le réchauffement climatique.

Les phytoplanctons sont des microorganismes végétaux qui se développent à la surface de l’eau. On leur doit « au moins 50 % » de la production d’oxygène planétaire, mais aussi l’absorption record d’« environ 37 milliards de tonnes de CO2 soit environ 40 % de tout le CO2 produit », explique l’étude du FMI. « Cela équivaut à la quantité de CO2 capturée par 1 700 milliards d’arbres, soit (…) 4 forêts amazoniennes ».

Mais qu’est-ce que cela a à voir avec les baleines ? Et bien les phytoplanctons se développent très bien grâce aux excréments de baleine qui contiennent beaucoup d’azote et de fer, et avec lesquels ils se nourrissent. Grâce à la migration des baleines ainsi qu’à leurs plongées et retours vers la surface, les phytoplanctons se développent un peu partout sur la planète et permettent de lutter contre le réchauffement climatique. Enfin, selon l’étude : Lorsqu’« une baleine meurt et sombre au fond de l’océan, elle piège 33 tonnes de CO2 en moyenne, supprimant ce carbone de l’atmosphère pendant des siècles ». « Un arbre, lui, n’absorbe que jusqu’à 48 kilos de CO2 par an ».

« La valeur des fonctions assurées par les baleines au sein du système océanique/terrestre (...) devrait être intégrée dans l’évaluation du coût lié à leur protection », estime le FMI. Son directeur adjoint Ralph Chami a même déclaré qu’en raison « du rôle irremplaçable des cétacés dans la réduction des effets du changement climatique et de la résistance à ces effets, leur survie devrait (…) être intégrée aux objectifs de l’ensemble des signataires de l’Accord de Paris sur le climat ». Et alors, une baleine, ça vaut combien ? Selon l’étude du FMI, la population mondiale de baleines vaudrait environ 900 milliards d’euros. Et un seul individu pèserait 1,8 million d’euros si l’on considère sa contribution aux "services écosystémiques mondiaux"… 

Article rédigé par Georges Simmonds pour RT Flash

IMF

Les grandes forêts tropicales perdent leur capacité à stocker le carbone
Jeudi, 19/03/2020 - 00:10

On connaît le rôle majeur que jouent les forêts tropicales humides comme puits de carbone capables de limiter le réchauffement climatique en capturant du CO2 de l’atmosphère et en le stockant dans leurs arbres. De manière générale, les modèles climatiques comptent sur le fait que ce processus, appelé « séquestration de carbone », continuera encore pendant des décennies.

Cependant, une étude de 30 ans mesurant croissance et mortalité d’arbres répartis sur 565 forêts tropicales intactes en Afrique et en Amazonie révèle que la séquestration de carbone a atteint un pic dans les années 1990. Dans les années 2010, la capacité de ces forêts d’absorber du carbone avait déjà diminué d’un tiers. Ce switch s’explique principalement par une mortalité des arbres plus élevée, et donc un rejet de carbone vers l’atmosphère plus important.

L’étude, qui implique près de 100 institutions de recherche à travers le monde, démontre pour la première fois cette tendance inquiétante à une échelle globale. « Nous montrons que le pic de séquestration du carbone a eu lieu dans les années 1990 », explique le Dr Wannes Hubau, chercheur au Musée royal de l’Afrique centrale et premier auteur de l’article. « En combinant des données d’Afrique et d’Amazonie, nous avons pu expliquer pourquoi ces forêts changent.

Selon cette étude, l’augmentation de la concentration en CO2 dans l’atmosphère a boosté la croissance des arbres, mais chaque année, ce phénomène est de plus en plus contrebalancé par les effets néfastes de l’augmentation des températures et des sécheresses, qui ralentissent la croissance des arbres et peuvent même les tuer. « En créant des modèles sur base de tous ces facteurs, nous avons montré que le puits de carbone des forêts africaines diminuera sur le long terme, tandis que celui des forêts amazoniennes diminue beaucoup plus rapidement », précise l'étude.

Dans les années 1990, les forêts tropicales intactes ont capturé près de 46 milliards de tonnes de CO2 de l’atmosphère. Ce chiffre a diminué à environ 25 milliards de tonnes dans les années 2010. La capacité d’absorber du carbone a donc diminué de 21 milliards de tonnes, ce qui équivaut à 10 ans d’émissions de combustibles fossiles du Royaume-Uni, de la France, de l’Allemagne et du Canada réunis.

De manière globale, durant les années 1990, les forêts tropicales intactes ont capturé 17 % des émissions de carbone causées par l’homme. Dans les années 2010, elles n’ont capturé plus que 6 % de nos émissions. Ce déclin est dû au fait que la capacité de ces forêts à capturer du carbone a diminué de 33 %, la superficie de forêt intacte a diminué de 19 %, alors que nos émissions de carbone ont augmenté de 46 %.

Le Pr Simon Lewis de l’Université de Leeds tire lui aussi à la sonnette d’alarme : « Les forêts tropicales intactes restent un puits de carbone important, mais notre étude montre que si des politiques environnementales importantes ne sont pas mises en œuvre rapidement afin de stabiliser le climat, les forêts tropicales ne pourront bientôt plus absorber de carbone. »

Afin de mesurer l’évolution des stocks de carbone, les chercheurs ont mesuré le diamètre et la hauteur de tous les arbres se situant dans 565 parcelles de forêt, à intervalle de quelques années. En calculant le carbone stocké dans les arbres vivants et celui perdu par la mort des arbres, ils ont déterminé l’évolution des échanges de carbone au fil des années. Les chercheurs ont ensuite utilisé un modèle statistique et les tendances des émissions de CO2, des températures et des précipitations pour estimer l’évolution de ces échanges de carbone jusqu’en 2040.

En combinant les données de deux grands réseaux de recherche sur les forêts d’Afrique (AfriTRON) et d’Amazonie (RAINFOR), les auteurs montrent que le puits de carbone de l’Amazonie a été le premier à s’affaiblir, à partir du milieu des années 1990, suivi par celui des forêts africaines, une quinzaine d’années plus tard.

La différence entre les deux continents est due à une combinaison de deux facteurs. D’une part, les forêts amazoniennes sont plus dynamiques que celles d’Afrique et, d’autre part, l’impact du changement climatique se fait davantage ressentir en Amazonie. En effet, les forêts y sont exposées à des températures plus élevées, une augmentation des températures plus rapide et des sécheresses plus importantes et plus fréquentes.

Les auteurs soulignent également que, même si ces forêts ne captureront bientôt plus de CO2, il est important de les conserver. En effet, les forêts tropicales restent des réservoirs gigantesques. Rien que dans leurs arbres, elles stockent 250 milliards de tonnes de carbone. Cette masse équivaut à 90 ans d’émissions mondiales de combustibles fossiles au niveau actuel.

Article rédigé par Georges Simmonds pour RT Flash

Nature

Une solution suisse pour réduire de 90 % les émissions CO2 des camions
Mercredi, 18/03/2020 - 12:24

L’école polytechnique fédérale de Lausanne vient de breveter un procédé destiné à stocker les émissions CO2 des véhicules dans une solution liquide qui sera produite tout en roulant. Le dispositif paraît particulièrement pertinent pour les véhicules lourds, comme les navires, les trains ou les poids lourds.

Et si les camions transportaient à leur bord un dispositif capable de réduire leurs émissions de CO2 de 90 % ? C’est le pari que viennent de prendre des chercheurs de l’école polytechnique fédérale de Lausanne (EPFL), en brevetant un nouveau concept de capture d’émissions de gaz à effet de serre. Ce procédé consiste à capturer le CO2 à même le pot d’échappement, puis le transformer et le stocker sous forme liquide dans un boîtier situé sur le toit du véhicule. Le CO2 liquide pourrait être ensuite retransformé en carburant, en utilisant des sources d’énergie renouvelables.

Ce procédé, s’il était appliqué, permettrait de continuer à exploiter le parc actuel de véhicules, sans forcément tout basculer vers des solutions toutes électriques beaucoup plus onéreuses en termes d’acquisition. L’EPFL entend développer un premier prototype, tout en annonçant "qu’il peut falloir plusieurs années pour réaliser ce système dans la pratique". Pour l’instant, le dispositif se loge dans  une capsule de 2 mètres x 0.9 mètre x 1,2 m, posée au-dessus de la cabine du conducteur (dans le cas d’un camion de marchandises).

Le poids du dispositif (capsule et réservoir), sera d’autant plus intéressant que le véhicule possède une masse importante. Il représente ainsi 0,65 % du poids total d’un train, 0,08 % de celui d’un porte-container, contre 2,15 % d’un camion longue distance et 4,40 % d’un camion de distribution régionale ou locale (3 % de celui d’un véhicule utilitaire léger). "Le poids du dispositif représente 7 % de la charge utile du véhicule", précise François Maréchal, directeur de la Faculté des sciences et techniques de l’Ingénieur, qui coordonne cette recherche.

Les calculs des chercheurs indiquent qu’un camion consommant 1 kg de carburant conventionnel permettrait de produire 3 kg de CO2 liquide, et que la transformation s’effectue sans pénalité énergétique (car fonctionnant grâce à la chaleur dégagée par le moteur ou le pot d’échappement).

Pour arriver à ce résultat, les chercheurs de l’EPFL ont combiné plusieurs opérations complexes, qui utilisent au maximum l’énergie disponible à bord, comme la chaleur du moteur. Les émissions du véhicule sont tout d’abord récupérées à même le pot d’échappement et refroidies, et l’eau est séparée des gaz. Le CO2 est ensuite isolé des autres gaz (azote et oxygène), par un système d’adsorption à température modulée. L’adsorption consiste à retenir à la surface d'un solide des molécules d'un gaz, ici en utilisant des matériaux spécifiques développés par une unité de l’EPFL Valais.

Une fois saturé en CO2, ce matériau est chauffé, ce qui permet d’extraire du CO2 pur. Des turbocompresseurs à haute vitesse, développés par un laboratoire de l’EPFL Neuchâtel, utilisent la chaleur du moteur pour comprimer le CO2 et le rendre liquide. Ce dernier est ensuite stocké dans un réservoir. Il pourra être transformé en carburant conventionnel dans une station spécifique, en utilisant de l’électricité verte, par exemple lorsque le camion fera son plein. 

Article rédigé par Georges Simmonds pour RT Flash

EPFL

Les émissions humaines de méthane seraient sous-estimées
Mercredi, 18/03/2020 - 12:20

Après le CO2, le méthane est un autre puissant gaz à effet de serre responsable du changement climatique actuellement observé. Nous sommes parfaitement en mesure de quantifier la présence de ce gaz dans l’atmosphère chaque année. Néanmoins, il a toujours été difficile pour les chercheurs de déterminer exactement l’origine de ces émissions.

On peut en effet classer en deux catégories le méthane émis dans l’atmosphère. Il y a d’une part le méthane fossile séquestré depuis des millions d’années dans des gisements d’hydrocarbures. Et d’autre part, il y a le méthane biologique produit par les organismes vivants sous l’effet de la fermentation ou de la digestion.

Sa libération se fait donc naturellement. En revanche, la libération du méthane fossile qui fait l’objet de cette étude se fait généralement suite à l’extraction et à l’utilisation de combustibles fossiles comme le pétrole, le gaz et le charbon. Mais alors, quelle est la part de méthane d’origine naturelle et la part d’origine anthropique dans l’atmosphère ?

Pour le savoir, des chercheurs de l’Université de Rochester ont foré des carottes de glace au Groenland. Dans ces “capsules temporelles”, ils ont recueilli des échantillons d’air anciens pour en analyser la composition avant et après le début du 18e siècle (début de la révolution industrielle) et ce, jusqu’à nos jours.

En mesurant les niveaux d’émission avant le début de la révolution industrielle, les chercheurs se donnaient alors les moyens d’identifier les émissions naturelles en l’absence des émissions de combustibles fossiles. Ils ont alors découvert que la quasi-totalité du méthane émis dans l’atmosphère jusqu’en 1870 était de nature biologique. À partir de cette date, la composante fossile a commencé à augmenter rapidement jusqu’à prendre le dessus. Ils se sont également aperçu que celle-ci était aujourd’hui de 25 à 40 % plus élevée que prévu par les recherches précédentes.

En fin de compte, il ressort de cette étude que la quantité de méthane dans l’atmosphère issue de nos activités a été largement sous-estimée. Ce constat négatif pourrait toutefois permettre de faire une plus grande différence dans la lutte contre le réchauffement climatique. En effet, le CO2 peut stagner dans l’atmosphère pendant plusieurs dizaines d’années. Au contraire, le méthane ne persiste quant à lui que neuf ans en moyenne.

Cela signifie que si nous adoptons des réglementations plus strictes sur nos émissions dans l’industrie des combustibles fossiles, nous aurons le potentiel de réduire le réchauffement climatique futur dans une plus large mesure et dans un laps de temps beaucoup plus court. « Si nous cessions d’émettre tout le dioxyde de carbone aujourd’hui, des niveaux élevés de dioxyde de carbone dans l’atmosphère persisteraient encore pendant longtemps », confirme Benjamin Hmiel, principal auteur de l’étude. « Le méthane est important à étudier, car si nous apportons des modifications à nos émissions actuelles, les résultats vont se refléter plus rapidement ».

Article rédigé par Georges Simmonds pour RT Flash

Nature

La mer du Nord sera-t-elle transformée en lac pour lutter contre la montée des eaux ?
Mardi, 17/03/2020 - 10:42

Sjoerd Groeskamp, océanographe à l’Institut royal néerlandais de recherche sur la mer, et Joakim Kjellsson, du centre Geomar pour la recherche océanique à Kiel, en Allemagne  affirment, preuves et chiffrage à l’appui, qu’un barrage de 475 km entre le nord de l’Ecosse et l’ouest de la Norvège et un autre de 160 km entre l’ouest de la France et le sud-ouest de l’Angleterre est « une solution possible » pour enrayer l’inéluctable inondation qui se produira à cause de la montée des océans.

Selon ces deux scientifiques tout à fait sérieux, un tel projet est abordable et techniquement réalisable. En se basant sur des projets existants, et notamment les barrages de grande dimension construits en Corée du sud, les scientifiques estiment le coût de la construction d’une digue dite « d’enceinte de la mer du Nord » à 500 milliards d’euros, en estimation haute. Ils font valoir que, réparti sur 20 ans, le coût annuel pour les 14 pays (environ 25 milliards d'euros par an) qui seraient protégés par cette digue s’élèverait à peine à un peu plus de 0,1 % du PIB de chacun de ces états, un coût tout à fait supportable, et de toute façon bien inférieur à celui que provoqueraient les immenses dommages résultant d'une forte élévation du niveau de la Mer du Nord au cours des siècles prochains…

Si ces calculs sont avérés, le projet semble donc économiquement viable au regard des dégâts matériels et humains que causent la montée progressive du niveau de la mer et les inondations de plus en plus dévastatrices à l’intérieur des terres. Selon M. Groeskamp, cette solution semble également techniquement viable. La profondeur de la mer du Nord entre la France et l’Angleterre dépasse rarement les 100 mètres, alors qu’entre l’Ecosse et la Norvège, elle est en moyenne de 127 mètres, avec un pic à un peu plus de 320 mètres au large de la Norvège. « Nous sommes actuellement en mesure de construire des plates-formes fixes à des profondeurs supérieures à 500 mètres, un tel barrage semble donc réalisable », a-t-il déclaré.

Le barrage Sud traverserait la Manche entre les Cornouailles et Plouescat en Bretagne. Il ferait 161 km de long et serait bâti sur des fonds qui ne dépassent pas 100 mètres. Ce barrage permettrait aussi le transport routier et peut-être ferroviaire entre le continent et l’Angleterre.

Le barrage du Nord est plus complexe, composé de sections multiples. La section orientale du barrage de la mer du Nord constituerait le plus grand défi technique. Il ferait une longueur de 331 km en eau libre et serait assis sur des fonds marins dépassant 300 m de profondeur dans la tranchée norvégienne. Le barrage partirait de la rive orientale des Shetland, très probablement de l’île de Noss, et suivrait une direction orientale vers l’île de Sotra, dans le Hordaland, sur la côte occidentale de la Norvège.

Construire ces deux barrages aurait des conséquences inimaginables. Le projet transformerait une grande partie de la mer du Nord en un vaste lac d’eau douce sans marée, ce qui modifierait radicalement son écosystème. A une moindre échelle c’est ce qui s’est déjà passé en 1933 avec la construction par les néerlandais de la digue Afsluitdijk, longue de 32 km. En fermant une grande entrée de la mer du Nord, devenue le lac d’eau douce IJsselmeer, la construction a permis le plus grand projet de récupération des terres de l’histoire.

Présenté à plusieurs experts internationaux, ce projet pharaonique a été considéré comme techniquement viable.  Les deux auteurs du projet affirment que, d'ici deux ou trois siècles, une augmentation du niveau de la mer de plus 10 mètres n'est pas à exclure, dans les pires scenarios. « Dans cette hypothèse, ce barrage extrême pourrait bien être la seule solution » soulignent-ils…. 

Article rédigé par Georges Simmonds pour RT Flash

The Guardian

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Cancer de la vessie : un simple test urinaire de détection précoce
Mercredi, 18/03/2020 - 12:11

L'agence de l'Organisation mondiale de la santé pour la recherche sur le cancer (CIRC), basée à Lyon, a annoncé qu'un simple test d'urine permettrait de détecter des mutations génétiques annonciatrices d'un cancer de la vessie, plus de dix ans avant que soit posé le diagnostic.

Le CIRC précise que ce test détecte les mutations du gêne TERT, les plus fréquentes en cas de cancer de la vessie. Il pourrait permettre de réduire l'utilisation d'outils invasifs et d'améliorer "significativement" la détection précoce de la maladie, selon le docteur Florence Le Calvez-Kelm, chercheuse au CIRC et une des principales rédactrices de l'étude.

Pour mener ses recherches, l'agence a collaboré avec plusieurs partenaires universitaires et notamment l'Université des sciences médicales de Téhéran, qui disposait d'échantillons d'urine de quelque 50.000 Iraniens.

Les résultats ont montré que les mutations génétiques ont pu être détectées plus de dix ans avant sur 46,7 % des échantillons de patients ayant ensuite déclenché un cancer de la vessie. Ces tests pourraient servir à dépister les sujets à haut risque de développer ce cancer. Ces recherches doivent maintenant être validées par d'autres études.

Article rédigé par Georges Simmonds pour RT Flash

Ebiomedecine

IARC

Maladie d’Alzheimer : un risque accru chez les hommes de petite taille
Mardi, 17/03/2020 - 10:52

Une étude danoise, dirigée par Terese Sara Høj Jørgensen et Gunhild Tidemann Okholm (Université de Copenhague) affirme que le risque de démence diminuerait, chez les hommes, de 10 % tous les 6 cm. Pour parvenir à cette conclusion, qui confirme celle d'une autre étude anglaise publiée en 2014 et réalisée par David Batty, les chercheurs ont analysé les dossiers de 666 333 hommes nés entre 1939 et 1959. Mais contrairement à l’étude précédente qui était basée sur la simple relation entre la taille et la maladie, ils ont pris en compte les facteurs environnementaux et génétiques, les tests d’intelligence et le niveau d’éducation des sujets étudiés.

A ce titre, on comptait 70 608 frères et 7 388 jumeaux parmi les dossiers passés au crible de la recherche. « Nous voulions voir si la taille du corps chez les jeunes hommes était associée au diagnostic de démence, tout en déterminant si les résultats des tests d’intelligence, le niveau d’éducation et les facteurs environnementaux et génétiques communs partagés avec leurs frères et sœurs expliquaient cette relation », explique un des auteurs de l’étude.

Des facteurs à prendre en considération pour le risque de démence mais visiblement, il y en a d’autres. Certains hommes développaient un Alzheimer mais pas leurs frères, beaucoup plus grands. C’est donc la taille qui était déterminante, estiment les chercheurs : « La différence entre taille et démence existait également lorsque les frères de taille différente ont été examinés, ce qui suggère que la génétique et les caractéristiques familiales n’expliquent pas à elles seules pourquoi les hommes plus petits ont un plus grand risque de démence ».

Mais pourquoi être petit prédisposerait-il plus à un Alzheimer ? Pour un des auteurs de l’étude écossaise : « Ce n’est pas le fait d’être petit qui peut causer la démence mais plutôt la raison de cette petite taille ». Reste à découvrir quel facteur affectant la croissance peut augmenter ce risque de démence…

Article rédigé par Georges Simmonds pour RT Flash

BJP

e-life

Des chercheurs parviennent à inverser l’horloge biologique d'une souris !
Mardi, 17/03/2020 - 10:33

Des chercheurs de l’Université du Queensland et de l’Université de New South Wales (UNSW) en Australie sont parvenus à « inverser l’horloge biologique reproductive » de souris. Par l’absorption par voie orale d’une molécule, ils ont inversé le processus de vieillissement des ovocytes et ainsi « augmenté les taux de fécondité de souris âgées ». Ces travaux ont été publiés dans la revue Cell Reports.

L’équipe universitaire menée par le professeur Hayden Homer a découvert que « la dégradation de la qualité des ovocytes avec l’âge est liée à la baisse du taux d’une certaine molécule, essentielle pour générer de l’énergie dans les cellules ». Cette molécule, la NAD, peut être créée par les cellules à partir d’un précurseur, la NMN[3].

De faibles doses de NMN ont été ajoutées à l’eau bue par les souris pendant quatre semaines. Ce qui a permis, selon le professeur, « de restaurer de façon spectaculaire la qualité des ovocytes des souris et d’augmenter le nombre de naissances vivantes pendant l’essai ». De fait, la qualité des ovocytes est un sujet essentiel « dans la mesure où les femmes sont toujours plus nombreuses à rechercher une grossesse tard dans leur vie », déclare le scientifique.

En Australie, « une femme sur quatre qui a recours à la fécondation in vitro est âgée de 40 ans ou plus ». Avec un taux de succès qui n’est que de 5,2 % à chaque cycle dans cette tranche d’âge. Pour le professeur Homer, restaurer la qualité des ovocytes serait « bien moins invasif que la fécondation in vitro ». Mais les bénéfices des précurseurs de la NAD restent « à prouver par des essais cliniques ».

Article rédigé par Georges Simmonds pour RT Flash

Cell

L'hyperthermie magnétique : un nouvel outil contre le cancer
Mardi, 17/03/2020 - 10:30

Des scientifiques russes de l'Université de St-Petersbourg travaillent sur un nouvel outil qui est en train de s'imposer dans la panoplie de lutte contre le cancer, "l'hyperthermie par fluide magnétique ». Cette technique prometteuse utilise les propriétés particulières des nanoparticules de ferrite de manganèse-zinc qui, sous l’effet d’un champ magnétique, vont chauffer, brûler les cellules cancéreuses mais tout en épargnant presque totalement les tissus sains. Cette nouvelle technique thérapeutique permet d'atteindre l’un des objectifs majeurs de la lutte contre le cancer : cibler toujours mieux les cellules tumorales en limitant toujours plus les effets secondaires.

Actuellement, il existe en effet de nombreux types de traitements des cancers avec différents niveaux d’efficacité mais aussi différents niveaux d'effets secondaires et indésirables. Dans la majorité des cas, le traitement a bien l'impact voulu sur les cellules cancéreuses, mais s'avère également nocif pour les tissus sains adjacents ou pour le corps dans son ensemble.

La technique consiste à introduire un gel à base de nanoparticules magnétiques dans une tumeur puis de l’exposer à un champ magnétique variable. Cela provoque le réchauffement des nanoparticules et conduit à la désactivation des cellules cancéreuses. Cependant, la majorité des matériaux pouvant être utilisés sont toxiques pour l'organisme : les particules continuent de chauffer à des températures relativement élevées, ce qui entraîne de graves dommages aux tissus sains.

Mais ces nouvelles nanoparticules sont spéciales : leur température peut être modifiée en fonction du champ magnétique. C’est la température de Curie ou « point de Curie », la température à laquelle une forte diminution de l'aimantation est observée : « lorsque la température de Curie est atteinte, les particules cessent d'être aussi sensibles au champ magnétique et leur échauffement s'arrête », explique Vasilii Balanov, étudiant à l'Université et l'un des auteurs de l’étude : « et lorsque la température redescend, les particules se remettent à se réchauffer ».

Ces nanoparticules permettent, par leur composition, de contrôler de façon fine la température nécessaire pour tuer les cellules cancéreuses, sans brûler les cellules saines environnantes. Les scientifiques ont de plus opté pour des ferrites dans lesquels le zinc et le manganèse interviennent dans une certaine proportion, de manière à n’avoir aucun effet toxique sur le corps. Ce bon rapport manganèse/zinc permet d’atteindre la température de Curie dans la plage de 40 à 60 degrés Celsius. Grâce à ce contrôle fin de la température, il devient possible de détruire les cellules cancéreuses avec un contact thermique à court terme qui épargne largement les tissus sains.

Il faut rappeler que, loin d’être une arme subsidiaire contre le cancer, l’hyperthermie, en synergie avec d’autres outils thérapeutiques, augmente sensiblement les chances de guérison pour les malades. Dans des études cliniques de phase III associant l’hyperthermie à la radiothérapie, la thermothérapie a permis d’augmenter les résultats à 2 ans du contrôle tumoral local de 12 % à 37 % chez des patients atteints d’un sarcome à haut risque, et de 28 % à 46 % chez ceux atteints d’un mélanome ; les taux de rémission complète de 38 % à 60 % pour les récidives de cancer du sein ; les taux de survie à 2 ans de 15 % à 31 % pour les glioblastomes, et la rémission complète de 57 % à 83 % dans le cancer du col de l’utérus avancé, par rapport à des patients traités par radiothérapie ou chimiothérapie seule.

Article rédigé par Georges Simmonds pour RT Flash

JGGST

^ Haut
Recherche
Recherche & Innovation, Technologies, Transports
Les Pays-Bas réalisent les premiers tests d'un train autonome avec des passagers à bord
Mardi, 17/03/2020 - 10:38

C’est une première en Europe. L’opérateur ferroviaire du réseau néerlandais ProRail, a testé pour la première fois, du 15 au 17 février dernier, un train autonome, avec une cinquantaine de passagers à bord,  entre les villes de Groningen et Zuidhorn (13 km).

Au cours de ces derniers mois, plusieurs tests de ce train autonome ont été effectués, mais celui-ci était le premier impliquant des passagers. Ces derniers, sélectionnés sur Internet, ont d’ailleurs été soumis à une enquête durant le trajet. Ils étaient invités à décrire leur sensation lors des phases d’accélération ou de freinage du train.

Également présent lors de cette inauguration, le ministre néerlandais des Infrastructures s’est félicité de cette grande première. « Les trains automatisés roulent plus efficacement et plus durablement », a-t-il déclaré. De fait, ils assureraient une meilleure ponctualité et seraient plus économes en énergie.

Par ailleurs, la technologie ATO (Automatic Train Operation) devrait permettre de réduire la fréquence de passage entre deux trains en accroissant la capacité des rails, assure ProRail. Le train testé intègre la technologie ATO de niveau 2 (GoA2). Cela signifie que la conduite est semi-automatique. Le conducteur s’occupe seulement de l’ouverture et de la fermeture des portes ainsi que des fonctions de sécurité. Il doit aussi garder un œil sur le système, surveiller l’environnement et être prêt à reprendre le contrôle en cas de problème.

Au niveau supérieur (GoA3), le train est totalement autonome. Le conducteur peut sortir de sa cabine pour réaliser d’autres tâches mais doit être prêt à reprendre son poste si nécessaire. Enfin, le GoA de niveau 4 regroupe les trains circulant sans aucun employé à bord, comme c’est le cas sur les lignes de métro 1 et 14 à Paris.

Article rédigé par Georges Simmonds pour RT Flash

Railway

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top