RTFlash

RTFLASH Recherche & Technologie
NUMERO 1145
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 04 Mars 2022
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
Une puce quantique d'un niveau de fiabilité inégalée
Avenir
Des microrobots qui pourraient guérir les fractures
Matière
Un réfrigérant à base d’eau pour produire du froid de manière vertueuse
Greenfib : un nouveau matériau 100 % biosourcé pour un monde sans plastique
Une pile flexible et rechargeable
Espace
Quand un trou noir devient une pouponnière d’étoiles…
Terre
Sécurité alimentaire : l'ensète, une plante face au réchauffement climatique ?
Vivant
Déclin cognitif : les séances de prévention sont efficaces chez les personnes à risque
Notre cerveau détecte les voix inconnues même quand nous dormons…
Sclérose en plaques : le rôle-clé du cholestérol se dévoile
Un ver marin qui pourrait révolutionner le monde des greffes d’organes
Le projet « Rose », premier pas vers un nez artificiel
Les effets du cannabis peuvent durer plusieurs jours
Le rôle du magnésium dans la lutte de l'organisme contre le cancer…
Covid : un fumeur en terrasse peut véhiculer le virus dans un rayon de 8 mètres
Edito
La redécouverte des technologies préhistoriques et antiques devrait nous inciter à l’humilité



Cette semaine, je reviens sur un sujet passionnant, qui ne cesse de rebondir à l’occasion de nouvelles découvertes, les capacités technologiques étonnantes, et parfois insoupçonnées, de nos lointains ancêtres, que ce soit pendant la Préhistoire, ou l’Antiquité. Je commence par l’une des découvertes les plus importantes de l’histoire de l’Humanité, celle du feu. Pendant très longtemps, il était admis par les paléontologues que le feu avait été domestiqué par Homo erectus, il y a environ 500 000 ans. Mais des chercheurs israéliens, à partir de l’analyse de plus de 20.000 échantillons de graines et de fruits et plus de 50.000 échantillons de bois, sur le site archéologique de Gesher Benot Ya’aqov, au nord d’Israël, ont montré que cette domestication du feu était sans doute bien plus ancienne, et remontait probablement à 790.000 ans.

En septembre dernier, l’équipe de l'anthropologue Emily Hallett, de l'Institut Max-Planck de science de l'histoire humaine, en Allemagne, a réalisé une autre découverte considérable. En explorant la grotte des Contrebandiers, sur la côte Atlantique du Maroc, ces chercheurs ont découvert et examiné quelque 12 000 fragments d'os. Ils ont ainsi pu en arriver à la conclusion que les hommes de l’époque avaient façonné 60 os d'animaux, et que ces outils avaient ensuite été utilisés pour confectionner des vêtements élaborés, il y a environ 120 000 ans, c’est-à-dire bien plus tôt qu’on le pensait jusqu’à présent.

En 2018, une autre équipe internationale, dirigée par Francesco d'Errico, chercheur au laboratoire Pacea (CNRS/université de Bordeaux), a découvert qu'en Afrique du Sud, Homo Sapiens utilisait déjà de petits arcs et des flèches à la pointe en os taillé pour chasser il y a 61.000 ans, c’est-à-dire 50 000 ans plus tôt que les traces les plus anciennes connues jusqu’à présent, qui remontaient à 10 000 ans, à la fin du paléolithique récent en Europe. Bien que peu puissants, ces arcs étaient suffisamment efficaces, selon les chercheurs, pour chasser et tuer de petites proies, sans doute en utilisant des flèches empoisonnées. Toujours en Afrique, une autre équipe a découvert à Ounjougou, au Mali, des fragments de céramiques, dont la datation à l’aide du carbone 14 et de la luminescence stimulée optiquement (OSL), a montré qu’ils dataient de 9500 ans avant notre ère, soit plus de 2000 ans avant l’apparition de la céramique au Proche-Orient. Il est également à présent bien établi scientifiquement que plusieurs cultures d'Afrique subsaharienne ont inventé et développé leur propre métallurgie du fer, et ce, dès le XIVe siècle avant notre ère, c’est-à-dire avant l’apparition du fer au Proche-Orient, vers 1200 av. J.C.

Transportons-nous maintenant en Egypte. On a longtemps cru que cette brillante civilisation, réputée pour ses extraordinaires réalisations architecturales, n’avait pas atteint un haut niveau en mathématiques et en géométrie, surtout comparé aux Grecs. On sait à présent que cette vision est erronée. L’analyse de plusieurs papyrus (dont les papyrus de Rhind, de Moscou, et d'Akhmim) a montré que les Egyptiens étaient tout à fait capables de résoudre de nombreux problèmes mathématiques et géométriques (calcul de volumes, fractions), y compris des équations du 1er et second degré.

Les Egyptiens possédaient également des connaissances en médecine et en chirurgie absolument remarquables, et qui ne furent dépassées en Europe qu’à la Renaissance. A cet égard, le fameux papyrus chirurgical Edwin Smith, datant du XVIème siècle avant J.C, et traitant des traumatismes de la face, est une véritable mine d’informations. Ce document qui nous est miraculeusement parvenu expose de nombreuses techniques pour soigner différentes blessures, et désinfecter les plaies, pour prévenir les infections. On y trouve également la première description connue des sutures crâniennes…

L’année dernière, une autre découverte majeure est venue secouer la communauté scientifique. Les mathématiciens Daniel Mansfield et Norman Wildberger, qui avaient déjà identifié une tablette babylonienne (la célèbre Plimpton 322 qui contenait la table trigonométrique la plus ancienne et la plus précise au monde), ont proposé l’hypothèse qu’une autre tablette d’argile (Si.427, qui date de l’ancienne période babylonienne entre 1900 et 1600 avant notre ère) contiendrait également "les triplets pythagoriciens", qui auraient donc été inventés par les Babyloniens 1000 ans avant les travaux du philosophe et scientifique grec, Pythagore de Samos (580-495 av.J.C) (Voir Springer).

A l’issue de leur étude, ces éminents spécialistes en arrivent à la conclusion que les inscriptions gravées dans l’argile appartiennent à « une étude mathématique des côtés individuels des triplets de Pythagore qui a servi à élaborer le plan d’un terrain qui aurait été vendu ». Ce terrain agricole avait été mesuré de manière très précise, puisque qu’on peut observer que, sur cette tablette, les rectangles sont parfaitement dessinés d’après leurs "côtés opposés de longueur égale". L’étude précise que l’on retrouve également sur cette tablette la combinaison la plus célèbre qui est 3-4-5 (3x3 + 4x4 = 5x5), qui permet de réaliser de parfaits angles droits, mais également 8-15-17 et 5-12-13. Daniel Mansfield explique « qu’une telle découverte n’est pas le fruit du hasard, elle répond à un problème pratique. Une fois que vous comprenez ce que sont les triplets de Pythagore, votre société a atteint un niveau particulier de sophistication mathématique qui lui permet de franchir un nouveau saut en matière d’efficacité juridique et administrative ».

Une autre découverte étonnante concerne les extraordinaires propriétés du ciment romain, un matériau dont la qualité et la longévité restent encore insurpassées depuis 2000 ans, et qui a permis aux Romains de bâtir des édifices monumentaux dont la solidité défie le temps, tel le Panthéon de Rome. Récemment, plusieurs études réalisées par des scientifiques du Département des énergies du Berkeley National Laboratory en Californie ont confirmé que les propriétés extraordinaires du ciment romain ne devaient rien au hasard, mais résultaient d’une composition savamment calculée et d’un mode de cuisson extrêmement précis.

Ces chercheurs ont pu montrer que les Romains utilisaient moins de chaux, en pratiquant une cuisson lente à seulement 900°C contre 1450°C dans les fours actuels. Pour obtenir un ciment si solide et résistant aux attaques chimiques et à l’eau, les romains mélangeaient de la chaux avec de la roche volcanique. Le mortier obtenu était déposé dans des moules en bois, puis immergé dans de l’eau de mer, ce qui provoquait une réaction chimique capitale qui se traduisait par un durcissement très rapide. Poussant plus loin leurs investigations, ces scientifiques ont constaté, en ayant recours à des outils de diffraction X en rayonnement synchrotron, qu’il serait possible de substituer de la pouzzolane, une roche naturelle, en remplacement des roches volcaniques. Ils ont même calculé que la pouzzolane, très répandue, pourrait répondre à 40 % de la demande mondiale de ciment Portland.

Comme le souligne Marie Jackson, qui a dirigé l’une de ces études au Berkeley Lab, « Au final, le béton romain était ainsi plus dur que tout ce qu'il est possible d'imaginer, et sans besoin de renforcements d'acier, contrairement à nos ciments qui sont essentiellement composés de silicates de calcium, hydraulique ajoutés à du sable et du gravier. Nous avons été stupéfaits de constater que les Romains avaient réussi à créer un béton pareil à de la roche que le contact de l'eau de mer renforce plutôt que de l'éroder, contrairement au béton moderne » (Voir Berkeley Lab).

Il faut aussi évoquer une autre découverte récente qui montre que la grue de chantier n’a probablement pas été inventée par les Grecs en 515 av. J.-C, mais probablement 150 ans plus tôt (Voir Smithsonian). Cette étude, conduite par Alessandro Pierattini de l’Université de Notre Dame, montre que les blocs de 200 à 400 kilos utilisés pour la construction des temples en 700 av.J.C, dans les anciennes villes d’Isthmia et de Corinthe, présentent des rainures jumelles le long du fond des pierres. Selon ces recherches, il est très probable que ces rainures servaient à la fixation des blocs sur des engins de levage. Reste à savoir pourquoi la grue, innovation majeure, se serait développée en Grèce, et pas dans d’autres cultures qui ont pourtant elles aussi bâti des monuments et des temples d’une dimension impressionnante. Ces chercheurs font l’hypothèse qu’à la différence de l’Égypte ou l’Assyrie, qui pouvaient mobiliser une main-d’œuvre abondante, les Grecs avaient recours à de petites équipes de constructeurs professionnels. Ce serait cette organisation du travail très particulière qui aurait favorisé des innovations de rupture et l’invention de machines plus efficaces, comme les grues.

Mais je ne pouvais pas terminer cet éditorial consacré aux fabuleuses technologies du passé, sans revenir sur l’extraordinaire machine d’Anticythère, que j'ai déjà évoquée, mais qui vient de faire l’objet de nouvelles recherches qui méritent d’être rappelées. C’est en 1900 que le scaphandrier grec Elias Stadias fit une découverte qui allait bouleverser l’histoire et l’archéologie. En explorant l’épave d’une galère romaine qui avait fait naufrage au 1er siècle de notre ère, au large de l’île d’Anticythère située entre le Péloponnèse et la Crète, il trouva 82 fragments d’un dispositif mécanique d’une incroyable complexité. Ces débris, fortement endommagés par leur long séjour dans l’eau de mer, ne commencèrent à livrer leur secret qu’en 1974, avec l’arrivée de nouvelles technologies de radiographie à rayons X.

Depuis près de 50 ans, de nouvelles avancées techniques ont permis d’en savoir un peu plus sur cet objet stupéfiant, qui aurait été fabriqué par des ingénieurs grecs au 2ème siècle avant notre ère. Ce mécanisme, qui mesure 34cm, pour 18 cm de large et 9 cm de profondeur, est un calculateur astronomique à roues dentées d’une très grande complexité. A l’origine, il semble qu’il se composait d’au moins une trentaine d'engrenages, probablement actionnés par une manivelle. Son fonctionnement repose sur une connaissance mathématique de la course des astres, et utilise la rotation d'engrenages de tailles différentes entraînant des aiguilles indiquant la position des astres à un moment donné. La face avant possède un cadran circulaire à 365 positions (représentant les 365 jours du calendrier égyptien) et deux cadrans (indiquant les positions de la Lune et du Soleil par rapport au Zodiaque). La face arrière comporte deux cadrans en spirale représentant deux calendriers astronomiques utilisés pour prédire des éclipses de la Lune et du Soleil.

Sur cet appareil, on trouve plus de 2 200 minuscules lettres grecques, gravées sur le bronze, qui ont pu être déchiffrées à 95 %. Elles forment un "mode d'emploi" de cette incroyable machine, et décrivent les cycles des planètes connues à l’Antiquité : Mercure, Vénus, Mars, Jupiter et Saturne. Comme le souligne une récente étude réalisée par le Collège Universitaire de Londres (UCL), « La découverte de cette incroyable machine et la compréhension récente de son extraordinaire complexité, grâce à de nouvelles techniques de rayons X, bouleverse totalement les connaissances et la vision que nous avions sur les capacités des Grecs anciens, en matière de réalisations technologiques » (Voir Scientific American). Cette étude précise qu’il a fallu attendre le XIVème siècle pour voir apparaître, en Occident, les premières horloges astronomiques, égalant en complexité cette fabuleuse machine d’Anticythère. Reste que, comme le souligne l’article, de nombreux mystères demeurent autour de cette machine : fut-elle vraiment conçue, comme certains scientifiques le pensent, par Archimède lui-même ? Pourquoi n’a-t-on pas retrouvé d’autres machines du même type ? Pourquoi les Grecs anciens n’ont-ils pas utilisé leur extraordinaire maîtrise conceptuelle et technique pour étendre ce type de calculateur à d’autres domaines d’application, armée, commerce, comptabilité… Le fait que les Grecs aient pu concevoir et réaliser une telle machine, il y a plus à plus de 2000 ans, est la démonstration éclatante que certains sauts scientifiques et techniques majeurs ne sont pas définitifs ; ils peuvent, pour de multiples raisons, être perdus, oubliés avant d’être, parfois, redécouverts des siècles plus tard...

Et je ne serais pas étonné que ce soit notamment le cas pour les extraordinaires savoirs et techniques que maîtrisaient les Egyptiens de l’Antiquité : on ne sait toujours pas comment moins de 10 000 hommes, comme cela est à présent établi, ont pu, sans doute en moins de 20 ans, édifier avec une précision stupéfiante la grande pyramide de Khéops, toujours debout depuis 4500 ans, avec ses deux millions et demi de blocs de pierre parfaitement ajustés…

Ces merveilles techniques et conceptuelles de l’Antiquité, mais aussi des temps préhistoriques, dont nous sommes loin d’avoir percé tous les mystères, nous montrent que nos lointains ancêtres avaient une intelligence qui n’avait rien à envier à la nôtre, et possédaient un ensemble de connaissances théoriques et scientifiques bien plus avancées qu’on ne l’imaginait encore récemment. Face à ces réalisations, qui suscitent encore aujourd’hui notre admiration et notre émerveillement, et s’inscrivent dans l’éternité, nous devrions faire preuve d’un peu plus d’humilité et de sagesse…

René TRÉGOUËT

Sénateur honoraire

Fondateur du Groupe de Prospective du Sénat

e-mail : tregouet@gmail.com


TIC
Information et Communication
Une puce quantique d'un niveau de fiabilité inégalée
Mardi, 01/03/2022 - 09:31

Des chercheurs de l’Université de Nouvelle-Galles du Sud (Australie) ont annoncé avoir développé un système quantique dont le niveau de précision est inédit. Mieux encore, les méthodes de fabrication de ce système sont empruntées à celles des puces "normales", ce qui ouvre la voie à une industrialisation, et donc une montée en puissance rapide.

Le premier succès est le niveau de précision atteint par leur petit système à 3 qubits. Alors que la correction d’erreur est une entrave majeure de l’informatique quantique – il faut en permanence surveiller et corriger les erreurs des systèmes actuels – les chercheurs atteignent une précision de 99,37 % dans une opération sur 2-qubits avec ce système. Un niveau de précision validé par des expériences de contrôle réalisées par des chercheurs partenaires aux Pays-Bas et au Japon. L'équipe australienne atteignait 99,37 %, tandis que ses homologues néerlandais ont obtenu une précision de 99,65 % avec deux qubits également, et, enfin, l'équipe nippone a enregistré une précision de 99,84 % avec un 1 qubit, et de 99,51 % avec deux qubits.

En calcul quantique, il est capital d'atteindre un pourcentage réduit d'erreur, si l'on veut pouvoir détecter et corriger les erreurs au moment où elles se produisent, et donc de pouvoir se fier aux calculs réalisés. « Vous avez typiquement besoin d'un taux d'erreur inférieur à un pour cent, pour appliquer des protocoles de correction d'erreur quantique », explique le professeur Andrea Morello, qui a dirigé ces travaux. « Maintenant que nous avons atteint cet objectif, nous pouvons commencer à concevoir des processeurs quantiques sur silicium, qui pourront grossir et opérer de manière fiable pour des calculs utiles », continuait-il.

Par ailleurs, une telle précision ne servirait pas à grand-chose, si les composants étaient difficiles à fabriquer. Or, c’est ici que le travail de Serwan Asaad, Andrea Morello, et Mateusz Mądzik marque une autre rupture. Le processeur utilisé est une puce à base de... silicium. C’est-à-dire que l'essentiel des composés chimiques, ainsi que les méthodes de fabrication, sont ceux utilisés par toutes les puces électroniques « classiques » qui nous entourent. Des méthodes et procédés éprouvés et maîtrisés. Cela permet d’entrevoir une montée en puissance – ajouter plus d’unités de calcul – à des coûts de production accessibles.

Si le substrat est bien du silicium, on a malgré tout affaire à des puces où sont implantés "chirurgicalement" des noyaux de phosphore 31 (l’isotope stable, noté 31P). Ce sont ces noyaux de 31P, organisés en paire avec un électron en partage, qui créent une porte logique quantique de 3-qubits (le spin de chacun des noyaux, auquel s’ajoute le spin de l’électron en partage). C’est d’ailleurs cette organisation en trois qubits qui a permis de dépasser l’une des limites de cet "ordinateur de Kane", du nom du scientifique qui a théorisé ce fonctionnement en 1998.

La force de cette structure est que les noyaux sont isolés et conservent donc l’information pendant longtemps – jusqu’à 35 secondes, alors que les ordinateurs classiques l’évacuent au bout de quelques millisecondes, et les autres ordinateurs quantiques d'IBM ou Google en environ un centième de microseconde. Le revers de la médaille était jusqu'à présent que cette isolation ne facilitait pas la liaison de ces éléments, l'interaction entre les qubits. Or, les chercheurs ont trouvé un moyen de préserver l'isolement des qubits, tout en facilitant la communication entre eux.

Comment ? En faisant en sorte que l'électron lié au noyau puisse facilement s'intriquer avec d'autres électrons ou se déplacer dans la puce. Autrement dit, le partage d'un électron par deux noyaux de phosphore permet à l’ensemble de réaliser des opérations, et donc de réaliser des calculs quantiques précis. La technologie de processeurs quantiques basés sur des qubits de spin d’électrons pourrait, sur le long terme, avoir l’avantage sur ceux employant les supraconducteurs, comme ceux d’IBM et de Google.

Article rédigé par Georges Simmonds pour RT Flash

SciTechDaily

^ Haut
Avenir
Nanotechnologies et Robotique
Des microrobots qui pourraient guérir les fractures
Lundi, 28/02/2022 - 10:24

Des chercheurs de Linköping (Suède) et de l’Université d’Okinawa (Japon) expliquent avoir créé des microrobots capables de reproduire le phénomène de durcissement des os. Ils peuvent ainsi prendre une grande diversité de formes avant de durcir. Les propriétés uniques de ces microrobots pourraient avoir de nombreuses applications dans le domaine médical, notamment pour guérir des fractures complexes.

Des chercheurs de l’Université de Linköping (Suède) et de l’Université d’Okinawa (Japon) ont eu l'idée d'associer des matériaux biologiques et synthétiques, afin de créer un matériau reproduisant le phénomène de durcissement des os du crâne après la naissance. Les chercheurs ont ainsi fabriqué un microrobot bio-inspiré pouvant revêtir différentes formes avant de se minéraliser et se stabiliser dans sa forme finale. Une avancée qui pourrait être appliquée dans le domaine médical pour permettre de guérir certaines fractures par exemple.

La naissance de ce matériel est fondamentalement liée aux os permettant notre naissance. En effet, ce sont les fontanelles, des espaces membraneux entre les os du crâne qui se déforment à l’aube de notre vie et qui durcissent durant les années qui suivent, qui ont inspiré sa création. D’ailleurs, tout comme nos vies qui ont commencé grâce à une rencontre, la fabrication de ces microrobots hybrides a commencé par la rencontre entre des chercheurs suédois spécialisés dans les matériaux et des scientifiques japonais menant une étude sur le durcissement osseux. Les deux équipes ont marié des matériaux pouvant changer de forme via des influx électriques et des cellules ayant pour propriété de se minéraliser au bout d’un certain temps d’incubation. Les chercheurs de l’Université de Linköping ont apporté une combinaison entre un polymère (le polypyrrole) et un gel composé d'alginate.

Grâce à eux, lorsqu’un courant est appliqué, le microrobot se plie. Qui plus est, ils peuvent en changer la direction en traçant des lignes dans le gel. Ainsi, si les chercheurs tracent une ligne perpendiculaire, le microrobot formera un demi-cercle alors que des diagonales entraîneront une forme hélicoïdale. Les chercheurs de l’Université d’Okinawa ont, eux, apporté la capacité de durcissement du robot via les PMNF (des nanofragments de la membrane plasmique des fontanelles) qui permettent aux cellules de se minéraliser. En plongeant les microrobots ayant intégré des PMNF dans des cultures cellulaires ressemblant aux conditions physiologiques du corps humain, les chercheurs ont constaté que les microrobots se sont minéralisés complètement au bout de 5 jours d’incubation et ont ainsi pu prendre une forme définitive.

Aujourd’hui, le biomimétisme devient un acteur majeur de l’innovation en ingénierie. C’est notamment en se basant sur l’aérodynamisme du bec du martin-pêcheur (Alcedo atthis) que les ingénieurs japonais ont créé leur train à grande vitesse. Le biomimétisme a aussi fait son nid dans le domaine de la microrobotique avec des microrobots marchant sur l’eau en imitant les araignées d'eau (gerridae). Avec les microrobots imitant le phénomène de durcissement des os du crâne, l'être humain devient, lui aussi, une source d'inspiration biomimétique.

Ces microrobots pourraient potentiellement servir dans le cadre de fractures complexes à traiter en permettant aux os d’avoir une base stable où se reconstruire. Durant leurs expériences, les chercheurs ont montré que les matériaux composant les microrobots pouvaient entourer un os de poulet et se développer avec lui. « En contrôlant la façon dont tourne le matériel, nous pouvons faire bouger le microrobot de différentes manières, et aussi maîtriser le déploiement du matériel dans l’os brisé. Nous pouvons intégrer ces mouvements dans la structure du matériel et éviter de faire des programmes complexes pour piloter ces robots », explique Edwin Jager, professeur associé au département de physique, chimie et biologie de l’Université de Linköping et co-auteur de l’étude…

Article rédigé par Georges Simmonds pour RT Flash

Advanced Materials

^ Haut
Matière
Matière et Energie
Un réfrigérant à base d’eau pour produire du froid de manière vertueuse
Mercredi, 02/03/2022 - 09:36

La plupart des systèmes réfrigérants fonctionnent avec des gaz fluorés et ont un impact négatif sur l’environnement. Depuis 2016, la start-up Leviathan Dynamics, basée à la Courneuve, développe un procédé alternatif, totalement neutre pour la planète, puisqu’il utilise l’eau comme réfrigérant. Une performance rendue possible grâce à la technologie de compression mécanique de vapeur (CMV) et celle des compresseurs centrifuges à très haute vitesse permettant de concevoir des machines compactes. Ingénieur en mécanique de fluides et en énergétique, Karino Kang a créé cette entreprise avec son associé Alan Chauvin. Il présente au magazine Techniques de l’Ingénieur le nouveau système réfrigérant développé par Leviathan Dynamics.

Pour produire du froid, il est nécessaire d’évaporer un réfrigérant à basse température. Mais Leviathan Dynamics a développé une technologie qui rend possible la Compression Mécanique de Vapeur (CMV) d’eau sous vide poussée en dessous de 50 millibars et qui nous permet d’évaporer l’eau à 15 ou à 7 degrés. Pour mettre au point ce procédé, cette jeune société a réussi à lever un important verrou technologique, constitué par la formation de vapeurs d’eau très légère. Elle a développé un compresseur capable de débiter un débit volumique très important, environ 200 fois plus élevé que ceux utilisés avec des gaz fluorés. Afin que ce compresseur reste compact, nous avons choisi de travailler avec la technologie des compresseurs centrifuges à très haute vitesse.

Sur le cycle de la thermodynamique, les ingénieurs ont développé un cycle à échange direct qui utilise l’eau comme réfrigérant. Ce système permet d’envoyer directement le réfrigérant aux endroits où il y a un besoin en froid et de procéder à son évaporation sur place. Sur des sites industriels avec des lieux de consommation éparpillés, ce type de cycle est peu utilisé avec des gaz fluorés, car cela nécessite de remplir les tuyauteries de réfrigérant et a pour conséquence d’en consommer énormément, car plus il y a de tuyaux et plus il y a de fuites. C’est pourquoi sur ces sites industriels, on utilise un cycle à échange indirect, c’est-à-dire que le froid est produit localement au niveau de la machine, puis transporté vers les lieux de consommation à l’aide d’un échangeur thermique et l’utilisation d’un fluide frigoporteur. Grâce à ce cycle à échangeur direct qui utilise l’eau comme réfrigérant, les problèmes de fuites dans les tuyaux n’ont pas d’incidence. L’eau circule ainsi dans les tuyaux sans nécessité de placer un échangeur intermédiaire entre la machine et la boucle de circulation.

Le principal avantage est d’éviter l’utilisation de gaz fluorés. Il faut savoir que ceux actuellement utilisés font partie de la classe des HFC (hydrofluorocarbures) et que chaque kg utilisé représente des émissions de CO2 dans l’atmosphère d’environ 2 tonnes. L’eau est un réfrigérant abondant qui n’a aucun impact sur l’environnement, même en cas de purges ou de fuites dans les systèmes.

Ensuite, notre technologie présente une meilleure efficacité énergétique, de l’ordre de 30 % comparé aux gaz fluorés. Toutefois, ce système à ses limites, car l’eau est un réfrigérant pertinent pour produire du froid à température positive, mais en-dessous de zéro degré, il gèle. Ce nouveau procédé permet donc de produire du froid à 15 degrés pour des applications de refroidissement industrielles et à 7 degrés pour de la climatisation. Ces deux marchés représentent environ 80 % de l’utilisation du froid dans le monde. Une autre application est également possible et concerne le domaine des pompes à chaleur, mais nécessite un couplage avec une autre technologie. On peut par exemple imaginer un couplage avec la technologie CO2, qui se révélerait être très pertinent dans des régions très froides comme celles situées dans le nord de l’Europe.

Article rédigé par Georges Simmonds pour RT Flash

Techniques de l'Ingénieur

Greenfib : un nouveau matériau 100 % biosourcé pour un monde sans plastique
Mardi, 01/03/2022 - 09:27

En 2022, c’est dans une nouvelle étude signée par plus de 14 scientifiques dans la revue Environmental Science et Technology qu’on apprenait que l’Humanité venait de franchir la cinquième limite planétaire, celle de la pollution chimique, dont le plastique. Selon les chercheurs du Stockholm Resilience Center, la production de produits chimiques a été multipliée par 50 depuis le début des années 1950. Elle devrait même encore tripler d’ici 2050. À elle seule, la production plastique a augmenté de 79 % entre 2000 et 2015 rapportent les chercheurs. Quant à la masse totale de plastiques présents sur Terre, elle est plus de deux fois supérieure à la masse de tous les mammifères vivants. Environ 80 % de tous les plastiques produits finissent dans l’environnement quand seulement 10 % du plastique fabriqué sont recyclés.

Passer à une économie circulaire est vraiment important. Cela signifie changer les matériaux et les produits afin qu’ils puissent être réutilisés et non gaspillés, concevoir des produits chimiques et des produits capables d’être recyclés, et mettre en place un bien meilleur traçage des produits chimiques concernant leur sécurité et leur durabilité tout au long de leur chemin d’impact dans le système terrestre.

La matière qui pollue le moins est celle que l'on ne produit pas. Fort de ce principe, Luc Ménétrey, opticien et inventeur du Greenfib, a longtemps réfléchi au recyclage des paires de lunettes que l’on abandonne au fond de nos tiroirs après quelques années d’utilisation. Il y a quinze ans, c’est par le biais de missions humanitaires en Afrique qu’il donnait une deuxième vie à ces montures. S’il répondait à un besoin, la réponse était toutefois décevante d’un point de vue écologique, déplaçant seulement la pollution des lunettes usagées sur un autre continent.

C’est la matière elle-même qu’il fallait inventer. Une matière 100 % biosourcée qui n’utiliserait aucune ressource qui puisse faire concurrence à l’alimentation humaine ou animale. Sa matière idéale, il l’a trouvée dans la graine de ricin. Une plante que l’on trouve en Inde, qui pousse sur des terres semi arides où rien d’autre n’arrive à pousser et qui ne demande pas plus d’eau que celle de la mousson. De cette graine est extraite de l’huile dont on fait un polymère, le Rilsan. La société Arkema en produit depuis des années et c’est la matière de base du Greenfib.

Dans la formulation qu’il a mise au point avec le laboratoire Valagro de Poitiers, Luc Ménétrey a rajouté des poudres minérales extraites des déchets de l’ostréiculture bretonne et du talc d’Ariège et des farines végétales non alimentaires comme le roseau d’Indre. Autant d’ingrédients naturels produits en France qui donnent à ce nouveau matériau breveté un atout supplémentaire. Sans adjuvant chimique, le Greenfib possède de nombreuses qualités : ultra solide, léger, durable et recyclable, il peut servir à la fabrication de nombreux objets remplaçant avantageusement le plastique pétrosourcé.

Le Greenfib est un matériau qui a une stabilité de trente ans et comme il est recyclable au moins 3 fois, on a 120 ans devant nous. Mais pour tirer profit de ses qualités, il faut de la cohérence dans les usages. Si on a un objet fait d’une matière durable qui sera jeté au bout deux jours, il sera incinéré et tout le potentiel sera parti en fumée. L’entreprise est donc résolue à suivre une démarche responsable en trouvant des débouchés qui sont à ses yeux durables.

Greenfib n’est pas une entreprise industrielle, elle ne produit pas mais elle propose ses formulations aux entreprises à la recherche d’un matériau 100 % biosourcé. Depuis la rentrée dernière, 40 000 paires de lunettes ont été fabriquées par la marque nantaise Oxo en Greenfib, qui sont commercialisées dans l’enseigne mutualiste Ecouter Voir. Les contrats se multiplient et le Greenfib se niche un peu partout. Vous l’avez peut-être déjà vu dans les décorations de Noël des villes de Bordeaux ou de Besançon ou encore en lunch box dans les magasins  Biocoop ou en stylos à bille d’une fameuse marque française.

Article rédigé par Georges Simmonds pour RT Flash

France Culture

Une pile flexible et rechargeable
Lundi, 28/02/2022 - 11:00

Des chercheurs de l’Université de la Colombie-Britannique (UBC), à Vancouver, ont mis au point une pile rechargeable flexible qui peut être mise au lavage. Selon le professeur en génie informatique et électrique John Madden, elle fonctionne de la même manière qu’une pile alcaline régulière, mais peut être rechargée, étirée et pliée. Son contenu est fait de zinc et de dioxyde de manganèse finement broyés, puis intégré dans une enveloppe faite de polymères plastiques.

Ces composés offrent l’avantage, contrairement au lithium-ion, de ne pas être toxiques, disent les chercheurs, ce qui permet de porter ces piles à proximité de la peau. Le postdoctorant à la faculté des sciences appliquées de l’Université de la Colombie-Britannique (UBC), Ngoc Tan Nguyen, qui a participé à la mise au point de cette invention avec la doctorante Bahar Iranpour, explique qu’elle pourrait, une fois améliorée, avoir plusieurs applications. L’électronique incorporée aux vêtements est un marché à fort potentiel et les piles extensibles sont essentielles à ce développement, dit-il. Cela pourrait inclure, par exemple, des chaussures lumineuses, ou encore des dispositifs intégrés à des équipements sportifs permettant de mesurer des performances athlétiques.

John Madden ajoute que ces piles pourraient aussi servir pour des dispositifs médicaux, comme un moniteur cardiaque portatif, qui doivent, dans certains cas, être portés 24 heures sur 24. Une personne qui reçoit son congé de l’hôpital pourrait porter quelque chose qui est beaucoup moins intrusif et poursuivre sa vie quotidienne d’une façon confortable et sécuritaire, note-t-il.

Article rédigé par Georges Simmonds pour RT Flash

Radio Canada

^ Haut
Espace
Espace et Cosmologie
Quand un trou noir devient une pouponnière d’étoiles…
Mardi, 01/03/2022 - 09:20

Des observations réalisées à l’aide du télescope spatial Hubble de la NASA montrent qu’un trou noir situé au cœur de la galaxie naine Henize 2-10 crée des étoiles au lieu de les engloutir. L’astrophysicienne Amy Reines et ses collègues de l’Université d’État du Montana affirment que ce trou noir contribue apparemment à l'explosion de la formation de nouvelles étoiles dans cette galaxie située à 30 millions d'années-lumière de la Terre, dans la constellation de la Boussole.

Henize 2-10, qui ne contient qu'un dixième du nombre d'étoiles présentes dans notre Voie lactée, avait déclenché un débat parmi les astronomes, il y a 10 ans, sur l’éventuelle présence de trous noirs dans ce type de galaxies naines. « Est-ce qu’elles abritaient des trous noirs proportionnels aux mastodontes supermassifs que l'on trouve au cœur des grandes galaxies ? » se questionnaient certains scientifiques.

Mme Reines a pensé dès le départ que les rayonnements distincts dans la galaxie Henize provenaient d'un trou noir massif, mais pas aussi supermassif que ceux que l'on observe dans les grandes galaxies. D'autres astronomes, cependant, ont estimé que le rayonnement était plus probablement émis par un reste de supernova, ce qui serait un phénomène familier dans une galaxie qui produit rapidement des étoiles massives. « Dès le départ, j'ai su que quelque chose d'inhabituel et de spécial se passait dans Henize 2-10, et maintenant Hubble a fourni une image très claire de la connexion entre le trou noir et une région voisine de formation d'étoiles située à 230 années-lumière du trou noir », explique Amy Reines.

Cette connexion se présente sous la forme d’un écoulement de gaz qui s'étend dans l'espace comme un cordon ombilical vers une pouponnière d'étoiles brillantes. La région abritait déjà un cocon dense de gaz lorsque le flux à faible vitesse est apparu. La spectroscopie de Hubble montre que le flux se déplaçait à environ 1,6 million de kilomètres à l’heure, percutant le gaz dense comme un tuyau d'arrosage sur un tas de terre et s'étalant. Des amas d'étoiles naissantes, dont l'âge a également été calculé par Hubble, parsèment la trajectoire de l'écoulement.

Ce qui se produit dans cette galaxie est donc l’inverse de ce que l'on observe dans les grandes galaxies, où la matière tombant vers le trou noir est emportée par les champs magnétiques environnants, formant des jets de plasma brûlants qui se déplacent à une vitesse proche de celle de la lumière. Les nuages de gaz pris dans la trajectoire des jets y sont chauffés bien au-delà de leur capacité à se refroidir et à former des étoiles. Mais avec le trou noir moins massif de Henize 2-10, et son écoulement plus doux, le gaz est ainsi comprimé, juste assez pour précipiter la formation de nouvelles étoiles.

« À seulement 30 millions d'années-lumière de la Terre, Henize 2-10 est suffisamment proche pour que Hubble puisse capturer très clairement les images et les preuves spectroscopiques d'un écoulement de trou noir. Mieux, plutôt que de supprimer la formation d'étoiles, le flux sortant déclenche la naissance de nouvelles étoiles », dit Zachary Schutte, l’autre auteur principal de l’étude.

Article rédigé par Georges Simmonds pour RT Flash

NASA

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
Sécurité alimentaire : l'ensète, une plante face au réchauffement climatique ?
Mercredi, 02/03/2022 - 09:43

Aussi appelée "fausse banane", l'ensète est une plante méconnue cultivée uniquement en Ethiopie pour sa racine comestible : celle-ci peut atteindre 40 kilogrammes. Environ 20 millions de personnes en dépendent pour se nourrir. Selon une étude internationale, associant des chercheurs éthiopiens, allemands et anglais, la culture de l'ensète pourrait nourrir plus de 100 millions de personnes dans le monde, et notamment les pays qui seront touchés par le réchauffement climatique.

Selon l'étude, l'ensète pourrait être cultivée sur un territoire beaucoup plus vaste sur le continent africain. Le fruit de la plante, qui ressemble à une banane, n'est pas comestible, mais les tiges et les racines amylacées peuvent être fermentées et utilisées pour faire du porridge et du pain. Pour le docteur Wendawek Abebe de l'Université Hawassa à Awassa (Ethiopie), « c'est une culture qui peut jouer un rôle vraiment important dans la sécurité alimentaire et le développement durable ».

En étudiant l'ensète, les scientifiques appellent aussi à diversifier les cultures pour assurer la sécurité alimentaire de l'espèce humaine. Près de la moitié des calories consommées dans le monde dépendent de trois cultures de base : le riz, le blé et le maïs. Et la demande ne cesse d'augmenter. Pourtant, la qualité et la production de ces cultures diminuent à cause des effets du réchauffement climatique. La hausse de concentration en CO2 rend également le riz, le maïs et le blé moins nutritifs.

Article rédigé par Georges Simmonds pour RT Flash

ERL

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Déclin cognitif : les séances de prévention sont efficaces chez les personnes à risque
Mercredi, 02/03/2022 - 09:40

Selon l’Institut national de la santé et de la recherche médicale (Inserm), le déclin cognitif correspond à un état d’affaiblissement intellectuel global et progressif. Les processus démentiels regroupent des affections diverses mais la plus fréquente et plus connue est la maladie d’Alzheimer. Toutes les pathologies liées à la démence se manifestent généralement par des troubles de la mémoire, du langage, de reconnaissance des objets ou des gestes usuels, du comportement et du jugement ainsi que la désorientation dans l’espace et le temps. Mais ce problème de santé publique majeur, fortement lié à l’âge, pourrait être évité selon une  étude réalisée par des chercheurs de l'Institut Universitaire de Gériatrie de Montréal, de l'Inserm et de l'Université de Toulouse.

Lors de leurs travaux, les chercheurs ont réussi à déterminer le nombre de séances de traitement préventif nécessaires pour éviter que la démence se développe chez les personnes à risque. Ils fixent le chiffre entre 12 et 14 séances maximum car, au-delà, elles n’offrent plus de bénéfices supplémentaires. « Définir un nombre optimal est crucial », explique Sylvie Belleville, autrice principale de l’étude. « En effet, proposer trop peu de séances ne produirait pas d'effets d'amélioration notables, mais trop de séances est également néfaste car ces interventions sont coûteuses. Elles le sont à la fois pour l'individu qui suit les traitements, en termes de temps et d'implication, et pour l’établissement qui propose ces traitements ».

Au cours de leurs travaux, les scientifiques ont étudié l’impact de la prise en charge du déclin cognitif chez 749 patients. Celle-ci comprenait des séances de stimulation cognitive pour améliorer ou maintenir les capacités physiques et cognitives mais aussi, en parallèle, des conseils diététiques et de l’activité physique. Tous les participants ont été suivis pendant trois ans. Ainsi, les scientifiques ont pu différencier l’amélioration que cette prise en charge procurait aux patients en fonction de leur âge, de leur sexe, de leur niveau d'éducation et de leurs condition cognitive et physique au moment du traitement.

Résultat : seules 12 à 14 séances de traitement maximum étaient nécessaires pour prévenir la démence chez les patients à risque. Néanmoins, les auteurs nuancent cette conclusion. Ils ont observé que les personnes avec un plus faible niveau d'éducation ou celles ayant des facteurs de risque plus élevés ont dû en suivre davantage pour obtenir des résultats satisfaisants. Les scientifiques concluent donc que, comme pour tous les traitements, celui de la démence doit être personnalisé mais qu’il ne faut pas en faire trop, sous peine d’épuiser les patients sans améliorer leurs résultats cliniques.

Article rédigé par Georges Simmonds pour RT Flash

AA

Notre cerveau détecte les voix inconnues même quand nous dormons…
Mercredi, 02/03/2022 - 09:30

Des chercheurs de l’Université Paris Lodron de Salzbourg ont mené des expériences visant à étudier la capacité du cerveau endormi à extraire et traiter les informations sensorielles pertinentes. Pour ce faire, ils ont étudié l’activité cérébrale d’adultes endormis en réponse à l’écoute de voix familières et inconnues. Ces dernières ont déclenché davantage d’ondes appelées "complexes K" — des ondes cérébrales associées au traitement des stimuli externes pendant le sommeil, tels que le bruit, la lumière ou le toucher — et de microréveils que les voix familières. « Nos résultats suggèrent un rôle central pour les complexes K dans le traitement sélectif des informations pertinentes pendant le sommeil à mouvements oculaires non rapides (NREM) », écrivent les auteurs de l’étude.

Au total, 17 volontaires ont été recrutés dans le cadre de cette expérience. Au laboratoire du sommeil de Salzbourg, ils ont été soumis à une polysomnographie — un examen qui consiste à enregistrer pendant le sommeil plusieurs variables physiologiques, telles que le rythme respiratoire et cardiaque, les niveaux d’oxygène, les mouvements et bien sûr, les ondes cérébrales. « Pendant la nuit, nous avons présenté aux participants des audios de leur propre nom et de deux noms non familiers. Ces noms étaient prononcés soit par une voix familière (VF), soit par une voix non familière (VNF) », explique  Mohamed Ameen, neuroscientifique à l’Université de Salzbourg et co-auteur de l’étude.

Que le nom prononcé soit celui du sujet ou un autre nom n’avait aucun effet sur l’activité cérébrale. En revanche, l’équipe a constaté que pendant le sommeil profond, les voix non familières ont déclenché bien plus de complexes K et de microréveils que les voix connues — ce qui indique un traitement sensoriel plus profond. « Nos résultats mettent en évidence des écarts dans les réponses cérébrales aux stimuli auditifs en fonction de leur pertinence pour le dormeur », concluent les chercheurs.

Cette réactivité "dynamique" du cerveau — spécifique au contenu — aux informations sensorielles externes, lui permet d’entrer dans un "mode de traitement sentinelle" dans lequel il gère non seulement les processus internes importants qui se déroulent pendant le sommeil, mais aussi le traitement des informations sensorielles externes vitales. Il semblerait que les complexes K soient déterminants pour profiter d’un sommeil réparateur : « Les complexes K peuvent être le mécanisme clé qui façonne notre sommeil, aidant le cerveau à décider si nous devons rester endormis ou nous réveiller », précise le Docteur Manuel Schabus, spécialiste du sommeil et co-auteur de l’étude. Il pense d’ailleurs que si la voix inconnue avait prononcé plus d’un seul mot, le sujet se serait probablement réveillé, car le cerveau l’aurait interprété comme une menace potentielle. Les résultats de cette étude expliquent ainsi pourquoi il est souvent compliqué de bien dormir dans un nouvel endroit, du moins au début : le cerveau doit en effet s’habituer à tous les nouveaux stimuli et décider qu’ils ne représentent pas une menace pour nous.

En outre, les chercheurs ont noté que les réactions du cerveau à la voix inconnue étaient moins fréquentes à mesure que la nuit se prolongeait et donc que la voix devenait familière. Cela suggère que le cerveau est capable d’apprendre pendant le sommeil. Mais les étudiants qui rêvent de retenir leurs cours de cette manière, en étant complètement inconscients, n’y arriveront sans doute pas, précise Schabus. Il faudrait pour cela que l’information à retenir soit relativement simple, qu’elle ne soit pas prononcée trop fort ni trop longtemps, au risque de réveiller l’individu endormi.

Or, des réveils intempestifs nuisent gravement à la qualité du sommeil. « Le manque de sommeil nous rend moins performants, car le cerveau se repose pendant le sommeil, en particulier le lobe frontal, qui est nécessaire pour les fonctions exécutives. C’est pourquoi nous faisons beaucoup plus d’erreurs au travail, nous nous concentrons moins bien et nous sommes plus irrités sur le plan émotionnel lorsque nous manquons de sommeil », rappelle Schabus. Il ajoute que la stabilité psychique et le système immunitaire dépendent tous deux de la récupération pendant le sommeil, il est donc primordial de préserver ce dernier en éliminant les éléments perturbateurs potentiels.

Article rédigé par Georges Simmonds pour RT Flash

JDN

Sclérose en plaques : le rôle-clé du cholestérol se dévoile
Mardi, 01/03/2022 - 09:23

Certaines maladies neurologiques graves, dont la sclérose en plaques (SEP), sont caractérisées par une dégradation des gaines de myéline. Et le cholestérol est un composant indispensable des gaines de myéline. Il est donc capital de comprendre le rôle joué par le cholestérol : en temps normal, le cholestérol des gaines de myéline est soit recyclé à partir de la myéline endommagée, soit produit à nouveau localement.

Des travaux d’une équipe de l'Institut Max Planck de Göttingen ont montré qu’en cas de maladie chronique, et contrairement aux dommages aigus, pratiquement aucun cholestérol n'est recyclé. C’est donc la production de nouveau cholestérol qui détermine l'efficacité de la réparation de la myéline. Cette découverte, présentée dans les Cell Reports, a des implications majeures pour le succès thérapeutique des troubles de la myéline tels que la SEP. De manière inattendue, non seulement les cellules nerveuses produisent elles-mêmes la "nouvelle" myéline, mais elles peuvent aussi contribuer à sa régénération. Cependant, c’est bien la synthèse du cholestérol dans les cellules nerveuses qui assure et permet la reconstitution de nouvelles cellules formatrices de myéline.

Ce rôle clé du cholestérol est décrypté et mieux compris : lorsque des lésions se développent dans des troubles de la myéline tels que la SEP, la myéline, une couche isolante riche en cholestérol et en lipides située autour des fibres nerveuses, est détruite. Afin d'éviter des dommages permanents, les fibres nerveuses désormais démyélinisées doivent être protégées le plus rapidement possible par de la myéline nouvellement régénérée.

Ces recherches ont montré que, dans la phase aiguë de la maladie, la myéline défectueuse est abondante. Le cholestérol est absorbé à partir de la myéline défectueuse par les phagocytes et retraité et mis à la disposition des cellules formant la myéline. Ce processus de réparation se déroule souvent rapidement et en douceur chez les patients plus jeunes. Dans la forme chronique et avec la durée de la maladie, ce processus critique de réparation de la myéline perd de son efficacité. Les phagocytes du cerveau participent de moins en moins au recyclage du cholestérol. La dégradation chronique et répétée des gaines de myéline finit par laisser les fibres nerveuses définitivement démyélinisées.

La première découverte de ces scientifiques est donc qu'il y a raréfaction du cholestérol dans les lésions chroniques. Le cholestérol des cellules nerveuses favorise la régénération des cellules productrices de myéline et, lorsque les chercheurs examinent des neurones de souris modèles d’anomalies de la myéline, ils constatent que les neurones couvrent normalement la majorité de leur demande en cholestérol par l'absorption de lipoprotéines riches en lipides.

Ainsi, lorsque les scientifiques inactivent génétiquement la synthèse du cholestérol dans les neurones et dans les cellules productrices de myéline (oligodendrocytes) de souris, la régénération des gaines de myéline s’avère considérablement ralentie. Lorsque les scientifiques traitent ces souris modèles avec un régime enrichi en cholestérol, ils observent un effet positif similaire sur ces cellules progénitrices avec une production supplémentaire de cholestérol.

Ce mécanisme s’avère d’ailleurs favorable à toutes les autres cellules des lésions chroniques, qui ont considérablement réduit leur propre production de cholestérol. Finalement, la disponibilité et la gestion du cholestérol et d'autres lipides contribuent considérablement à l'efficacité de la régénération de la myéline. Reste à présent à ces chercheurs à développer de nouvelles thérapies capables de traiter les lésions chroniques en ciblant la production de cholestérol.

Article rédigé par Georges Simmonds pour RT Flash

Cell Reports

Un ver marin qui pourrait révolutionner le monde des greffes d’organes
Mardi, 01/03/2022 - 09:16

C'est un ver vieux de 400 millions d’années et il va peut-être bouleverser les greffes d'organes. Le biologiste français Frank Zal, qui essaye de comprendre l’adaptation des espèces dans leur milieu naturel, s'est intéressé à un ver marin, baptisé Arenicola marina. Il a voulu comprendre comment il arrive à respirer dans l’eau et dans l’air. « Je me suis focalisé sur le sang de cet animal et, en fait, chez ce ver, j’ai trouvé l’ancêtre de nos globules rouges. C’est une hémoglobine extracellulaire qui n’a pas de globules rouges, pas de typage sanguin, ce qui permet à l’arénicole d’arrêter de respirer quand il est à marée basse et vivre sur son stock d’oxygène quand il est sous l’eau. Nous avons démontré que cette molécule était capable de délivrer de l’oxygène dans un tas de pathologies où l’on a besoin d’oxygène, sur la greffe d’organes, les maladies parodontales, la cicatrisation, la transfusion sanguine. En fait, cette molécule va répondre à énormément de pathologies dans le domaine médical », explique le biologiste.

Le ver peut transporter 40 à 50 fois plus de molécules d’oxygène. Autre caractéristique, l’hémoglobine est de petite taille, soit 250 fois plus petite que les globules rouges. En cas de blocage par les globules rouges, elle peut facilement se faufiler pour se rendre directement au greffon. Le greffon baigné dans cette hémoglobine naturelle maximiserait ses capacités de non-rejet. Fort du résultat de ses recherches, le docteur Zal, comme on le surnomme en France, va être convoqué par le club des globules rouges à Paris. Un rassemblement des plus grands experts français.

Au lieu d’aller chercher ses vers sur la plage pour mener ses travaux, le biologiste crée en 2018 sa propre ferme d’élevage de vers arénicoles. Treize hectares au milieu des marais salants de Noirmoutier, en Bretagne. Sa capacité de production est estimée aujourd’hui à 30 tonnes de vers marins par an. La première utilisation sera appliquée à la conservation d’organes. Quand on va faire une transplantation, il faut d’abord prélever un greffon chez un donneur, ensuite, vous allez le conserver dans un liquide de conservation. Et cette période-là, entre le moment où le greffon est prélevé et le moment où il va être greffé, est fondamentale.

Pourquoi ? Parce qu’il ne reçoit plus de sang, il ne reçoit plus d’oxygène. Et donc, cette molécule, ce transporteur d’oxygène, tout naturellement, on a pensé la mettre dans le liquide de conservation, pour que, tout le temps de la conservation, passivement, elle libère de l’oxygène dans le milieu pour que l’organe puisse récupérer de l’oxygène, et on espère pouvoir préserver cet organe. Ce manque d’oxygène est responsable de lésions au sein du greffon. Ce qui va avoir des conséquences une fois que l’on va greffer l’organe. « La molécule marine va donc permettre de conserver le greffon plus longtemps et le maintenir dans un état de conservation optimal », comme l’explique le professeur Le Meur.

« Ce gain en temps sera bénéfique pour les équipes médicales qui auront à transplanter des organes fragiles comme le cœur et le poumon », précise le professeur Le Meur. Transporter un organe est une véritable course contre la montre. Chaque seconde compte. Là encore, l’hémoglobine marine est incroyablement efficace, car elle permet au greffon d’être maintenu plus longtemps en vie. Quand on sait que plus de 20 % des greffons meurent, c’est un extraordinaire progrès pour les malades en attente d’une greffe. Le néphrologue français pense que c’est là que se jouera l’avenir de la greffe.

Plus vous laissez l’organe dans le conteneur, plus il va prendre du temps à redémarrer. Donc, utiliser un transporteur d’oxygène va aider le greffon à redémarrer. On sait qu’il y a un rapport entre la bonne conservation initiale et la survie à long terme du greffon. Avec cette découverte, on peut maintenant imaginer de nombreuses applications, comme la préservation du greffon, la régénération osseuse ou, pourquoi pas, un sang universel. « Quand on sait qu’il manque aujourd’hui 100 millions de litres de sang tous les ans pour satisfaire la population mondiale, on peut parler d’une avancée majeure et même de révolution », comme l’explique le professeur Yannick Le Meur.

Article rédigé par Georges Simmonds pour RT Flash

Radio Canada

Le projet « Rose », premier pas vers un nez artificiel
Lundi, 28/02/2022 - 11:04

Depuis le début de l’épidémie de Covid-19, les troubles olfactifs concernent une personne sur deux testées positives au virus. Si certains malades s’équipent d’un kit de rééducation pour favoriser la récupération spontanée de leur sens, « il n’existe pas encore de réponse médicale efficace », explique Moustafa Bensafi, chercheur au Centre de recherches en neurosciences de Lyon (CRNL).

En septembre 2021, ce fin connaisseur du système olfactif humain et une trentaine d’autres spécialistes en Europe se sont lancés un ambitieux pari : prouver qu’il est scientifiquement possible de retrouver pleinement sa capacité à sentir. Pour Moustafa Bensafi, « le projet est d’autant plus important que, avant la crise sanitaire, ce handicap concernait déjà jusqu’à 20 % de la population mondiale », la majorité souffrant d’une perte partielle de l’odorat (hyposmie), le reste d’une perte complète (anosmie).

L’objectif n’est pas de concevoir "des narines bioniques", mais bien de puiser dans la recherche fondamentale pour réaliser une « preuve de concept », soit de tous premiers pas vers un potentiel nez artificiel. Il faudra, pour cela, passer par trois étapes : parvenir à détecter les molécules odorantes dans l’environnement grâce à des mini-capteurs, réussir à transformer l’odeur en une information digitale, et enfin stimuler le système olfactif pour générer une sensation réelle, depuis le cerveau.

Baptisée Rose – pour Restoring Odorant Detection and Recognition in Smell Deficit – et coordonnée par le CRNL, cette entreprise rassemble ainsi une série de professionnels très divers, allant des experts de la stimulation cérébrale de l’École polytechnique fédérale de Lausanne à la start-up grenobloise Aryballe, capables de combiner la technologie des capteurs et des stimulateurs. Elle mobilise aussi plusieurs étudiants chercheurs issus d’universités grecques ou italiennes.

Les premiers résultats sont attendus dans deux ans. Et s’il vise d’abord la conception d’une prothèse pour combler les déficits du corps humain, le projet pourrait ensuite servir de base pour d’autres applications. Selon Moustafa Bensafi, « on pourrait par exemple imaginer un dispositif pour contrôler la qualité des aliments chez les industriels, ou des améliorations dans le secteur du parfum ».

Article rédigé par Georges Simmonds pour RT Flash

La Croix

Les effets du cannabis peuvent durer plusieurs jours
Lundi, 28/02/2022 - 10:28

Les effets d'une dose de cannabis peuvent durer pendant des heures, voire des jours, soit bien au-delà de la seule période d'intoxication, confirme une nouvelle méta-analyse réalisée par des chercheurs de l'Université de Montréal. « Ces effets pourront prendre la forme de troubles cognitifs aigus qui pourront avoir des répercussions considérables sur la vie quotidienne des utilisateurs », a expliqué l'auteur de l'étude, le Docteur Alexandre Dumais. « Ça confirme certaines intuitions [...] dans notre équipe de recherche, qu'il y a probablement quelque chose qui perdure dans le temps », a dit le Docteur Dumais, qui exerce à l'Institut national de psychiatrie légale Philippe-Pinel. Ce qui va rester à voir, c'est l'effet sur le plus long terme.

Les conséquences néfastes du cannabis commencent pendant sa consommation et persistent au-delà de cette période, a-t-il résumé. Le Docteur Dumais et ses collègues ont fusionné les résultats de dix méta-analyses représentant plus de 43 000 participants, ce qui donne à leurs conclusions un poids considérable. Leurs travaux ont révélé que l'intoxication au cannabis pourrait interférer avec la prise de décision, la suppression des réponses inappropriées, l'apprentissage par la lecture et l'écoute, la capacité à se souvenir de ce qu'on lit ou entend, et le temps nécessaire pour accomplir une tâche mentale. La consommation de cannabis pourrait donc, par exemple, nuire à la réussite scolaire, à la performance au travail et à la conduite automobile des usagers.

Pour l'école [...] c'est clair [que le jeune qui a consommé le matin] va avoir plein de problèmes au niveau cognitif au cours de la journée, a dit le Docteur Dumais. Même en après-midi et en soirée, au moment de faire ses travaux, il pourrait y avoir des difficultés au niveau de l'apprentissage, de la mémorisation et de la concentration. Ces conséquences pourraient être plus graves chez les consommateurs réguliers et les gros consommateurs, prévient-il, avant de souligner que la consommation de cannabis est encore grandement banalisée.

Une bonne partie de la population perçoit toujours le cannabis à la limite comme un médicament qui a peu d'effets négatifs et essentiellement des effets positifs, comme l'effet récréatif ou le soulagement de la douleur, a dit le Docteur Dumais.

Article rédigé par Georges Simmonds pour RT Flash

Radio Canada

Le rôle du magnésium dans la lutte de l'organisme contre le cancer…
Lundi, 28/02/2022 - 10:21

Une étude de l'Université de Bâle (Suisse) vient de faire le lien entre le niveau de magnésium dans le sang et la lutte contre les agents pathogènes et les cellules cancéreuses. Ces chercheurs ont montré que les tumeurs cancéreuses se propageaient plus rapidement dans le corps des souris lorsque ces dernières étaient carencées en magnésium. Ils ont aussi remarqué que leur défense contre les virus de la grippe était également altérée.

Les scientifiques ont rapporté que les cellules T ont besoin d'une quantité suffisante de magnésium pour fonctionner efficacement. À titre de précision, les cellules T sont de "véritables cellules tueuses", selon l'Inserm. « Les lymphocytes T sont capables d'infiltrer la tumeur puis de détruire les cellules cancéreuses ». Le fait que le magnésium soit essentiel au fonctionnement des lymphocytes T est une découverte déterminante pour les immunothérapies modernes contre le cancer. Ces thérapies visent à mobiliser le système immunitaire, en particulier les lymphocytes T cytotoxiques, pour combattre les cellules cancéreuses. Et d'après les chercheurs de Bâle, la réponse immunitaire des lymphocytes T contre les cellules cancéreuses se voit renforcée par une augmentation de la concentration locale en magnésium.

En se basant sur des données précédemment réalisées sur des patients atteints de cancer, les chercheurs ont pu montrer que les immunothérapies étaient moins efficaces chez les patients dont le taux de magnésium dans le sang était insuffisant.

« Dans une prochaine étape, nous prévoyons des études prospectives pour tester l'effet clinique du magnésium en tant que catalyseur du système immunitaire », conclut le Docteur Jonas Lötscher, auteur principal de l'étude.

Article rédigé par Georges Simmonds pour RT Flash

University of Basel

Covid : un fumeur en terrasse peut véhiculer le virus dans un rayon de 8 mètres
Lundi, 28/02/2022 - 10:16

Selon la Separ, la Société espagnole de pneumologie et de chirurgie thoracique (Separ), le SARS-CoV-2 (dont la taille est de 100 nm) peut aussi être véhiculé dans des gouttelettes (c’est-à-dire des postillons de moins de 100 µm) qui, plus légères, peuvent rester en suspension et flotter dans l’air pendant plusieurs heures. « La propagation du virus SRAS-CoV-2 est favorisée essentiellement par les aérosols émis lors de la respiration, c'est un moyen de transmission plus important que par voie manuportée. Ainsi, dans les espaces où se trouvent des fumeurs ou des vapoteurs, les coronavirus d'un diamètre de 0,1 micron peuvent rejoindre des particules de fumée de tabac plus grosses et ces aérosols chargés de particules virales peuvent atteindre un rayon de 8 mètres », soulignent les scientifiques. Par conséquent, pour la société médicale, la fumée exhalée du tabac et des appareils électroniques représente un excellent véhicule pour la transmission de particules virales entre les personnes.

Et comme on sait que fumeurs et non-fumeurs installés en terrasse ne portent pas le masque, la Separ insiste sur la nécessité de la réforme de la loi anti-tabac pour étendre l'interdiction de fumer dans les espaces publics ouverts tels que les terrasses. Une mesure qui ne doit toutefois pas éviter seulement la propagation du Covid sur les terrasses, mais de limiter de manière durable la prévention et l'exposition à d'autres infections respiratoires. Même si la Separ insiste sur le fait qu'il existe désormais des preuves scientifiques solides qui démontrent une relation dangereuse entre le Covid-19 et le tabac, puisque l'exposition aux toxines du tabac est liée à des formes plus graves de cette maladie.

Article rédigé par Georges Simmonds pour RT Flash

Separ

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top