|
|
|
|
|
NUMERO 1240 |
|
|
|
|
|
|
|
Edition du 12 Janvier 2024
|
|
|
|
|
Edito
Et si l’arrivée massive des robots allait permettre de garantir une meilleure retraite et un meilleur système de santé…
Cette semaine, alors que se tient à Las Vegas le salon high-tech CES 2024, je reviens sur les récentes avancées en robotique. Depuis quelques mois, nous le voyons bien, dans tous les domaines, les robots, toujours plus performants, moins chers et plus autonomes, sont en train de se rendre indispensables, Parfois pour remplacer l'homme dans des tâches pénibles ou dangereuses, mais plutôt pour l’assister et démultiplier sa productivité et sa créativité.
Cette arrivée en force des robots, non seulement dans les secteurs de production, mais aussi dans les domaines des services et de la santé, répond également à une évolution dont nous n'avons pas encore pleinement conscience, mais qui est pourtant inéluctable : notre monde vieillit de manière accélérée et partout, à l'exception de l'Afrique, les sociétés vont être confrontées à une forte contraction de leurs populations actives et vont devoir faire face à des besoins de main d'œuvre considérables d'ici le milieu du siècle. C'est notamment ce que souligne un rapport très intéressant du Centre Global pour le Développement, qui prévoit que, même en faisant l'hypothèse d'une immigration importante, l'Europe aura besoin d'au moins 44 millions de travailleurs d'ici 2050, pour compenser la pénurie de main d’œuvre liée au vieillissement accéléré de sa population (Voir Center for Global Development). Pour la France, ce besoin serait, selon cette étude, d'environ 4 millions de personnes, même en admettant que notre pays accepte l'arrivée de 1,5 million de travailleurs étrangers d'ici 2050.
Dans un tel contexte démographique, l'arrivée massive des robots dans l’ensemble de nos économies n'est plus seulement une condition d'amélioration de notre productivité et de notre compétitivité, elle est, bien plus largement, une condition à la survie même de nos modèles sociaux protecteurs, reposant sur une création de valeur ajoutée suffisante pour pouvoir continuer de financer nos services publics et d'assurer une forte redistribution sociale.
Depuis quelques mois, nous assistons, dans tous les secteurs d’activités sociales et économiques, à l’arrivée bien plus rapide que prévue de nouvelles générations de robots qui viennent bouleverser, et ce n’est qu’un début, la structure et le fonctionnement de notre société.
Depuis des millénaires, la construction de murs en pierres sèches requérait de grandes quantités de travail manuel. Mais des chercheurs de l’ETH Zurich ont mis au point une technique innovante permettant de construire un mur de pierres sèches de six mètres de haut et soixante-cinq mètres de long à l’aide d’une excavatrice autonome. Les murs en pierres sèches ont l’avantage de nécessiter peu de ressources car ils utilisent des matériaux d’origine locale. Ces scientifiques suisses ont utilisé une excavatrice autonome, appelée HEAP, pour construire ce mur de pierres sèches. Grâce à ses capteurs, la pelle peut dessiner de manière autonome une carte 3D du chantier et localiser les blocs de construction et les pierres adaptées à la construction du mur. L’excavatrice est capable de saisir de grosses pierres dans son environnement immédiat, puis d’en évaluer le poids et la forme. Un logiciel dédié peut déterminer la meilleure position pour chaque pierre et l’excavatrice va alors placer les pierres à l’endroit choisi. Avec ce système robotisé assez extraordinaire, il devient possible de construire une maison en moins de 2 jours et cette machine va transformer radicalement les chantiers de construction.
La société australienne de robotique de construction FBR a, pour sa part, développé et perfectionné depuis 5 ans un robot qui n’a pas fini de faire parler de lui et dont j’avais, dès l’origine, su déceler les potentialités. Baptisé Hadrian X, en hommage à la célèbre muraille de défense érigée par les Romains au 2ème siècle, entre l’Angleterre et l’Ecosse, cette machine repose sur un immense bras robotisé de 30 mètres, monté sur un camion qui transporte les briques nécessaires pour la construction. Suivant un plan informatique très précis, Hadrian X sélectionne, soulève et place les briques avec une précision remarquable. Il peut également appliquer le mortier et positionne chaque brique parfaitement, grâce à son outil de guidage laser avancé. La dernière version de ce robot peut poser jusqu’à 300 briques par heure et construire une maison complète en seulement deux 2 jours. Ce robot sait aussi découper les briques de manière à répondre à des contraintes particulières. Cette machine révolutionnaire commence à changer radicalement l’organisation des chantiers de construction aux Etats-Unis. La société FBR voit cette technologie comme un moyen d’éliminer les tâches les plus pénibles, mais aussi de réduire les coûts de construction, donc le prix final des maisons, ouvrant ainsi de nouveaux marchés, notamment dans les pays en voie de développement, où les besoins en logements neufs sont immenses.
En janvier dernier, la firme Boston Dynamics a présenté la dernière version de son robot polyvalent Atlas qui est à présent capable de seconder efficacement un ouvrier du bâtiment humain. Il peut, par exemple, lui passer les outils dont il a besoin ou déplacer à la demande des éléments trop lourds pour un humain. Atlas s’est montré capable d’évoluer dans un environnement encombré et il pourrait améliorer sensiblement la productivité et la sécurité des travailleurs du bâtiment en les assistant.
Pour améliorer la productivité et la rentabilité de ses énormes plates-formes logistiques, le géant Amazon a annoncé l’introduction de Digit, un humanoïde conçu par Agility robotics, bien plus polyvalent que les robots déjà utilisés par la société. Ce robot humanoïde sera produit à raison de 10 000 unités par an d’ici 2026. Les usines baptisées "Robofab" sont prévues pour la fin de l’année. Amazon compte surtout utiliser Digit sur la tâche fastidieuse de recyclage des bacs vides utilisés pour la préparation des commandes des clients. Comme son cousin Atlas, Digit peut monter et descendre des marches d’escalier, et se déplacer dans des espaces restreints, grâce à sa forme humanoïde.
En France, le CNRS et le LAAS viennent de présenter un étonnant robot humanoïde polyvalent, destiné à collaborer avec l'homme dans de nombreux secteurs de l'industrie. Mesurant 1,75 m et pesant 100 kg, ce robot a été conçu pour pouvoir se déplacer dans un environnement industriel et peut marcher, se localiser dans l'espace, manipuler des objets et réaliser des tâches d'outillage.
Dans le domaine des transports, les robots font également une entrée fracassante : en août dernier, l’Institut Avancé des Sciences et des Technologies de Corée (KAIST) a présenté une merveille de technologie, le robot PIBOT. Celui-ci a été conçu pour comprendre les manuels rédigés en langage naturel et piloter, par exemple, un avion en toute autonomie. En combinant des technologies d’intelligence artificielle et de robotique, ces chercheurs coréens ont apporté la démonstration que ce robot humanoïde pouvait prendre les commandes d’un appareil et manipuler les équipements sans aucune modification de l’avion. PIBOT Il peut se servir de l’outil ChatGPT pour mémoriser l’intégralité du Quick Reference Handbook (QRF) et calculer la route la plus sûre en temps réel, en intégrant tous les paramètres de vol. Dans sa version actuelle, PIBOT est capable de réaliser toutes les opérations que doit effectuer un pilote, décollage, atterrissage, vol de croisière…
Il y a quelques semaines, l'armée australienne a diffusé des images surprenantes de chiens robots qui obéissent directement à leurs maîtres grâce à une commande mentale. Cette technologie futuriste fonctionne via un casque qui intègre l’interface cerveau-ordinateur. Ce casque intègre un écran de réalité augmentée qui permet au soldat opérateur de se concentrer sur un point précis, puis d’ordonner par guidage télépathique au chien robot de s’y rendre. Les Etats-Unis ont récemment utilisé, pour leur part, l'incitative appellation de Replicator qui vise à fédérer les industriels de la défense et de la technologie pour produire de nombreux systèmes d'armes autonomes. Ceux-ci seront déployés dans toutes les branches de l'armée (Voir C4ISRNET). La secrétaire adjointe à la Défense américaine, Kathleen Hicks, a déclaré que, d'ici deux ans, on verrait arriver plusieurs milliers de ces « systèmes de combat autonomes ». Les États-Unis souhaitent notamment utiliser ces nouvelles armes redoutables pour renforcer la défense de Taïwan.
En septembre dernier, le Maire de New York, Eri Adams a présenté un robot policier destiné à assister la police municipale de cette ville de plus de huit millions d’habitants. Baptisé Knighscope K5, ce robot massif de 200 kilos fonctionne de manière autonome et se recharge seul. Il patrouillera dans le métro de minuit à 6 heures du matin et filmera son environnement.
En France, l'armée de Terre prépare également activement l'arrivée de ses premières unités de robots. Cette section, baptisée Vulcain, vise à épauler les soldats dans les missions fastidieuses ou périlleuses. Pour le général Schill, chef d'Etat major de l'armée de Terre, « Il ne faut pas rater le train de la robotique ». La loi de programmation militaire 2024-2030 prévoit des ressources qui permettront à l’armée de Terre d’avoir des premières unités de robots terrestres, avant 2030, avec de premières expérimentations sur le terrain dès 2025. Reste que la France, à la différence d'autres pays, comme la Russie, la Chine ou les USA, s'est engagée à ne pas utiliser, pour le moment, de systèmes d'armes létaux pleinement autonomes, des systèmes appelés par l'acronyme “SALA”.
La médecine et la santé sont également bouleversées par l’arrivée de robots de plus en plus autonomes qui intègrent de puissants outils d’IA. L'entreprise rouennaise Robocath a ainsi réalisé en juillet dernier, via la 5G, une angioplastie coronaire à 2 800 km de distance, entre Pékin et Urumqi, en Chine, ouvrant la voie au traitement cardiovasculaire à grande échelle. Cette première mondiale a été réalisée grâce à la plate-forme robotique R-OneTM. Cet outil unique au monde a permis au Professeur Yundai Chen d'opérer à distance avec une précision remarquable, assisté par le Professeur Yining Yang et son équipe médicale sur place. Le Professeur Yundai Chen souligne que « La procédure, réalisée en connexion 5G, a éliminé les effets de latence du système d'imagerie et de son, assurant ainsi une communication technique et orale fluide entre les deux équipes médicales distantes. Cet outil de télé intervention va garantir une égalité territoriale d’accès aux soins pour tous, et sur tout le territoire ».
Je rappelle qu'en janvier 2022, STAR, un autre robot conçu par l’université américaine Johns Hopkins avait déjà réussi une anastomose intestinale, une opération complexe et délicate, sur quatre animaux. Les résultats ont dépassé les espérances des chercheurs : non seulement STAR a parfaitement effectué cette délicate intervention mais, selon le Professeur Axel Krieger, « les résultats sont bien meilleurs que ceux des humains ayant suivi la même procédure ». Celui-ci précise toutefois que le but de cette technologie n’est pas de remplacer les chirurgiens, mais de les assister sur des tâches difficiles.
A Lyon, l'hôpital Saint Joseph Saint Luc vient pour sa part de se doter de la dernière version du robot chirurgical Da Vinci, qui est utilisé pour l'instant dans la chirurgie urologique, notamment pour traiter des cancers de la prostate, du rein, ou de la vessie. Le robot est doté de plusieurs bras articulés au bout desquels sont fixés les instruments chirurgicaux ainsi qu'une caméra. Derrière son écran en 3D, le chirurgien dirige les mouvements du robot avec les manettes de pilotage, guidé par des images retransmises en temps réel. Le docteur Nicolas Arfi souligne la précision du robot et insiste sur le fait que cette technique permet d'atteindre bien plus facilement sa cible par des incisions, tout en réduisant les douleurs post opératoires et le temps de récupération pour le patient.
Il y a quelques jours, RoboFab, d’Agility Robotics, la première usine au monde de production en série de robots humanoïdes destinés au travail en entrepôt, a ouvert ses portes dans l’Oregon (États-Unis). La première série de 100 robots sera déployée chez Amazon, afin d’appuyer ses systèmes de tri et de logistique. À terme, le fabricant prévoit d’étendre sa production à 10 000 robots par an et ambitionne de devenir l’un des leaders du domaine. Cette annonce survient juste après celle du ministère chinois de l’Industrie et des Technologies de l’information (MIT) qui a publié il y a quelques semaines un rapport révélant la volonté de la Chine d’être au premier rang mondial en matière de robots humanoïdes intelligents avant 2030.
Aux Etats-Unis, Tesla a présenté sa nouvelle version d'Optimus, à la fois plus léger, plus rapide, plus agile, et plus précis que le précédent modèle de 2021. Tesla annonce que son poids a été réduit de 10 kg et que sa vitesse de marche est 30 % supérieure à celle de son prédécesseur. Les mains d’Optimus ont été entièrement repensées pour gagner en dextérité. Avec 11 degrés de liberté et des capteurs de pression intégrés au bout de chaque doigt, le robot est désormais capable de manipuler des objets délicats. Elon Musk veut mettre sur le marché un robot humanoïde polyvalent à moins de 20 000 dollars, capable de remplacer l'homme dans de nombreuses tâches pénibles ou fastidieuses. Il se dit convaincu que ce business de la robotique pourrait à terme dépasser l’activité automobile de Tesla et que le parc mondial de la robotique polyvalente et humanoïde pourrait atteindre les 20 milliards d'unités en 2050...
Au Japon. Moxi, un robot infirmier humanoïde d’1m60, a trouvé sa place dans de nombreux établissements pour transporter des médicaments et du matériel et soulager ainsi le travail des infirmiers. Et si les soignants ont besoin de transférer un patient de son lit au fauteuil, ils peuvent demander l’aide de Robear, qui pèse 130 kilos et possède une force suffisante pour saisir délicatement, dans ses bras robotiques, un patient qui ne peut pas se déplacer. Une déclinaison domestique de ce robot pourrait également être utilisée pour l’aide des personnes âgées à domicile, un enjeu de société majeur au Japon.
En Bavière, un robot a été conçu pour remédier à la pénurie de soignants dans certains territoires. Le robot "Garmi" ressemble à toutes les machines de son espèce : posé sur un plateau à roulettes, équipé de bras artificiels, il est doté d’un écran noir sur lequel flottent, en guise d’yeux, deux cercles bleus. Garmi a été conçu par des chercheurs spécialisés en "gériatronique", nouvelle discipline fédérant les technologies numériques au service de la gériatrie. Garmi est polyvalent et peut aussi bien servir les repas que lancer une alerte en cas de chute ou organiser une conversation vidéo avec la famille. On comprend mieux cette initiative quand on sait qu’en Allemagne, le nombre de postes de soignants à pourvoir d’ici 2050 est évalué à 670.000.
A l''occasion du précédent CES qui s’est tenu en 2023 à Las Vegas, la firme japonaise Aeolus Robotics a présenté aeo, un robot humanoïde à deux bras, destiné à aider les personnes à faible mobilité. Comme son homologue allemand Garmi, aeo peut apporter repas et médicaments, appeler les urgences, fermer les portes et les fenêtres ou encore désinfecter une pièce. Au Japon, la première version d’Aeo est utilisée dans des établissements de soins pour personnes âgées depuis 2018.
Présenté en 2022, le petit robot Emobot peut repérer les premiers symptômes de la dépression en analysant la voix. Sur 7,8 millions de seniors français de plus de 75 ans dans le pays, près de 6,9 millions sont encore chez eux. Une majorité de ces derniers ont peu d’interactions et ne sortent que rarement de leur domicile, ce qui favorise la dépression et le déclin cognitif. Emobot, déjà en service dans une cinquantaine d’établissements, est capable d’analyser les expressions du visage et le timbre de voix et de déceler les signes avant-coureurs de dépression. J’évoque encore l'initiative du groupe Vyv qui teste dans ses établissements du Val de Loire des robots ménagers pour transporter les assiettes et assurer le service des résidents âgés pendant les repas. Bientôt, ces robots pourront également prendre l'ascenseur et apporter le petit déjeuner aux pensionnaires dans leur chambre. Bien que ces robots ne rendent pas plus rapide le service, ils soulagent le personnel et allègent leur charge de travail.
Mais, avant de conclure, je reviens en Chine qui est confrontée à un défi économique majeur : comment assurer des soins adaptés à une population immense qui va connaître un vieillissement inéluctable, avec un nombre de personnes âgées de plus de 60 ans qui devrait passer de 280 millions à plus de 400 millions d’ici 2035. Pour faire face à ce problème, la société Fourier Intelligence, basée à Shanghai, a conçu un robot humanoïde innovant, nommé GR-1. Ce robot de 1,64 mètre de haut et de 55 kg est capable de marcher comme un être humain, mais aussi d’éviter les obstacles et de manipuler des objets. Le GR-1, qui pourrait devenir le premier robot humanoïde produit en série au monde, a été présenté lors de la conférence mondiale sur l’IA qui s’est tenue à Shanghai, il y a quelques semaines. A cette occasion, il a fait face à son rival et homologue humanoïde Optimus, développé par Tesla. L’ambition affichée de Fourier Intelligence est de faire de son robot GR-1 à la fois un assistant thérapeutique dans les hôpitaux et un compagnon pour les personnes âgées.
L’arrivée massive de ces nouveaux robots humanoïdes, autonomes et polyvalents, s’inscrit dans un contexte démographique mondial de basculement historique qu’il faut rappeler : il semble en effet se confirmer, comme le montrent de récentes études convergentes, que la population mondiale risque de décroître bien plus vite que prévu et pourrait atteindre son pic vers 2064, à 9,7 milliards d’individus, avant de connaître un inexorable déclin et de redescendre à 8,8 milliards de Terriens à la fin du siècle. Parallèlement à cette décroissance démographique, la part des plus de 65 ans dans la population mondiale va doubler d’ici 30 ans, pour dépasser les deux milliards d’individus et celle des plus de 80 ans va être multipliée par trois, pour atteindre les 430 millions en 2050. Autre conséquence de ce bouleversement démographique mondial, la population active mondiale devrait commencer, elle aussi, à diminuer dès 2040 dans les pays développés. Nos sociétés vont donc être confrontées plus vite que prévu à une équation redoutable : de moins en moins d’actifs et de plus en plus de personnes très âgées. Dans une telle perspective, on comprend à quel point la présence massive de robots autonomes et polyvalents est inévitable et va devenir une réalité bien plus vite que nous ne l’imaginons.
En prenant conscience de ce déclin démographique, je voudrais vous rappeler la conclusion de l’un de mes éditos, il y a plus de 20 ans. Depuis la fin de la seconde guerre mondiale, les systèmes de retraite et de santé de notre Pays reposent sur le nombre de personnes qui travaillent, dont les revenus sont soumis à des charges sociales. Mais, inexorablement, le nombre des personnes travaillant va diminuer et, par contre, le nombre des personnes âgées exigeant un maintien sinon une amélioration de leurs retraites et des soins auxquels ils peuvent légitimement faire appel va fortement augmenter. Pour équilibrer l’ensemble des comptes, j’avais proposé il y a plus de 20 ans que le travail fourni par les robots soit soumis aux mêmes règles de charges sociales que les êtres humains. Mais à la réflexion, j’abandonne cette idée car j’entends déjà les parlementaires me reprocher de confondre humains et robots. Bien que… Mais à la place, je propose une autre idée, qui à mon avis est beaucoup plus solide. Tous les objets ou services rendus par des robots seraient soumis à une TVA augmentée. Les ressources apportées par ces quelques points supplémentaires de TVA prélevés sur les produits et services générés par des robots seraient, chaque année, réparties par le Parlement sur les budgets de dépenses sociales (retraites et santé) de la France.
J’ai la conviction que cette suggestion pourrait rendre d’énormes services à toutes les populations inexorablement vieillissantes de notre Pays…
René TRÉGOUËT
Sénateur honoraire
Fondateur du Groupe de Prospective du Sénat
e-mail : tregouet@gmail.com
|
|
|
|
|
|
|
|
TIC |
|
|
Information et Communication
|
|
|
|
|
|
|
|
|
Notre société est fortement tributaire des produits en plastique et la quantité de déchets plastiques devrait augmenter à l'avenir. S'ils ne sont pas correctement jetés ou recyclés, une grande partie de ces déchets s'accumule dans les rivières et les lacs. Ils finissent par se déverser dans les océans, où ils peuvent former des agrégats de débris marins avec des matériaux naturels tels que le bois flotté et les algues. Une étude de l'Université de Wageningen, aux Pays-Bas, et de l'EPFL a mis au point un détecteur basé sur l'intelligence artificielle (IA) qui estime la probabilité de présence de débris marins sur des images satellites. Ce détecteur pourrait permettre d'éliminer systématiquement les déchets plastiques des océans à l'aide de navires.
Les accumulations de débris marins sont visibles sur les images satellites Sentinel-2 de l'Agence Spatiale Européenne, disponibles gratuitement, qui capturent les zones côtières tous les deux à cinq jours dans le monde entier, sur les terres et les zones côtières. Comme ces images représentent des téraoctets de données, elles doivent être analysées automatiquement à l'aide de modèles d'intelligence artificielle tels que les réseaux neuronaux profonds. Les explications de Marc Rußwurm, premier auteur de l’étude, professeur adjoint à l'Université de Wageningen et ancien chercheur à l’EPFL : « Ces modèles apprennent à partir d'exemples fournis par des océanographes et des spécialistes de la télédétection, qui ont identifié visuellement plusieurs milliers de débris marins sur des images satellites prises à différents endroits du globe. Ils ont ainsi "entraîné" le modèle à reconnaître les débris plastiques ». Devis Tuia, professeur associé à l’EPFL et directeur du Laboratoire de science computationnelle pour l'environnement et pour l'observation de la terre (ECEO), basé à Sion, est auteur correspondant de l’étude.
Les scientifiques ont mis au point un détecteur de débris marins basé sur l'IA qui estime la probabilité de présence de débris marins pour chaque pixel des images satellite Sentinel-2. Le détecteur est entraîné selon les principes de l'IA centrée sur les données, qui visent à utiliser au mieux les données d'entraînement limitées disponibles pour ce problème. Un exemple est la conception d'un algorithme de vision par ordinateur qui associe précisément les annotations manuelles des experts aux débris visibles sur les images. Grâce à cet outil, les océanographes et les spécialistes en télédétection peuvent fournir davantage d'exemples de données de formation en étant moins précis dans le clic manuel des contours.
Dans l'ensemble, cette méthode de formation combinée à l'algorithme de raffinement apprend au modèle de détection de l'intelligence artificielle profonde à mieux prédire les objets de débris marins que les approches précédentes. « Le détecteur reste précis même dans des conditions difficiles. Par exemple, lorsque la couverture nuageuse et la brume atmosphérique empêchent les modèles existants d'identifier précisément les débris marins », indique Marc Rußwurm.
Il est particulièrement important de détecter les plastiques dans les débris marins dans des conditions atmosphériques difficiles, avec des nuages et de la brume, car les plastiques sont souvent emportés dans les eaux libres après des pluies et des inondations. C'est ce que montrent les inondations de Pâques à Durban, survenues en Afrique du Sud en 2019 : une longue période de pluie a fait déborder les rivières, entraînant une quantité de déchets beaucoup plus importante qu'à l'accoutumée. Ils ont été emportés par le port de Durban dans l'océan Indien. Sur les images satellite, de tels objets qui flottent entre les nuages sont difficiles à distinguer lorsque l'on utilise les types de couleur rouge-vert-bleu habituels. Ils peuvent être visualisés en passant à d'autres canaux spectraux, y compris la lumière infrarouge proche.
Outre une prédiction plus précise des agrégations de débris marins, le modèle de détection permettra également de repérer les débris dans les images de PlanetScope, provenant de nanosatellites, accessibles quotidiennement. « La combinaison des acquisitions hebdomadaires de Sentinel-2 et des acquisitions quotidiennes de PlanetScope peut combler le fossé vers une surveillance quotidienne continue », explique Marc Rußwurm. « De plus, PlanetScope et Sentinel-2 capturent parfois la même zone de débris marins le même jour, à quelques minutes d'intervalle. Cette double vue du même objet à deux endroits révèle la direction de la dérive due au vent et aux courants océaniques sur l'eau. Cette information peut être utilisée pour améliorer les modèles d'estimation de la dérive des débris marins ».
Article rédigé par Georges Simmonds pour RT Flash
EPFL
|
|
|
|
|
|
|
|
L'intelligence artificielle de DeepMind, une filiale de Google, avec un nouvel outil nommé "réseaux graphiques pour l’exploration des matériaux" (GNoME), vient de faire une percée majeure, en produisant 2,2 millions de structures cristallines, dont 380 000 stables, ce qui les rend potentiellement utiles pour des technologies futures. Cette avancée, alliant technologie de pointe et recherche scientifique, ouvre des perspectives inédites dans les domaines de l’énergie renouvelable et de l’électronique. De quoi potentiellement aboutir à de meilleures cellules solaires, batteries, puces informatiques et bien plus. Les rapports de ces expérimentations ont été publiés dans la revue Nature.
L’outil GNoME de DeepMind constitue une innovation de rupture, qui permet de prédire à une vitesse inégalée la structure de millions de matériaux Cette prédiction massive de 2,2 millions de nouveaux matériaux a été rendue possible par l’utilisation de réseaux graphiques avancés, une branche de l’apprentissage profond spécialisée dans l’analyse et la modélisation de données complexes. Parmi ces matériaux, plus de 700 ont déjà été synthétisés en laboratoire, offrant une validation concrète de la précision et de l’efficacité de GNoME. Ces derniers sont actuellement soumis à des tests rigoureux pour évaluer leurs propriétés et leur applicabilité potentielle dans divers domaines. Cette étape de validation est cruciale, car elle permet de passer de la théorie à la pratique, transformant des prédictions informatiques en applications tangibles et utiles.
Cet outil GNoME change radicalement la manière dont les matériaux sont découverts. Traditionnellement, la découverte de nouveaux matériaux implique des expérimentations en laboratoire longues et coûteuses, souvent basées sur des essais (et de nombreuses erreurs). GNoME, en revanche, utilise une combinaison de deux modèles d’apprentissage profond. Le premier génère plus d’un milliard de structures en apportant des modifications à des éléments de matériaux existants. La seconde ignore les structures existantes et prédit la stabilité des nouveaux matériaux uniquement sur la base de formules chimiques. La combinaison de ces deux modèles permet un éventail de possibilités beaucoup plus large. Une fois les structures candidates générées, elles sont filtrées à travers les modèles GNoME de DeepMind. Les modèles prédisent l’énergie de décomposition d’une structure donnée, ce qui constitue un indicateur important de la stabilité du matériau. GNoME sélectionne les candidats les plus prometteurs, qui font l’objet d’une évaluation plus approfondie basée sur des cadres théoriques connus.
Cette approche a non seulement accéléré le processus de découverte, mais a également augmenté la précision des prédictions. Pour certains matériaux, la précision de prédiction de stabilité a dépassé 80 %, un taux remarquablement élevé qui témoigne de l’efficacité de l’IA dans ce domaine. GNoME peut être décrit comme un AlphaFold destiné à la découverte des matériaux, selon Ju Li, professeur de science et d’ingénierie des matériaux au Massachusetts Institute of Technology (MIT). AlphaFold, un système DeepMind AI annoncé en 2020, prédit les structures des protéines avec une grande précision et a depuis fait progresser la recherche biologique et la découverte de médicaments. Grâce à GNoME, le nombre de matériaux stables connus a presque décuplé, pour atteindre le nombre de 421 000.
Les matériaux prédits par GNoME présentent un potentiel considérable pour plusieurs industries technologiques. En particulier, les 528 conducteurs de lithium-ion identifiés par GNoME pourraient être exploités pour améliorer les batteries, notamment l’efficacité et la durabilité des batteries lithium-ion — composants clés des véhicules électriques et des appareils mobiles. En outre, les implications de ces découvertes s’étendent aux semi-conducteurs et aux cellules solaires, où l’amélioration des matériaux pourrait conduire à une augmentation de l’efficacité énergétique et à une réduction des coûts. Cette avancée est particulièrement pertinente à l’heure où la demande mondiale pour des solutions énergétiques plus propres et plus efficaces est en constante augmentation.
Le Laboratoire National Lawrence Berkeley a joué un rôle crucial dans la mise en pratique de ces découvertes. En intégrant les matériaux prédits par GNoME dans son projet Materials Project, le laboratoire a franchi une étape importante vers la concrétisation de ces innovations. Leur laboratoire autonome, A-Lab, est un exemple parfait de l’application de l’intelligence artificielle et de la robotique dans le développement de nouveaux matériaux. A-Lab a démontré une capacité impressionnante à synthétiser rapidement de nouveaux composés, avec 41 matériaux créés sur la base de 58 proposés en seulement 17 jours. Cette efficacité remarquable montre comment l’automatisation et l’IA peuvent accélérer les processus de recherche et de développement, ouvrant la voie à des avancées rapides et significatives dans de nombreux domaines.
Article rédigé par Georges Simmonds pour RT Flash
Nature
|
|
^ Haut |
|
|
|
|
|
|
|
Avenir |
|
|
Nanotechnologies et Robotique
|
|
|
|
|
|
|
|
|
Des chercheurs de l'Ecole Polytechnique de Zurich (EPZ) ont annoncé la création d’une main artificielle utilisant une technique d’impression 3D novatrice appelée "jet contrôlé par vision" (VCJ). Cette main robotique est conçue pour imiter davantage la structure et la souplesse de la main humaine, avec l’utilisation d’os, de ligaments et de tendons imprimés en 3D. La robotisation, également connue sous le terme d’automatisation, représente l’intégration de robots et de technologies autonomes dans les processus industriels et divers aspects de la vie quotidienne. Cela englobe un large éventail d’applications, de la fabrication automatisée dans les usines à l’utilisation de robots dans les services, la santé, l’agriculture et d’autres secteurs.
Une branche de ce vaste domaine a pour vocation de créer des membres robotiques, tels que des mains, imitant au mieux la complexité et la fonctionnalité des membres humains. Dans le cadre d’un projet récent, des chercheurs de l’ETH Zurich ont développé l’un de ces membres en utilisant une technique de jet contrôlé par vision (VCJ). Il s’agit d’une approche novatrice qui apporte des améliorations significatives en termes de flexibilité, de durabilité et d’adaptabilité. Dans le détail, la technique VCJ, abréviation de jet contrôlé par vision, est une méthode d’impression 3D qui se distingue par sa capacité à superposer jusqu’à quatre plastiques différents pour créer des membres robotiques complexes.
L’innovation clé réside dans la combinaison de pièces dures et souples à durcissement lent, contrairement aux techniques d’impression 3D conventionnelles qui utilisent des plastiques à durcissement rapide. Cela permet à chaque couche du composant imprimé de prendre plus de temps pour durcir afin d’offrir une pièce plus durable et élastique. Autrement dit, le résultat est une pièce robotique ferme, mais souple. Des caméras et des lasers guident le processus d’impression, assurant que chaque couche soit constituée avec une épaisseur bien précise.
Grâce à cette nouvelle technologie, des chercheurs de l’ETH Zurich ont ainsi réussi pour la première fois à imprimer en une seule fois sur une main robotique des os, des ligaments et des tendons constitués de différents polymères. « Nous n’aurions pas pu réaliser cette main avec les polyacrylates à durcissement rapide que nous utilisons jusqu’à présent dans l’impression 3D », explique Thomas Buchner, premier auteur de l’étude. « Nous utilisons désormais des polymères de thiolène à durcissement lent. Ceux-ci ont de très bonnes propriétés élastiques et reviennent à leur état d’origine beaucoup plus rapidement après flexion ».
Les robots fabriqués à partir de matériaux souples, comme la main développée ici, présentent des avantages par rapport aux robots conventionnels en métal. Ils présentent en effet moins de risques de blessures lorsqu’ils travaillent avec des humains et ils sont mieux adaptés à la manipulation de marchandises fragiles. À terme, les robots qui en seront équipés pourraient être déployés dans divers secteurs industriels pour des tâches nécessitant de la précision et de l’adaptabilité. La technique pourrait également être appliquée pour la création de prothèses plus avancées qui offriraient une meilleure fonctionnalité et une adaptation plus naturelle au mouvement humain.
Article rédigé par Georges Simmonds pour RT Flash
Nature
|
|
^ Haut |
|
|
|
|
|
|
|
Matière |
|
|
Matière et Energie
|
|
|
|
|
|
|
|
|
Des scientifiques de l'Université de Rochester (New York) ont développé ces commutateurs résistifs hybrides dans le laboratoire de Stephen M. Wu, professeur assistant en génie électrique et informatique et en physique à l’Université de Rochester. Leur approche associe les meilleures qualités de deux types de commutateurs résistifs utilisés pour la mémoire : les memristors et les matériaux à changement de phase. Ces deux formes ont été étudiées pour leurs avantages par rapport aux formes de mémoire les plus répandues aujourd’hui, telles que la mémoire vive dynamique (DRAM) et la mémoire flash, mais présentent également des inconvénients.
Wu explique que les memristors, qui fonctionnent en appliquant une tension à un filament mince entre deux électrodes, souffrent d’un manque de fiabilité par rapport à d’autres formes de mémoire. Par ailleurs, les matériaux à changement de phase, qui consistent à faire fondre sélectivement un matériau dans un état amorphe ou cristallin, nécessitent trop d’énergie. « Nous avons combiné l’idée d’un memristor et d’un dispositif à changement de phase de manière à dépasser les limitations de chaque dispositif », précise Wu. « Nous fabriquons un dispositif memristor à deux bornes, qui entraîne un type de cristal vers un autre type de phase cristalline. Ces deux phases cristallines ont des résistances différentes que l’on peut ensuite stocker en tant que mémoire ».
La clé réside dans l’utilisation de matériaux bidimensionnels qui peuvent être sollicités au point de se situer entre deux phases cristallines différentes et peuvent être orientés dans l’une ou l’autre direction avec relativement peu d’énergie. « Nous l’avons conçu en étirant essentiellement le matériau dans une direction et en le comprimant dans une autre », explique M. Wu. « En faisant cela, vous améliorez les performances de plusieurs ordres de grandeur. Je vois un chemin où cela pourrait se retrouver dans les ordinateurs domestiques sous forme de mémoire ultra-rapide et ultra-efficace. Cela pourrait avoir de grandes implications pour l’informatique en général ».
Article rédigé par Georges Simmonds pour RT Flash
Rochester
|
|
|
|
|
|
|
|
Des chercheurs de l’université du Texas à Austin ont réussi à établir un nouveau record en matière de puissance avec un accélérateur de particules compact. Les accélérateurs de particules ont généralement besoin de longs tunnels qui mesurent souvent plusieurs kilomètres. Le plus grand, le LHC (grand collisionneur de hadrons) du Cern, mesure 27 kilomètres.
Dans un article publié dans la revue Matter and Radiation at Extremes, les chercheurs indiquent avoir réussi à produire un faisceau d'électrons de 10 GeV (milliards d'électronvolts) avec un accélérateur de particules de seulement 20 mètres de longueur. À titre de comparaison, les deux accélérateurs à pouvoir atteindre une telle puissance aux États-Unis mesurent aux alentours de trois kilomètres de long.
Pour parvenir à réduire à ce point la taille de l'accélérateur, ces chercheurs ont eu recours aux nanoparticules. Ils comparent le laser à un bateau sur la surface d'un lac, qui crée des vagues dans son sillage. Les électrons surfent sur ces vagues. Tout comme les jet-skis peuvent aider les surfeurs à atteindre les grandes vagues, les nanoparticules libèrent les électrons exactement au bon moment et au bon endroit.
Les chercheurs ont utilisé le Texas Petawatt Laser pour tester leur système, mais celui-ci ne produit qu'une seule pulsation par heure. Ils travaillent actuellement sur un laser pour leur système, qui serait assez petit pour tenir sur une table et devrait produire plusieurs milliers de pulsations par seconde. Les chercheurs espèrent pouvoir utiliser cet accélérateur de particules pour tester la résistance contre les radiations des appareils électroniques destinés à un usage dans l'espace, ou encore développer de nouvelles thérapies contre le cancer et des techniques d'imagerie médicale avancées.
Article rédigé par Georges Simmonds pour RT Flash
MRE
|
|
^ Haut |
|
|
|
|
|
|
|
Terre |
|
|
Sciences de la Terre, Environnement et Climat
|
|
|
|
|
|
|
|
|
Le monde du ciment vit une révolution qui se passe actuellement en Vendée. Ce matériau, devenu essentiel dans le secteur de la construction, peut en effet désormais être fabriqué sans clinker grâce à une rupture technologique portée par la société Hoffmann Green Cement. Non contente de créer un produit cinq fois moins carboné que le ciment classique Portland, elle a aussi repensé totalement le modèle industriel, avec une usine verticale alimentant elle-même 50 % de sa consommation d’énergie.
L’histoire de la start-up industrielle commence il y a plus d’une dizaine d’années avec une innovation de David Hoffmann qu’il expérimente seul. Il arrive à remplacer le clinker par un mélange à froid de laitiers de hauts-fourneaux (liquide silicaté fondu, sous forme de sable après refroidissement) et d’activateurs afin d’obtenir des liants hydrauliques pouvant réagir avec de l’eau pour faire du ciment. La proportion est d’environ 85 % de déchets en poudre (laitiers de hauts-fourneaux ou argiles du lavage des sables de carrières ou désulfogypses) et 15 % d’activateurs, également sous forme de poudre. L’approche est à l’époque trop innovante pour les cimentiers et les banquiers, qui refusent de le soutenir dans ses travaux. La rencontre en 2014 avec Julien Blanchard et le microcosme des entrepreneurs vendéens va tout changer : ils lèvent une centaine de millions d’euros pour construire une usine pilote. « Il a fallu neuf mois pour arriver à reproduire industriellement ce qui n’avait été fait qu’en laboratoire jusque-là. Avec 6 000 m2 au sol, pas de combustion donc pas de cheminée, peu de déchets, cette première usine peut déjà produire 50 000 tonnes de ciment par an », raconte François Simon, prescripteur Île-de-France pour le cimentier Hoffmann.
Cette première étape est une goutte d’eau par rapport à la production française de ciment, qui était de 16,5 millions de tonnes en 2018. Mais elle montre une nouvelle direction très prometteuse. La filière ciment émet en effet environ 10 Mt CO2eq chaque année, soit 12,5 % des émissions de gaz à effet de serre de l’industrie en France. Elle doit donc fournir un effort conséquent pour arriver à se décarboner. Elle imagine le faire en modernisant ses usines, en verdissant le mix thermique de ses fours, en réduisant le taux de clinker, et en appliquant de manière incrémentale d’autres technologies de décarbonation. Mais, comme l’a montré l’Ademe dans son plan de transition sectoriel, ces solutions de référence conduiraient encore à l’émission de 6 Mt CO2eq en 2050, alors qu’il faudrait les réduire à 2 Mt CO2eq. Même en utilisant des technologies de capture et stockage de carbone (CSC), les émissions des cimentiers seraient encore de près de 5 Mt CO2eq. Pour arriver au bon résultat, l’Ademe a modélisé deux autres scénarios, l’un poussant plus fortement le curseur de la sobriété, et l’autre maximisant les solutions technologiques, en particulier le CSC.
La solution proposée par Hoffmann, en supprimant l’étape de fabrication du clinker, rend la perspective beaucoup plus abordable. C’est pourquoi elle a été progressivement reconnue et a d’ailleurs récemment reçu le prix du Low Carbon Cement remis par l’Association mondiale du ciment, tandis que Julien Blanchard était distingué par l’Académie d’Architecture. Il faut noter tout de même que cette reconnaissance a pris du temps. « Comme les cimentiers traditionnels ont verrouillé la réglementation en imposant un taux minimum de clinker de 5 % dans le ciment, la solution Hoffmann a dû batailler pour obtenir des homologations.
Après plus de quatre années et 6 millions d’euros dépensés pour mener des essais physiques, chimiques et mécaniques avec le CSTB, notre ciment H-UKR a notamment obtenu une appréciation technique ATEx A » explique François Simon. En validant une durée d’utilisation pour 100 ans, et en le qualifiant comme une technique courante pour les assureurs et contrôleurs techniques, ce ciment va pouvoir servir aux bétons utilisés dans les ouvrages d’art et plus globalement à toute superstructure (poteaux, poutres, voiles, dalles).
Hoffmann a aussi été lauréat du prix Usine RSE lors des Trophées des Usines 2023, pour saluer sa deuxième unité de production. Cette usine, inaugurée le 12 mai en Vendée et nommée H2, a la particularité d’être la première cimenterie verticale du monde ! Elle a été construite avec le béton Hoffmann Green pour montrer son efficacité à réaliser une tour de 70 m de haut et environ 25 m de large. La partie haute de la tour contient 19 cellules verticales remplies des matières premières et produits chimiques nécessaires à la production de ciment. Ils sont assemblés à froid par gravité dans la partie basse de la tour, minimisant ainsi le besoin d’énergie et de maintenance. Un choix qui renforce la résilience de l’entreprise face à une crise énergétique : l’énergie ne compte que pour 2 % de ses coûts structurels, soit dix fois moins que les cimentiers traditionnels. Douze trackers solaires et des panneaux photovoltaïques sur le toit des bâtiments annexes fourniront la moitié de la consommation d’électricité nécessaire au site.
Avec cette deuxième usine, Hoffmann élève sa capacité de production à 250 000 tonnes de ciment par an. D’autres usines devraient voir le jour dans les prochaines années. Car la demande va forcément augmenter et certains grands acheteurs, comme Spie Batignolles, commencent à sécuriser les volumes qu’Hoffmann pourra leur livrer. Même si les ciments Hoffmann sont pour l’instant plus chers que leurs concurrents, il est probable que cela ne va pas durer. En augmentant son volume de production, l’entreprise devrait réduire ses coûts, tandis que les cimentiers traditionnels vont inexorablement voir les leurs augmenter...
Article rédigé par Georges Simmonds pour RT Flash
Techniques de l'Ingénieur
|
|
|
|
|
|
|
|
L’INSA et l’IMT ont développé une solution globale pour piloter et diagnostiquer en temps réel le fonctionnement biologique d’une station d’épuration d’eaux usées. Cette solution composée d’un élément matériel INFLEX et d’un élément logiciel DISTEP permet d’atteindre et de maintenir le dispositif dans un état d’efficience épuratoire et énergétique. Aujourd’hui, elle a été éprouvée sur cinq stations sur une période de 2 ans.
Elle est désormais exploitée sous le nom de BIOPERF dans le cadre des eaux usées urbaines par la société BIOTRADE, acteur reconnu dans le traitement des eaux usées. Ce projet a bénéficié d’un programme de prématuration Région Occitanie et d’un financement par l’agence de l’eau Adour Garonne avec l’intervention de l’OIEAU (Office International de l’EAU) et d’un accompagnement pour la valorisation par la SATT Toulouse Tech Transfer. Dans le domaine du traitement des eaux usées, le gestionnaire d’une station d’épuration est soumis à deux contraintes majeures. D’une part, l’objectif de bon état lié à la directive cadre sur l’eau l’oblige à toujours améliorer et surtout à fiabiliser ces rejets, d’autre part, une nécessité économique de plus en plus forte l’incite à optimiser les coûts d’exploitation. On peut citer par exemple le poste le plus énergivore : l’aération.
Le maintien de niveaux de traitement élevés (DCO, azote, phosphore) à moindre coût nécessite la mise en place de méthodes de suivi et de diagnostic de plus en plus précises et efficaces. Estimer en ligne l’état biologique du système d’épuration est un enjeu majeur pour élaborer des stratégies optimales de contrôle de ce même système. Il apparaît indispensable de fournir aux exploitants des outils "intelligents" pour les assister dans la gestion de leur unité de traitement et contribuer ainsi à l’objectif de qualité des masses d’eau des bassins hydrographiques. Ces outils sont aussi une porte ouverte vers la mise en place d’une traçabilité continue de la qualité des eaux traitées.
A l’origine, les chercheurs Michel Mauret et Xavier Lefebvre (INSA, CRITT GPTE), ont développé un algorithme novateur appelé INFLEX. Celui-ci analyse la dynamique des signaux O2 et rédox pour repérer les fins de réaction de nitrification et dénitrification et adapte ainsi, en temps réel, la durée des phases d’aération à la charge polluante entrant dans la station. Ce dispositif a été transféré, via Toulouse Tech Transfer, à la société BIOTRADE et déployé auprès d’exploitants de stations d’épuration. Les retours d’expériences sont excellents en termes de respect des seuils de rejet et de fiabilisation de traitement avec parfois des résultats d’économie d’énergie spectaculaires : 100 000Kwh/an d’économie sur la station de Pamiers (09), 273 500Kwh/an sur la station de Langon (33).
Article rédigé par Georges Simmonds pour RT Flash
Biotech
|
|
^ Haut |
|
|
|
|
|
|
|
Vivant |
|
|
Santé, Médecine et Sciences du Vivant
|
|
|
|
|
|
|
|
|
I-Stem, l’un des leaders européens de la recherche innovante dans le domaine des cellules souches et des maladies rares, va coordonner, en collaboration étroite avec la société de biotechnologie spécialisée dans le développement de médicaments par intelligence artificielle, Kantify, le consortium de recherche européen DREAMS. L’objectif de ce projet inédit, financé dans le cadre d’un appel d’offres européen, est de développer une méthodologie innovante combinant l’IA, les cellules souches et le criblage pharmacologique pour identifier des traitements pour 5 maladies musculaires, dans les 5 ans à venir.
Financé par l’Union Européenne et UK research dans le cadre de l’appel d’offres Horizon Europe à hauteur de 8 M€, le consortium DREAMS – Drug REpurposing and Artificial intelligence for Muscular disorderS – a pour but de développer une méthodologie innovante combinant intelligence artificielle, cellules souches pluripotentes et criblage pharmacologique pour faire émerger des traitements pour 5 premières maladies : la myopathie de Duchenne, une myopathie centronucléaire, la myopathie d’Emery-Dreifuss, la maladie de Pompe et la maladie de Danon.
Les chercheurs ont imaginé deux approches : l'une permettant d'identifier des traitements chimiques à ces 5 maladies génétiques avec le criblage pharmacologique et l'autre permettant de prédire, grâce à l’intelligence artificielle, de nouvelles maladies pour lesquelles ces traitements seraient également efficaces. « Avec l’intelligence artificielle nous vivons actuellement une révolution. Nous utiliserons cette technologie pour prédire à la fois des cibles thérapeutiques, l’effet de médicaments et même de nouvelles indications thérapeutiques, cela n’a jamais été fait par personne. Je suis très enthousiaste car, à terme, nos travaux peuvent avoir un impact qui peut aller bien au-delà des maladies cibles » a déclaré le Docteur Xavier Nissan, coordinateur du projet DREAMS et directeur de recherche à I-Stem.
« Pionnier et l’un des leaders dans le domaine de la recherche sur les cellules souches et de la thérapie cellulaire pour les maladies rares, I-Stem est à la pointe de l’innovation thérapeutique. Le projet Dreams, ambitieux et visionnaire, est à l’image de l’excellence des recherches qui sont menées dans le laboratoire, toujours avec le même objectif : faire émerger des traitements pour des malades qui n’en ont pas » souligne Christian Cottet, Président du CECS/I-Stem.
Article rédigé par Georges Simmonds pour RT Flash
La Gazette du Laboratoire
|
|
|
|
|
|
|
|
Si le sucre est le coupable le plus souvent désigné dans le développement du diabète de type 2, mieux comprendre le rôle des graisses s’avère également essentiel. En analysant les profils sanguins de dizaines de personnes souffrant de diabète ou de pré-diabète, ou ayant dû subir une ablation partielle du pancréas, des chercheurs/euses de l’Université de Genève (UNIGE) et des Hôpitaux universitaires de Genève (HUG) ont fait deux découvertes majeures. D’une part, la composition en lipides du sang et des tissus adipeux oscille au cours de la journée et est altérée en fonction de l’heure de la journée chez les diabétiques, qui présentent un taux plus élevé de lipides toxiques. D’autre part, un type de lipides, les lysoPI, est capable de renforcer la sécrétion d’insuline en cas de défaillance des cellules bêta, qui la produisent normalement. Ces résultats, à découvrir dans les revues Cell Reports Medicine et Diabetes, pourraient avoir des implications importantes dans la prise en charge des personnes diabétiques.
Le rôle des lipides dans les processus physiologiques et pathologiques du métabolisme humain se précise peu à peu, et en particulier dans le diabète de type 2, l’un des troubles métaboliques graves les plus répandus. Grâce à des outils de pointe, et notamment la spectrométrie de masse, les chercheurs/euses parviennent désormais à mesurer simultanément les niveaux de plusieurs centaines de types de lipides différents, chacun avec leurs spécificités et leurs effets bénéfiques, ou néfastes, sur notre métabolisme.
« Identifier quels lipides sont les plus présents chez les diabétiques de type 2 pourrait constituer une base pour de multiples interventions : dépistage précoce, prévention, cibles thérapeutiques potentielles, ou encore recommandations personnalisées, les possibilités sont immenses », soulignent Charna Dibner, professeure au Département de chirurgie, et Pierre Maechler, professeur au Département de physiologie cellulaire et métabolisme de la Faculté de médecine de l’UNIGE, membres du Centre facultaire du diabète, qui ont dirigé ces études. « C’est pourquoi nous avons mené une analyse détaillée des profils sanguins de patient-es recruté-es dans quatre pays européens, et confirmé certains de nos résultats sur des souris, modèles de la maladie ».
L’équipe de la professeure Charna Dibner, spécialiste des rythmes circadiens dans les troubles métaboliques, a effectué une analyse dite « lipidomique » de deux groupes de patient-es afin d’établir le profil, sur un cycle de 24 heures, de multiples lipides présents dans le sang et dans les tissus adipeux. « Les différences entre le profil lipidique des diabétiques de type 2 et des personnes sans diabète sont particulièrement prononcées en début de matinée, où on note une augmentation de certains lipides toxiques », détaille la chercheuse. « Pourquoi ? Nous l’ignorons encore. Mais cela pourrait constituer un marqueur de sévérité du diabète et permettre une prise en charge personnalisée des malades selon leur chronotype propre ».
Cela a des implications même au-delà du diabète : si les échantillons sont prélevés à des moments très différents de la journée, les résultats peuvent être faussés et donner lieu à des résultats contradictoires. « Même chose en clinique, d’ailleurs : un examen effectué le matin ou le soir, ou un traitement pris à des heures différentes, peut avoir un impact sur le dépistage et sur l’efficacité même de la prise en charge ».
Charna Dibner et Pierre Maechler ont ensuite élargi leurs analyses lipidomiques en incluant non seulement des personnes diabétiques de type 2 mais aussi un modèle de souris du pré-diabète ainsi que des patient-es ayant perdu environ la moitié de leurs cellules bêta productrices d’insuline suite à une opération. « Nous avons découvert qu’un type de lipide, les lysoPI, augmente en cas de forte diminution de cellules β fonctionnelles, avant même l’apparition des symptômes cliniques du diabète ».
Les scientifiques ont ensuite administré des lysoPI à des souris diabétiques et ont observé une augmentation de la production d’insuline. « Le même phénomène se produit in vitro, sur des cellules pancréatiques issues de patient-es diabétiques », ajoute Pierre Maechler. « Les lysoPI auraient ainsi la capacité de renforcer la sécrétion d’insuline en agissant comme une béquille en cas de diminution du nombre de cellules bêta ou de dysfonctionnement. Or, certains aliments, comme les légumineuses, contiennent naturellement des précurseurs de lysoPI ».
En mettant en lumière le rôle jusqu’ici insoupçonné des lysoPI, les chercheurs/euses vont pouvoir explorer de nouvelles pistes ouvertes par leurs découvertes. Le développement de compléments alimentaires, voire de molécules spécifiques aux récepteurs lysoPIs, pourrait être une stratégie de contrôle du diabète intéressante, de même qu’une meilleure prise en compte des profils chronobiologiques des malades. Le diabète est en effet une maladie complexe qui appelle une prise en charge beaucoup plus personnalisée qu’elle ne l’est actuellement.
Article rédigé par Georges Simmonds pour RT Flash
UNIGE
|
|
|
|
|
|
|
|
Des chercheurs du Moffitt Cancer Center ont développé un médicament, NFX-179, sous forme de gel topique, qui inhibe l’activité de MEK et prévient le développement du carcinome épidermoïde cutané. Le carcinome épidermoïde cutané est le deuxième type de cancer de la peau le plus répandu dans les pays riches. La plupart des cas sont traités par ablation chirurgicale mais environ 5 % des cas sont plus avancés et nécessitent un traitement supplémentaire. Compte tenu de l’incidence élevée du carcinome et de la mortalité associée à stade avancé, plusieurs équipes travaillent au développement de médicaments.
Bien qu’il existe déjà des médicaments pour prévenir le développement de la maladie, les médicaments actuels sont associés à des effets secondaires, ce qui suggère la nécessité de nouveaux traitements préventifs et sécures. Les chercheurs de Houston en collaboration avec la biotech NFlection Therapeutics et des collègues de l’Université de Stanford, rapportent ici que le nouveau médicament, le NFX-179, qui peut être appliqué sur la peau, prévient efficacement le développement du carcinome épidermoïde cutané dans des modèles précliniques. L’auteur principal, le Docteur déclaré Kenneth Tsai, chercheur en pathologie, explique que « de précédentes études de la même équipe ont montré que la voie de signalisation canonique des protéines kinases activées par des agents mitogènes (MAPKs) est impliquée dans le développement du carcinome épidermoïde cutané ».
L’équipe poursuit cette voie, mais va plus loin en démontrant que les médicaments qui ciblent la voie MAPK de la kinase régulée par le signal extracellulaire (ERK), y compris les inhibiteurs de MAP2K/MEK, peuvent constituer une approche efficace pour prévenir le développement du carcinome épidermoïde cutané. Si plusieurs inhibiteurs de MEK sont déjà approuvés pour traiter des cancers avancés, comme le mélanome et le cancer du poumon non à petites cellules, ces médicaments doivent être administrés par voie orale et sont associés à des effets secondaires qui limitent leur utilisation continue, notamment dans le cadre de la prévention du cancer.
L’étude visait donc à développer un nouveau médicament qui cible spécifiquement les protéines MEK1/2 et qui pourrait être appliqué de manière locale et régulièrement. L’objectif de réduire les effets secondaires impliquait que le médicament pénètre dans les couches épidermiques supérieures et inférieures de la peau, tout en conservant une puissance élevée, et soit ensuite rapidement éliminé de la circulation.
L’analyse de plus de 100 composés a permis d’identifier le médicament NFX-179 qui répondait à l’objectif ; une série d’expériences précliniques sur des modèles murins, et ont découvert qu’une formulation en gel de NFX-179 réduit la formation de nouveaux carcinomes épidermoïdes cutanés jusqu’à 92 % aux doses les plus élevées ; les effets du gel NFX-179 sont puissants mais localisés, car l’inhibition du développement du carcinome épidermoïde cutané est bien observée uniquement dans les zones traitées. Ces premières données confirment les promesses des inhibiteurs topiques de MEK métaboliquement labiles tels que le NFX-179 comme stratégie efficace pour la chimioprévention du carcinome épidermoïde cutané.
Article rédigé par Georges Simmonds pour RT Flash
STM
|
|
|
|
|
|
|
|
Les souvenirs se stockent dans notre cerveau. Il s’agit d’informations qui dérivent d’expériences et qui s’incorporent dans notre cerveau. Cette incorporation se fait sous forme de modifications dans des ensembles de cellules, qu’on appelle cellules d’engramme. Cependant, les mécanismes de ces modifications restaient mal connus.
Les cellules d’engramme sont des neurones spécifiques. Ils s’activent au cours d’une expérience vécue et subissent des modifications physiques et chimiques durables. Ils peuvent ensuite être réactivés de manière sélective pour produire la récupération de cette expérience, c’est-à-dire un souvenir. Il est également possible de les inhiber si l’on ne souhaite pas se remémorer cette expérience.
Une théorie postulée il y a plus de 100 ans estime qu’on peut définir les cellules d’engramme, ou simple engramme, comme la "substance" de notre mémoire. Il s’agirait donc d’une sorte de réalité physique des souvenirs. Cet engramme résulterait d’un ensemble de neurones. Plus les connexions entre ces neurones sont fortes, plus l’engramme est ancré et plus le souvenir sera durable.
Une étude précédente a cherché à démontrer l’existence de ces engrammes. Cela a permis de définir l’engramme comme l’unité de base de notre mémoire. Cependant, son fonctionnement restait encore un mystère. Les scientifiques souhaitaient notamment comprendre comment les modifications des neurones lors de la création des souvenirs pouvaient avoir lieu. En particulier, ils veulent savoir comment ces changements peuvent contenir des informations spécifiques et créer de nouveaux souvenirs.
L’inscription de l’apprentissage ou l’expérience de quelque chose de nouveau dans le cerveau, s’appelle l’encodage. Ce dernier implique diverses régions du cerveau, notamment l’hippocampe et l’amygdale. Pendant l’encodage, les connexions synaptiques entre les neurones se renforcent. Ceci permet d’avoir un groupe de neurones, qui auront plus de probabilités de s’activer ensemble. C’est la base de la formation des cellules d’engramme.
L’apprentissage, comme les souvenirs, implique la formation et la reformation continue des cellules d’engramme. Chaque nouvelle information conduit à la création de nouvelles cellules ou à la modification des cellules existantes. Cette nature très plastique et dynamique des cellules est essentielle pour l’apprentissage. Les cellules d’engramme de la mémoire sont des groupes de cellules cérébrales. Elles s’activent lors d’expériences spécifiques, se modifient et permettent ainsi d’incorporer et conserver des informations dans notre cerveau.
Mais Comment les engrammes peuvent-ils donc stocker des informations significatives sur le monde ? Pour le savoir, ces chercheurs du Tinity College de Dublin ont étudié les changements que subissent les engrammes et qui permettent d’encoder un souvenir. Pour cela, ils ont étudié une forme d’apprentissage dans laquelle deux expériences similaires deviennent liées par la nature de leur contenu. Les chercheurs ont utilisé un paradigme dans lequel les animaux apprenaient à identifier différents contextes. Il fallait ensuite qu’ils forment des associations entre eux. L’équipe a utilisé des techniques génétiques pour suivre deux populations différentes de cellules d’engramme dans le cerveau. Les scientifiques ont ensuite surveillé comment l’apprentissage se manifestait par la formation de nouvelles connexions entre ces cellules d’engramme.
Les chercheurs ont utilisé également l’optogénétique. Cette technique permet de contrôler l’activité des cellules cérébrales avec la lumière. Ils ont ainsi pu démontrer comment ces nouvelles connexions formées étaient nécessaires à l’apprentissage. Les scientifiques ont donc identifié un mécanisme moléculaire régulé par une protéine spécifique qui se situe dans la synapse et qui est impliquée dans la régulation de la connectivité entre les cellules d’engramme. Cette étude fournit donc des preuves directes que les changements dans la connectivité du câblage synaptique entre les cellules d’engramme sont considérés comme un mécanisme probable de stockage de la mémoire dans le cerveau.
Comprendre ces mécanismes cellulaires qui permettent l’apprentissage aide à comprendre comment nous formons de nouveaux souvenirs ou modifions ceux préexistants. En outre, cela permet aussi de faire progresser nos connaissances pour démêler le fonctionnement du cerveau et les mécanismes nécessaires qu’il met en œuvre pour traiter les pensées et informations. Jusqu’à présent, beaucoup de recherches postulaient que les souvenirs se stockaient dans les cellules d’engramme. Avec cette nouvelle étude, les chercheurs soutiennent plutôt que les informations s’encoderaient directement entre les cellules. L’apprentissage aurait donc lieu en modifiant le schéma du câblage du cerveau. Comme le docteur Ryan, co-auteur de l’étude, le conclut, « l’engramme n’est pas dans la cellule ; la cellule est dans l’engramme ».
Article rédigé par Georges Simmonds pour RT Flash
Current Biology
|
|
|
|
|
|
|
|
Au cours de la gestation, les frères et soeurs marmousets s’échangent des cellules de cerveau. C’est ce que viennent de découvrir des chercheurs de l’université Harvard. Les marmousets, ou ouistitis, des petits singes d’Amérique du Sud, ont littéralement la famille dans le sang. Chez ces animaux, jusqu’à 37 % des cellules sanguines proviennent de leur frère ou de leur sœur de la même portée. « C’est parce que, contrairement à d’autres primates, la plupart des marmousets sont des jumeaux ou des triplés non identiques, et ils s’échangent des cellules sanguines via un système circulatoire partagé dans l’utérus maternel », explique New Scientist, qui consacre un article à une découverte étonnante.
Ces petits singes s’échangent aussi des cellules du cerveau, les cellules de la microglie et les macrophages, d’après une étude disponible sur la plate-forme de prépublication BioRxiv et non relue par un comité d’experts. L’analyse génétique de plus de 2 millions de cellules cérébrales prélevées chez onze ouistitis après leur mort a montré que 20 à 52 % de la microglie et 18 à 64 % des macrophages contiennent en fait l’ADN d’un frère ou d’une sœur. « À la différence des neurones, ces cellules proviennent des cellules souches du sang, lesquelles sont échangées entre frères et sœurs in utero. Elles migrent ensuite probablement jusqu’au cerveau », décrit New Scientist. La microglie et les macrophages, dont le rôle principal est de lutter contre les infections, influencent aussi le nombre et le câblage des neurones, donc peut-être le comportement.
Aussi Corinna Ross, de l’Institut de recherche biomédicale du Texas, qui n’a pas participé à cette étude mais a déjà publié des travaux sur le marmouset, émet-elle l’hypothèse que le comportement coopératif si caractéristique de cette espèce, avec notamment des pères et des frères et sœurs aînés qui assistent la mère auprès des plus jeunes, pourrait s’expliquer par « la présence de cellules de la fratrie dans leur cerveau ». Cette hypothèse renforce l'importance du phénomène qui désigne le fait surprenant, mais pourtant réel, que chacun d'entre nous porte des cellules qui nous proviennent d'autres individus...
Article rédigé par Georges Simmonds pour RT Flash
Courrier International
|
|
|
|
|
|
|
|
Une étude réalisée par de chercheurs américains de l'Université Johns Hopkins de Baltimore montre que les hormones thyroïdiennes et le déclin cognitif auraient un lien chez les personnes âgées. Plus précisément, les chercheurs ont découvert que deux types de thyrotoxicoses (l’excès d’hormones thyroïdiennes dans l'organisme) étaient associés à une probabilité plus élevée de développer un trouble cognitif. Il s’agit de la thyrotoxicose exogène, causée par l’ingestion de médicaments thyroïdiens, et celle dite endogène, venant de troubles thyroïdiens comme l’hyperthyroïdie et la maladie de Basedow.
« De précédentes études ont déjà suggéré que la thyrotoxicose était associée à un risque accru de troubles cognitifs », explique Roy Adams de la Johns Hopkins University, auteur de l'étude, dans un communiqué. Mais les résultats étaient mitigés et la thyrotoxicose exogène était largement exclue de ces études. Les scientifiques ont donc voulu étudier le lien entre l’excès d’hormones thyroïdiennes à la suite d'un traitement et le risque plus élevé de développer des troubles cognitifs. « Notre objectif était de déterminer si les pratiques de traitement agressives, qui peuvent provoquer une thyrotoxicose exogène, sont susceptibles également de causer des dommages cognitifs », poursuit Roy Adams.
Pour cela, les chercheurs ont étudié les données de plus de 65.000 patients, âgés de 65 ans et plus, qui ont reçu des soins au sein du système de santé Johns Hopkins entre 2014 et 2023. Résultats : la thyrotoxicose toutes causes confondues – endogène et exogène – était associée à une augmentation du risque de trouble cognitif de 39 %. Il y a donc bien un lien entre thyrotoxicose et déclin cognitif.
Et ce lien dépend aussi du niveau d’exposition aux hormones. En effet, les chercheurs ont observé que les patients qui avaient un excès d’hormones thyroïdiennes plus important présentaient un risque de 65 % plus élevé de développer des troubles cognitifs. En revanche, ceux qui avaient un excès d’hormones thyroïdiennes plus modéré avaient une hausse du risque de 23 % seulement. « Nos résultats suggèrent qu'un risque accru de troubles cognitifs fait partie des conséquences négatives potentielles de l'excès d'hormones thyroïdiennes, une conséquence courante de l'hormonothérapie thyroïdienne », indique Jennifer Mammen, autre auteure de l’étude. « Les cliniciens qui envisagent un traitement par hormones thyroïdiennes chez les personnes âgées doivent éviter le surtraitement en utilisant des stratégies de soins adaptées à l'âge ».
Article rédigé par Georges Simmonds pour RT Flash
JHU
|
|
|
|
|
|
|
|
Des chercheurs du MIT ont développé une méthode qui leur permet d’observer jusqu’à sept molécules différentes à la fois, et potentiellement même plus. En utilisant des étiquettes fluorescentes qui s’allument et s’éteignent, les ingénieurs peuvent étudier comment les molécules d’une cellule interagissent pour contrôler le comportement de la cellule.
Les cellules vivantes sont bombardées de nombreux types de signaux moléculaires entrants qui influencent leur comportement. Être capable de mesurer ces signaux et la façon dont les cellules y répondent via des réseaux de signalisation moléculaire en aval pourrait aider les scientifiques à en apprendre beaucoup plus sur le fonctionnement des cellules, notamment sur ce qui se passe lorsqu’elles vieillissent ou tombent malades. Actuellement, ce type d’étude approfondie n’est pas possible car les techniques actuelles d’imagerie cellulaire sont limitées à une poignée de types différents de molécules au sein d’une cellule à la fois. Cependant, les chercheurs du MIT ont développé une méthode alternative qui leur permet d’observer jusqu’à sept molécules différentes à la fois, voire potentiellement plus.
La nouvelle approche utilise des molécules fluorescentes vertes ou rouges qui scintillent à des rythmes différents. En imaginant une cellule pendant plusieurs secondes, minutes ou heures, puis en extrayant chacun des signaux fluorescents à l’aide d’un algorithme informatique, la quantité de chaque protéine cible peut être suivie à mesure qu’elle évolue dans le temps. En utilisant quatre fluorophores commutables, les chercheurs du MIT ont pu marquer et imager quatre kinases différentes à l’intérieur de ces cellules (quatre rangées supérieures). Dans la rangée du bas, les noyaux des cellules sont marqués en bleu.
Le marquage des molécules à l’intérieur des cellules avec des protéines fluorescentes a permis aux chercheurs d’en apprendre beaucoup sur les fonctions de nombreuses molécules cellulaires. Ce type d’étude est souvent réalisé avec la protéine fluorescente verte (GFP), qui a été déployée pour la première fois en imagerie dans les années 1990. Depuis lors, plusieurs protéines fluorescentes qui brillent dans d’autres couleurs ont été développées à des taux plus élevés à des fins expérimentales. Cependant, un microscope optique typique ne peut distinguer que deux ou trois de ces couleurs, ce qui ne donne aux chercheurs qu’un petit aperçu de l’activité globale qui se déroule à l’intérieur d’une cellule. S’ils pouvaient suivre un plus grand nombre de molécules marquées, les chercheurs pourraient, par exemple, mesurer la réponse d’une cellule cérébrale à différents neurotransmetteurs au cours de l’apprentissage, ou étudier les signaux qui incitent une cellule cancéreuse à métastaser.
« Idéalement, vous seriez en mesure d’observer les signaux dans une cellule lorsqu’ils fluctuent en temps réel, et vous pourriez alors comprendre leurs relations les uns avec les autres. Cela vous indiquerait comment la cellule calcule », explique le Professeur Boyden. « Le problème, c’est qu’on ne peut pas regarder beaucoup de choses en même temps ». En 2020, le laboratoire de Boyden a développé un moyen d’imager simultanément jusqu’à cinq molécules différentes dans une cellule, en ciblant les rapporteurs de lumière vers des emplacements distincts à l’intérieur de la cellule. Cette approche, connue sous le nom de "multiplexage spatial", permet aux chercheurs de distinguer les signaux provenant de différentes molécules même si elles émettent toutes la même couleur fluorescente.
Dans la nouvelle étude, les chercheurs ont adopté une approche différente : au lieu de distinguer les signaux en fonction de leur emplacement physique, ils ont créé des signaux fluorescents qui varient dans le temps. La technique repose sur des "fluorophores commutables" – des protéines fluorescentes qui s’allument et s’éteignent à une vitesse spécifique. Pour cette étude, Boyden et les membres de son groupe ont identifié quatre fluorophores verts commutables, puis en ont conçu deux autres, qui s’allument et s’éteignent tous à des rythmes différents. Ils ont également identifié deux protéines fluorescentes rouges qui commutent à des rythmes différents et ont conçu un fluorophore rouge supplémentaire.
Chacun de ces fluorophores commutables peut être utilisé pour marquer un type différent de molécule dans une cellule vivante, comme une enzyme, une protéine de signalisation ou une partie du cytosquelette cellulaire. Après avoir photographié la cellule pendant plusieurs minutes, heures, voire jours, les chercheurs utilisent un algorithme informatique pour détecter le signal spécifique de chaque fluorophore, de la même manière que l’oreille humaine peut détecter différentes fréquences sonores. « Dans un orchestre symphonique, vous avez des instruments aigus, comme la flûte, et des instruments graves, comme un tuba. Et au milieu se trouvent des instruments comme la trompette. Ils émettent tous des sons différents et notre oreille les trie », explique Boyden.
La technique mathématique utilisée par les chercheurs pour analyser les signaux des fluorophores est connue sous le nom de démélange linéaire. Cette méthode peut extraire différents signaux fluorophores, de la même manière que l’oreille humaine utilise un modèle mathématique connu sous le nom de transformée de Fourier pour extraire différentes hauteurs d’un morceau de musique. Une fois cette analyse terminée, les chercheurs peuvent voir quand et où chacune des molécules marquées par fluorescence a été trouvée dans la cellule pendant toute la période d’imagerie. L’imagerie elle-même peut être réalisée avec un simple microscope optique, sans aucun équipement spécialisé requis.
Dans cette étude, les chercheurs ont démontré leur approche en marquant six molécules différentes impliquées dans le cycle de division cellulaire des cellules de mammifères. Cela leur a permis d’identifier des modèles dans la façon dont les niveaux d’enzymes appelées kinases dépendantes de la cycline changent à mesure qu’une cellule progresse dans le cycle cellulaire. Les chercheurs ont également montré qu’ils pouvaient marquer d’autres types de kinases, impliquées dans presque tous les aspects de la signalisation cellulaire, ainsi que des structures et organites cellulaires comme le cytosquelette et les mitochondries. En plus de leurs expériences utilisant des cellules de mammifères cultivées dans une boîte de laboratoire, les chercheurs ont montré que cette technique pouvait fonctionner dans le cerveau des larves de poisson zèbre.
Selon les chercheurs, cette méthode pourrait être utile pour observer la façon dont les cellules réagissent à tout type d’apport, comme les nutriments, les facteurs du système immunitaire, les hormones ou les neurotransmetteurs. Il pourrait également être utilisé pour étudier la façon dont les cellules réagissent aux changements dans l’expression des gènes ou aux mutations génétiques. Tous ces facteurs jouent un rôle important dans des phénomènes biologiques tels que la croissance, le vieillissement, le cancer, la neurodégénérescence et la formation de la mémoire.
Article rédigé par Georges Simmonds pour RT Flash
MIT
|
|
|
|
|
|
|
|
L’Ozempic, l'antidiabétique connu pour ses effets amaigrissants, et le Wegovy, n’auraient pas un effet uniquement sur le poids et l'insuline, selon une étude menée. Ces deux traitements, imitant notamment une hormone gastro-intestinale (GLP1) qui participe à la régulation de l’appétit, peuvent aussi réduire l’envie de boire de l’alcool. En effet, deux études présentent de nouvelles preuves selon lesquelles le Sémaglutide – molécule des deux médicaments – ainsi que le Tirzpatide pourraient aussi venir en aide aux personnes souffrant d’alcoolisme.
Dans une étude publiée par la revue The Journal of Clinical Psychiatry, les chercheurs notent que « le Sémaglutide, agoniste des récepteurs du peptide-1 de type glucagon (GLP-1RA), s'est montré prometteur dans les travaux précliniques pour réduire la consommation d'alcool, mais il n'y a actuellement aucun essai clinique randomisé associé à une diminution des symptômes du trouble de la consommation de l’alcool à l'utilisation du Sémaglutide ».
Pour mieux comprendre les effets possibles de ce traitement, l'équipe a suivi six patients ayant eu une prescription de Sémaglutide pour perdre du poids, qui présentaient également des signes d’alcoolisme avant le début du traitement. Les troubles liés à la boisson étaient évalués grâce à un test baptisé AUDIT. Au terme de leur prise de Sémaglutide, les 6 patients avaient vu leur consommation d’alcool diminuer. Il en était de même pour les symptômes liés à ce problème.
Article rédigé par Georges Simmonds pour RT Flash
JCP
|
|
^ Haut |
|
|
|
|
|
VOTRE INSCRIPTION |
|
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
|
|
|
|
|
|