|
|
|
|
|
NUMERO 1139 |
|
|
|
|
|
|
|
Edition du 21 Janvier 2022
|
|
|
|
|
Edito
Electronique du futur : la loi de Moore a encore de beaux jours devant elle…
Le transistor bipolaire (contraction de transfer resistor, ou résistance de transfert) a été inventé en décembre 1947 par les Américains John Bardeen, William Shockley et Walter Brattain, tous chercheurs des Laboratoires Bell. Ils recevront pour cette invention le prix Nobel de physique en 1954. Herbert Mataré et Heinrich Welker, deux physiciens allemands, ont aussi développé parallèlement et indépendamment le "transistor français" en juin 1948 alors qu’ils travaillaient à la Compagnie des Freins et Signaux à Paris. Ils déposent leur première demande de brevets pour un transistor le 13 août 1948. Le 18 mai 1949, cette invention européenne est présentée par la presse au public sous le nom de "Transistron". A l’époque, la communauté scientifique considéra que le transistron était plus résistant et plus stable que son concurrent américain, le transistor. Mais, faute de volonté politique et de clairvoyance technologique, les pouvoirs publics ne prirent pas conscience de l’extrême importance de cette innovation, et le transistron français, par manque de soutien financier et industriel, ne parvint pas à s’imposer face au transistor.
Après l'invention du circuit intégré en 1958, regroupant sur une petite plaque plusieurs transistors et composants, le microprocesseur est inventé en 1969, et permet d’intégrer des milliers de transistors sur un support unique, ce qui est une véritable révolution qui permet la naissance de l’informatique moderne. En 1971, Intel sort son Intel 4004, qui intègre 2 250 transistors et exécute 60 000 opérations par seconde, une performance incroyable pour l’époque. Le moins qu’on puisse dire est que, depuis ce premier microprocesseur, les progrès dans la miniaturisation et l’intégration des transistors ont été phénoménaux, puisqu’il est à présent possible d’intégrer plus de 50 milliards de transistors sur une seule puce de taille normale, et même 2 600 milliards de transistors sur la puce géante Cerebras,– 46 225 mm2 – dédiée à l’IA, présentée en avril dernier. En 50 ans, le nombre moyen de transistors intégrables sur une puce standard aura donc été multiplié par environ 20 millions, vérifiant largement la célèbre « loi de Moore », édictée en 1965 (et corrigée en 1975 par son auteur) par Gordon Moore, co-fondateur d’Intel, qui prévoit que le nombre de transistors implantables sur un microprocesseur double tous les deux ans…
En mai 2020, le laboratoire des dispositifs nanoélectroniques (Nanolab) de l’EPFL, le professeur Adrian Ionescu et son équipe, ont mis au point une technologie à base de semi-conducteurs bidimensionnels 2D dont l’efficacité énergétique s’approche de celle du cerveau humain. Ces chercheurs ont développé un nouveau transistor qui se compose d’une jonction de couches atomiques de sélénure de tungstène et de séléniure d’étain qui sont des matériaux semi-conducteurs. A partir de ce transistor unique, les chercheurs du Nanolab ont aussi conçu une autre structure hybride à transport électronique dual, susceptible d’améliorer considérablement les performances des composants électroniques (Voir Nature).
Pour parvenir à dépasser une limite fondamentale de l’électronique, ces chercheurs ont littéralement réinventé le transistor. Un transistor conventionnel consomme de l’énergie pour s’allumer ou s’éteindre. Mais cette équipe est la première à être parvenue à réduire la consommation de ce type de composant 2D/2D, pour passer d’un état à l’autre, surmontant ainsi un obstacle majeur. . « C’est la première fois que l’on descend au-dessous de ce seuil fondamental tout en obtenant plus de performance à une basse tension, contrairement à un transistor classique conçu dans le même matériau semi-conducteur 2D », indique le professeur Luisier (ETH de Zurich).
Grâce à cette rupture technique, la consommation d’énergie de ce transistor se rapproche de celle de nos neurones, dont l’efficience énergétique n’est plus à démontrer. « Nos neurones fonctionnent avec une tension électrique de 100 millivolts, soit dix fois moins qu’une pile usuelle. Notre technologie humaine utilise moins de 300 millivolts. Elle se montre donc dix fois plus efficace qu’un transistor classique », ajoute Adrian Ionescu, l’un des chercheurs de cette équipe.
En septembre 2020, des chercheurs de l’institut de physique appliquée de l’Université de Dresde ont développé des transistors verticaux dotés de deux électrodes de contrôle indépendantes, ce qui représente également une grande avancée en électronique organique et flexible. Jusqu’à présent, les transistors organiques horizontaux à couche mince ne pouvaient pas être utilisés pour des fréquences élevées, en raison du comportement particulier des électrons dans les semi-conducteurs. Pour contourner ce problème, les scientifiques de l’Université de Dresde ont réussi à mettre au point un transistor organique vertical à couche mince, constitué de deux électrodes de contrôles de commande indépendantes. Ce nouveau composant possède une structure en sandwich, associant quatre électrodes parallèles séparées par des couches d’un semi-conducteur organique, le fullerène (C60). Cette innovation fait d’une pierre deux coups : elle autorise une vitesse de commutation de l’ordre de quelques nano-secondes, et elle ouvre la voie vers la production de circuits logiques complexes. Il s’agit donc là d’une étape-clé vers la réalisation de circuits électroniques imprimables rapides et performants, s’affranchissant totalement du silicium.
En octobre dernier, une équipe de recherche internationale dirigée par Skoltech et IBM a créé un commutateur optique particulièrement sobre en énergie, destiné à se substituer à terme aux transistors électroniques dans les futurs ordinateurs optiques, utilisant des photons plutôt que des électrons. Ce commutateur n’a pas besoin d’être refroidi et fonctionne à la vitesse étourdissante de 1 000 milliards d’opérations par seconde, une fréquence cent fois plus rapide que les transistors les plus performants du marché (Voir Nature). « Ce qui rend le nouvel appareil si économe en énergie, c’est qu’il ne prend que quelques photons pour changer », précise le responsable de ces recherches, le Docteur Anton Zasedatelev.
En novembre dernier, des chercheurs suisses de l’EPFL (Lausanne) ont annoncé la mise au point d’une nouvelle technologie révolutionnaire, qui va permettre la production d’appareils à la fois plus compacts, plus puissants et plus sobres en énergie. Cette avancée combine de manière ingénieuse deux fonctions sur la même puce – la mémoire et les opérations logiques, dépassant ainsi l’architecture des ordinateurs dite "Von Neumann" (l’un des pères de l’informatique), qui sépare les composants dédiés aux processeurs et ceux dédiés à la mémoire. Cette configuration historique nécessite un transfert permanent de données entre ces deux types de composants, ce qui entraîne intrinsèquement des pertes de temps et d’énergie (Voir Nature). Pour réussir ce tour de force, les chercheurs ont en recours à un MoS2, un semi-conducteur, dont la structure moléculaire se compose d’une couche ne comptant que quelques atomes.
Cette puce utilise des transistors «à grille flottante», conçus pour stocker une charge électrique pendant des périodes très longues, et largement utilisés dans les mémoires-flash pour le stockage numérique. En utilisant les étonnantes propriétés électriques du MoS2, notamment l’extrême sensibilité aux charges stockées dans la grille flottante, ces chercheurs ont pu concevoir des composants hybrides, pouvant à la fois fonctionner comme mémoires et comme transistors. Cette nouvelle technologie permet de réduire sensiblement les pertes d’énergie liées aux échanges incessants d’informations entre la mémoire vive et le processeur, mais aussi le temps de calcul et, in fine, le volume global des appareils numériques.
En mai 2021, IBM, qui revient très fortement dans cette compétition mondiale, a annoncé la mise au point d’un processeur gravé en 2 nanomètres (deux milliardièmes de mètres). Cette puce, pas plus grande qu’un ongle, intègre 50 milliards de transistors. Elle serait deux fois plus puissante que les meilleures puces actuelles, pour une consommation d'énergie réduite des trois quarts. Selon IBM, ce nouveau processeur va permettre de conférer une semaine d’autonomie à nos smartphones.
Alors qu’IBM faisait son annonce, une autre équipe, réunissant TSMC, le MIT et l’université taïwanaise NTU, annonçait avoir développé des circuits électroniques à base de matériaux bidimensionnels, permettant d’atteindre des finesses de gravure inédites. Dans nos appareils électroniques actuels, les puces reposent sur un empilement de couches de silicium organisées de manière tridimensionnelle. Mais ces chercheurs se sont tournés vers des matériaux bidimensionnels, et notamment le graphène, une forme atomique particulière de carbone. Ils ont réussi à implanter, sur des feuilles comportant une seul couche d’atomes de graphène, des transistors en deux dimensions avec une électrode constituée de bismuth semi-métallique.
En décembre dernier, à l’occasion de la 67e édition de l'IDEM, (International Electron Devices Meeting), Intel a présenté plusieurs avancées techniques, notamment dans le domaine de l'empilement des transistors. Marko Radosavljevic, responsable de la recherche d’Intel a notamment révélé plusieurs avancées techniques importantes dans l’agencement des transistors, ouvrant la voie vers leur intégration encore plus poussée. Intel a d’abord présenté le "Foveros Direct", qui exploite des connexions dites "cuivre-à-cuivre" de 10 microns seulement, permettant d’accroître de manière considérable la densité de ces interconnexions. Intel a également révélé l'Hybrid Bonding Interconnect, ou HBI, qui va être mis en œuvre dans le cadre de prochains procédés de gravure du fondeur. Reste qu'Intel – comme Samsung et TSMC, compte remplacer les transistors dits FinFET (field-effect transistor ou transistor à effet de champ à ailettes) par les GAA FET (gate-all-around). Ce nouveau type de transistor est conçu de manière à ce que sa grille permette la mise en place de plusieurs canaux, de tous les côtés, d’où l’appellation de "gate-all-around". L'objectif est là encore, toujours le même : concevoir et fabriquer à l’échelle industrielle des transistors encore plus petits, plus stables, et plus économes en énergie.
Quelques jours après Intel, se sont IBM et Samsung Electronics qui ont présenté leurs propres recherches pour prolonger la loi de Moore. Ils ont annoncé avoir conjointement développé un nouveau transistor à structure verticale, qui devrait consommer huit fois moins d’énergie, à performances équivalentes par rapport aux transistors le plus avancé sur le marché. On voit que les géants de l’électronique rivalisent d’imagination pour poursuivre cette descente de l’électronique vers l’infiniment petit. Et, si l’on en croit les spécialistes, la marge de progression en la matière est loin d’être épuisée, en jouant simultanément sur trois leviers d’action : le changement de matériaux, la miniaturisation des procédés de gravure, et la conception du transistor. Si les technologies de gravure se rapprochent des limites physiques, les industriels ont encore un vaste champ d’action du côté de la structure du transistor, et des matériaux semi-conducteurs à la base des composants électroniques.
Le nouveau type de transistor à structure verticale ou VTFET, développé par IBM et Samsung, permettra d’intégrer 100 milliards de transistors sur une surface qui accueille aujourd'hui 10 milliards de FinFET. Grâce à l’ensemble de ces avancées, l'industrie des semi-conducteurs pourra surmonter les défis qui l’attendent en matières de performances, de consommation d’énergie et d’applications nouvelles, IA, internet des objets, voiture autonome, chiffrement de données...
Reste que, demain, l’informatique et le secteur numérique auront également besoin de mémoires encore plus performantes et miniaturisées, pour pouvoir tirer pleinement partie de ces nouvelles puces surpuissantes. Et dans ce domaine, une équipe internationale de chimistes a réussi à stocker l'information binaire à l'échelle de molécules individuelles appelées "molécules-aimants". Toutefois, pour pouvoir envisager une production industrielle de ce nouveau type de mémoires, il est capital que les molécules utilisées puissent conserver l’information, sans subir l’influence de celle stockée par les molécules voisines, un redoutable défi qui suppose une maîtrise parfaite, au niveau atomique, de leur organisation au sein du matériau. Une étape majeure vers cet objectif vient d’être franchie par des scientifiques du Centre de recherche Paul Pascal (CNRS / Université de Bordeaux) et de l'Université de Canterbury en Nouvelle-Zélande, qui montrent comment des caténanes magnétiques, structures mécaniquement imbriquées, permettent cette organisation de molécules-aimants au sein d'édifices complexes tridimensionnels (Voir Wiley).
Ces recherches ont montré qu’en utilisant ces molécules-aimants, il était possible, en utilisant un champ magnétique, de définir deux états distincts, mais également de passer, de manière réversible, d’un état à l’autre, ce qui ouvre la voie vers un nouveau type de mémoire à magnétisme moléculaire, pouvant stocker de grandes quantités d’informations. L’ensemble de ces récentes avancées technologiques, qui peuvent être combinées, devrait permettre de garder valide, pendant au moins une décennie la fameuse Loi de Moore, édictée de manière visionnaire, il y a presque 60 ans.
Enjeu technologique majeur, la conception et la production de puces électroniques est également devenue un enjeu industriel, économique et politique capital, surtout dans la perspective de la sortie de la pandémie de Covid et du fulgurant progrès de l’Internet des objets, de l’Intelligence artificielle, des véhicules autonomes, et des dispositifs numériques portables de télésanté et de téléassistance, qui nécessitent des puces plus puissantes, plus petites et plus sobres. Le cabinet d’analystes IC Insights vient d’ailleurs de confirmer le dynamisme de ce secteur, dont le marché a augmenté de 25 % en 2021, et qui vient de franchir la barre symbolique des 600 milliards de dollars (526 milliards d’euros). Et IC Insights souligne que ce secteur des puces pourrait atteindre un chiffre d’affaires record de 680,6 milliards de dollars en 2022 (597 milliards d’euros). Cette étude révèle également que la croissance des ventes devrait atteindre 11 % en cette nouvelle année contre 25 % en 2021. Pour faire face à la pénurie mondiale, les géants du secteur ont porté leurs investissements à 152 milliards de dollars l’année dernière et, selon les analystes, cette pénurie de composants devrait être résorbée en 2023.
TSMC, le leader mondial des semi-conducteurs, vient d’annoncer des revenus en hausse de 18,5 % sur l’année 2021 pour atteindre 57 milliards de dollars. Le géant taiwanais a l’intention de conforter sa position dominante sur ce marché en pleine croissance et compte réaliser 44 milliards de dollars d’investissement pour la seule année 2022, à la fois pour accroître sa capacité de production de 50 % et continuer à développer de nouvelles technologies. Le Cabinet IDC prévoit, pour sa part, que les ventes cumulées de processeurs et de composants pour les smartphones 5G devraient croître respectivement de 17 % et 32 % par an au cours des cinq prochaines années, et pourraient atteindre 231 milliards de dollars, pour la période 2021-2025.
Face à ce nouveau défi industriel, technologique et politique (car la maîtrise des puces de prochaine génération est aussi en enjeu de souveraineté et d’indépendance), l’Europe tente de s’organiser. La présidente de la Commission européenne, Ursula von der Leyen, lors de son discours sur l’état de l’Union le 15 septembre 2021, a annoncé le plan "European Chips Act". Il devrait se traduire par un investissement des états-membres et industriels de plus de 40 milliards d’euros sur dix ans, dans ce domaine des composants électroniques du futur. Mais, sans en contester le bien-fondé, on peut toutefois s’interroger sur l’efficacité réelle d’un tel plan, quand on constate que cet investissement européen, sur une décennie, sera globalement inférieur à celui consenti sur la seule année 2022, par le leader mondial du secteur, le Taiwanais TSMC…
Nous devons bien comprendre qu’il est inutile que l’Europe cherche à affirmer ses compétences dans le domaine stratégique de l’Intelligence artificielle, qui est en train de bouleverser les technologies numériques, si, dans le même temps, elle se montre incapable de concevoir et de fabriquer sur son territoire les puces de prochaine génération que j’ai évoquées ci-dessus, qui descendront à un niveau de miniaturisation atomique, et permettront d’exploiter pleinement ces nouveaux logiciels d’IA, qui nécessitent une énorme puissance de calcul. L’Europe doit absolument se donner les moyens d’agir, de manière simultanée, et coordonnée, sur ces deux fronts technologiques essentiels, complémentaires et indissociables, si elle veut encore exister demain, comme puissance économique, mais aussi politique et militaire…
René TRÉGOUËT
Sénateur honoraire
Fondateur du Groupe de Prospective du Sénat
e-mail : tregouet@gmail.com
|
|
|
|
|
|
|
|
TIC |
|
|
Information et Communication
|
|
|
|
|
|
|
|
|
Il y avait déjà les écrans portatifs virtuels intégrés dans des lunettes, pour pouvoir visionner partout des vidéos ou documents numériques. Mais voilà qu'une startup israélienne, Noveto, vient d'inventer les écouteurs virtuels, qui fonctionnent...sans écouteurs. Cette innovation, baptisée Noveto N1, a fait sensation lors du récent Consumer Electronic Show de Las Vegas.
Le Noveto N1 fonctionne en envoyant des ondes ultrasonores directement autour du système auditif de l’utilisateur. Les autres personnes dans la pièce ne perçoivent qu’un murmure… Deux poches de son se créent autour des oreilles permettant de reproduire l’expérience sonore d’un casque ou d’écouteurs. Le français Christophe Ramstein est le créateur de cette nouveauté et PDG de Noveto.
Le Noveto N1 qui ressemble à une barre de son, doit être capable de percevoir les oreilles de ses utilisateurs pour donner une direction à ses ondes ultrasonores. C’est pourquoi ses créateurs ont fait appel à l’intelligence artificielle pour le munir de capteurs de reconnaissance faciale. Grâce à ce dispositif, le Noveto N1 peut suivre le mouvement de la tête pour adapter automatiquement la direction des faisceaux ultrasonores. Pas besoin donc de rester immobile comme une statue pour ne pas perdre le fil de la musique…
Selon Noveto, l’appareil peut monter jusqu’à 85 décibels. Au-delà d’un mètre de distance autour de l’utilisateur, le volume sonore diminue de 90 %. Il peut se connecter à d’autres appareils via Wifi, Bluetooth, clé USB ou une prise jack de 3,5 mm, s’adaptant donc à presque tous les moyens d’écoute de musique actuels. Cette invention résulte d’une levée de fonds de 10 millions de dollars. Selon le média américain dlmag, le Noveto N1 sera disponible à partir de mars 2022 pour un prix situé à 800 dollars.
Article rédigé par Georges Simmonds pour RT Flash
Gear News
|
|
^ Haut |
|
|
|
|
|
|
|
Avenir |
|
|
Nanotechnologies et Robotique
|
|
|
|
|
|
|
|
|
Une équipe d’ingénieurs de la prestigieuse université américaine de Stanford a créé des pinces robotiques pouvant être fixées à des drones, transformant ces derniers en oiseaux robots capables de saisir des objets ou de se percher sur diverses surfaces. Ces nouvelles capacités pourraient permettre aux robots volants d’économiser leurs batteries au lieu de devoir faire du surplace, par exemple lors d’opérations de recherches de survivants, ou aider les biologistes à prélever plus aisément des échantillons en forêt.
Comme souvent en robotique, ce projet s’est inspiré de comportements animaliers pour s’affranchir de difficultés techniques. Mais imiter les oiseaux, à qui des millions d’années d’évolution permettent de s’agripper à des branches de différentes tailles ou formes, parfois couvertes de lichen ou rendues glissantes par la pluie, n’est pas tâche aisée. A cette fin, l’équipe de Stanford a étudié, grâce à des caméras haute vitesse, la façon dont de petits perroquets atterrissaient sur des perches variant en taille et en matériau : bois, mousse, papier de verre et téflon. Les perches étaient aussi équipées de capteurs enregistrant la force avec laquelle les oiseaux se posaient et redécollaient.
Article rédigé par Georges Simmonds pour RT Flash
Stanford
|
|
^ Haut |
|
|
|
|
|
|
|
Matière |
|
|
Matière et Energie
|
|
|
|
|
|
|
|
|
Installée en Espagne, H2site est une entreprise née de la collaboration entre l’Université de technologie d’Eindhoven et le centre de recherche et de technologie Tecnalia. A travers son laboratoire Engie Lab Crigen, Engie a noué un partenariat de coopération en R&D avec les 2 établissements. L’entreprise française soutient également H2Site via un investissement stratégique réalisé par sa société de capital-risque Engie New Ventures. Globalement, la mission de H2Site est de développer la production d'hydrogène renouvelable et local bon marché à destination de l’industrie et de la mobilité. Il faut en effet rappeler que le coût actuel de production de l'hydrogène est encore d'au moins 10 euros le kg, et ce coût doit tomber à 2 euros le kg, pour que l'hydrogène devienne réellement compétitif face aux énergies fossiles.
« Pour produire localement de l’hydrogène, nous nous appuyons sur 2 solutions. Tout d’abord exploiter des produits dans lesquels sont stockées naturellement des molécules d’hydrogène. Ainsi avec l’acide formique, le méthanol, l’ammoniac, etc. Ou profiter d’un point de consommation du réseau de transport du gaz naturel », présente Andreas Galnares. « Dans tous les cas, c’est un réacteur à membrane qui va permettre la production en local de l’hydrogène. Cette membrane agit comme un filtre nanométrique ou nanomoléculaire. Elle exerce une attraction importante sur les molécules d’hydrogène. Dès que l’une d’elles arrive, la membrane l’absorbe. Nous obtenons ainsi un niveau de pureté de 99,99 % », assure-t-il.
« Pour que les produits gazeux rencontrent la membrane, il faut un minimum de pression. Avec 20 bars en entrée, par exemple, l’hydrogène ressort à pression atmosphérique. Il est possible de présenter sans problème dans notre réacteur un gaz à 80 bars », expose Andreas Galnares. « La température de fonctionnement varie dans une plage de 250 à 500°C selon le produit en entrée du système. Elle peut être obtenue de façon électrique, par un brûleur, ou en récupérant de la chaleur fatale d’un process industriel. La température idéale est par exemple de 250°C pour le méthanol, de 300°C pour l’Ammoniac, etc. », poursuit-il.
« Prenons l’exemple de l’ammoniac comme produit contenant de l’hydrogène. Ce fluide peut être transporté à pression atmosphérique et à une température ambiante. En utilisant notre réacteur à membrane, nous obtenons de l’hydrogène à la pureté nécessaire pour les piles à combustible avec un rendement de 97,5 %. Ce serait pareil avec du méthanol ou du DME », schématise-t-il. « En transportant ainsi l’hydrogène dans des produits divers, nous divisons par 2 ou 3 le coût final pour les petits et moyens consommateurs, comparativement à un transport qui demande une mise sous pression de l’hydrogène à 700 bars ou une conservation à l’état liquide à -253°C », met-il en perspective. C’est dans ce cas qu’il faut casser in situ les molécules, en employant la chaleur, comme nous venons de le voir plus haut.
« Bien sûr, l’idéal serait d’avoir à disposition un réseau dédié au transport de l’hydrogène. Ce n’est pas pour tout de suite. En revanche, selon les chiffres de l’Agence internationale de l’énergie, nous pouvons déjà compter sur les 3 millions de kilomètres du réseau de gaz naturel », chiffre Andreas Galnares. « Dans ce cas, nous pouvons installer notre système qui prend la place dans un conteneur de 20 pieds au niveau du point de raccordement. Là, c’est encore plus facile, car il n’y a pas de molécule à casser. Il suffit juste de mettre en contact avec la membrane le gaz qui sort du réseau », compare-t-il.
Article rédigé par Georges Simmonds pour RT Flash
H2
|
|
|
|
|
|
|
|
Lancé en juillet 2020 et porté par Ocean Wind (une joint-venture 50/50 entre ENGIE et l’énergéticien portugais EDPR), à travers le consortium Windplus qui rassemble également Repsol et Principle Power, le projet Windfloat Atlantic est le résultat de plusieurs années d’intenses recherches. Ancrées à une vingtaine de kilomètres au large de Viana do Castelo, au nord du Portugal, les trois éoliennes ont livré leurs premiers résultats après une année entière d’exploitation.
Les objectifs ont été atteints et même dépassés : avec 75 GWh produits, le parc a couvert la consommation électrique annuelle de 25 000 ménages et a permis d’éviter l’émission de 33 000 tonnes de CO2. Les plates-formes de Windfloat Atlantic accueillent les turbines les plus puissantes du monde sur des fondations flottantes : des Vestas V164 de 8,4 MW, qui culminent à une hauteur de 190 mètres. Avec une puissance installée totale de 25,2 MW, le parc flottant a produit 75 000 MWh pendant sa première année d’exploitation. Ce niveau de production représente un taux de charge de 34 %, légèrement inférieur à la moyenne européenne (38 % pour l’éolien offshore, et 24,7 % pour l’onshore). Mais ce résultat est toutefois supérieur aux anticipations.
L’objectif du projet Windfloat Atlantic était de développer une technologie innovante permettant d’exploiter les vents en mer, là où la profondeur des fonds marins est supérieure à 40 mètres. La plate-forme mise au point par le consortium Windplus est l’héritière des acquis technologiques développés pour les plates-formes gazières ou pétrolières. Elle doit pouvoir soutenir le poids d’une éolienne de plusieurs mégawatts en toutes conditions climatiques.
Les flotteurs sont semi-submersibles grâce à un système hydraulique intégré sous l’éolienne, pour gagner à la fois en stabilité et en prise du vent. Ils sont ancrés par des chaînes aux fonds marins à 100 mètres de profondeur. La stabilité est assurée par des cavités logées à la base des trois piliers. Chacune d’entre elles est équipée d’un mécanisme de ballast statique et dynamique, qui absorbe ou rejette l’eau de mer pour annihiler instantanément le phénomène de roulis.
La plate-forme Windfloat Atlantic s’adapte à tout modèle d’éolienne offshore. Elle est entièrement assemblée à quai, de même que la turbine. L’éolien flottant présente donc un double avantage : il ne nécessite pas d’installer des fondations ou d’avoir recours à des navires spécialisés comme l’éolien posé, et il facilite les grosses réparations ou le démantèlement des machines. Les opérations d’assemblage de l’éolienne sont réalisées au port, directement sur la plate-forme flottante. Celle-ci est ensuite remorquée sur site pour être ancrée et connectée au câble haute tension qui est posé dans une tranchée souterraine pour transporter l’électricité vers la côte. Au-delà d’une profondeur de 60 mètres, l’éolien flottant offre un potentiel d’exploitation gigantesque, en Méditerranée et dans l’Atlantique notamment.
Article rédigé par Georges Simmonds pour RT Flash
4CO
|
|
|
|
|
|
|
|
Détourner les points mémoire d'un circuit de leur fonction première pour y stocker de l'énergie plutôt que de l'information, c'est le pari osé de chercheurs du CEA-Leti. Pari osé, mais réussi ! Leurs travaux montrent en effet que les mémoires RRAM (Resistives RAM) pouvaient être utilisées pour stocker de l'énergie dans les plans mémoire, avec des capacités de densité d'énergie et de puissance comparables à celles des supercapacités.
Le principe de fonctionnement des mémoires RRAM repose sur un contraste de résistivité d'un matériau naturellement isolant : l'information y est codée en mode binaire grâce à deux états différents (résistance haute ou basse). Pour créer l'état résistif élevé, un filament est créé entre deux plaques de métal par une réaction électrochimique réversible par l'apport d'énergie. L'état résistif bas est obtenu par la réaction inverse, qui, elle, peut restituer de l'énergie.
Les chercheurs du Leti ont pour la première fois montré que de l'énergie pouvait être stockée dans des mémoires industrielles en créant ce filament de manière incomplète, et qu'elle pouvait être récupérée en le déconstruisant afin d'utiliser la mémoire comme unité de stockage d'énergie. Ils ont également montré qu'à volume égal, il est possible de stocker dans les points mémoire autant d'énergie que dans des supercapacités. Le stockage d'énergie dans la mémoire, et donc à proximité du processeur, permettrait de réduire considérablement la consommation d'énergie des circuits et ouvre l'opportunité d'une double utilisation de la mémoire, partagée entre stockage d'énergie et d'information.
Article rédigé par Georges Simmonds pour RT Flash
CEA
|
|
^ Haut |
|
|
|
|
|
|
|
Vivant |
|
|
Santé, Médecine et Sciences du Vivant
|
|
|
|
|
|
|
|
|
Le raisin est un fruit, riche en fibres, minéraux et vitamines, et il renferme de multiples vertus. D’après l’Agence pour la recherche et l'information sur les fruits et légumes, une consommation régulière de raisins réduirait les risques de développer des maladies chroniques, certains types de cancers et des pathologies cardiovasculaires. Des chercheurs de l'Université de Californie à Los Angeles (UCLA), aux États-Unis, ont dévoilé un autre bienfait du raisin. Ils ont révélé que ce fruit est bénéfique pour le microbiome intestinal et pour le métabolisme du cholestérol.
Pour mener à bien ces travaux, les scientifiques ont demandé aux participants de boire l’équivalent de 1,5 tasse de raisin par jour pendant quatre semaines. Ils ont constaté que les polyphénols, présents dans ce fruit, ont permis de faire baisser le taux sanguin de cholestérol des participants.
D’après les résultats, le cholestérol total aurait diminué de 6,1 % et le cholestérol LDL, aussi appelé « mauvais cholestérol », a diminué de 5,9 %. Les chercheurs ont également observé une baisse de 40,9 % des acides biliaires, qui sont synthétisés par le foie à partir du cholestérol. « La consommation de raisin a modifié de manière significative le microbiome intestinal et le métabolisme du cholestérol et des acides biliaires », ont conclu les auteurs de l’étude.
Une autre étude réalisée par des chercheurs de l’université de l’Académie chinoise des sciences de Shanghai a montré qu'une substance contenue dans les pépins de raisin, la procyanidine C1 (PCC1), est bénéfique à la lutte directe contre le vieillissement cellulaire. Selon ces recherches, la PCC1 a redonné force et vitalité à des souris âgées, et a prolongé de 9 % leur durée de vie, notamment en contribuant à l’élimination des cellules endommagées. Ce traitement, outre ses effets sénolytiques, semble également réduire la taille des tumeurs lorsqu’il est utilisé parallèlement à la chimiothérapie.
Article rédigé par Georges Simmonds pour RT Flash
MDPI
Nature
|
|
|
|
|
|
|
|
La maladie d’Alzheimer résulte d’une lente dégénérescence des neurones, débutant au niveau de l’hippocampe (une structure cérébrale essentielle pour la mémoire) puis s’étendant au reste du cerveau. Il s’agit de la première cause de démence chez les personnes âgées : d’après l’Organisation mondiale de la santé (OMS), sur les 50 millions de personnes atteintes de démence, Alzheimer serait responsable dans 60 à 70 % des cas.
Il est communément admis que cette maladie neurodégénérative serait due à une cascade presque inéluctable d’événements dans le cerveau : des dépôts de protéines amyloïdes formant des plaques qui sont elles-mêmes à l’origine de lésions cérébrales menant à une augmentation de protéines tau phosphorylées (c’est-à-dire avec un groupement phosphate ajouté à leur structure moléculaire initiale), qui contribuent à la dégradation de la structure des neurones en initiant un processus de dégénérescence neurofibrillaire à l’intérieur de ceux-ci.
Cette théorie, formulée pour la première fois en 1992 par J. A. Hardy et G. A. Higgins, s’appelle l’hypothèse amyloïde. C’est sur elle que s’est basée la conception du premier médicament curatif contre la maladie d’Alzheimer, Aduhelm, approuvé par la Food and Drug Administration (FDA) et mis sur le marché aux États-Unis en juin 2021. Sciences et Avenir l’expliquait dans un article sur les avancées médicamenteuses concernant la maladie d’Alzheimer, Aduhelm vise à « dissoudre les agrégats de protéines bêta-amyloïdes, et ainsi à empêcher qu’ils ne s’accumulent au point de former les fameuses plaques séniles ».
Or, comme l’explique Giovanni Frisoni, professeur à la Faculté de médecine de l’Université de Genève (UNIGE) et directeur du Centre de la mémoire des Hôpitaux universitaires de Genève (HUG), « si l’on considère la maladie d’Alzheimer comme une cascade séquentielle d’événements biologiques, (ce médicament) aurait dû se montrer beaucoup plus efficace ». En effet, un « arrêt de la production de bêta-amyloïde par un médicament devrait logiquement interrompre la perte neuronale et donc la perte de mémoire, ce qui n’a pas été massivement observé ». C’est pourquoi son équipe et lui-même ont entamé des travaux en collaboration avec des chercheurs et médecins dans toute l’Europe, notamment l’Inserm en France, pour proposer un autre modèle de la maladie d’Alzheimer.
Le Professeur Frisoni et ses collègues proposent un modèle de la maladie d’Alzheimer qui remet en cause la place de l’hypothèse amyloïde comme unique origine de la dégénérescence neuronale observée chez les patients. Pour eux, il ne faudrait pas voir Alzheimer comme une maladie unique, mais comme trois types de maladies avec des dynamiques spécifiques, « selon leurs facteurs de risques, les caractéristiques de leur maladie et leur devenir », détaille Daniele Altomare, chercheur de l’équipe du Professeur Frisoni.
Pour l’un des types d’Alzheimer, dit "autosomique dominant", l’hypothèse de l'inéluctable cascade amyloïde est vérifiée : chez ces patients, la présence d’une rare mutation génétique héréditaire est déterminante d’un déclin cognitif précoce observé entre 30 et 50 ans. Selon les chercheurs, cette forme de maladie représenterait moins de 1 % des cas d’Alzheimer.
Une autre forme de la maladie, « concernant la vaste majorité des cas », est un Alzheimer "sporadique", avec un déclin cognitif se déclarant plus tard dans la vie des patients. Il y a ici deux catégories d’Alzheimer à distinguer selon la présence ou non d’une variation génétique (au niveau de l’allèle e4 sur le gène APOE). Cette mutation constitue "un facteur de risque important", puisque « deux personnes porteuses sur trois développeront, plus ou moins tardivement, les symptômes de la maladie d’Alzheimer ».
En revanche, dans le troisième cas, à savoir les patients avec Alzheimer sporadique mais sans mutation génétique associée, le processus de développement de la maladie et ses manifestations cliniques sont moins aisément prévisibles : chez ces patients, la cascade amyloïde classique est influencée par différents facteurs essentiellement stochastiques, autrement dit relevant au moins partiellement du hasard. Ce type d’Alzheimer représente "environ 30 à 40 % des cas". D’autres facteurs de risque (non génétiques) jouent ici un rôle important, par exemple des facteurs environnementaux.
Les chercheurs insistent sur l’importance de prendre en compte ces trois types différents de maladie d’Alzheimer, car chacun n’a pas les mêmes conséquences sur le cerveau et la vie des patients. Par exemple, chez les individus souffrant d’un Alzheimer autosomique dominant, le risque de développer de la démence au cours de la vie est proche de 100 %. Ce risque est légèrement plus faible pour les malades porteurs de la mutation APOE-e4, chez qui il concerne entre 22 et 95 % des sujets. En revanche, très peu de patients Alzheimer sans mutation génétique associée sont à risque de développer de la démence : le chiffre tombe à entre 7 et 35 % dans ces cas-là.
Daniele Altomare conclut que leur « cadre d’interprétation a montré que la maladie d’Alzheimer est plus complexe qu’il n’y paraît ». Selon le Professeur Frisoni, ce « modèle probabiliste suggère ainsi de considérer l’ensemble des facteurs de risque génétiques et environnementaux », puisque « le déficit cognitif se développe lorsque leur poids surmonte la résilience du cerveau, elle-même déterminée par des facteurs protecteurs d’origine génétique et environnementale ».
Article rédigé par Georges Simmonds pour RT Flash
Nature Reviews Neuroscience
|
|
|
|
|
|
|
|
Des travaux associant l'Institut Curie et des chercheurs australiens du Peter MacCallum Cancer Centre de l’Université de Melbourne ont permis de découvrir une nouvelle molécule, l’ironomycine, qui permet d’induire la mort des cellules cancéreuses dans les leucémies myéloïdes aigües grâce à un mécanisme de mort cellulaire inédit.
L’apoptose est une modalité bien connue de mort cellulaire. Cependant, la cellule cancéreuse développe des résistances à l’apoptose. Le ciblage de nouvelles voies de mort cellulaire est une stratégie prometteuse pour traiter les cancers résistants aux traitements conventionnels. « Nous avons synthétisé une petite molécule nommée ironomycine qui induit une accumulation de fer dans les lysosomes provoquant une mort cellulaire alternative dans certaines formes agressives de cancers solides », explique Raphaël Rodriguez, directeur de recherche CNRS, chef du laboratoire Chimie et biologie du cancer à l’Institut Curie.
Lors d’une collaboration avec Sylvain Garciaz et l’équipe de Mark Dawson au Peter MacCallum Cancer Centre à Melbourne, l’ironomycine a été testée dans des formes de cancers du sang particulièrement agressifs, les leucémies aigües myéloïdes. Les résultats d’analyses génomiques utilisant la technologie CRISPR Cas-9 ont mis en avant que l’ironomycine induit un arrêt brutal de la respiration cellulaire en diminuant la quantité de fer dans la mitochondrie.
La mitochondrie est une organelle qui permet la génération d’énergie essentielle pour la survie de la cellule cancéreuse.
C’est aussi le centre de contrôle de nombreuses voies de mort cellulaire. Or, les atomes de fer sont au cœur de ces deux processus. En bloquant le fer dans le lysosome (organite cellulaire située dans le cytoplasme, contenant des enzymes qui dégradent la plupart des macromolécules biologiques), la molécule empêche l’utilisation du fer mitochondrial pour la respiration et induit un signal de mort qui implique deux protéines nommées BAX et BAK. « Dans le cas de l’ironomycine, la mort cellulaire est indépendante des régulateurs de l’apoptose classique. Cette nouvelle molécule induit un type nouveau de mort cellulaire dépendante du fer. C’est une découverte majeure pour envisager de nouvelles stratégies thérapeutique » précise Raphaël Rodriguez.
De nouvelles thérapeutiques ciblant la protéine BCL-2, impliquée dans l’apoptose classique, ont modifié le paradigme de traitement des leucémies aigües des patients non éligibles pour la chimiothérapie. Le venetoclax (Abbvie) est le chef de file de cette nouvelle classe de médicaments. Or l’ironomycine est particulièrement efficace en association avec le venetoclax dans un modèle murin de leucémie aigüe et dans le traitement de leucémies résistantes au venetoclax. Ces travaux sont particulièrement prometteurs et pourraient permettre de traiter ces pathologies cancéreuses au pronostic encore sombre.
Article rédigé par Georges Simmonds pour RT Flash
Institut Curie
|
|
|
|
|
|
|
|
Dans certains vaccins, les antigènes utilisés ne sont pas assez immunogènes -- c'est-à-dire pas assez stimulants pour le système immunitaire -- pour induire une réaction suffisamment forte et durable pour être protectrice. On ajoute alors des adjuvants, des molécules chimiques ou biologiques, qui exacerbent la réaction immunitaire. Mais certains de ces adjuvants, comme les sels d'aluminiums, sont soupçonnés, bien qu'il n'existe pas de consensus scientifique à ce sujet, de pouvoir entraîner, pour certaines personnes, des effets secondaires néfastes pour la santé.
Des chercheurs des laboratoires de l'Institut d'immunologie de La Jolla en Californie et au Massachusetts Institute of Technology (MIT) ont mis au point un adjuvant d'un nouveau type, baptisé SNMP, qui combine deux molécules : des saponines et le MPLA, une molécule qui active le TLR 4, un récepteur présent à la surface des cellules qui détecte les microbes étrangers.
Les saponines et la MPLA se combinent pour former des nanoparticules qui induisent une production intense d'anticorps et une activation des centres germinatifs, les usines à lymphocytes B de notre organisme. Cet adjuvant a donné des résultats prometteurs lorsqu'il a été injecté à des souris dont le système immunitaire est défaillant à cause de la présence du VIH. S'il confirme son potentiel, ce nouvel adjuvant pourrait améliorer l'efficacité des vaccins anti-Covid-19 et de tous les autres.
Article rédigé par Georges Simmonds pour RT Flash
Science Immunology
|
|
|
|
|
|
|
|
Des chercheurs japonais de l'Université privée de Keiō (Tokyo) ont réussi à transplanter des cellules souches humaines sur un patient, en vue de traiter une lésion subaiguë de la moelle épinière, une première mondiale pour cette technique régénérative appliquée à cette pathologie paralysante.
Il s'agit de cellules neurales et progénitrices dérivées de cellules souches pluripotentes induites (CSPi). Les cellules CSPi sont obtenues à partir de cellules adultes et sont reprogrammées de manière génétique pour se multiplier en n'importe quel genre cellulaire, selon le lieu du corps où elles sont ensuite transplantées. Cette technologie avait valu en 2012 le prix Nobel de médecine au chercheur japonais Shinya Yamanaka.
En décembre dernier à Tokyo, les chercheurs de Keio ont transplanté 2 millions de ce type de cellules sur un premier patient : une quantité pour laquelle la sûreté avait déjà été vérifiée sur des essais précliniques menés sur de petits animaux. C'est pourquoi, bien qu'il soit possible qu'une efficacité thérapeutique soit observée, l'objectif primaire de cette étude clinique est avant tout de confirmer la sûreté de cette méthode de traitement, expliquent les chercheurs. L'objectif secondaire est de vérifier si cette méthode entraîne à terme des progrès au niveau des fonctions neurologiques et de la qualité de vie des patients.
Un panel indépendant d'experts va à présent évaluer les données du premier patient pour vérifier si l'essai clinique, qui doit être mené sur quatre patients au total, pourra reprendre autour du mois d'avril, est-il encore précisé.
L'Université Keio avait reçu l'autorisation des autorités japonaises en 2019 pour cet essai pionnier, mais le recrutement avait été retardé l'année suivante à cause de la pandémie de COVID-19.
Les informations sur le premier patient ont été maintenues confidentielles, mais l'équipe médicale se concentre sur des personnes dont les lésions de la moelle épinière sont très récentes, de 14 à 28 jours avant l'intervention chirurgicale. D'autres essais cliniques utilisant ce type de cellules CSPi ont déjà été lancés sur diverses pathologies, comme la maladie de Parkinson et la dégénérescence maculaire liée à l'âge (DMLA), une maladie oculaire.
Article rédigé par Georges Simmonds pour RT Flash
Japan Today
|
|
|
|
|
|
|
|
Seuls 20 % des patients sont réceptifs à l’immunothérapie. Ce traitement prometteur contre le cancer, qui vise à donner plus de puissance aux cellules immunitaires du corps humain, appelées cellules T, pour qu’elles combattent et détruisent les tumeurs. Les scientifiques cherchent par tous les moyens à développer de nouvelles thérapies qui puissent être combinées à l’immunothérapie afin de soigner davantage de patients. « Notre but est toujours le même : augmenter le pourcentage de patients réceptifs à l’immunothérapie. Une des raisons qui explique ce faible taux de réponse est que la maladie se montre complexe. Nous devons développer différentes approches qui, nous l’espérons, pourront se combiner entre elles », déclare Li Tang, professeur et directeur du laboratoire de biomatériaux pour l’immuno-ingénierie à la faculté des sciences et techniques de l’ingénieur de l’EPFL.
Li Tang vient d’élaborer une toute nouvelle approche basée sur la mécanique pour lutter contre le cancer. Sa recherche s’avère prometteuse puisqu’elle augmente de manière significative l’efficacité de l’immunothérapie. Kewen Lei et Armand Kurum, deux doctorants du laboratoire de Li Tang, ont remarqué que la paroi des cellules cancéreuses se révèle plus molle que celle de cellules saines. « Personne ne possède d’explication à ce phénomène. Certains scientifiques supposent que cela favorise la création de métastases, mais aucun test n’a encore pu le prouver », indique Kewen Lei.
Une chose est certaine, cette souplesse s’avère un mécanisme de défense pour les cellules cancéreuses. Quand une cellule T s’accroche à une cellule cancéreuse afin de la détruire, sa mollesse induit en erreur la première, qui passe son chemin sans effectuer sa mission. « Il s’agit d’une technique de camouflage imparable. Lorsqu’une cellule T tue une cellule cancéreuse, elle recourt à sa force. Si la membrane de la cellule cancéreuse se trouve molle, il y a moins de résistance et cela devient plus difficile à la briser », ajoute Armand Kurum.
Les chercheurs ne se sont pas arrêtés à cette constatation. Ils ont également identifié le responsable de cette mollesse : le cholestérol, présent dans l’enveloppe cellulaire des cellules cancéreuses. Ils ont alors mis au point un moyen de rendre les cellules cancéreuses plus rigides et plus facilement reconnaissables par les cellules T. Pour cela, ils ont eu recours à un médicament contre le cholestérol couramment utilisé et l’ont combiné à une immunothérapie.
Kewen Lei, Armand Kurum et Li Tang ont ensuite testé leur nouveau cocktail de médicaments sur des souris et procédé à des expériences comparatives. « En prodiguant seulement l’immunothérapie, à terme, aucun animal ne survit au cancer. Si l’on donne uniquement le remède contre le cholestérol, nous obtenons le même résultat. Cependant, en combinant les deux composants, immunothérapie+remède contre le cholestérol, 50 % des souris guérissent du cancer », relève Li Tang.
Article rédigé par Georges Simmonds pour RT Flash
Nature
|
|
|
|
|
|
|
|
Des chercheurs de la prestigieuse Ecole de Santé TH Chan de l'Université d'Harvard viennent de réaliser une découverte majeure dans la compréhension de la sclérose en plaques, qui affecte 2,8 millions de personnes dans le monde. Selon ces scientifiques, le virus d’Epstein-Barr pourrait jouer un rôle-clé dans le déclenchement de cette grave affection neurologique.
Ce virus d’Epstein-Barr (EBV), est très commun et infecte 95 % des adultes. Il est notamment responsable de la mononucléose. Cette étude, conduite par le Professeur Alberto Ascherio, montre que ce virus est nécessaire au développement de la sclérose en plaques, même si, heureusement, toutes les personnes infectées par le virus ne développent pas cette maladie. Il y a longtemps que les biologistes soupçonnaient l'implication, dans le déclenchement de cette maladie, de ce virus très répandu. Mais cette hypothèse était très difficile à démontrer, car les symptômes de cette pathologie n'apparaissent qu'une dizaine d'années après l’infection. Selon le Professeur Ascherio, « Il s’agit de la première étude fournissant une preuve convaincante de causalité, et suggérant que la plupart des cas de sclérose en plaques pourraient être empêchés en stoppant l’infection au virus d’Epstein-Barr ».
Les chercheurs ont suivi durant vingt ans plus de 10 millions de jeunes adultes engagés dans l’armée américaine, dont 955 ont été diagnostiqués atteints de sclérose en plaques durant leur service. Selon ces travaux, le risque de contracter la sclérose en plaques était multiplié par 32 après avoir été infecté par le virus d’Epstein-Barr, mais restait inchangé après l’infection par d’autres virus. Toujours selon cette étude, il est très probable que d’autres facteurs, génétiques et environnementaux, jouent également un rôle dans l'apparition de cette maladie qui reste incurable pour l'instant.
Rappelons que la sclérose en plaques est une maladie auto-immune du système nerveux central (cerveau et moelle épinière), qui provoque un dérèglement du système immunitaire, et s’attaque à la myéline, la gaine servant à protéger les fibres nerveuses. Evoluant par «poussées», cette maladie est l’une des principales causes fréquentes de handicap chez les jeunes adultes. Le laboratoire américain Moderna a annoncé récemment avoir démarré les essais cliniques de phase 1 sur des humains d’un vaccin contre le virus d’Epstein-Barr. Cette étude randomisée, en double aveugle, se déroulera sur environ 15 sites aux États-Unis et impliquera environ 272 adultes en bonne santé âgés de 18 à 30 ans.
Article rédigé par Georges Simmonds pour RT Flash
Harvard
|
|
|
|
|
|
|
|
Des chirurgiens américains ont réussi à greffer sur un patient un cœur issu d'un porc génétiquement modifié, une première mondiale, a annoncé le 10 janvier 2022 l'école de médecine de l'Université du Maryland. « Cette intervention a permis de montrer pour la première fois qu'un cœur d'animal pouvait continuer à fonctionner à l'intérieur d'un humain sans rejet immédiat », souligne les chercheurs.
David Bennett, 57 ans, qui a reçu le cœur porcin, avait été déclaré inadmissible à une greffe humaine. Il est désormais étroitement suivi par les médecins pour s'assurer que le nouvel organe fonctionne correctement. C'était soit la mort, soit cette greffe. Je veux vivre. Je sais que c'est assez hasardeux, mais c'était ma dernière option, a déclaré ce résident du Maryland un jour avant son opération, selon l'école de médecine. J'ai hâte de pouvoir sortir de mon lit une fois que je serai rétabli, a poursuivi M. Bennett, qui a passé les derniers mois alité et branché à une machine qui le maintenait en vie.
L'Agence américaine des médicaments (FDA) a donné son feu vert à l'opération le soir du réveillon du Nouvel An. C'est une avancée chirurgicale majeure qui nous rapproche encore un peu plus d'une solution à la pénurie d'organes, a commenté Bartley Griffith, qui a réalisé la transplantation. « Nous procédons avec précaution, mais nous sommes optimistes quant au fait que cette première mondiale permettra de fournir une nouvelle option essentielle aux patients dans l'avenir ».
Le porc dont provient le cœur greffé a été génétiquement modifié pour ne plus produire un type de sucre qui est présent normalement dans toutes les cellules des porcs et qui provoque un rejet immédiat de l'organe. Cette modification génétique a été effectuée par l'entreprise Revivicor, qui avait aussi fourni un rein de porc que des chirurgiens avaient relié avec succès aux vaisseaux sanguins d'un patient en état de mort cérébrale à New York en octobre.
Article rédigé par Georges Simmonds pour RT Flash
University of Maryland
|
|
|
|
|
|
|
|
Des chercheurs de l’Université de Harvard et de l’école médicale de Harvard ont mis au point une encre vivante pour l’impression 3D à base de colibacille (Escherichia coli), la bactérie notamment impliquée dans les gastro-entérites ou infections urinaires. Les usages de cette invention sont nombreux et très prometteurs.
Cette « encre microbienne » à l’aspect gélatineux possède des propriétés très intéressantes. Pour répondre à de nombreux défis posés par l’impression 3D actuelle, l’encre est composée « entièrement de cellules microbiennes génétiquement modifiées, programmées pour réaliser un auto-assemblage ascendant et hiérarchique de monomères protéiques en nanofibres, puis en réseaux de nanofibres qui comprennent des hydrogels extrudables ». Les travaux ont commencé par la bio-ingénierie des bactéries afin qu’elles produisent des nanofibres vivantes ; les chercheurs ont ensuite mélangé le résultat avec des ingrédients supplémentaires pour rendre le gel utilisable dans une imprimante 3D personnalisée.
Selon les chercheurs, leur encre vivante est capable de « séquestrer des fragments toxiques, libérer des produits biologiques et réguler sa propre croissance cellulaire » par l'induction chimique de circuits génétiques. Les scientifiques ont réalisé plusieurs essais en ayant recours à la bio-ingénierie d'autres microbes pour produire des types de fibres différents ou des matériaux vivants puis les ont ajoutés à l’encre. Ils ont ainsi obtenu des résultats surprenants : l’un d’entre eux était en effet capable de libérer un médicament anticancéreux tandis qu’un autre piégeait le bisphénol A (une substance chimique de synthèse très polluante) sans l'aide d'autres produits chimiques.
En utilisant les bactéries adaptées, l’encre pourrait donc se régénérer et se reproduire elle-même.
Si cela est très utile dans les domaines médical et technologique, ça l’est tout autant, si ce n’est voire plus, dans le secteur de la construction, et notamment extra-terrestre. Pour construire des structures sur la Lune ou sur Mars, il faudrait en effet amener les matériaux nécessaires, mais avec cette solution, le matériau serait en mesure de se développer lui-même.
Article rédigé par Georges Simmonds pour RT Flash
Phys.org
|
|
^ Haut |
|
|
|
|
|
VOTRE INSCRIPTION |
|
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
|
|
|
|
|
|