RTFlash

RTFlash a besoin de vous pour continuer à exister !

Propulsé par HelloAsso

RTFLASH Recherche & Technologie
NUMERO 1021
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 18 Octobre 2019
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
Amazon teste le paiement biométrique par reconnaissance de la main
Un nouveau médicament créé en six semaines grâce à une IA…
Avenir
Des messages secrets stockés sur des molécules
Un robot filiforme capable de se glisser dans les vaisseaux sanguins du cerveau
Vivant
Bio-imprimer des tissus humains en quelques secondes…
Des médicaments à structure évolutive grâce à l'outil CRISPR
Une manipulation génétique des cellules cancéreuses du côlon pour renforcer les effets de la chimiothérapie
Une avancée fondamentale dans la lutte contre les métastases
Cancer du poumon : un nouveau mécanisme de développement des tumeurs identifié
La stimulation cérébrale profonde ravive les souvenirs de patients Alzheimer
Cancer du pancréas : des organoïdes pour faciliter le choix du traitement
Détecter dès l'enfance un gène de susceptibilité à la maladie d'Alzheimer
Vers un gel capable de réparer l'émail dentaire
Un mini-cerveau artificiel présente les mêmes caractéristiques qu’un cerveau de bébé
La stimulation cérébrale profonde confirme son efficacité à long terme sur la dépression
Homme
Une vaste étude génétique éclaircit l’origine des langues indo-européennes
Edito
Pourquoi la France n’affiche-t-elle pas de plus grandes ambitions dans le domaine crucial de la transition énergétique ?



Avant propos :

Comme chaque semaine, jusqu'à la fin de l'année, je vous dis où en est notre campagne de dons. Au moment où je finis la rédaction de cet édito (Mercredi soir) nous sommes à 10.399 euros, soit 1.490 euros de plus en une semaine. Nous sommes encore assez loin du seuil minimum (15.000 €) mais j'ai confiance. Je remercie bien sincèrement les 143 personnes qui ont déjà fait un don, don souvent accompagné d'un mot très sympathique.

Si vous voulez aider RT Flash, Lettre d'Informations Scientifiques, gratuite et sans publicité depuis 1998,

appuyez sur le lien suivant: Faites un DON pour sauver RT Flash, vous bénéficierez d'une réduction fiscale

Editorial :

Cette semaine, je reviens sur un sujet capital, celui de la transition énergétique mondiale, condition absolument nécessaire pour lutter contre le réchauffement climatique en cours, essentiellement provoqué par les activités humaines et l’augmentation considérables des émissions de CO2 depuis un demi-siècle. Je vous demande à l’avance de me pardonner pour la longueur exceptionnelle de cet éditorial, mais l’importance de cette question pour notre avenir mérite bien, je crois, un long développement.

Fin 2018, l’Agence internationale de l’énergie (AIE) a publié une étude prospective sur les perspectives énergétiques mondiales qui mérite d’être méditée. On peut notamment y lire que, compte tenu de l’augmentation attendue de la population mondiale (1,5 milliard d’habitants supplémentaires dans les 20 ans qui viennent) et d’une urbanisation croissante qui dépassera les 80 % de la population totale de la Terre, la demande mondiale d’énergie pourrait passer de 14 Gteps en 2019 à 18 Gteps d’ici 20 ans, soit une hausse d’environ 28 %. Quant aux besoins en électricité, ils devraient progresser encore plus rapidement : au moins + 38 % d’ici 2040 selon le scénario central de l’AIE. La consommation électrique mondiale représenterait alors un quart de la demande totale d’énergie (34 500 TWh), contre 19 % (25 000 Twh) en 2019.

Cette hausse des besoins d’électricité pose un triple défi : maîtriser l’augmentation de la production électrique mondiale en décentralisant massivement la production d’énergie, ce qui permet de réduire sensiblement les pertes entre électricité produite et électricité consommée, décarboner massivement cette production électrique, par un mix énergétique essentiellement composé de l’éolien, du solaire, des énergies marines et de l’hydrogène, et enfin repenser et restructurer nos réseaux d’énergie en "smart grids" de façon à ce qu’ils puissent lisser et stocker sous différentes formes les quantités massives d’électricité excédentaire inhérentes aux énergies renouvelables .

Dans les différents scénarii de prospective énergétique, la part des renouvelables dans le mix énergétique mondial passerait de 25 % actuellement (grâce surtout à l’hydroélectricité) à 40 %, voire 50 % en 2040. Le solaire et l’éolien connaîtraient la plus forte croissance, grâce notamment à l’amélioration continue des rendements et la poursuite de la baisse des coûts. Dans le solaire, où les prix ont quasiment été divisés par dix en dix ans, ils reculeraient encore de 40 % d’ici à 2040. Cette hausse se ferait principalement au détriment du charbon qui ne représenterait plus que 15 à 25 % de la production d’électricité en 2040, contre 40 % aujourd’hui,

Comme le rappelle avec force L’AIE, si nous restons sur le rythme actuel insuffisamment rapide de réduction de la part des énergies fossiles dans le bouquet énergétique mondial,  les émissions de CO2 risquent d’augmenter de 10 % d’ici 20 ans, alors que dans le scénario le plus vertueux de l'AIE (reposant à la fois sur une maîtrise de notre consommation d'énergie et une très forte diminution de l'utilisation des énergies fossiles), ces émissions seraient presque réduites de moitié, ce qui limiterait à deux degrés vers 2100 l’ampleur du réchauffement climatique…

L'AIE envisage notamment une variante volontariste de ses scénarios, intitulée « Pour un futur électrique », dans laquelle la consommation finale d’énergie serait « électrifiée » à 31% (au lieu de 25 % dans le scénario de référence). Dans ce scénario, la part totale des énergies propres (éolien, solaire, énergies marines et biomasse) passerait de 25 % en 2017 à 41 % en 2040, pour une part du nucléaire qui resterait constante à environ 10 % du mix énergétique mondial.

Cette forte montée en puissance de l’électricité serait notamment générée par un développement plus rapide que prévu des véhicules « tout électrique », dont le parc mondial atteindrait 950 millions d’unités en 2040, au lieu de 350 millions dans son scénario de référence. Notons que cette électrification accélérée du parc automobile mondial devient de plus en plus probable : une étude publiée il y a quelques semaines par le cabinet AlixPartners prévoit que les batteries, qui représentent aujourd'hui un tiers de la valeur ajoutée des véhicules électriques, devraient voir leur coût tomber sous la barre de 100 dollars du kilowattheure, ce qui abaissera le coût de fabrication des voitures électriques, à performances comparables, au même niveau que celui des voitures thermiques.

Cette électrification massive de la production d'énergie, mais aussi des transports, permettrait en outre, dans la perspective de réseaux de distribution « double flux » d’utiliser l'ensemble de ces véhicules électriques pour stocker et, si besoin, restituer au réseau en différé l'électricité non immédiatement consommée.

Dans son étude annuelle New Energy Outlook 2019 (NEO), Bloomberg confirme pour sa part que la forte baisse des coûts de la technologie éolienne, solaire et des moyens de stockage massifs permettra, en dépit d’une forte hausse de la demande mondiale d’électricité, de produire pratiquement la moitié de l’électricité mondiale à partir des énergies propres en 2050. Selon cette étude, la part du charbon dans le mix énergétique mondial passerait de 37 % aujourd’hui à 12 % d’ici 2050, tandis que celle du pétrole régresserait très fortement. L’éolien et le solaire passeraient de 7 % de la production actuelle à 48 % d’ici 2050. Les parts respectives de l’hydroélectricité, du gaz naturel et du nucléaire demeureraient à peu près stables en pourcentage.

Cette étude souligne que « Les systèmes de productions photovoltaïques, les éoliennes et les batteries lithium-ion vont continuer à afficher un rythme de réduction des coûts de 28 %, 14 % et 18 % respectivement pour chaque doublement de la capacité mondiale installée. Il en résultera que, d’ici 2030, le prix de l’énergie produite, stockée et distribuée par ces trois technologies sera inférieure à l’électricité produite par les centrales au charbon et au gaz existantes presque partout dans le monde.

Toujours selon Bloomberg New Energy Finance, d’ici 2040, 7 400 milliards de dollars pourraient être investis dans de nouvelles centrales d’énergie renouvelable, soit 72 % des 10 200 milliards de dollars d’investissements prévus au niveau mondial dans les nouveaux équipements de production d’énergie. A cet horizon, solaire et éolien pourraient représenter environ la moitié des capacités installées mondiales, et 34 % de la production d’électricité, contre 12 % et 5 % actuellement.

Notons que le coût moyen de production du KWh par les énergies renouvelables se rapproche déjà de celui des énergies fossiles : il est, pour les toutes dernières grosses installations, de l’ordre de 3 cts pour le photovoltaïque, 5 cts pour l’éolien terrestre, 15 centimes pour l’éolien marin et 17 centimes pour les dernières centrales solaires thermodynamiques avec système de stockage de chaleur intégré, à comparer aux 7 cts du KWh en moyenne pour l’électricité issue du gaz et du charbon…

Actuellement, la production électrosolaire mondiale est de l’ordre de 600 TWh et celle de l’éolien atteint les 11 00 TWh. Ces deux sources d’énergies renouvelables, qui ne représentaient encore que 0,5 % de la production électrique mondiale il y a 20 ans, en représentent maintenant environ 6,5 %, une progression tout à fait remarquable, qui ne fait que s’accélérer depuis plusieurs années et devrait encore croître au cours des prochaines décennies, tirée à la fois par une baisse des coûts de production, bien plus rapide que prévue, mais également par des ruptures technologiques en cours sur lesquelles nous allons revenir.

En matière d’éolien, plusieurs avancées techniques majeures sont en train de bouleverser le secteur : d'abord, l’arrivée d’une nouvelle génération de machines géantes – rendue possible par l’emploi de nouveaux matériaux – capables de produire dix fois plus d’énergie que les meilleures éoliennes du début de ce siècle. Autres ruptures majeures, la maîtrise des éoliennes flottantes de grande taille qui permet d’implanter des machines beaucoup plus au large et de bénéficier de vents plus forts et plus réguliers. Enfin, soulignons également l’arrivée de logiciels de modélisation d’une extrême précision qui permettent, en utilisant les progrès en matière de prévisions météorologiques, de prévoir et d'anticiper de manière très fiable les fluctuations de production d’énergie.

Le projet britannique marin "Dogger Bank", qui sera achevé en 2025, a bénéficié de l’ensemble de ces innovations. Ce gigantesque parc marin, qui représente un investissement de 10,2 milliards d’euros, comptera 630 éoliennes hautes de 200 mètres et sera situé en mer du nord, à 130 kilomètres à l’est des côtes du Yorkshire. Ce parc, avec 9000 MW de puissance installée, sera le plus grand du monde et pourra produire 5 % de l'électricité consommée outre-Manche et alimenter 4,5 millions de foyers. Il produira donc, à lui seul, plus que l’ensemble de l’éolien français et presque trois plus que les sept futurs parcs éoliens marins prévus en France à l’horizon 2025-2030 (environ 3600 MW de puissance installée au total).

Soulignons également que si la France construisait trois parcs éoliens marins de l’envergure de Dogger Park, elle pourrait ramener, d’ici une vingtaine d’années, la part du nucléaire de 72 à 50 % dans sa production électrique et rééquilibrer ainsi son mix énergétique.

Ce projet hors-norme consacre l'avance britannique dans l'éolien marin et confirme également que ce gigantisme permet d’atteindre à présent une efficience énergétique qui rend l’électricité éolienne plus compétitive que celle issue de n’importe quelle énergie fossile, surtout si l’on prend en compte dans le calcul des coûts l’ensemble du cycle de vie, y compris bien sûr les très faibles émissions de CO2 et l’impact environnemental très réduit. Pour Dogger Bank, la taille et la puissance de l’installation ont permis d’atteindre un prix de rachat de l’énergie jamais vu : seulement 4,5 centimes du KWH, soit un prix équivalent à celui de l’éolien terrestre et légèrement inférieur à celui de l’électricité issue du gaz, du charbon, mais aussi du nucléaire (de 5 à 11 centimes le KWh, selon l'ancienneté de la centrale).

Surpassant encore l’éolien, l’énergie appelée à jouer un rôle majeur dans le mix énergétique mondial est l’énergie solaire, sous ses différentes formes – photovoltaïque et thermique). Et dans ce domaine également, plusieurs révolutions technologiques sont en cours. On peut d’abord évoquer la montée en puissance des cellules hybrides, conçues pour produire simultanément chaleur et électricité. Cette technologie est à présent bien maîtrisée et, en dépit de son coût un peu supérieur à celui des panneaux classiques (soit thermiques soit photovoltaïques), elle peut s’avérer rentable à long terme dans les zones bien ensoleillées, d’autant plus qu’elle autorise le couplage avec une chaudière à bois ou une pompe à chaleur. On estime qu’une surface de 6 à 10 m2 de panneaux solaires hybrides peut permettre de couvrir environ la moitié des besoins en eau chaude d’une habitation comportant 4 personnes.

S’agissant du solaire photovoltaïque, on sait depuis une cinquantaine d’années que l’efficacité d’une cellule solaire de ce type ne peut pas dépasser 33,7 %. Déjà, certaines cellules de laboratoire atteignent un rendement de 27 %, et pour les cellules dites « multi-jonctions », on arrive même à 42 %. Il y a quelques semaines, une nouvelle performance a été atteinte en matière d’énergie solaire destinée au grand public. Les modules de la start-up suisse Insolight ont enregistré un rendement de 29 %, selon les résultats validés par un laboratoire indépendant, l’Institut d’énergie solaire de l’Université polytechnique de Madrid (IES-UPM).

Par comparaison, les panneaux en silicium cristallin que l’on retrouve sur les toits tournent en moyenne à 15 % de rendement. Pour atteindre un tel rendement, Insolight a conçu des panneaux solaires qui reprennent la technologie des cellules photovoltaïques multi-jonctions à très haut rendement utilisées dans le domaine spatial. Les scientifiques s’accordent sur le fait que l’on devrait voir arriver sur le marché d’ici 5 ans des cellules photovoltaïques compétitives affichant un rendement de l’ordre de 30 %, le double de celles que l’on trouve aujourd’hui dans les installations au sol ou sur nos toits. Cela signifie que, pour une même surface, on pourra produire d’ici 5 ans deux fois plus d’électricité en moyenne.

Mais une autre révolution technologique dont on ne mesure pas encore l’ampleur est en marche dans les pays du sud, celle des centrales mixtes-photovoltaïque-thermodynamique, qui permettent de produire mais aussi de stocker sur place des quantités considérables d’énergie qui pourront ainsi être restituées et utilisées plus tard, en fonction de la demande. La Maroc a par exemple entrepris la réalisation d’un projet hors norme, unique au monde, sur le plateau de la Haute Moulouya. Ce projet, d’un coût total de 1,6 milliard d’euros, a été baptisé  « Noor Midelt » et combine  600 MW de solaire à concentration thermique et 1 000 MW de photovoltaïque, soit une puissance installée totale de 1 600 MW qui pourra répondre à terme aux besoins en électricité de 2,5 millions de Marocains. La première phase de ce projet hors-norme a été lancée en 2018 : elle prévoit la construction de 825 MW de puissance solaire, répartie entre 300 MW de CSP et 525 MW de photovoltaïque. Le CSP assurera une capacité de stockage de l’ordre de 5 heures, ce qui veut dire que cette centrale continuera de fonctionner 5 heures après le coucher du soleil en stockant l’excédent d’électricité sous forme de sels fondus.

En Afrique du Sud, une autre centrale à concentration du même type a été mise en service en mars dernier dans le désert du Kalahari. Le « Kathu Solar Park couvre environ 4,5 km², et dispose d’une puissance installée de 900 MW, avec 384 000 miroirs cylindro-paraboliques. Cette centrale dispose également d’une capacité de stockage d’environ 5 heures, ce qui lui permet de continuer à produire de l’électricité la nuit ou par mauvais temps (rare dans cet endroit très désertique). Elle va répondre aux besoins en électricité de 200 000 foyers et pourra éviter l’émission de six millions de tonnes de CO2 d’ici 2040.

Dans les pays émergents, presque tous situés dans des régions de fort ensoleillement, cette technologie solaire thermodynamique à concentration est promise à un grand avenir, bien qu’elle soit pour l’instant plus onéreuse à développer, car elle présente l’avantage décisif de pouvoir stocker une partie de l’électricité excédentaire produite, ce qui compense sur le long terme le différentiel de coût de production énergétique.

En outre, il y a quelques semaines, une équipe de recherche franco-espagnole (CNRS et Institut de l’Energie Solaire de Madrid) a annoncé une avancée majeure en matière de stockage thermique à ultra-haute température, un domaine de recherche en pleine effervescence. Ces chercheurs ont en effet mis au point une technique de stockage par silicium fondu qui permet de stocker jusqu’à deux fois plus d’énergie, pour un même volume de stockage, qu’une batterie lithium-ion. Si le démonstrateur industriel utilisant cette nouvelle technologie confirme, en 2024, les performances annoncées, la filière solaire à concentration pourrait connaître un essor encore plus rapide.

Si l’éolien et le solaire de nouvelle génération vont devenir les principales sources d’énergie pour l’Humanité (en attendant, il faut le souhaiter, la maîtrise industrielle de la fusion thermonucléaire contrôlée vers 2050), les énergies marines, trop longtemps délaissées, sont également appelées à jouer un rôle considérable dans l’approvisionnement énergétique mondial, car leur potentiel exploitable est gigantesque, même si les difficultés techniques à surmonter restent importantes.

Dans ce domaine, il faut signaler qu’aux énergies marines « classiques » (énergie des marées, des vagues, des courants marins et des différences thermiques entre surface et fond de l’océan), une nouvelle source d’énergie très prometteuse se profile : l’énergie osmotique à grande échelle. Cette forme d’énergie est connue depuis longtemps et elle exploite un niveau concentration différent entre deux liquides, séparés par une membrane semi-perméable, pour produire du mouvement et de l’électricité. Ce type d'installation peut être réalisé partout où l’on trouve deux sources d'eau ayant des concentrations en sel différentes, à commencer par les embouchures des fleuves.

Bien que le rendement énergétique de cette technique reste, avec les technologies disponibles, assez modeste (environ 0,75 kWh d'énergie par m3 d'eau à pression constante), il permettrait tout de même, en exploitant seulement un dixième des eaux se jetant dans les océans, à l'échelle de la Planète, de produire environ 1700 TWH, soit 5 % de l’électricité qui sera consommée dans le monde en 2040 et répondre ainsi de manière durable aux besoins en électricité de 520 millions de personnes. En outre, de récentes recherches menées par l’EPFL ont montré que l’utilisation de nanomembranes constituées de Disulfure de molybdène, un matériau abondant dans la nature, permettrait d’augmenter de manière considérable l’efficacité énergétique de ce processus d’osmose.

Reste la question capitale du stockage et de la régulation de la production électrique massive qui sera issue des énergies renouvelables. Mais, outre les différents systèmes de stockage par batterie liquides et solides qui ont fait des progrès considérables depuis 10 ans, il existe deux moyens qui, associés, peuvent permettre de stocker de manière rentable des quantités massives d’électricité excédentaire. Le premier est le "Power to Gas". Cette technique, à présent bien maîtrisée, consiste à utiliser de l’électricité pour transformer de l’eau en hydrogène. L’hydrogène peut ensuite être combiné par un processus de méthanisation à du dioxyde de carbone (CO2) pour obtenir du méthane de synthèse. L’hydrogène et le méthane de synthèse une fois produits peuvent être injectés dans le réseau de gaz. On estime que, d’ici 2040, il serait possible de stoker ainsi entre 5 et 10 % de la production électrique mondiale.

L’autre moyen est plus conventionnel ; il s’agit des Step, stations de transfert d'énergie par pompage. Composée de deux bassins séparés par un dénivelé, la Step actionne une pompe qui puise dans le bassin inférieur lorsqu'elle dispose d'un surplus d'énergie. Quand la demande augmente, l'eau du bassin supérieur est relâchée vers le bassin inférieur et alimente une turbine qui produit de l'électricité. De l'énergie disponible en quelques minutes, avec un très bon rendement (entre 70 % et 85 %), et dont le coût d'installation est 20 fois moins élevé que les batteries lithium-ion.

Des chercheurs de l'Université nationale australienne (ANU) viennent de publier un atlas en ligne de tous les sites potentiels capables de recevoir des Step. Leurs estimations se basent sur un algorithme capable de les identifier en fonction de l'altitude, du climat, de la topographie, du volume du réservoir d'eau requis, ou encore de la taille du barrage à construire. Ils ont ensuite calculé le stockage possible pour chacun. Au total, 530.000 sites ont été trouvés totalisant 22.000 TWh, ce qui représente 90 % de la production électrique mondiale annuelle (voir Energy Review). Leur capacité de stockage s'étend de 2 à 150 GWh mais, selon Matthew Stocks qui a dirigé le projet, « à peine 1 % des meilleurs 530.000 sites suffirait à couvrir une production à 100 % d'énergies renouvelables ».

Mais on peut légitimement se poser la question de savoir s’il est bien réaliste d’imaginer une production mondiale d’électricité qui serait assurée dès 2040 pour 55 % par le solaire et l’éolien (contre 7 % aujourd’hui), ce qui permettrait de ramener la part des énergies fossiles (charbon et gaz) de 62 % à 20 % (en faisant l’hypothèse d’une part du nucléaire et de l’hydraulique à peu près constante, respectivement, 10 et 15 %, et d’un développement des énergies marines jusqu’à 5 % de la production électrique mondiale ).

Pour tenter de répondre à cette question, nous avons effectué, ma petite équipe et moi-même, des calculs visant à évaluer combien il faudrait installer d’éoliennes et de km2 de panneaux solaires pour produire les 18 920 TWH (55 % de la consommation électrique mondiale prévue en 2040) par l’éolien et le solaire de nouvelle génération.

Le scénario retenu table sur 35 % de l’électricité mondiale (12 040 TWh) fournie par le solaire et 25 % (8 600 TWh) par l’éolien. Nous avons volontairement fondé nos estimations sur des données réalistes en retenant comme base de calcul la productivité énergétique moyenne des nouvelles éoliennes marines géantes de type Haliade X et des panneaux solaires déjà expérimentés en laboratoire, qui seront disponibles d’ici 5 ans et permettront un rendement de conversion de 30 %. Nous avons enfin majoré nos estimations de puissance nécessaire de 30 %, pour tenir compte des inévitables déperditions d’énergie entre les sites de production et le consommateur final.

Le résultat de nos calculs est plutôt surprenant et montre à quel point les énergies éoliennes et solaires sont à présent entrées dans l'ère de l'efficience industrielle et de la rentabilité économique : dans notre scénario, il suffirait d'environ 60 000 km2 d’installations solaires et de 190 000 éoliennes marines de type Haliade X (ces installations devant bien entendu être couplées aux moyens massifs de stockage et de régulation de l'énergie que j'ai évoqués), pour assurer 55 % de la production électrique mondiale prévue en 2040. Quant aux émissions de CO2 évités, elles diminueraient de moitié au niveau de la production électrique, passant de 16 à 8 gigatonnes (pratiquement l’équivalent des émissions actuelles réunies des Etats-Unis et de l‘Union européenne) et cela, en dépit d’une probable augmentation globale de la production électrique mondiale de près de 40 % d'ici 20 ans.

Globalement, si cette politique volontariste de développement mondial des énergies propres se combinait avec le scénario « développement durable de l’AIE, qui intègre également une réduction à la source des besoins énergétiques, et une amélioration de l’efficacité énergétique dans tous les secteurs : bâtiment, transports et agriculture, il serait possible de réduire les émissions humaines de gaz à effet de serre de 17,6 gigatonnes par an d’ici 2040, soit une réduction d’un tiers par rapport au niveau actuel (54 gigatonnes de GES par an). Dans une telle hypothèse, volontariste mais réaliste, le scénario du monde économe (EWS) de l’AIE prévoit une stabilisation à son niveau actuel notre consommation d’énergie finale, malgré un doublement du produit mondial brut d’ici à 2040.

Cette transition énergétique mondiale radicale est d’autant plus souhaitable qu’elle permettrait non seulement de réduire sensiblement les effets catastrophiques du changement climatique, mais également d’améliorer considérablement la qualité de l’air, ce qui aurait des effets bénéfiques majeurs sur la santé de centaines de millions de personnes. Faut-il en effet rappeler qu’une vaste étude allemande publiée en mars dernier dans le Journal de Santé européenne a révélé que la pollution de l’air tuait chaque année 8,8 millions de personnes par an dans le monde (soit un décès sur six), ce qui est deux fois plus que ce qui était admis jusqu’à présent (Voir European Heart Journal).

Les effets de cette transition énergétique mondiale accélérée seraient également très positifs en matière d’emplois, puisque, selon l’OMT, une telle transition de grande ampleur entraînerait une création nette de 18 millions d’emplois d’ici 2030, qui viendraient s’ajouter aux 11 millions déjà existant dans ce secteur des énergies propres.

Je le dis avec force : il est dommage, pour ne pas dire incompréhensible, que la France, qui dispose à la fois d’une situation géoclimatique exceptionnelle et d’un immense domaine maritime (11 millions de km2), n’affiche pas des ambitions beaucoup plus grandes dans ce domaine crucial de la transition énergétique vers une économie décarbonée et des énergies propres et renouvelables. Nous avons pourtant tout à y gagner sur le plan économique, social, technologique et sanitaire…Face aux attentes de plus en plus pressantes de nos concitoyens en matière de lutte contre le changement climatique, mais également pour un environnement plus sain et moins pollué, notamment dans le domaine des transports, c’est maintenant qu’il faut passer à la vitesse supérieure, si nous ne voulons pas être redevables de notre inaction devant nos descendants et face à l’histoire…

Nous avons vingt ans, pas plus, pour repenser complètement l’organisation de nos sociétés et de nos économies de manière à diminuer de moitié nos besoins finaux en énergie, à doubler l’efficacité énergétique dans tous les secteurs d’activité et produire les trois-quarts de notre énergie à partir de sources renouvelables. C’est à ce prix que nous parviendrons, non seulement à maintenir dans des limites supportables pour notre espèce les effets du changement climatique, mais également à améliorer de manière décisive la santé et la qualité de vie au niveau mondial et à relancer sur des bases écologiquement durables, le développement économique et technique mondial dont le monde a besoin pour sortir définitivement, au cours de ce siècle, tous les hommes de la misère et leur offrir enfin un avenir digne et porteur d’espoir.

René TRÉGOUËT

Sénateur honoraire

Fondateur du Groupe de Prospective du Sénat

e-mail : tregouet@gmail.com


TIC
Information et Communication
Amazon teste le paiement biométrique par reconnaissance de la main
Mercredi, 16/10/2019 - 15:00

Amazon vient de lancer une nouvelle expérimentation de paiement biométrique par reconnaissance de la main menée auprès de ses employés à New York. Un dispositif qui serait opérationnel dès 2020 dans certains magasins de l’enseigne Whole Foods.

Le système, baptisé Orville, aurait, selon le site américain, vocation à être déployé dans les magasins Whole Foods dès le début de l’année prochaine. L’enseigne spécialisée dans les produits bio, rachetée par le géant de l’e-commerce en 2017, constituerait un excellent terrain de jeu pour un déploiement à grande échelle avec ses plus de 450 points de vente aux Etats-Unis.

Pour le moment, ce système de paiement biométrique est expérimenté auprès de certains employés Amazon pour des produits vendus dans des distributeurs automatiques. Les collaborateurs de New York peuvent ainsi procéder à des petits achats (snacks, boissons mais aussi chargeurs de smartphones).

Ce n’est pas au travers d’un smartphone doté de capteurs identifiant l’empreinte digitale que le paiement s’effectue, mais via un système basé sur la reconnaissance d'image qui identifie la forme et la taille de la main de l’utilisateur. Numérisée, elle est associée au compte Amazon Prime du consommateur, lui-même associé à ses données bancaires.

La technologie de vision par ordinateur est-elle installée sur le distributeur, sur le téléphone, ou sur une borne de scan indépendante ? L’article ne le précise pas mais affirme que le dispositif permettrait de réduire la durée d’un paiement de 4 secondes à 0,3 seconde. Amazon, qui s’est refusé à tout commentaire, éprouve une fois de plus une technologie propriétaire en béta privé avant de la mettre sur le marché, sans en dévoiler les détails.

Article rédigé par Georges Simmonds pour RT Flash

L'Usine Digitale

Un nouveau médicament créé en six semaines grâce à une IA…
Mercredi, 16/10/2019 - 09:40

La startup Insilico Medicine vient de réaliser un petit exploit. En collaboration avec des chercheurs de l’Université de Toronto, les équipes ont travaillé dans le but de créer un médicament grâce à l’intelligence artificielle. Par le biais d’une approche basée sur 2 techniques d’IA : les réseaux antagonistes génératifs (GAN) et l’apprentissage par renforcement (RL), il ne leur aura fallu que 46 jours pour développer un « médicament ».

Pour les équipes d’Insilico Medicine, la première étape aura été de créer 30 000 modèles de molécules avec leurs systèmes d’intelligence artificielle. Cela n’aura pris que 21 jours… L’objectif de cette première action : cibler une protéine liée à la fibrose. Ensuite les chercheurs ont synthétisé 6 de ces molécules en laboratoire, puis en ont testé 2 dans des cellules souches. Enfin, la plus prometteuse a été testée sur des souris. Ce processus n’aura pris que 46 jours.

Pour réussir à travailler aussi vite, le système imaginé par les experts analyse les recherches et les brevets antérieurs. Cette action lui permet d’assimiler des connaissances de manière très rapide. À partir de cette base, il pourra donc déterminer les molécules adéquates pour la suite des recherches. Le système d’intelligence artificielle permet même de classer les molécules en mettant en avant celles qui pourraient être synthétisées en laboratoire. Le schéma est sensiblement le même que celui effectué par les humains, mais beaucoup plus rapide.

L’intelligence artificielle pourrait donc faire des miracles dans ce domaine. Parmi les entreprises pionnières dans la santé et l’IA : DeepMind. L’objectif principal est d’accélérer le processus. Par exemple, au début du mois d’août, la société dévoilait une IA capable de prévenir 48h à l’avance une crise d’insuffisance rénale aiguë. Une réelle prouesse quand on sait que ce phénomène tue près de 82 000 personnes par an en France.

Concrètement, la mise sur le marché d’un nouveau médicament est particulièrement coûteuse. Autre particularité de ce processus, il prend beaucoup de temps. La startup précise que cela peut prendre jusqu’à 10 années et coûter 2,6 milliards de dollars (2,37 milliards d’euros). Les chercheurs passent souvent de très nombreuses années à trouver la bonne formule, c’est pour cela que les budgets s’alourdissent. La startup précise qu’i faudra encore quelques années avant que ses médicaments puissent être mis en vente.

Article rédigé par Georges Simmonds pour RT Flash

BioSpace

^ Haut
Avenir
Nanotechnologies et Robotique
Des messages secrets stockés sur des molécules
Mercredi, 16/10/2019 - 09:29

En utilisant les propriétés de polymères photosensibles qui permettent la modification lumineuse d'informations stockées à l'échelle moléculaire, le chercheur Niklas Felix König et ses collègues de l'Institut Charles Sadron et de l'Institut de chimie radicalaire ont réussi à écrire un message secret stocké sur une molécule.

Ils ont, dans un premier temps, montré que certains polymères peuvent agir comme une encre invisible. Ainsi, lorsqu’ils sont exposés à une certaine longueur d'onde, leurs monomères se transforment et la séquence devient lisible.

L’équipe française a aussi montré, dans un deuxième temps, que la modification des monomères par la lumière peut servir à effacer ou modifier l'information contenue dans certains polymères. Grâce à cette technique, il est donc possible de révéler un message, de le modifier et de l’effacer.

La nouvelle technique de transcription est inspirée de l'ADN, cette longue séquence chimique sur laquelle l'information génétique est entreposée. Plusieurs équipes de recherche explorent depuis quelques années les manières de stocker puis de décoder des informations dans des polymères, des macromolécules synthétiques.

Dans ces travaux, la lecture des polymères se fait par spectrométrie de masse, une technologie déjà employée de manière routinière dans de nombreux laboratoires d'analyse.

Les auteurs de la présente étude veulent maintenant poursuivre leurs travaux en explorant davantage le contrôle des propriétés physiques de polymères par la lumière. Cette avenue de recherche pourrait servir à d'autres applications que le stockage et le décodage d'information telles que la conception de nouveaux matériaux.

Article rédigé par Georges Simmonds pour RT Flash

Radio Canada

Un robot filiforme capable de se glisser dans les vaisseaux sanguins du cerveau
Mardi, 15/10/2019 - 06:34

Des chercheurs du MIT ont développé un type de robot filiforme, destiné à traiter les accidents vasculaires cérébraux ou les anévrismes. Les scientifiques parlent d’un « fil robotique à revêtement hydrogel, dirigeable magnétiquement ». À la fois souple et élastique, ce robot ne produit évidement aucun frottement, ce qui lui permet de se glisser dans nos vaisseaux sanguins.

Aujourd’hui, une telle opération est éprouvante pour un chirurgien. Éliminer un caillot sanguin nécessite d’enfiler un cathéter dans le vaisseau endommagé et l’utilisation d’un fluoroscope pour visualiser les vaisseaux sanguins aux rayons X. Les médecins sont exposés à des radiations dangereuses provenant du fluoroscope et les patients courent un léger risque avec cette technique. Avec l’arrivée de la chirurgie cérébrale robotisée à distance, ces problèmes pourraient bien appartenir au passé.

Pour Kyujin Cho, professeur de génie mécanique à l’Université nationale de Séoul, « l’un des défis de la chirurgie moderne est de pouvoir naviguer à travers des vaisseaux sanguins compliqués dans le cerveau. Ils ont un diamètre minuscule et les cathéters classiques ne peuvent y pénétrer. La découverte du MIT montre que nous pouvons surmonter ce défi et qu’une opération du cerveau pourra bientôt être réalisée sans chirurgie ouverte. »

Article rédigé par Georges Simmonds pour RT Flash

Science Robotics

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Bio-imprimer des tissus humains en quelques secondes…
Jeudi, 17/10/2019 - 08:01

L’ingénierie tissulaire consiste à fabriquer des tissus et organes artificiels, dans le but de créer et tester de nouveaux médicaments, réparer des tissus endommagés et même implanter des organes entiers dans le corps humain. Jusqu’ici, les méthodes de fabrication ont montré de nombreuses limites en termes de géométrie et de viabilité des cellules.

A l’EPFL, des chercheurs du Laboratoire de dispositifs photoniques appliqués (LAPD), en collaboration avec l’Université d’Utrecht, ont mis au point une méthode optique pour sculpter des formes complexes dans un hydrogel biocompatible doté de cellules souches. Le tout en quelques secondes. L’objet sculpté peut ensuite être vascularisé en ajoutant des cellules endothéliales. Cette technique à haute résolution fait l’objet d’une publication dans Advanced Materials. Elle offre aux spécialistes de l’ingénierie cellulaire une plate-forme novatrice, pour la fabrication de la prochaine génération d’organes bioimprimés fonctionnels personnalisés.

La technique de bio-impression des chercheurs - volumetric bioprinting (VBP) - consiste à envoyer un laser sur un tube d’hydrogel en rotation, rempli de cellules souches. Selon la forme souhaitée, l’énergie de la lumière s’accumule à des endroits spécifiques, permettant de solidifier la matière à des endroits précis. En quelques secondes, une forme 3D à la géométrie complexe apparaît en suspension dans le gel. Les cellules souches contenues dans l’hydrogel supportent très bien ce processus. Il est ensuite possible de vasculariser la structure, lorsqu’on les met en contact avec des cellules endothéliales.

Les chercheurs ont démontré qu’ils pouvaient construire des objets de plusieurs centimètres, soit d’une taille cliniquement utile. Une valve semblable à une valve cardiaque, un ménisque et un bout de fémur à la topographie complexe ont déjà été fabriqués, de même que des structures imbriquées les unes dans les autres.

« Au contraire des méthodes de bio-impression traditionnelles, qui procèdent lentement et couche par couche, notre technique rapide offre plus de liberté en matière de design, tout en maintenant la viabilité des cellules », note Damien Loterie, chercheur au LAPD et co-auteur de l’étude.

La méthode des chercheurs représente un changement de paradigme. « Comme les caractéristiques des tissus humains dépendent largement de leur structure extracellulaire très sophistiquée, la possibilité de reproduire cette complexité est prometteuse pour de véritables applications cliniques », souligne Paul Delrot, co-auteur de cette étude.

Cette nouvelle technique permettrait donc de produire des tissus ou organes artificiels identiques en série à une vitesse sans précédent. Cette reproductibilité est indispensable pour tester de nouveaux médicaments in vitro. Enfin, elle a le potentiel de réduire le besoin des tests sur animaux, ce qui représente une diminution des coûts et des questions éthiques.

« Ce n’est que le début. Nous pensons que notre plate-forme devrait permettre la fabrication d’une large palette de modèles de tissus cellulaires à haute cadence, de dispositifs médicaux et d’implants personnalisés », explique Christophe Moser, directeur du LAPD à la faculté des Sciences et Techniques de l’Ingénieur.

Article rédigé par Georges Simmonds pour RT Flash

EPFL

Des médicaments à structure évolutive grâce à l'outil CRISPR
Jeudi, 17/10/2019 - 07:56

Des chercheurs du Massachusetts Institute of Technology (MIT) ont utilisé l'outil CRISPR pour modifier génétiquement des polymères. Ces scientifiques sont convaincus que les substances médicamenteuses pourraient être plus efficaces et changer de forme par la même occasion.

Ces chercheurs du MIT ont découvert que l’éditeur de gènes CRISPR pouvait avoir des propriétés surprenantes. Concrètement, les nouvelles pistes explorées semblent montrer que CRISPR permet la modification des propriétés de matériaux appelés polymères. D’un point de vue chimique, les polymères sont des macromolécules : des molécules constituées de la répétition de nombreuses sous-unités d’atomes ou de groupes d’atomes. Cela signifierait que les polymères pourraient être plus efficaces et adopter une autre forme.

De plus, CRISPR pourrait couper dans l’ADN à l’aide d’une enzyme (protéine dotée de propriétés catalytiques). Il se trouve que toutes les biomolécules capables de catalyser des réactions chimiques dans les cellules sont des enzymes. Dans ce cas précis, les scientifiques se sont intéressés à l’enzyme Cas12a.

C’est cette dernière qui a été utilisée pour réaliser la coupe. Quand l’enzyme va couper dans l’ADN, son action doit permettre la création ou la surpression de nouvelles séquences génétiques. Comme le disait le chimiste Antoine Lavoisier : « rien ne se perd, rien ne se crée, tout se transforme ». C’est précisément ce qu’il se passe avec cette nouvelle technique : les matériaux composés d’hydrogels peuvent changer de forme.

Les chercheurs du MIT sont persuadés que cette nouvelle approche pourrait révolutionner les traitements du cancer par exemple. En changeant la forme des médicaments, des remèdes anticancéreux ou antibiotiques pourraient être administrés plus facilement dans l’organisme.

D’après James Collins, professeur au Département de génie chimique et biologique au MIT et co-auteur des recherches : « cette étude est un bon point de départ pour montrer comment CRISPR peut être utilisé en science des matériaux pour une large gamme d’applications ».

L’avenir des éditeurs de gènes est prometteur. Récemment, une équipe de scientifiques du Salk Institute for Biological Studies dévoilait une nouvelle approche. Dénommée SATI, pour Single homology Arm donor mediated intro-Targeting Integration, cette technique s’appuie sur HITI, une variante de CRISPR.

Article rédigé par Georges Simmonds pour RT Flash

MIT

Une manipulation génétique des cellules cancéreuses du côlon pour renforcer les effets de la chimiothérapie
Mercredi, 16/10/2019 - 14:50

Une étude américaine réalisée par des chercheurs de la Mayo Clinic (Rochester, Minnesota) a montré que l'augmentation de l'expression de la protéine PD-L1 dans les cellules impliquées dans le cancer colorectal pouvait améliorer l'efficacité de la chimiothérapie.

« Ces résultats, s'ils sont vérifiés par des recherches ultérieures, suggèrent que le taux de protéine PD-L1 contenue dans les cellules tumorales pourrait jouer un rôle important dans la sensibilité aux médicaments et suggèrent que l'augmentation de l’expression de la protéine PD-L1 pourrait constituer une stratégie potentielle permettant d'améliorer les résultats du traitement de cette tumeur » indique Frank Sinicrope, oncologue médical et gastroentérologue au sein de la Mayo Clinic. Il est le principal auteur de l’étude.

Rappelons que cette protéine PD-L1 est une protéine de point de contrôle immunitaire qui interagit avec une autre protéine, la PD-1, pour affecter négativement les fonctions cellulaires et permettre aux cellules tumorales d'échapper au système immunitaire du corps. Les recherches ont démontré qu’une interruption de l'interaction entre ces protéines PD-L1/PD-1 pouvait améliorer les attaques contre l'immunité antitumorale.

« Nous avons cherché à déterminer la pertinence de nos résultats pour la protéine PD-L1 chez les patients atteints de cancer colorectal », explique le Docteur Sinicrope. « Pour ce faire, nous avons utilisé la base de données du Cancer Genome Atlas de l’Institut national du cancer pour examiner l'association entre l’expression de la protéine PD-L1 avec la survie des patients atteints de cancer du côlon ».

L'étude a révélé qu'une expression accrue de la protéine PD-L1 dans les cellules tumorales s'accompagnait d'une meilleure chance de survie chez les patients considérés comme ayant déjà été traités par chimiothérapie, ce qui correspond aux soins standard pour les patients atteints de cancers de stades 3 et 4.

« Cela suggère un rôle plus large de la protéine PD-L1, en tant que biomarqueur prédictif possible de la façon dont les patients réagiront au traitement du cancer, bien que des recherches plus approfondies soient nécessaires pour traiter cette question », déclare-t-il.

« Les traitements actuels qui ciblent la protéine PD-L1 portent essentiellement sur le blocage ou la perturbation de son fonctionnement dans les cellules tumorales » déclare de son côté Haidong Dong, immunologue tumoral de la Mayo Clinic et co-auteur de l’étude.

« Cette étude suggère que l'amélioration de l'expression de la protéine PD-L1 dans les cellules tumorales pourrait renforcer l’efficacité de la chimiothérapie, au moins dans le cadre du cancer du côlon. Il s'agit d’une découverte qui sort totalement des sentiers battus. Si elle est validée lors des essais cliniques, elle apportera plus d'avantages aux patients atteints d'un cancer du côlon résistant à la chimiothérapie actuelle ».

Article rédigé par Georges Simmonds pour RT Flash

News Medical

Une avancée fondamentale dans la lutte contre les métastases
Mercredi, 16/10/2019 - 10:58

Des chercheurs de l'Institut Paul Scherrer (Villigen-Suisse) ont identifié la structure d'un récepteur qui joue un rôle essentiel dans la migration des cellules cancéreuses d’un foyer d’origine vers un site secondaire. Le chercheur Steffen Brünle et ses collègues spécialisés en biologie structurale estiment que leurs travaux pourraient éventuellement mener à la création d’un médicament à partir d’agents actifs empêchant la formation des métastases de certaines tumeurs cancéreuses.

Les métastases sont responsables d’environ 90 % des décès de patients cancéreux. Elles représentent donc un domaine de recherche central en cancérologie. Le système lymphatique, qui parcourt l’intégralité du corps et relie les ganglions lymphatiques entre eux, est l’un des principaux responsables de la dissémination des cellules cancéreuses.

C’est à partir de ce système que des globules blancs coordonnent la lutte contre des agents pathogènes et une protéine membranaire particulière, le récepteur de chimiokines 7 (CCR7), joue un rôle important dans cet assaut défensif. Le CCR7 se trouve dans l’enveloppe des cellules, la membrane cellulaire, ce qui lui permet de capter des signaux extérieurs et de les transmettre à l’intérieur.

Dans les présents travaux, les chercheurs ont réussi à déchiffrer sa structure. Une percée qui permet de poser les bases nécessaires au développement d’une substance qui pourrait inhiber la formation des métastases de certains cancers fréquents, comme celui du côlon.

Les auteurs de ces travaux ont déjà testé les principes actifs artificiels d’une certaine molécule qui permettent d’arrêter la migration cellulaire. La molécule appropriée peut empêcher que la protéine de signalisation se lie au récepteur et provoque une réaction au sein de la cellule. "Nos expériences montrent que la molécule artificielle se lie au récepteur à l’intérieur de la cellule. On empêche ainsi le démarrage de la réaction en chaîne qui provoque la migration cellulaire", explique Steffen Brünle.

L’une des substances actives étudiées par les chercheurs est déjà testée, dans des études cliniques, par l’industrie pharmaceutique comme potentiel médicament contre la formation des métastases. Cependant, les chercheurs pensaient jusqu'ici qu’elle se liait à un autre récepteur que celui de CCR7 et bloquait une autre fonction des cellules cancéreuses. Les présents travaux apportent donc un éclairage différent.

Article rédigé par Georges Simmonds pour RT Flash

PSI

Cancer du poumon : un nouveau mécanisme de développement des tumeurs identifié
Mercredi, 16/10/2019 - 09:49

Une équipe de recherche américaine, dirigée par le Docteur Martin McMahon, de l'Huntsman Cancer Institute (HCI), rattaché à l'Université de l'Utah, à Salt Lake City, a identifié deux mutations génétiques coordonnées qui provoqueraient le développement de tumeurs malignes du poumon.

Le cancer du poumon peut prendre différentes formes, la principale est l’adénocarcinome pulmonaire. Dans 75 % des cas, la tumeur est due à des mutations touchant deux mécanismes nécessaires à la croissance cellulaire : ceux concernant la protéine PI3-kinase et la voie MAP kinase.

Grâce à des essais sur des souris génétiquement modifiées, les chercheurs ont découvert que les deux mutations génétiques coordonnées sont la cause de la croissance de la tumeur. "Les deux mutations coopèrent pour encourager la croissance des tumeurs malignes", explique Ed Van Veen, directeur de la recherche. Ils ont également découvert qu’une troisième molécule jouait un rôle dans le développement de la tumeur : PGC1.

Cette dernière est à l’origine de la coordination des deux protéines et elle modifie les cellules pulmonaires afin de leur faire perdre leurs caractéristiques, ce qui participe à la progression de la tumeur. Avec ces résultats, l’équipe souhaite mettre au point de nouveaux médicaments contre le cancer du poumon.

"Comme MAP-kinase et PI3-kinase sont toutes les deux déjà ciblées par des thérapies en cours d'essai", précise Martin McMahon, co-auteur, "cette étude pourrait influer sur l'utilisation de nouveaux médicaments dans les études cliniques". Près de 45 000 nouveaux cas sont détectés en France chaque année. En 2018, plus de 33 000 personnes en sont décédées. 

Article rédigé par Georges Simmonds pour RT Flash

eLife

La stimulation cérébrale profonde ravive les souvenirs de patients Alzheimer
Mardi, 15/10/2019 - 06:46

Des chercheurs américains de l'Université de Floride ont constaté que certains patients atteints de la maladie d’Alzheimer déclarent se souvenir de faits parfois très anciens lorsque l’on stimule électriquement une zone particulière du cerveau.

La stimulation cérébrale profonde (SCP) nécessite l’implantation chirurgicale d’un système comprenant électrodes cérébrales et boîtiers de stimulation (pacemakers ou générateurs d’impulsions), au moyen de câbles sous-cutanés placés sous la peau au niveau thoracique. Cette technique implique de faire des trous dans le crâne par lesquels passent les sondes de stimulation intracérébrale.

Ces observations surprenantes ont été réalisées dans le cadre d’un essai clinique reposant sur l’utilisation de la stimulation cérébrale profonde. L’essai a consisté, chez 42 patients, à stimuler une région appelée fornix (du latin fornix, signifiant arche). Cette structure du cerveau, contenue dans chaque hémisphère, appartient au système limbique et est constitué de fibres nerveuses, notamment en provenance de l’hippocampe.

L’objectif de cette étude clinique n’avait pas pour but de stimuler la mémoire. Elle consistait en effet à évaluer si la stimulation électrique du fornix pouvait ralentir le déclin cognitif associé à la maladie d’Alzheimer. De fait, aucune amélioration cognitive n’a été observée. Et c’est finalement un phénomène d’une toute autre nature qui a été constaté.

Vingt des 42 patients (48 %) ont spontanément rapporté des souvenirs vivaces de leur passé deux semaines après l’implantation des sondes de stimulation dans la région du fornix. Un passé datant parfois de plusieurs décennies. Ces souvenirs ont gagné en précision et clarté lorsque le voltage du courant de la stimulation était augmenté (jusqu’à 10 Volts), soulignent Wisham Deeb et ses collègues de l’Université de Floride à Gainesville. Un patient s’est ainsi remémoré avoir été en état d’ébriété alors qu’il sirotait une margarita dans une station balnéaire d’Aruba, une petite île des Antilles néerlandaises.

Lors d’une stimulation à une intensité de 7 V, un autre a décrit une scène où « il aidait un gars à chercher quelque chose dans sa propriété ». Lorsque l’intensité a été portée à 10 V, il s’est alors souvenu qu’ils étaient tous les deux à la recherche du fils de son voisin et que « cet événement était survenu la nuit, aux alentours d’Halloween ».

Ce même patient a déclaré ressentir une sensation de satiété, se souvenant lors d’une autre stimulation à 7 V, se tenir debout sur le porche de la première maison qu’il avait achetée et sentir l’odeur spécifique de ce qu’il allait manger. Lorsque l’intensité du courant a été portée à 8 V, ce patient s’est alors souvenu qu’il s’agissait de sardines et d’un sandwich à la moutarde. Il se souvenait d’une scène qui remonte à 23 ans.

Une stimulation à 10 V a également provoqué le rappel d’un souvenir particulièrement précis bien que très ancien : celui d’avoir frappé au visage, alors qu’il avait cinq ans, un enfant du nom de Jamie Ray et avoir sautillé dans le quartier. Lors d’une stimulation de 5 V, un patient s’est souvenu d’un chalet. A 6 V, il se souvenait d’un chalet et d’un lac. A 8 V, le souvenir d’être assis sur le porche d’un chalet près d’un lac lui est revenu.

Un autre patient s’est souvenu de son père quand il était enfant et, à une intensité de stimulation plus forte, de son mariage. Lors d’une stimulation avec un courant de 5 V, un patient s’est souvenu qu’il appartenait à l’association humanitaire Peace Corps. A 7 V, le souvenir de son mariage lui est revenu. A 8 V, celui de sa première rencontre au Peace Corps avec celle qui allait devenir sa femme. De même, il s’est souvenu avoir joué au golf, s’est rappelé de son caddy et a retrouvé le souvenir d’avoir eu une famille fantastique. Enfin, chez un autre patient, la stimulation a provoqué le rappel de souvenirs quand il était dans la Navy durant la guerre du Vietnam. Autant de souvenirs qui n’étaient donc pas à tout jamais perdus chez ces personnes souffrant de la maladie d’Alzheimer.

Au total, 20 patients ont vécu 85 flashbacks induits par la stimulation cérébrale profonde. Parmi eux, 12 ont présenté 29 réminiscences particulièrement vivaces. Six patients se sont remémoré des scènes comportant des émotions, des odeurs ou des températures.

Ces patients ont vécu ce que les  neurologues et neuropsychologues nomment des « phénomènes expérientiels mnésiques » (ou « flashbacks expérientiels »). C’est le neurochirurgien canadien, Wilder Penfield, qui a le premier, induit des phénomènes mnésiques en utilisant des stimulations électriques corticales. En 1934, il avait rapporté que la stimulation cérébrale par un courant électrique de faible intensité de régions spécifiques du cortex d’un patient épileptique avait induit la réminiscence d’un événement de son passé.

Même si la stimulation cérébrale profonde de la région du fornix n’a pas amélioré la mémoire des patients et que l’on est donc loin d’une application thérapeutique dans la maladie d’Alzheimer (ou les amnésies), ces résultats peuvent contribuer à une meilleure compréhension de la mémoire humaine, estiment les auteurs.

Ceux-ci ont entrepris de visualiser le trajet des fibres nerveuses de la substance blanche cérébrale de leurs patients (tractographie) et d’évaluer l’activité de leur cerveau par imagerie fonctionnelle. Objectif : identifier encore plus finement les régions impliquées dans les réminiscences induites par neurostimulation. Les résultats préliminaires semblent indiquer que 87 % des flashbacks décrits par leurs patients étaient associés à une stimulation conjointe de deux régions proches (fornix et aire sous-calleuse).

L’étude des réminiscences induites par stimulation cérébrale profonde représente donc une fenêtre sur les structures et voies neuronales impliquées dans les processus d’encodage et de rappel de la mémoire à long terme.

Article rédigé par Georges Simmonds pour RT Flash

NEJM

Cancer du pancréas : des organoïdes pour faciliter le choix du traitement
Mardi, 15/10/2019 - 06:43

Avec environ 14 000 nouveaux cas chaque année en France et un très mauvais pronostic,  le cancer du pancréas est devenu un véritable enjeu de recherche et de santé publique. Le plus souvent détecté à un stade avancé, il est difficile à traiter. Il est en outre associé à une grande hétérogénéité sur le plan moléculaire, nécessitant la mise en œuvre de thérapies personnalisées : c'est une condition essentielle pour que les traitements administrés soient efficaces.

Dans environ 30 % des cas, la protéine MYC est suractivée dans la tumeur. Cette protéine contrôle l’expression de près de 1 500 gènes impliqués dans la prolifération cellulaire, le métabolisme ou encore la survie cellulaire : ce phénomène contribue à la progression du cancer. Ainsi, plusieurs médicaments ciblant cette anomalie sont en cours de développement. Encore faudra-t-il être en mesure de les administrer aux bons patients.

Ce ciblage représente un défi pour les cliniciens. Ils disposent d’un test génétique pour dépister la suractivation de MYC, mais il n’est utilisable que dans 15 % des cas. En effet, un échantillon de la tumeur est nécessaire pour le réaliser, obtenu par chirurgie. Or seulement 15 % des patients sont opérés.

Dans 85 % des cas, l’opération est inutile et les chercheurs ne disposent que de quelques cellules tumorales du patient, prélevées par écho-endoscopie lors du diagnostic. Il est possible de mettre ces cellules en culture pour augmenter leur nombre, mais elles perdent leurs caractéristiques acquises in vivo, ce qui pourrait biaiser les résultats du test génétique.

Ces cellules peuvent également être transférées chez une souris pour qu’elles prolifèrent et permettent d’obtenir une tumeur identique à celle du patient, utilisable pour réaliser le test génétique. Mais ce procédé prend des mois, un délai incompatible avec l’urgence de traitement des patients.

Pour faire face à ces difficultés, Juan Iovanna et son équipe proposent de créer des organoïdes à partir des cellules tumorales. Cela se fait déjà pour d’autres tissus. Il s’agit de reconstituer un mini organe in vitro à partir de cellules souches ou légèrement différenciées qui s’auto-organisent dans un milieu de culture adapté et un environnement 3D.

L’organoïde présente alors une architecture et des fonctionnalités très proches de l’organe in vivo. En effectuant ce travail avec les cellules tumorales de 24 patients, les chercheurs sont parvenus à recréer in vitro, en deux semaines seulement, les tumeurs correspondant à chaque patient.

Ils ont ainsi pu dépister la suractivation de MYC et tester deux médicaments anti-MYC en développement. L’un d'eux, le NHWD870, s’est révélé jusqu’à dix fois plus efficace que l’autre pour faire régresser la tumeur.

« Nous avons établi la preuve de principe de l’utilité des organoïdes pour classifier les tumeurs et tester des médicaments dans le cancer du pancréas. Nous souhaitons maintenant aller plus loin et trouver des marqueurs prédictifs de réponse à l’ensemble des médicaments disponibles pour administrer les traitements les plus adaptés aux patients. A terme, nous espérons un transfert en clinique. La technique nécessite des ressources et des compétences particulières, mais elle représente à ce jour le meilleur outil de progression vers la médecine personnalisée dans ce cancer », estime Juan Iovanna.

Article rédigé par Georges Simmonds pour RT Flash

Inserm

Détecter dès l'enfance un gène de susceptibilité à la maladie d'Alzheimer
Mardi, 15/10/2019 - 06:40

Selon une étude réalisée par des chercheurs de l’Université de Californie – Riverside, le fameux gène de susceptibilité à la maladie d'Alzheimer, APOE 4, pourrait exercer son effet sur la santé cognitive bien avant l'âge adulte, contrairement à l’idée généralement admise d’un déclin commençant à la cinquantaine. Ces recherches ouvrent de nouvelles perspectives dans la prise en charge de la maladie.

Le gène APOE code pour une protéine, l’apolipoprotéine E, qui conditionne le cholestérol et d’autres graisses pour les transporter dans le sang. Il existe 3 versions, ou allèles, de APOE. L’allèle APOE4, présent dans environ 15 % de la population, en fait partie et ses porteurs présentent un risque multiplié par 3 de développer une maladie d'Alzheimer d'apparition tardive, soit à l’âge de 65 ans et plus. Si ce gène est lié à des changements dans les capacités cognitives perceptibles dès l'âge de 50 ans, l’équipe californienne soutient ici que ses effets s’exerceraient bien avant l'âge adulte.

Les porteurs du gène APOE4 ont un score inférieur aux tests de QI pendant l'enfance et l'adolescence, avec un effet plus marqué chez les filles que chez les garçons, conclut cette méta-analyse d’études publiées ces 40 dernières années, portant sur les données de génotypage de 1.321 participants âgés de 6 à 18 ans, des deux sexes, avec 3 évaluations de Q.I. de l'enfance à l'adolescence.

L’analyse montre que les scores de Q.I. sont inférieurs de 1,91 point pour chaque allèle APOE4 « portée », précisément de 0,33 point chez les garçons et de 3 points chez les filles ; en outre, la fonction la plus affectée chez ces porteurs d’APOE4 est le raisonnement ; enfin l’effet est dose-dépendant du nombre d’allèles portés, sachant qu’une personne peut avoir jusqu'à 2 allèles APOE4.

Si la différence de Q.I. semble modeste à l’enfance et à l’adolescence, elle induit une réduction très significative de ce que les chercheurs nomment la « réserve cognitive », avec l’âge, la réserve cognitive étant la capacité du cerveau à résoudre les problèmes et à improviser. Moins de réserve cognitive est associé à une moindre résistance au déclin cognitif avec l’âge.

De précédentes recherches ont en effet montré un lien entre un Q.I. plus faible à l’enfance et un vieillissement biologique accru, soit des cellules et des tissus, ainsi qu’un risque accru de maladie cardiovasculaire avant 65 ans. En synthèse, l’étude suggère que les différences cognitives associées à APOE4 pourraient apparaître tôt et être amplifiées plus tard dans la vie.

Article rédigé par Georges Simmonds pour RT Flash

UCR

Vers un gel capable de réparer l'émail dentaire
Mardi, 15/10/2019 - 06:37

L'OMS estime qu'en 2016, environ 2,4 milliards de personnes dans le monde avaient au moins une carie. Malheureusement, l'émail dentaire endommagé ne repousse pas naturellement.

Actuellement, pour réparer une carie, il faut se rendre chez le dentiste : il élimine dans un premier temps la zone malade de votre dent, pour ensuite nettoyer la cavité et y injecter un soin protecteur. Une fois ces étapes terminées, le dentiste doit boucher le trou. Pour ce faire, il utilise diverses sortes de matériaux, telles que des résines composites ou encore des petits blocs de matière céramique ou métallique.

Des matériaux qui ne sont pourtant pas idéaux sur le long terme, affirment des chercheurs chinois, à l'origine d'une nouvelle technique pour réparer l'émail dentaire. « Le matériau à base de résine n'adhère pas toujours bien à l'émail, et il se détachera au bout de cinq ans environ », a déclaré le Docteur Zhaoming Liu, co-auteur de la recherche de l'Université du Zhejiang.

Si la carie est trop importante et qu'elle a atteint la racine de la dent, le dentiste sera obligé de dévitaliser la dent et y placer une couronne pour la protéger. Dans le pire des cas, le dentiste devra retirer la dent et la remplacer par une prothèse dentaire. L'équipe de scientifiques de l'Université du Zhejiang affirme aujourd'hui avoir enfin résolu le problème de la réparation de l'émail dentaire, en créant un gel capable d'encourager la repousse de l'émail.

Il faut savoir que l'émail est une substance minéralisée qui recouvre la surface des dents. Surtout composé de phosphate de calcium et de carbonate de calcium, il est formé par la juxtaposition de structures élémentaires appelées cordons ou prismes d'émail. Chaque prisme minéralisé traverse l'émail.

L'émail est formé biologiquement, mais une fois arrivé à maturité, il devient acellulaire et est donc dépourvu de sa capacité à s'autoréparer. Les chercheurs disent avoir résolu ce problème de réparation en développant un gel capable de produire de minuscules amas de phosphate de calcium, d'un diamètre de 1,5 nanomètre. Pour tester leur gel, l'équipe a employé de l'hydroxyapatite cristalline, qui ressemble à l'émail naturel. Les résultats ont montré que les amas de phosphate de calcium se soudaient à l'hydroxyapatite et formaient ainsi une couche beaucoup plus serrée que les amas précédents.

Une découverte importante car cela signifie que lorsque cette nouvelle couche se transforme et devient cristalline, elle s'étend de manière continue, plutôt que de former de nombreuses régions cristallines. Les scientifiques ont testé ce gel sur des dents humaines exposées à l'acide. En 48 heures, les amas de phosphate de calcium avaient donné lieu à une couche cristalline d'environ 2,7 micromètres d'épaisseur.

Cet émail ainsi réparé avait une résistance à l'usure similaire à celle de l'émail non endommagé. Le seul problème, selon les chercheurs, est que la couche est encore trop fine pour être réellement efficace contre les caries mais cet obstacle devrait pouvoir être surmonté, selon les chercheurs.

Article rédigé par Georges Simmonds pour RT Flash 

Science Advances

Un mini-cerveau artificiel présente les mêmes caractéristiques qu’un cerveau de bébé
Mardi, 15/10/2019 - 06:29

Des chercheurs de l’Université de Californie à San Diego ont observé, de manière surprenante, que les mini-cerveaux qu'ils ont fabriqués en laboratoire produisaient les mêmes ondes cérébrales que le cerveau d’un bébé prématuré.

Pendant la croissance de ces mini-cerveaux artificiels, les chercheurs ont utilisé des électrodes pour mesurer l’activité cérébrale. Au bout de deux mois, ils commencent déjà à émettre des signaux sporadiques, tous à la même fréquence. Plus le temps passe, plus le cerveau est capable d’émettre des signaux à des fréquences différentes et de manière plus régulière. Cela signifie que l’activité cérébrale se complexifie.

L’équipe de chercheurs a donc voulu aller plus loin. Ils ont utilisé le machine learning pour comparer l’activité cérébrale de ces mini-cerveaux à celle des bébés humains prématurés. Un algorithme a été construit à partir de données enregistrées chez 39 bébés prématurés âgés de 6 à 9 mois. Après 25 semaines de développement, les chercheurs ne pouvaient plus distinguer les données provenant du cerveau humain de celles provenant du cerveau fabriqué en laboratoire.

Depuis près d’une dizaine d’années, Alysson Muotri et ses équipes cultivent des cerveaux miniatures en laboratoire. Pourtant, d’après les chercheurs, c’est bien la première fois que des cerveaux cultivés en laboratoire forment des réseaux complexes de neurones capables de produire de fortes ondes cérébrales. Il est important de préciser que les cerveaux artificiels ne ressemblent pas à des cerveaux humains.

Visuellement, nous pourrions les comparer à des tâches blanches, sphériques qui flottent dans une sorte de soupe rougeâtre dans laquelle elles sont cultivées. Ils sont minuscules : 0,5 centimètre de diamètre. L’étude suggère que les cerveaux miniatures et les cerveaux humains grandissent et se développent de manière similaire.

Article rédigé par Georges Simmonds pour RT Flash

Live Science

La stimulation cérébrale profonde confirme son efficacité à long terme sur la dépression
Samedi, 12/10/2019 - 19:16

Une étude de l’École de médecine Mount Sinai (New York), menée par le Docteur Helen S. Mayberg, professeur de neurologie, vient de confirmer l'efficacité thérapeutique d'un ciblage par stimulation cérébrale profonde d'une zone cérébrale spécifique pour lutter contre certaines dépressions réfractaires aux traitements classiques.

Approuvée par l’Agence américaine Food and Drug Administration (FDA) pour traiter les tremblements essentiels, la maladie de Parkinson, l'épilepsie et les troubles obsessionnels compulsifs, la stimulation cérébrale profonde est une procédure neurochirurgicale impliquant le placement d'un neurostimulateur qui envoie des impulsions électriques à haute fréquence à travers des électrodes implantées au plus profond du cerveau, dans des zones spécifiques du cerveau responsables des symptômes de chaque trouble.

En 2005, le Docteur Mayberg avait dirigé le premier essai de stimulation de la substance blanche du gyrus cingulaire, connue sous le nom de « Brodmann Area 25 », chez des patients souffrant de dépression réfractaire au traitement, avec des résultats cliniques positifs. Cependant, en dépit de ces résultats encourageants, un essai randomisé multicentrique avait été interrompu en raison de l'absence de réponse antidépresseur statistiquement significative à l'échéance de six mois fixée par l'étude. Mais ces scientifiques ont néanmoins poursuivi leurs recherches et ont alors pu observer  les bénéfices à long terme de la thérapie chez les patients des premiers essais.

Ainsi, au cours des 8 années de suivi, ces patients ont présenté une réponse antidépressive robuste et durable à la stimulation cérébrale profonde de la zone 25. Sur les 28 participants, 14 ont été suivis au moins sur 8 ans, 11 sur 4 ans et 3 ont abandonné la fin du suivi ; les taux de réponse et de rémission se sont maintenus à 50 % et 30 %, respectivement, pendant les années 2 à 8 années de suivi. Ces travaux confirment donc l'innocuité à long terme et l'efficacité durable de la stimulation cérébrale profonde dans ces cas de dépression résistante au traitement.

Article rédigé par Georges Simmonds pour RT Flash

AJP

^ Haut
Homme
Anthropologie et Sciences de l'Homme
Une vaste étude génétique éclaircit l’origine des langues indo-européennes
Jeudi, 17/10/2019 - 08:05

Les linguistes cherchent depuis des décennies à comprendre pourquoi les langues parlées de Paris à New Dehli appartiennent au même groupe de langues, dites indo-européennes. La plus grande étude d’ADN d’humains anciens jamais réalisée apporte une réponse : ce serait à cause des migrations de populations de bergers nomades des steppes eurasiennes, il y a 5 000 ans, vers l’ouest (Europe) et vers l’est (Asie).

Le rôle des déplacements humains depuis 10 000 ans est fondamental pour comprendre les changements linguistiques ainsi que la sédentarisation progressive des humains avec le développement de l’agriculture, explique Vagheesh Narasimhan, coauteur de l’étude.

« Il y a eu beaucoup de travail sur l’ADN, ainsi que des travaux archéologiques, sur ces processus en Europe », poursuit ce postdoctorant à l’école de médecine d’Harvard. Mais ces transformations ont été beaucoup moins étudiées en Asie.

Une équipe internationale de généticiens, d’archéologues et d’anthropologues a analysé les génomes de 524 anciens humains d’Asie centrale et du sous-continent indien, augmentant d’un coup d’un quart le nombre total d’anciens génomes humains séquencés.

Les langues indo-européennes incluent l’hindi et l’ourdou, le farsi, le russe, l’anglais, le français et 400 autres : elles ont des points communs dans la syntaxe et le vocabulaire, comme la façon de nommer les membres d’une famille. Une étude de 2015 avait établi qu’elles étaient arrivées en Europe par les steppes d’Asie centrale.

Mais pour l’Asie, il y avait débat. Une école privilégiait l’hypothèse d’une arrivée depuis l’Anatolie (Turquie). Mais la comparaison des ADN d’habitants du sous-continent indien et de Turquie a montré qu’ils n’avaient que peu en commun. « On peut mettre une croix sur une migration à grande échelle d’agriculteurs de racines anatoliennes vers le sous-continent indien », dit David Reich, autre coauteur à Harvard. Un autre indice confirmant l’hypothèse d’une origine commune dans les steppes est la découverte de similarités génétiques entre les personnes parlant des langues indo-iraniennes et les branches balto-slaves.

Les populations parlant actuellement ces langues descendent d’un sous-groupe des steppes qui a migré en Europe il y a 5 000 ans, puis qui est retourné vers l’est, vers le sous-continent indien, dans les 1 500 années suivantes. En outre, les personnes qui parlent des langues dravidiennes (surtout dans le sud de l’Inde et le sud-ouest du Pakistan) ont très peu d’ADN des steppes, alors que ceux qui peuplent le nord du sous-continent, plus proche des steppes, en ont plus (ceux qui parlent hindi, panjabi et bengali). Quant à l’agriculture, des fouilles archéologiques ont montré qu’elle avait commencé sur le sous-continent indien avant l’arrivée des migrations des steppes. Elle serait donc née indépendamment.

Une seconde étude décrit le génome d’un individu de la civilisation de la vallée de l’Indus, une grande civilisation qui a vécu il y a plus de quatre millénaires. Elle comptait des villes de dizaines de milliers d’habitants, qui utilisaient un système standardisé de poids et mesures, construisaient des routes et des voies de commerce.

L’humidité du climat de la région rendait jusqu’à présent très difficile le séquençage des restes humains mais, pour la première fois, des chercheurs sont parvenus à isoler et analyser l’ADN de restes d’une femme ayant vécu à l’Âge de Bronze, il y a quatre à cinq mille ans, à Rakhigarhi, la plus grande ville de cette civilisation, aussi appelée civilisation harappéenne.

Selon ces travaux génétiques, les Indiens ou Pakistanais modernes descendent de la civilisation harappéenne, qui s’est ensuite mélangée aux humains venus des steppes.

L’intérêt de ces recherches génétiques est de rattraper le retard pris par la science moderne pour les populations non européennes, la plupart des études ADN ayant jusqu’à présent porté sur des personnes d’origine européenne, limitant la portée médicale à ces populations-là.

Article rédigé par Georges Simmonds pour RT Flash

Science

Eurekalert

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top