|
|
|
|
|
NUMERO 1121 |
|
|
|
|
|
|
|
Edition du 17 Septembre 2021
|
|
|
|
|
Edito
Prenons soin de notre Terre avant qu’il ne soit trop tard…
Alors que va prochainement avoir lieu la 26e conférence climat de l’ONU (COP26) à Glasgow (Ecosse), qui s’avère cruciale, quand on sait que seulement la moitié des signataires de l’accord de Paris (2015) sur le climat ont révisé à la hausse leurs engagements de réduction des émissions de gaz à effet de serre, le dernier rapport du GIEC, dévoilé le 9 aout dernier, offre le tableau le plus complet jamais réalisé sur le changement climatique mondial en cours (Voir IPCC). Réalisé par 234 auteurs de 66 pays, ce document est l’aboutissement de trois ans de travail. Intitulé "Changements climatiques 2021 : les bases scientifiques", cette étude constitue la première partie du sixième rapport d'évaluation du Giec, dont les deux autres volets, concernant les solutions à envisager, seront publiés en 2022.
Pour le président de la COP26, Alok Sharma, ce rapport est « l'avertissement le plus sévère jamais lancé sur le fait que le comportement humain accélère de manière alarmante le réchauffement climatique ». Ce rapport rappelle que la température moyenne sur Terre a augmenté d’un degré au cours du XXème siècle et que la concentration de CO2 dans l'atmosphère, qui était de 280 ppm il y a deux siècles, a atteint à présent un niveau de 415 parties par million (ppm), un taux sans précédent depuis plusieurs millions d’années. Et il ne fait à présent plus de doute que les activités humaines sont bien à l'origine de ce changement climatique mondial. Mais ce nouveau rapport va plus loin et établit, pour la première fois, un lien entre le réchauffement global de notre planète et la multiplication, en fréquence et en intensité, des événements météorologiques catastrophiques récents qui ont frappé tous les continents. La paléoclimatologue Valérie Masson-Delmotte, coprésidente du Giec, n’hésite pas à souligner que « Certains événements récents, typiquement comme les vagues de chaleur en juin 2019 en France, auraient été très improbables sans l'influence de l'homme sur le climat ». Et le GIEC a même calculé que les pluies extrêmes vont augmenter de 7 % à chaque degré supplémentaire.
Alors qu’il aurait fallu qu’elles se stabilisent, puis qu’elles commencent à diminuer, nos émissions de gaz à effet de serre (CO2, méthane et halocarbures principalement) ont encore augmenté de 23 % entre 2005 et 2018, passant de 38,6 à 47,5 gigatonnes par an (53,3 gigatonnes par an en incluant les émissions liées aux changements d’affectation des sols). Il en résulte que l’élévation de la température de l’air et de l’océan, la fonte des glaciers ou la hausse du niveau des mers, continuent à s’accélérer à un rythme sans précédent depuis des centaines de milliers d’années. Et ce n’est qu’un début, car à ce rythme et en l’absence d’actions suffisamment vigoureuses, nous risquons de retrouver, d’ici la fin de ce siècle, le climat qui régnait sur Terre il y a 50 millions d’années, pendant l’ère de l’Eocène, lorsque notre planète était presque entièrement recouverte de marécages et de forêts humides… (Voir étude).
Ce rapport du GIEC confirme que chacune des quatre dernières décennies ont été plus chaudes que la précédente. La température globale à la surface de la Terre entre 2000 et 2020 a été de 1,1°C supérieure à la moyenne enregistrée entre 1850 et 1900. Au cours des seules sept dernières années, les températures ont encore gagné 0,19°C. L’étude précise que 56 % de ces émissions sont absorbées par l’océan, la végétation et les sols. Le reste, soit 44 %, vient s’accumuler dans l’atmosphère et provoque une puissante augmentation de l’effet de serre. Et l’on prend mieux la mesure de ce changement quand on compare les échelles de temps plus longues : il faut remonter 125 000 ans en arrière, époque du dernier âge interglaciaire, pour retrouver une hausse aussi rapide de la température globale.
Cette étude souligne également la fonte accélérée des glaciers, qui reculent partout dans le monde. La vitesse de fonte des calottes glaciaires du Groenland et de l’Antarctique a été multipliée par quatre depuis 30 ans. Quant à l’élévation du niveau des mers, elle atteint 3,7 mm par an depuis 2006 (contre 1,3 mm par an entre 1900 et 1971), une vitesse de progression sans précédent depuis 3000 ans. Au total, le niveau des mers a augmenté de 20 centimètres entre 1901 et 2018. Ce changement climatique violent est également en train de bouleverser l’équilibre chimique des océans : le pH des océans, qui est autour de 8, a augmenté lentement ces dernières 50 millions d’années. Il s’est acidifié de 30 % en deux siècles et l’eau des mers pourrait devenir trois fois plus acide d’ici 2100 – ce qui aurait des conséquences désastreuses sur les écosystèmes marins – si les émissions humaines de CO2 ne sont pas drastiquement réduites.
Le rapport souligne que cette hausse du niveau des mers est causée à la fois par l’expansion thermique due à l'augmentation de la température de l’eau et par la fonte des glaciers, de la banquise arctique et de l’inlandsis groenlandais. Mais, de manière très intéressante, ce rapport précise que l’expansion thermique est responsable à 50 % de la montée du niveau des mers, tandis que les glaciers y contribuent pour 22 %, et les calottes glaciaires pour 20 %.
En matière de précipitations, le rapport souligne qu’elles sont à la fois plus intenses et plus limitées dans le temps depuis 1950. Résultat, des inondations, mais également des sécheresses plus longues, plus fréquentes et plus dévastatrices. Ce rapport établit également pour la première fois un lien de causalité très solide entre l’ampleur du changement climatique en cours et les événements météorologiques de plus en plus violents et dévastateurs auxquels nous assistons depuis quelques années, y compris dans notre pays. Partout, et la France n’est pas épargnée, on voit des vagues de chaleur extrêmes plus fréquentes et plus longues, tandis que les vagues de grand froid ne cessent de se raréfier. Cette étude du GIEC confirme le fait scientifiquement récemment avéré que la quantité globale d'énergie sous forme de chaleur retenue par notre Terre a doublé depuis 15 ans (étude dans les lettres de la recherche géophysique de juin 2021). Or, notre planète fonctionne comme une gigantesque machine thermodynamique qui cherche en permanence à conserver son équilibre, en se régulant par des échanges d'énergie entre les océans, l'atmosphère et les terres. Mais depuis deux siècles, sous l'effet des activités humaines, la concentration de CO2 dans l'atmosphère est passée de 280 à 415 parts pour un million et la Terre doit évacuer de plus en plus d'énergie, de plus en plus vite, ce qui explique la multiplication des phénomènes extrêmes et dévastateurs en tout genre...
Après avoir dressé le tableau très complet de la situation climatique mondiale et de ses causes, les scientifiques du GIEC ont travaillé sur plusieurs scénarios d’émissions de gaz à effet de serre pour tenter de prévoir l’évolution du système climatique. Leurs conclusions est que, quelle que soit la vigueur des actions qui seront entreprises pour réduire nos émissions de GES, la température moyenne mondiale va inexorablement continuer d’augmenter au cours des vingt prochaines années, à cause de la grande inertie de la machine climatique mondiale qui, tel un énorme paquebot, ne peut pas s’arrêter ou changer de direction rapidement, du moins à l’échelle humaine. Il faut en effet rappeler que la durée de vie du CO2 dans l’atmosphère est de plus d’un siècle, c’est pourquoi la poursuite du réchauffement climatique est inévitable. Le GIEC précise que trois phénomènes en cours, directement proportionnels à la concentration atmosphérique de CO2, ne peuvent plus être stoppés : la hausse de la température des océans, la fonte de l’inlandsis du Groenland et la montée du niveau des mers.
Selon le GIEC, la température à la surface du globe entre 2080 et 2100 devrait être plus haute de 1°C à 1,8°C, par rapport à la période 1850-1900, même si nous parvenons à diminuer de 80 % nos émissions de CO2 d’ici la fin du siècle. Et si le rythme de progression de nos émissions de GES reste le même, l’augmentation de la température moyenne pourra être de 3,5 à 5,7°C, ce qui aurait des conséquences catastrophiques pour l’humanité et rendrait plusieurs régions du globe tout simplement inhabitables. Néanmoins, l’étude souligne que si nous parvenons à une quasi-neutralité carbone en 2050, il est encore possible de faire redescendre la température à +1,4°C en 2100. Les scientifiques du GIEC insistent sur le fait que réduire une petite fraction de réchauffement a des conséquences très importantes pour nos sociétés. « Chaque demi-degré de réchauffement entraîne des événements climatiques plus intenses, plus fréquents et touchant plus d’endroits », rappelle le climatologue Robert Vautard, directeur de l’Institut Pierre-Simon Laplace et l’un des auteurs du rapport.
Comme l’élévation de la température moyenne, la hausse du niveau des mers va également inexorablement se poursuivre pendant plusieurs siècles, sous l’effet de l’expansion thermique de l’océan et de la fonte des glaciers et des calottes. Dans les scénarios les plus extrêmes, les océans pourraient s’élever d’un mètre d’ici à 2100, par rapport à 1995, et jusqu’à 1,9 mètre d’ici à 2150.
Autre source de grande inquiétude, la capacité des forêts, des sols et des océans, à absorber les émissions de CO2 est en train de diminuer. Sur les six dernières décennies, ces puits de carbone ont réussi à retirer de l’atmosphère 56 % du CO2 émis par les activités humaines, limitant le réchauffement. Mais leur efficacité de stockage aurait déjà diminué de 5 à 10 % et cette perte de capacité pourrait encore s’accentuer dans l’avenir. Le rapport souligne que, pour parvenir le plus rapidement possible à la neutralité carbone, la sortie des énergies fossiles ne suffira pas et il faudra simultanément actionner d’autres leviers, tels le reboisement massif, la transition agricole vers d'autres modes de production et des cultures à faibles émissions de CO2, et le recours à des technologies de capture et de séquestration de CO2. Comme le souligne avec force Antonio Guterres, le secrétaire général de l’ONU, « L’heure est à l’union des dirigeants, des entreprises et de la société civile derrière des solutions claires comprenant la fin des énergies fossiles, le financement de politiques d’adaptation et de résilience ou encore des plans de relance post-Covid-19 qui financent la transition écologique. La viabilité de nos sociétés en dépend ».
En marge de la publication très attendue de ce nouveau rapport du GIEC, d’autres études scientifiques sont venues confirmer cet été à quel point la machine climatique planétaire était en train de dérailler : une récente étude publiée début août confirme que le Gulf Stream, ce courant marin qui transporte de l'eau chaude de la Floride, aux États-Unis, vers l'Islande, dans l'Atlantique Nord et qui joue un rôle essentiel sur le climat en Europe, décline de manière préoccupante depuis 2005 (Voir Nature climate change). Ces recherches soulignent que ce système fonctionne comme un peu à la manière d’un gigantesque tapis roulant géant qui se charge d’abord en eau chaude et salée, puis file vers le Nord où l'eau se refroidit et devient plus dense, plus lourde. Elle coule alors en profondeur, avant de revenir vers le Sud. Ce système de courant joue un rôle majeur de régulateur thermique et empêche notamment l’Europe occidentale d’avoir un climat qui s’apparenterait l’hiver à celui du Canada….
Sous l’effet de la fonte de la calotte glaciaire, qui libère de l'eau douce dans les océans, moins dense que l'eau de mer qui est salée, l'eau qui constitue ce courant s’écoule moins bien. Selon ces chercheurs, si le Gulf Stream continue de s'affaiblir, il faudra s’attendre à des hivers plus rigoureux, en Europe, mais également à des vagues de chaleur plus importantes et à des sécheresses plus fréquentes. Mais cet affaiblissement du Gulf Stream, qui pourrait atteindre 45 % en 2100 en l’absence de mesures plus vigoureuses pour réduire nos émissions de CO2, risque également d’entraîner une augmentation plus importante du niveau de la mer, avec de potentielles conséquences désastreuses en Inde, en Amérique du Sud et en Afrique de l'Ouest : inondations et déplacements massifs des populations côtières.
Une autre étude publiée cet été montre que les conséquences humaines et matérielles catastrophiques des inondations, qui ont ravagé l’Allemagne et la Belgique à la mi-juillet, sont à relier aux effets du changement climatique. Selon ces recherches cet épisode extrême a été rendu jusqu’à 9 fois plus probable par le réchauffement dû à l’activité humaine. Le changement climatique a également « fait augmenter la quantité de pluie sur une journée d’entre 3 % et 19 % », selon les scientifiques du World Weather Attribution (WWA), qui regroupe des experts de divers instituts de recherche dans le monde (Voir World weather attribution). Rappelons que les 14 et 15 juillet, de fortes inondations causées par des pluies diluviennes avaient ainsi fait au moins 190 morts en Allemagne et 38 en Belgique. L’Allemagne va devoir consacrer 30 milliards d’euros à la reconstruction des zones sinistrées, et la catastrophe y a placé la question de l’urgence climatique au centre du débat public. Pour les 39 scientifiques du WWA, « Le changement climatique a accru la probabilité mais également l’intensité des événements de juillet », et la multiplication des précipitations est une conséquence attendue du réchauffement.
La France ne sera pas épargnée par les effets du réchauffement climatique, comme l’explique le chercheur Jérôme Duvernoy, de l’Onerc (Observatoire national sur les effets du réchauffement climatique) qui souligne que tous les espaces du territoire français vont devoir faire face à des risques accrus d’incendies, de sécheresses et d’inondations. La hausse des températures va notamment accentuer la formation de médicanes, noms donnés aux ouragans méditerranéens, qui se traduisent par des vents très violents, des pluies diluviennes, et des inondations dévastatrices. La récente carte publiée par l’Agence européenne de l’environnement montre que plusieurs parties de notre littoral, comme la côte des Hauts-de-France, de Calais à Dunkerque, la façade Atlantique de Saint-Nazaire à Arcachon, et la côte méditerranéenne de Perpignan à Fos-sur-Mer connaîtront de plus en plus souvent ces médicanes. Mais nos régions de montagne vont également subir de plein fouet les effets de ce changement climatique. Les glaciers français pourraient perdre jusqu’à plus d’un tiers de leur masse d’ici la fin du siècle, et ce bouleversement hydrologique majeur aura évidemment des conséquences majeures sur les ressources en eau disponible, tant pour la consommation humaine que pour l’industrie, agriculture et l’élevage.
Le GIEC rappelle que les activités humaines ont déjà entraîné l’émission d’environ 2 400 milliards de tonnes de CO2 (GtCO2) depuis 1850. Pour avoir un peu plus de quatre chances sur cinq (83 %) de ne pas ajouter 0,43°C au thermomètre planétaire et tutoyer ainsi le seuil de 1,5°C, il ne faudrait plus émettre que 300 Gt de CO2 avant que l’économie mondiale parvienne à la neutralité carbone. Or, cet objectif semble dès à présent hors d’atteinte, car il correspond à seulement sept ans d’émissions, en prenant 2019 comme référence. Nous pouvons encore cependant conserver une chance sur deux de rester sous le seuil fatidique de deux degrés d’augmentation de la température moyenne, mais à condition de ne pas émettre, selon les calculs du GIEC, plus 1 350 Gt de CO2, c’est-à-dire environ trente-deux ans d’émissions actuelles, à niveau constant, mais plus probablement vingt ans d’émissions réelles, car il est fort peu probable que les émissions humaines commencent à diminuer avant 2030.
Faute d’avoir su ou voulu anticiper et mis en œuvre depuis 30 ans, les efforts nécessaires qui auraient permis de réduire de manière plus graduelle nos émissions de GES, nous allons donc, d’une façon ou d’une autre, être contraints à partir de maintenant de réduire de manière très brutale, et le mot n’est pas trop fort, nos émissions de CO2. Pour l’Agence européenne de l’environnement (EEA), la sortie des énergies fossiles ne suffira pas et nous devons aussi repenser complètement nos modes de production de biens et de services, et l’organisation de nos sociétés, de manière à ce que le développement économique puisse s’effectuer pour un coût carbone réduit (Voir EEA).
Et, de fait, partout dans le monde, des mesures immédiates et concrètes d’adaptation sont déjà en train d’être prises pour faire face à ce réchauffement mondial qui est appelé à s’amplifier de manière inéluctable dans les années à venir, même si nos sociétés prennent des mesures drastiques. À Singapour, le gouvernement encourage la végétalisation des immeubles neufs, qui permet de faire baisser de manière naturelle de dix degrés la température moyenne de la surface de ces bâtiments, en cas de canicule. À Bangkok (Thaïlande), les toits des universités sont progressivement aménagés de manière à pouvoir accueillir des jardins potagers, ce qui permet à la fois de rafraîchir les bâtiments et de développer une production agricole urbaine.
En Australie, pays soumis à des canicules de plus en plus fréquentes, la ville de Wilton, située à 80 kilomètres au sud-ouest de Sydney, a décidé d’imposer aux nouvelles constructions résidentielles d'avoir des toits blancs ou clairs. Les autorités locales vont adopter d’ici la fin de l’année un nouveau plan local d'urbanisme qui prévoit la construction d’au moins 9000 maisons « anti-réchauffement ». Ce plan prévoit par ailleurs de planter au minimum un arbre de 8 mètres de haut devant les maisons côté rue, ainsi qu'un arbre de 5 mètres de haut dans le jardin à l'arrière du bâtiment, pour fournir plus de fraîcheur aux futurs habitants en cas de forte chaleur.
En France, la loi "Climat et Résilience" du 22 août 2021 intègre une partie des 146 propositions de la Convention citoyenne pour le climat, pour réduire les émissions de gaz à effet de serre de 40 % d'ici 2030. Son premier article, issu du débat parlementaire, pose que l'État s'engage à respecter le nouvel objectif européen ambitieux arrêté le 14 juillet dernier par la Commission de baisse d'au moins 55 % des émissions des gaz à effet de serre (GES) d'ici 2030. Mais, disons-le tout net, même si cette loi va évidemment dans le bons sens, elle n’est pas à la hauteur du défi climatique qui est devant nous. Il faut en effet rappeler, qu’en raison du retard accumulé par la France, le rythme actuel de réduction annuelle doit doubler, pour atteindre au moins 3,0 % dès 2021 (-1,9 % en 2019) et 3,3 % en moyenne sur la période du troisième budget carbone (2024-2028). Au niveau mondial, l’effort de réduction des émissions de CO2 reste également très insuffisant, comme le rappelle l’ONU, qui, s’appuyant sur les travaux du GIEC, souligne que, pour limiter le réchauffement en cours, les émissions annuelles en 2030 devront être inférieures de 15 gigatonnes d’équivalent CO2 à leur niveau actuel, si nous voulons rester en dessous d’une hausse de deux degrés.
Concrètement, cela signifie qu’il faudrait dès à présent réduire chaque année de 2,7 % par an ces émissions mondiales de CO2, pour atteindre l’objectif des 2°C, une mission presque impossible, quand on sait que ces émissions mondiales de CO2 continuent d’augmenter en moyenne de 3 % par an depuis 20 ans. Selon l’AIE, un habitant dans le monde émet désormais 4,8 tonnes de CO2 par an, soit une augmentation de presque 50 % depuis dix ans, et la croissance économique mondiale ne s’est pas accompagnée d’une amélioration suffisante de l’efficacité énergétique de nos économies.
Ce constat peut sembler sombre et pessimiste, il est simplement lucide et doit au contraire nous conduire à redoubler d’efforts, de volontarisme et d’imagination, pour relever tous ensemble cet immense défi qui concerne l’avenir de notre espèce, et plus largement l’avenir de la vie sur Terre. Les seuls combats perdus d’avance sont ceux que l’on refuse de mener et je suis persuadé que l’Humanité recèle des trésors d’intelligence, de créativité et d’ingéniosité qui peuvent lui permettre de maîtriser ce changement climatique majeur et d’en rendre supportables les conséquences pour les générations futures.
Mais pour gagner ce combat, il faut cesser de séparer, ou d’opposer, trois sphères qui doivent absolument coopérer et ont chacune un rôle crucial à jouer : la sphère politique (états et collectivités locales), la sphère techno-économique (entreprises et recherche publique) et la sphère civique (ménages et associations). Il faut également avoir le courage d’expliquer clairement et calmement à nos concitoyens que le temps des hésitations et des débats est révolu, et qu’ils vont devoir accepter, pour l’intérêt supérieur de notre espèce et de la planète, des changements radicaux dans leurs modes de vie. Néanmoins, il est capital que les efforts considérables qui vont être demandés à tous les Français soient équitablement répartis au sein de la population et approuvés par voie de référendum, afin de pouvoir être mis en œuvre de manière résolue, dans la durée. J’ajouterai enfin, pour conclure, que ce défi climatique mondial, si nous savons l’affronter avec intelligence et détermination, peut être une occasion historique de repenser et de rebâtir notre modèle économique et social sur des bases plus humaines, plus justes, plus solidaires, qui scelleront la nécessaire réconciliation entre l’homme, la nature et le progrès.
René TRÉGOUËT
Sénateur honoraire
Fondateur du Groupe de Prospective du Sénat
e-mail : tregouet@gmail.com
|
|
|
|
|
|
|
|
TIC |
|
|
Information et Communication
|
|
|
|
|
|
|
|
|
Les mathématiques peuvent prédire facilement l'évolution de processus simples, comme l'écoulement de l'eau d'un robinet. Mais dans les systèmes non linéaires, des éléments peuvent influer sur eux-mêmes : lorsque l’air circule autour des ailes d’un avion, le flux d’air modifie les interactions moléculaires, qui modifient en retour le flux d’air, etc. Ces boucles de rétroaction peuvent engendrer des phénomènes chaotiques : de petits changements dans les conditions initiales conduisent à un comportement radicalement différent par la suite, ce qui rend les prédictions presque impossibles – quelle que soit la puissance de l’ordinateur utilisé.
« C’est en partie pour cette raison qu’il est difficile de prédire la météo ou de comprendre le comportement des flux complexes de fluides », explique Andrew Childs, chercheur en information quantique à l’Université du Maryland. « Certains problèmes de calcul ardus pourraient être résolus si on arrivait à comprendre ces dynamiques non linéaires ».
Cela pourrait bientôt être possible. Dans des études indépendantes publiées en novembre 2020, deux équipes – l’une dirigée par Andrew Childs, l’autre au MIT (l’Institut de technologie du Massachusetts) – ont décrit de nouveaux outils qui devraient permettre à des ordinateurs quantiques de mieux modéliser la dynamique non linéaire.
Les ordinateurs quantiques tirent profit de phénomènes quantiques pour effectuer certains calculs plus efficacement que leurs homologues classiques. Il existe déjà des algorithmes exploitant ces capacités, qui pourraient venir à bout d’équations différentielles linéaires complexes de façon exponentiellement plus rapide que leurs homologues classiques. Les chercheurs ont longtemps espéré qu’ils pourraient également maîtriser les problèmes non linéaires avec des algorithmes quantiques astucieux.
Le problème est que la physique qui sous-tend les ordinateurs quantiques est elle-même fondamentalement linéaire et donc peu adaptée au traitement des systèmes non-linéaires. « C’est comme apprendre à une voiture à voler », déclare Bobak Kiani, coauteur de l’étude du MIT. Depuis plus de dix ans, les chercheurs en information quantique tentent d’utiliser des équations linéaires comme clés pour débloquer les équations différentielles non linéaires.
Une percée a été réalisée en 2010, lorsque Dominic Berry, aujourd’hui à l’Université Macquarie, à Sydney, a construit le premier algorithme permettant de résoudre des équations différentielles linéaires de façon exponentiellement plus rapide sur des ordinateurs quantiques que sur des ordinateurs classiques. Puis il s’est intéressé aux équations différentielles non linéaires. « Nous avions travaillé sur ce sujet », affirme Dominic Berry. « Mais nos résultats étaient très, très inefficaces ».
L’astuce consiste donc à trouver un moyen de convertir mathématiquement un système non linéaire en un système linéaire. Les deux nouvelles approches imitent ainsi la non-linéarité par un ensemble plus digeste d’approximations linéaires, bien que leurs méthodes varient considérablement. L’équipe d’Andrew Childs a utilisé la linéarisation de Carleman, une technique mathématique passée de mode depuis les années 1930, pour transformer des problèmes non linéaires en un ensemble d’équations linéaires.
Malheureusement, cet ensemble d’équations est infini. Les chercheurs doivent alors déterminer où ils peuvent s’arrêter dans la liste pour obtenir une approximation suffisante. « Est-ce qu’on prend les dix premières équations ? Les vingt premières ? » demande Nuno Loureiro, physicien des plasmas au MIT et coauteur de l’étude du Maryland. L’équipe a prouvé que, pour une classe particulière de non-linéarité, leur méthode permettait de tronquer cette liste infinie et d’aboutir à la résolution des équations.
L’article des chercheurs du MIT propose une approche différente, en modélisant tout problème non linéaire comme un condensat de Bose-Einstein. Il s’agit d’un état de la matière à très basse température où toutes les particules sont liées dans le même état quantique. Les particules influent les unes sur les autres dans des boucles de rétroaction caractéristiques de la non-linéarité.
L’algorithme du MIT imite ce phénomène non linéaire sur un ordinateur quantique, en utilisant la statistique de Bose-Einstein pour relier la non-linéarité et la linéarité. Ainsi, en imaginant un pseudo-condensat de Bose-Einstein adapté à chaque problème non linéaire, cet algorithme en déduit une approximation linéaire exploitable. « Donnez-moi votre équation différentielle non linéaire préférée, je construirai un condensat de Bose-Einstein qui la simulera », résume Tobias Osborne, chercheur en informatique quantique à l’Université Leibniz, à Hanovre, qui n’a participé à aucune des deux études. « C’est une idée que j’ai vraiment aimée ».
Les chercheurs ont maintenant deux façons distinctes d’aborder les problèmes non linéaires avec les ordinateurs quantiques. Selon Dominic Berry – qui n’a participé à aucun des deux articles –, « leur importance réside dans le fait qu’ils montrent qu’il est possible de tirer parti de ces méthodes pour obtenir un comportement non linéaire ». « Ce qui est intéressant dans ces deux articles, c’est qu’ils ont mis en évidence un régime où, compte tenu de certaines hypothèses, il existe un algorithme efficace », juge pour sa part Mária Kieferová, chercheuse en informatique quantique à l’Université de technologie de Sydney.
Article rédigé par Georges Simmonds pour RT Flash
Pour La Science
|
|
^ Haut |
|
|
|
|
|
|
|
Matière |
|
|
Matière et Energie
|
|
|
|
|
|
|
|
|
La densité énergétique actuelle des batteries lithium-ion traditionnelles reste insuffisante pour répondre aux exigences de l’avenir, par exemple dans les véhicules électriques. Les batteries au lithium métal peuvent fournir deux fois plus d’énergie par unité de poids que les batteries au lithium-ion. Le plus grand défi, qui entrave son application, est la formation de dendrites de lithium, de petites structures en forme d’aiguille, semblables aux stalagmites d’une grotte de pierre, sur l’anode de lithium métal. Ces dendrites continuent souvent à se développer jusqu’à percer la membrane séparatrice, provoquant un court-circuit de la batterie et finissant par la détruire.
Depuis de nombreuses années, les experts du monde entier cherchent une solution à ce problème. Des scientifiques de l’Université Friedrich Schiller d’Iéna, en collaboration avec des collègues de l’Université de Boston (BU) et de l’Université d’État de Wayne (WSU), ont réussi à empêcher la formation de dendrites et donc à doubler au moins la durée de vie d’une batterie au lithium métal.
Au cours du processus de transfert de charge, les ions lithium vont et viennent entre l’anode et la cathode. Chaque fois qu’ils captent un électron, ils déposent un atome de lithium et ces atomes s’accumulent sur l’anode. Une surface cristalline se forme, qui croît en trois dimensions là où les atomes s’accumulent, créant ainsi les dendrites. Les pores de la membrane séparatrice influencent la nucléation des dendrites. Si le transport des ions est plus homogène, la nucléation des dendrites peut être évitée.
« C’est pourquoi nous avons appliqué au séparateur une membrane bidimensionnelle extrêmement fine en carbone, dont les pores ont un diamètre inférieur à un nanomètre », explique le professeur Andrey Turchanin de l’Université d’Iéna. « Ces minuscules ouvertures sont inférieures à la taille critique des noyaux et empêchent donc la nucléation qui conduit à la formation de dendrites. Au lieu de former des structures dendritiques, le lithium se dépose sur l’anode sous la forme d’un film lisse ». La membrane séparatrice ne risque pas d’être endommagée par ce phénomène et la fonctionnalité de la batterie n’est pas affectée. « Pour tester notre méthode, nous avons rechargé à plusieurs reprises des batteries d’essai équipées de notre membrane séparatrice hybride », explique le Docteur Antony George de l’Université d’Iéna. « Même après des centaines de cycles de charge et de décharge, nous n’avons pu détecter aucune croissance dendritique ».
« L’innovation clé ici est la stabilisation de l’interface électrode/électrolyte avec une membrane ultra-mince qui ne modifie pas le processus actuel de fabrication des batteries », explique le professeur associé Leela Mohana Reddy Arava de la WSU. « La stabilité de l’interface est essentielle pour améliorer les performances et la sécurité d’un système électrochimique ».
Les batteries à haute densité d’énergie augmentent l’autonomie des véhicules électriques (VE) pour le même poids/volume de la batterie qu’un VE moderne possède et permettent aux appareils électroniques portables de durer plus longtemps en une seule charge. « Le séparateur reçoit le moins d’attention par rapport aux autres composants de la batterie », explique Sathish Rajendran, étudiant diplômé à la WSU. « La mesure dans laquelle une membrane bidimensionnelle d’un nanomètre d’épaisseur sur le séparateur pourrait faire une différence dans la durée de vie d’une batterie est fascinante ».
Par conséquent, l’équipe de recherche est convaincue que ses découvertes ont le potentiel de faire émerger une nouvelle génération de batteries au lithium. Elle a donc déposé une demande de brevet pour sa méthode. La prochaine étape consiste à voir comment l’application de la membrane bidimensionnelle peut être intégrée dans le processus de fabrication. Les chercheurs souhaitent également appliquer l’idée à d’autres types de batteries.
Article rédigé par Georges Simmonds pour RT Flash
Enerzine
|
|
|
|
|
|
|
|
"Underground Sun Conversion" : la technologie au nom passionnant, brevetée par la société énergétique autrichienne RAG Austria AG, offre un moyen de stocker l'énergie renouvelable de manière saisonnière et à grande échelle pour la rendre disponible toute l'année. En été, l'énergie renouvelable excédentaire – l'énergie solaire, par exemple – est transformée en hydrogène (H2). Il est ensuite stocké avec le dioxyde de carbone (CO2) dans des installations de stockage souterraines naturelles – par exemple d'anciens gisements de gaz naturel – à une profondeur de plus de 1000 mètres.
C'est là qu'interviennent les petits auxiliaires : des micro-organismes de la préhistoire, appelés archées, transforment par leur métabolisme l'hydrogène et le CO2 en méthane (CH4) renouvelable. Les archées sont présentes dans le monde entier, principalement dans des environnements anaérobies, c'est-à-dire à faible teneur en oxygène, et il y a des millions d'années, elles étaient déjà responsables de la transformation de la biomasse en gaz naturel. En introduisant de l'hydrogène et du CO2 dans des dépôts de grès poreux appropriés, ce processus est pratiquement relancé. Le méthane "produit" dans ces réservoirs peut ensuite en être extrait en hiver et utilisé de diverses manières comme gaz naturel neutre en CO2.
Des entreprises énergétiques et des instituts de recherche autrichiens et suisses ont maintenant uni leurs forces pour poursuivre le développement de cette technologie. Dans le cadre d'un projet financé par le programme-cadre de recherche européen ERA-Net et, en Suisse, par l'Office fédéral de l'énergie (OFEN), le potentiel technique et économique en Suisse et en Autriche sera exploré au cours des deux prochaines années.
En Suisse, l'entreprise énergétique Energie 360°, l'Empa, l'Université de Berne et l'Université des sciences appliquées OST de Suisse orientale, sont impliquées. L'Empa développe une perspective sur l'ensemble du système énergétique : « Nous examinons quand et où se produisent les surplus d'électricité, où se trouvent les sources de CO2 appropriées et, finalement, où se trouve la demande de gaz naturel renouvelable », explique Martin Rüdisüli du département Systèmes énergétiques urbains de l'Empa. Avec les conditions géologiques, qui sont étudiées par l'Université de Berne, et les conditions économiques limites, qui sont élaborées par l'OST, une carte des sites possibles pour l'application de la technologie "Underground Sun Conversion" doit être créée.
Martin Rüdisüli estime que cette technologie est prometteuse. En particulier parce que, outre la méthanisation biologique, elle apporte également une réponse au problème du stockage saisonnier : « Même avec une forte augmentation de la production de méthane, il ne serait pas nécessaire d'étendre l'infrastructure de stockage en surface grâce aux installations de stockage naturel à l'intérieur de la terre », explique-t-il.
La volatilité des sources d'énergie renouvelables est l'un des grands défis de la transition énergétique. En hiver, nous avons trop peu d'électricité renouvelable, en été trop. Dans une étude antérieure sur le potentiel de la technologie "power-to-gas" – c'est-à-dire la transformation de l'électricité renouvelable en vecteurs énergétiques chimiques tels que l'hydrogène ou le méthane – en Suisse, le chercheur de l'Empa Martin Rüdisüli a prédit un excédent d'une bonne dizaine de TWh d'électricité solaire en Suisse au cours des prochaines décennies – en supposant qu'une grande partie des surfaces de toit appropriées soient développées avec le photovoltaïque, ce qui est à son tour nécessaire si l'on veut remplacer l'électricité nucléaire. Si l'électricité excédentaire est transformée en méthane en été, cela permettrait de faire fonctionner toute l'année environ un million de véhicules à gaz sur une base d'énergie renouvelable.
Article rédigé par Georges Simmonds pour RT Flash
Empa
|
|
|
|
|
|
|
|
Des chercheurs du MIT ont mis au point un nouveau matériau de blindage surpassant le Kevlar et l’acier. Ce matériau a été créé à partir d’une résine photosensible, travaillée au laser afin de former un treillis composé d’entretoises microscopiques. Placé dans une chambre à vide à haute température, le polymère s’est transformé en un carbone ultra-léger, dont la structure s’inspire des mousses spécialement conçues pour absorber les chocs. « Le carbone est normalement fragile, mais la disposition de ce matériau nano-architecturé et la taille infime des entretoises lui confèrent une importante flexibilité », souligne Carlos Portela, auteur principal de l’étude.
En ajustant la disposition des entretoises en carbone, l’équipe a pu modifier ses propriétés. « Il s’agit d’une caractéristique propre aux matériaux constitués de structures nanométriques, mais nous avons utilisé une approche inédite pour étudier ces effets en conditions réelles », explique Portela. « Nous ne connaissions leur réaction que dans un schéma de déformation lente, alors qu’une grande partie de leur utilisation pratique est supposée intervenir dans le monde réel, où rien ne se déforme lentement ».
Les tests d’impact réalisés impliquaient une lame de verre dont l’une des faces était recouverte d’un film d’or et de particules d’oxyde de silicium. Lorsqu’un laser était projeté sur celle-ci, un plasma (gaz en expansion rapide) était généré, faisant voler les particules de la surface vers la cible. En faisant varier la puissance de ce dernier, les scientifiques pouvaient ajuster la vitesse des projectiles, et ainsi expérimenter toute une gamme de vitesses afin d’évaluer le potentiel de leur nouveau matériau.
Les particules ont été projetées sur le matériau à des vitesses supersoniques (allant jusqu’à 1 100 mètres par seconde) et des caméras ultra-rapides ont été utilisées pour étudier les impacts. Cette approche a également permis de tester différentes configurations, avec des entretoises en carbone de plusieurs épaisseurs, et d’identifier la conception la plus adaptée pour que les particules se logent dans le matériau plutôt que de le traverser. « Nous avons constaté qu’il pouvait absorber davantage d’énergie qu’un matériau dense et monolithique, grâce à ce mécanisme de compactage des chocs à l’échelle nanométrique », détaille Portela.
D’après l’équipe, à volume équivalent, ce matériau se révélant plus fin qu’un cheveu humain absorbe les impacts plus efficacement que l’acier, l’aluminium, ou même le Kevlar. Par conséquent, la mise à l’échelle d’une telle approche pourrait permettre le développement d’un blindage alternatif, plus léger et résistant que les matériaux traditionnels. « Les connaissances issues de ces travaux pourraient permettre la mise au point d’autres matériaux ultra-légers résistants aux chocs, incorporés aux systèmes de blindage, aux revêtements de protection et aux boucliers anti-explosion utilisés dans les domaines de l’aérospatiale et de la défense militaire », conclut Julia Greer, co-auteure de l’étude.
Article rédigé par Georges Simmonds pour RT Flash
Nature
|
|
|
|
|
|
|
|
Environ 95 % de la production mondiale d’hydrogène est fabriquée grâce à la technologie SMR (Steam methane reforming) à partir du gaz naturel ou grâce au procédé de gazéification du charbon. Cet hydrogène est qualifié de « gris » car sa production émet des quantités importantes de CO2. On parle de plus en plus de l’hydrogène « vert » produit grâce à l’électrolyse de l’eau à partir d’énergies renouvelables de type solaire ou éolien.
Il existe également une troisième voie, peu développée sur le plan industriel, car difficile à mettre en œuvre économiquement, et qui consiste à procéder à la pyrolyse du méthane. Cet hydrogène que l’on nomme « turquoise », Materia Nova y croit beaucoup. Cet institut de recherche, situé à Mons en Belgique, développe actuellement une nouvelle technologie par pyrolyse plasma dite hybride en vue de l’industrialiser.
Plusieurs solutions technologiques peuvent être mises en œuvre pour réaliser la pyrolyse du méthane. Celle développée par Materia Nova est une adaptation d’un procédé appelé Kvaerner, mis au point en 1990, et aujourd’hui en phase de commercialisation par la société américaine Monolith.
Mais selon Fabrizio Maseri, responsable du programme manager chez Materia Nova, cette technologie souffre de rendements limités et son plasma est mal utilisé : « ce plasma sert en effet à chauffer le gaz à près de 2 000 degrés kelvin afin de mettre en œuvre la pyrolyse thermique classique », déclare-t-il.
« De notre côté, nous utilisons d’autres types de plasmas dits hybrides, dont je ne peux pas dévoiler le nom pour des raisons de confidentialité, afin d’utiliser non seulement l’énergie thermique qu’ils contiennent, mais aussi l’énergie électronique et vibratoire. Cette différence permet de dissocier le méthane sans monter aussi haut en température. On évite ainsi les problèmes d’usures des matériaux qui ont des difficultés à résister à des températures si élevées et il n’est pas nécessaire d’arrêter le procédé tous les jours pour le nettoyer. On peut ainsi mettre au point un processus industriel qui tourne 24h sur 24 et à bas coût ».
Selon l’institut belge, leur technologie consomme intrinsèquement près de huit fois moins d’énergie que l’électrolyse de l’eau : 18,5 MJ (Mégajoules) par kg d’hydrogène produit contre 143. Cette différence s’explique par le fait qu’il est beaucoup plus facile de dissocier des molécules de méthane que d’eau. La pyrolyse plasma présente aussi l’avantage de ne pas consommer d’eau, un atout face à cette ressource limitée. Il faut savoir qu’environ 10 tonnes d’eau sont nécessaires pour produire une tonne d’hydrogène vert et entre 20 et 2 tonnes pour l’hydrogène gris.
Sur le plan des émissions de CO2, cette nouvelle technologie n’en produit aucun car la pyrolyse plasma est réalisée en absence d’oxygène. La technologie SMR en émet, quant à elle, entre 10 à 12 tonnes par tonne d’hydrogène. « Concernant l’électrolyse de l’eau, il est faux de dire qu’elle est neutre sur le plan du carbone, explique Fabrizio Maseri. Il faut en effet intégrer le CO2 produit pour construire les équipements qui produiront de l’électricité. Sur la base d’une analyse de cycle de vie, l’émission d’un parc éolien est de 11 g de CO2 équivalent par kWhe (kilowattheure électrique) et celle d’un parc solaire de 50. De plus, il n’est pas possible d’utiliser de l’eau usée, ni de l’eau de mer pour réaliser l’électrolyse, car l’eau doit être extra-pure. Il est donc nécessaire de procéder à des traitements de l’eau, comme l’osmose inverse pour la purifier, mais qui produisent du CO2 ».
Dès 2022, Materia Nova souhaite démarrer la mise en place d’un projet visant la production d’hydrogène par pyrolyse plasma grâce à un partenariat d’industriels, avec l’objectif de mettre en place un pilote préindustriel produisant 1 000 tonnes d’hydrogène chaque année. Une grande partie du méthane utilisé pour ce pilote proviendra du gaz naturel et sera donc d’origine fossile. « Nous sommes obligés de privilégier le gaz naturel car il est disponible en grande quantité et nous avons besoin de volumes importants », complète Fabrizio Maseri.
Une petite fraction du méthane aura aussi pour originalité de provenir du gaz de mines car, même fermées, les mines de charbon situées en Wallonie mais aussi ailleurs en Europe continuent à produire du grisou qui s’échappe à l’air libre. « Il est très utile d’éviter ces émissions en les valorisant, car le méthane est un puissant gaz à effet de serre, 23 fois plus puissant que le CO2 selon le GIEC », précise Fabrizio Maseri. « De notre côté, on considère qu’il est même jusqu’à 40 fois plus puissant ». Du biométhane sera aussi utilisé pour alimenter la pyrolyse plasma. Étant donné qu’il contient une part élevée de CO2, des prétraitements seront donc réalisés pour le concentrer en méthane à des concentrations équivalentes à celle du gaz naturel.
L’objectif de Materia Nova est de réussir à produire cet hydrogène turquoise à un prix aussi compétitif que l’hydrogène gris, et participer à la décarbonation de l’industrie belge. Pour cela, l’Institut souhaite aussi valoriser le carbone solide, issu, comme l’hydrogène, de la pyrolyse du méthane. Ce composé, également appelé « noir de carbone », est en effet utilisé pour fabriquer des pneus ou des colorants qui sont ensuite incorporés dans des peintures et des plastiques noirs. Il peut également servir à la fertilisation des sols en agriculture. « Il est actuellement produit à partir de résidus du pétrole et d’huiles usagées mais sa fabrication émet entre 3 à 4 tonnes de CO2 par tonne de carbone solide produit. Le consortium d’industriels accompagnant Materia Nova commercialisera donc ce noir de carbone décarboné, mais aussi d’autres formes plus avancées de carbone, accessibles par pyrolyse plasma hybride et sans émission de CO2, comme le graphène », complète Fabrizio Maseri.
Article rédigé par Georges Simmonds pour RT Flash
Techniques de l'Ingénieur
|
|
^ Haut |
|
|
|
|
|
|
|
Espace |
|
|
Espace et Cosmologie
|
|
|
|
|
|
|
|
|
La NASA a annoncé qu'elle allait tester un nouveau type de voile solaire plus performante au milieu de l'année prochaine. Le principe de la voile solaire repose sur l’idée d’utiliser les rayonnements du Soleil pour assurer la propulsion d’une sonde, comme pourrait le faire un voilier s’appuyant sur la force du vent.
À plus long terme, ce moyen de propulsion pourrait nous permettre de parcourir de plus longues distances dans l’espace tout en économisant de l’énergie. Il pourrait également allonger la durée des missions en complément des moyens de propulsion chimiques actuels limités par la quantité de carburant disponible.
De telles structures ont déjà été testées par le passé et plus récemment dans le cadre de la mission LightSail 2, développée par la Planetary Society. Placé à environ 720 km d’altitude, le petit CubSat (10 × 10 × 30 cm) a en effet déployé avec succès sa voile solaire de trente-deux mètres carrés en juillet 2019. La NASA compte libérer une autre de ces voiles dans l’espace dès l’année prochaine. Ce nouveau système, baptisé ACS3, est en cours de développement depuis 2018 par la société NanoAvionics.
Cette nouvelle mission se basera sur le déploiement d’une voile “à flèche composite” plus légère et durable, susceptible d’économiser de la masse et donc les coûts des futurs lancements. La voile sera de forme carrée. Entièrement déployée, elle couvrira environ 36 mètres carrés et sera soutenue par quatre bômes. D’après la NASA, la même technologie pourrait également supporter des voiles faisant environ la taille d’un terrain de basket (un peu plus de 400 mètres carrés). La NASA a déclaré que les bômes de cette prochaine mission, qui fonctionnent un peu comme la bôme d’un voilier qui se connecte à son mât et maintient la voile tendue, seront fabriquées à partir d’un matériau polymère renforcé de fibre de carbone, ce qui les rendra 75 % plus légères que celles en métal standard.
D’après la NASA, ce matériau composite pourra être enroulé pour permettre un rangement compact, mais restera solide une fois déroulé. Il sera également beaucoup plus résistant au gauchissement induit par la chaleur.
Article rédigé par Georges Simmonds pour RT Flash
Space
|
|
^ Haut |
|
|
|
|
|
|
|
Terre |
|
|
Sciences de la Terre, Environnement et Climat
|
|
|
|
|
|
|
|
|
Des scientifiques de l'Université de New York croient avoir découvert le « pouls » de la Terre, qui expliquerait certains phénomènes géologiques qu'on croyait aléatoires. Si cette métaphore rappelle que notre planète est bel et bien vivante, les battements du cœur de la Terre coïncident, selon les chercheurs, avec une série de cataclysmes qui surviennent à sa surface et dans ses océans. Ces activités géologiques seraient parfois responsables de vagues d'extinction des espèces qui peuplent le globe.
Ce sont d'ailleurs ces événements majeurs – éruptions volcaniques en série, mouvements des plaques tectoniques , inondations des continents ou autres – qui ont permis aux scientifiques d'identifier une récurrence dans l'activité géologique de la Terre. Les chercheurs, sous la direction du professeur Michael Rampino, ont analysé les données d'études portant sur 89 événements géologiques (l'extinction des dinosaures, par exemple), répartis sur les dernières 260 millions d'années, à la recherche d'un cycle.
Ils ont constaté que ces événements planétaires surviennent généralement dans des laps de temps rapprochés, qu'ils ont regroupés en dix périodes distinctes. La Terre aurait donc ce qu'ils appellent un pouls, au rythme d'un battement toutes les 27,5 millions d'années. Quelles que soient les causes de ces épisodes cycliques, nos résultats démontrent que la géologie est largement périodique, coordonnée et catastrophique par intermittence, ce qui constitue une nouveauté par rapport aux points de vue de nombreux géologues.
Au début du 20e siècle, personne n'avait de preuve qu'il s'agissait bel et bien de cycles, avance Michael Rampino. Et beaucoup de géologues croyaient que ces cycles étaient aléatoires. L'amélioration des techniques de datation par radio-isotope et les mises à jour de l'échelle de temps géologique auront permis aux scientifiques de compiler de nouvelles données, et d'observer plus clairement ces corrélations.
Son équipe de recherche pense ainsi être en mesure de prévoir le comportement de la Terre. Selon les résultats présentés, la dernière de ces périodes cataclysmiques remonte à environ sept à dix millions d'années. La planète en aurait donc au moins pour 15 millions d'années avant de connaître une nouvelle vague de catastrophes en série.
Article rédigé par Georges Simmonds pour RT Flash
Radio Canada
|
|
|
|
|
|
|
|
Nous sommes en 2050 et l’ensemble de la population européenne ne se nourrit plus que de produits locaux, cultivés sans pesticide ni engrais de synthèse. Ce scénario peut paraître utopique. Il est pourtant tout à fait réaliste, selon une étude réalisée par une équipe internationale de chercheurs et publiée le 18 juin dans la revue One Earth.
Chiffres à l’appui, les chercheurs montrent que l’Europe pourrait atteindre l’autosuffisance alimentaire en 2050 sans recours aux engrais azotés. Utilisé en remplacement du fumier pour fertiliser les terres, l’azote industriel occupe depuis la Seconde Guerre mondiale une place centrale dans le système agricole européen. Son utilisation à grande échelle est pourtant néfaste à la santé des humains et des écosystèmes : émissions de gaz à effet de serre, pollution des nappes phréatiques, eutrophisation des milieux aquatiques… Les engrais de synthèse ont permis l’avènement d’un modèle agricole intensif « largement déséquilibré », selon Gilles Billen, directeur de recherche émérite au Centre national de la recherche scientifique (CNRS) et coauteur de cette étude. La bonne nouvelle, explique le biogéochimiste, est qu’il est possible de faire autrement.
L’équipe de chercheurs a identifié trois leviers pour nourrir l’Europe sans recourir aux engrais de synthèse ni augmenter la surface de terres cultivées. Le premier est un changement global de régime alimentaire. En moyenne, les Européens consomment aujourd’hui deux tiers de protéines animales pour seulement un tiers de protéines végétales. 80 % de la production agricole sont par conséquent consacrées à l’alimentation du bétail. Cette proportion pourrait être considérablement réduite si la population européenne optait pour un régime méditerranéen. En consommant davantage de légumes et de céréales que de viande et de fromage, « nous aurions besoin de moins produire, ce qui permettrait de le faire de manière moins intensive », explique Gilles Billen.
Autre levier : reconnecter la culture et l’élevage. L’Europe est aujourd’hui constituée de régions agricoles hyperspécialisées. La Bretagne concentre ainsi la plus grande partie des porcs et des bovins français, tandis que l’Île-de-France produit en grande majorité des céréales, précise le chercheur.
Réinstaller les élevages à proximité des terres agricoles permettrait de recycler les déjections animales en fumier, et donc de s’émanciper des engrais de synthèse. « On imagine mal aujourd’hui des trains ou des camions remplis d’effluents d’élevage transportant du fumier entre différentes régions », note Gilles Billen. Le retour à la polyculture élevage permettrait également d’en finir avec l’importation de soja pour l’alimentation des animaux, l’un des principaux moteurs de la déforestation en Amérique latine. « La taille du cheptel dans chaque région doit être calibrée sur les ressources en fourrage que permet le territoire ».
L’équipe de chercheurs préconise enfin de généraliser les rotations des cultures (que pratiquent déjà les agriculteurs bio) afin d’enrichir les terres de manière naturelle. « On commence par cultiver des légumineuses fourragères comme le trèfle ou la luzerne », explique Gilles Billen. « Ces cultures servent à l’alimentation du bétail, tout en fixant suffisamment d’azote de l’air pour les cultures céréalières suivantes. On peut ensuite cultiver pendant une ou deux années des céréales, puis revenir à une légumineuse à graines, comme la lentille ou le pois chiche, et ainsi de suite ».
Le fait d’alterner les cultures pourrait également diminuer la vulnérabilité de la production aux attaques parasitaires, et donc permettre aux agriculteurs de se passer de pesticides : « Si l’on plante année après année la même variété de blé hypersélectionné sur la même parcelle, immanquablement, des parasites apparaissent. Au contraire, les rotations longues et diversifiées laissent de la place à la faune sauvage, à d’autres auxiliaires qui mangent les pucerons et les chenilles ».
Le grand mérite de cette étude, selon le chercheur, est de montrer qu’il est parfaitement possible de nourrir l’Europe de manière saine et écologique. « On entend souvent dire que l’agriculture biologique n’est pas assez productive, qu’elle produit 30 % de rendement en moins. Cette allégation d’une moindre productivité intrinsèque de l’agriculture biologique ne résiste pas à une analyse sérieuse comparant ce qui est comparable ». Ce modèle pourrait même être appliqué à d’autres régions.
Une étude publiée en 2018 avait déjà montré que cela était possible pour la France. L’équipe de chercheurs a également commencé à travailler sur des scénarios à l’échelle du monde. Elle estime que dix milliards d’êtres humains pourraient être nourris sans engrais de synthèse en 2050, à condition que leurs régimes soient composés de moins de 40 % de protéines animales.
Concrétiser ce scénario et atteindre l’autonomie alimentaire sans engrais azotés implique de repenser totalement notre modèle agricole. L’étude souligne notamment le potentiel du recyclage des excreta humains, actuellement interdit dans le cahier des charges de l’agriculture biologique. « Aujourd’hui, l’azote des déjections humaines est traité dans les stations d’épuration et renvoyé dans l’atmosphère par des procédés de dénitrification coûteux en énergie, alors que l’on en a besoin pour l’agriculture. Si l’on veut se passer d’engrais industriels, il faut les recycler ! » insiste Gilles Billen.
Article rédigé par Georges Simmonds pour RT Flash
One Earth
Science Direct
|
|
^ Haut |
|
|
|
|
|
|
|
Vivant |
|
|
Santé, Médecine et Sciences du Vivant
|
|
|
|
|
|
|
|
|
Des chercheurs de CEA-Joliot/SHFJ et de l'Hôpital Ste-Anne ont comparé les premiers signes cliniques de la maladie d'Alzheimer rapportés par des malades âgés de moins de 62 ans et de plus de 65 ans. Pour les plus jeunes, ils apparaissent souvent dans le contexte professionnel et sont mal reconnus.
Lorsque la plainte initiale ne correspond pas à des symptômes neurologiques cognitifs tels que des troubles du langage ou de la mémoire, le diagnostic posé est celui de burn out et conduit à un suivi psychiatrique. C'est le cas pour 32 % des malades d'Alzheimer les plus jeunes de la cohorte étudiée. La plainte cognitive initiale chez les patients les plus jeunes se distingue de celle des plus âgés par une moindre prédominance du déficit mnésique (38 % versus 87 %) et par une plus grande fréquence des symptômes liés au cortex cérébral (langage, fonctions visuo-spatiales, comportement).
Souvent repérés dans un cadre professionnel, les premiers signes cliniques peuvent être trompeurs chez les patients jeunes. Le diagnostic de la maladie d'Alzheimer est posé plus de deux ans après leur survenue, à un stade plus sévère que pour les malades âgés. Les chercheurs émettent l'hypothèse d'un dysfonctionnement précoce des réseaux pariétaux-frontaux, responsable d'un déficit de la mémoire de travail, identifié à tort comme un burn out.
Plusieurs études montrent en effet que les lésions du cortex pariétal sont plus présentes chez les patients les plus jeunes que chez les plus âgés. Il est donc absolument nécessaire de mieux former les professionnels de santé et d'informer largement le public de ces résultats, pour à la fois améliorer le diagnostic de la maladie d'Alzheimer chez les plus jeunes et leur ouvrir sans délai l'accès à des soins spécialisés et à des essais thérapeutiques.
Article rédigé par Georges Simmonds pour RT Flash
CEA
|
|
|
|
|
|
|
|
Des chercheurs de l'Institut Fédéral suisse des Sciences et des Technologies (Eawag) ont modifié génétiquement des bactéries provenant de décharges indiennes pour les rendre capables de décomposer des produits chimiques. Elles pourraient un jour servir à éliminer les pesticides qui s'accumulent dans la nature.
Le chemin à parcourir est encore long, mais l'approche est prometteuse, ont indiqué récemment le Laboratoire fédéral d'essai des matériaux et de recherche (Empa) et l'Institut de recherche sur l'eau (Eawag). Les travaux sont réalisés en collaboration avec la Haute école spécialisée des sciences appliquées de Zurich (ZHAW) et deux instituts indiens de New Delhi.
Les chercheurs ont modifié les gènes d'une bactérie provenant d'une décharge indienne et ils ont produit des enzymes dégradant le HCH, un hexachlorocyclohexane présent dans l'insecticide lindane. Une enzyme est un biocatalyseur avec lequel les bactéries peuvent construire ou décomposer des substances chimiques.
La molécule polluante HCH s'insère dans l'enzyme comme une clé dans une serrure. Ensuite, une partie de la molécule est séparée. Les fragments sont à nouveau libérés et l'enzyme est alors prête à absorber la molécule polluante suivante, expliquent les chercheurs.
Les scientifiques ont aussi réussi à élargir le "trou de serrure" pour que les grosses molécules de l'agent ignifuge hexabromocyclododécane (HBCD), interdit dans le monde entier depuis 2014, puissent être décomposées plus facilement. La modification génétique a effectivement permis d'accélérer la vitesse de décomposition du polluant.
« Cela signifie que nous avons maintenant une chance d'utiliser des méthodes biologiques pour rendre inoffensives ces toxines à longue durée de vie », souligne le chercheur de l'Empa, Norbert Heeb. Mais il reste un long chemin à parcourir. Le principe de verrouillage des enzymes utiles doit encore être approfondi avant que l'on puisse disposer d'enzymes sur mesure pour les toxines chimiques.
Article rédigé par Georges Simmonds pour RT Flash
Empa
|
|
|
|
|
|
|
|
L'équipe de recherche conduite par Laurent Reber, chercheur à l’Inserm et à l’Institut Pasteur, en partenariat avec l’entreprise Neovacs, a mis au point, chez la souris, un vaccin capable de diminuer les symptômes de l’asthme sévère. L’asthme est une maladie chronique qui touche 4 millions de personnes en France et plus de 300 millions dans le monde.
Cette maladie est très hétérogène mais on estime que 50 % des patients souffrent d’un asthme allergique, qui se caractérise par une inflammation des bronches et une gêne respiratoire suite à l’inhalation d’allergènes – acariens, pollens, poils de chats... Cette exposition entraîne la production dans les voies respiratoires d’anticorps (des immunoglobulines IgE) et des cytokines (des interleukines 4 et 13, IL-4 et IL-13). Ces dernières, en se fixant à des récepteurs cellulaires, déclenchent des réactions en cascade qui aboutissent à une hyperréactivité des voies respiratoires, une surproduction de mucus et un recrutement de globules blancs.
Si les corticoïdes représentent le traitement de référence dans l’asthme, des anticorps thérapeutiques (de type monoclonaux) ont été récemment développés pour les cas d’asthme sévère résistant aux corticoïdes. « Ces anticorps, comme le dupilumab, ciblent les voies de signalisation de l’IL-4 et de l’IL-13 et sont efficaces dans l’asthme sévère. Mais ils sont très onéreux, de l’ordre de 15 000 euros par an pour un patient, et nécessitent des injections très fréquentes, toutes les deux semaines », explique Laurent Reber.
Ces chercheurs ont donc décidé de développer un vaccin, dans l’idée d’éduquer le système immunitaire à produire ses propres anticorps contre les interleukines 4 et 13. Ils ont mis au point un vaccin conjugué nommé « kinoïde », en couplant des protéines IL-4 et IL-13 avec une protéine particulière, une forme mutée non pathogène de la toxine diphtérique. Cette dernière, étant très immunogène, déclenche une réaction du système immunitaire.
« Ces vaccins conjugués sont très utilisés dans la lutte anti-infectieuse pour cibler des protéines qui n’induisent pas de réponse immunitaire, par exemple parce qu’elles sont trop petites. Ici il s’agissait de « leurrer » le système immunitaire pour qu’il reconnaisse des protéines du soi », décrypte Laurent Reber. Les résultats précliniques sur des souris montrent que ce vaccin induit bien la production d’anticorps contre les interleukines 4 et 13, avec une forte activité neutralisante dans 90 % des cas dès six semaines après la vaccination. Cette activité était toujours visible chez 60 % des souris un an après la première vaccination.
Grâce à un modèle animal d’asthme allergique lié aux acariens, les chercheurs ont montré une diminution des symptômes typiques de la maladie : baisse des taux d’IgE, du recrutement de globules blancs, de la production de mucus et de l’hyperréactivité des voies respiratoires. La vaccination contre les interleukines IL-4 et IL-13 se montre supérieure aux vaccinations contre l’une ou l’autre seulement.
C’était attendu, car on suspecte qu’elles agissent à différents moments de la réponse allergique : IL-4 plutôt précocement, notamment en influant sur le taux d’IgE, et IL-13 plus tardivement, en augmentant la production de mucus. « Des traitements par anticorps monoclonaux ciblant uniquement IL-4 ou IL-13 avaient d’ailleurs échoué en phases II et III, là où le dupilumab, qui cible un récepteur commun aux deux, se montre, lui, très performant », note Laurent Reber.
Enfin, les équipes ont montré, sur un modèle de souris exprimant les interleukines 4 et 13 humaines ainsi que leur récepteur commun humain, une neutralisation efficace des deux cytokines et des niveaux réduits d’IgE pendant au moins onze semaines après la vaccination. « Nous avons là une preuve qu’il est possible de produire un vaccin contre les cytokines humaines. Son efficacité est suffisante pour réduire la suractivité des cytokines et devrait donc permettre d’atténuer les symptômes de façon durable », se félicite le spécialiste.
Aucun effet secondaire n’a été observé, ce qui reste à confirmer dans des essais cliniques sur l’humain, puisque ces cytokines peuvent aussi être impliquées dans des processus de défense physiologique, notamment contre des vers parasites. Des essais sont prévus d’ici à deux ans chez l’homme.
Article rédigé par Georges Simmonds pour RT Flash
Pour La Science
|
|
|
|
|
|
|
|
Des chercheurs de l’Inserm, du CNRS et du Collège de France au Centre interdisciplinaire de recherche en biologie, ont montré le rôle-clé des astrocytes, cellules longtemps considérées comme secondaires dans les capacités cognitives, dans la fermeture de la période de plasticité cérébrale qui suit la naissance. Les astrocytes auraient une place centrale dans le développement des facultés sensorielles et cognitives après la naissance. A plus long terme, ces travaux permettent d’envisager de nouvelles stratégies pour ré-introduire la plasticité cérébrale chez l’adulte, et ainsi favoriser la rééducation après des lésions cérébrales ou des troubles neuro-développementaux.
La plasticité cérébrale est une période transitoire clé où le cerveau, après la naissance, remodèle le câblage des neurones en fonction des stimulations extérieures qu’il reçoit (environnement, interactions…). La fin – ou fermeture – de cette période marque la stabilisation des circuits neuronaux, associée à un traitement efficace des informations et à un développement cognitif normal. Cela ne signifie pas qu’il n’y a plus aucune plasticité ensuite, mais qu’elle est très réduite par rapport au début de la vie.
Les problèmes qui interviennent pendant la période de plasticité cérébrale peuvent avoir des conséquences importantes à long terme. Ainsi par exemple, si durant cette période, un individu souffre d’une pathologie oculaire qui l’empêche de voir correctement, comme par exemple un strabisme, le câblage cérébral qui correspond à cette faculté sera altéré définitivement si l’œil n’est pas soigné à temps.
Afin d’y remédier, les chercheurs ont pour objectif de remodeler ce câblage en identifiant une thérapie qui permettrait de réintroduire la plasticité cérébrale même après la fin du développement. Pour cela, ils cherchent aussi à mieux caractériser les mécanismes biologiques qui sous-tendent la fermeture de la période de plasticité cérébrale.
Des études pionnières des années 1980 ont montré que greffer des astrocytes immatures dans le cerveau d’animaux adultes permettait d’induire à nouveau une période de grande plasticité. L’équipe de la chercheuse Inserm Nathalie Rouach au Centre interdisciplinaire de recherche en biologie (Inserm/CNRS/Collège de France) s’est inspirée de ce procédé pour révéler le processus cellulaire, jusqu’ici inconnu, à l’origine de la fermeture de la période de plasticité.
A travers des expériences menées en s’intéressant au cortex visuel de la souris, les chercheurs montrent que la présence des astrocytes immatures est clé pour la plasticité cérébrale. Les astrocytes orchestrent ensuite le développement de la maturation d’interneurones pendant la période de plasticité, ce qui aboutit in fine à sa fermeture. Ce processus de maturation a lieu via un mécanisme inédit impliquant l’action de la Connexine 30, une protéine que les chercheurs ont retrouvée en forte concentration dans les astrocytes matures durant la période de fermeture.
Afin de répondre à cette question, les chercheurs ont mis en culture des astrocytes immatures issues du cortex visuel de jeunes souris (qui avaient entre 1 et 3 jours). Ils ont ensuite greffé ces astrocytes immatures dans le cortex visuel primaire de souris adultes. Il s’agissait alors d’évaluer l’activité du cortex visuel après quatre jours d’occlusion monoculaire, une technique classique pour évaluer la plasticité cérébrale. Les chercheurs ont alors trouvé que la souris greffée avec des astrocytes immatures présentait un haut niveau de plasticité, contrairement à la souris non greffée.
« Cette étude nous rappelle qu’en neurosciences nous ne devons pas uniquement nous intéresser aux neurones. Les cellules gliales, dont les astrocytes font partie, régulent la plupart des fonctions du cerveau. Nous avons réalisé que ces cellules ont des rôles actifs. Les cellules gliales sont en effet moins fragiles que les neurones et constituent donc un moyen plus accessible d’intervenir sur le cerveau », souligne Nathalie Rouach, coordinatrice de l’étude.
Les cellules gliales représentent plus de la moitié des cellules du cerveau. Elles n’ont pas le même lignage cellulaire que les neurones et leurs fonctions sont très différentes. On pensait jusque récemment qu’elles étaient les « nettoyeuses » du cerveau, mais les chercheurs ont réalisé qu’elles avaient aussi un rôle actif de libération de molécules.
Par rapport aux neurones, elles arrivent plus tard dans le développement, n’ont pas le même mode de communication, et sont majoritaires. Ces travaux sur les astrocytes permettent d’envisager de nouvelles stratégies cellulaires et moléculaires visant à ré-ouvrir une période de plasticité accrue chez l’adulte afin par exemple de favoriser la réadaptation après une lésion cérébrale ou de pallier les dysfonctionnements sensori-moteurs ou psychiatriques issus de troubles neuro-développementaux.
Article rédigé par Georges Simmonds pour RT Flash
Inserm
|
|
|
|
|
|
|
|
La dégénérescence maculaire liée à l’âge (DMLA) est une maladie du vieillissement particulièrement invalidante, qui se caractérise par une dégradation de la rétine pouvant mener à une perte de la vision centrale.
Jusqu’à 30 % des personnes âgées de plus de 75 ans seraient concernées. Vingt millions de personnes en Europe. Depuis des années, plusieurs groupes de chercheurs œuvrent pour développer une rétine artificielle qui pourrait redonner la vue à ces patients, ainsi qu’aux individus atteints de rétinopathie pigmentaire.
La rétine est composée de cellules sensibles à la lumière appelées photorécepteurs, dont le but est de transformer les signaux lumineux reçus par l’œil en signaux électriques acheminés vers le cerveau. Ce sont ces cellules qui sont détruites au cours de ces pathologies, ce qui peut mener à la cécité.
Parmi les facteurs de risques ? Une insuffisance en acides gras oméga-3 dans la rétine qu’il était jusqu’alors impossible à mesurer. C’est la raison pour laquelle on considère les stratégies de prévention en la matière cruciales !
Ces acides gras oméga-3 à longue chaîne, qui se trouvent dans la rétine, sont des lipides que l’on trouve dans l’alimentation et notamment dans le poisson. Ils jouent un rôle essentiel car ils assurent la vision au niveau des photorécepteurs mais ont également des fonctions anti-inflammatoires, limitent la mort cellulaire et le développement vasculaire dans la rétine, trois mécanismes primordiaux pour prévenir la DMLA.
« Des approches nutritionnelles par un apport supplémentaire en acides gras oméga-3 ont été développées pour prévenir ou limiter la DMLA. Mais l’évaluation de l’efficacité de ces approches se heurte à l’impossibilité de mesurer la concentration en acides gras dans la rétine. C’est pourquoi l’équipe de recherche s’est penchée sur l’identification de marqueurs sanguins permettant de l’évaluer.
Grâce à des études récentes, ces scientifiques ont pu montrer qu’une concentration élevée du biomarqueur sanguin était associée à un moindre risque d’avoir une forme avancée de DMLA et que la concentration du biomarqueur augmentait après supplémentation en acides gras oméga-3.
Ce biomarqueur permettrait donc d’identifier très tôt les personnes à risque de développer une DMLA, avant détection par examens ophtalmologiques. Une fois identifiées, elles pourraient ainsi être accompagnées sur le plan nutritionnel. Un brevet sur ce biomarqueur prédictif du statut rétinien en acides gras oméga-3 et l’algorithme de prédiction a été déposé par INRAE et l’Inserm.
Article rédigé par Georges Simmonds pour RT Flash
Inrae
|
|
|
|
|
|
|
|
La mort des neurones spécialisés dans la synthèse de la dopamine, l’un des principaux neurotransmetteurs du cerveau, détériore les capacités motrices et cognitives des personnes atteintes de la maladie de Parkinson. La perte de ces neurones est liée à l’agrégation de l’alpha-synucléine.
Des études récentes montrent que les oligomères, les agrégats initiaux de cette protéine, sont les formes les plus pathogènes de l’α-synucléine et sont responsables de la propagation de la maladie dans le cerveau. Dans ce cadre, une équipe internationale de chercheurs a identifié un peptide particulier empêchant l’agrégation de l’α-synucrkinsonléine.
Par conséquent, l’une des approches les plus prometteuses pour lutter contre ce trouble consiste à neutraliser ces oligomères et, ainsi, ralentir la progression pathologique. Cependant, le fait que ces agrégats ne présentent pas une structure définie et qu’ils soient de nature transitoire rend extrêmement difficile l’identification de molécules qui se lient avec une force suffisante pour explorer une quelconque application clinique.
Une collaboration scientifique entre des chercheurs de l’Institut de biotechnologie et de biomédecine (IBB) de l’Universitat Autònoma de Barcelona (UAB) et de l’Instituto de Biocomputación y Física de Sistemas Complejos (BIFI) de l’Universidad de Zaragoza (UniZar), a désormais pu identifier un peptide endogène humain, baptisé LL-37, qui se fixe fortement et spécifiquement sur les oligomères de l’α-synucléine, évitant ainsi leur agrégation et bloquant leur neurotoxicité, deux processus étroitement liés au déclin neurodégénératif de la maladie de Parkinson.
« Le LL-37 interagit avec les oligomères toxiques d’alpha-synucléine de manière sélective et avec une force supérieure à celle de tout peptide précédemment décrit, équivalente à la force présentée par les anticorps. Il inhibe l’agrégation à de très faibles concentrations et protège les cellules neuronales de l’endommagement », soulignent les chercheurs.
Article rédigé par Georges Simmonds pour RT Flash
Nature
|
|
|
|
|
|
|
|
Notre cerveau est habituellement bien protégé contre les entrées incontrôlées de molécules provenant de la périphérie grâce à la barrière hémato-encéphalique, une barrière physique de cellules tapissant les parois des vaisseaux sanguins. Toutefois, l’hypothalamus est une exception notable à cette règle.
Cette région située à la base du cerveau, et caractérisée par des vaisseaux sanguins y ouvrant une « porte », est exposée à diverses molécules bioactives circulant dans le sang. Cette caractéristique anatomique détermine aussi sa fonction de rhéostat, impliqué dans la coordination de la détection d’énergie et du comportement alimentaire.
Plusieurs hormones et nutriments sont connus pour leur influence sur le neurocircuit de la prise alimentaire dans l’hypothalamus. Des exemples classiques en sont la leptine et l’insuline qui contribuent toutes deux à informer le cerveau sur l’énergie disponible. Ces dernières années, la liste des signaux déclencheurs de l’appétit ou de la satiété s’est régulièrement allongée avec l’identification de plusieurs hormones intestinales. Elles participent au réglage fin du comportement alimentaire en régulant la perception de la faim ou de la satiété, ce qui conduit finalement à commencer ou à terminer un repas. L’axe intestin-cerveau est donc un garde-barrière critique dans la régulation du comportement alimentaire.
Les acides biliaires font partie des métabolites les plus abondants dans l’intestin et servent de molécules de signalisation polyvalentes qui servent d’intermédiaire entre la disponibilité des nutriments et une réponse physiologique en activant le récepteur membranaire sensible aux acides biliaires, le récepteur couplé à la protéine G Takeda 5 (TGR5). Bien que les Grecs anciens aient déjà postulé que la bile puisse affecter notre état d’esprit, nous savons très peu de choses sur le rôle de signalisation de ces métabolites dans le cerveau.
Dans une nouvelle étude du laboratoire de Kristina Schoonjans à l’EPFL, réalisée avec le Brain Mind Institute et la Plateforme Technologique Bertarelli de thérapie génique de l’EPFL, et plusieurs collaborateurs en France, en Italie et aux États-Unis, les auteurs ont montré que les acides biliaires arrivent dans le cerveau de la souris peu après un repas pour supprimer la prise alimentaire. Les acides biliaires s’échappent du tube digestif, s’accumulent provisoirement dans la circulation sanguine et apparaissent très brièvement dans l’hypothalamus après le repas.
Les auteurs ont prouvé que la réponse anorexique des acides biliaires est relayée par le TGR5, situé à la surface cellulaire d’un groupe distinct de cellules hypothalamiques, appelées neurones AgRP/NPY. En concentrant leurs investigations sur cette sous-population neuronale, ils ont trouvé que les acides biliaires servent d’intermédiaires à deux processus échelonnés dans le temps. « Alors que les acides biliaires bloquent fortement la libération de peptides stimulateurs de l’appétit AgRP et NPY pendant les premières minutes suivant leur fixation sur le récepteur associé, ils renforcent en outre l’inhibition en atténuant l’expression de ces neurotransmetteurs », explique Alessia Perino, premier auteur de l’article.
Pendant les deux dernières décennies, les acides biliaires ont été identifiés comme molécules pouvant soulager les troubles métaboliques et inflammatoires chroniques. Des études précédentes du laboratoire de Schoonjans ont démontré que l’activation systémique du TGR5 atténue l’obésité chez des souris rendues obèses par leur régime alimentaire.
L’étude actuelle révèle que l’axe de signalisation acides biliaires - TGR5 ne joue pas seulement un rôle important dans la pathologie, mais aussi dans le contrôle physiologique du comportement alimentaire. En l’absence de graisses alimentaires, les acides biliaires suppriment temporairement la prise alimentaire sans affecter l’équilibre énergétique normal.
« Ce n’est pas surprenant, car l’homéostase est un processus autorégulé dans lequel les systèmes tendent à maintenir leur stabilité » précise Kristina Schoonjans. « Par contre, une alimentation constamment très riche en graisses peut rompre cet équilibre. Il sera intéressant de savoir si les neurocircuits identifiés contribuent à l’effet connu de réduction pondérale des acides biliaires dans le cadre d’une obésité résultant du régime alimentaire ».
Article rédigé par Georges Simmonds pour RT Flash
EPFL
|
|
^ Haut |
|
|
|
|
|
VOTRE INSCRIPTION |
|
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
|
|
|
|
|
|