RTFlash

RTFLASH Recherche & Technologie
NUMERO 968
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 28 Septembre 2018
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
Avenir
Un robot qui sait se déplacer…sans voir
Matière
Un nouveau matériau change de façon réversible sa structure en fonction de la lumière
Façonner le verre comme un polymère
La cristallographie neutronique pourrait révolutionner la conception de nouveaux médicaments
Terre
A quel rythme le carbone des sols se renouvelle-t-il ?
Vivant
Réduire le risque de maladie d'Alzheimer grâce à un vaccin contre l'herpès ?
Thérapie génique : vers des traitements Car-T plus efficaces et mieux tolérés
Lille : Un patient opéré du cœur sous hypnose
La photosynthèse fonctionne aussi dans l’infrarouge !
Curcumine : son mécanisme d'action anticancer se dévoile…
Prévention cardiovasculaire : mieux tenir compte du sexe des patients
Un tissu de foie artificiel bio-imprimé en 3D
Un nouveau cas de diabète sur sept dû à la pollution de l'air !
Dépister à domicile le déclin cognitif
Vers une immunothérapie ciblée qui ne s'attaque qu'aux tumeurs
Une étape importante vers un vaccin contre le virus du Sida
Se sentir jeune, pour un cerveau en bonne santé
Recherche
Airobotics dévoile ses drones autonomes
Edito
CO2 : comment le capturer, le transformer et le valoriser ?



Depuis un siècle, nos émissions mondiales de CO2 ont été multipliées par huit et ont progressé deux fois plus vite que la population mondiale, passant d’environ 5 gigatonnes, au sortir de la première guerre mondiale, à plus de 40 gigatonnes aujourd’hui. On le sait, après une stabilisation de trois ans, les émissions humaines mondiales de CO2, dopées par la croissance économique de la Chine qui en émet à présent plus du quart, sont reparties à la hausse, avec 41 gigatonnes en 2017, soit 2 % de plus qu’en 2016.

Or, comme l’indique clairement le rapport de l’ONU publié fin 2017 et intitulé « Rapport sur le pic d’émissions de CO2 en 2017 » (Voir UN), les engagements pris par la communauté internationale dans le cadre de la COP 21 ne suffiront pas, surtout après le retrait américain, à atteindre les objectifs de réduction qui auraient permis de réduire à deux degrés le réchauffement climatique au cours de ce siècle.

Si l'on souhaite avoir une chance d'échapper à ce réchauffement de 2°C à l'horizon 2100, le récent rapport indique que les émissions totales ne doivent pas excéder les 42 milliards de tonnes de CO2 en 2030. Ce seuil représente environ 80 % des émissions totales de gaz à effet de serre qui ont atteint, l’année dernière, 52 milliards de tonnes d'équivalent de CO2.

Les engagements pris en vertu de l'Accord de Paris sont malheureusement loin d'atteindre cet objectif. Même dans le meilleur des scénarios d’application de cet accord, les émissions mondiales en 2030 atteindront au moins 53 milliards de tonnes en équivalent de CO2 en 2030, soit un dépassement de 11milliards de tonnes, l’équivalent des émissions actuelles de CO2 de la Chine…

Une autre étude internationale de grande ampleur publiée en septembre 2017 réévalue, certes, à la hausse notre « budget carbone » planétaire, qui serait d’environ 880 gigatonnes au total (soit 20 ans d’émissions au niveau actuel) mais nous rappelle néanmoins que, pour ne pas dépasser un réchauffement global de 1,5°, il faudra diminuer d’au moins 25 % nos objectifs de réduction d’émissions de CO2 d’ici 2030, par rapport aux engagements de la COP21. Cette étude, réalisée par les meilleurs spécialistes mondiaux du climat, souligne également qu’entre 2030 et 2050, il faudra absolument tendre vers la neutralité carbone, ce qui suppose à la fois une réduction drastique de nos émissions et la capture/transformation du CO2 qu’il sera impossible de ne pas émettre (sans doute autour de 10 gigatonnes par an en 2050).

Cela veut dire clairement qu’il faudra donc, d’ici 2030, en plus d’un effort considérable de réduction mondiale des émissions de CO2 liées à l’énergie, à l’industrie, à l’agriculture, aux transports et au logement, réduire encore de 20 % à 25 % en plus ces émissions en recourant à de nouvelles technologies économiquement viables de stockage, de transformation et de neutralisation du CO2 (Voir Nature).

Depuis de nombreuses années, des scientifiques tentent d’aspirer le dioxyde de carbone (CO2) qui contribue au réchauffement climatique, pour en faire du carburant en le combinant avec de l’hydrogène. Plusieurs laboratoires se sont lancés dans cette entreprise mais les coûts du recyclage s’étaient jusqu’à présent révélés prohibitifs : de l’ordre de 600 dollars (518 €) la tonne de CO2 recyclé.

Heureusement, plusieurs découvertes et avancées scientifiques sont venues, ces dernières années, relancer la perspective d’une capture et d’une transformation, à un coût économiquement acceptable,  du CO² présent dans l’atmosphère.

Fin 2016, des scientifiques du Laboratoire national d'Oak Ridge dans le Tennessee ont par exemple découvert de manière fortuite, alors qu'ils testaient un catalyseur au graphène pour convertir le CO2 en combustible, une nouvelle réaction chimique qui transforme le dioxyde de carbone en éthanol. Ces hercheurs on en effet eu la surprise de constater qu’une base de cuivre et de carbone sur une surface de silicium, baptisée "nanospikes"  permettait une réaction chimique produisant de l'éthanol (Voir Wiley).

Ces recherches ont montré que les nanospikes - qui représentent seulement quelques atomes d'épaisseur – s’avèrent bien plus efficaces, à cause de leur structure tridimensionnelle asymétrique, qu'un catalyseur plat comme le graphène. Ce catalyseur, composé de nanoparticules de cuivre disséminées dans des pics de carbone, présente une surface irrégulière qui accélère la conversion du CO² en éthanol. Evalué en laboratoire, son rendement varie de 63 à 70 %, en fonction de l'échantillon, ce qui est considéré comme remarquable. Par ailleurs, la réaction fonctionne à température ambiante et consomme peu en énergie. Cette nouvelle technologie pourrait potentiellement être utilisée pour produire un carburant renouvelable, compatible avec les véhicules thermiques actuels. Mais cette technique pourrait également permettre de  stocker les excédents d’énergie produits sous la forme d’éthanol, ce qui constituerait un moyen puissant et peu onéreux d’équilibrer les réseaux de distribution alimentés par des sources d’énergie renouvelable intermittentes.

La société canadienne Carbon Engineering (notamment financée par Bill Gates) vient pour sa part d’annoncer qu’elle avait développé une solution permettant de diviser ce tarif par trois. Son procédé, baptisé AIR TO FUELS, fait coup double : il élimine le CO2 présent dans l'atmosphère tout en générant un carburant propre, entièrement compatible avec les moteurs existants.

Concrètement, cette entreprise utilise des ventilateurs géants appelés DAC (Direct Air Capture – capture directe d’air), qui capturent le CO2 grâce à des fixateurs chimiques. Le dioxyde de carbone peut ensuite être injecté sous terre ou réutilisé pour produire différents matériaux, ou combiné à de l’hydrogène, pour produire du méthane de synthèse. Celui-ci étant chimiquement proche du contenu du gaz naturel, il peut sans difficultés être injecté en grandes quantités dans les infrastructures gazières existantes. À grande échelle, cette solution permettrait de capturer du CO2 pour un coût situé entre 94 et 232 dollars la tonne. Quant au carburant produit à partir de ce CO2 piégé, il reviendrait à environ un dollar le litre, avec une empreinte carbone inférieure de 70 % à celle d'un combustible fossile.

Carbon Engineering affirme que son usine pilote située à Squamish, en Colombie-Britannique (Canada) sera capable, à plein régime, de capturer un million de tonnes de Co2 par an. En théorie, il serait donc possible, à l’aide de 4 000 de ces unités réparties sur toute la surface du globe, de capturer et de réutiliser 10 % (4 gigatonnes) des émissions annuelles totales de CO2 d’origine humaine.

Autre innovation importante à souligner, celle proposée par une start-up indienne, Carbon Clean Solutions (CCSL).Fondée par deux ingénieurs indiens et financée par une subvention du gouvernement britannique, cette jeune société a démarré avec succès sa première installation et réalisé une première mondiale en réussissant à capter et réutiliser à 100 % les émissions de CO2 d'une petite centrale à charbon en Inde, à Chennai (Madras). Désormais, 60.000 tonnes de CO2 seront captées chaque année. Purifié, le CO2 sera ensuite revendu à un industriel local, Tuticorin Alkali Chemicals and Fertilizers, qui a besoin de ce CO2 pour fabriquer ses produits.

Grâce à ce nouveau procédé qui divise par deux le coût du captage par rapport aux techniques actuelles de captage aux amines, il devient envisageable de capter et de  purifier le CO2 à un coût assez bas pour que sa revente soit possible à un prix concurrençant celui du marché du CO2 liquéfié. La technologie mise au point par CCCL permet en effet de proposer un carbone recyclé à 40 dollars la tonne sur le marché européen, un prix nettement inférieur à celui du CO2 que les industriels doivent acheter sur le marché pour satisfaire leurs besoins, et qui leur est facturé, en fonction des usages, entre 70 et 140 dollars la tonne.

En France, la recherche est également très active dans ce domaine stratégique de la neutralisation et de la valorisation du CO2. Une équipe de chercheurs du Laboratoire d'électrochimie moléculaire (Université Paris Diderot/CNRS) en collaboration avec une équipe japonaise (Tokyo Institute of Technology, Tokyo, Japon) et une équipe chinoise (City University of Hong Kong, Hong Kong) vient de développer un procédé capable de transformer le dioxyde de carbone (CO2), un des principaux gaz à effet de serre émis par les activités humaines, en monoxyde de carbone (CO) à l'aide de lumière solaire, d'un catalyseur moléculaire à base de fer et d'un matériau carboné qui absorbe la lumière et permet d'activer le catalyseur. Principale innovation : cette transformation est pour la première fois effectuée avec des matériaux abondants (Voir JACS).

En outre, la molécule produite, le monoxyde de carbone est une des « matières premières » essentielles de l'industrie chimique, notamment pour la production de méthanol ou de méthane.

Contrairement à la plupart des processus utilisés cette transformation du CO2 en CO - qui reposent sur des catalyseurs à base de métaux rares et précieux - ces chercheurs ont réussi à mettre au point un système catalytique n’employant que des éléments abondants et peu coûteux, en particulier du fer. Ce processus catalytique fonctionne de plus à pression et température ambiantes, ce qui ouvre enfin la voie vers la production massive de « carburant solaire », utilisant le CO2 comme matière première renouvelable.

Mais c’est peut-être en s’inspirant de la nature que les scientifiques trouveront la solution la plus efficace à ce redoutable défi que constitue la capture et la transformation du CO2. Appelée BECCS (Production de Bioénergie à partir du Carbone Capturé et Stocké), l’idée consiste à utiliser des plantes et végétaux  pour faire d’une pierre, deux coups : absorber du CO2 de l’atmosphère et produire des biocarburants avec un haut rendement.

Des chercheurs américains de l’Université de Santa Cruz (Californie, de l’Institut de recherche navale de Washington et de l’Université Boulder (Colorado) ont publié, il y a quelques semaines, une étude dans laquelle ils proposent un nouveau procédé électro-géochimique d’émission négative de CO2 (Voir Nature). Leur concept revient à utiliser de l'énergie électrique, issue d’un mix solaire-éolien-nucléaire, pour décomposer l’eau de mer par électrolyse et produire de l'hydrogène. Celui-ci serait ensuite stocké en attendant d'être utilisé par des piles à combustibles.

Mais la véritable innovation n’est pas là ; elle réside dans l’utilisation et la maîtrise de toute une série de réactions chimiques entre les produits de l'électrolyse de l'eau de mer et des minéraux, des carbonates et silicates, ce qui permet, in fine, non seulement de capturer de grandes quantités de CO2 atmosphérique, mais également de produire du bicarbonate. Celui-ci pourrait être relargué dans les océans, pour lutter contre leur acidification accélérée, un phénomène qui menace tout la chaîne du vivant, à commencer par le plancton marin. Selon cette étude, ce nouveau procédé de production négative d'énergie serait 50 fois plus efficace que les techniques de BECCS proposées jusqu’à présent.

Les chercheurs à l’origine de ce procédé électro-géochimique affirment que cette nouvelle technique d’émission négative de CO2 pourrait produire au moins 300 exajoules d’énergie-hydrogène par an, soit environ sept gigatonnes-équivalent-pétrole, ce qui représente plus de la moitié de la production mondiale d’énergie en 2017. Cette technique pourrait par ailleurs éviter l’émission d’au moins 90 gigatonnes de CO2 par an dans l’atmosphère, soit plus du double des émissions humaines annuelles de CO2 (41 gigatonnes par an en 2017). Quant au coût d’une telle production d’énergie, elle dépendrait fortement des sources d’énergie utilisées et varierait de 7 dollars par kilowatt-heure d’hydrogène, en utilisant l’énergie hydraulique, à seulement 64 cents, en ayant recours à de l’électricité solaire.

On le voit, des ruptures technologiques majeures sont en cours et laissent entrevoir la possibilité, parallèlement à l’effort mondial absolument nécessaire de réduction à la source de nos émissions, de capturer, de recycler et de valoriser les quantités gigantesques de carbone  - 5,5 tonnes en moyenne par être humain et par an - que nous envoyons dans l’atmosphère.

Reste que, pour pouvoir déployer dans un temps suffisamment bref ces nouvelles solutions technologiques à un niveau industriel massif leur permettant de neutraliser plus de 10 gigatonnes de CO2 par an, il faudra obligatoirement, comme l’a bien montré le rapport dirigé conjointement par Nicolas Stern et Joseph Stigitz en 2017, que la communauté internationale parvienne à fixer un prix mondial par tonne de CO2 de l’ordre de 40 et 80 dollars la tonne en 2020, et de 50 et 100 dollars en 2030 (Voir CPLC). Ce juste prix du carbone, intégrant son coût social, environnemental et humain, permettra, comme le souligne avec force ces deux grands économistes, d’accélérer la sortie inexorable des énergies fossiles et rendra également compétitifs les investissements visant à limiter à la source nos émissions de CO2, non seulement grâce aux énergies renouvelables, mais plus encore par une rupture numérique en terme d’efficacité énergétique de nos sociétés (industrie, bâtiment, déplacements, agriculture, travail).

On le voit, ce défi planétaire de la capture, de la transformation et de la neutralisation du carbone est intimement liée à la rupture énergétique en cours et à la mutation numérique conduisant à une extrême efficience dans la production, le stockage et la distribution de l’énergie. Loin d’être une simple variable d’ajustement dans nos économies, cet enjeu du recyclage et de la valorisation du carbone émis par l’homme va devenir jusqu’à la fin de ce siècle, et sans doute au-delà, l’un des principaux moteurs de la transformation de nos économies et de nos sociétés vers un nouveau mode de développement totalement circulaire et biocompatible.

René TRÉGOUËT

Sénateur honoraire

Fondateur du Groupe de Prospective du Sénat


Avenir
Nanotechnologies et Robotique
Un robot qui sait se déplacer…sans voir
Mercredi, 26/09/2018 - 14:43

le MIT vient de présenter un robot de nouvelle génération qui a fait sensation. Baptisée Cheetah, cette étonnante machine qui ressemble à un gros chien est en effet capable de se mouvoir « à l’aveugle » dans un environnement irrégulier et encombré ; il peut également sauter sur une table ou se faire bousculer par un homme… sans tomber !

Pouvant atteindre une vitesse maximale de 16 km/heure, les prouesses de ce robot sont d'autant plus remarquables qu'elles sont accomplies sans aucun système de vision. Si les concepteurs de Cheetah ont fait ce choix radical, c'est parce que ce robot devra être capable de gérer des situations inattendues sans se fier à la vision. Comme le souligne l'un de ses créateurs, Kim Sangbae, professeur agrégé de génie mécanique au MIT, « La vision peut être bruyante, légèrement inexacte et parfois non disponible. Et si vous comptez trop sur la vision, votre robot doit être très précis dans la position et sera finalement lent. Nous voulons donc que le robot s’appuie davantage sur des informations tactiles. De cette façon, il peut gérer des obstacles inattendus tout en se déplaçant rapidement ».

Pour pouvoir franchir à l’aveugle des escaliers, évoluer dans des terrains compliqués d’accès ou retrouver son équilibre, Cheetah a un secret : il utilise deux nouveaux algorithmes très sophistiqués développés par le MIT : un algorithme de contact et un algorithme de contrôle prédictif. Le premier aide le robot à déterminer le meilleur moment pour qu’une jambe passe du balancement dans l’air au pas au sol. Et ce, en calculant constamment trois probabilités pour chaque jambe : entrée en contact avec le sol, force générée par le sol et balancement de jambe. L’ensemble est calculé à partir des données reçues par les gyroscopes, accéléromètres et des positions articulaires des jambes.

Le second algorithme permet de prédire la force qu’une jambe doit appliquer sur le sol une fois engagée dans un mouvement. Il calcule les positions du corps et des jambes du robot une demi-seconde dans le futur. L’algorithme est conçu pour réaliser des calculs toutes les 50 millisecondes ou 20 fois par seconde.

A terme, ce robot devrait être capable d’effectuer des tâches dangereuses ou inaccessibles pour les êtres humains. « Cheetah 3 est conçu pour réaliser des tâches polyvalentes telles que l’inspection d’une centrale électrique qui implique divers terrains comme des escaliers, des bordures et des obstacles sur le terrain » ajoute Kim Sangbae. 

Article rédigé par Georges Simmonds pour RT Flash

Youtube

^ Haut
Matière
Matière et Energie
Un nouveau matériau change de façon réversible sa structure en fonction de la lumière
Mercredi, 26/09/2018 - 15:19

Des chercheurs du MIT américain ont conçu un matériau polymère capable de modifier sa structure en réponse à la lumière, en passant d’une substance rigide à une substance plus souple. Le matériau est constitué de polymères attachés à une molécule sensible à la lumière qui peut être utilisée pour modifier les liaisons formées dans le matériau. Ces matériaux pourraient à long terme être utilisés pour revêtir des objets tels que des voitures ou des satellites, leur donnant la possibilité de se réparer seuls après avoir été endommagés.

Beaucoup de propriétés des polymères, telles que leur rigidité et leur capacité à se dilater, sont contrôlées par leur topologie – comment les composants du matériau sont disposés. Habituellement, une fois qu’un matériau est formé, sa topologie ne peut pas être modifiée de façon réversible. Par exemple, une bille de caoutchouc reste élastique et ne peut être rendue cassante sans changer sa composition chimique.

Ici les chercheurs ont voulu créer un matériau pouvant basculer de façon réversible entre deux états topologiques différents, ce qui n’a pas été fait auparavant. Un type de matériau conçu il y a quelques années, connu sous le nom de cages polymères-métal-organiques, ou polyMOCs, était un candidat prometteur pour cette approche. Les polyMOC sont constitués de structures en forme de cage, contenant des métaux, réunies par des lieurs polymères flexibles. Les chercheurs ont créé ces matériaux en mélangeant des polymères attachés à des groupes appelés ligands, qui peuvent se lier à un atome de métal.

Dans la nouvelle étude, les chercheurs ont entrepris de concevoir un matériau qui pourrait basculer de façon réversible entre deux cages de tailles différentes : une avec 24 atomes de palladium et 48 ligands, et une avec trois atomes de palladium et six molécules de ligand. Pour y parvenir, ils ont incorporé une molécule sensible à la lumière appelée DTE dans le ligand. Lorsque les chercheurs mettent la lumière verte sur le matériau, l’anneau est brisé, l’angle de liaison devient plus petit et les plus petits groupes se reforment. Le processus pour se dérouler pleinement prend environ cinq heures et les chercheurs ont constaté qu’ils pouvaient effectuer l’inversion jusqu’à sept fois ; à chaque inversion, un faible pourcentage des polymères ne revient pas en arrière.

Lorsque le matériau est dans l’état de « petit cluster », il devient jusqu’à 10 fois plus souple et plus dynamique. Cette approche surmonte le compromis qui se produit habituellement avec les matériaux d’auto-réparation, qui est que structurellement ils ont tendance à être relativement fragiles.

Dans ce cas, le matériau peut basculer entre un état plus souple, auto-cicatrisant et un état plus rigide. Pour leur démonstration, les chercheurs ont utilisé le polymère polyéthylène glycol (PEG) pour fabriquer leur matériau, mais ils estiment que cette approche pourrait être utilisée avec n’importe quel type de polymère. Hormis l’auto-réparation, une autre application possible de ces matériaux est la délivrance de médicaments à la demande grâce à la lumière.

Article rédigé par Georges Simmonds pour RT Flash

Design News

Façonner le verre comme un polymère
Mercredi, 26/09/2018 - 04:49

Des scientifiques du Karlsruhe Institute of Technology (KIT) en Allemagne ont développé une technologie de mise en forme du verre de quartz qui permet de le manipuler et de le façonner comme un polymère.

Le verre de quartz obtenu par exemple par fusion du quartz possède des propriétés physiques et chimiques qui font son attrait : très grande transparence à la lumière visible, UV et infrarouge, résistant aux chocs mécaniques et thermiques, résistant aux attaques chimiques, aux rayons ionisants ainsi que des caractéristiques diélectriques et un faible coefficient de dilatation.

Alors qu’on fabrique habituellement les verres de quartz par fusion de quartz ou de silice à des températures de l’ordre de 800°C avant de les usiner ou de les tailler avec des lasers, les chercheurs du KIT procèdent par fabrication additive, en partant des particules de verres les plus petites possibles. Ainsi, ils mélangent des particules de verre de 40nm dans un polymère liquide. Le mélange est ensuite durci par chauffage ou exposition à la lumière. Le solide qui en résulte est composé à 60 % de verre et 40 % d’un polymère qui agit comme un liant retenant les particules de verre aux bons endroits et maintenant la forme générale.

Ce « Glassomer », comme les scientifiques l’ont baptisé, peut être fraisé, tourné, usiné au laser ou traité dans des machines à commandes numériques comme n’importe quel polymère conventionnel.

Pour récupérer un verre de quartz de grande pureté, il faut ensuite retirer le polymère. Cela se fait dans un four à 500-600°C. Le polymère se transforme en CO2 et laisse place à une pièce poreuse qui va être frittée à 1300°C. A cette température, la matière va se densifier laissant place à un solide dense, non poreux et fait de quartz très pur. Ce type de procédé est calqué sur celui qui existe par exemple en fabrication additive métallique (metal binder jetting).

Ce procédé de mise en forme permet non seulement la production de verre très pur façonnable librement mais en plus il est adapté à une production industrielle et «  moins cher, plus soutenable et plus efficace en matière énergétique que d’autres procédés de fabrication », explique le Dr. Bastian E. Rapp, à la tête du troupe de recherche interdisciplinaire NeptunLab. Par exemple, il ne nécessite pas l’emploi de produits chimiques très dangereux comme l’acide fluorhydrique souvent utilisé pour façonner le verre de quartz.

Article rédigé par Georges Simmonds pour RT Flash

Les Techniques de l'Ingénieur

La cristallographie neutronique pourrait révolutionner la conception de nouveaux médicaments
Lundi, 24/09/2018 - 13:23

En utilisant un nouvel outil prometteur, la cristallographie neutronique, une équipe de recherche internationale a réussi pour la première fois à observer le mode d'action précis de l’enzyme PKG, associée à plusieurs pathologies, dont le cancer de l’estomac, qui cause 750 000 décès par an dans le monde et l'ostéoporose, qui touche plus de 200 millions de personnes au niveau mondial.

L’enzyme PKG II (Protéine Kinase G II) est une kinase dépendante de la guanosine monophosphate cyclique. Elle joue un rôle important dans la santé humaine et peut augmenter le risque de maladies comme le cancer de l’estomac et l’ostéoporose si elle n’est pas activée. Ces chercheurs ont voulu comprendre comment cette enzyme interagit avec des activateurs connus afin d’orienter le développement de médicaments et de traitements futurs.

Dans ce cadre, des chercheurs ont montré que la cristallographie neutronique est une technique viable permettant de mieux comprendre ce processus, en l’utilisant pour la première fois afin d’observer l’enzyme PKG II en action.

Lors d’une étude résultant d’une collaboration à l’échelle mondiale et publiée dans la revue Biochemistry, des cristaux ont été obtenus par des chercheurs de l’Oak Ridge National Laboratory (ORNL) du ministère de l’Énergie des États-Unis, situé dans le Tennessee, à partir de protéine PKG II fournie par le Baylor College of Medicine au Texas (États-Unis), puis ont été analysés à l’Institut Laue-Langevin (ILL) de Grenoble. Ces scientifiques ont ainsi pu révéler en détail les mécanismes d’activation de l’enzyme, ouvrant la voie vers la conception de nouvelles thérapeutiques contre le cancer de l’estomac et l’ostéoporose.

Cette collaboration a également levé le voile sur les facteurs qui influencent l’activation enzymatique, ce qui est important non seulement pour la PKG II, mais aussi pour d’autres protéines kinases telles que la protéine kinase A (PKA), qui est associée à l’incidence du cancer. Rappelons que chez l’Homme, environ 2 % des gènes codent pour les protéines kinases, et que plus de la moitié de celles-ci sont liées à diverses maladies telles que le cancer et le diabète.

Matthew Blakeley, scientifique responsable de l’instrument LADI-III à l’Institut Laue-Langevin (ILL) et coauteur de l’étude, a déclaré que : "La cristallographie neutronique nous permet de déterminer les positions des atomes d’hydrogène, ce qui nous fournit des informations cruciales sur les interactions par liaisons hydrogène entre les petites molécules, ou inhibiteur, et leurs cibles protéiques".

D’après Andrey Kovalevsky, scientifique chargé de l’instrument IMAGINE à l’Oak Ridge National Laboratory et co-auteur principal de l’étude, "il est très prometteur que nous ayons pu observer la transmission d’informations à travers la protéine PKG II pendant le processus d’activation et commencer à déterminer les facteurs qui permettent à certaines petites molécules d’activer l’enzyme mieux que d’autres. Ces connaissances auront un impact important sur notre compréhension actuelle de diverses maladies, et nous aideront à développer les médicaments et les traitements du futur".

Article rédigé par Georges Simmonds pour RT Flash

Biochemistry

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
A quel rythme le carbone des sols se renouvelle-t-il ?
Mardi, 25/09/2018 - 07:54

Réservoir majeur du carbone de la planète, avec plus de 1 500 milliards de tonnes contre seulement la moitié pour l’atmosphère ou les végétaux, les sols sont au cœur des flux de carbone du système terrestre. Ainsi, les végétaux fixent le carbone du CO2 de l'atmosphère grâce à la photosynthèse, l'incorporent au sol sous forme d’exsudats racinaires et de résidus.

Le carbone y séjourne ensuite pendant des durées variables avant d’être en très grande partie converti à nouveau en CO2, grâce à la respiration des organismes décomposeurs. Ces échanges continus entre sol et atmosphère contribuent à réguler la teneur en CO2 de l’atmosphère, et donc le climat, et sont susceptibles d’affecter la productivité des agro-écosystèmes.

Autant d’éléments clés qui justifient de bien connaître la dynamique des échanges de carbone entre sols et atmosphère pour en apprécier les conséquences. A la faveur d’une analyse d’envergure, des chercheurs de l’Inra, du CEA et du CNRS ont mis en évidence qu’au cours des 50 dernières années, ce ne sont pas moins de 25 % du carbone du premier mètre des sols de la planète qui ont été renouvelés, avec une contribution significative des couches profondes.

Exploitant les isotopes stables naturels du carbone pour réaliser leurs propres mesures et les données de quelque 50 études scientifiques, les chercheurs ont déterminé la durée de résidence et la distribution verticale du carbone issu de la végétation dans 112 sols de prairies, forêts ou cultures, situés sur l’ensemble du globe.

Ils ont ainsi montré qu’entre 1965 et 2015, environ un quart du carbone des sols de la planète a été renouvelé – on parle de carbone jeune datant de moins de 50 ans. Si environ 80 % de ce carbone jeune se trouvent dans les couches superficielles du sol (0 - 30 cm de profondeur), 20 % sont dans les couches plus profondes (30 cm - 1 m).

Le renouvellement du carbone en profondeur résulte de la savante contribution de la faune qui mélange les sols – on parle de bioturbation – jusqu’à quelque 70 cm de profondeur ; des racines, apportant du carbone jusqu'à environ 2 m, et des décomposeurs qui dégradent les matières organiques, un processus qui s’estompe progressivement en profondeur.

Si l'on savait déjà que la culture, par rapport aux prairies et forêts, réduit sévèrement la teneur en carbone des couches superficielles des sols (0 – 30 cm) principalement du fait des récoltes de végétaux, les scientifiques montrent en revanche que les sols cultivés reçoivent des quantités relativement importantes de carbone en profondeur puisque les couches profondes (30 cm - 1 m) abritent 30 % du carbone jeune.

De façon globale, le carbone qui est renouvelé est incorporé pour moitié entre 0 et 10 cm de profondeur et pour moitié au-delà. Cette profondeur médiane est de 9 cm en forêt contre 17,5 cm dans des sols cultivés, soulignant l’impact de l’usage des sols et notamment des pratiques agricoles sur le renouvellement du carbone.

Cependant, même dans la partie superficielle des sols tempérés cultivés, l'âge du carbone organique est élevé, de l'ordre de 75 ans, traduisant le fait que les matières organiques de nos sols actuels sont l’héritage de leur gestion par plusieurs générations d'agriculteurs.

Les chercheurs ont mis en évidence que la contribution des couches profondes du sol au carbone jeune dépend peu de la température, mais davantage des précipitations : elle est plus forte en climat sec, probablement parce que l'enracinement des végétaux est alors plus profond.

Ces travaux offrent des résultats déterminants à propos de la dynamique d’incorporation du carbone de l’atmosphère dans les différentes couches des sols. Immanquablement, ils permettront de mieux prévoir l'évolution du cycle du carbone, d'améliorer le bilan carbone des sols et de bien comprendre les facteurs de variation du stockage de carbone entre différents sites et pour différents usages des terres.

Article rédigé par Georges Simmonds pour RT Flash

CEA

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Réduire le risque de maladie d'Alzheimer grâce à un vaccin contre l'herpès ?
Mercredi, 26/09/2018 - 15:11

De nombreux spécialistes de la maladie d'Alzheimer sont enclins à penser que certains virus du type de l'herpès pourraient être responsables de cette maladie neurodégénérative. Des analyses du tissu cérébral de patients décédés de la maladie d'Alzheimer ont en effet montré des traces plus importantes de certaines formes du virus de l'herpès que chez les personnes sans Alzheimer.

S'appuyant sur ces découvertes, des scientifiques des universités de Manchester et d'Edimbourg (Grande-Bretagne), Ruth Itsaki et Richard Lathe soutiennent la thèse du traitement contre l'herpès pour réduire le risque de la maladie d'Alzheimer. En se basant sur les conclusions d'une étude taïwanaise qui a suivi le développement de la maladie d'Alzheimer chez 8400 patients de plus de 50 ans atteints d'herpès, ces deux chercheurs, les Professeurs Ruth Itzhaki de Manchester et Richard Lathe d'Edimbourg, ont publié une étude intitulée "Première preuve d'un lien de causalité entre virus de l'herpès et démence sénile".

Pour ces chercheurs, "Des antiviraux sûrs et facilement disponibles peuvent avoir un rôle important à jouer dans la lutte contre la maladie d'Alzheimer. On peut même imaginer la possibilité future de prévenir la maladie neurodégénérative grâce au vaccin contre l'herpès que l'on intégrerait dans le calendrier vaccinal".

Article rédigé par Georges Simmonds pour RT Flash

NCBI

Thérapie génique : vers des traitements Car-T plus efficaces et mieux tolérés
Mercredi, 26/09/2018 - 15:04

Les thérapies cellulaires qui utilisent la technologie Car-T représentent une véritable révolution dans la lutte contre les tumeurs du sang : il s’agit d’une technologie qui consiste à modifier certaines cellules du système immunitaire (précisément les lymphocytes) pour les rendre capables de reconnaître et éliminer la tumeur. Cependant, l’extraordinaire efficacité des lymphocytes s’accompagne du risque de graves toxicités, parmi lesquelles le fréquent syndrome de la libération de cytokines (CRS), des molécules qui sont fortement inflammatoires, et la neurotoxicité, plus rare, mais malheureusement mortelle.

Une équipe de chercheurs de l’IRCCS Hôpital San Raffaele - une des structures d’excellence du groupe hospitalier San Donato - a découvert le mécanisme moléculaire à l’origine des toxicités et elle a démontré l’efficacité potentielle d’un traitement, déjà utilisé pour l’arthrite, pour les prévenir et guérir. La découverte, publiée sur Nature Medicine, pourrait rendre la thérapie Car-T plus sûre.

Les lymphocytes Car-T présentent sur leur surface des récepteurs dit « chimériques », conçus en laboratoire et synthétisés en assemblant différentes molécules. Les récepteurs chimériques permettent aux lymphocytes de reconnaître de manière sélective les cellules de la tumeur. « L’idée à la base de cette thérapie c’est d’éduquer le système immunitaire à distinguer les cellules malades de celles saines », explique Attilio Bondanza, le responsable de la recherche.

À travers la mutation génétique, les lymphocytes Car-T sont capables de déclencher la réaction immunitaire contre la tumeur avec une efficacité sans précédent. C’est pour cela qu’en 2017 la FDA américaine en a accepté l’utilisation pour certaines tumeurs du sang (la leucémie lymphoblastique chez les enfants et le lymphome chez les adultes). En Europe, l’approbation de l’EMA est attendue avant la fin de l’année 2018.

Comme tout traitement, leur efficacité peut s’accompagner de quelques effets secondaires. La CRS est un syndrome assez commun chez les patients soumis à la thérapie avec les lymphocytes Car-T. En général, elle se manifeste quelques jours après l’infusion et elle est normalement maîtrisable grâce à l’utilisation du tocilizumab, un médicament qui interfère avec la cytokine IL-6.

Toutefois, après quelques semaines, chez un nombre réduit mais important de patients, un autre effet se manifeste, qui était jusqu’à présent très difficile à traiter et qui peut se révéler fatal : la neurotoxicité. « Jusqu’à présent, il était impossible d’étudier la nature de la CRS et de la neurotoxicité, et surtout de comprendre la relation entre les deux par manque d’un modèle expérimental capable de reproduire ces phénomènes », explique Margherita Norelli, le premier auteur de la publication scientifique.

Pour résoudre le problème, le groupe de recherche, afférent à la Division d’Immunologie, Transplantations et Maladies Infectieuses du San Raffaele, a mis au point un modèle de souris humanisée - une souris dont le système immunitaire est semblable à celui de l’homme - qui est capable de reproduire, pour la première fois, les effets thérapeutiques et les effets toxiques des lymphocytes Car-T observés chez l’homme.

À travers l’étude du modèle, les chercheurs ont démontré que la neurotoxicité des lymphocytes Car-T est due à l’IL-1, une cytokine différente d’IL-6, et ils ont démontré dans le modèle expérimental l’efficacité de l’anakinra, un traitement qui interfère avec l’IL-1 et qui est déjà commercialisé pour prévenir et guérir l’arthrite.

Cette étude est importante non seulement parce qu’elle suggère une solution pharmacologique déjà disponible pour les patients soumis aux thérapies avec les lymphocytes Car-T, mais surtout parce qu’elle démontre que l’efficacité antitumorale des lymphocytes avec des anticorps chimériques reste inchangée. L’étape finale prévoit l’expérimentation sur l’homme de l’anakinra ou d’autres traitements qui interfèrent avec l’IL-1.

Article rédigé par Georges Simmonds pour RT Flash

Diplomatie

Lille : Un patient opéré du cœur sous hypnose
Mercredi, 26/09/2018 - 14:55

C'est une première dans le Nord-Pas-de-Calais : un homme de 88 ans a subi une intervention chirurgicale cardiaque sans anesthésie "lourde" au CHU de Lille. A la place de la morphine ou des anxiolytiques habituels, il a été hypnotisé par une infirmière spécialement formée.

48 heures après son opération, Gérard Courtois, 88 ans, semble être en pleine forme. Cet habitant de Saint Jans Cappel vient de subir une intervention chirurgicale assez lourde au CHU de Lille. On a remplacé une valve aortique. L'opération nécessite une incision dans chacune de ses artères fémorales pour y introduire deux fils guides qui vont remonter tout le corps pour aller jusqu'au cœur et changer une valve aortique.

Jusque-là, cette opération nécessitait une anesthésie générale ou locale importante, ce qui pouvait poser problème sur des patients âgés explique le professeur Arnaud Sudre, chef du service chirurgie interventionnelle au CHU de Lille : "Quelquefois, ces patients sont plus sensibles aux effets secondaires des médicaments qu'on injecte (morphine, anxiolytique, relaxants), ces produits peuvent entraîner une confusion neurologique. Avec l'hypnose, le patient récupère immédiatement. On a un vrai bénéfice".

Pendant l'opération qui a duré une heure, Gérard a donc parlé de ses voyages avec son épouse en Thaïlande, en Egypte, en Tunisie, en Turquie, de sa passion pour le jardinage : En parlant de tout ça, on oublie totalement ce qu'il se passe, on est transféré ailleurs. il était tellement bien et détendu sur cette table d'opération, Gérard Courtois, qu'il a même dormi sans s'en rendre compte. Si c'était à refaire, il dirait oui sans hésiter.

Une nouvelle opération sous hypnose sera pratiquée la semaine prochaine au CHU et les perspectives sont vastes puisque 400 interventions de chirurgie cardiaque de ce type sont pratiquées chaque année au CHU de Lille. On estime que 80 % des patients peuvent être réceptifs à l'hypnose. Quatre infirmières de ce service de chirurgie interventionnelle du CHU vont être formées prochainement à l'hypnose.

Article rédigé par Georges Simmonds pour RT Flash

20 minutes

La photosynthèse fonctionne aussi dans l’infrarouge !
Mercredi, 26/09/2018 - 05:04

Jusqu'à présent, il était admis que la photosynthèse, le processus par lequel les plantes, les algues et les cyanobactéries convertissent l’énergie lumineuse en énergie chimique, n’était possible qu’avec la lumière visible. Mais des chercheurs de l’Imperial College de Londres viennent de montrer que des cyanobactéries sont capables d’effectuer un autre type de photosynthèse à partir d’un rayonnement infrarouge, une lumière non perceptible par l’homme.

La photosynthèse fait intervenir des centaines de molécules, organisées en unités – des photosystèmes – qui comportent chacune de la chlorophylle et d’autres pigments photosensibles qui captent l’énergie lumineuse. Ensuite se déroule une chaîne de transferts d’électrons, de molécules en molécules, du donneur primaire (une molécule de chlorophylle du centre réactionnel) à l’accepteur final. La théorie dominante était jusqu'à présent que le donneur primaire d’électron était obligatoirement la chlorophylle de type a, seul pigment connu capable de céder un électron lorsqu’il est éclairé avec un rayonnement rouge compris entre 680 et 700 nanomètres de longueur d’onde (le domaine visible allant de 400 à 700 nanomètres).

Mais l'équipe de l'Imperial College a montré que chez Chroococcidiopsis thermalis, une cyanobactérie très répandue sur Terre, la chlorophylle f, un autre pigment, peut jouer le rôle de donneur primaire lorsqu’il est soumis à un rayonnement de 750 nanomètres de longueur d’onde, dans l’infrarouge.

Contre toute attente, cette cyanobactérie est donc capable, lorsqu’elle ne reçoit plus assez de lumière visible, de mettre en place une autre voie de photosynthèse dans l’infrarouge. Ce processus est réversible : si ces cyanobactéries sont à nouveau en plein soleil, elles reviennent à la photosynthèse classique.

Cette découverte est fondamentale pour la recherche de vie extraterrestre, car elle conduit à redéfinir la « limite rouge », l’énergie lumineuse minimale requise pour que la photosynthèse puisse se produire. Repousser la limite de longueur d’onde admise de 700 à 750 nanomètres revient à abaisser la limite rouge à une énergie inférieure. Or 70 % des étoiles de la Voie lactée sont des naines rouges, émettant essentiellement un rayonnement peu énergétique dans le rouge et l’infrarouge. Cette découverte invite donc à reconsidérer de nombreuses planètes en orbite autour de naines rouges, où la photosynthèse était jugée jusqu’à présent impossible.

Ces travaux entraînent également une révolution dans la compréhension d’un processus que l’on pensait bien connaître : la photosynthèse classique. Dans ce processus, chaque photosystème contient des centaines de molécules de chlorophylle a disposées d’une façon bien précise. L’étude des photosystèmes de C. thermalis montre que ce n'est pas le cas. En fait, les photosystèmes de cette cyanobactérie contiennent à la fois des molécules de chlorophylle a et f. Or les chlorophylles a et f absorbant des longueurs d’ondes différentes, elles sont facilement distinguables. Les chercheurs ont donc localisé facilement le donneur primaire chez cette cyanobactérie.

Mais ce qu'ils ont alors découvert, c'est  que les molécules de chlorophylle ne se trouvent pas au centre du photosystème, mais juste à côté ! "Depuis des années, on pensait que cette molécule de chlorophylle était accessoire, alors que c’est elle qui initie toute la chaîne de transfert d’électrons !", explique Bill Rutherford, auteur principal de l’étude. Le professeur Bill Rutherford, directeur du Département des sciences de la vie à l'Impérial College, souligne pour sa part que "La découverte de cette nouvelle forme de photosynthèse est une avancée scientifique majeure qui nous oblige à  remettre en cause nos certitudes sur les limites supposées de la photosynthèse et nous montre que cet extraordinaire mécanisme naturel de production et de conversion d'énergie est bien plus subtil que nous le pensions".

Article rédigé par Georges Simmonds pour RT Flash

Imperial College London

Curcumine : son mécanisme d'action anticancer se dévoile…
Mercredi, 26/09/2018 - 04:56

Une étude sino-américaine dirigée par Sourav Banerjee, Joshua E. Mayfield et Chenggong Ji, a montré comment la curcumine se lie et inhibe une enzyme spécifique de la famille des Tyrosine kinase (DYRK2) nécessaire au « protéasome » et à la prolifération cellulaire du cancer. Ces travaux menés sur la souris et publiés dans les Actes de l’Académie des Sciences américaine (PNAS) confirment qu'une action ciblée sur les régulateurs du protéasome pourrait ouvrir de nouvelles options pour le traitement de certains cancers difficiles à traiter.

Les chercheurs de l’Université de Californie – San Diego avec leurs collègues de l'Université de Pékin et de l'Université de Zhejiang ont utilisé la cristallographie aux rayons X pour observer comment, au niveau atomique, la curcumine, un composé chimique naturel présent dans le curcuma, se lie à l'enzyme tyrosine-réglementée kinase 2 (DYRK2 : tyrosine-phosphorylation-regulated kinase 2).

Cette interaction biochimique jusque-là inédite de la curcumine conduit à l'inhibition de l’enzyme DYRK2, nécessaire au bon fonctionnement du protéasome (la machinerie protéique cellulaire qui détruit les protéines inutiles ou endommagées), ce qui altère la prolifération cellulaire et réduit ainsi la charge cancéreuse.

Ce résultat bouleverse les précédentes conclusions d’études sur les mécanismes en jeu avec la curcumine : jusque-là, les enzymes kinases IKK et GSK3 étaient en effet considérées comme les principales cibles de la curcumine menant à l'effet anticancéreux, mais la nouvelle étude montre que DYRK2 est inhibée par la curcumine à un niveau 500 fois plus élevé que IKK ou GSK3.

En dépit de cette nouvelle lumière sur le rôle bénéfique de la curcumine, les scientifiques préviennent, la curcumine seule n'est peut-être pas la solution : "En général, la curcumine est éliminée du corps assez rapidement.  Pour que la curcumine soit un médicament efficace, elle doit être modifiée pour pénétrer dans la circulation sanguine et rester suffisamment longtemps dans le corps pour cibler le cancer".

En association avec le carfilzomib, un médicament contre le myélome multiple approuvé par la FDA, la curcumine induit une mort cellulaire cancéreuse bien plus élevée alors que les cellules normales non cancéreuses sont moins affectées. Cela suggère que cibler les régulateurs de protéasome (tels que DYRK2) en combinaison avec des inhibiteurs de protéasome peut être une approche prometteuse anticancéreuse avec moins d'effets secondaires.

En conclusion, l'équipe confirme que la curcumine est un inhibiteur sélectif du DYRK2 et que cette nouvelle molécule présente un potentiel anticancéreux prometteur pour les cancers non seulement chimiosensibles, mais aussi résistants aux inhibiteurs du protéasome. L’objectif devient donc de développer un composé chimique capable de cibler DYRK2 chez les patients atteints de ces cancers.

Article rédigé par Georges Simmonds pour RT Flash

PNAS

Prévention cardiovasculaire : mieux tenir compte du sexe des patients
Mardi, 25/09/2018 - 07:59

On le sait, les risques intrinsèques de développer telle ou telle pathologie sont, indépendamment des modes de vie, différents entre les hommes et les femmes.

Des chercheurs canadiens avancent que les femmes auraient un risque plus élevé que les hommes d'être hospitalisées et de décéder d'une insuffisance cardiaque. Cette étude, menée par l'Institut de cardiologie de l'Université d'Ottawa, visait à rechercher les différences de taux d'insuffisances cardiaques chez les hommes et les femmes ainsi que les hospitalisations et le nombre de décès en comparant les deux genres. Les chercheurs ont suivi 90.707 patients de plus de 40 ans chez lesquels on avait diagnostiqué une insuffisance cardiaque en Ontario entre 2009 et 2014.

Ces travaux montrent qu'à partir du nombre total de patients atteints par cette maladie, 47 % étaient des femmes. De plus, les femmes étaient aussi plus susceptibles que les hommes d'être hospitalisées pour insuffisance cardiaque, 98 femmes sur 1000 ayant été hospitalisées en 2013 en comparaison avec 91 hommes sur 1000. Par ailleurs, une année après le diagnostic initial, 16,8 % (7.156) femmes sont décédées contre 14,9 % (7.138) hommes. "Notre étude montre que la mortalité suite à une insuffisance cardiaque reste élevée, surtout chez les femmes, et que les hospitalisations pour cette maladie baissent chez les hommes, alors qu'elles augmentent chez les femmes, ce qui devrait conduire les autorités de santé à mieux intégrer la prise en compte du genre dans les politiques publiques de santé visant à prévenir les maladies cardiovasculaires", souligne l'étude.

Article rédigé par Georges Simmonds pour RT Flash

CMAJ

Un tissu de foie artificiel bio-imprimé en 3D
Mardi, 25/09/2018 - 07:37

Après la peau, Poietis s'attaque au foie. La start-up girondine et le laboratoire pharmaceutique français Servier ont annoncé un partenariat afin de développer des tissus de foie artificiel bio-imprimés en 3D. Ces derniers serviront à tester la toxicité hépatique des molécules mises au point par Servier.

"30 % des molécules en cours de développement ne sont pas mises sur le marché à cause de leur toxicité hépatique", explique Bruno Brisson, le dirigeant de Poietis. Pour évaluer les effets d’un médicament sur le foie, les laboratoires pharmaceutiques utilisent aujourd’hui des modèles de foie artificiels en deux dimensions avant de tester les médicaments sur des animaux.

Le processus de bio impression mis au point par Poietis permet de combiner différents types de cellules : des cellules hépatocytes, des macrophages. Les modèles actuels ne combinent qu’un ou deux types de cellules différentes. "Avec la bio-impression, nous pouvons obtenir un tissu complexe qui se rapproche le plus possible de la structure du foie", avance Bruno Brisson.

Utiliser des modèles de foie plus fidèles au foie humain permettrait à Servier de juger plus en amont de la toxicité d’une molécule et de l’écarter rapidement si celle-ci est trop toxique pour l’organisme. "Le coût de développement d’une molécule est très important pour un laboratoire, de l’ordre d’un milliard d’euros", rappelle Bruno Brisson.

Le développement de ces foies artificiels bio-imprimés n’en est qu’aux prémisses. Poietis a développé un premier prototype en interne début septembre et espère désormais profiter des compétences en recherches cellulaires de Servier pour réaliser des modèles plus aboutis.

"Ce partenariat à long terme visant à développer des tissus hépatiques à l’aide de technologies d’impression biologique est une étape importante dans le déploiement de l’impression biologique 4D dans l’industrie pharmaceutique. Suite à notre collaboration avec KUL sur la bioprinting du cartilage à des fins de réparation tissulaire, ce nouveau partenariat scientifique avec les Laboratoires Servier s'inscrit dans la stratégie de Poietis qui vise à étendre l'utilisation de sa technologie au-delà de ses applications initiales en dermocosmétique" précise Fabien Guillemot, CEO et Chief Scientific Officer de Poietis.

Article rédigé par Georges Simmonds pour RT Flash

Poietis

Un nouveau cas de diabète sur sept dû à la pollution de l'air !
Mardi, 25/09/2018 - 07:09

Une étude réalisée par des chercheurs américains de l'Université de médecine de Saint-Louis (Missouri) vient de montrer que la pollution a contribué à 3,2 millions de nouveaux cas de diabète dans le monde en 2016, ce qui représente environ 14 % des nouveaux cas.

Le lien entre pollution atmosphérique et diabète avait déjà été avancé par des recherches antérieures. "On pense que la pollution réduit la production d'insuline et provoque des inflammations, empêchant le corps de convertir le glucose du sang en énergie", ont résumé les chercheurs.

Cette estimation de 14 % est d'autant plus robuste qu'elle est issue de données médicales de 1,7 million d'anciens combattants américains, suivis sur une durée médiane de huit ans et demi. Tous au départ avaient été choisis parce qu'ils n'avaient pas de diabète. Les chercheurs ont bâti un modèle statistique pour voir dans quelle mesure la pollution de l'air dans leur lieu de résidence pouvait expliquer qu'ils devenaient diabétiques. Et la comparaison a été faite avec une autre affection où cette pollution n'est pas en cause, les fractures des membres inférieurs.

Des facteurs favorisant le diabète comme le surpoids et l'obésité ont été pris en compte. "Notre recherche démontre un lien significatif entre pollution de l'air et diabète dans le monde", a affirmé dans un communiqué le professeur de médecine Ziyad Al-Aly. "C'est important car beaucoup de lobbies économiques affirment que les niveaux actuels [de rejets de polluants dans l'atmosphère autorisés] sont trop stricts et devraient être relevés. Des preuves montrent que ces niveaux actuels ne sont toujours pas suffisamment sains et doivent être abaissés", a-t-il ajouté.

Article rédigé par Georges Simmonds pour RT Flash

The Lancet

Dépister à domicile le déclin cognitif
Mardi, 25/09/2018 - 07:00

Une équipe internationale de scientifiques associant le Centre hospitalier universitaire et l’Université de Lausanne, l’Université de Westminster, la City University de Londres et l’Université des Sciences appliquées de Suisse occidentale, a mis au point un nouveau procédé de dépistage à domicile du déclin cognitif lié à l’âge (démence) en se servant d’un test demandant aux patients de détecter des sons et des clignotements sur leur ordinateur portable ou leur téléphone.

Ces recherches ont permis d'aboutir à un test, à la fois simple et économique, de nature à contribuer à l’amélioration du diagnostic précoce du Déficit cognitif léger (DCL) et à favoriser ainsi les interventions utiles en temps voulu. Ce constat est d’autant plus intéressant que le DCL se transforme en maladie d’Alzheimer chez 30 à 50 % des personnes concernées.

S’agissant du DCL, il n’existe actuellement aucun test de diagnostic sanguin similaire à celui élaboré pour le diabète : le seul diagnostic disponible à ce jour consistant en de longues évaluations neuropsychologiques associant tests de contrôle cognitif et de mémoire et questions sur les activités quotidiennes et sur l’humeur. Or, ces tests onéreux demandent une formation, prennent beaucoup de temps aux patients et aux cliniciens et leurs conclusions peuvent être influencées par des facteurs tels que le QI de l’individu, son statut socioéconomique, voire les testeurs eux-mêmes.

Sachant que la population mondiale vieillit et que le nombre de personnes atteintes de démence est estimé à 50 millions sur la planète, la mise au point d’un nouveau test relevait par conséquent de l’urgence.

Pour les besoins de l’étude, il a simplement été demandé aux 123 participants d’appuyer sur un bouton quand ils voyaient un clignotement ou entendaient un son. Dans certains cas, les clignotements et les sons étaient présentés séparément, tandis que dans d’autres, les deux stimuli étaient émis simultanément. Parmi les participants, on comptait 51 jeunes adultes en bonne santé, 49 adultes âgés en bonne santé, et 23 adultes âgés atteints de DCL.

Sous la direction du Professeur Micah Murray de l’Université de Lausanne (Suisse), les chercheurs ont ensuite déduit deux mesures des résultats obtenus par les différentes personnes, en se demandant : 1) si elles détectaient plus rapidement les clignotements ou les sons, et 2) si elles tiraient un avantage de la détection d’un stimulus visuo-auditif par rapport aux clignotements ou aux sons.

Le Docteur Paul Matusz, également de l’Université de Lausanne, explique qu’avec ces deux seules mesures, l’équipe a pu dire avec précision si une personne allait recevoir ou non un diagnostic de DCL à l’aide de tests cliniques ordinaires. Ces chercheurs précisent toutefois que le test mis au point ne  doit pas être considéré comme un substitut à ceux actuellement utilisés en pratique clinique. 

Article rédigé par Georges Simmonds pour RT Flash

Nature

Vers une immunothérapie ciblée qui ne s'attaque qu'aux tumeurs
Lundi, 24/09/2018 - 13:50

L’immunothérapie consiste à stimuler les défenses immunitaires des patients, afin qu’elles attaquent les cellules cancéreuses. En appliquant une stimulation à des lymphocytes T, cellules importantes du système immunitaire, des résultats sans précédents ont déjà été obtenus pour des cas de leucémie et de certains mélanomes – une forme commune de cancer de la peau.

Mais ces traitements présentent toutefois des problèmes de toxicité pour le reste de l’organisme et provoquent parfois de graves effets secondaires. C'est pourquoi une équipe de recherche associant des scientifiques de l'EPFL et du MIT a développé un gel de nanoparticules qui permet de contrôler le moment et l’endroit précis du largage de médicaments destinés à booster les cellules immunitaires.

Avec leur méthode, les défenses du corps sont mieux stimulées et le médicament agit uniquement en présence de tissus cancéreux, sans conséquences néfastes pour l’organisme. La nouvelle technologie fait l’objet de deux brevets licenciés et sera testée prochainement sur des patients par la compagnie Torque basée à Cambridge, Massachusetts.

Notre système immunitaire est composé en partie de cellules T ou lymphocytes T, qui sont très efficaces pour combattre les infections ou les virus. En cas de cancer, elles identifient l’ennemi mais ne peuvent pas le combattre. La tumeur les rend inactives et les empêche de se multiplier, ce qui entraîne leur destruction. L’immunothérapie vise principalement à maintenir les fonctions de défense de ces cellules.

L’une des méthodes consiste à prélever les cellules T d’un patient, à les modifier puis à les réinjecter dans l’organisme, créant ainsi une armée pour tuer le cancer. Au MIT et à l’EPFL, les chercheurs ont créé un petit « sac à dos » pour la cellule, qui ne s’ouvre qu’au contact de la tumeur. Ce bagage est composé de molécules de cytokines chimiquement liées les unes aux autres (par réticulation), pour former un nano-gel. Le sac à dos est fixé à la cellule à l’aide d’un anticorps CD45. Il ne s’ouvrira qu’en présence de certains signaux émis par la cellule elle-même.

Les cellules T reconnaissent les tumeurs grâce à la présence d’antigènes tumoraux présents à la surface des cellules cancéreuses. Une fois cette détection faite, la cellule T active ses récepteurs membranaires (TCR), ce qui produit une réaction chimique – réaction d'oxydoréduction ou redox – modifiant son environnement immédiat. Cet échange d’électrons provoque l’ouverture du sac à dos, qui délivre de hautes doses de cytokines à la cellule T. Les fonctions de la cellule sont ainsi restaurées, et elle peut se multiplier normalement, pour aller tuer le cancer.

Cette technique présente des atouts majeurs. Tout d’abord, aucun intermédiaire n’est utilisé pour transporter le médicament. Le sac à dos lui-même est constitué de substances cytokine. Il est donc possible de livrer beaucoup plus de traitement qu’avec les méthodes traditionnelles.

« Une seule particule contient près de 100 % de substance active, contre 10 % lorsque l’on fait de l’encapsulation, avec des risque que le transporteur interfère avec le médicament », illustre Li Tang, directeur du Laboratoire de biomatériaux pour Immunoengineering (LBI) de l’EPFL et premier auteur de l’étude. Ensuite, le largage contrôlé de cytokine est un procédé unique. « Le médicament sera livré uniquement aux cellules malades. Dans les tissus sains, le « sac à dos » de cytokine ne s’ouvrira pas. Il n’y aura donc aucun effet secondaire à ces endroits ».

Deux sortes d’immunothérapie liées aux cellules T sont déjà sur le marché depuis 2017, et donnent déjà d’excellents résultats pour le traitement de la leucémie et du lymphome. Ce nouvel outil va permettre améliorer ces traitements, et de les étendre à d'autres types de cancer.

Article rédigé par Georges Simmonds pour RT Flash

EPFL

Une étape importante vers un vaccin contre le virus du Sida
Lundi, 24/09/2018 - 13:40

Des chercheurs américains dirigés par Dan Barouch, Professeur à l'Ecole médicale d'Havard à Boston, ont annoncé que leur vaccin expérimental, dit "mosaïque" contre le virus HIV a provoqué une réaction immunitaire chez des humains et protégé des macaques de l'infection. Le développement de ce  vaccin, baptisé Imbokodo (Rocher en Zoulou) sûr pour l'homme, est maintenant suffisamment avancé pour lancer un test sur 2600 femmes en Afrique australe.

L'étude précise que deux tiers des macaques rhésus ont été protégés par le vaccin dans les tests de laboratoire. Les résultats des essais en Afrique du sud sont attendus en 2021 ou 2022. « Ce sera seulement le cinquième concept de vaccin contre le VIH dont l'efficacité sera testée dans les 35 ans et quelques d'histoire de l'épidémie », a souligné le Professeur Barouch.

Un autre, appelé RV144, a montré qu'il protégeait l'homme du VIH dans une certaine mesure. En 2009, une étude indiquait qu'il avait réduit de 31,2 % le risque d'infection chez 16.000 volontaires en Thaïlande.

L'étude rapporte les résultats d'un test chez 393 adultes en bonne santé, séronégatifs, âgés de 18 à 50 ans en Afrique de l'Est, Afrique du Sud, Thaïlande et aux États-Unis. Certains ont reçu l'une des combinaisons vaccinales possibles ou un placebo, via quatre injections en 48 semaines. Ces combinaisons étaient faites de différents types de virus VIH, rendus suffisamment inoffensifs, avec l'espoir de provoquer une réponse immunitaire. Or celle-ci a été « robuste », s'est félicité le Professeur Barouch.

Les tests ont montré l'innocuité. Seuls cinq participants ont fait état d'effets indésirables, comme des douleurs abdominales, une diarrhée, des vertiges ou des douleurs au dos. Dans une étude séparée, ces mêmes vaccins ont offert une protection à deux tiers des 72 macaques auxquels les chercheurs ont ensuite tenté d'inoculer le virus.

Quelque 37 millions de personnes vivent avec le VIH ou le sida, d'après l'Organisation mondiale de la santé, et 1,8 million de cas nouveaux sont contractés chaque année. La maladie a tué quelque 35 millions des 80 millions de personnes qu'elle a infectées depuis qu'elle a été diagnostiquée pour la première fois au début des années 1980.

Article rédigé par Georges Simmonds pour RT Flash

The Lancet

Se sentir jeune, pour un cerveau en bonne santé
Lundi, 24/09/2018 - 13:30

Selon une nouvelle étude menée par des chercheurs sud-coréens, le fait de se sentir plus jeune traduirait une bonne santé cérébrale. Plus précisément, l’équipe a constaté que les personnes qui se perçoivent plus jeunes que leur âge réel avaient, entre autres, plus de matière grise dans des régions clés du cerveau, ce qui est révélateur d’une bonne santé du cerveau.

La matière grise est composée des corps cellulaires des neurones, qui reçoivent et analysent les informations neuronales. Elle s’oppose à la matière blanche, qui a surtout un rôle de soutien et de protection des neurones.

Pour analyser la relation entre âge subjectif et santé cérébrale, les chercheurs ont recruté 68 personnes âgées de 59 à 84 ans, auxquelles ils ont demandé de donner l’âge qu’elles percevaient, et analysé les IRM du cerveau. Les scientifiques ont ainsi pu corréler l’âge estimé à l’état du cerveau, et constaté que les participants se sentant plus jeunes que leur âge présentaient des cerveaux ayant des caractéristiques structurelles plus jeunes que la normale. En outre, l’étude a révélé que les personnes se sentant plus jeunes avaient de meilleurs résultats que les autres aux tests de mémoire, et moins susceptibles de souffrir de dépression.

Nous avons constaté que les personnes qui se sentent plus jeunes avaient les caractéristiques structurelles d'un cerveau plus jeune”, a déclaré le Docteur Jeanyung Chey, de l'Université nationale de Séoul. “Fait important, cette différence reste robuste même lorsque d'autres facteurs possibles, y compris la personnalité, la santé subjective, les symptômes dépressifs, ou les fonctions cognitives, sont pris en compte”, a-t-il ajouté.

Nos résultats suggèrent que l'expérience subjective du vieillissement est étroitement liée au processus de vieillissement du cerveau”, concluent ainsi les auteurs. A l’inverse, le fait de se sentir plus vieux que son âge pourrait donc être indicateur de mauvaise santé cérébrale, de démence ou de dépression, suggèrent les scientifiques. Si ces résultats se confirment, l’âge subjectif pourrait donc être considéré comme un bon indicateur de la santé cérébrale, et aider au diagnostic de certaines pathologies liées au vieillissement du cerveau.

Article rédigé par Georges Simmonds pour RT Flash

Frontiers in Aging Neuroscience

^ Haut
Recherche
Recherche & Innovation, Technologies, Transports
Airobotics dévoile ses drones autonomes
Mercredi, 26/09/2018 - 04:32

La compagnie israélienne Airobotics a présenté des drones autonomes capables de se diriger sans assistance humaine. Ces engins peuvent non seulement  s’élever et suivre un itinéraire sans avoir besoin de commandes, mais sont également libres de toute assistance humaine une fois dans leur station : un robot à la forme de bras se charge de changer leurs caméras, leurs batteries et de les remettre en place pour voler. Tout est donc remplacé et stocké en très peu de temps.

L’entreprise s’est implantée en Israël, non seulement pour son expertise dans le domaine du militaire et surtout de l’aviation, mais aussi car il est plus facile de recruter là-bas que dans la Silicon Valley, selon TechCrunch. La mise en place de tout le système y serait également plus rentable qu’aux Etats-Unis.

Efrat Fenigson, Directrice adjointe Marketing d’Airobotics, explique dans la vidéo de TechCrunch que ces drones s’utilisent surtout dans des infrastructures industrielles. "Les exploitations minières les utilisent de la manière la plus intelligente", d’après elle. Les drones permettent de numériser toutes les données collectées et de donner accès aux entreprises à une base de données extrêmement riche, jamais vue avant. Par exemple, pour mesurer des volumes, signaler des anomalies, les drones seraient d’une efficacité non négligeable.

Toujours d'après Efrat Fenigson, les drones Airobotics auront vocation à travailler dans les villes, là où "on voit des drones capables d’aider les secours, les unités de sauvetage. D’aider à sauver des vies. (...) Imaginez ces stations installées sur les toits des villes. on pourrait envoyer le drone le plus proche directement sur le lieu de l’incident".

Article rédigé par Georges Simmonds pour RT Flash

L'Usine Digitale

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top