RTFlash

RTFlash a besoin de vous pour continuer à exister !

Propulsé par HelloAsso

RTFLASH Recherche & Technologie
NUMERO 966
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 14 Septembre 2018
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
Avenir
Un commutateur à une seule molécule !
Vers une électronique aux propriétés contrôlées au niveau atomique
Un nano-capteur pour traquer les cellules cancéreuses
Matière
Des cartilages imprimés en 3D !
Un générateur solaire flexible pour les satellites
Hydrogène : des piles à combustible bientôt testées pour chauffer des logements
Terre
Les modèles climatiques actuels pourraient sous-estimer les changements climatiques à long terme
Vivant
Des chiens formés pour aider les diabétiques grâce à leur odorat
Cancer du cerveau : deux avancées majeures !
Cancer de la prostate résistant : une nouvelle immunothérapie prometteuse
Une molécule capable d'améliorer l'efficacité des chimiothérapies
La dénervation rénale contre l’hypertension artérielle résistante ?
Un vaccin expérimental contre le SIDA sera testé sur l'homme en 2019
Une HTA à 50 ans supérieure à 130 mmHg augmenterait le risque de démence
CANCER : Le composé qui fige les cellules tumorales
Edito
Le climat est-il en train de devenir fou ?



Que nous ayons pris nos vacances en France, en Europe ou sur un autre continent, nous avons sans doute tous été frappés par les vagues de chaleur extrêmes qui ont successivement déferlé sur les différents continents de notre planète depuis deux mois. Assistons-nous à un dérèglement de grande ampleur du climat au niveau mondial ? On peut sérieusement se poser la question si l’on observe la multiplication d'épisodes de canicule au cours de ces dernières années et plus particulièrement depuis le début de cet été 2018.

Au nord de l'Europe du Nord, des températures supérieures à 30°C ont été enregistrées au niveau du cercle polaire arctique et des records absolus de température ont ainsi été battus en Norvège avec 33,7°C le 18 juillet à Drag ou encore 33°C le 19 juillet à Lakselv, soit plus de 15°C au-dessus des normales, selon l'Institut météorologique norvégien. A Kvikkjokk en Suède, également près du cercle polaire, un autre record a été battu, avec 32,5°C le 17 juillet ou en Laponie finlandaise avec 33,4°C à Utsjoki Kevo le 18 juillet. En Sibérie, le mercure a également atteint des sommets avec 37,2°C à Tompo le 9 juillet ou 35,5°C à Vanavara le 26 juin, selon l'Agence nationale océanique et atmosphérique des Etats-Unis (NOAA).

Le sud de l’Europe n’a pas été épargné par ces vagues de chaleur et début août, l’Espagne et le Portugal ont connu des pics de température tout à fait exceptionnels, avec 45,8°C relevés à Badajoz, dans le Sud-Ouest de l’Espagne, et 47,4°C à Santarem, au Portugal. À Ouargla, dans le Sahara algérien, une température maximale de 51,3°C a été constatée le 5 juillet. Il s’agit, selon les autorités algériennes, de la température la plus élevée jamais relevée en Algérie par des instruments fiables.

Aux États-Unis, la station de Furnace Creek, dans le parc national de la Vallée de la mort, en Californie, a relevé une température de 52,0°C le 8 juillet. Au centre-ville de Los Angeles, un nouveau record de température minimale nocturne de 26,1°C a été enregistré le 7 juillet.

L’Asie n’a pas non plus été épargnée par ces vagues de chaleur exceptionnelles : pour la première fois dans l’histoire du Japon, les températures ont dépassé, fin juillet, les 41°C à l’ombre, atteignant même 41,1°C, le 16 juillet dernier, dans la ville de Kumagaya, au nord-ouest de Tokyo. Cette canicule sans précédent au Japon a entraîné plus d’une centaine de décès et plus de 35 000 hospitalisations. Notons également que le Japon vient d’être frappé le 4 septembre dernier par le cyclone Jebi, le plus violent qu’ait connu l’archipel nippon depuis 25 ans. Or, bon nombre de climatologues pensent qu’il existe un lien de causalité entre le réchauffement climatique et l’augmentation du nombre d’ouragans et de cyclones particulièrement violents.

Notre pays a également connu des chaleurs extrêmes, puisque qu’il est d’ores et déjà établi que cet été 2018 est le second le plus chaud jamais enregistré en France, juste derrière celui de 2003. En France, la température moyenne calculée pour 2018, jusqu'au 12 août dernier, est de 22,1°C, soit 2,3 degrés de plus que la température moyenne sur la période 1981-2010, qui est de 19,9 degrés Celsius. Paris a même connu plus de jours dépassant les 30°C qu'en 2003 (26 jours contre 21) et Lille a enregistré sa température la plus élevée depuis le début des mesures de Météo France, avec 37,6°C le 27 juillet dernier.

S’agissant de ces vagues de chaleur exceptionnelles qui ont déferlé sur la planète cet été, il est important de souligner qu’une équipe internationale de scientifiques a pu montrer, en utilisant de nouveaux modèles informatiques très puissants, que de telles canicules ne peuvent résulter seulement des fluctuations météorologiques saisonnières et sont devenues à présent deux fois plus probables à cause du réchauffement climatique en cours (Voir rapport WWA).

Selon l’ONU, il est pratiquement certain que l'année 2018 sera l’une des plus chaudes jamais enregistrées. L’agence internationale rappelle par ailleurs que, depuis 2015, la Terre vit les trois années les plus chaudes jamais enregistrées depuis le début des relevés, au XIXe siècle, que dix-sept des dix-huit années les plus chaudes appartiennent au XXIe siècle, et que le rythme du réchauffement constaté ces trois dernières années est exceptionnel.

La NASA estime pour sa part qu’après l’année 2016, l’année 2017 a été la plus chaude depuis 1880. L’organisme américain affirme lui aussi que même sans El Niño, les températures ont été supérieures de 0,9 degré Celsius à celles observées pendant la période comprise entre 1951 et 1980. Le service national britannique de météorologie précise, quant à lui, que l’année 2017 avait été la cinquième année la plus chaude pour le Royaume-Uni depuis le début des relevés, en 1910. En France, Météo France vient d’annoncer que la température moyenne a été supérieure à la normale de près de 2°C, plaçant 2018 au second rang des étés les plus chauds jamais enregistrés.

Selon une étude publiée début août et intitulée « Trajectoires de la Terre dans l’anthropocène » (Voir PNAS), même si l'humanité réduit les émissions de gaz à effet de serre comme prévu par l'accord de Paris, notre planète pourrait quand même basculer vers un nouvel état beaucoup plus chaud. L’équipe internationale dirigée par les scientifiques Still Steffen, Johan Rockström, Katherine Richardson et Timothy M. Lento, émet l’hypothèse que la hausse de la température moyenne de la Terre pourrait se stabiliser à +4°C ou +5°C par rapport à l'ère préindustrielle, bien au-delà de l'objectif de l'accord de Paris sur le climat (+2°C maximum).

Selon ces scientifiques de l'Université de Copenhague, de l'Université nationale australienne et de l'Institut de recherche de Potsdam sur les effets du changement climatique en Allemagne, dix facteurs autonomes, aujourd'hui neutres ou bénéfiques, pourraient à terme devenir néfastes, provoquant plus de rejets de CO2 et de méthane dans l'atmosphère que toutes les activités humaines combinées. Ces points de bascule sont liés à des températures au-delà desquelles la libération de ces gaz serait inéluctable. Parmi ces facteurs, il y a les forêts et les océans qui ont absorbé ces dernières décennies plus de la moitié des émissions de carbone et montrent des signes de saturation en CO2, selon de récentes études.

L’étude évoque également le risque considérable constitué par le méthane et le CO2 emprisonnés dans le permafrost, sol gelé en permanence en Russie et au Canada, qui correspond à environ quinze années d'émissions humaines. En cas de dégel, ces gaz relâchés accéléreraient le réchauffement, libérant encore plus de gaz à effet de serre et amorçant une boucle infernale.

Autre facteur important : le miroir blanc glacé de la banquise qui réfléchit 80 % des rayonnements du soleil. Mais cette glace de mer est remplacée par l'océan qui lui absorbe 80 % de ces radiations, accélérant le réchauffement. Dans l'Arctique, le premier été sans banquise devrait avoir lieu avant le milieu du siècle.

L’étude rappelle que tous ces mécanismes sont interconnectés et pourraient s’activer les uns les autres, selon un processus en cascade. Les conséquences d’un tel emballement seraient incalculables, car une fonte des glaces de l’Antarctique Ouest et du Groenland conduirait à une hausse du niveau de la mer de 13 mètres. La calotte de l’Antarctique Est, plus sensible au réchauffement qu’estimé précédemment, représente 12 mètres potentiels supplémentaires. Or, les deux-tiers des mégalopoles sur l'ensemble de notre planète sont installées à moins de 10 mètres au-dessus du niveau de la mer…

Pour éviter qu’une telle catastrophe advienne, l’étude précise qu’il ne suffira pas de réduire nos émissions de gaz à effet de serre. Il faudra également changer profondément nos systèmes de productions agricoles, de gestion des sols et nos modes de vie.

L’Administration nationale océanique et atmosphérique américaine (NOAA) vient, pour sa part, de publier un nouveau rapport, également très inquiétant sur l’impact du changement climatique sur la planète. Intitulé « L’État du climat 2017 », cette étude est le résultat de contributions de 500 scientifiques dans 65 pays (Voir State of The Climate in 2017).

Ce rapport souligne que l’année dernière, les concentrations dans l’atmosphère des principaux GES (CO2, méthane, et oxydes nitreux) ont atteint, en moyenne, 405 parties par million (ppm), soit la plus forte concentration jamais enregistrée. D’après les scientifiques du Groupe d’experts intergouvernemental sur l’évolution du climat (Giec), pour avoir plus de deux chances sur trois de limiter le réchauffement mondial à 2°C d’ici à 2100 (l’objectif de l’accord de Paris), il faudrait que les émissions de CO2 entre 1870 et la période où sa concentration dans l’atmosphère sera stabilisée n’excède pas 2 900 gigatonnes (Gt) de CO2. Or, depuis un siècle et demi, environ 2 100 Gigatonnes de Co2 ont déjà été émises et notre "crédit carbone" total n'est donc plus que de 800 GtCO2,  - l’équivalent de moins de 20 ans d’émissions au rythme actuel - si nous voulons avoir des chances de respecter l’objectif des +2°C. Les émissions de GES doivent donc impérativement atteindre un pic en 2020, soit dans deux ans, puis diminuer rapidement.

Ce réchauffement provoque une dilatation de l’eau et la fonte des glaces, ce qui a entraîné une augmentation du niveau des océans de 7,7 centimètres entre 1993 et 2017, alors que ce niveau n'avait augmenté que de 20 cm au cours du XXème siècle. On observe également que, depuis six ans, le niveau de la mer augmente par rapport à l’année précédente et il croît à présent de 3,1 centimètres par décennie en moyenne. Les océans se réchauffent en stockant le CO2 émis dans l’atmosphère par les activités humaines et ce phénomène accélère l’acidification des océans qui affecte de plus en plus toute la chaîne de la vie marine, du plancton jusqu'aux gros mammifères marins.

L’ensemble de ces études montre que les températures moyennes océaniques et terrestres combinées ont augmenté de 0,38 à 0,48°C par rapport à la moyenne de 1981-2010. Dans l’océan Arctique, la couverture de glace maximale a atteint en 2017 son plus bas niveau depuis 1980. L’Antarctique n’a pas été épargné : le 1er mars 2017, la superficie de glace maritime y est tombée à 2,1 millions de kilomètres carrés, soit la plus basse jamais observée.

Il faut également évoquer une dernière étude publiée le 31 aout dans « Science » et intitulée « Transformation passée et future de l’écosystème terrestre sous l’effet du changement climatique ». Menée par 42 chercheurs dirigés par Stephen Jackson, directeur du Centre de suivi de changement climatique du sud-ouest des États-Unis de Tuscon (Arizona), cette vaste méta-analyse compile 594 travaux portant sur l'évolution du climat et ses conséquences depuis la dernière glaciation il y a 14.000 ans. Pendant cette période, le climat de la Terre s'est réchauffé de 4 à 7°C, ce qui correspond au même niveau de réchauffement que celui que nous pourrions atteindre d'ici 100 ans, d'après les prédictions des climatologues, si rien n'est fait pour limiter drastiquement nos émissions de gaz à effet de serre (Voir Science). L’étude précise « qu’alors que le précédent changement s’était étalé sur plus de 10.000 ans, celui en cours actuellement sera concentré sur un siècle ou deux ». Selon les auteurs, ces changements majeurs et rapides risquent de déstabiliser les grands équilibres biologiques, thermodynamiques et chimiques du globe et d’accélérer la perte de la biodiversité mondiale.

Cette diminution accélérée de la biodiversité à l’échelle mondiale est déjà une réalité : plusieurs études montrent en effet que le nombre de mammifères, oiseaux, poissons, amphibiens et reptiles peuplant la Terre, a diminué de plus de la moitié entre 1970 et 2012. Et ce mouvement risque encore de s’accélérer, puisqu’une étude récente prévoit que, sans efforts supplémentaires pour rester dans la limite des deux degrés de réchauffement, c’est plus de la moitié de la biodiversité totale de la planète qui pourrait disparaître d’ici 2080…

Une étude de l’Université Harvard, publiée le 27 août dans la revue Nature, montre par ailleurs que, dans les prochaines décennies, l’augmentation de la concentration atmosphérique de CO2 pourrait entraîner l’appauvrissement d’un grand nombre de cultures de base en protéines, en fer et en zinc, avec des effets délétères sur la santé humaine (Voir Nature). Selon cette étude, si la hausse moyenne des émissions mondiales de CO2 se poursuit au rythme actuel, cela provoquera une réduction de 10 % à 20 % de la teneur en protéines des cultures de base, une baisse de moindre importance des taux de minéraux comme le fer, le zinc, le magnésium ou le calcium, mais aussi une diminution de 20 % à 40 % pour les vitamines. Les conséquences d’un tel appauvrissement de la qualité nutritionnelle des productions alimentaires seront loin d’être anecdotiques : 122 millions de personnes supplémentaires pourraient en effet se retrouver victimes d’une alimentation insuffisamment riche en protéines et vitamines, soit 20 % de plus qu’aujourd’hui (660 millions de personnes en 2016 selon l’ONU).

Pour ceux qui en doutent encore, il faut savoir que notre pays, bien que situé en zone tempérée, n’échappera pas aux conséquences multiples et considérables engendrées par ce réchauffement climatique majeur. Rappelons qu’en France, sur les 35 années les plus récentes, 30 vagues de chaleur extrême ont été enregistrées, alors qu’il n’y en avait eu que 8 entre 1947 et 1982.

Selon les projections présentées en mai dernier par Météo-France, et basées sur l’analyse des données d’observations recueillies, depuis 1872, le réchauffement pourrait atteindre + 4°C en hiver et + 5°C en été, à l’horizon 2071-2100. Météo France précise qu’au cours du siècle écoulé, les températures annuelles se sont inscrites en nette hausse (+ 1,4 % pour les minimales), avec une accélération depuis la fin des années 1950 : environ + 0,3°C par décennie. Cette tendance s’est encore accélérée au cours des quarante dernières années. C’est ainsi que les cinq années les plus chaudes enregistrées depuis le début des relevés (dans l’ordre : 2011, 2014, 2015, 2017 et 2003) appartiennent toutes au XXIe siècle.

S’agissant des prévisions pour la seconde moitié du siècle, Météo France précise qu’elles dépendront de l’évolution des émissions mondiales de gaz à effet de serre. Si elles baissent fortement, le réchauffement sera maintenu autour de + 1°C. Si elles sont stabilisées, il se rapprochera de + 2°C. En revanche, si ces émissions se poursuivent au même rythme, les Franciliens devront subir une hausse moyenne de 4°C à la fin du siècle. Concrètement, cela signifie que le nombre annuel de jours très chauds (plus de 30°C de température maximale) pourrait passer d’une dizaine actuellement à plus de quarante. Dans ce scenario, un été caniculaire comme celui de 2003 – le plus chaud jamais mesuré à Paris avec une moyenne de 22,6°C –, risque de devenir habituel…

En novembre dernier, fait sans précédent, 15 364 scientifiques issus de 184 pays, spécialistes de climatologie, biologie, chimie, physique, agronomie, océanographie, ont lancé un appel d’une ampleur sans précédent pour alerter l’opinion publique mondiale sur la dégradation accélérée de l’environnement, de la biodiversité et du climat (Voir Le Monde).

Il y a quelques jours, 200 personnalités mondiales du monde des sciences, des arts et de la culture publiaient dans le journal « Le Monde » une tribune brève mais résumant parfaitement la situation, intitulée « Le plus grand défi de l’histoire de l’humanité ». Dans cette tribune on pouvait notamment lire une phrase qui résume bien l’état d’esprit d’une majorité de plus en plus large de nos concitoyens, « Nous considérons que toute action politique qui ne ferait pas de la lutte contre ce cataclysme sa priorité concrète, annoncée et assumée ne serait plus crédible ».

Face à une situation climatique et environnementale aussi grave, à présent solidement établie sur le plan scientifique, je crois que le temps n’est plus aux séminaires de réflexion, aux tergiversations et aux demi-mesures et que nos concitoyens exigent - et exigeront avec de plus en plus de force - que leurs dirigeants prennent des mesures globales qui soient enfin à la mesure de l’immense défi de civilisation auquel nous sommes confrontés.

Face à cette situation, il faut sans tarder, comme l’a proposé le Président de la République, fixer au niveau européen un "juste prix" pour le carbone - autour de 30 euros la tonne pour commencer - afin de pénaliser les industries polluantes. Il est également urgent de fixer aux frontières européennes une taxe sur le carbone qui pèserait sur les importations issues d'industries polluantes, afin "d'assurer l'équité entre les producteurs européens et leurs concurrents".

Mais il faut aller plus loin et nous pourrions notamment nous inspirer des propositions formulées par l’économiste Pierre Larrouturou et le climatologue de réputation mondial Jean Jouzel (Voir Appel). Ceux-ci proposent un ambitieux "pacte finance-climat" européen qui contient plusieurs mesures fortes : doter l'Union européenne d'un budget climat de 100 milliards d’euros par an, charger la Banque européenne d'investissement (BEI) de financer des projets pour la transition énergétique ou encore exclure les investissements publics de la transition énergétique des critères de déficits européens.

Je pense également qu’il faut sans tarder refondre l’ensemble de notre fiscalité, nationale et locale, directe et indirecte, en la réorientant sur des critères et objectifs environnementaux visant principalement à une réduction drastique de nos émissions de gaz à effet de serre et à une meilleure protection de l’environnement.

Il faut enfin mettre en place un cadre fiscal, financier et budgétaire qui encourage spécifiquement les investissements dans la recherche, fondamentale et appliquée, concernant les technologies propres, qu’il s’agisse des énergies renouvelables, du recyclage et de la valorisation du CO2 ou de la chimie verte.

Beaucoup d’entreprises, de collectivités locales et de grandes mégapoles, ont déjà pris avec force ce virage écologique vers un développement durable. Il faut à présent que les puissances politiques, tant au niveau national qu’européen et international, entendent le message de plus en plus clair que leur adressent leurs opinions publiques et leurs citoyens et repensent l’ensemble de leurs outils, de leurs objectifs et de leurs programmes politiques pour placer en priorité absolue cet impératif écologique planétaire.

René TRÉGOUËT

Sénateur honoraire

Fondateur du Groupe de Prospective du Sénat


Avenir
Nanotechnologies et Robotique
Un commutateur à une seule molécule !
Mercredi, 12/09/2018 - 05:29

Une équipe internationale de physiciens, réunis sous l'égide de l'université technique de Munich, a réussi à effectuer, grâce à des molécules spéciales, des opérations de commutation entre deux états structurels différents en leur appliquant une tension. Ces « nano-commutateurs » pourraient donner naissance à un nouveau type de composants, fondés sur des molécules organiques et non sur le silicium.

Les chercheurs ont commencé par développer une technique permettant d'établir un contact électrique avec une molécule, puis ont commandé cette molécule à l’aide d'un potentiel électrique. À une tension d'environ 1 V, la structure de la molécule se modifie : elle devient plate, conductrice et diffuse la lumière.

Cette modification du comportement optique de la molécule, qui dépend de sa structure, est extrêmement enthousiasmante pour les chercheurs : non seulement il est possible d'observer le phénomène de diffusion de la lumière (effet Raman), mais il est également possible de l'activer et de le désactiver de manière délibérée.

Pour créer le commutateur, les chercheurs ont utilisé des molécules synthétisées par les équipes de Bâle et de Karlsruhe. Ces molécules sont liées à une surface métallique. Le contact électrique est assuré par un point constitué d'un fragment de verre recouvert d’un très mince film métallique. Ce fragment de verre sert à la fois de contact électrique et de guide d'ondes optique.

Les chercheurs ont ainsi réussi à détecter de minuscules modifications de signaux spectroscopiques en fonction de la tension appliquée. Il est extrêmement difficile de réaliser un contact électrique à l’aide d’une molécule unique. Le succès des chercheurs a été de conjuguer cette technique avec la spectroscopie d'une seule molécule.

L'un des objectifs de l'électronique moléculaire est de développer de nouveaux composants et de remplacer la technologie au silicium classique par des molécules intégrées et directement contrôlables. Du fait de ses très petites dimensions, ce nano-système est éminemment adapté pour les applications d'opto-électronique où la lumière est commutée à l'aide de signaux électriques.

Article rédigé par Georges Simmonds pour RT Flash

TUM

Vers une électronique aux propriétés contrôlées au niveau atomique
Mardi, 11/09/2018 - 18:46

Une équipe internationale de recherche menée par le professeur Gotthard Seifert, chercheur à l'Université nationale de science et de technologie de Moscou MISiS, a réussi à contrôler les effets excitateurs dans les semi-conducteurs bidimensionnels. Ces travaux ouvrent la voie vers la création d'une électronique aux propriétés contrôlées.

L'étude des matériaux bidimensionnels (les systèmes où les électrons se déplacent seulement selon deux axes sont dits bidimensionnels) est l'une des tâches scientifiques les plus d'actualité. La découverte et l'étude du premier matériau de ce genre, le graphène, a été récompensée en 2010 par le prix Nobel de physique.

Grâce à leurs propriétés, les matériaux bidimensionnels constituent la base des éléments de l'électronique compacte de nouvelle génération. Par exemple, le disulfure de molybdène (MoS2) bidimensionnel affiche une haute mobilité de la charge et permet un rapport "on/off" dans un élément transistor — la vitesse de fonctionnement de l'électronique sur cette base pourrait donc être significativement accélérée.

"Les propriétés optiques uniques des monocouches des matériaux comme le disulfure de molybdène et le diséléniure de tungstène (WSe2) s'expliquent par les excitons : des paires électron-trou liées (quasi-particule porteuse d'une charge positive)", explique le professeur Gotthard Seifert de la MISiS.

Sachant que la création de l'hétérostructure MoS2/WSe2 par application de monocouches séparées l'une sur l'autre entraîne l'apparition dans celle-ci d'un exciton de nouveau type ou l'électron et le trou sont dimensionnellement séparés en couches différentes. "Grâce à l'utilisation des méthodes de spectroscopie et des calculs quanto-chimiques des premiers principes, nous avons découvert une paire électron-trou partiellement chargée dans le MoS2/WSe2, ainsi que sa localisation. Nous avons réussi à contrôler l'énergie de rayonnement de ce nouvel exciton en changeant l'orientation relative des couches", explique Gotthard Seifert.

Selon Gotthard Seifert, par la suite le groupe de recherche a l'intention d'étudier comment la rotation des couches influence les propriétés électroniques des matériaux et ce qui sera créé à partir d'eux : les éléments des panneaux solaires, les transistors et d'autres appareils.

Article rédigé par Georges Simmonds pour RT Flash

Nature

Un nano-capteur pour traquer les cellules cancéreuses
Mardi, 11/09/2018 - 17:16

Des chercheurs du laboratoire du Département de physiologie et pharmacologie de la Faculté de médecine de l’Université de Tel-Aviv, dirigés par Ronit Satchi-Fainaro, ont développé un capteur intelligent à l’échelle nanométrique qui allume une lumière fluorescente en présence de cellules cancéreuses, avec un niveau de précision sans précédent.

Le capteur innovant permet de retirer la tumeur dans son intégralité avec un minimum de dommages pour les tissus sains et sans laisser de cellules malignes susceptibles de métastaser, augmentant ainsi de manière substantielle le pourcentage de survie et les chances de guérison des patients.

"Nous nous sommes basés sur une étude antérieure, dans laquelle nous avions découvert que certaines tumeurs se caractérisaient par une augmentation de l’expression d’enzymes appelées cathepsines”, explique le Professeur Satchi-Fainaro. “Ces enzymes, que l’on retrouve en quantité bien moindre également dans les cellules saines, ont la propriété d’identifier et de couper une séquence particulière d’acides aminés (qui sont les blocs de construction des protéines). Nous avons utilisé cette fonctionnalité pour construire un capteur intelligent qui identifie et marque les cellules cancéreuses.”

Concrètement, ces chercheurs ont produit des nanoparticules de polymère, constituées de la même séquence d’acides aminés que celle que les cathepsines savent couper. Ces particules ont été attachées à des marqueurs fluorescents faits de molécules de colorant cyanine (Cy). “Lorsque les molécules de cyanine sont maintenues ensemble dans la particule de polymère, les ondes lumineuses qu’elles émettent s’annulent mutuellement, et elles restent sombres”, explique le Professeur Satchi-Fainaro. "Mais une fois que la nanoparticule atteint une cellule cancéreuse, le polymère est coupé par les cathepsines, libérant les molécules de cyanine, qui deviennent fortement fluorescentes.

En revanche, dans le tissu sain environnant, le polymère n’est pas coupé, et la zone reste sombre. La frontière entre la zone éclairée (tumeur) et la sombre (cellules saines) est donc très clairement visible pour l’œil". En d’autres termes, cela signifie que le capteur intelligent a une sensibilité élevée - il détecte toutes les cellules cancéreuses, et également une grande sélectivité - il ne marque pas les cellules saines. De cette façon, il informe le chirurgien de l’emplacement des cellules cancéreuses en temps réel, c’est-à-dire pendant la chirurgie elle-même, avec un niveau de sensibilité plus élevé que les dispositifs d’imagerie existant actuellement.

Dans la première étape de l’étude, les chercheurs ont vérifié l’existence et la surexpression de l’enzyme qui fait fonctionner le capteur dans des tissus prélevés sur des patients en cours d’opération. Puis ils ont vérifié leurs hypothèses sur des souris de laboratoire. Les résultats ont été probants : les opérations réalisées avec le nouveau capteur ont doublé les chances de survie à la maladie.

En outre, le nouveau dispositif a été comparé à deux capteurs actuellement en essais cliniques en salles d’opération. On a pu constater que ses niveaux de sensibilité et de sélectivité sont plus élevés, et qu’il s’allume beaucoup plus rapidement. Sur un plan pratique, cela signifie que le patient n’a pas besoin d’être hospitalisé la veille et qu’on peut lui injecter le capteur seulement 4 heures avant la chirurgie.

Article rédigé par Georges Simmonds pour RT Flash

Silicon Wadi

^ Haut
Matière
Matière et Energie
Des cartilages imprimés en 3D !
Jeudi, 13/09/2018 - 06:34

Poietis, spécialiste français de l’impression de tissus organiques, a annoncé un partenariat de recherche de deux ans avec le département d’ingénierie tissulaire de l’Université de Leuven, en Belgique. Cet accord permettra le développement de nouvelles solutions dans le domaine de la bio-impression pour proposer des thérapies de régénération du cartilage. Pour Frank Luyten, directeur du département d’ingénierie tissulaire, la bio-impression apporte une nouvelle stratégie pour le traitement des traumatismes osseux lorsque le potentiel de réparation endogène devient insuffisant.

Le partenariat vise non seulement à identifier les problèmes inhérents à la fabrication de tissus, mais aussi à traduire les travaux issus de la recherche en produits thérapeutiques reproductibles. L’objectif est de mener rapidement des travaux précliniques avec pour but de « rapprocher la conception de ces implants vivants vers la clinique », selon un communiqué co-signé par les deux entités.

La technologie de Poietis s’appuie sur la bio-impression assistée par laser d’agrégats multicellulaires intégrée dans des bio-encres. Ce procédé permet la création de structures vivantes stratifiées.

Article rédigé par Georges Simmonds pour RT Flash

Bio Space

Un générateur solaire flexible pour les satellites
Mercredi, 12/09/2018 - 19:20

L’équipe “matériaux et structures” du Laboratoire de mécanique et d’acoustique (LMA) de Marseille a conçu un nouveau matériau actuellement étudié par Thales Alenia Space en vue d’améliorer ses engins. "Il s’agit d’un générateur solaire flexible", explique Stéphane Bourgeois, chef du projet au LMA. "Un tapis de cellules photovoltaïques que le satellite plie et déplie selon ses besoins en énergie et qui peut faire 25 mètres".

Le mètre-ruban classique est instable : on ignore où va apparaître le pli. Le nouveau matériau en question est, lui, “bistable”. C’est un ruban composite qui, en l’absence de forces extérieures, prend deux positions stables, enroulée ou déroulée. “Tout comme une barrette pour les cheveux”, précise un autre chercheur Bruno Cochelin.

Le succès revient aux méthodes de modélisation et de simulation numérique qui prédisent le comportement du matériau, développées en calculant les forces nécessaires à déformer la matière. Son déploiement est alors harmonieux et contrôlable. L’étude est menée depuis une dizaine d’années et la mise en orbite du dispositif est prévue dans quatre à cinq ans.

Article rédigé par Georges Simmonds pour RT Flash

L'Usine Nouvelle

Hydrogène : des piles à combustible bientôt testées pour chauffer des logements
Mardi, 11/09/2018 - 17:22

Dans le cadre du plan hydrogène annoncé par le gouvernement en juin dernier, cinquante piles à combustible alimentées au gaz naturel vont bientôt être installées dans des logements et des petites entreprises pour produire de la chaleur et de l’électricité.

Le projet, piloté par l’Agence de l’environnement et de la maîtrise de l’énergie (Ademe) et le distributeur de gaz GRDF, doit permettre de tester en France cette technologie, déjà bien développée au Japon et émergente en Allemagne, à partir de la fin de l’année. Les deux partenaires sont actuellement en train de choisir les lieux où seront installées ces piles à combustibles (PAC), qui alimenteront des chaudières collectives dans des immeubles neufs d’habitations, des logements de particuliers ou des petites entreprises, a précisé GRDF.

Alimentées au gaz, ces PAC, fournies par l’allemand Viessmann, vont produire de l’hydrogène pour générer ensuite de l’électricité, tandis que la chaleur dégagée par le processus chauffera le bâtiment et assurera la production d’eau chaude. “La pile à combustible répond particulièrement à l’évolution des besoins énergétiques des bâtiments, grâce notamment à son très bon rendement électrique”, expliquent GRDF et l’Ademe dans un communiqué conjoint.

Grâce à cette production d’électricité, “le rendement énergétique atteint 140 à 150 %, contre 100 à 105 % pour une chaudière à condensation classique”, détaille à l’AFP Nicolas Doré, du service Bâtiment de l’Ademe. Cette expérimentation doit durer trois ans et a pour but notamment d’accompagner l’intégration de cette technologie sur le marché français, de confirmer ses performances environnementales et de sensibiliser le grand public.

L’intérêt environnemental sera d’autant plus important sur le moyen et long terme, lorsque le gaz utilisé pourra progressivement venir d’énergies renouvelables (méthanisation, etc.). “En raison de sa grande efficacité et de sa capacité à produire localement de l’électricité au plus proche des besoins du consommateur, cette solution tirera parti de l’arrivée du biométhane dans le paysage énergétique”, souligne Alain Mille, directeur de la direction développement de GRDF,

Article rédigé par Georges Simmonds pour RT Flash

Le Monde de l'Energie

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
Les modèles climatiques actuels pourraient sous-estimer les changements climatiques à long terme
Mercredi, 12/09/2018 - 15:24

Une équipe internationale de 17 pays a réalisé une analyse de périodes passées, dans Nature Geoscience. Il en ressort qu’un réchauffement global, même limité à 2°C au-dessus du niveau pré-industriel comme l’accord de Paris le préconise, engendrera des déplacements rapides des zones climatiques et des écosystèmes associés.

Les calottes polaires vont se réduire significativement pour des périodes de plusieurs milliers d’années. Un réchauffement rapide des pôles relâchera un surplus de gaz à effet de serre, et le niveau de la mer montera de plusieurs mètres au cours des prochains siècles. Enfin, ces observations montrent également qu’un bon nombre des modèles climatiques actuels, utilisés pour la simulation des changements au cours du XXIe siècle, risquent de sous-estimer les changements à long terme.

Plusieurs périodes de temps ont été identifiées au cours des 3,5 derniers millions d’années comme ayant été de 0,5 à 2°C plus chaudes que l’époque pré-industrielle. Elles révèlent des réchauffements plus marqués aux hautes latitudes que dans les régions tropicales, ce qui est similaire aux résultats de simulations issus de modèles de climat pour un réchauffement global de 2°C à l’horizon 2100. Bien que ces périodes chaudes passées n’aient pas toutes été causées par une augmentation du CO2 atmosphérique, leur étude permet d’évaluer les effets d’un réchauffement comparable au niveau limite préconisé par l’accord de Paris.

L’étude confirme que la migration des écosystèmes et des zones climatiques s’effectuera en général vers les pôles, ou vers des zones de plus haute altitude. Elle confirme aussi que le dégel du permafrost relâchera du gaz carbonique et du méthane additionnels, ce qui causera un réchauffement supplémentaire.

Les observations des époques chaudes passées suggèrent qu’avec un réchauffement limité à 2°C, comme le propose l’accord de Paris, le risque d’un emballement catastrophique lié à de fortes émissions induites de gaz à effet de serre est relativement faible. Cependant, même dans ce cas, le CO2 additionnel issu du permafrost et des sols doit être pris en compte.

Un réchauffement même limité de 1,5 à 2°C au-dessus du niveau pré-industriel sera suffisant pour causer une fonte substantielle du Groenland et de l’Antarctique à long terme, et engendrer une hausse du niveau de la mer de plus de 6 mètres qui persistera des milliers d’années. Des vitesses de montée du niveau de la mer supérieures à celles de ces dernières décennies sont alors probables. Les comparaisons entre données du passé et simulations numériques suggèrent que les modèles de climat sous-estiment le réchauffement à long terme et son amplification par les régions polaires.

Article rédigé par Georges Simmonds pour RT Flash

CEA

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Des chiens formés pour aider les diabétiques grâce à leur odorat
Jeudi, 13/09/2018 - 06:55

On savait déjà que nos compagnons à quatre pattes étaient capables de détecter l'apparition de certains cancers. Mais en matière de diabète, les chiens sont également une aide précieuse au quotidien, car ils sont capables de détecter une hypoglycémie ou une hyperglycémie, simplement grâce à leur truffe.

Une étude de l'Université de Cambridge expliquait déjà en 2016 que certains composés volatils présents dans l'haleine pouvaient être détectés lorsqu'un patient de type 1 était en hypoglycémie. De fait, c'est aussi l'hyperglycémie qui peut être repérée par le même biais. L'odeur du diabétique change selon son taux de glycémie, ce qu'un chien, qui possède des capacités olfactives un million de fois supérieures à celles de l'homme, est capable de reconnaître.

Le diabète de type 1 peut conduire ceux qui en souffrent à de graves complications, voire à la mort du patient. Les enfants tombant en hypoglycémie peuvent ainsi tomber dans le coma, obligeant les parents à veiller toute la nuit, par intervalles de quelques heures. Avec un chien dressé, c'est lui qui donnera l'alerte, soit en réveillant la personne diabétique, soit tirant du sommeil ses proches. Il suffit ensuite de mesurer le taux de sucre dans le sang pour savoir ce qu'il en est.

Cette assistance existe depuis quelques années dans plusieurs pays européens ainsi qu'aux Etats-Unis. En France, l'association à but non lucratif Acadia se charge d'éduquer les chiens à la reconnaissance des déséquilibres glycémiques. Le chien apprend petit à petit à repérer les changements dans la sueur et l'haleine de son bipède affilié. La coopération offre un confort de vie irremplaçable aux bénéficiaires.

Selon l'INVS cité par Acadia, plus de 20.000 enfants français ont un diabète de type 1. En 10 ans, le diagnostic chez les enfants de moins de 4 ans a augmenté de 78 % et depuis 15 ans, le nombre d'enfants de moins de 5 ans atteints du diabète a pratiquement triplé.

Article rédigé par Georges Simmonds pour RT Flash

BFM TV

Cancer du cerveau : deux avancées majeures !
Jeudi, 13/09/2018 - 06:48

Des scientifiques du VCU Massey Cancer Center de Richmond (Virginie), ont expérimenté avec succès un nouveau médicament qui, combiné à une radiothérapie, est parvenu à détruire des tumeurs cérébrales agressives. Connu sous le nom de "AZ32", le nouveau traitement sensibilise les tumeurs cérébrales aux rayonnements, y compris dans le cas du glioblastome humain multiforme (GBM). Le glioblastome multiforme ou glioblastome, également connu sous le nom "d'astrocytome de grade 4", est la tumeur primitive du cerveau la plus fréquente et la plus agressive.

Le traitement peut comprendre de la chimiothérapie, de la radiothérapie et de la chirurgie, mais ces mesures sont considérées comme palliatives, c'est-à-dire qu'elles ne permettent pas la guérison. L'espérance de vie à cinq ans de cette maladie a peu évolué ces trente dernières années, et ne dépasse pas les 10 %. Même avec une résection chirurgicale complète de la tumeur, combinée aux meilleurs traitements disponibles, le taux de survie au GBM reste très faible. L'essai a évalué 132 patients atteints de GBM, pris en charge dans sept centres médicaux, anglais ou américains.

La radiothérapie est le traitement de première ligne pour le GBM ; cependant, les cellules souches de glioblastome sont souvent capables de résister aux dommages causés par la radiation à l’ADN. En inhibant l'ATM, ou ataxie télangiectasie mutée, l'AZ32 perturbe le processus par lequel les cellules cancéreuses du cerveau résistent aux rayonnements tout en épargnant et en protégeant les tissus sains du cerveau.

"Entre 2009 et 2013, nous avons été les premiers à démontrer qu'un inhibiteur de l’ATM pouvait rendre les cellules cancéreuses du cerveau et les tumeurs sensibles aux rayonnements", explique le docteur Kristoffer Valerie, membre du programme de recherche Developmental Therapeutics de Massey. "Cette fois, avec l'AZ32, nous avons utilisé un inhibiteur d’ATM qui pénètre la barrière hémato-encéphalique. La combinaison de l'AZ32 et du rayonnement a été très efficace contre les cellules GBM avec des versions mutantes du gène suppresseur de tumeur p53, qui agit normalement pour promouvoir la résistance au rayonnement", décrit-il.

Jusqu'à 80 % des patients souffrant d’une GBM ont un cancer avec un gène suppresseur de tumeur p53 mutant ou dysfonctionnel. "Nous sommes enthousiastes à l'idée de traduire ces résultats en essais cliniques et, espérons-le, d'offrir des thérapies plus efficaces à des patients qui n'ont généralement pas de bons résultats", conclut Kristoffer Valerie. En France, l’incidence du cancer du cerveau est de 5 500 cas par an, dont 56 % affectant les hommes.

La seconde avancée contre ce type de cancer concerne une étude qui vient d'être publiée par des chercheurs de l'Institut Duke, à Durham, en Caroline du Nord. Conduites par Annick Desjardins, ces recherches ont montré qu'un virus de la polio génétiquement modifié a amélioré la survie à long terme des patients atteints d'une tumeur cérébrale de type létale. Selon cette étude, 21 % des patients traités par le virus - tous atteints d'une maladie récidivante - étaient en vie après trois ans, contre seulement 4 % de ceux ayant subi une chimiothérapie standard.

Les chercheurs de Duke ont ouvert l'essai de phase 1 en 2012 pour tester la sécurité du traitement au virus modifié et essayer de déterminer la bonne dose. Après que les chirurgiens aient implanté un cathéter dans le cerveau de chaque patient, une petite quantité d'une forme génétiquement modifiée du virus de la polio a été infusée directement dans la tumeur. Le virus est conçu pour cibler les cellules tumorales et déclencher une réponse du système immunitaire.

Article rédigé par Georges Simmonds pour RT Flash

EurekAlert

NEJM

Cancer de la prostate résistant : une nouvelle immunothérapie prometteuse
Jeudi, 13/09/2018 - 06:29

Des chercheurs de l'Institut de recherche sur le cancer de Londres, en collaboration avec l'Institut suisse de recherche en oncologie, ont découvert une nouvelle piste reposant sur l'immunothérapie pour lutter contre la résistance acquise à l'hormonothérapie dans certains cancers de la prostate.

Chez des souris résistantes traitées par le nouvel antiandrogène enzalutamide, l'équipe coordonnée par Arianna Calcinotto a réussi à restaurer l'hormonosensibilité de la tumeur en bloquant l'IL-23, une interleukine produite par les cellules myéloïdes suppressives (MDSC en anglais pour myeloid-derived suppressor cells). En pratique, des anticorps bloquant l'IL-23 sont d'ores et déjà utilisés en dermatologie, notamment dans le psoriasis.

Les stratégies développées jusque-là contre l'hormonorésistance dans le cancer de la prostate - inhibiteurs des récepteurs à l'androgène (comme l'enzalutamide) ou de la synthèse d'androgènes - se sont révélées insuffisantes avec de nouveau l'apparition de résistances.

Les chercheurs ont exploré la piste immunitaire en partant du fait que les cellules myéloïdes suppressives sont associées à un mauvais pronostic dans le cancer de la prostate. Ces cellules immunitaires, très proches des monocytes et des neutrophiles mais fonctionnellement différentes, sont surreprésentées dans les tumeurs hormonorésistantes.

Le Professeur Andrea Alimonti, de l'Institut suisse de recherche en oncologie et coauteur, précise : « Quand nous avons découvert que les MDSC productrices d'IL-23 étaient le principal sous-type immunitaire infiltrant les tumeurs prostatiques avec une résistance acquise à l'hormonothérapie, nous avons immédiatement compris que ces cellules pourraient être l'une des causes derrière l'émergence des cancers de la prostate résistant à la castration ».

Après avoir montré l'implication directe des MDSC dans la résistance à la castration via la surexpression d'IL-23 (tissus humains, modèles murins), les scientifiques ont testé chez la souris deux hypothèses : le contrôle génétique de l'infiltration tumorale par les MDSC et le blocage pharmacologique de l'interleukine. Le blocage de l'IL-23 obtenu par l'une ou l'autre méthode s'est traduit par l'apparition retardée d'une hormonorésistance et une survie prolongée.

Pour le Professeur Paul Workman, directeur général de l'Institut de recherche sur le cancer de Londres, cette étude donne un nouveau souffle à l'immunothérapie dans le cancer de la prostate, jusque-là limitée à des sous-groupes de patients.

Article rédigé par Georges Simmonds pour RT Flash

Nature

Une molécule capable d'améliorer l'efficacité des chimiothérapies
Mercredi, 12/09/2018 - 19:26

On le sait, les cellules cancéreuses sont capables "d'apprendre" à contrer les chimiothérapies qui devraient les tuer ; elles deviennent alors résistantes au traitement et peuvent se propager dans l'organisme. Pour comprendre ces phénomènes, une équipe de l'Institut de pharmacologie moléculaire et cellulaire (CNRS/Université Nice Sophia Antipolis) a étudié la protéine membranaire Patched et montré que cette protéine est capable d'expulser certains principes actifs des chimiothérapies hors des cellules cancéreuses. Le rejet de ces substances toxiques permet à terme à la tumeur de survivre au traitement.

La protéine Patched participe normalement au développement embryonnaire, mais elle est détournée en outil de « détoxification » dans de nombreux cancers :  mélanome, surrénalome, cancer colorectal, cancer du sein…  Après avoir montré que Patched contribuait activement à la résistance à la doxorubicine, un des médicaments utilisés en chimiothérapie, les chercheurs ont étudié son inhibition par une petite molécule appelée méthiothépine.

De façon remarquable, la doxorubicine associée à la méthiothépine élimine plus efficacement les tumeurs que la doxorubicine seule, à la fois in vitro sur des cellules cancéreuses humaines, et in vivo sur ces mêmes cellules greffées dans des souris. Les chercheurs ont effectivement constaté que la méthiothépine favorisait l'accumulation du traitement dans les cellules cancéreuses ainsi que son efficacité. Enfin, leurs travaux montrent que l'association des deux molécules n'augmente pas la quantité de doxorubicine dans le cœur des souris étudiées, un point important car ce composé est connu pour sa cardiotoxicité.

La méthiothépine appartient à une famille d'inhibiteurs d'un récepteur à la sérotonine, dont certains membres sont déjà employés pour traiter la schizophrénie. L'équipe de recherche souhaite donc poursuivre ces travaux aux côtés de chimistes pour optimiser la méthiothépine et lui faire par exemple perdre son effet sur le récepteur à la sérotonine afin d'augmenter sa spécificité pour Patched.

Article rédigé par Georges Simmonds pour RT Flash

CNRS

La dénervation rénale contre l’hypertension artérielle résistante ?
Mercredi, 12/09/2018 - 15:16

L’équipe du Centre d’Excellence en Hypertension Artérielle et du CIC1418 APHP-Inserm conduite par le Professeur Michel Azizi et celle du service de radiologie interventionnelle conduite par le Professeur Marc Sapoval de l’hôpital Européen Georges Pompidou, AP-HP, ont montré pour la première fois qu'il était possible de réduire sensiblement la pression artérielle après dénervation rénale par ultrasons focalisés dans cette indication.

La dénervation rénale par voie endovasculaire consiste à interrompre l’activité électrique des nerfs du système nerveux sympathique à destinée rénale en délivrant des ultrasons focalisés par l’intermédiaire d’un cathéter dans l’étude RADIANCE-SOLO ou en utilisant une autre technologie basée sur un courant électrique de faible intensité. Cette nouvelle piste thérapeutique a été développée initialement pour traiter l’HTA sévère et résistante à au moins 3 médicaments hypertenseurs.

Cette étude internationale avait pour but d’évaluer de façon objective l’efficacité tensionnelle et la sécurité de la dénervation rénale par ultrasons contre une intervention fictive – appelée « sham »- pour la première fois chez des patients ne recevant aucun traitement médicamenteux pour leur HTA.

Au total, 146 patients ayant une HTA modérée et ne prenant aucun médicament antihypertenseur ont été répartis par tirage sort entre le groupe traité par dénervation rénale ou le groupe « sham » limité à une artériographie diagnostique.

Ni les patients ni l’équipe médicale assurant le suivi des patients ne connaissaient le groupe auquel ils avaient été assignés par le tirage au sort. L’intervention fictive ou « sham » avec maintien de l’insu de la randomisation des patients et des équipes médicales permet de s’affranchir de l’effet placebo en particulier dans l’HTA et a été approuvée par les autorités de santé et le comité de protection des personnes en France et dans le monde.

Après 2 mois de suivi sans addition de traitement antihypertenseur sauf en cas de nécessité de sécurité, les résultats de l’étude montrent que la pression systolique ambulatoire diurne a été réduite de façon significativement plus importante dans le groupe dénervation (-8,5 mmHg) que dans le groupe sham (-2,2 mmHg), soit une différence de 6,3 mmHg en faveur de la dénervation rénale.

Par ailleurs, plus de 66 % des sujets traités par dénervation rénale ont eu une réduction de 5 mmHg ou plus de la pression artérielle systolique ambulatoire diurne, comparativement à 33 % dans le groupe témoin. Enfin, 20 % des patients traités par dénervation rénale avaient leur pression artérielle normalisée sans prendre aucun médicament antihypertenseur contre 3 % dans le groupe témoin.

La dénervation rénale a donc un effet hypotenseur à moyen terme chez des patients ayant une HTA et ne recevant aucun médicament antihypertenseur. Malgré la disponibilité de nombreuses classes médicamenteuses différentes, l’HTA reste mal contrôlée chez plus de 45 % des patients hypertendus en France.

Article rédigé par Georges Simmonds pour RT Flash

Inserm

Un vaccin expérimental contre le SIDA sera testé sur l'homme en 2019
Mercredi, 12/09/2018 - 14:33

Des chercheurs du National Institute of Allergy and Infectious Diseases (NIAID) vont débuter, dès 2019, les essais cliniques humains d’un nouveau vaccin ayant induit une importante réponse immunitaire chez la souris, le cochon d’inde et le singe.

Ce vaccin cible particulièrement une protéine de surface du VIH nécessaire au virus pour que celui-ci puisse s’introduire dans les cellules hôtes. Ce peptide de fusion du VIH-1, qui est un site de la protéine « Env gp120 », a été identifié en 2016 comme cible potentielle d’un vaccin, après que des chercheurs aient analysé les anticorps contre le VIH produits par un patient porteur-sain (personne qui héberge un agent infectieux sans présenter de symptômes visibles).

L’analyse a démontré que le système immunitaire du sujet produisait des anticorps neutralisants dont le paratope (site de reconnaissance) correspondait à l’épitope (site de liaison) d’Env gp120. Les scientifiques ont constaté que cet épitope possédait toutes les caractéristiques requises pour être la cible d’un vaccin : il reste constant malgré les mutations du virus et ne peut être caché par des molécules glycosilées.

Ces chercheurs ont entrepris d’élaborer une protéine qui inciterait le système immunitaire du receveur à créer un grand nombre d’anticorps neutralisants spécifiques à l’épitope du peptide de fusion du VIH-1. Ils ont développé et testé diverses formulations d’une protéine de huit acides aminés, liée à une molécule stimulant la réaction immunitaire et combinée à des répliques de la protéine de surface du VIH dont le peptide de fusion n’est qu’une sous-unité.

Une fois la meilleure formulation sélectionnée, les biologistes ont injecté le vaccin à des souris infectées par différentes formes du virus issues des 208 souches de VIH existantes. Le vaccin a provoqué une réponse immunitaire chez l’animal, dont les anticorps ont réussi à correctement se fixer à Env gp120 et ainsi à détruire 31 % des virus. Des tests supplémentaires sur les cochons d’inde et les singes ont montré des résultats identiques, démontrant que le vaccin fonctionne sur des espèces différentes.

Article rédigé par Georges Simmonds pour RT Flash

NIAID

Une HTA à 50 ans supérieure à 130 mmHg augmenterait le risque de démence
Mardi, 11/09/2018 - 18:58

L'étude franco-britannique : WITHEHALL II (INSERM, Department of Epidemiology and Public Health, University College London) menée entre 1985 et 2017 par Archana Singh-Manoux, directrice de recherche à l'Inserm, a essayé d'évaluer l'impact de l'hypertension artérielle à l'âge adulte sur les risques ultérieurs de démence.

Les résultats parus dans l’European Heart Journal suggèrent qu’à 50 ans, une tension élevée, mais toujours en-dessous du seuil de diagnostic de l’hypertension, pourrait être liée à une augmentation du risque de développer une démence plus tard dans la vie et ce, même pour les personnes ne présentant aucune autre pathologie cardiovasculaire.

Plus de 8 000 volontaires sans trouble cognitif ont été recrutés (32 % de femmes) entre 1985 et 2003 dans cette étude. Les chercheurs ont recueilli les valeurs de la pression artérielle systolique (PAS) et diastolique lors du recrutement et du suivi. La survenue éventuelle de signes de démence entre 2013 et 2017, a, quant à elle, été recherchée en consultant des données électroniques hospitalières répertoriant les atteintes cognitives et la classification internationale des maladies dans le registre des décès.

Dans chaque cohorte d’âge, les auteurs ont évalué les différents niveaux tensionnels systoliques et ont retenu trois tranches : 120, 130 et > 140 mmHg. A la fin de l’étude en 2017, 4,5 % des sujets suivis souffraient de troubles cognitifs. L’âge moyen du diagnostic de démence était 75,2 ans. Son incidence étant associée à un plus faible niveau d’éducation, à l’hypertension artérielle et à des comorbidités.

Les chercheurs ont constaté un risque accru de démence pour une pression artérielle systolique supérieure à 130 mmHg à l’âge de 50 ans par rapport aux personnes du même âge avec une pression artérielle basse. Ce risque reste significatif après ajustement sur les données socio-économiques.

Aucune association entre un risque accru de démence et une pression artérielle systolique supérieure à 130 mmHg n’a été observée pour les tranches d’âge 60 et 70 ans. Et la pression artérielle diastolique n’avait pas d’influence. En conclusion, les auteurs ont montré un risque significativement accru de survenue d’une démence chez les patients ayant à 50 ans une pression artérielle systolique supérieure à 130mmHg.

Article rédigé par Georges Simmonds pour RT Flash

EHJ

CANCER : Le composé qui fige les cellules tumorales
Mardi, 11/09/2018 - 18:53

L'un des grands défis de la cancérologie est d'empêcher les cellules cancéreuses de se disséminer dans l'organisme, de bloquer leur capacité de mobilité. En ciblant la « motilité » des cellules cancéreuses, l'équipe de l’Oregon Health & Science University (OHSU, Portland) vise en effet à figer la tumeur in situ et à éviter toute propagation tumorale et formation de métastases. Ces travaux montrent qu'il est possible de congeler les cellules cancéreuses puis « de les tuer » là où elles se trouvent.

Les médecins-scientifiques de l'OHSU en apportent ici la preuve in vivo, chez la souris, avec ce candidat-médicament qui empêche les cellules cancéreuses de se propager à d'autres parties du corps.

Le Docteur Raymond Bergan, chef du Département d'hématologie et d'oncologie médicale et professeur de médecine à l'OHSU, explique que la grande majorité des thérapies visent à tuer le cancer mais que personne à ce jour n'a eu l’idée d’une thérapie qui empêche les cellules cancéreuses de migrer dans le corps : « Pour la grande majorité des cancers, du sein, de la prostate, du poumon, du côlon et d'autres, lorsque la tumeur est détectée tôt et ne s'est pas propagée, c’est pratiquement la survie assurée », explique l’auteur en substance. Le mouvement des cellules cancéreuse est donc une « clé » de traitement possible.

La motilité des cellules cancéreuses est donc l'objet des recherches de l’équipe depuis plusieurs décennies avec un objectif clair, parvenir à stopper leur mouvement. En 2011, l’équipe a travaillé avec des chimistes sur un candidat capable d’inhiber le mouvement des cellules cancéreuses.

KBU2046 inhibe la motilité cellulaire pour 4 types différents de cellules cancéreuses solides, de cancer du sein, de la prostate, du côlon et du poumon. Chez la souris modèle de ces cancers, le composé réduit considérablement la motilité des cellules tumorales, avec peu d'effets secondaires et une très faible toxicité.

Ces chercheurs ont commencé à utiliser un composé chimique qui empêchait les cellules de bouger, puis l’a affiné de plus en plus jusqu'à ce qu'il parvienne à arrêter totalement les cellules et sans entraîner d’effets secondaires. La clé de ce médicament réside dans les protéines de choc thermique. La molécule thérapeutique se lie à ces protéines pour arrêter le mouvement des cellules, mais n'a pas d’autre effet sur ces protéines.

Article rédigé par Georges Simmonds pour RT Flash

Santé Blog

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top