RTFlash

RTFLASH Recherche & Technologie
NUMERO 1002
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 24 Mai 2019
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
L’intelligence artificielle pour profiler l’adénocarcinome du poumon
Un algorithme pour concevoir des processeurs sans faille matérielle
Une intelligence artificielle qui repère la pollution agricole
Avenir
Un nouveau robot pourrait bientôt être capable de faire le tri à notre place
Matière
Du bois transparent qui absorbe, stocke et libère la chaleur !
Un revêtement nanocomposite ignifuge conçu à partir d’argile et de cellulose
Quand la matière est liquide et solide en même temps…
Terre
Réchauffement climatique : des conséquences sous-estimées sur le cerveau
Vivant
Des « grenades génétiques » pour cibler et tuer les bactéries résistantes
Le mécanisme d'action du lithium sur le cerveau mieux compris
Vers une nouvelle technique de détection sanguine rapide du cancer
Une bio-imprimante de peau au chevet du patient
Hypertension artérielle : vers une nouvelle classe de médicaments
Ces chiens qui détectent le cancer...
Les troubles du sommeil paradoxal pourraient augmenter les risques de troubles mentaux
Edito
Accès aux soins, alimentation, activité physique et pollution : les quatre clés de la longévité



Il y a quelques jours, un rapport de l’OMS révélait qu’entre 2000 et 2016, l'espérance de vie mondiale à la naissance avait augmenté de 5,5 ans, passant de 66,5 à 72,0 ans. Sur les quarante dernières années, l’espérance de vie moyenne mondiale a donc progressé de plus de 10 ans, ce qui est remarquable et inflige un rude démenti aux thèses catastrophistes et déclinistes, selon lesquelles la situation de l’Humanité ne cesserait globalement de se détériorer. L'espérance de vie en bonne santé à la naissance - le nombre d'années en pleine santé qu'une personne peut s'attendre à vivre - est passée de 58,5 ans en 2000 à 63,3 ans en 2016 (Voir OMS).

Pour la première fois cette année, les Statistiques sanitaires mondiales de l'OMS ont été ventilées par sexe. Ces données permettent d’apprendre qu’à la naissance, il y a plus de garçons que de filles. Cette année, quelque 73 millions de petits garçons devraient ainsi naître dans le monde, contre 68 millions de filles, selon l’OMS. Mais l’espérance de vie des femmes est plus élevée (74,2 ans) que celle des hommes (69,8 ans). Cette nouvelle analyse a permis de mieux comprendre la santé et les besoins des populations du monde entier.

Selon un rapport présenté début avril conjointement par l’Union européenne, l’Organisation des Nations Unies pour l’alimentation et l’agriculture (FAO) et le Programme alimentaire mondial (PAM) des Nations Unies, environ 113 millions de personnes vivant dans 53 pays ont connu une situation d’insécurité alimentaire aigüe en 2018, contre 124 millions en 2017 (Voir FSIN).

Cette étude évalue à 113 millions le nombre de personnes en situation de crise alimentaire, soit un chiffre en légère baisse par rapport aux 124 millions de personnes identifiées en 2017. Néanmoins, le nombre de personnes en situation de crise alimentaire à travers le monde reste largement supérieur à 100 millions pour la troisième année consécutive, et le nombre de pays concernés a augmenté. Près des deux tiers des personnes touchées par l’insécurité alimentaire aigüe vivent dans les huit pays suivants : l’Afghanistan, la République démocratique du Congo, l’Ethiopie, le Nigéria, le Soudan du Sud, la Syrie et le Yémen.

La FAO rappelle également que le nombre total de personnes victimes d’une malnutrition chronique est estimé à 821 millions de personnes à l’échelle mondiale, soit 11 %  de la population mondiale (7,63 milliards d’habitants). Cette situation reste bien sûr insupportable mais rappelons qu’il y a trente ans, c’est plus d’un milliard d’humains qui souffraient de la faim, soit 19 % de la population mondiale de l’époque… Mais si la malnutrition et la sous-nutrition restent encore des fléaux qui provoquent la mort prématurée de plusieurs centaines de millions de personnes, on sait moins que la mauvaise alimentation a également des conséquences dévastatrices en matière de santé publique, comme vient de le montrer d’une manière saisissante une vaste étude internationale réalisée par 130 chercheurs, publiée également il y a quelques jours (Voir The Lancet).

Selon cette étude, en 2017, un total de 11 millions de décès dans le monde, soit un sur cinq, étaient attribuables à un mauvais régime alimentaire. C’est plus que le tabac (8 millions de morts chaque année). Avec plus de 9 millions de morts, les maladies cardiovasculaires apparaissent comme la principale cause de décès découlant d’une alimentation déséquilibrée, selon les chercheurs. Suivent les cancers (un peu moins de neuf millions de décès) et le diabète de type 2 (environ trois millions de morts). Les chercheurs soulignent que pour plus de 5 millions, ces morts dus à une mauvaise alimentation concernent des adultes de moins de 70 ans.

Ce travail très détaillé montre en outre qu’au sein de l’alimentation, sept grands facteurs sont responsables de plus de 90 % de ces décès : ce sont par ordre décroissant, l’excès de sel (3,2 millions de morts), l’insuffisance de céréales complètes (3 millions de décès), l’insuffisance de fruits (2,4 millions de décès), l’insuffisance de légumes (1,5 million de décès), l’insuffisance d’aliments riches en acides gras omega-3 (1,4 million de décès), l’insuffisance de fibres (870 000 morts) et enfin, l’insuffisance d’aliments riches en acides gras polyinsaturés (800 000 morts).

Cette étude confirme le rôle tout à fait majeur d'une alimentation équilibrée, au niveau mondial pour réduire la mortalité globale. « Cette étude est un signal d’alarme : nous devons réussir à adopter un régime alimentaire plus sain, à la fois pour notre santé et pour l’environnement », avertit Francesco Branca, directeur du département de nutrition de l’Organisation mondiale de la santé (OMS).

Avec la mauvaise alimentation, la sédentarité est également devenue un facteur intrinsèque majeur de réduction de l’espérance de vie et de mortalité au niveau mondial. L’OMS estime qu’un tiers des adultes âgés de plus 15 ans ne pratiquent pas assez d’exercice et ce manque d’activités physiques est responsable d’au moins 3,2 millions de décès chaque année dans le monde. Mais selon une étude réalisée en 2012 par des chercheurs de la Harvard Medical School à Boston, le manque d’activité physique serait à l’origine de 6 % à 10 % des  quatre grandes maladies non-transmissibles : maladie coronarienne, diabète de type 2, cancers du sein et du côlon. Au total, la sédentarité aurait provoqué  5,3 millions de morts en 2008, soit 10 % du total des décès observés au niveau mondial (Voir The Lancet).

Une autre étude publiée le 12 mars dernier, et réalisée par la revue médicale de la Société européenne de cardiologie, révèle pour sa part que les effets de la pollution de l’air sur la santé auraient été largement sous-estimés jusqu’à présent. Selon cette étude, cette pollution serait à l’origine d’environ 8,8 millions de morts prématurées dans le monde, dont 800 000 morts prématurées en Europe chaque année (Voir Oxford Academic).

Dans son rapport 2018 publié en octobre, l’Agence européenne de l’environnement concluait que l’exposition aux particules fines (PM2,5, de diamètre inférieur à 2,5 micromètres) principalement, était responsable d’environ 422 000 morts prématurées (avant l’âge de l’espérance de vie) dans l’ensemble des quarante et un pays européens, dont 391 000 dans les vingt-huit Etats membres de l’Union européenne (UE).

L’excès de mortalité imputable à la pollution de l’air ambiant serait en fait de 790 000 au niveau continental, dont 659 000 au sein de l’UE, assurent les auteurs de l’étude dirigée par une équipe de chercheurs allemands de l’Institut Max-Planck de chimie. Au niveau de la planète, cette étude réévalue à 8 millions le nombre de morts provoquées chaque année par la pollution, soit près du double des 4,5 millions de morts retenus jusqu’ici par l’Organisation mondiale de la santé (OMS) pour la pollution de l’air extérieur. « Pour mettre ces résultats en perspective, cela signifie que la pollution de l’air fait plus de morts chaque année que le tabac, responsable de 7,2 millions de décès selon l’OMS », commente l’un des auteurs, Thomas Münzel, de l’Université de Mayence (Allemagne), qui fait remarquer qu’« on peut éviter de fumer, pas de respirer un air pollué ».

Si l'on extrapole ces résultats à la France, le nombre de morts prématurées provoquées par une mauvaise qualité de l’air serait de 67 000, un chiffre nettement supérieur à l’estimation de 48 000 morts retenue jusqu’à présent par les pouvoirs publics. Pour parvenir à ces résultats, les chercheurs ont construit un nouvel outil statistique. Appelé « Global Exposure Mortality Model » (GEMM), il permet une analyse bien plus fine que le « Global Burden of Disease » (« fardeau mondial de morbidité ») utilisé par l’OMS. Le GEMM s’appuie en effet sur 41 études épidémiologiques menées dans seize pays et combinant trois séries de données : niveaux d’exposition à la pollution, densité et âge des populations, effets sanitaires.

Cette nouvelle évaluation nous apprend, sans surprise, que la Chine arrive en tête de ce triste palmarès, avec 2,8 millions de morts par an. En Europe, c’est l’Allemagne qui arrive en tête, avec 124 000 décès prématurés par an. Soit 154 décès pour 100 000 habitants, ce qui correspond à une perte d’espérance de vie de 2,4 années. Avec 105 morts pour 100 000 habitants (1,6 année d’espérance de vie perdue), la France se situe au niveau du Royaume-Uni (98 décès et 1,5 année d’espérance de vie perdue).

Mais ce travail épidémiologique très fouillé nous apprend également que, contrairement à ce que l’on pourrait penser, les principales causes de décès liées à l’exposition à un air toxique ne concernent pas des maladies du système respiratoire, comme le cancer du poumon, mais des pathologies cardiovasculaires. Les scientifiques estiment ainsi qu’entre 40 % et 80 % de ces décès sont dus à des infarctus et à des accidents vasculaires cérébraux (AVC). Les particules fines ne s’arrêtent pas aux voies respiratoires mais pénètrent profondément dans l’organisme par le système sanguin jusqu’au cœur et au cerveau. Les auteurs rappellent que l’exposition à long terme aux PM2,5 augmente de 13 % les risques de développer des pathologies coronariennes par palier de 5 microgramme (µg)/m3. Cet impact considérable de la pollution de l'air sur la mortalité et l'espérance de vie rend encore plus urgent l'indispensable transition vers une économie mondiale décarbonée et un paysage énergétique enfin débarrassé des énergies fossiles !

Mais avec l’alimentation et la pollution de l’air, un troisième facteur explique le trop grand nombre de décès prématurés au niveau mondial : l’insuffisance ou l’absence d’accès aux soins. Selon un rapport de la fondation "The Lancet", les deux tiers de la population mondiale (5 milliards de personnes) n'ont toujours pas accès à des soins sécurisés et abordables. Il s'agit d'une proportion deux fois supérieure aux précédentes estimations (Voir BBC).

Un tel constat signifie que plusieurs millions d'individus meurent encore aujourd'hui alors qu'ils pourraient être aisément soignés, notamment pour des cas d'appendicite ou de dystocie. Selon cette étude, neuf habitants des pays d'Afrique subsaharienne sur dix n'ont toujours pas accès aux soins médicaux les plus élémentaires.

L’étude porte également sur la possibilité pour certaines populations de se rendre ou non vers des centres médicaux en moins de deux heures, sur le niveau de sécurité des soins, et sur le coût des soins, souvent inabordable. « Des populations meurent ou continuent à vivre avec des maladies qui pourraient être évitées si elles recevaient un traitement approprié » estime Andy Leather, directeur du King's Centre for Global Health, et co-auteur de cette étude.

L'étude révèle également qu'un quart des personnes opérées ne sont pas en capacité de financer les soins qu'elles reçoivent. Pendant plus d'un an, 25 experts ont rassemblé plusieurs preuves et témoignages recueillis auprès de patients et de personnels de santé à travers plus de 100 pays. Au final, cette vaste analyse en arrive à la terrible conclusion que, sur l'ensemble des décès survenus en 2010, un tiers (16,9 millions) aurait pu être évité grâce à des soins médicaux... Pour surmonter cet immense défi de l'accès pour tous à des soins élémentaires, il est indispensable, en imaginant de nouveaux types de partenariats entre les états et les entreprises privées, d'exploiter beaucoup plus vigoureusement les immenses potentialités que nous offrent les nouveaux outils numériques en matière de téléconsultations, de télé-santé et de télémédecine.

Évoquons également la dernière analyse de « l’évolution démographique de la France », réalisée par l’INED (Institut national d’étude démographique). Ce travail a étudié l’évolution de la mortalité pour six grands groupes de causes médicales de décès (tumeurs, maladies cardiovasculaires, maladies infectieuses, maladies respiratoires, autres maladies, causes mal définies, et morts violentes) au cours de la décennie 2005-2015 (Voir INED).

Premier enseignement, les maladies infectieuses ne représentent plus que 2 % des causes de décès et 6 % pour les maladies respiratoires. Deuxième enseignement, la mortalité par maladie cardiovasculaire est celle qui a diminué le plus rapidement – environ 30 % - au cours de la décennie 2005-2015, et de 50 % depuis 1995 !

Troisième enseignement, la mortalité par cancer a, elle aussi, régulièrement décliné, bien qu'à un rythme moins rapide que celui observé pour les maladies cardiovasculaires. Chez les hommes, cette baisse de la mortalité a atteint 15 % entre 2005 et 2015 ; elle s'est poursuivie au même rythme qu'entre 1995 et 2005. Mais chez les femmes, la diminution de la mortalité par cancer n’a été que de 3 % depuis 2005. Principale raison de cet écart considérable : la consommation de tabac qui a nettement diminué chez les hommes mais augmenté chez les femmes.

Quatrième enseignement, la mortalité due aux accidents de la circulation a considérablement diminué depuis vingt ans : - 37 % entre 1995 et 2005 et - 47 % entre 2005 et 2015. Il faut noter que cette diminution des morts violentes est également observée pour les suicides (respectivement - 15 % et - 22 % sur les deux dernières décennies) et pour les homicides (- 31 % et - 35 %). Pour l'ensemble des causes violentes, la mortalité a finalement baissé de 18 % entre 2005 et 2015, contre 26 % au cours de la décennie précédente.

Ces tendances observées au niveau national vont très probablement se retrouver au niveau mondial. Résultat : d’ici 2050, la proportion de la population mondiale de plus de 65 ans doublera pour passer d’environ 8,5 % à 17 %, ce qui représente 1,8 milliard de personnes à cette échéance. Quant au nombre de seniors de plus de 80 ans, il va passer de 125 à 434 millions d’ici le milieu de ce siècle Or, il aura fallu plus de 100 ans pour que la part de la population française âgée de 65 ans et plus double pour passer de 7 à 14 %. En comparaison, il ne faudra qu’à peine un quart de siècle à des pays tels que le Brésil et la Chine l’Indonésie ou l’Egypte pour connaître la même croissance de leur population âgée. Pour la première fois dans l’histoire de l’humanité, une majorité d’adultes d’âge moyen, voire plus âgés, auront leurs parents toujours en vie, comme c’est déjà le cas aujourd’hui. Davantage d’enfants connaîtront leurs grands-parents et même leurs arrière-grands-parents.

Comme pour tout système vivant, les capacités fonctionnelles d’un être humain se développent au cours des premières années de vie, atteignent un pic au début de l’âge adulte et déclinent naturellement ensuite. Toute la question réside dans le rythme de ce déclin – très variable selon les individus – et dont on sait à présent qu’il est largement déterminé par deux grands types de facteurs : d’une part, ceux liées à notre mode de vie - alimentation, exercice physique, consommation de tabac et d’alcool, et d’autre part, ceux qui ne dépendent pas de nous et englobent les facteurs environnementaux ( pollution et exposition à des substances toxiques) et sociaux (accès à la prévention médicale et aux soins).

Aujourd’hui, et cela constitue une rupture majeure, même dans les pays pauvres, la plupart des personnes âgées décèdent de maladies non transmissibles telles que les cardiopathies, le cancer et le diabète, plutôt que de maladies infectieuses ou parasitaires. En outre, dans les pays en développement, le nombre de personnes âgées qui ont perdu leur autonomie devrait être multiplié par quatre d’ici à 2050 et dépasser les 100 millions de personnes à cet horizon.

Rappelons-le, l’espérance de vie moyenne dans le monde a connu une progression absolument sans précédent - 24 années - dans l’histoire humaine depuis 70 ans, passant de 47 à 71 ans, et cette progression devrait se poursuivre, puisque le Bureau américain du recensement prévoit une espérance de vie moyenne mondiale de 76,2 ans en 2050, et cela, sans ruptures scientifiques et médicales majeures…

Mais pour faire encore reculer au niveau mondial, de manière sensible, la mortalité et continuer à augmenter non seulement l’espérance de vie « brute » à la naissance, mais également l’espérance de vie sans incapacité (c’est-à-dire en pleine autonomie), il faut prendre conscience du fait que les progrès médicaux et technologiques ne suffiront pas. Il faudra également agir fortement et simultanément sur ces quatre leviers que sont la réduction des inégalités aux soins, l’accès à une alimentation équilibrée et saine à un prix abordable, la pratique d’une activité physique adaptée tout au long de la vie et enfin une réduction massive de la pollution de l’air et de l’eau et de l’exposition aux substances chimiques nocives.

La capacité à agir puissamment et durablement sur ces quatre leviers-clés dépendra essentiellement de la volonté politique de nos responsables et dirigeants, tant au niveau local que national et international, pour répondre aux aspirations de l’Humanité et accélérer les profondes mutations nécessaires qui devront conduire de manière démocratique vers des sociétés plus justes, plus solidaires et plus durables, dans lesquelles les extraordinaires progrès de la science seront mis au service de tous.

René TRÉGOUËT

Sénateur honoraire

Fondateur du Groupe de Prospective du Sénat

e-mail : tregouet@gmail.com


TIC
Information et Communication
L’intelligence artificielle pour profiler l’adénocarcinome du poumon
Jeudi, 23/05/2019 - 06:41

Des chercheurs américains du laboratoire de sciences biomédicales du  Dartmouth College (Hanover-New Hampshire) ont développé un nouveau modèle basé sur l’intelligence artificielle (IA) qui permet de classer les lames de cancer du poumon comme le ferait le pathologiste, afin de déterminer les sous-types de tumeurs.

Ce système d’apprentissage automatique permet, en pratique, de classer les différents types à un niveau de précision équivalent à celui des pathologistes. Ce système, décrit dans Scientific Reports, confirme le potentiel considérable de l’IA dans le domaine de l'analyse d'images médicales.

L’application de ce modèle d’apprentissage automatique fait ses preuves ici dans la classification des profils tumoraux et des sous-types de l’adénocarcinome du poumon, la forme la plus répandue de la principale cause de décès par cancer dans le monde. Actuellement, l'adénocarcinome du poumon nécessite un examen visuel des lames de lobectomie par le pathologiste afin de déterminer le modèle et le sous-type de la tumeur. Cette classification joue un rôle important dans le pronostic et le choix du traitement, mais reste une tâche complexe et subjective.

La performance élevée de l'apprentissage automatique dans la classification d'images complexes : s'appuyant sur les progrès récents de l’apprentissage automatique, un champ d’application de l’IA, l'équipe démontre que son modèle fonctionne à égalité avec les diagnostics de 3 pathologistes praticiens. C’est une première démonstration de la performance élevée de l'apprentissage automatique dans le cadre d'une tâche de classification d'images complexes et des applications possibles dans le diagnostic des cancers, mais pas seulement.

Une approche applicable à d'autres tâches d'analyse d'images d'histopathologie, notamment dans les domaines du cancer du sein, de l’œsophage et du cancer colorectal. « S'il est validé par des essais cliniques, notre modèle pourrait être mis en œuvre en pratique clinique pour seconder les pathologistes. Notre méthode est rapide et peut traiter une diapo en moins d'une minute. Elle pourrait même permettre de mieux profiler les patients avant leur examen par le médecin. »

Article rédigé par Georges Simmonds pour RT Flash

Nature

Un algorithme pour concevoir des processeurs sans faille matérielle
Jeudi, 23/05/2019 - 06:32

Début 2018, la découverte des failles matérielles de sécurité informatiques Spectre et Meltdown a semé la panique chez les constructeurs de microprocesseurs. Ces failles ont mis en lumière la dangerosité des attaques dites par canaux cachés, qui permettent de récupérer des informations en observant le fonctionnement matériel – et non logiciel – d’une puce.

Des chercheurs de l’Université technologique de Kaiserslautern, en partenariat avec Stanford, ont élaboré un système mathématique permettant de détecter ce type de faille pendant la conception d'un processeur. Cet outil leur a permis  d'identifier de telles failles dans des puces largement utilisées dans l’Internet des objets (IoT) et la conduite autonome.

Les algorithmes de chiffrage des données fonctionnent sur la couche matérielle d’un système informatique : lorsqu’ils sont activés, ils utilisent les composants électroniques du système pour effectuer des calculs et interagir. Les attaques dites matérielles se fondent sur l’observation des phénomènes physiques impliqués pour en déduire le fonctionnement des algorithmes de protection, afin de les contourner.

Les attaques par canaux cachés sont des attaques matérielles particulières, lors desquelles un logiciel malveillant obtient directement les informations protégées par les algorithmes en analysant le fonctionnement des composants d'un système.

Pour faire face à ce type d’attaque, les chercheurs ont défini un algorithme nommé Unique Program Execution Checking, ou UPEC. « C’est une forme de vérification automatisée de la sécurité, qui va alerter les concepteurs d’une faille potentielle dans leur microarchitecture, bien avant que la puce ne soit produite en masse », explique le professeur de l’université de Kaiserslautern, Wolfgang Kunz, dans un communiqué de presse de l'université.

L’algorithme analyse les répercussions de chaque décision de conception sur la microarchitecture d’un processeur et détecte si elles peuvent être exploitées. « Le point clé est que même les étapes simples du design, comme ajouter ou enlever de la mémoire tampon, peuvent introduire par inadvertance une vulnérabilité aux canaux cachés, sur à peu près n’importe quel processeur », détaille le chercheur Mo Fadiheh.

Selon les chercheurs, l’UPEC a l’avantage d’être exhaustif. Il prend en compte tous les programmes qui peuvent fonctionner sur un processeur donné pour faire son analyse et peut permettre la détection de n’importe quelle vulnérabilité sur une puce en conception.

Article rédigé par Georges Simmonds pour RT Flash

L'Usine Nouvelle

Une intelligence artificielle qui repère la pollution agricole
Mardi, 21/05/2019 - 12:24

Une étude publiée par le Stanford Institute for Economic Policy Research et la fondation GRACE Communications, a montré que le machine learning pourrait lire les images satellites et identifier les fermes qui polluent notre environnement. Cette intelligence artificielle serait plus performante que les méthodes traditionnelles.

Les grandes exploitations représentent 40 % de l’élevage de bétail aux États-Unis. Ce sont majoritairement ces acteurs qui sont à l’origine de la pollution de l’eau. De plus, ce type d’exploitation se doit d’avoir un permis spécial pour pouvoir jeter ses déchets. Toutefois, l’agence de protection de l’environnement américaine estime que 60 % de ces fermes ne le possèdent pas. Comme il n’existe pas de réel système pour contrôler ces fermes, ce sont jusqu’à présent les groupes environnementaux qui faisaient le travail.

Grâce à cette innovation, les choses pourraient rapidement évoluer. Ce nouveau modèle d’IA est déjà entraîné à scanner des images. En d’autres termes, la machine a appris à reconnaître et différencier les formes satellites d’une ferme de porcs, et celles d’une ferme de volailles, par exemple.

Cassandra Handan-Nader et Daniel Ho expliquent que l’algorithme a permis d’identifier 15 % de fermes polluantes en plus, par rapport à la méthode traditionnelle. L’intégration de cette intelligence artificielle pourrait permettre à l’humain de se concentrer sur des tâches plus complexes, notamment identifier les dégâts environnementaux liés à la décharge des déchets d’une ferme.

Article rédigé par Georges Simmonds pour RT Flash

Nature

^ Haut
Avenir
Nanotechnologies et Robotique
Un nouveau robot pourrait bientôt être capable de faire le tri à notre place
Mardi, 21/05/2019 - 12:21

Alors que Walmart compte bien tout miser sur l’intégration de nouveaux robots dans ses magasins, des chercheurs du MIT viennent de révéler que des robots pourrait acquérir le sens du toucher et donc être en mesure d’effectuer de nombreuses tâches monotones. L’équipe de recherche dédiée à ce projet a mis au point RoCycle, un robot qui utilise des capteurs placés dans sa main pour déterminer en quel matériau est fabriqué tel ou tel objet, dans le but d’être capable de les trier.

Quand on est un robot ordinaire, ce n’est pas simple de déterminer le matériau d’un objet. Difficile de faire la différence entre une boîte de conserve et un tube en carton sans être doté du sens du toucher. Ce tout nouveau robot imaginé par le MIT est beaucoup plus fort que ses prédécesseurs ; il est capable de reconnaître, grâce au toucher, le matériau dans lequel un objet est fabriqué. Et cela fonctionne même avec le métal, puisque les capteurs sont conducteurs.

RoCycle a un taux de précision qui s’élève déjà à 85 %, ce qui très bien, mais il y encore un peu de chemin avant qu’il soit en mesure de prendre, officiellement du service. Pour aller encore plus loin, RoCycle pourrait aussi être équipé d’une caméra pour gagner en compétence.

Article rédigé par Georges Simmonds pour RT Flash

Siècle Digital

^ Haut
Matière
Matière et Energie
Du bois transparent qui absorbe, stocke et libère la chaleur !
Jeudi, 23/05/2019 - 06:48

Les scientifiques suédois de l'Université Lulea ont mis au point un nouveau type de bois transparent qui, non seulement transmet la lumière, mais aussi absorbe et libère de la chaleur, ce qui permettrait de réduire sa facture énergétique. Le matériau est en mesure de supporter de lourdes charges et reste biodégradable, ce qui ouvre la porte à son utilisation éventuelle dans des maisons et autres bâtiments écologiques.

« En 2016, nous avons montré que le bois transparent possédait d’excellentes propriétés d’isolation thermique par rapport au verre, combinées à une transmission optique élevée », explique Céline Montanari, doctorante. « Dans ce travail, nous avons essayé de réduire encore plus la consommation d’énergie du bâtiment en incorporant un matériau qui peut absorber, stocker et libérer la chaleur ».

Au fur et à mesure que le développement économique progresse dans le monde entier, la consommation d’énergie a grimpé en flèche. Une grande partie de cette énergie est utilisée pour éclairer, chauffer et refroidir les maisons, les bureaux et autres bâtiments. Les fenêtres en verre peuvent transmettre la lumière, aidant à éclairer et à chauffer les maisons, mais elles n’emmagasinent pas l’énergie pour l’utiliser lorsque le soleil se couche.

Il y a trois ans, le chercheur Lars Berglund, Ph.D., et ses collègues du KTH Royal Institute of Technology de Stockholm, en Suède, ont signalé la présence d’un bois optiquement transparent dans la revue Biomacromolecules de ACS. Les chercheurs ont fabriqué le matériau en retirant un composant absorbant la lumière, appelé lignine, des parois cellulaires du balsa.

Pour réduire la diffusion de la lumière, ils ont incorporé de l’acrylique dans les parois en bois poreux. L’équipe pouvait voir à travers le matériau, mais il était assez translucide pour assurer une certaine intimité s’il était utilisé comme matériau de construction majeur. Le bois transparent avait également des propriétés mécaniques favorables, lui permettant de supporter de lourdes charges.

S’appuyant sur ces travaux, les chercheurs ont ajouté un polymère appelé polyéthylène glycol (PEG) au bois délignifié. « Nous avons choisi le PEG en raison de sa capacité à stocker la chaleur, mais aussi en raison de sa grande affinité pour le bois », explique M. Montanari. « À Stockholm, il y a un très vieux navire appelé Vasa, et les scientifiques ont utilisé du PEG pour stabiliser le bois. Nous savions donc que le PEG peut aller très en profondeur dans les cellules du bois. »

Connu sous le nom de « matériau à changement de phase », le PEG est un solide qui fond à une température de 80°F (27°C) et stocke de l’énergie durant le processus. La température de fusion peut être ajustée en utilisant différents types de PEG. « Pendant une journée ensoleillée, le matériau absorbera la chaleur avant d’atteindre l’espace intérieur, et ce dernier sera plus frais qu’à l’extérieur », explique Montanari. « Et la nuit, c’est l’inverse qui se produira : le PEG devient solide et libère de la chaleur à l’intérieur pour que vous puissiez maintenir une température constante dans la maison ».

L’équipe a encapsulé du PEG dans les parois en bois délignifié, ce qui a empêché la fuite du polymère pendant les transitions de phase. Ils ont également incorporé de l’acrylique dans le matériau pour le protéger de l’humidité. Comme la version précédente, le bois modifié était transparent, quoique légèrement translucide et résistant, mais il avait l’avantage supplémentaire d’emmagasiner la chaleur.

Les chercheurs soulignent que le bois transparent a le potentiel d’être plus respectueux de l’environnement que d’autres matériaux de construction tels que le plastique, le béton et le verre. En plus de ses capacités de stockage thermique, le bois transparent pourrait être plus facile à éliminer une fois qu’il aurait rempli sa fonction. « Le PEG et le bois sont à la fois biologiques et biodégradables », note Berglund. « La seule partie qui n’est pas biodégradable est l’acrylique, mais elle pourrait être remplacée par un autre polymère biologique ».

Maintenant, l’accent est mis sur la mise à l’échelle du processus de production pour qu’il soit réalisable industriellement. Les chercheurs estiment que le bois transparent pourrait être disponible pour des applications de niche en design d’intérieur d’ici cinq ans. 

Article rédigé par Georges Simmonds pour RT Flash 

Enerzine

Un revêtement nanocomposite ignifuge conçu à partir d’argile et de cellulose
Jeudi, 23/05/2019 - 06:37

Un projet de recherche collaboratif piloté par la Texas A & M University a conduit à la création d’un revêtement retardateur de flamme élaboré à base de nanocellulose, d’argile et d’eau. Ce matériau élaboré par l’équipe de chercheurs est constitué d’une superposition de couches nanométriques (136 nm). Il s’agit d’un assemblage de nanofibres de cellulose (cellulose nanofibrils, CNF en abrégé) et d’un minéral argileux, la vermiculite (VMT). Ces deux matériaux n’ont pas été choisis au hasard : dans la nature, la cellulose comme l’argile jouent le rôle de renforts mécaniques pour les structures dans lesquelles on les trouve.

La vermiculite est un matériau naturel, bien connu pour ses propriétés d’isolation thermique et phonique. Il peut d’ailleurs être utilisé pour l’isolation des maisons et rentre dans la composition de nombreux matériaux utilisés dans le BTP : bétons allégés, chapes isolantes ou encore toitures-terrasses en vermiculite enrobée de bitume.

Le minerai de vermiculite naturelle est constitué de feuillets entre lesquels de l’eau est emprisonnée. Après traitement thermique entre 800 et 1000 degrés, les lamelles de vermiculite s’exfolient (s’écartent) pour donner naissance à un matériau ultraléger contenant une grande quantité d’air.

Pour élaborer cet assemblage cellulose/vermiculite, l’équipe de chercheurs a employé un procédé de déposition basé sur le principe d’interaction électrostatique. Cette technique, appelée LbL pour « layer-by-layer », consiste à réaliser des séquences d’assemblage d’ions de charges opposées suivis de lavages successifs pour éliminer les produits en excès. Dans le cas présent, les nanofibres de cellulose jouent ainsi le rôle de cations et la vermiculite représente la partie anionique.

La combinaison de lamelles de vermiculite (VMT) fortement orientées et de nanofibres de cellulose conduit ainsi à la formation d’une structure ressemblant à un mur de nanobriques transparentes. Cette structure unique présente des propriétés extrêmement intéressantes : elle constitue d’une part une excellente barrière chimique à l’oxygène et présente d’autre part une résistance au feu jusqu’ici jamais atteinte sur des fibres de cellulose.

Pour tester les propriétés de ce matériau CNF/VMT, l’équipe dirigée par le Docteur Jaime Grunlan l’a appliqué comme revêtement sur différents polymères. Dans un premier temps, c’est la perméabilité à l’oxygène qui a été mesurée sur des nanocouches de 136 nm, déposées sur des films de polyéthylène téréphtalate (PET) de 179 µm.

Les résultats obtenus par l’équipe de chercheurs sont prometteurs car ils indiquent une faible perméabilité à l’oxygène, de l’ordre de 4.06*10−21 cm3*cm (cm2*s*Pa)–1, des valeurs comparables aux barrières de type SiOX communément déposées sur des films polymères.

En ce qui concerne la résistance au feu, des revêtements de deux et quatre couches de CNF/VMT ont été appliqués sur des mousses polyuréthane flexibles, identiques à celles utilisées pour la confection des coussins de meubles. Les mousses ont ensuite été exposées au feu d’une torche au butane, sur chaque côté, pendant une durée de 10 secondes.

Alors que la face non revêtue de la mousse fond immédiatement sous l’effet de la flamme, la face revêtue ne présente pas de traces de fusion, seulement des résidus de combustion de la flamme. Encore plus surprenant, d’après les observations au microscope électronique (MEB), la mousse polyuréthane semble garder sa structure originale, sans s’effondrer, même revêtue de couches d’une taille infime de l’ordre de 20 nm.

Article rédigé par Georges Simmonds pour RT Flash 

Techniques de l'Ingénieur

Quand la matière est liquide et solide en même temps…
Mercredi, 22/05/2019 - 15:22

Dans une étude intitulée "Des matériaux pouvant être liquides et solides en même temps", des chercheurs de l'Université d’Édimbourg (Écosse) ont montré que certains éléments ordinaires, comme le sodium ou le bismuth, soumis à des conditions extrêmes, pourraient se présenter à la fois comme un liquide et un solide.

Lorsque l'on soumet un métal aussi banal que le potassium à des pressions et à des températures élevées, ses atomes se structurent en un réseau complexe. Ou plutôt en deux réseaux qui semblent aussi bien interconnectés que presque distincts. D'une part, des tubes organisés en forme de X, d'autre part, de longues chaînes reposant dans les creux de cet assemblage. Les chercheurs estiment que la situation pourrait se présenter pour une demi-douzaine d'autres éléments.

Jusqu'à présent, toutefois, les physiciens ignoraient si cette structure exotique de la matière correspondait à un nouvel état ou simplement à une étape de transition entre deux états bien connus. Pour en avoir le cœur net, les chercheurs de l'Université d'Édimbourg ont fait appel à des simulations informatiques reprenant le comportement de quelque 2.000 atomes de potassium. Résultat : dans des conditions extrêmes -- une pression comprise entre 20.000 et 40.000 atmosphères et une température comprise entre 127 et 527 °C --, ceux-ci forment bien un nouvel état stable de la matière.

Cet état étrange a été baptisé état de chaînes fondues car, selon les simulations, de fortes interactions chimiques se créent entre les atomes qui constituent le réseau en X qui demeure de fait solide. Dans le même temps, les longues chaînes formant le second réseau semblent fondre et atteindre un état liquide.

Les chercheurs espèrent que leurs travaux pourront servir à mieux comprendre le comportement du potassium et d'autres matériaux soumis à des conditions de température et de pression extrêmes comme celles que l'on trouve au cœur des planètes ou des étoiles.

Article rédigé par Georges Simmonds pour RT Flash

University of Edinburgh

^ Haut
Terre
Sciences de la Terre, Environnement et Climat
Réchauffement climatique : des conséquences sous-estimées sur le cerveau
Mercredi, 22/05/2019 - 15:28

On connaissait déjà les effets néfastes du changement climatique sur l'environnement et la santé physique. Mais les effets sur la santé mentale, bien que peu reconnus, affectent également un nombre considérable de personnes. C'est ce que rappelle Susan Clayton, professeure de psychologie (college de Wooster, Ohio, Etats-Unis) et coauteure du rapport Santé mentale et changement climatique.

Cette chercheuse souligne qu'une étude a montré qu’après l’ouragan Katrina, qui a dévasté La Nouvelle-Orléans en août 2005, les troubles mentaux se sont amplifiés avec le temps. Le taux de syndrome de stress post-traumatique est passé de 14,9 % cinq à huit mois après la catastrophe, à 20,9 % un an après. Le stress post-traumatique est cette reviviscence du drame, couplée à une forte anxiété. Il risque, en l’absence de prise en charge, de se transformer en anxiété chronique et en dépression sévère.

Autres impacts : dans les deux ans qui ont suivi l’ouragan Katrina, le taux de suicides dans la popu­lation de La Nouvelle-Orléans a ­triplé. Lors des déplacements des habitants dans le Mississippi, les violences à l’encontre des femmes ont augmenté. Après l’ouragan Andrew qui a frappé Miami en 1992, le nombre d’homicides et de suicides a doublé…

Plus pernicieux, "après une catastrophe naturelle, on note une destruction du tissu social et des liens de solidarité", relève Cécilie Alessandri. "D’où l’importance, lors des interventions, d’essayer de recréer du lien, de renforcer l’entraide, de proposer des lieux où les personnes se sentent en sécurité et peuvent échanger".

Il y a aussi des effets indirects ou chroniques. Vagues de chaleur, sécheresses, inondations et feux de forêts : autant de phénomènes qui mettent en tension les ressources en eau et en nourriture, entraînent des pertes économiques, provoquent des migrations forcées, exacerbent les risques de conflits. "Les Inuits ont été la première communauté à vivre une détresse mentale et une perte d’identité culturelle, à cause de la transformation de leur écosystème", dit Ashlee Cunsolo, du College of the North Atlantic, au Canada. Leur consommation d’alcool et de drogues, en particulier, a flambé.

En 2018, deux études « de très grande qualité », selon Susan Clayton, ont mesuré l’impact du réchauffement global. La première a été menée sur deux millions d’Américains entre 2002 et 2012. Résultat : un réchauffement de 1°C était associé à une hausse de 2 % des problèmes de santé mentale. Selon la seconde étude, un réchauffement de 1°C était associé à une progression du taux de suicide de 0,7 % aux Etats-Unis et de 2,1 % au Mexique.

Article rédigé par Georges Simmonds pour RT Flash

Wired

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Des « grenades génétiques » pour cibler et tuer les bactéries résistantes
Mercredi, 22/05/2019 - 15:34

Des chercheurs de l’Institut Pasteur (Paris) et de l’Université polytechnique de Madrid ont mis au point une « bombe génétique » pour lutter contre la résistance aux antibiotiques. La trouvaille est capable de cibler et détruire les bactéries résistantes aux médicaments sans tuer celles qui sont bonnes pour l’organisme.

En effet, quand on prend un antibiotique, celui-ci s’attaque sans distinction aux bactéries nocives et aux bactéries bénéfiques qui vivent dans notre intestin. Cela entraîne un déséquilibre de la flore bactérienne, qui favorise le développement de bactéries antibiorésistantes. Pour éviter cela, Didier Mazel et son équipe ont imaginé une stratégie alternative.

Ils ont créé une structure semblable à une « grenade génétique », porteuse à la fois d’une charge explosive et d’une goupille de sécurité. Elle véhicule une toxine qui ne s’active que près d’une molécule spécifique de la bactérie ciblée. Ainsi, seules les bactéries responsables de maladies sont touchées et tuées.

Les chercheurs ont ensuite affiné la « grenade » pour qu’elle cible seulement les souches de bactéries antibiorésistantes. Le mécanisme a été testé sur la bactérie Vibrio cholerae, présente chez les poissons et responsable du choléra chez l’homme. Les chercheurs ont réussi à tuer spécifiquement cette bactérie chez le poisson zèbre et sur des larves de crustacés.

« Le système est en place et peut être facilement adapté à d’autres bactéries », explique Didier Mazel. Les autorités sanitaires mondiales alertent régulièrement sur le danger de la surconsommation d’antibiotiques. Selon l’OMS, sans mesures d’urgence, « nous entrerons bientôt dans une ère postantibiotique dans laquelle des infections courantes et de petites blessures seront à nouveau mortelles ».

Article rédigé par Georges Simmonds pour RT Flash

Nature

Le mécanisme d'action du lithium sur le cerveau mieux compris
Mercredi, 22/05/2019 - 15:14

Une collaboration entre le CEA, l’Inserm, l’Institut Pasteur, la Fondation FondaMental, les Hôpitaux Universitaires Henri-Mondor AP-HP et le Centre Hospitalier Universitaire de Grenoble, apporte un nouvel éclairage sur l’action du lithium dans le traitement des troubles bipolaires.

La modélisation (NODDI) de la diffusion de l’eau mesurée par IRM a permis d’analyser la microstructure cérébrale de patients souffrant de troubles bipolaires. Les résultats indiquent une densité dendritique augmentée dans le cortex frontal des patients traités par lithium. Ils étayent l'hypothèse selon laquelle une amélioration de la plasticité du cerveau et de la communication entre neurones dans cette région du cerveau aurait des effets bénéfiques attribués au lithium dans le traitement des troubles bipolaires. Ces résultats ont été publiés dans le journal « Psychotherapy and Psychosomatics » le 5 avril 2019.

​Les résultats de cette étude permettent de confirmer que la prise régulière de lithium est associée à une plasticité bénéfique de la matière grise, mais est surtout la première à permettre d’en préciser l’origine à l’échelle microscopique grâce à la modélisation numérique.

Ces premiers résultats, qui nécessitent d’être reproduits, suggèrent qu’une amélioration de la communication entre neurones dans cette région pourrait étayer l'hypothèse selon laquelle le lithium aurait des effets bénéfiques dans le traitement des troubles bipolaires. Au-delà, ces résultats ouvrent de nouvelles perspectives très intéressantes pour d’autres pathologies neurologiques ou psychiatriques.

Les données d’imagerie par résonance magnétique de diffusion acquises chez 41 participants souffrant de troubles bipolaires suivis au sein du service de psychiatrie de l'hôpital Henri-Mondor AP-HP et du Centre hospitalier universitaire de Grenoble, dont l'expertise clinique est appuyée par celle des centres experts des Troubles bipolaires de la fondation FondaMental, ont été comparées aux mêmes données recueillies chez 40 volontaires sains issus des deux centres.

Les résultats de l’étude montrent que les patients traités par lithium ont une densité des dendrites plus importante dans la région frontale en comparaison aux patients ne prenant pas de lithium. Les dendrites sont des prolongements des corps cellulaires des neurones recevant l’information transmise par leurs voisins. Le niveau de densité dendritique semble être identique chez les sujets sains et chez les patients traités par lithium alors que le niveau de densité dendritique dans cette région frontale reste inférieur chez les patients non traités par lithium.

Le lithium est un traitement utilisé depuis près d’un siècle chez les patients souffrant de troubles bipolaires et reconnu comme le meilleur stabilisateur de l’humeur. Bien que son efficacité ne soit plus à prouver, les mécanismes biologiques de son action thérapeutique sur le cerveau restent encore mal connus, supposés multiples, et semblent notamment agir sur le tissu en lui-même en entraînant une préservation, voire une augmentation du volume de la matière grise. Jusqu’à présent, il n’était pas possible de qualifier ou quantifier quels changements s'opéraient à l’échelle microscopique.

Article rédigé par Georges Simmonds pour RT Flash

CEA

Vers une nouvelle technique de détection sanguine rapide du cancer
Mardi, 21/05/2019 - 18:51

A ce jour, la biopsie reste la méthode la plus précise pour diagnostiquer un cancer. Mais comme le souligne le Docteur Daniel Hayes, auteur principal de cette nouvelle étude parue dans la revue Nature Communications, "personne n'a envie de faire une biopsie". La biopsie consiste à prélever un échantillon de tissu pour un examen au microscope. Le plus souvent, ces examens sont réalisés à partir d'une aiguille, par endoscopie ou par chirurgie (incisions). Des procédés parfois lourds et souvent inconfortables pour les patients.

Dans ces nouvelles recherches, le Docteur Hayes et son équipe ont exploré une méthode moins invasive en étudiant les cellules de la circulation sanguine. Les tumeurs cancéreuses libèrent des cellules dans le sang -plus de 1 000 en seulement une minute- ce qui signifie qu'il est possible de détecter la présence d'un cancer en prélevant un échantillon de sang et en l'analysant. Cette technique s'avère toutefois insuffisante, puisque certaines prises de sang ne présentent pas de cellules cancéreuses, y compris chez les patients qui se situent à un stade avancé de la maladie.

Les scientifiques ont mis au point un appareil portable capable de "filtrer" le sang afin d'y repérer les cellules cancéreuses. La capture des cellules en continu effectuée directement à partir de la veine du patient permettrait donc de dépister des volumes de cellules cancéreuses beaucoup plus importants.

"C'est la différence entre avoir une caméra de sécurité qui prend une porte en photo toutes les cinq minutes ou une vidéo. Si un intrus s'infiltre dans le bâtiment entre deux clichés, vous ne le saurez pas", décrit Sunitha Nagrath, professeure agrégée de génie chimique à l'Université du Michigan, qui a supervisé le projet.

Pour l'instant uniquement testé chez le chien de compagnie, le dispositif a réussi à piéger 3,5 fois plus de cellules cancéreuses par millilitre de sang qu'avec un simple prélèvement sanguin. Le Docteur Hayes espère pouvoir procéder à des essais cliniques sur l'humain d'ici trois à cinq ans. En plus de représenter une alternative à la biopsie, le médecin explique que l'utilisation de cet appareil pourrait fournir une information plus précise sur les cellules cancéreuses qui fabriquent les molécules et qui servent de cibles à de nouveaux traitements anticancéreux.

Article rédigé par Georges Simmonds pour RT Flash

Nature

Une bio-imprimante de peau au chevet du patient
Mardi, 21/05/2019 - 12:35

Des chercheurs du Wake Forest Baptist Medical Center (Caroline du Nord) viennent d’imaginer et de concevoir une bio-imprimante de peau mobile, positionnable "in situ", au chevet du patient et qui, à partir de ses propres cellules (autologues) de peau va pouvoir imprimer de la peau, couche par couche, pour initier le processus de cicatrisation -ou plus précisément d’épidermisation. Cette technique est révolutionnaire en médecine régénérative, à la fois dans son concept d’impression 3D et dans sa mobilité.

Cette bio-imprimante de chevet sera tout particulièrement adaptée à la prise en charge des brûlures qui peuvent nécessiter des greffes de peau, mais aussi des « grandes » plaies ou plus couramment, des plaies chroniques à retard de cicatrisation.

La bio-imprimante est "chargée" des cellules du patient, transportée jusqu'au lit pour fournir de la peau, couche par couche, directement sur la plaie et favoriser ainsi la cicatrisation. « L'aspect unique de cette technologie est la mobilité du système et la capacité de gérer sur place des plaies étendues en les scannant et en les mesurant afin de déposer les cellules directement là où elles sont nécessaires pour régénérer la peau », explique l’auteur principal, le Docteur Sean Murphy, professeur assistant au Wake Forest.

L’implication est large pour les plaies chroniques et les plaies à retard de cicatrisation, comme les ulcères diabétiques, dont la prévalence augmente à la fois en raison du vieillissement des populations et de l’épidémie d’obésité et de ses comorbidités, métaboliques et/ou cardiovasculaires.

La technologie « sait » quelles cellules livrer exactement et à quel site précis de la plaie : les principales cellules de la peau, fibroblastes du derme et les kératinocytes de l’épiderme peuvent être assez facilement isolées à partir d’une petite biopsie de tissu non lésé et sont ensuite reproduites.

Les fibroblastes sont des cellules qui synthétisent la matrice extracellulaire et le collagène, qui jouent un rôle essentiel dans la cicatrisation des plaies, tandis que les kératinocytes sont les cellules prédominantes de l'épiderme, la couche la plus externe de la peau, et jouent donc un rôle clé dans l’épidermisation.

En pratique, les cellules sont mélangées dans un hydrogel et placées dans la bio-imprimante. La technologie d'imagerie intégrée analyse la plaie, introduit les données dans le logiciel pour indiquer aux têtes d'impression quelles cellules livrer exactement, dans la couche, et cela couche par couche. Cela reproduit et accélère la formation d'une structure et d'une fonction normales de la peau.

Cette étude a pu montrer qu'il était possible d'imprimer de la peau directement sur des modèles précliniques. L'étape suivante consistera à mener un essai clinique chez l'Homme. Avec ce nouveau système de bio-imprimante, une nouvelle peau se forme à partir du centre de la plaie et comme ce sont les propres cellules du patient (et ici du modèle animal) les tissus ne sont pas rejetés. L'étude rappelle que « Les propres cellules du patient sont idéales "pour faire le travail" car elles s’organisent et se mettent spontanément en ordre de marche pour faire avancer beaucoup plus rapidement le processus de cicatrisation ».

Article rédigé par Georges Simmonds pour RT Flash

Nature

Hypertension artérielle : vers une nouvelle classe de médicaments
Mardi, 21/05/2019 - 12:29

L’hypertension artérielle (HTA) est la maladie chronique la plus fréquente en France. Elle toucherait en effet plus d'un tiers de la population adulte, soit environ 15 millions de personnes. Liée à une pression anormalement élevée du sang dans les vaisseaux sanguins, elle semble anodine car elle est généralement silencieuse. Elle constitue pourtant, lorsqu’elle n’est pas contrôlée, l’une des principales causes de complications cardiovasculaires, cérébrovasculaires ou neurodégénératives (infarctus du myocarde, AVC, maladie d’Alzheimer…).

Des mesures hygiéno-diététiques seules, ou le plus souvent associées à un traitement médicamenteux, permettent de normaliser la pression artérielle. Néanmoins, jusque 30 % des patients ne répondent pas, ou insuffisamment, aux traitements actuellement disponibles. Pour y remédier, des approches interventionnelles et de nouvelles cibles thérapeutiques liées à la physiopathologie de la maladie sont à l’étude.

Le développement du firibastat dans la prise en charge de l’hypertension artérielle se poursuit. Ce médicament est le chef de file d’une nouvelle classe thérapeutique qui cible le système rénine-angiotensine cérébral contrôlé par l’angiotensine III. Ce peptide exerce un effet stimulateur sur la pression artérielle dans différents modèles d’hypertension via trois mécanismes. Elle accroît l’activité des neurones qui favorisent la vasoconstriction, elle inhibe le réflexe qui permet d’adapter l’intensité des contractions cardiaques au niveau de la pression artérielle et enfin, elle contribue à la sécrétion accrue de vasopressine, hormone anti-diurétique, dans le sang, réduisant le volume d’urine produit au niveau des reins.

Le firibastat s’oppose à tous ces mécanismes en inhibant spécifiquement l’aminopeptidase A, une enzyme présente dans le cerveau qui produit l’angiotensine III. Ce médicament, pris par voie orale, devient actif dans le cerveau après avoir franchi la barrière hémato-encéphalique. Sa sécurité d’emploi a déjà été testée chez des sujets sains dans deux études cliniques de phase I.

Les résultats de l’étude de phase IIa qui viennent de paraître confirment les données de sécurité et apportent les premiers éléments d’efficacité. Cette étude a inclus 34 patients ayant une pression artérielle ambulatoire diurne comprise entre 135/85 mmHg et 170/105 mmHg. Ils étaient âgés en moyenne de 57 ans (73 % d’hommes) et non obèses (IMC moyen 26,8 kg/m2). La moitié d’entre eux a reçu le firibastat pendant quatre semaines puis le placebo pendant quatre autres semaines et l’autre moitié a reçu le traitement dans l’ordre inverse : placebo puis firibastat.

Les résultats attestent d’un meilleur contrôle de la pression artérielle systolique (PAS) sous firibastat après quatre semaines avec une baisse de la PAS de -4,7 mmHg en moyenne contre +0,1 mmHg sous placebo. Néanmoins, cette différence n’est pas statistiquement significative. « Cela peut s’expliquer par la taille réduite de l’effectif mais aussi par le fait que les patients inclus avaient une hypertension artérielle modérée », explique Catherine Llorens-Cortes, directrice de recherche Inserm.

Le firibastat est un agent anti-hypertenseur et non un hypotenseur, ce qui signifie qu’il peut agir sur une hypertension mais n’aura aucun effet sur une tension normale. « Son efficacité devrait donc s’accroître avec la sévérité de l’hypertension », clarifie la chercheuse. Ce qui semble se confirmer d’ailleurs dans cet essai car la baisse de la PAS ambulatoire a atteint -9,4 mmHg en cas de fortes hypertensions au moment de l’inclusion alors que le bénéfice était moins marqué pour des PAS basales plus faibles. Les auteurs ont par ailleurs vérifié la tolérance à ce médicament et constaté qu’il n’interférait pas avec le système rénine-angiotensine systémique, contrôlé, lui, par l’angiotensine II.

« Ces résultats encourageants ont donné le feu vert à l’étude de phase IIb qui vient de s’achever aux Etats-Unis. Elle a confirmé l’efficacité du firibastat chez 254 patients hypertendus en surpoids à haut risque cardiovasculaire après deux mois de traitement, y compris chez les patients afro-américains qui ont le plus souvent une hypertension résistante aux traitements actuellement disponibles » précise Catherine Llorens Cortes.

Article rédigé par Georges Simmonds pour RT Flash

Inserm

Ces chiens qui détectent le cancer...
Mardi, 21/05/2019 - 12:16

Des chercheurs de la société BioScentDx (États-Unis) ont entraîné des chiens, appartenant à la race des beagles, au « clicker », un conditionnement destiné à les encourager à distinguer des échantillons sanguins normaux d'échantillons de sang issus d'un patient atteint d'un cancer du poumon malin.

Résultat : les chiens se seraient montrés ensuite capables d'identifier les échantillons touchés dans 96,7 % des cas et le sang sain dans 97,5 % des cas. Forts de ces résultats, les chercheurs espèrent maintenant mettre au point une nouvelle méthode de dépistage des cancers précoce et non invasive, en mettant directement des chiens à contribution ou bien en se basant sur ces travaux pour déterminer les composés que les chiens sont capables de discriminer pour rendre leur verdict.

Au mois de novembre prochain, BioScentDx prévoit d'ailleurs de lancer une étude sur le cancer du sein. Les participantes seront amenées à fournir des échantillons sur lesquels des chiens seront entraînés. En parallèle, les chercheurs tenteront d'identifier -- en les soumettant à l'odorat pointu des chiens -- les composants chimiques ou les substances responsables de l'odeur apparemment caractéristique d'un cancer.

Si certains des chiens parviennent à détecter de manière si précise quelques cellules cancéreuses, c'est grâce à l'extraordinaire sensibilité de leur odorat, qui peut être jusqu' à 20.000 fois plus développé que celui de l'Homme. Cette capacité olfactive a déjà été largement exploitée dans diverses applications humaines, comme la détection de séismes, de drogues, de personnes disparues ou de fuites de gaz.

En matière biologique, Olivier Cussenot, urologue et oncologue à l'hôpital Tenon, à Paris, a mis en évidence la capacité de chiens à détecter le cancer de la prostate dans les urines. D'autres travaux ont également démontré que des canidés pouvaient renifler le cancer de l’intestin dans les selles.

Reste à trouver quel est le composé olfactif que les cellules cancéreuses rejettent et que les chiens sentent ? Les études entreprises par Uri Yoel, chercheur à l'Université Ben Gourion, en Israël, ont montré que deux chiens dressés pour reconnaître le cancer du sein ont été effectivement capables de reconnaître une boîte de culture contenant des cellules malignes du sein parmi quatre autres boîtes. « Ce qui est intéressant, c'est que les chiens dressés pour reconnaître des cellules mammaires tumorales sont également capables de reconnaître avec succès d'autres types de cellules cancéreuses », souligne Uri Yoel. « Cela suggère que la molécule reniflée par les canidés serait la même pour tous les cancers ».

Article rédigé par Georges Simmonds pour RT Flash

BioScentDX

Les troubles du sommeil paradoxal pourraient augmenter les risques de troubles mentaux
Mardi, 21/05/2019 - 10:09

Lors du sommeil paradoxal, le cerveau envoie, en temps normal, des signaux aux muscles pour les empêcher de bouger. Chez les personnes souffrant de troubles du comportements en sommeil paradoxal, ces signaux sont perturbés. Ce dernier peut alors être altéré par la survenue de rêves agités, durant lesquels les personnes peuvent crier, donner des coups de poings, de pieds et se blesser ou blesser un partenaire endormi.

Pour cette étude, publiée dans la revue médicale American Academy of Neurology, les chercheurs ont sélectionné un échantillon de 30.097 personnes âgées en moyenne de 63 ans. Un questionnaire sur leur mode de vie a permis de conclure que 3,2 % d'entre elles souffraient d'un trouble du sommeil paradoxal.

Après analyse des dossiers médicaux de cet échantillon, l'équipe de recherche a découvert que les personnes souffrant d'un TCSP étaient 2,5 fois plus nombreuses à déclarer prendre des antidépresseurs, 2 fois plus susceptibles de souffrir d'un stress post-traumatique et 2,5 fois plus nombreuses à être touchées par une maladie mentale.

L'équipe de scientifiques a mis en évidence le risque doublement élevé pour les hommes de présenter un TCSP. L'étude révèle également que les personnes souffrant de TCSP sont 25 % de plus à boire de l'alcool de manière modérée à régulière, en comparaison avec les personnes non atteintes.

L'étude précise toutefois qu'elle ne prouve pas que ces facteurs soient à l'origine du trouble du comportement en sommeil paradoxal, mais établit simplement qu'il existe un lien.

Article rédigé par Georges Simmonds pour RT Flash

Eurekalert

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top