RTFlash

RTFLASH Recherche & Technologie
NUMERO 936
Lettre gratuite hebdomadaire d’informations scientifiques et technologiques
Créée par René Trégouët rapporteur de la Recherche et Président/fondateur du Groupe de Prospective du Sénat
Edition du 16 Février 2018
Recommander  |  Désinscription  |  Lire en ligne
Egalement dans ce numéro
TIC
Vers un Internet quantique inviolable
Matière
S'éclairer avec des plantes !
Espace
L'explosion d'une supernova projette dans l'espace les ingrédients de la vie
Vivant
Vers une nouvelle classification des troubles de la conscience
La peau d'un patient a été régénérée à l'aide de cellules souches
Un laboratoire portatif alimenté à l'énergie solaire
Un nez électronique pour diagnostiquer l’épilepsie ?
Du lithium dans l'eau du robinet pour prévenir la démence ?
Ce que nous mangeons influence notre humeur
Premier essai réussi de thérapie génique contre l'hémophilie
Le conscient et l’inconscient travaillent de concert pour trier les images
Dépendance au cannabis : vers un médicament ?
L’intensité de l’activité physique au-delà de 70 ans influe sur le bénéfice de survie
Le nombre de démences pourrait tripler dans le monde d'ici 2050
Un airbag portatif pour les seniors en 2018
Edito
L’ordinateur neuromorphique ouvre-t-il la voie vers une intelligence artificielle « forte » ?



Depuis les origines de l’informatique, il y a maintenant trois quarts de siècle, la grande majorité des ordinateurs fonctionne selon le mode binaire : ils produisent, stockent et traitent les informations sous la forme de 0 et de 1 ; c’est-à-dire d’absence ou de présence de signal. Mais ce modèle dominant, reposant sur l’architecture « Van Neumann », pourrait bien se voir dépasser et remplacer, d’ici quelques années, par un nouveau type de processeurs directement inspirés des neurones de notre cerveau et incomparablement plus performants : les puces neuromorphiques.

En 2014, IBM avait fait sensation en dévoilant sa puce neuromorphique développée dans le cadre du programme de recherche SyNAPSE (pour Systems of Neuromorphic Adaptive Plastic Scalable Electronics) lancé en 2008 et financé par la Darpa. Baptisée TrueNorth, cette puce, dite bioinspirée avait réussi à intégrer un million de neurones artificiels et 256 millions de synapses sur une puce de 4,3 cm.

Il y a quelques jours, des chercheurs du MIT dirigés par Jeehwan Kim ont présenté une synapse artificielle conçue de manière à pouvoir contrôler avec précision la tension d'un courant électrique, à l’instar des courants ioniques circulant entre les neurones. Construite sur un substrat de silicium-germanium, cette puce synaptique s’est avérée capable de reconnaître des échantillons d'écriture, avec une précision de 95 % (Voir MIT News).

Cette puce développée par le MIT, comme les autres prototypes de puces neuromorphiques, utilise donc un signal analogique qui, contrairement à un numérique, est un signal continu et périodique qui varie dans le temps. Pour transmettre une information, le cerveau utilise de manière particulièrement efficace ce mode analogique, grâce à ses 100 milliards de synapses, eux-mêmes connectés à 80 milliards de neurones.

Les chercheurs du MIT se sont donc directement inspirés du fonctionnement du cerveau humain pour mettre au point cette puce synaptique. Mais ils sont parvenus à surmonter l’un des obstacles majeurs qui caractérisait ce type de composant jusqu’à présent. La plupart des puces neuromorphiques disponibles utilisent en effet deux couches conductrices d’électricité, séparées par une couche de matériaux amorphes qui fait office d’interrupteur et de synapse. Mais, problème, lorsque cet interrupteur était ouvert, le flux électrique avait une fâcheuse tendance à se disperser à cause de la structure amorphe du matériau utilisé.

Pour surmonter cet obstacle, ces scientifiques ont imaginé une synapse constituée d’une plaque de silicium cristallin recouverte d’une couche de silicium-germanium. L’association de ces deux matériaux forme un réseau maillé qui canalise les ions et évite leur dispersion. Ces synapses artificielles ne mesurent que 25 nanomètres et leur stabilité s’avère remarquable puisque les essais ont montré qu’après 700 fonctionnements, la variation de tension observée ne dépassait pas les 1 %.

Les chercheurs ont ensuite interconnecté plusieurs synapses au sein d’une puce, et celle-ci a été capable de reconnaître, avec un taux d’exactitude de 95 % des milliers d’écritures différentes… « Notre objectif est clair : à terme, nous voulons une puce aussi grande qu’un ongle qui pourrait remplacer un énorme super-ordinateur », précise Jeehwan Kim qui dirige ce projet.

Dans cette compétition féroce visant à la maîtrise industrielle de la production de puces neuromorphiques, il semble qu’IBM garde une longueur d’avance avec sa puce TrueNorth présentée il y a quatre ans et capable de simuler 16 millions de neurones et 4 milliards de synapses pour une consommation électrique de 2,5 W seulement.

S’inspirant du cerveau humain, cette puce est composée de 4 096 noyaux neuro-synaptiques intégrant leurs propres mémoires et capacité de calcul et travaillant en parallèle, ce qui permet de disposer de l'équivalent d'un million de neurones par puce. Cette puce en tous points hors norme intègre 5,4 milliards de transistors et fonctionne avec seulement 70 mW de puissance, soit environ 1000 fois moins qu’un processeur Intel, qui compte 1,4 milliard de transistors, consomme entre 35 et 140 watts. Reste que, selon la plupart des spécialistes, cette puce a atteint les limites du possible en termes d’intégration et que, pour aller plus loin, il faudra se passer du transistor.

Bien conscients de l’enjeu énorme que représente ce saut technologique des puces neuromorphiques, tous les géants de l’informatique et du numérique ont intensifié leurs recherches dans ce domaine stratégique qui devrait faire exploser les capacités de l’apprentissage profond (Deep Learning) et de l’intelligence artificielle au cours des dix prochaines années. Google a notamment créé la surprise en dévoilant récemment sa puce TPU (Tensor Processing Unit), un composant qui possède un ratio performance/consommation 13 fois supérieur à celui des meilleurs processeurs.

Dans cette course technologique, le géant des microprocesseurs Intel n’est pas en reste. Il travaille simultanément sur plusieurs projets de puces neuromorphiques avec un objectif pour le moins ambitieux : réduire d'un facteur 100 le temps d'apprentissage d'un réseau de neurones à l'horizon 2020. Dans le cadre de son programme « NNP » (Neural Network Processor), un premier modèle a été dévoilé en novembre 2016 et son architecture a été spécifiquement conçue pour l'apprentissage et l'inférence de réseaux de neurones.

En octobre dernier, Intel a par ailleurs présenté une puce neuromorphique baptisée Loihli qui reproduit un certain nombre de fonctions du cerveau et apprend à partir des retours provenant de son environnement. Grande nouveauté, cette puce n’a plus besoin de passer par le processus d'entraînement habituel pour rendre une intelligence artificielle opérationnelle. Loihli peut en effet gérer à la fois apprentissage et inférence et s'adapter de manière automatique à son environnement, sans dépendre  d’une mise à jour externe. Autre avantage décisif : à capacité de calcul égal, cette puce consomme 1000 fois moins d’énergie qu’un système informatique classique.

Le champ potentiel d'applications d’un tel composant est immense et va de la robotique aux voitures autonomes, en passant par l’industrie, la recherche médicale ou  la domotique. Intégrant pour le moment l'équivalent de 130 000 neurones et 130 millions de synapses, Loihli sera, dès cette année mise à disposition des universités et instituts de recherche travaillant dans le domaine de l'IA.

Mais le passage à l’informatique neuromorphique ne répond pas seulement à une exigence de puissance de calcul. Il est également nécessaire pour éviter une explosion à terme insupportable de la consommation énergétique globale liée à l’essor des activités numériques. Il faut en effet savoir que le secteur numérique, dans son ensemble (informatique, Internet, télécommunications), consomme déjà environ 7 % de l’électricité de la planète (soit plus de trois fois la consommation française d’électricité), contre moins de 1 % en 2005. A ce rythme, le secteur numérique, sans saut technologique majeur, risque d’absorber plus du quart de la production mondiale d’électricité à l’horizon 2040, ce qui n’est pas envisageable.

Il est donc tout à fait vital, pour l’ensemble de l’économie mondiale, de parvenir à améliorer de façon drastique l’efficacité énergétique de l’ensemble de nos systèmes et réseaux numériques. Or, l’informatique neuromorphique, mille fois moins gourmande en énergie que l’informatique classique, peut permettre de relever ce défi énergétique redoutable.   

Toutefois, les puces neuromorphiques actuellement expérimentées par IBM, Intel ou Google restent à base de transistors et, même en parvenant à intégrer des milliards de transistors sur une seule puce, il sera impossible, compte tenu des lois de la physique, de réaliser des processeurs neuromorphiques viables, simulant des millions de neurones, sans ruptures technologiques.

Pour surmonter cet obstacle, il faudrait que le transistor soit lui-même doté d'une mémoire et d’une capacité d’autoconnexion, comme un neurone biologique qui dispose en moyenne de 10.000 synapses, soit 10.000 connexions, par lesquelles il ne cesse d’échanger une multitude d’informations avec les dizaines de milliards d’autres neurones qui composent notre cerveau.

Mais une équipe de recherche française, regroupant des chercheurs du CNRS et de Thales, pense avoir trouvé une solution pour lever cet obstacle de taille. Dirigée par Damien Querlioz, chercheur CNRS du Centre de nanosciences et de nanotechnologies de Saclay (Essonne), et Julie Grollier, cette équipe travaille sur un nanoneurone 1000 fois plus petit qu’un transistor. Composé d’un sandwich de deux couches de métaux ferromagnétiques – qui  peuvent être aimantées – et séparées par une fine couche d’isolant électrique, il a la forme d’un disque d’une centaine de nanomètres de diamètre. Autre avantage de cette voie technologique : ces nanoneurones peuvent être produits par pulvérisation cathodique sur des machines déjà existantes et utilisées par l'industrie électronique dans la fabrication de certaines puces-mémoires (Voir Thales).

Contrairement aux transistors, ces minuscules cylindres magnétiques de 100 nanomètres ont en eux-mêmes une mémoire qui s’inspire directement des travaux en matière d'électronique de spin (ou spintronique) du prix Nobel de physique Albert Fert. Après avoir démontré la fonctionnalité de ce nano-neurone, l’équipe du CNRS-Thales est passée à l’étape suivante : associer un nombre croissant de ces nanoneurones en utilisant l’interaction ­électromagnétique entre nanoneurones voisins. "D’ici deux à trois ans, nous visons la réalisation d’un réseau d’environ un millier de nanoneurones", révèle Julie Grollier.

Pour valider la pertinence de leurs recherches, ces scientifiques ont voulu savoir si un réseau constitué de ces nanoneurones était capable d'accomplir une tâche cognitive complexe, comme la reconnaissance de chiffres de zéro à neuf prononcés par divers interlocuteurs. Le résultat a été remarquable, puisque ce réseau, encore modeste, de nanoneurones, a reconnu les chiffres prononcés avec un score de 99,6 %. Ces chercheurs pensent qu’il est possible de réduire encore d’un facteur dix – pour atteindre 10 nanomètres - la taille de ces nanoneurones et se fixent l’objectif de parvenir à réaliser d’ici cinq ans la première puce nanoneuronique capable de révolutionner l’intelligence artificielle par sa puissance de calcul.

De l’autre côté de l’Atlantique, une équipe de chercheurs de l’Université de Princeton (New Jersey), dirigée par Alexander Tait, travaille pour sa part sur une autre voie passionnante et a présenté en 2016 un prototype de puce neuromorphique photonique, composée de 49 neurones artificiels. Contrairement aux autres axes de recherche explorés dans le monde, ces chercheurs ont choisi la voie de la lumière pour développer leur prototype. La prouesse réalisée par ces chercheurs a été de mettre au point un dispositif photonique, sous forme de petits guides d’ondes circulaires, dans lequel chaque nœud présente les mêmes caractéristiques de réponse qu'un neurone. Après avoir testé leur puce neuromorphique photonique pour résoudre un problème mathématique qui consiste à émuler un certain type d’équations différentielles, ces scientifiques ont annoncé que leur prototype était 1960 fois plus rapide qu’un processeur classique pour cette tâche spécifique…

Mais en attendant que ces puces neuromorphiques futuristes sortent des laboratoires, ces neuroprocesseurs arrivent déjà dans nos smartphones. Le Chinois Huawei a par exemple équipé plusieurs de ses smartphones de dernière génération d’un neuroprocesseur (NPU), qui permet à l’appareil d’être bien plus réactif et performant dans certaines applications, comme la reconnaissance vocale, la traduction automatique ou la reconnaissance d’images.

Microsoft utilise également ces neuroprocesseurs pour son application de traduction Microsoft Translate, visant à reconnaître le texte dans les images filmées par l’utilisateur afin de le traduire. Apple, qui ne veut pas être en reste, a également doté son iPhone X d’une puce neuronale, baptisée « A11 bionic neural engine » et capable de réaliser 600 millions d’opérations par seconde.

Soulignons enfin que, si la prochaine génération d’ordinateurs et de composants sera sans doute directement inspirée du cerveau humain, les avancées dans la connaissance de notre cerveau s’appuient en retour sur les extraordinaires progrès que permettent la simulation et la modélisation informatique.

Les chercheurs du Blue Brain Project (BBP), l’un des volets du vaste Human Brain Project européen (HBP), ont ainsi livré, fin 2015, leur reconstruction numérique d’une bribe de cerveau de rat. Dans un néocortex de rats, les scientifiques ont étudié un échantillon de 14000 neurones et en ont décortiqué l’ensemble de la structure et du fonctionnement (Voir Cell).

Ils ont ensuite pu reconstituer par modélisation informatique l’architecture neuronale tridimensionnelle d’un volume équivalent à un tiers de millimètre-cube, contenant 30 000 neurones et 37 millions de synapses. Ces chercheurs ont enfin pu vérifier que leur modèle numérique se comportait d’une façon similaire à celle d’un réseau de neurones réel. Cette avancée majeure dans la simulation du fonctionnement du cerveau constitue un véritable exploit scientifique et technique.

En utilisant, d’ici seulement quelques années, les ressources et les potentialités prodigieuses de l’informatique neuromorphique en termes de calcul et d’intelligence artificielle, ces chercheurs du Human Brain Project pensent qu’il deviendra possible d’envisager la construction d’un modèle informatique simulant de manière complète et très réaliste le fonctionnement de l’ensemble du cerveau humain.

Dans cette vertigineuse quête scientifique et technique, la boucle serait alors bouclée et intelligences humaine et artificielle deviendraient alors les deux dimensions à jamais interconnectées d’une synergie cognitive qui ferait entrer notre espèce et notre civilisation dans une nouvelle ère, dont il nous appartient de fixer avec force les finalités sociales et éthiques afin qu’elles servent le bien commun et soient porteuses d’un nouvel humanisme.

René TRÉGOUËT

Sénateur honoraire

Fondateur du Groupe de Prospective du Sénat


TIC
Information et Communication
Vers un Internet quantique inviolable
Mercredi, 14/02/2018 - 06:00

Théoriquement, on sait qu'un système de télécommunications quantiques est inviolable car les photons ne peuvent pas être mesurés sans être détruits et de ce fait, toute tentative de piratage est immédiatement détectée et devient physiquement impossible.

Reste que la mise en place d'un réseau quantique se heurte à des difficultés pratiques redoutables, car il faut parvenir à acheminer efficacement des flux de photons uniques, ou « lumière quantique ». Mais à présent, une équipe de l’Université de Stanford a peut-être trouvé une solution en établissant une source de lumière quantique qui pourrait devenir la base des connexions quantiques. La source de lumière en question est un laser à l’échelle nanométrique, qui projette de la lumière à travers une puce d’arséniure de gallium.

Cette puce agit comme un filtre et laisse passer la lumière classique, tout en produisant une lumière quantique. Le problème est qu'une fois que le signal est envoyé, il est compliqué de le recevoir. « Le problème est que la lumière quantique est beaucoup plus faible que le reste de la lumière provenant d’un tel laser modifié – c’est difficile à capter », a expliqué la chercheuse principale Jelena Vuckovic. « Donc, nous avons créé un moyen de filtrer la lumière indésirable, ce qui nous permet de bien mieux lire le signal quantique », a-t-elle ajouté.

Ce filtrage fonctionne de la même manière que les casques anti-bruit actifs, qui annulent le bruit de fond en reproduisant une fréquence similaire inverse aux sons ambiants. Mais dans ce cas, c’est la lumière de fond qui est annulée, au lieu du son. « Une partie de la lumière qui revient du laser modifié agit comme du bruit, nous empêchant ainsi de voir la lumière quantique. Nous l’avons annulée pour révéler et souligner le signal quantique caché en-dessous », a déclaré l’un des chercheurs, Kevin Fischer.

Pour ce faire, les chercheurs ont d’abord déterminé à quoi ressemblait la lumière d’arrière-plan, puis ont renvoyé un motif similaire à la source de lumière. En modifiant la manière dont ces deux sources de lumière se chevauchaient, ils ont pu annuler la lumière de fond et révéler la lumière quantique qui était cachée. « C’est un développement très prometteur. Il nous fournit un chemin pratique pour sécuriser les communications quantiques », a déclaré Vuckovic. À présent, l’équipe est en train d’élaborer un prototype qui pourrait être utilisé pour concevoir les bases d’un Internet quantique.

Article rédigé par Georges Simmonds pour RT Flash

Trust My Science

^ Haut
Matière
Matière et Energie
S'éclairer avec des plantes !
Jeudi, 15/02/2018 - 06:15

Une équipe de chercheurs du fameux Massachusetts Institute of Technology (MIT) de Boston a réussi à modifier des plantes pour que leurs feuilles brillent dans l'obscurité. “L’idée est de faire une plante qui fonctionne comme une lampe de bureau, une lampe qu’il ne sera pas nécessaire de brancher”, explique Michael Strano, l’un des chercheurs ayant participé à cette étude, qui précise que cette technologie pourrait aussi être utilisée comme une source de lumière intérieure de basse intensité ou pour transformer des arbres en lampadaires.

Pour créer ces plantes, ces chercheurs ont exploité les propriétés de la luciférine, une molécule bien connue des entomologistes, puisque c’est elle qui fait briller les lucioles. La luciférine réagit avec une enzyme, la luciférase, pour émettre naturellement de la lumière. Une autre molécule, appelée co-enzyme A, favorise ce processus en éliminant les sous-produits de la réaction qui pourraient inhiber l’activité de la luciférase.

Pour transposer dans une plante cette réaction qui se produit naturellement chez un insecte, les chercheurs ont utilisé trois types de nanoparticules pour transporter chaque composant : des nanoparticules de silice d’environ 10 nanomètres de diamètre pour la luciférase, des nanoparticules biocompatibles, biodégradables et légèrement plus grosses pour la luciférine et la co-enzyme A.

Les plantes sont alors immergées dans une solution contenant les différentes particules. Cette solution est mise sous pression, ce afin de faire rentrer les particules dans les feuilles via les stomates, des trous minuscules impliqués dans la respiration des végétaux. Les particules les plus grosses, portant la luciférine et la co-enzyme A, s’accumulent en dehors des cellules, tandis que les plus fines, portant la luciférase, y pénètrent.

Une fois dans les feuilles, la luciférine va être graduellement libérée et entrer dans les cellules où elle va réagir avec la luciférase et émettre de la lumière. Lors de leurs premiers essais, les scientifiques étaient parvenus à faire briller la plante pendant 45 minutes. Aujourd’hui, ils arrivent à faire durer le phénomène pendant presque 4h !

Pour l'instant l'intensité lumineuse obtenue reste trop faible pour lire ou éclairer nos villes mais, compte tenu des progrès déjà obtenus dans ce domaine, les scientifiques du MIT pensent qu'il est possible d'arriver à obtenir de certaines plantes une lumière suffisamment forte et durable pour envisager des applications domestiques ou urbaines…

Article rédigé par Georges Simmonds pour RT Flash

MIT

^ Haut
Espace
Espace et Cosmologie
L'explosion d'une supernova projette dans l'espace les ingrédients de la vie
Mercredi, 14/02/2018 - 06:10

Des chercheurs américains ont pu confirmer que l'explosion des étoiles en supernovae  propulse dans l'espace des quantités astronomiques de matières, dont celles nécessaires à la fabrication de l'ADN. En d'autres termes, quand une supernova explose, elle relâche dans l'espace tous les constituants nécessaires au développement de la vie, du moins telle qu'on la connaît sur Terre.

C'est ce que confirment les récentes données récoltées par l'observatoire de rayons X Chandra, un télescope spatial de la Nasa, qui a pointé ses capteurs vers l'un des objets les plus connus de notre Galaxie, Cassiopée A, dans la partie nord de la constellation de Cassiopée. Cet immense nuage de matières est le résultat de l'explosion d'une supergéante rouge, à 11 100 années-lumière de la Terre, dont la lumière nous parvient depuis 1680 ans environ.

Les chercheurs ont utilisé le télescope Chandra pour analyser les émissions de rayon-X de Cassiopée A sous différentes longueurs d'onde. Ce qui leur a permis de détecter les éléments projetés dans l'espace par l'onde de choc, mais aussi leur quantité. Ils ont pu identifier la présence de silicium, de sulfure, de calcium, de fer et d'oxygène.

Les scientifiques ont ensuite déterminé que l'explosion de la supernova avait expulsé l'équivalent de 20 000 fois la masse de la Terre en silicium, 10 000 masses terrestres de sulfure, 70 000 de fer, mais aussi près d'1 million de masses terrestres d'oxygène.

De précédentes recherches avaient aussi mis en évidence la présence d'azote, de carbone, d'hydrogène et de phosphore dans Cassiopée A. Soit tous les éléments qui, combinés à ceux récemment découverts, permettent de fabriquer l'ADN, la molécule qui transporte les informations génétiques. En clair, la supernova a propulsé dans l'espace sinon la recette, du moins les ingrédients nécessaires à la vie.

D'ailleurs, l'intégralité de l'oxygène présent dans notre système solaire proviendrait d'explosions semblables à celle qui a produit Cassiopée A, précisent les chercheurs. Tout comme la moitié du calcium et environ 40 % du fer. Le reste proviendrait d'explosions stellaires plus petites et du résultat de la fusion d'étoiles à neutrons, mais aussi du rayonnement cosmique.

Au début de sa vie, cette étoile avait une masse 16 fois supérieure à notre Soleil. Elle a progressivement fondu, jusqu'à atteindre 5 masses solaires, puis a explosé. Le rémanent de la supernova, le nuage de matière éjecté, mesure aujourd'hui 10 années-lumière environ et continue de croître à une vitesse de 4000 à 6000 kilomètres par seconde. 

Article rédigé par Georges Simmonds pour RT Flash

L'Express

^ Haut
Vivant
Santé, Médecine et Sciences du Vivant
Vers une nouvelle classification des troubles de la conscience
Jeudi, 15/02/2018 - 06:10

Le Professeur Lionel Naccache, responsable de l’équipe « PICNIC Lab » à l’Institut du cerveau et de la moelle épinière -CNRS/Inserm/UPMC- et chef du département de Neurolophysiologie clinique de l’hôpital de la Pitié-Salpêtrière AP-HP, propose une nouvelle classification des troubles de conscience qui combine les observations cliniques, sur lesquelles se fonde exclusivement la classification actuelle, et les données de l’imagerie cérébrale fonctionnelle.

Les perturbations pathologiques et durables de la conscience sont classiquement classées en trois catégories principales : le coma (où les malades ne sont ni éveillés, ni conscients), l’état végétatif encore appelé « état d’éveil non-répondant » (où les malades sont éveillés mais inconscients), et l’état de conscience minimale.

Cette catégorie clinique introduite en 2002 se fonde notamment sur une échelle clinique devenue en quelques années le standard dans le domaine : la CRS-R pour version révisée de l’échelle de sortie de coma.

Dans cette synthèse, le Professeur Naccache démontre que, si cette échelle est précieuse, les signes cliniques utilisés pour définir l’état de conscience minimale ne nous renseignent en réalité pas du tout sur l’état de conscience ou le contenu conscient des malades. Par exemple, dès qu’un malade est capable de suivre une cible visuelle des yeux, ou de répondre à un ordre sans être capable de s’engager dans une communication fonctionnelle, il est classé comme étant en état de conscience minimale. L'auteur montre que la présence de ces signes, qui nous donnent peu d’informations sur la conscience du malade, permet par contre d’affirmer avec certitude que certaines régions du cortex cérébral du malade contribuent directement à son comportement.

L’état de conscience minimale devrait ainsi être renommé « Etat médié par le cortex », ce qui en anglais se traduit par un anagramme du sigle utilisé : le passage de MCS (« Minimally Conscious State ») au CMS (« Cortically Mediated State »). Savoir identifier cet état est capital en termes de diagnostic et de pronostic. Plus un patient est dans un état dit « CMS » (état médié par le cortex), plus il y a de chance qu’il puisse être conscient, avec plus ou moins de troubles cognitifs associés.

Toutefois le diagnostic de « MCS » (état de conscience minimale) ou de « CMS » (état médié par le cortex) ne permet pas de se prononcer quant au niveau de conscience du malade. Ce constat est renforcé par les nombreuses démonstrations d’activité corticale inconsciente établies depuis les années 1980.

Fort de cette démonstration, le Professeur Naccache explique pourquoi il est désormais nécessaire de faire usage des données d’activation cérébrale enregistrées chez ces malades (essentiellement à l’aide de l’IRM fonctionnelle et/ou de l’électroencéphalogramme), en plus des signes cliniques comportementaux. Depuis une vingtaine d’années, plusieurs tests permettent de rechercher des signatures cérébrales de la conscience.

Le Professeur Naccache explique comment ce changement d’interprétation et de vocabulaire permettrait de clarifier notre connaissance de l’état de ces malades. La nouvelle classification proposée devrait stimuler le débat dans la communauté médicale et scientifique concernée, et vise à restaurer un accès à la subjectivité résiduelle de ces patients à l’aide de la neuro-imagerie fonctionnelle.

Article rédigé par Georges Simmonds pour RT Flash

CNRS

La peau d'un patient a été régénérée à l'aide de cellules souches
Jeudi, 15/02/2018 - 06:05

Agé de sept ans, l’enfant était dans un état critique quand il fut admis, en juin 2015, à l’hôpital des enfants de l’Université de la Ruhr, à Bochum, en Allemagne. Atteint d’une maladie génétique de la peau et des muqueuses, l’épidermolyse bulleuse jonctionnelle, il avait perdu une partie de son épiderme à la suite d’une infection bactérienne et aucun traitement n’améliorait son état.

Avec l’accord de ses parents et du comité éthique de l’université, l’équipe médicale décida de pratiquer sur l’enfant une thérapie à la fois cellulaire et génique. Deux ans plus tard, celle-ci se révèle être un succès.

Les épidermolyses bulleuses sont un groupe de maladies génétiques rares de la peau dues à des mutations des gènes codant des protéines de la matrice qui sert de support aux cellules, la matrice extracellulaire. Dans la forme jonctionnelle de la maladie, les mutations touchent des gènes qui codent la laminine-332, une protéine contribuant à l’ancrage des cellules dans la matrice.

Cette protéine intervient dans la fixation de l’épiderme (la couche cellulaire externe de la peau qui protège le corps de l’environnement extérieur) sur le derme (la couche qui donne à la peau sa résistance et son élasticité). Quand la laminine est mutée, l’adhérence des deux couches est plus faible et l’épiderme se décolle au moindre frottement. Aussi, dès la naissance, des lésions bulleuses apparaissent sur tout le corps de la personne atteinte.

En septembre 2015, l’enfant avait perdu 80 % de sa peau. Dans une région intacte, Tobias Hirsch et ses collègues ont prélevé un fragment de 4 centimètres carrés qu’ils ont mis en culture. Ils ont ensuite introduit le gène non muté de la laminine dans les cellules de l’échantillon, puis ont fait croître ce dernier jusqu’à obtenir près de 1 mètre carré de greffon, tout en vérifiant que le nouveau gène ne perturbait pas la séquence d’autres gènes lorsqu’il s’insérait dans le génome des cellules. Le greffon a alors été transplanté sur le derme de l’enfant entre octobre 2015 et janvier 2016, d’abord sur les lésions des jambes et des bras, puis sur celles du dos et, enfin, sur les lésions restantes.

Au bout de quatre mois, non seulement l’enfant n’avait pas rejeté la greffe, mais l’épiderme s’était régénéré et adhérait désormais fermement au derme, sans former de cloques, signe que des cellules portant le bon gène de la laminine avaient colonisé durablement la peau. Par quel mécanisme ?

Dans la culture des cellules du patient, les chercheurs ont repéré trois types cellulaires : des colonies de cellules non différenciées qui prolifèrent et sont capables de se renouveler (holoclones), des cellules différenciées se renouvelant difficilement (paraclones) et des intermédiaires (méroclones). Le renouvellement du greffon était-il assuré par les holoclones ? Pour le savoir, les chercheurs ont suivi le devenir de ces différents types cellulaires à l’aide de prélèvements effectués avant la greffe, et quatre et huit mois après. Ils ont ainsi observé que nombre de paraclones et de méroclones avaient peu à peu disparu.

Au bout de huit mois, la quasi-totalité de la peau était dérivée d’une petite population des holoclones initiaux, ce qui suggère que la peau est maintenue par un petit nombre de cellules souches contenues dans ces colonies – en d’autres termes, des cellules souches de l’épiderme qui ont été corrigées avec le gène de la laminine. Ainsi, la greffe a fourni un nouveau réservoir de cellules souches corrigées qui alimente l’épiderme de l’enfant et s’est maintenu jusqu’à aujourd’hui. Un résultat par ailleurs en faveur d’une idée longtemps débattue : la peau se régénérerait à partir non pas d’un grand nombre de cellules précurseurs de l’épiderme, mais d’un petit groupe de cellules souches spécialisées.

Article rédigé par Georges Simmonds pour RT Flash

Pour La Science

Un laboratoire portatif alimenté à l'énergie solaire
Jeudi, 15/02/2018 - 06:00

Lorsque le virus Ebola s’est répandu en Afrique de l’Ouest en 2014, il fallait parfois attendre cinq jours pour savoir si un patient était contaminé. Un délai excessif quand on sait que les premiers symptômes sont similaires à ceux de la malaria, ce qui rendait difficile la détection de la maladie.

Lucas Lotter et Charles Faul, deux étudiants de l’Université de Rhodes en Afrique du Sud, ont décidé de s’attaquer à ce problème. Ensemble, ils ont imaginé FieldLab, un laboratoire portatif alimenté à l’énergie solaire. Contenu dans une boîte de la taille d’une mallette, il est conçu spécialement pour mettre fin aux délais interminables de diagnostic en Afrique grâce à trois caractéristiques principales : il est abordable, mobile et solide.

Généralement, les laboratoires mobiles sont installés dans des containers ou à l’arrière de camions. Ils sont difficiles à déployer dans des zones où les routes ne sont pas praticables ou dépourvues de générateurs électriques suffisamment puissants. Pendant l’épidémie d’Ebola, des laboratoires mobiles ont été mis au point pour faire face à la vitesse de propagation de la maladie. Composé de pièces en bois et de pièces imprimées en 3D, le FieldLab est une innovation qui permet de faire des tests dans des zones reculées sur tout le continent.

Malgré son apparence ultrabasique, FieldLab permet de faire de la biologie moléculaire dans des conditions difficiles, de tester des virus, des bactéries et des échantillons. On peut l’utiliser pour une analyse ADN, pour réaliser une centrifugation (un procédé qui sépare les fluides dans l’échantillon) et pour obtenir une analyse visuelle des résultats.

Le kit sera mis en vente en 2018 pour environ 1 270 euros, soit un dixième du coût habituel du matériel de laboratoire. Des modifications et des options peuvent être ajoutées au modèle de base pour un peu plus de 600 euros. Cette initiative est soutenue par le gouvernement sud-africain, l’Unicef et d’autres organismes humanitaires.

Article rédigé par Georges Simmonds pour RT Flash

Konbini

Un nez électronique pour diagnostiquer l’épilepsie ?
Mercredi, 14/02/2018 - 06:20

Des chercheurs hollandais ont mis au point un « nez » électronique capable de diagnostiquer l’épilepsie en mesurant certains composés volatils présents dans l’haleine. En pratique, pour obtenir un résultat, les patients maintiennent le petit dispositif dans leur bouche et respirent dedans pendant 5 minutes avec le nez bouché.

« Lorsque les gens arrivent aux urgences, souvent, vous ne savez pas ce qu’ils ont. Si vous pouviez juste les faire respirer 5 minutes dans cet appareil, vous sauriez qu’il s’agit d’une crise ou d’un événement psychogène. Vous pourriez alors conseiller le patient et débuter un traitement plus rapidement », a commenté l’un des chercheurs, le Professeur Cécile C. de Vos (Institut neurologique de Montréal, Université McGill, Québec, Canada et Neurosurgery, Medisch Spectrum Twente, Enschede, Hollande).

L'appareil conçu est simple, bon marché et très facile à utiliser. Et bien que la technologie ait été utilisée dans d’autres domaines, il s’agit de la première application pour un trouble neurologique. Les premiers résultats d’efficacité de cet outil en développement ont été présentés au 71ème congrès annuel de l’American Epilepsy Society (AES).

Le concept du nez électronique Aenose (eNose Company) s’appuie sur le fait que les patients en crise d’épilepsie ont une haleine particulière en raison, notamment, du relargage de cytokines inflammatoires et d’autres molécules. Grâce à un panel de capteurs, à des algorithmes intelligents, et à un logiciel de reconnaissance des différentes combinaisons de molécules expirées, l’Aenose est capable de donner la composition complexe de l’haleine des patients en crise.

Le nouvel outil a été testé en Hollande chez 62 patients épileptiques (âge moyen 47 ans) depuis en moyenne 26 ans et chez 44 personnes de contrôle (âge moyen 43 ans). Le fait de respirer dans l’appareil a été généralement bien toléré, bien que près de 5 % des participants aient rapporté un inconfort et un essoufflement. Pour cette raison, 11 patients épileptiques et 2 sujets contrôles ont été exclus de l’étude.

Les analyses initiales ont montré que l’Aenose pouvait distinguer les patients épileptiques des personnes de contrôle avec une sensibilité de 84 % et une spécificité de 76 %. Le dispositif avait une valeur prédictive positive de 81 % et une valeur prédictive négative de 80 %. Ces résultats sont similaires à ceux de l’EEG, mais avec une technique beaucoup moins coûteuse et plus rapide, selon le Docteur de Vos.

Disponible vers 2020, ce nouvel outil pourrait, à terme, être complémentaire de ceux habituellement utilisés (interrogatoire, vidéo, EEG, imagerie, etc.) pour faire un diagnostic d’épilepsie.

Article rédigé par Georges Simmonds pour RT Flash

Medscape

Du lithium dans l'eau du robinet pour prévenir la démence ?
Mercredi, 14/02/2018 - 06:15

Une étude réalisée au Danemark sur 73 731 patients atteints de démence (et sur un groupe-témoin de 73 653 personnes) a évalué l’incidence d’un facteur d’environnement, en l’occurrence le taux de lithium dans l’eau de boisson, sur le risque de démence sénile. Les auteurs ont rapproché « le taux moyen de lithium dans l’eau depuis 1986 » avec les données disponibles sur le diagnostic de démence porté en milieu hospitalier pendant une quarantaine d’années (entre les années 1970 et 2013 incluses). Observant « une association non linéaire » entre l’exposition au lithium dans l’eau de boisson et le risque de démence, les auteurs constatent une « différence statistiquement significative » entre les patients ayant un diagnostic de démence.

Comparativement aux sujets exposés à un taux de lithium de 2 à 5 μg/litre, l’incidence de la démence diminue chez ceux exposés à une concentration supérieure à 15 μg/litre. Au contraire, cette incidence de la démence augmente quand l’exposition au lithium se situe entre 5 et 10 μg/litre. Des résultats similaires sont constatés pour le risque de maladie d’Alzheimer et celui de démence vasculaire.

Même si les auteurs précisent qu’on ne peut pas exclure l’existence de facteurs confondants, liés au lieu de résidence (autres critères alimentaires, écologiques, génétiques...), et si les effets éventuels d’une exposition plus élevée au lithium sur le rein ou d’autres organes devraient aussi être envisagés, cette étude suggère l’une des rares voies possibles pour réduire l’incidence de la démence : augmenter l’exposition à long terme au lithium dans l’eau potable ?

Article rédigé par Georges Simmonds pour RT Flash

JAMA

Ce que nous mangeons influence notre humeur
Mercredi, 14/02/2018 - 06:05

Des chercheurs de l'Université de Binghamton à New York, aux États-Unis, ont confirmé ce que le bon sens populaire savait déjà : notre alimentation a un effet direct sur notre humeur. Ces travaux montrent en effet que nos habitudes alimentaires affectent notre moral et notre niveau de stress de manière différente, selon que l'on soit un adulte de plus ou de moins de 30 ans.

Pour les 18-29 ans, lorsque le cerveau n'a pas encore atteint sa pleine maturité, consommer de la viande (rouge ou blanche) et pratiquer une activité physique seraient des facteurs de bonne santé mentale car ils favoriseraient la concentration de neurotransmetteurs tels que la sérotonine et la dopamine dans le cerveau.

Après 30 ans, notre humeur semblerait en revanche améliorée par la consommation d'aliments antioxydants (fruits et légumes) et diminuée par les aliments augmentant le stress oxydatif et activant le système nerveux sympathique tels que le café et les ingrédients à index glycémique élevés (farines blanches, biscuits, pâtisseries, viennoiseries). Cette étude recommande également de ne pas sauter le petit déjeuner.

"En vieillissant, il y a une augmentation de la formation de radicaux libres dans l'organisme d'où notre besoin plus important en antioxydants. Ces radicaux libres causent des perturbations dans le cerveau qui augmentent le risque de détresse mentale", explique la chercheuse de l'Université de Binghamton, Lina Begdache.

Article rédigé par Georges Simmonds pour RT Flash

Binghamton University

Premier essai réussi de thérapie génique contre l'hémophilie
Mardi, 13/02/2018 - 08:38

On estime qu'environ une personne sur cent dans le monde est atteinte d'un trouble de la coagulation et les trois quarts de ces patients n'ont pas encore accès aux soins. En outre, il n’existe à ce jour aucun traitement définitif permettant de guérir l'hémophilie. Mais une équipe britannique du NHS (Service de Santé Britannique) et de l'Université Queen Mary de Londres vient d'annoncer des résultats prometteurs d’un essai de thérapie génique et apporte donc un immense espoir aux patients et à leurs familles.

L’hémophilie est une maladie héréditaire liée au déficit d’un facteur de la coagulation (facteur VIII pour l’hémophilie A, facteur IX pour l’hémophilie B). Chez le patient hémophilique, le processus de coagulation est donc compromis et si le patient ne saigne pas plus, il saigne plus longtemps. Chez certains patients, des saignements récurrents dans les articulations peuvent également entraîner des lésions articulaires progressives et de l'arthrite.

S’il n’existe pas de traitement définitif de la maladie, des traitements prophylactiques ou en cas d’accident hémorragique, par injections par voie intraveineuse du facteur de la coagulation défaillant, permettent de prévenir ou de stopper l’hémorragie. Cette proposition de chercheurs londoniens d’une thérapie génique en one shot répond donc à un véritable besoin.

Les chercheurs rapportent que plus d'un an après un seul traitement par thérapie génique, 11 des 13 participants de l’étude, atteints d'hémophilie A, le type le plus courant, présentent des taux normaux de la protéine déficiente : une perfusion unique du médicament de thérapie génique a permis de rétablir les niveaux du facteur de coagulation VIII chez 85 % des patients et ces niveaux sont restés stables, même des mois après le traitement. Le principe est l’injection d’une copie du gène manquant, ce qui permet à leurs cellules de produire le facteur de coagulation manquant.

Comme le souligne le Professeur John Pasi, de l'Université Queen Mary, « Ces résultats dépassent de loin nos attentes car ce traitement permet une amélioration de 5 % des niveaux du facteur de coagulation qui redevient quasi-normal et permet une réduction spectaculaire des saignements. Nous avons une vraie perspective de traitement des patients hémophiles ».

Article rédigé par Georges Simmonds pour RT Flash

NEJM

Science Daily

Le conscient et l’inconscient travaillent de concert pour trier les images
Mardi, 13/02/2018 - 08:30

Notre cerveau est soumis en permanence à une multitude d’informations sensorielles qu'il doit être capable de traiter et de hiérarchiser. Des chercheurs de Neurospin (CEA/Inserm) ont découvert comment le cerveau intègre et filtre l’information.

En combinant des techniques d’imagerie cérébrale à haute résolution temporelle et des algorithmes d’apprentissage automatique (machine learning), les neurobiologistes ont pu déterminer la séquence des opérations neuronales qui permet au cerveau de sélectionner spécifiquement l’information pertinente. La majeure partie de l’information est traitée et filtrée inconsciemment par notre cerveau. Au sein de ce flux, l’information pertinente est sélectionnée par une opération en trois étapes, et diffusée vers les régions associatives du cerveau afin d’être mémorisée.

Les chercheurs ont mesuré l’activité du cerveau de 15 participants, pendant que ces derniers devaient repérer une image "cible" dans un flux de 10 images par seconde. Les neurobiologistes ont ainsi pu observer trois opérations successives permettant aux participants de traiter et de trier le flux d’images :

- En premier lieu, même si une dizaine d’images est présentée chaque seconde, chacune de ces images est analysée par les aires sensorielles du cerveau pendant environ une demi-seconde. Ceci constitue une première phase de traitement automatique, inconscient et sans effort pour nous.

- Dans un deuxième temps, lorsqu’on demande aux participants de porter attention et de mémoriser une image en particulier, ce n’est pas uniquement l’image "cible" qui est sélectionnée, mais toutes les images qui sont encore en cours de traitement dans les régions sensorielles. L’attention du sujet aura pour effet d’amplifier les réponses neuronales induites par ces images.

- La troisième phase de traitement correspond au rapport conscient du sujet. Seule l’une des images sélectionnées induit une réponse cérébrale prolongée et impliquant les régions pariétales et frontales. C’est cette image que le sujet indiquera avoir perçue.

« Dans cette étude, nous montrons que le cerveau humain est capable de traiter plusieurs images simultanément, et ce de manière inconsciente », explique le chercheur Sébastien Marti, qui signe cette étude avec Stanislas Dehaene, directeur de Neurospin (CEA/Inserm). Assailli par un nombre toujours croissant d’informations, notre cerveau parvient ainsi, malgré tout, à gérer le surplus de données grâce à un filtrage automatique, sans effort, et un processus de sélection en trois phases.

Article rédigé par Georges Simmonds pour RT Flash

Inserm

Dépendance au cannabis : vers un médicament ?
Mardi, 13/02/2018 - 08:18

On sait désormais que l'usage de stupéfiants modifie la physiologie du cerveau, notamment la plasticité des synapses (zones de contact entre neurones). Dans 80 % des cas, ce changement est temporaire. En revanche, la persistance de ce phénomène chez certains individus paraît responsable de la perte de contrôle de la consommation et de l'apparition d'une addiction forte à la drogue consommée.

Des chercheurs du Neurocentre Magendie, qui étudient spécifiquement les effets cérébraux du cannabis, ont découvert que son usage entraînait la production d'une molécule appelée prégnénolone, qui défend l'organisme contre les effets de cette drogue. Elle aurait pu être donnée pour soigner la dépendance si elle n'était pas si mal absorbée et rapidement dégradée par l'organisme.

À partir de cette découverte, l'équipe a créé la société Aelis Farma qui a réussi à développer un dérivé stable de la prégnénolone. « C'est aujourd'hui la seule solution pharmacologique pour contrer les effets du cannabis et son addiction », souligne Pier Vincenzo Piazza, le chercheur qui dirige cette société.

Le composé mis au point, l'AEF0117, bloque uniquement les parties des synapses activées par le cannabis. Lors de tests, les animaux dépendants stoppent leur consommation dès la prise de la molécule. Sur un individu qui n'est pas sous cannabis, cette molécule n'a aucun effet, même à 1 500 fois la dose efficace.

Un grand nombre de personnes pourraient en bénéficier notamment en France, où plus d'un jeune sur quatre déclare avoir consommé du cannabis au cours du dernier mois.

Selon l’Observatoire français des drogues et des toxicomanies (OFDT), le cannabis reste de très loin la substance illicite la plus utilisée en France. 17 millions de personnes en ont déjà consommé. 11 % des adultes de 18 à 64 ans sont des consommateurs de cannabis, soit 4,6 millions de personnes. 

Article rédigé par Georges Simmonds pour RT Flash

Aelisfarma

L’intensité de l’activité physique au-delà de 70 ans influe sur le bénéfice de survie
Mardi, 13/02/2018 - 08:12

Une vaste étude réalisée par des chercheurs américains du Brigham and Women’s hospital à Boston, montre que, chez les femmes âgées de 70 ans et plus, c’est l’activité physique la plus intense, comme la marche rapide, qui permet la plus forte réduction du risque de mortalité, environ 65 %. "Ce bénéfice est supérieur à celui lié à l’arrêt du tabac", souligne cette étude.

Selon les recommandations américaines, 150 mn d’activité physique modérée à intense par semaine permettent de réduire de 10 à 30 % le risque de décès à court terme. "Il nous a paru intéressant de pouvoir préciser l’amplitude de la réduction en fonction du type d’exercice" commente le Docteur Lee.

En revanche, dans ce travail, l’activité physique légère et la baisse de la sédentarité n’influent pas sur la mortalité des plus de 70 ans à 2-3 ans. "Ce résultat peut avoir été biaisé par la sélection d’une population de femmes volontaires en bonne forme physique pour lesquelles un faible niveau d’activité physique n’influe pas sur le devenir" avance l’investigatrice. L’activité physique modérée à intense médiane quotidienne s’est établie à 28 minutes, l’activité légère à 351 minutes et la sédentarité à 503 minutes.

L’analyse globale montre que le risque de décès est abaissé proportionnellement au volume global de l’activité physique. Mais ce qui fait toute la différence, c’est l’activité modérée à intense puisque les chiffres de baisse obtenue sont particulièrement élevés (moins 60 à 70 % chez les 25 % de femmes qui pratiquent de telles activités). A noter que la réduction reste significative après ajustement sur l’âge, le tabagisme, les antécédents personnels et familiaux (IDM, cancers), la qualité du régime alimentaire incluant les apports en graisses saturés.

Article rédigé par Georges Simmonds pour RT Flash

Circulation

Le nombre de démences pourrait tripler dans le monde d'ici 2050
Mardi, 13/02/2018 - 08:03

Selon l'OMS, le nombre de personnes atteintes de démence devrait tripler et passer ainsi de 50 millions actuellement à 152 millions d’ici à 2050.

« On compte près de 10 millions de nouveaux cas de démences par an, dont 6 millions dans les pays à revenu faible ou intermédiaire. Les souffrances que cette maladie entraîne sont énormes. Nous devons réagir : il faut prêter davantage d’attention à ce problème croissant et veiller à ce que toutes les personnes atteintes de démence, où qu’elles vivent, bénéficient des soins dont elles ont besoin » indique le Docteur Tedros Adhanom Ghebreyesus, directeur général de l’OMS.

Le coût annuel de la démence dans le monde est estimé à 818 milliards de dollars, soit plus de 1 % du Produit Intérieur Brut mondial. Le coût total comprend les frais médicaux directs, la prise en charge sociale et les soins informels (la perte de revenu des aidants).

D’ici à 2030, ce coût devrait avoir plus que doublé pour atteindre 2.000 milliards de dollars et il pourrait menacer alors le développement social et économique ;  les services sanitaires et sociaux, y compris les systèmes de soins au long cours, pourraient être dépassés.

L’Observatoire mondial de la démence –une plate-forme en ligne lancée récemment par l’OMS– suivra les progrès accomplis en matière de prestation de services aux personnes atteintes de démence et à celles qui s’en occupent, aux niveaux national et mondial.

Il permettra de vérifier l’existence de politiques et de plans nationaux, de mesures d’atténuation des risques et d’infrastructures de soins et de traitement. Il offrira également des informations sur les systèmes de surveillance et des données sur la charge de morbidité.

« Il s’agit du premier système mondial de suivi de la démence qui comprend un éventail de données aussi complet. Ce système nous permettra non seulement de suivre les progrès accomplis mais également, ce qui est tout aussi important, de repérer les domaines dans lesquels il faudra consentir le plus d’efforts à l’avenir » précise le Docteur Tarun Dua du département Santé mentale et abus de substances psychoactives de l’OMS.

À peine 14 % des pays qui ont rapporté des données ont pu indiquer le nombre de personnes chez lesquelles un diagnostic de démence a été posé. Les études précédentes semblent indiquer que, dans les pays à revenu faible ou intermédiaire, jusqu’à 90 % des personnes atteintes de démence ne sont pas conscientes de leur état.

Article rédigé par Georges Simmonds pour RT Flash

OMS

Un airbag portatif pour les seniors en 2018
Mardi, 13/02/2018 - 07:52

On le sait, la chute constitue souvent, pour les seniors, l'événement qui entraîne l'hospitalisation, puis une perte d'autonomie qui peut s'avérer irréversible. Avec l’arrivée de 375.000 personnes âgées supplémentaires en maisons de retraite médicalisées d'ici 2040, le problème risque de s’accentuer dans les années à venir, tant à domicile qu’en EHPAD.

Pour tenter de prévenir efficacement les conséquences parfois dramatiques d'une chute, la société française Helite, spécialisée dans la prévention et la protection par airbag de chutes chez les motards et les cavaliers, a présenté l’été dernier un produit révolutionnaire, adapté aux personnes âgées. Baptisé Hip’Air, ce nouveau dispositif devrait être commercialisé au printemps 2018 au prix de 600 euros environ, un coût qui devrait baisser en cas de succès commercial

Plus concrètement, il s’agit d’une ceinture d’un kilo (qui peut se porter sous un vêtement) qui se déclenchera en cas de chute et protégera essentiellement le col du fémur, point faible chez les ainés. Le produit est à l’état de test actuellement dans plusieurs maisons de retraite de Bourgogne.

Grace à ses nombreux capteurs embarqués, le système électronique d'analyse des mouvements de la personne en temps réel de Hip’Air permet de détecter les chutes en 200 ms (0,2 seconde). En cas de problème, les deux airbags situés latéralement se gonflent automatiquement en 80 ms (0,08 secondes) de chaque côté des hanches.

Bref, il faut moins de 3 dixièmes de seconde entre la détection de la chute et le gonflage, ce qui suffit à protéger efficacement les personnes âgées lorsqu’elles tombent à terre. Cette ceinture (sorte de « banane ») se porte à la taille et s'ajuste sur les hanches pour ne pas gêner les mouvements. Elle est lavable et réutilisable et possède une autonomie de 15 jours.

Article rédigé par Georges Simmonds pour RT Flash

Senior Actu

^ Haut
VOTRE INSCRIPTION
Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte.
Désinscription Cliquez sur ce lien pour vous désinscrire.
Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts.
PLUS D'INFOS
Suivez-nous sur Twitter
Rejoignez-nous sur Facebook
 http://www.rtflash.fr
back-to-top