RTFlash

Vivant

Une nouvelle étape vers la machine à lire les pensées…

Des chercheurs de l’Université de Washington ont réussi à décoder certains éléments de pensée quasiment en même temps que celles-ci se formaient dans la matière grise de volontaires à l’expérience. Pour le moment, il s’agit seulement de pensées “visuelles”, soit les informations primaires liées à la vision qui circulent dans le cortex avant même qu’elles soient saisies par la conscience et deviennent matière à réflexion. Cette avancée pourrait avoir des conséquences thérapeutiques pour les patients cérébrolésés.

Dans ces recherches, 7 volontaires, des patients épileptiques portant déjà des électrodes implantées sur la surface de leur cerveau pour le traitement contre l’épilepsie (entre 30 et 60 ans), se sont soumis à une expérience consistant à regarder défiler 300 images sur un écran, à raison d’une image toutes les 0,4 secondes.

Un algorithme conçu par les chercheurs analysait en simultané les signaux recueillis par les électrodes pour extraire de chaque image une information visuelle particulière, ce en moins de 20 millisecondes ! Plus précisément, les signaux mesurés par l’algorithme, sur des groupes de 5 millions de neurones par électrode, étaient de deux types : les pics électriques survenant quelques millisecondes après l’apparition de l’image (“potentiels évoqués”) et la phase de relaxation de ces groupes de neurones après le pic.

Les images projetées représentaient, de manière aléatoire, des maisons, des visages, ou encore un écran vide, l’algorithme étant conçu non pas pour pouvoir reproduire les images vues mais simplement pour savoir les classer à vitesse réelle dans l’une ou l’autre des trois catégories prédéfinies : “maison”, “visage”, “ni l’un ni l’autre”.

L’expérience a comporté trois séances de projection de 300 images (0,4 s par image) dont 50 maisons, 50 visages et le reste en écrans vides. Les deux premières séances ont servi à apprendre à l’algorithme à distinguer les images en fonction des ondes mesurées : une phase où chaque image portait la mention de ce qu’elle représentait, ce qui informait l’algorithme de sa catégorie. La troisième séance présentait 300 images non annotées que l’algorithme devait alors classer en fonction des signaux cérébraux et de ce qu’il avait appris précédemment.

Au final, ce système informatique a réussi, à un rythme “temps réel” (20 ms pour classer chaque image), à classer les images avec un taux de réussite de 96 %. Cela ouvre la voie à des systèmes qui, à terme, permettraient à un patient atteint d’une paralysie sévère incluant la parole (AVC avec aphasie, locked-in syndrome, etc.) de communiquer en temps réel via l’ordinateur par des choix visuels, sur un ensemble d’images prédéfinies pouvant exprimer chacune une intention du patient.

Article rédigé par Georges Simmonds pour RT Flash 

PLOS

Noter cet article :

 

Vous serez certainement intéressé par ces articles :

Recommander cet article :

back-to-top