RTFlash

Vivant

Un modèle neuro-linguistique pour comprendre le langage

Un enfant né et élevé à Paris, à Tokyo ou à New York acquerra la langue locale avec une facilité étonnante. Quelle est l'organisation du cerveau humain qui lui permet d'apprendre n'importe quelle langue avec une telle facilité ? Deux écoles confrontent leurs théories : la première pense que le langage se distingue fondamentalement des autres fonctions cognitives alors que la deuxième suggère que le langage se construit précisément à partir de mécanismes cognitifs, comme la mémoire. Qu'en est-il vraiment ? Peter Ford Dominey, directeur de recherche au CNRS (Institut des sciences cognitives) (CNRS/Université Lyon 1) et son équipe ont mis au point un modèle de simulation par réseaux neuronaux de la construction grammaticale qui vient étayer cette dernière théorie.

Le modèle développé par Peter Ford Dominey est un système informatique conçu sur le modèle d'un réseau de neurones. Il est capable d'apprendre des versions simplifiées de trois langues différentes : le français, l'anglais, et le japonais. Comme le cerveau humain, le modèle n'est prédéterminé pour aucune langue particulière, et peut apprendre les trois langues avec la même facilité.

Comme le jeune enfant, le système est exposé à des scènes visuelles qui fournissent le sens et à des phrases qui les décrivent. Le modèle apprend la transformation entre une phrase et son sens et ceci dans les trois langues. Après apprentissage, le modèle peut ainsi extraire la signification de nouvelles phrases, en utilisant les transformations apprises. Ce mécanisme commun de transformations, applicable à la fois aux phrases et aux séquences non-linguistiques, constitue un outil précieux pour comprendre le fonctionnement du langage et pour rééduquer les patients souffrant de troubles du langage (aphasiques).

Par exemple, dans le cas d'un accident vasculaire cérébral au niveau des aires du langage, le patient peut se trouver dans l'incapacité de comprendre ou de produire des phrases de structures grammaticales complexes. Selon les hypothèses du modèle, on peut penser que ce même patient sera incapable de transformer l'ordre de lettres de séquences non-linguistiques en raison d'un déficit de production et/ou d'utilisation des transformations nécessaires. Pour vérifier cette hypothèse, les chercheurs ont montré que des patients ayant subi une rééducation basée sur l'apprentissage de séquences non-linguistiques adaptées, amélioraient significativement leur compréhension et leur production de phrases.

Leurs études d'imagerie cérébrale révèlent que de mêmes régions du cerveau opèrent à la fois sur les phrases et sur les séquences non-linguistiques, à l'exception d'une région qui reste propre au langage et qui donne le sens des mots. Le traitement par le cerveau de ces deux types de séquences pourrait donc relever de mécanismes communs, prouvant que le langage s'appuie sur des processus cognitifs comme la mémoire de travail et la mémoire associative.

Ces travaux ouvrent donc des perspectives prometteuses dans le domaine de la rééducation orthophonique mais aussi dans le développement des interactions homme-robot. Récemment, ce groupe de chercheurs a utilisé son modèle de réseau neuronal pour « faire parler » des robots. Dans ce but, ils ont développé un système de vision d'ordinateur qui extrait la signification de scènes visuelles et applique le traitement des constructions grammaticales à la commande de l'action dans les systèmes robotiques, notamment avec le robot humanoïde franco-japonais HRP-2.

CNRS

Noter cet article :

 

Vous serez certainement intéressé par ces articles :

Recommander cet article :

back-to-top