RTFlash

Comprendre la langage grâce aux robots

Ball!» dit le maître. Aïbo, le célèbre chiot robot, ne comprend pas. Il s'assied, se relève et ose une moue dubitative avant de lâcher: «Smiley!» «No», rétorque Frédéric Kaplan, un ingénieur du Sony Computer Science Laboratory (CSL) de Paris, chargé d'améliorer le comportement de l'animal artificiel: «Il confond la balle et un autre de ses jouets», commente-t-il pour l'excuser. Après quelques tentatives, le chien se montre plus docile et, à la vue de la petite sphère rose, finit par la nommer sans se tromper. Cela ne fait pas pour autant d'Aïbo un robot intelligent. «Un prototype de logiciel d'apprentissage lui permet de voir des situations différentes, explique le chercheur. Mais il ne saura pas forcément établir la relation entre ces images.» Ainsi, dans une autre pièce ou dans de nouvelles conditions d'éclairage, le toutou au vocabulaire limité ne reconnaîtra pas la balle. Aïbo n'est qu'une tentative parmi d'autres de la robotique non pour faire parler des machines, mais pour comprendre les secrets du langage. Comment nos ancêtres ont-ils pu développer un outil aussi complexe que la parole? Celle-là même qui, selon la logique de Descartes, différencie le pensant du non-pensant. Depuis des siècles, le sujet divise les savants; il passionne aujourd'hui les roboticiens. «L'homme a toujours cherché à élaborer des créatures artificielles, mais avec des objectifs différents selon les époques, note Philippe Breton, anthropologue au CNRS. La beauté pour l'Antiquité, le mouvement au XVIIIe siècle, etc. En revanche, doter les artefacts de la parole est une idée contemporaine. Comme pour leur donner plus d'humanité.» La robotique permet surtout une approche comportementale nouvelle sur l'origine du langage. Depuis près de cinq ans, Steels et ses étudiants tentent de mettre des robots en relation pour qu'émerge de leur face-à-face un langage. «Progressivement, on essaie de comprendre ce qui est essentiel dans l'origine.» Aïbo doit savoir écouter et regarder. «En ce moment, nous cherchons à comprendre comment s'effectue ce partage de l'attention qui nous semble à nous, humains, évident», reprend Frédéric Kaplan. De même, la perception des sons est primordiale à l'acquisition de la parole. Pierre-Yves Oudeyer, docteur en sciences cognitives, s'en est fait une spécialité. Il a mis au point un «jeu d'imitation» où deux humanoïdes sur écran s'apprennent mutuellement à répéter des sons. Le premier en choisit un dans son répertoire que le second doit redire jusqu'à le maîtriser parfaitement pour se l'approprier. Ainsi, les deux machines se créent un catalogue commun. «Cette expérimentation nous éclaire sur la formation dans le temps des consonnes et des voyelles souligne Pierre-Yves Oudeyer". De son côté, Luc Steels opère sur le sens et la grammaire des sons. Avec une double hypothèse: le langage, surtout dans les premières phases de son développement, est le fruit d'une expérience partagée (entre deux agents) et doit s'ancrer dans un monde réel. Le test des têtes parlantes (talking heads) fait intervenir deux robots, dotés de la vision (caméras), de l'ouïe (micros) et de la parole (haut-parleurs), qui s'adonnent à un jeu de devinettes pour reconnaître des figures géométriques collées sur un tableau. Le «locuteur» désigne une forme que l'«apprenant» doit localiser et s'approprier. «Ils s'inventent leur lexique pour se repérer dans un environnement visuel commun et interagissent de façon autonome.» Progressivement, ils constituent ex nihilo leur propre langue. Un système de communication élaboré, qui rapproche un peu plus ces créatures artificielles des hommes. Cette amorce de «vie en société» suffit-elle pour faire de ces robots des êtres intelligents ?

L'Express :

http://www.lexpress.fr/Express/Info/Sciences/Dossier/robotique/dossier.asp

Noter cet article :

 

Vous serez certainement intéressé par ces articles :

Recommander cet article :

back-to-top