RTFlash

RTFlash a besoin de vous pour continuer à exister !

Propulsé par HelloAsso

Les réseaux neuronaux à l'assaut du monde des algorithmes

Comme son nom l'indique, le schéma des réseaux neuronaux s'inspire du mode de fonctionnement du système nerveux. Cette représentation a pour origine l'observation directe de la structure du cerveau et de ses ramifications dans l'ensemble des organismes vivants. Bref, du mode d'organisation et de connexion des neurones les uns avec les autres. Il va de soit que ces recherches se situent à un niveau purement physique et chimique, et ne prétendent pas pour l'heure investir le domaine de l'émotion, ou même de l'intelligence -encore qu'il faudrait commencer par s'entendre sur le concept. Fruit du travail de plusieurs équipes de chercheurs d'universités, la théorie des réseaux neuronaux s'applique principalement au monde de l'intelligence artificielle... avec comme objectif de concevoir des logiciels basés sur ce modèle. Décrits par McCulloch et Pitts dans un livre paru en 1943 sous le titre "Unité de la Logique du Seuil" (Threshold Logic Unit), les réseaux neuronaux visent plus précisément à reproduire les modes de communication entre les neurones. Schématiquement, un neurone reçoit des signaux en provenance de plusieurs de ses équivalents par le biais de canaux appelés synapses. Il compile ces informations en une seule, puis transmet celle-ci au neurone suivant via son unique canal de sortie. A partir de cette description, McCulloch et Pitts expliquent: "un réseau neuronal est un ensemble d'éléments simples de traitement (ou noeuds) connectés entre eux, dont la fonction est comparable à celle d'un neurone dans le monde animal." Et d'ajouter: "la capacité de traitement du réseau est stockée au niveau de ces interconnexions. Cette fonction de gestion s'appuie sur un processus d'adaptation ou d'apprentissage qui est fonction d'une série de modèles de référence." Appliquée au monde informatique, la structure de McCulloch et Pitts se traduira au final par la mise en place de processus de traitement en réseau capables d'accueillir plusieurs types de variables en entrée et de leur appliquer des algorithmes en vue d'aboutir à un résultat unique. Avec la croissance exponentielle des capacités de calcul, les projets s'inspirant de la théorie de McCulloch et Pitts affichent des ambitions de plus en plus élevées. Certes, les possibilités des programmes demeurent limitées. Couvrant certaines fonctions d'analyse et d'auto-apprentissage, les première solutions réalisées assurent par exemple des saisies automatiques à partir de textes manuscrits, d'autres s'attaquant à la reconnaissance de forme ou encore à l'assistance au diagnostic relatif à l'embarqué. Le programme le plus connu dans ce domaine est sans doute celui du supercalculateur d'IBM, Deep Blue, qui vint à bout du champion d'échecs Garry Kasparov en 1997... Pourtant, la réalité est encore bien loin de celle de David : le petit robot enfant de IA (Intelligence artificielle), le dernier film de Steven Spielberg...

JDN : http://solutions.journaldunet.com/0111

Noter cet article :

 

Vous serez certainement intéressé par ces articles :

Recommander cet article :

back-to-top