RTFlash

IBM présente un cerveau -numérique- de rongeur avec 48 puces neuromorphiques

Il y a un an, IBM dévoilait sa puce neuromorphique développée dans le cadre du programme de recherche SyNAPSE (pour Systems of Neuromorphic Adaptive Plastic Scalable Electronics) lancé en 2008 et financé par la Darpa. Baptisée TrueNorth, cette puce bioinspirée vise à reproduire dans le silicium un réseau de neurones artificiels. Au total, Big Blue avait réussi à intégrer un million de neurones artificiels et 256 millions de synapses sur une puce de 4,3 cm. Les chercheurs avaient même réussi à interconnecter 16 puces TrueNorth.

Les chercheurs d’IBM viennent de franchir une nouvelle étape en assemblant 48 puces neuromorphiques, regroupant au total 48 millions de neurones artificiels, soit à peu près le nombre de neurones que l’on retrouve dans le cerveau d’un rongeur.

Les puces neuromorphiques ont été développées pour réaliser des tâches, comme la reconnaissance de contenus à l’intérieur d’une image ou la reconnaissance vocale, que les processeurs classiques ont du mal à exécuter mais qui sont très bien exécutées par notre cerveau.

Aujourd’hui, les ordinateurs utilisent des algorithmes extrêmement gourmands en puissance de calcul et en énergie. D'où l'avantage d'utiliser des puces neuromorphiques, dont l’architecture est spécialement adaptée et qui sont en outre plus sobres en énergie. Alors qu'une puce TrueNorth contient 5,4 milliards de transistors et fonctionne avec seulement 70 mW de puissance, un processeur Intel, qui compte 1,4 milliard de transistors, consomme entre 35 et 140 watts.

L’objectif d’IBM est de pouvoir intégrer sa puce TrueNorth dans des smartphones, des montres connectées ou même dans des écouteurs. Cette intégration permettrait alors de faire fonctionner des services comme Siri, Google Now ou Cortana sans avoir recours à une connexion Internet. En effet, aujourd'hui, ces assistants personnels ne fonctionnent qu’en faisant appel à des serveurs où sont stockées d’immenses bases de données.

L'idée d'IBM est de développer dans un premier temps les algorithmes "d'apprentissage profond" (deep learning) sur des machines classiques, puis d'exécuter ensuite ces algorithmes en "local" sur des puces neuromorphiques intégrées aux différents appareils nomades. Une avancée qui permettrait de généraliser le recours à l’intelligence artificielle par les particuliers.

Article rédigé par Georges Simmonds pour RT Flash

Wired

Noter cet article :

 

Vous serez certainement intéressé par ces articles :

  • Un bio-ordinateur réussit à faire une reconnaissance vocale

    Un bio-ordinateur réussit à faire une reconnaissance vocale

    Des chercheurs de l'université d'État de l'Indiana, aux États-Unis, ont créé un système appelé Brainoware qui relie des organes cérébraux - organoïde - à des circuits électroniques, permettant aux ...

  • IBM dévoile la première puce quantique 1000-qubit

    IBM dévoile la première puce quantique 1000-qubit

    La nouvelle puce quantique d’IBM a suscité des réactions dans le domaine de la high-tech. Dévoilée au grand public le 4 décembre dernier, cette innovation est dotée de 1121 qubits. C’est une des ...

  • Un nouveau modèle d'IA modulaire

    Un nouveau modèle d'IA modulaire

    Tout le monde a entendu parler des grands modèles de langage (LLM). Ce sont des modèles d’apprentissage profond à grande échelle entraînés sur d’immenses quantités de texte qui constituent la base ...

Recommander cet article :

back-to-top