RTFlash

IBM dévoile une puce d'IA analogique qui fonctionnerait comme un cerveau humain

IBM a dévoilé un nouveau prototype de puce d’IA analogique qui fonctionnerait comme un modèle simplifié du cerveau humain et qui peut réaliser des tâches complexes de réseaux neuronaux profonds (DNN). La puce est conçue pour rendre l’intelligence artificielle plus efficace et moins gourmande en batterie pour les ordinateurs et les smartphones. La puce est composée de 64 cœurs de calcul analogiques en mémoire qui sont interconnectés par un réseau de communication sur la puce.

Chaque cœur dispose d’un convertisseur analogique-numérique qui permet de passer du monde analogique au monde numérique. Chaque cœur dispose aussi d’une unité de traitement numérique légère qui exécute des fonctions d’activation neuronale simples et des opérations de mise à l’échelle. Ces fonctions sont nécessaires pour les couches convolutives et les unités de mémoire à long terme des réseaux neuronaux. Une unité de traitement numérique globale est située au centre de la puce et réalise des opérations plus complexes qui sont requises pour certains types de réseaux neuronaux.

La puce prototype d’IBM pourrait être une alternative aux puces numériques actuelles qui sont utilisées pour les applications d’IA dans les ordinateurs et les smartphones. La puce d’IBM est développée dans le complexe Albany NanoTech d’IBM et a été présentée dans un article publié par IBM Research. « Nous ne sommes qu'au début d'une révolution de l'IA qui va redéfinir notre mode de vie et de travail. En particulier, les DNN ont révolutionné le domaine de l'IA et gagnent de plus en plus en importance avec l'avènement des modèles de fondation et de l'IA générative. Mais l'exécution de ces modèles sur des architectures informatiques numériques traditionnelles limite leurs performances et leur efficacité énergétique », déclare IBM.

Des progrès ont été réalisés dans le développement de matériel spécifiquement destiné à l'inférence de l'IA, mais bon nombre de ces architectures séparent physiquement la mémoire et les unités de traitement. Cela signifie que les modèles d'IA sont généralement stockés dans un emplacement de mémoire discret et que les tâches de calcul nécessitent un brassage constant des données entre la mémoire et les unités de traitement. Ce processus ralentit les calculs et limite l'efficacité énergétique maximale réalisable.

IBM Research a étudié les moyens de réinventer la manière dont l'IA est calculée. L'informatique analogique en mémoire, ou plus simplement l'IA analogique, est une approche prometteuse qui permet de relever le défi en empruntant des caractéristiques clés du fonctionnement des réseaux neuronaux dans les cerveaux biologiques. Dans notre cerveau et celui de nombreux autres animaux, la force des synapses (qui sont les “poids” dans ce cas) détermine la communication entre les neurones.

Pour les systèmes d'IA analogiques, nous stockons ces poids synaptiques localement dans les valeurs de conductance des dispositifs de mémoire résistive à l'échelle nanométrique, tels que la mémoire à changement de phase (PCM) et effectuer des opérations de multiplication-accumulation (MAC), l'opération de calcul dominante dans les DNN, en exploitant les lois du circuit et en atténuant la nécessité d'envoyer constamment des données entre la mémoire et le processeur.

La Mémoire à changement de phase fonctionne lorsqu'une impulsion électrique est appliquée à un matériau, ce qui modifie la conductance du dispositif. Le matériau passe d'une phase amorphe à une phase cristalline : une impulsion électrique plus faible rendra le dispositif plus cristallin, offrant moins de résistance, tandis qu'une impulsion électrique plus forte rendra le dispositif plus amorphe, offrant plus de résistance.

Au lieu d'enregistrer les 0 et les 1 habituels des systèmes numériques, le dispositif PCM enregistre son état sous la forme d'un continuum de valeurs entre l'état amorphe et l'état cristallin. Cette valeur est appelée poids synaptique et peut être stockée dans la configuration atomique physique de chaque PCM. La mémoire est non volatile, de sorte que les poids sont conservés lorsque l'alimentation électrique est coupée.

Pour que le concept d'IA analogique devienne réalité, deux défis majeurs doivent être relevés : ces matrices de mémoire doivent être capables de calculer avec un niveau de précision équivalent à celui des systèmes numériques existants, et elles doivent pouvoir s'interfacer de manière transparente avec d'autres unités de calcul numériques, ainsi qu'avec un tissu de communication numérique sur la puce d'IA analogique.

La puce a été fabriquée dans le complexe NanoTech d'Albany d'IBM et se compose de 64 noyaux de calcul analogiques en mémoire (ou tuiles), chacun contenant un réseau de cellules d'unités synaptiques de 256 par 256. Des convertisseurs analogiques-numériques compacts, basés sur le temps, sont intégrés dans chaque tuile pour assurer la transition entre les mondes analogique et numérique. Chaque tuile est également dotée d'unités de traitement numérique légères qui exécutent des fonctions d'activation neuronale non linéaires simples et des opérations de mise à l'échelle.

« En utilisant la puce, nous avons réalisé l'étude la plus complète sur la précision de calcul de l'informatique analogique en mémoire et avons démontré une précision de 92,81 % sur l'ensemble de données d'images CIFAR-10. Nous pensons qu'il s'agit du niveau de précision le plus élevé de toutes les puces actuellement rapportées utilisant une technologie similaire. Dans cet article, nous avons également montré comment nous pouvions combiner de manière transparente le calcul analogique en mémoire avec plusieurs unités de traitement numérique et un tissu de communication numérique ».

La puce d’IA analogique d’IBM est un prototype prometteur qui vise à réduire la latence et la consommation d’énergie des tâches d’inférence des réseaux neuronaux profonds en effectuant directement des calculs dans la mémoire. Toutefois, cette puce ne serait pas encore prête à remplacer les puces numériques actuelles, car elle présente des limites en termes de précision, de fiabilité, de flexibilité et d’évolutivité.

Article rédigé par Georges Simmonds pour RT Flash

IBM

Noter cet article :

 

Vous serez certainement intéressé par ces articles :

Recommander cet article :

back-to-top