RTFlash

Les ordinateurs analogiques pourraient entraîner l’IA 1 000 fois plus rapidement et réduire la consommation d’énergie

Les ordinateurs analogiques qui résolvent rapidement un type d’équation clé utilisé dans la formation des modèles d’intelligence artificielle pourraient offrir une solution potentielle à la consommation croissante d’énergie dans les centres de données, provoquée par le boom de l’IA. Les ordinateurs portables, smartphones et autres appareils familiers sont appelés ordinateurs numériques, car ils stockent et traitent les données sous la forme d'une série de chiffres binaires, 0 ou 1, et peuvent être programmés pour résoudre toute une série de problèmes. En revanche, les ordinateurs analogiques sont normalement conçus pour résoudre un seul problème spécifique. Ils stockent et traitent les données en utilisant des quantités qui peuvent varier continuellement, comme la résistance électrique, plutôt que des 0 et des 1 discrets.

Les ordinateurs analogiques peuvent exceller en termes de vitesse et d’efficacité énergétique, mais n’avaient auparavant pas la précision de leurs homologues numériques. Aujourd'hui, Zhong Sun de l'Université de Pékin, en Chine, et ses collègues, ont créé une paire de puces analogiques qui fonctionnent ensemble pour résoudre avec précision des équations matricielles – un élément fondamental pour l'envoi de données sur les réseaux de télécommunications, l'exécution de grandes simulations scientifiques ou la formation de modèles d'IA. La première puce génère très rapidement une solution de faible précision pour les calculs matriciels, tandis qu'une seconde exécute un algorithme de raffinement itératif pour analyser les taux d'erreur de la première puce et ainsi améliorer la précision. Sun affirme que la première puce produit des résultats avec un taux d'erreur d'environ 1 pour cent, mais qu'après trois cycles de la deuxième puce, ce taux tombe à 0,0000001 pour cent, ce qui, selon lui, correspond à la précision des calculs numériques standard.

Jusqu'à présent, les chercheurs ont construit des puces capables de résoudre des matrices de 16 x 16, ou celles comportant 256 variables, ce qui pourrait avoir des applications pour certains petits problèmes. Mais Sun admet que pour répondre aux questions utilisées dans les grands modèles d'IA actuels, il faudrait des circuits beaucoup plus grands, peut-être un million sur un million. Mais l'un des avantages des puces analogiques par rapport aux puces numériques est que les matrices plus grandes ne prennent plus de temps à résoudre, tandis que les puces numériques rencontrent des difficultés exponentielles à mesure que la taille de la matrice augmente. Cela signifie que le débit – la quantité de données traitées par seconde – d’une puce matricielle de 32 x 32 dépasserait celui d’un GPU Nvidia H100, l’une des puces haut de gamme utilisées aujourd’hui pour entraîner l’IA.

Théoriquement, une mise à l'échelle supplémentaire pourrait voir le débit atteindre 1 000 fois celui des puces numériques telles que les GPU, tout en utilisant 100 fois moins d'énergie, explique Sun. Mais il s’empresse de souligner que les tâches du monde réel peuvent s’écarter des capacités extrêmement étroites de leurs circuits, conduisant à des gains moindres. « Il ne s'agit que d'une comparaison de vitesse, et pour des applications réelles, le problème peut être différent », explique Sun. « Notre puce ne peut effectuer que des calculs matriciels. Si le calcul matriciel occupe la majeure partie de la tâche informatique, cela représente une accélération très significative du problème, mais sinon, ce sera une accélération limitée ». Sun estime que la meilleure solution est la création de puces hybrides, dans lesquelles un GPU comporte des circuits analogiques qui gèrent des parties très spécifiques de problèmes.

TrendForce News : https://www.trendforce.com/news/2025/10/21/news-chinese-scientists-developed-a-novel-chip-crossing-a-century-old-hurdle/

Noter cet article :

 

Vous serez certainement intéressé par ces articles :

Recommander cet article :

back-to-top