La course aux puces AI s’intensifie (mais pas comme vous l’attendriez)
D’accord, donc si vous êtes comme moi, toujours en train de bricoler avec des bots et essayant d’extirper chaque dernière goutte de performance de votre matériel, vous avez probablement entendu les rumeurs. Arm a récemment annoncé sa nouvelle conception de puce AI, l’« Ethos-U85, » et certaines personnes l’appellent déjà une menace potentielle pour la position dominante de Nvidia sur le marché de l’IA. En tant que personne qui consacre beaucoup de temps à construire et déployer de l’IA, je suis ici pour vous dire que bien que le mouvement d’Arm soit intéressant, ce n’est pas le bouleversement sismique que certains prédisent, surtout pas pour Nvidia.
Comprendre le champ de bataille : Edge vs. Centre de données
Démarrons. La force de Nvidia, en particulier avec ses GPU et ses accélérateurs AI spécialisés, réside principalement dans le centre de données. Pensez à entraîner d’énormes modèles de langage, à exécuter des simulations complexes et à gérer le travail lourd pour des services AI basés sur le cloud. Ce sont des tâches gourmandes en énergie et de haute performance qui nécessitent une puissance de calcul incroyable et de vastes quantités de bande passante mémoire.
Arm, en revanche, a historiquement excellé dans l’espace embarqué et mobile – ce que nous appelons l’« edge ». Leurs processeurs sont connus pour leur efficacité, leur faible consommation d’énergie et leur adéquation pour des dispositifs comme les smartphones, les gadgets domestiques intelligents et les capteurs IoT. C’est ici que la nouvelle Ethos-U85 d’Arm vise. Elle est conçue pour l’« edge AI, » ce qui signifie qu’elle est bâtie pour exécuter des tâches d’inférence AI directement sur les dispositifs, plutôt que d’envoyer des données à un serveur cloud pour traitement.
L’Ethos-U85 : Ce qu’elle est, et ce qu’elle n’est pas
L’Ethos-U85 est une unité de traitement neural (NPU) capable de délivrer jusqu’à 4 trillions d’opérations par seconde (TOPS). C’est un chiffre respectable pour un dispositif edge. Elle est conçue pour accélérer les charges de travail de machine learning telles que la reconnaissance d’images, le traitement du langage naturel et la détection d’anomalies, le tout localement sur le dispositif. C’est une excellente nouvelle pour des dispositifs tels que les caméras de sécurité qui peuvent identifier des objets sans envoyer chaque image vers le cloud, ou les enceintes intelligentes qui peuvent traiter les commandes vocales plus rapidement.
Cependant, 4 TOPS est bien loin des centaines, voire des milliers de TOPS que les GPU modernes de centre de données de Nvidia offrent. Par exemple, le GPU H100 de Nvidia peut délivrer plus de 4 000 TOPS pour certaines tâches AI. La différence d’échelle est énorme. Vous ne tenteriez pas d’entraîner un modèle de la taille de GPT-4 sur une Ethos-U85, tout comme vous ne tenteriez pas de faire fonctionner un jeu vidéo haute fidélité sur une montre intelligente. Elles sont conçues pour des tâches fondamentalement différentes.
Mon avis : Complémentaires, pas concurrentes (pour l’instant)
De mon point de vue en tant que constructeur de bots, ces technologies sont largement complémentaires. J’utilise des GPU Nvidia pour le travail lourd d’entraînement de mes modèles – c’est là que l’intelligence est forgée. Ensuite, pour le déploiement sur des dispositifs plus petits et plus contraints, je pourrais envisager des solutions basées sur Arm pour l’inférence. Par exemple, si je construis un bot qui doit fonctionner sur un petit système embarqué avec des budgets énergétiques stricts, un NPU basé sur Arm serait un solide concurrent.
Nvidia n’ignore pas non plus l’edge ; ils ont leurs propres plateformes comme Jetson, qui ciblent des applications AI edge à haute performance. Mais la distinction fondamentale demeure : Arm pousse plus loin dans l’ultra-efficace et à faible consommation d’énergie, tandis que Nvidia continue de dominer le centre de données à haute performance et les déploiements edge plus importants.
Ainsi, bien que l’Ethos-U85 d’Arm soit un ajout bienvenu à l’espace AI edge, cela ne va pas soudainement bouleverser l’entreprise de centre de données de Nvidia. L’action de Nvidia monte en raison de la demande insatiable pour ses accélérateurs haute performance qui alimentent les fondations même de l’IA moderne. La nouvelle puce d’Arm répond simplement à un segment différent, bien que important, du marché de l’IA. Pour l’instant, ils jouent à des jeux différents sur des terrains différents.
🕒 Published: