Intel a dévoilé deux nouveaux processeurs conçus pour les grands centres d’informatique, qui seront les premiers à utiliser l’intelligence artificielle (IA).
Les deux puces constituent les premières offres de la société à partir de sa ligne Nervana Neural Network Processor (NPP). L'une d'elles sera utilisée pour former des systèmes d'IA, tandis que l'autre gérera l'inférence.
Le Nervana NNP-T, appelé Spring Crest, sera utilisé pour la formation et est fourni avec 24 grappes de traitement Tensor spécialement conçues pour alimenter les réseaux de neurones. Le nouveau système sur puce d'Intel (SoC) offre aux utilisateurs tout ce dont ils ont besoin pour former un système d'intelligence artificielle sur du matériel dédié.
Le Nervana NNP-I, appelé Spring Hill, est le système sur puce de l'inférence de la société, qui utilise sa technologie de traitement 10 nanomètres ainsi que des noyaux Ice Lake pour aider les utilisateurs à déployer des systèmes d'IA qualifiés.
Sommaire
Charges de travail de l'IA
Les nouveaux SoC d'Intel axés sur l'IA sont conçus pour gérer les charges de travail de l'IA dans les environnements de centre de données, de sorte que les utilisateurs ne doivent plus utiliser ses processeurs Xeon pour gérer les tâches d'apprentissage de l'IA et de la machine. Les puces Xeon sont capables de gérer de telles charges de travail, même si elles ne sont pas aussi efficaces.
Les Nervana NNP-T et NNP-I ont été conçus pour concurrencer l’unité Tensor Porcessing de Google, la technologie Nvidia basée sur NVDLA et les puces AWS Inferentia d’Amazon.
Naveen Rao, vice-président et directeur général du groupe de produits d'Intelligence Artificielle d'Intel, a expliqué comment les nouveaux processeurs de la société faciliteraient un avenir où l'intelligence artificielle est omniprésente.
«Pour obtenir un état futur de« l'intelligence artificielle partout », nous devrons nous occuper de l'écrasement des données générées et veiller à ce que les entreprises aient la possibilité d'utiliser efficacement leurs données, en les traitant à l'endroit où elles sont collectées lorsque cela fait sens et en les rendant plus intelligentes. utilisation de leurs ressources en amont. Les datacenters et le cloud doivent avoir accès à une informatique polyvalente performante et évolutive, ainsi qu'à une accélération spécialisée pour les applications d'IA complexes. Dans cette vision future de l'intelligence artificielle, une approche holistique est nécessaire – du matériel au logiciel, en passant par les applications. "
Via The Inquirer