Au Computex, Intel présente le processeur "Meteor Lake" : l'IA occupe le devant de la scène
TAIPEI—En 2022, Intel a fait basculer son concept de VPU, un nouveau composant en silicium pour ses prochains processeurs "Meteor Lake". Lors d'un événement sur invitation uniquement à Taipei, le géant du processeur a présenté le premier processeur Meteor Lake en fonctionnement, partageant quelques détails supplémentaires sur ces puces de nouvelle génération et parlant de leurs capacités dans le domaine le plus en vogue aujourd'hui : l'IA. Le VPU sera au cœur de cela.
John Rayfield, vice-président d'Intel et directeur général du client AI, a rencontré un groupe restreint de journalistes le week-end avant Computex pour exécuter quelques démos avec la première puce Meteor Lake équipée d'un VPU à se mettre à l'abri. Le modèle exact de la puce Meteor Lake, ainsi que ses vitesses et flux détaillés, n'ont pas été partagés. Ce qui a été précisé, cependant, c'est que Meteor Lake proviendra du marché mobile. En effet, le nouveau module VPU est entièrement axé sur l'efficacité énergétique et sur la mise en place de tâches exigeantes liées à l'IA sur ce nouveau composant de traitement.
La prochaine génération de processeurs d'Intel a été doublée avec ce dernier nom de code "Lake", et Intel a exposé quelques-uns de ses principes dans la démo. Les générations précédentes, Alder Lake (12th Gen Core) et Raptor Lake (13th Gen Core), mettaient l'accent sur les performances grâce à leur conception hybride, avec de nouveaux cœurs Performance (P-cores) et Efficient cores (E-core) sur le die. Ces générations ont connu des augmentations de l'IPC, de la fréquence et des performances par watt.
Au cours du développement, Intel a beaucoup travaillé avec Microsoft pour s'assurer que ses processeurs transfèrent les tâches aux cœurs appropriés, ce qui s'est manifesté dans Windows 11 et dans l'outil Thread Director d'Intel. Pour aller plus loin, Meteor Lake mettra l'accent, dès le départ, sur l'efficacité énergétique via une combinaison de nouvelles technologies de processus et l'ajout du VPU dans la nouvelle conception de puces modulaires de Meteor Lake, en utilisant ce que l'on appelle vaguement des "chiplets" ou des "tuiles". ."
Faire en sorte que le logiciel fonctionne bien avec un nouveau composant de processeur est l'astuce, bien sûr, mais le travail avec Alder et Raptor Lake signifie qu'il existe un grand écosystème d'applications qui peut être amené ; le support ISV est en place et, selon Rayfield, la force d'Intel réside dans la vaste base d'applications x86.
Une partie de ce qui rend possible la migration vers le VPU est le fruit de la technologie Foveros d'Intel (beaucoup plus sur le lien) et de l'acquisition en 2016 du fabricant de puces Movidius. Foveros, dans les termes les plus simples, utilise une technologie d'empilement 3D qui permet aux modules de puces, ou chiplets, d'être superposés, plutôt que disposés côte à côte. Dans le cas de Meteor Lake, l'un de ces modules sera le VPU, qui, selon le géant des puces, sera la sauce secrète de cette génération.
Intel n'a encore rien révélé sur les puces individuelles de Meteor Lake. Comme indiqué l'année dernière lors d'une présentation à la conférence Hot Chips, Meteor Lake sera produit sur le procédé Intel 4 (contrairement à l'Intel 7 utilisé par Alder et Raptor Lake). La génération "Arrow Lake" suivante sera sur le procédé 20A d'Intel. Un rappel : Le chiffre après "Intel" dans ses noms de processus ne correspond plus à la taille du nanomètre dans la technologie de processus.
En développant Meteor Lake sur Intel 4, la société met l'accent sur la gestion de l'alimentation et l'hyper-efficacité de nouvelle génération. Meteor Lake présentera également la dernière révision d'Intel de ses graphiques sur puce, qui seront basés sur Intel Arc, et dans ce cas, l'architecture "Alchemist" d'Arc. L'intégration d'Arc apportera la prise en charge de technologies clés telles que DirectX 12 Ultimate, XeSS (suréchantillonnage) et le lancer de rayons dans un format basse consommation. Les représentants d'Intel n'ont pas partagé plus de détails sur l'arc sur puce, mais ont insisté sur le fait que l'accélération graphique sera "bien meilleure" que les solutions graphiques intégrées (IGP) existantes d'Intel. L'Arc IGP ne pourra pas se comparer aux cartes de bureau Arc d'Intel en termes de performances brutes, en raison de l'enveloppe de puissance très différente, mais ce sera la même conception que celle d'un chiplet, fonctionnant à des thermiques plus faibles.
Le VPU, cependant, est de loin le plus grand développement ici, chargé de l'inférence locale sur le PC. Rayfield est allé jusqu'à souligner qu'il s'agit d'un moment décisif dans l'espace PC, avec l'intégration d'un traitement efficace de l'IA client local et ce que cela rendra possible. "Nous prenons ce tournant dans les PC où l'interface va radicalement changer", a-t-il déclaré. "L'interface utilisateur changera davantage au cours des cinq prochaines années qu'elle ne l'a fait au cours des 20 dernières... dans le bon sens."
Intel se voit idéalement positionné pour tirer parti de l'IA et mettre la table pour des expériences utiles pour les utilisateurs finaux à mesure que la technologie évolue. Rayfield a souligné, pour sa part, que la latence est un problème avec l'IA lorsque l'IA est intégrée dans une interface utilisateur. Sur la base des expériences informatiques passées, l'utilisateur s'attend à des réponses instantanées, que les solutions basées sur le cloud ne peuvent tout simplement pas égaler. Il existe également des défis fondamentaux concernant le coût de la mise à l'échelle des applications d'IA comme ChatGPT pour plusieurs millions d'utilisateurs de PC. C'est tout simplement un coût prohibitif, par rapport au fait de mettre une partie de cette charge de traitement du côté client. Faire une partie du travail localement permet une mise à l'échelle distribuée massive, un meilleur contrôle de la confidentialité (vos données restent locales) et une faible latence (le calcul se produit sur votre appareil).
Comment cela se passe-t-il réellement dans les termes informatiques actuels ? Aujourd'hui, l'IA est utilisée dans les plates-formes clientes pour des choses comme le remplacement en temps réel de l'arrière-plan et le flou dans les appels vidéo, et la réduction du bruit à la volée. Ces tâches utilisent des modèles d'inférence qui fonctionnent sur CPU et GPU ; à mesure que les effets augmentent et que les attentes des utilisateurs augmentent, les problèmes de calcul deviennent plus exigeants et la consommation d'énergie peut également devenir un problème. Cela dit, les formes d'IA les plus importantes et les plus identifiables qui prennent d'assaut le monde, comme ChatGPT et Stable Diffusion(Opens in a new window), sont basées sur le cloud. Rayfield a cité certaines statistiques suggérant une multiplication par 50 des demandes de puissance de calcul de 2021 à 2023 pour la suppression dynamique du bruit, et des gains encore plus énormes dans les demandes de travail d'IA générative basé sur de grands modèles de langage (LLM), par exemple Microsoft Co- Pilote. Ces demandes qui montent en flèche signifient un grand potentiel pour décharger une partie de ce besoin sur l'inférence locale à de faibles niveaux de puissance.
Le VPU qui arrive sous forme de tuile sur Meteor Lake est un accélérateur neuronal. Le CPU et le GPU auront toujours leurs propres tâches, et cela restera une plate-forme hétérogène, mais il y a des avantages majeurs à mettre la charge sur le VPU pour les tâches d'IA lourdes. Cela dit, certaines petites tâches liées à l'IA resteront gérées par la partie CPU, au cas par cas, si cela ne vaut pas la peine de les pousser via le pilote de périphérique.
Alors que le travail fondamental d'Intel avec Microsoft au cours des dernières années sera essentiel, le fabricant de puces déploie également des efforts dans une variété de canaux. Prenez, par exemple, ONNX, qui est un format de conteneur open source d'IA auquel Intel contribue ; la société a également fait des efforts pour exposer l'accélération à faible consommation d'énergie des VPU aux applications Web. La société a également contribué aux efforts avec des utilitaires clés tels que Open Broadcaster System (OBS), Audacity et Blender pour créer des plug-ins qui permettront à ces logiciels phares de tirer parti du VPU.
En outre, la société dispose de sa propre pile d'outils OpenVINO pour l'IA, centrée sur le mappage des charges de travail sur différentes tuiles et l'optimisation des charges de travail pour les différents moteurs. Intel travaille également avec une multitude d'ISV qui pourront utiliser le VPU pour faciliter les expériences générales d'IA. Aujourd'hui, des exemples de ceux-ci incluent l'application d'un flou d'arrière-plan sans corrompre les objets de premier plan, ce qui est en fait assez gourmand en calcul pour bien faire.
Ceci, combiné aux efforts de l'open source, est une pièce nécessaire du puzzle. "Plus de 75 % d'entre eux sont un problème logiciel", a déclaré Rayfield. "Nous sommes principalement une entreprise de matériel, mais le problème réside principalement dans le logiciel."
Donc, en ce qui concerne la démo montrée sur place au Computex : c'était du matériel très ancien, et très ancien. Intel a travaillé avec l'un de ses équipementiers système pour produire une plate-forme mobile (ordinateur portable) de démonstration. Le nom du fabricant du système a été dissimulé avec goût par des autocollants Intel. Et dans le vrai format de démonstration, il a fallu un certain effort pour travailler avec. Par exemple, le clavier du premier ordinateur portable n'était pas opérationnel.
Cependant, Rayfield et le reste du groupe Intel ont démontré l'utilisation du générateur d'images Stable Diffusion AI, exécuté localement, avec une combinaison de CPU, GPU et VPU, dans l'éditeur d'images open source GIMP. Il a été exécuté à l'aide d'un plug-in OpenVINO.
Les tâches de génération d'images ont été exécutées sur le système proprement dit, l'ordinateur portable n'étant pas du tout connecté à Internet. Les mêmes graines dans Stable Diffusion ont été conservées de manière cohérente d'une course à l'autre. Ici, vous pouvez voir les résultats de diffusion stable de l'invite de démonstration, qui était "un astronaute à cheval sur la lune".
Avec le gestionnaire de tâches de Windows 11 en direct, il était clair que le moteur neuronal VPU ("NPU" dans l'image ici) était touché au cours de l'exécution. (L'image ci-dessous est juste pour illustrer le VPU/NPU dans le Gestionnaire des tâches ; le graphique de charge est plat puisque la démo était terminée quand cela a été tourné.) Comme l'a expliqué Rayfield, à Meteor Lake, le package de processeur dans son ensemble comprendra quatre tuiles, chacune étant un SOC, et l'une d'elles le VPU.
En fin de compte, nous verrons probablement Meteor Lake dans les ordinateurs portables en premier, en particulier dans le segment mobile mince et léger. C'est dans ce type de PC qu'un VPU peut le plus contribuer à l'efficacité énergétique, car les fonctions d'intelligence artificielle sont intégrées dans les logiciels et plug-ins à venir. Finalement, cependant, le VPU s'adaptera à tous les segments Meteor Lake, et tous les SKU de la gamme Meteor Lake intégreront une tuile VPU.
Intel dit qu'il a l'intention d'expédier Meteor Lake d'ici la fin de 2023, et plus de détails seront dévoilés au cours de l'été dans la perspective de la sortie. Restez à l'écoute!
Inscrivez-vous à Quoi de neuf maintenantpour recevoir nos meilleures histoires dans votre boîte de réception tous les matins.
Cette newsletter peut contenir des publicités, des offres ou des liens d'affiliation. L'inscription à une newsletter indique votre consentement à nos conditions d'utilisation et à notre politique de confidentialité. Vous pouvez vous désabonner des newsletters à tout moment.
Votre abonnement a été confirmé. Gardez un œil sur votre boîte de réception !
Quoi de neuf maintenant