www.industrie-afrique-du-nord.com

Intel et Google étendent leur collaboration en matière d’infrastructures d’IA

Intel et Google élargissent leur collaboration visant à faire progresser l’infrastructure d’IA, en mettant l’accent sur l’intégration à grande échelle des CPU et des unités de traitement d’infrastructure personnalisées (IPU).

  www.intel.com
Intel et Google étendent leur collaboration en matière d’infrastructures d’IA

L’infrastructure des centres de données, le cloud computing et la conception des systèmes d’IA reposent de plus en plus sur des architectures hétérogènes combinant traitement généraliste et spécialisé. Dans ce contexte, Intel et Google ont annoncé une extension de leur collaboration pluriannuelle pour faire progresser l’infrastructure d’IA, en mettant l’accent sur l’intégration à grande échelle des CPU et des unités de traitement d’infrastructure personnalisées (IPU).

Le partenariat aligne plusieurs générations de processeurs Intel Xeon sur l’infrastructure cloud de Google, tout en étendant la co-développement d’IPU basées sur ASIC afin de répondre aux exigences de performance, d’efficacité et d’optimisation au niveau du système.

Rôle des CPU dans les systèmes d’IA hétérogènes
À mesure que la complexité des charges de travail d’IA augmente, les CPU restent essentiels pour l’orchestration, la gestion des données et la coordination globale du système. Google continue de déployer des processeurs Intel Xeon dans ses instances cloud, y compris les dernières plateformes Xeon 6 utilisées dans des environnements optimisés pour des charges de travail spécifiques.

Ces systèmes prennent en charge un large éventail d’applications, allant de la coordination de l’entraînement d’IA à grande échelle à la mise en œuvre d’inférences à faible latence et au calcul généraliste. L’intégration des CPU garantit que les accélérateurs d’IA fonctionnent efficacement au sein d’une architecture système plus large.

Extension du co-développement des IPU pour l’accélération de l’infrastructure
Parallèlement, la collaboration fait progresser le développement d’IPU personnalisées basées sur ASIC, conçues pour décharger le CPU des tâches liées à l’infrastructure telles que le réseau, la gestion du stockage et la sécurité.

En transférant ces fonctions vers des processeurs dédiés, les IPU améliorent l’utilisation des ressources et permettent des performances système plus prévisibles. Cette approche augmente également la capacité de calcul effective des centres de données sans nécessiter une augmentation proportionnelle de la complexité matérielle.

Équilibrer performance et efficacité à grande échelle
La combinaison de CPU Xeon et d’IPU crée une architecture équilibrée intégrant traitement généraliste et accélération ciblée. Cela est particulièrement pertinent dans les environnements hyperscale, où l’efficacité, l’évolutivité et le contrôle des coûts sont des facteurs essentiels.

Selon Intel, la mise à l’échelle des systèmes d’IA nécessite une coordination entre plusieurs couches de traitement, plutôt qu’une dépendance exclusive aux accélérateurs. La collaboration vise à optimiser cet équilibre afin de répondre à des exigences d’infrastructure croissantes.

Applications dans le cloud et les services d’IA
Les technologies développées dans le cadre de ce partenariat sont destinées à être déployées sur des plateformes cloud, soutenant les applications d’IA d’entreprise, l’analyse de données et les services de calcul à grande échelle. En améliorant l’efficacité et la flexibilité de l’infrastructure, la collaboration contribue au développement de services d’IA évolutifs pour un large éventail d’utilisateurs.

Publié par Natania Lyngdoh, rédactrice pour Induportals — Adapté par IA.

www.intel.com

  Demander plus d’information…

LinkedIn
Pinterest

Rejoignez nos 155 000 followers (pour IMP)