MENU

Oracle et AMD étendent leur partenariat avec les GPU Instinct

Oracle et AMD étendent leur partenariat avec les GPU Instinct

Nouvelles |
Par Asma Adhimi, A Delapalisse

Cette publication existe aussi en Français


Oracle et AMD étendent leur partenariat de longue date avec un supercluster d’IA de nouvelle génération conçu pour offrir une évolutivité et des performances massives pour les charges de travail d’intelligence artificielle. À partir du troisième trimestre 2026, Oracle Cloud Infrastructure (OCI) deviendra le premier hyperscaler à offrir un cluster de calcul d’IA alimenté par 50 000 GPU AMD Instinct MI450 Series, avec une expansion prévue jusqu’en 2027.

Cette annonce marque une autre avancée majeure dans l’espace concurrentiel de l’infrastructure cloud AI, soulignant comment les fabricants de puces et les hyperscalers s’associent pour répondre à la demande sans précédent de puissance de calcul. En outre, ce partenariat souligne l’importance croissante des normes ouvertes, des conceptions écoénergétiques et des architectures évolutives pour les centres de données et l’écosystème de l’IA en Europe.

La mise à l’échelle pour la prochaine vague d’IA

Les charges de travail d’IA dépassent les limites des clusters actuels, ce qui exige une infrastructure de calcul flexible et performante. Le prochain supercluster d’IA d’Oracle utilisera la nouvelle conception de rack « Helios » d’AMD – intégrant les GPU de la série Instinct MI450, les CPU EPYC de nouvelle génération (nom de code Venice) et le réseau Pensando (nom de code Vulcano). Cette configuration optimisée verticalement vise à offrir des performances et une évolutivité extrêmes tout en minimisant la consommation d’énergie.

« Nos clients créent certaines des applications d’IA les plus ambitieuses au monde, et cela nécessite une infrastructure robuste, évolutive et performante », a déclaré Mahesh Thiagarajan, vice-président exécutif d’Oracle Cloud Infrastructure. « En réunissant les dernières innovations des processeurs AMD avec la plateforme sécurisée et flexible d’OCI et la mise en réseau avancée optimisée par Oracle Acceleron, les clients peuvent repousser les limites en toute confiance. »

Forrest Norrod, vice-président exécutif et directeur général du Data Center Solutions Business Group d’AMD, a ajouté :  » AMD et Oracle continuent de donner le ton de l’innovation en matière d’IA dans le cloud. Avec nos GPU AMD Instinct, nos CPU EPYC et le réseau avancé AMD Pensando, les clients d’Oracle bénéficient de nouvelles capacités puissantes pour former, affiner et déployer la prochaine génération d’IA. »

L’architecture d’Helios

Les nouveaux GPU de la série MI450 disposeront de 432 Go de mémoire HBM4 et d’une bande passante de 20 To/s, ce qui permettra d’entraîner des modèles 50 % plus importants que ceux gérés par les générations précédentes. Les racks Helios, denses et refroidis par liquide, accueilleront chacun 72 GPU et intégreront les interconnexions ouvertes UALink et UALoE pour réduire la latence et rationaliser la communication entre les accélérateurs.

Chaque GPU peut se connecter via jusqu’à trois cartes AI-NIC Pensando « Vulcano » de 800 Gbps, offrant un réseau à grande vitesse et sans perte aligné sur les normes émergentes de l’Ultra Ethernet Consortium (UEC). L’architecture comprendra également des processeurs EPYC de nouvelle génération prenant en charge des calculs confidentiels et une sécurité des données renforcée.

Élargir le portefeuille d’OCI en matière d’IA

Parallèlement au déploiement du MI450, Oracle a également annoncé la disponibilité générale des instances OCI Compute utilisant les GPU AMD Instinct MI355X, disponibles sur sa plateforme Supercluster zettascale pouvant atteindre 131 072 GPU. Ces nouvelles machines visent à offrir aux entreprises et aux organismes de recherche des solutions flexibles et compatibles avec les logiciels libres pour la formation, l’inférence et les charges de travail de calcul à haute performance à grande échelle.

Avec cette dernière expansion, Oracle et AMD misent beaucoup sur un avenir ouvert et économe en énergie pour les infrastructures d’IA à grande échelle, conçues pour gérer les modèles à mille milliards de paramètres de demain.

If you enjoyed this article, you will like the following ones: don't miss them by subscribing to :    eeNews on Google News

Partager:

Articles liés
10s