Meta et Oracle optent pour Spectrum-X pour leurs centres IA

Meta et Oracle optent pour Spectrum-X pour leurs centres IA

Meta et Oracle adoptent les commutateurs Ethernet NVIDIA Spectrum-X pour leurs centres de données IA

Meta et Oracle modernisent leurs infrastructures d'intelligence artificielle en intégrant les commutateurs Ethernet NVIDIA Spectrum-X. Ce matériel de réseau dernière génération est conçu spécifiquement pour répondre aux besoins croissants des systèmes d'IA à grande échelle.

Les deux géants technologiques ont choisi Spectrum-X dans le cadre d’une stratégie d’architecture réseau ouverte. Ce choix vise à améliorer l’efficacité de l’entraînement des modèles d’IA et à accélérer le déploiement à grande échelle de clusters de calcul massifs.

NVIDIA Spectrum-X : la colonne vertébrale des usines d’IA à l’échelle giga

Jensen Huang, fondateur et PDG de NVIDIA, a déclaré que les modèles à mille milliards de paramètres transforment les centres de données en « usines d'intelligence artificielle à échelle giga ». Il précise que Spectrum-X agit comme le « système nerveux » reliant des millions de GPU pour entraîner les plus grands modèles jamais conçus.

Oracle prévoit d’implémenter Spectrum-X au sein de son architecture Vera Rubin afin de construire des usines d’IA à très grande échelle. Mahesh Thiagarajan, vice-président exécutif d'Oracle Cloud Infrastructure, affirme que cette technologie permettra une connexion plus efficace de millions de GPU, accélérant ainsi l'entraînement et la mise en production des modèles d’IA.

De son côté, Meta intègre Spectrum-X à Facebook Open Switching System (FBOSS), son système interne de gestion des commutateurs réseau. Gaya Nagarajan, vice-président en ingénierie réseau chez Meta, souligne la nécessité d’un réseau ouvert et performant pour accompagner la montée en puissance des modèles d’IA et offrir une expérience fluide à des milliards d’utilisateurs.

Des systèmes IA flexibles et modulables

Joe DeLaere de NVIDIA explique que la flexibilité est essentielle dans les centres de données modernes. Grâce au système modulaire MGX, NVIDIA permet une combinaison personnalisée de processeurs, GPU, composants de stockage et de réseau, offrant ainsi une architecture adaptable et évolutive.

Ce système facilite également l’interopérabilité entre différentes générations matérielles, garantissant :

  • Une mise sur le marché plus rapide
  • Une évolutivité maximale
  • Une grande efficacité énergétique

Parmi les innovations notables : le passage à une alimentation en courant continu de 800 volts, qui réduit la perte de chaleur et améliore l’efficacité énergétique.

Passage à l’échelle pour les centres de données IA

Grâce au système MGX, NVIDIA permet une évolutivité verticale avec NVLink, et horizontale avec Spectrum-X Ethernet, tout en offrant la possibilité de connecter entre eux plusieurs centres de données à travers une architecture unifiée.

Meta, par exemple, peut ainsi disposer d’un réseau distribué performant pour l'entraînement de modèles d’IA de plus en plus massifs. Le système prend en charge des fonctionnalités comme le support multi-OS (FBOSS, Cumulus, SONiC, Cisco NOS), offrant ainsi une standardisation adaptable à divers environnements d’entreprise.

Vers un écosystème IA plus ouvert et performant

Spectrum-X a été conçu spécifiquement pour les charges de travail IA : entraînement, inférence, traitement parallèle. Résultat : jusqu’à 95 % de bande passante efficace, dépassant de loin les performances de l’Ethernet traditionnel.

Des collaborations stratégiques avec xAI, Cisco, Oracle et Meta permettent une adoption plus large du système, tant chez les hyperscalers que dans les entreprises de taille intermédiaire.

Préparation de l’ère Vera Rubin

NVIDIA prévoit de lancer l’architecture Vera Rubin à la fin de 2026, avec un premier produit baptisé Rubin CPX prévu pour la fin de l'année. Elle fonctionnera de pair avec Spectrum-X pour donner vie aux futures usines d’IA.

Notons que Spectrum-X et la technologie XGS partagent le même matériel de base mais utilisent des algorithmes adaptés à des distances différentes : Spectrum-X pour l'intérieur des centres de données, XGS pour les connexions inter-centres.

Une chaîne énergétique optimisée

Pour accompagner le passage à l’alimentation 800V DC, NVIDIA collabore avec plusieurs partenaires industriels :

  • Composants d'alimentation : Onsemi, Infineon
  • Intégration au niveau du rack : Delta, Flex, Lite-On
  • Infrastructure globale : Schneider Electric, Siemens

Un livre blanc technique détaillant cette approche sera présenté lors de l’OCP Summit.

Des performances taillées pour les hyperscalers

Grâce à ses fonctions d’acheminement adaptatif et de gestion de congestion basée sur la télémétrie, Spectrum-X permet :

  • Une suppression efficace des congestions réseau
  • Un traitement stable et rapide des données
  • L’exécution simultanée de multiples charges IA sans interférence

C’est aujourd’hui la seule technologie Ethernet capable de s’adapter aux échelles extrêmes, garantissant ainsi aux entreprises un meilleur retour sur investissement de leurs GPU.

Matériel et logiciel : une co-conception pour maximiser les performances

En parallèle du matériel, NVIDIA investit dans l’optimisation logicielle avec des frameworks comme TensorRT-LLM et Dynamo, ainsi que des algorithmes innovants tels que le décodage spéculatif.

L’objectif : maintenir des niveaux de performance IA élevés et constants pour des entreprises comme Meta qui dépendent de modèles génératifs très gourmands.

Un réseau conçu pour l’ère des modèles à mille milliards de paramètres

La plateforme Spectrum-X — incluant des commutateurs Ethernet intelligents et des cartes SuperNIC — a été spécifiquement développée pour répondre aux immenses exigences des charges IA modernes.

Grâce à sa technologie de contrôle de congestion innovante, elle atteint jusqu'à 95 % de débit réseau, contre 60 % pour l’Ethernet classique. La version XGS permet par ailleurs la communication ultra-rapide entre centres de données éloignés.

En combinant GPU, CPU, NVLink et logiciels optimisés, Spectrum-X assure des performances constantes, essentielles pour les modèles d’IA à très grande échelle et les futures applications en intelligence artificielle générative.

(Photo : NVIDIA)

À lire aussi : OpenAI et NVIDIA prévoient un accord à 100 milliards $ pour l’avenir de l’IA

Envie de découvrir plus d’actualités sur l’IA et le Big Data ? Participez à l’AI & Big Data Expo à Amsterdam, Californie ou Londres — un événement co-organisé par TechEx.

@ReservoirLive