Oracle, Microsoft et OpenAI ont annoncé avant-hier un partenariat stratégique visant à intégrer Oracle Cloud Infrastructure (OCI) à la plateforme Microsoft Azure AI. Cette collaboration vise à offrir des capacités supplémentaires à OpenAI qui jusqu’à présent s’appuyait uniquement sur Microsoft Azure pour ses besoins de calcul.
Le supercalculateur sur lequel ChatGPT a été entraîné, construit pour OpenAI par Microsoft et hébergé sur Azure, dispose de plus de 10 000 GPU. Pour maintenir ses opérations et continuer à innover dans le domaine de l’IA générative, la start-up a aujourd’hui besoin de GPUs supplémentaires. Cela fait d’ailleurs un certain temps que, face à la pénurie et au coût des puces nécessaires pour alimenter ses projets, elle envisagerait de fabriquer ses propres puces d’IA.
Sam Altman souligne :
“Nous sommes ravis de travailler avec Microsoft et Oracle. OCI étendra la plateforme Azure et permettra à OpenAI de continuer à évoluer“.
Retour sur la collaboration Microsoft-Oracle
La collaboration entre Microsoft et Oracle a débuté officiellement en juin 2019 avec l’annonce d’une interconnexion directe entre Microsoft Azure et Oracle Cloud Infrastructure. Cet accord initial visait à faciliter l’interopérabilité entre les deux plateformes, offrant aux entreprises la possibilité de migrer et de gérer des workloads critiques entre Azure et OCI.
En novembre dernier, les deux entreprises ont annoncé un accord pluriannuel permettant à Microsoft d’utiliser l’infrastructure d’IA d’OCI, en combinaison avec l’infrastructure d’IA de Microsoft Azure, pour inférer des modèles d’IA optimisés, notamment pour alimenter les recherches conversationnelles de Microsoft Bing.
Les modèles d’inférence utilisés par Microsoft Bing et ChatGPT nécessitent en effet des milliers d’instances de calcul et de stockage ainsi que des dizaines de milliers de GPU, fonctionnant en parallèle comme un superordinateur unique sur un réseau multi-terabit.
OCI : Une infrastructure à la pointe de la technologie pour l’IA
Les fonctionnalités d’IA sur mesure d’OCI permettent aux startups et aux grandes entreprises de créer et d’entraîner des modèles plus rapidement et de manière plus fiable dans le cloud distribué d’Oracle. Pour l’entraînement des modèles de langage de grande taille (LLM), OCI Supercluster peut évoluer jusqu’à 64 000 GPU NVIDIA Blackwell ou GB200 Grace Blackwell Superchips, connectés par un réseau de cluster RDMA à très faible latence et un choix de stockage HPC. De plus, les machines virtuelles OCI Compute et les instances NVIDIA GPU bare metal d’OCI peuvent exécuter une vaste gamme d’applications d’IA, incluant la vision par ordinateur, le traitement du langage naturel et les systèmes de recommandations.
Cette infrastructure offre aux entreprises les outils nécessaires pour innover et rester compétitives dans un paysage technologique en constante évolution. Elle permet une intégration fluide et efficace des capacités d’IA, optimisant ainsi les performances et la rentabilité. Des entreprises comme Adept, Modal, MosaicML, NVIDIA, Reka, Suno, Together AI, Twelve Labs, xAI, la start-up d’Elon Musk, l’utilisent pour l’entraînement et l’inférence de leurs modèles d’IA de nouvelle génération.
Larry Ellison, président et directeur technique d’Oracle, déclare au sujet de ce partenariat avec OpenAI :
“La course à la création du plus grand modèle de langage au monde est lancée, et elle alimente une demande illimitée pour l’infrastructure d’IA Gen2 d’Oracle. Des leaders comme OpenAI choisissent OCI parce qu’il s’agit de l’infrastructure d’IA la plus rapide et la plus rentable au monde”.
Sam Altman a tenu à préciser sur Linkedin :
“Nous voulons clarifier une certaine confusion par inadvertance. Notre relation stratégique avec Microsoft en matière de cloud est inchangée. Le partenariat avec OCI permet à OpenAI d’utiliser la plateforme Azure AI sur l’infrastructure OCI pour l’inférence et d’autres besoins. Tout le pré-entraînement de nos modèles de pointe continue de se produire sur des supercalculateurs construits en partenariat avec Microsoft”.