Nvidia CEO Jensen Huang a récemment déclaré lors d’une conférence organisée par Morgan Stanley que l’entreprise aurait investi 30 milliards de dollars dans la startup d’intelligence artificielle OpenAI, ce qui pourrait être la dernière étape avant son introduction en bourse (IPO) prévue à la fin de l’année. Cette déclaration confirme que le partenariat d’infrastructure d’une valeur de 100 milliards de dollars, largement discuté en septembre dernier, ne sera pas réalisé. Par ailleurs, l’investissement de Nvidia de 10 milliards de dollars dans une autre entreprise d’IA, Anthropic, devrait également prendre fin.
Stratégie de financement et d’investissement de Nvidia dans OpenAI
Nvidia a récemment participé à une nouvelle levée de fonds d’un total de 110 milliards de dollars pour OpenAI, avec une contribution de 30 milliards de dollars de Nvidia, tandis qu’Amazon et SoftBank ont respectivement promis 50 milliards et 30 milliards de dollars. Selon CNBC, lors de la conférence organisée par Morgan Stanley, Jensen Huang a indiqué que, puisque OpenAI prévoit une IPO d’ici la fin de l’année, le partenariat d’infrastructure d’une valeur de 100 milliards de dollars discuté précédemment n’était plus réalisable. Cela montre une approche plus prudente dans la gestion des investissements de Nvidia, et Huang a également annoncé que l’investissement de 10 milliards de dollars dans Anthropic serait mis en pause.
(Huang Jensen répond à WSJ : pas de mécontentement envers OpenAI, pas d’engagement d’investissement de 1000 milliards de dollars)
Sécurisation des ressources de calcul et déploiement d’infrastructures
Dans le cadre de cet accord, OpenAI a sécurisé une capacité de calcul exclusive de 3 GW pour l’inférence sur le système Vera Rubin de Nvidia, ainsi que 2 GW pour la formation, ce qui est crucial pour ses opérations de centres de données. Contrairement à septembre dernier, où l’on devait respecter le calendrier de lancement d’un nouveau système, cet investissement n’est pas lié à des jalons spécifiques de déploiement. Cela reflète une évolution dans la demande de l’industrie, qui se tourne vers des infrastructures plus flexibles et immédiatement exploitables.
Transformation des besoins industriels : du entraînement à l’inférence
Avec la maturation de la technologie, les besoins matériels de l’industrie de l’IA évoluent du « entraînement de modèles » vers une phase d’« inférence » nécessitant des réponses rapides. Pour répondre à cette tendance, Nvidia développe de nouvelles puces optimisées pour l’inférence, dont OpenAI prévoit de devenir un client principal. Par ailleurs, OpenAI intègre également des puces d’optimisation d’inférence d’Amazon et des TPU de Google, ce qui montre que les entreprises clés de l’IA cherchent à diversifier leur chaîne d’approvisionnement et à réduire leur dépendance à un seul fournisseur de matériel.
Cet article, Jensen Huang : Nvidia met fin à ses investissements dans OpenAI et Anthropic, a été publié initialement sur Chain News ABMedia.