Le véritable nerf de la guerre s'est déplacé. Il ne s'agit plus seulement de savoir qui possède le modèle le plus intelligent, mais qui détient le moteur capable de le faire tourner à la vitesse de la pensée. Alors que le monde a les yeux rivés sur les performances logicielles, une tectonique des plaques s'opère dans les tréfonds du hardware, là où des milliards de dollars sont déplacés pour sécuriser la seule ressource que l'argent peine encore à acheter : l'immédiateté.

OpenAI vient de signer un accord colossal de plus de 10 milliards de dollars avec Cerebras Systems. L'objectif ? Sécuriser jusqu'à 750 mégawatts de puissance de calcul d'ici 2028, non pas pour entraîner ses modèles, mais pour propulser l'inférence (l'exécution) de ChatGPT avec une latence quasi nulle.

  • Capacité Massive : Le contrat porte sur l'acquisition de puissance de calcul via les supercalculateurs de Cerebras, dont la capacité sera déployée par tranches successives sur trois ans.

  • Focus Inférence : Contrairement aux GPU Nvidia H100 souvent monopolisés par l'entraînement (training), les puces géantes "Wafer-Scale" de Cerebras seront dédiées à l'exécution des modèles de raisonnement, là où la vitesse de réponse est critique pour l'UX.

  • Contexte IPO : Ce deal offre une légitimité commerciale cruciale à Cerebras juste avant sa nouvelle tentative d'entrée en Bourse (prévue au T2 2026), tout en diversifiant ses revenus historiquement dépendants du groupe émirati G42.

Ce qu’il faut retenir : Ce mouvement marque un tournant stratégique : le coût de l'inférence devient le nouvel enjeu financier majeur de l'IA générative. En s'alliant à Cerebras (dont Sam Altman est un investisseur historique), OpenAI envoie un signal fort de diversification pour réduire sa dépendance quasi-totale envers Nvidia, tout en pariant sur une architecture hardware radicalement différente pour gagner la bataille de la latence.

🛰️ Le radar du Big Data

ClickHouse, plateforme de gestion de données orientée IA, a levé 400 millions de dollars dans une série D de financement pour accélérer le développement de ses solutions dédiées aux applications d’intelligence artificielle et aux workflows de données massifs. Cette levée signale une forte confiance des investisseurs dans le rôle central des bases de données optimisées IA pour l’avenir de l’infrastructure Big Data.

Cisco serait en discussion pour un accord évalué à 2 milliards de dollars avec Axonius, un acteur de la cybersécurité orienté IA, afin de renforcer sa stratégie dans l’infrastructure IA, la sécurité et les revenus récurrents. Ce mouvement s’inscrit dans la tendance des équipementiers réseau historiques à se repositionner sur les besoins d’infrastructure IA/Sécurité. 

Continuez à lire