Dans l'arène impitoyable des semi-conducteurs, où la vitesse d'inférence est devenue le nouveau nerf de la guerre, les géants ne se contentent plus de battre leurs rivaux : ils les absorbent. Alors que la Silicon Valley retenait son souffle face à la montée en puissance des nouvelles architectures de puces, Nvidia vient de jouer une partition magistrale, transformant une menace existentielle en un atout stratégique majeur qui pourrait redéfinir l'économie de l'intelligence artificielle pour la prochaine décennie.
Nvidia a conclu un accord complexe estimé à 20 milliards de dollars avec Groq, son principal rival sur le marché de l'inférence. Loin d'une acquisition traditionnelle, il s'agit d'un accord de licence non exclusif couplé à un recrutement massif ("acqui-hire"). Nvidia s'empare de la technologie LPU et des talents clés, dont le PDG Jonathan Ross, tout en laissant Groq exister en tant qu'entité indépendante allégée.

Absorption des talents et de l'IP : Jonathan Ross (créateur du TPU de Google et fondateur de Groq) et Sunny Madra (Président) rejoignent Nvidia avec une partie des équipes d'ingénierie. Nvidia obtient une licence sur l'architecture LPU (Language Processing Unit), réputée 10x plus rapide que les GPU pour l'inférence.
Structure de l'accord : Contrairement aux rumeurs de rachat total, Groq continue d'opérer indépendamment sous la direction de son ex-CFO, Simon Edwards. Le service GroqCloud reste actif, mais la "matière grise" qui a fait le succès de Groq passe chez les Verts.
Valorisation record : Si le chiffre de 20 milliards de dollars (rapporté par CNBC) se confirme, cela représente une prime massive par rapport à la dernière valorisation de Groq (6,9 milliards en septembre 2025), soulignant l'importance critique de l'inférence pour Nvidia.
Ce qu’il faut retenir : C'est un mouvement défensif et offensif brillant. Nvidia neutralise son concurrent le plus dangereux sur l'inférence (l'exécution des modèles IA) sans subir les foudres immédiates des régulateurs antitrust, car l'entreprise Groq survit. En intégrant le savoir-faire du LPU à son écosystème "AI Factory", Nvidia s'assure que ses puces resteront incontournables, même si le marché pivote de l'entraînement vers l'inférence pure.
🛰️ Le radar du Big Data
Un nouveau rapport indique que la capacité des centres de données en Inde devrait passer de 1,5 GW à 14 GW d’ici 2035, propulsée par la demande IA, cloud et 5G. Cette croissance (~20 % CAGR) illustre l’expansion spectaculaire de l’infrastructure numérique dans un marché émergent.
Les start-ups IA ont levé un record historique de 150 milliards $ en 2025, dépassant largement les années précédentes. Cette mobilisation massive de capitaux traduit un appétit énorme pour l’innovation IA malgré les risques de ralentissement du marché.

