Accordo Nvidia–Groq da 20 miliardi: chip per AI Factory e latenza minima
Intesa da 20 miliardi: Nvidia integra la tecnologia di Groq nelle AI Factory per IA in tempo reale. Più efficienza, minore latenza e piattaforme potenziate.
Intesa da 20 miliardi: Nvidia integra la tecnologia di Groq nelle AI Factory per IA in tempo reale. Più efficienza, minore latenza e piattaforme potenziate.
© A. Krivonosov
La statunitense Nvidia, la cui capitalizzazione ha superato i 5.000 miliardi di dollari in ottobre, ha firmato un accordo strategico di licenza da 20 miliardi di dollari con Groq. L’intesa punta a potenziare la forza di calcolo delle cosiddette “fabbriche di IA” — data center di nuova generazione costruiti per l’intelligenza artificiale in tempo reale. Nell’ambito dell’accordo, il fondatore di Groq Jonathan Ross, il presidente Sandeep Madra e diversi ingegneri chiave entreranno in Nvidia. Il loro compito è integrare la tecnologia di Groq nell’ecosistema Nvidia e accelerare lo sviluppo di piattaforme di IA specializzate — una mossa pragmatica che unisce una licenza e le persone che hanno creato la tecnologia.
Groq sviluppa processori ottimizzati per carichi di lavoro di IA ultraveloci, in particolare l’elaborazione del linguaggio naturale. L’azienda afferma che le sue soluzioni garantiscono un guadagno di efficienza energetica pari a dieci volte rispetto alle GPU tradizionali di Nvidia e AMD. Queste caratteristiche rendono i chip di Groq particolarmente appetibili per chatbot, assistenti basati su IA e sistemi in tempo reale, dove contano latenza minima e risposte prevedibili. Se tali efficienze reggono alla scala, l’attrattiva per i servizi live appare evidente.
Il CEO di Nvidia Jensen Huang ha dichiarato che le tecnologie di Groq diventeranno una componente importante dell’architettura Nvidia AI Factory, una piattaforma pensata per il calcolo su larga scala e l’erogazione in tempo reale dei modelli. Secondo lui, l’integrazione dei processori Groq amplierebbe sensibilmente la gamma di attività gestibili dall’ecosistema Nvidia, soprattutto nei servizi ad alto throughput e nelle implementazioni enterprise. Il segnale è chiaro: più carichi in tempo reale riuniti sotto lo stesso tetto del calcolo pesante.
L’intesa arriva mentre la competizione nel mercato dei chip per l’IA si fa più serrata. I principali clienti di Nvidia — tra cui Google e Microsoft — sviluppano sempre più processori proprietari o sostengono architetture alternative per ridurre la dipendenza dalle GPU. Secondo gli analisti, la concessione in licenza della tecnologia e l’assunzione di team, invece delle acquisizioni totali, si sta affermando come tattica preferita dai grandi attori — soprattutto in un contesto di controlli antitrust più stringenti negli Stati Uniti e nell’Unione europea. In questa prospettiva, un accordo flessibile che fa avanzare le capacità senza attirare attriti regolatori appare come la via di minor resistenza.