2min Devices

Nvidia werkt aan chip voor AI-inferencing met Groq-technologie

Nvidia werkt aan chip voor AI-inferencing met Groq-technologie

Naast GPU’s die het leeuwendeel van AI-training verwerken, wil Nvidia een chip introduceren voor het dagelijks draaien van AI-workloads. Dankzij de overgenomen expertise van startup Groq hoopt het bedrijf AI-spelers zoals OpenAI te voorzien van zuinige processoren om hun AI-diensten te draaien.

De chip zou de komende maand tijdens Nvidia GTC ten tonele kunnen verschijnen. OpenAI zou volgens de Wall Street Journal vroege toegang tot de nieuwe processor hebben gekregen. Vrijdagavond meldde het nieuwsmedium dat Nvidia hiermee de opkomende concurrentie wil dwarsbomen. Op het gebied van AI-training lijkt het ongenaakbaar, alhoewel Google met de Tensor Processing Unit en AMD met haar GPU’s reële alternatieven zijn.

Wat inferencing betreft zijn de opties talrijk. Zo hebben AWS en Google Cloud hier chips voor in de public cloud, terwijl menig startup poogt een goedkoper en efficiënter alternatief te leveren voor inferencing. Dat Nvidia zelf nu een dedicated inferencing-platform ontwikkelt, is dan ook geen verrassing. Het bedrijf sloot in december een licentiedeal van 20 miljard dollar met Groq, waarbij het ook oprichter Jonathan Ross en president Sunny Madra in dienst nam. Groq’s zogenoemde Language Processing Units (LPU’s) zijn gebouwd op een volledig nieuwe architectuur die inferencing met aanzienlijk minder energieverbruik uitvoert.

Hoe Nvidia de technologie precies integreert, heeft het bedrijf nog niet bekendgemaakt. De GTC 2026-conferentie start op 16 maart in San Jose, dus dan zullen we meer duidelijkheid verwachten. Het is opvallend dat OpenAI een vroege klant is, want het was al langere tijd op zoek naar snellere alternatieven voor Nvidia’s GPU’s vanwege onvrede over de inferencing-snelheid bij specifieke taken, waaronder softwareontwikkeling. Vorige maand sloot het nog een deal met Cerebras voor inferencing-chips. Die twee zaken staan naast elkaar.

OpenAI als vroege gebruiken

Tegelijkertijd ontving OpenAI vorige week 30 miljard dollar van Nvidia als onderdeel van een mega-investering van in totaal 110 miljard dollar. Het lijkt er dus op dat de rust tussen beide partijen is wedergekeerd. De nieuwe inferencing-chip zou OpenAI willen gebruiken voor Codex, de eigen programmeertool waarmee het strijdt met Anthropic’s Claude Code. Coding is een van de meest winstgevende use cases voor generatieve AI, en een terrein waarop OpenAI momenteel tweede staat. Claude Code is in feite de standaard voor programmeurs die met AI werken, afgezien van oplossingen die bedrijven intern hebben ontwikkeld of afnemen.