AI-nervositeit bespeelt de beurs. Deze keer heerst er onzekerheid over de geplande deal tussen Nvidia en OpenAI voor 100 miljard dollar. Wat is er precies aan de hand?
Toen Nvidia en OpenAI de deal in september aankondigden, waren sceptici snel te vinden. Een kleine groep aan prominente techbedrijven overhandigde al langer geld aan elkaar. De beste samenvatting was visueel: Bloomberg liet het circulaire traject van de financiën van onder meer Nvidia, AMD, Oracle, OpenAI en CoreWeave duidelijk blijken. In het geval van de Nvidia-OpenAI-deal zou de investering van 100 miljard dollar ten goede komen aan nieuwe AI-infrastructuur, veelal gevuld met Nvidia-hardware die weer met dat investeringsgeld betaald wordt.
AI-verdoemenis
Circulaire deals of niet, vertrouwen in de AI-opmars bleef onder investeerders hoog. De afgelopen dagen is de twijfel terug op een manier die doet denken aan de beursdalingen die gepaard gingen met de aankondiging van DeepSeek R1 begin vorig jaar. Nu zou OpenAI ontevreden zijn over sommige Nvidia-chips en op zoek zijn naar alternatieven. Kort erna volgde berichtgeving over een mogelijke investering vanuit Nvidia voor OpenAI ter waarde van 20 miljard dollar. Nvidia-CEO Jensen Huang en OpenAI-topman Sam Altman proberen de gemoederen te sussen, maar investeerders lijken niet gerustgesteld.
Ondertussen heeft Claude Cowork, een AI-tool met de mogelijkheid om complexe workflows te automatiseren, tevens de negatieve nieuwscyclus voor verschillende aandelen gevoed. Hierbij gaat het om SaaS-applicaties die mogelijk volledig te vervangen zijn door AI. Die gedachte is al wel vaker naar voren gekomen, onder andere bij de onthulling van Computer Use-modellen en agentic developer-tools als Devin. Tot nu toe is de belofte niet waargemaakt en herstelt de markt snel weer.
Maar voorspellers van een barstende AI-bubbel zien voldoende bewijs voor een werkelijke ommekeer nu. Gary Marcus, een AI-expert die al drie jaar lang zich negatief heeft uitgelaten over generatieve AI en afgeleide innovaties, ziet de domino’s al omvallen. De vraag is echter of deze ‘weggevallen’ deal van 100 miljard wel is weggevallen, en of er niet andere redenen zijn voor Nvidia om OpenAI minder financiën toe te stoppen.
Een web aan mogelijkheden
Allereerst leken chipbedrijven afhankelijker van OpenAI dan nu het geval blijkt te zijn. Nvidia en AMD hebben weliswaar al langer meerdere grote klanten zoals hyperscalers Microsoft, Google en Amazon, maar waren onder de streep gebonden aan het succes van OpenAI door de dominantie van ChatGPT en de achterliggende GPT-modellen. Nu de specifieke AI-modellen minder relevant zijn gebleken voor AI-succes dan de implementatie ervan, moeten LLM-providers meer bieden dan alleen de fundamentele technologie. Anthropic hoefde dat niet twee keer te horen en is geruime tijd bezig met tools als Claude Code en Cowork. Google heeft Gemini in alle applicatielagen geïntroduceerd en in producten als NotebookLM geïntegreerd. Daarbovenop wint de Gemini-chatbot in populariteit van ChatGPT, waardoor de introductie van reclame in laatstgenoemde app een kleinere afzetmarkt krijgt dan voorheen voor de hand lag.
Het kan tevens zo zijn dat Nvidia best bereid was geweest om 100 miljard dollar in OpenAI te investeren, maar dat het niet verwacht dat het dat geld ook weer terugziet. Ondanks het feit dat het met circa 90 procent marktaandeel dominant is op het gebied van datacenter-GPU’s, produceert het als fabless bedrijf zelf geen chips. TSMC’s capaciteit geldt als bottleneck voor Nvidia. Voor de AI-uitbouw blijft energie de grotere beperking, maar aangezien talloze Nvidia-klanten liever chips opkopen om ze in een magazijn te bewaren dan ze naar een concurrent laten gaan, blijft de verkoop sterk. Het is daarom geen verrassing dat Huang stelde dat TSMC haar capaciteit misschien wel moet verdubbelen in het komende decennium.
Inferencing-stap
Voor OpenAI is de liefde met Nvidia eveneens bekoeld om een andere reden. Ondanks het feit dat elke benchmark Nvidia’s Blackwell Ultra-chips als de state-of-the-art voor AI-prestaties laat zien, is voor inferencing (het werkelijk draaien van AI, niet het trainen vooraf) efficiëntie regelmatig belangrijker. Op dat front hoopt OpenAI op den duur zelf een chip te produceren met een ideaal ontwerp voor de eigen modellen. Het lijkt er niet op dat dit op korte termijn lukt. Enkel Google’s TPU’s zijn een reëel alternatief voor Nvidia op alle AI-fronten, van training tot inferencing.
Zo lijkt de huidige padstelling grotendeels technisch van aard te zijn, of in ieder geval technische verklaringen te kennen. Alternatieve investeerders voor OpenAI zijn nog steeds talrijk, ook al heeft de beurstumult de positie van onder meer Oracle onder druk gezet als geldschieter. Vooralsnog stellen hyperscalers als Alphabet en Amazon nog steeds dat ze talloze miljarden committeren aan de uitrol van AI-infrastructuur. De reacties daarop waren opnieuw huiverig vanuit investeerders. Er zijn beginnende tekenen van een trend, maar het is nog te vroeg om te stellen dat het vermeende kaartenhuis instort. Immers was de DeepSeek-onrust begin 2025 uiteindelijk positief uitgelegd: waarom zouden kleinere, capabelere AI-modellen moeten leiden tot minder AI-investeringen? Deze keer wordt de rationalisering voor verdere beursgroei lastiger om te formuleren, omdat er werkelijk een afbraak in vertrouwen tussen twee van de grootste AI-spelers bestaat. Het kan ook zo zijn dat OpenAI, al langere tijd afhankelijk van grote investeringsronde, de enige domino is die echt omvalt als de populariteit van ChatGPT blijft afnemen ten opzichte van de concurrentie en andere vendoren een sterker product rondom LLM’s bouwen.