3min

Tags in dit artikel

, ,

De AI-hype levert Nvidia geen windeieren op. Terwijl we om de oren worden geslagen met aankondigingen van nieuwe Nvidia-partners, lijkt het erop dat het bedrijf met grote tekorten zal blijven kampen gedurende 2023. Wat is een Nvidia-partnerdeal waard als je niet aan bod komt?

Zoals Wccftech rapporteert, rijst de vraag naar AI-accelererende GPU’s de pan uit. Het betekent dat de marktleider Nvidia met een luxeprobleem zit. Daar waar eerst de crypto-hoogtijdagen tijdens de coronapandemie voor uitzonderlijke consumentenprijzen zorgden, is het nu de AI-tech die het bedrijf tot tekorten drijft. Leuk voor Nvidia, maar niet voor de wachtrij die aan het vormen is.

Het vroege besef van Nvidia

Voor het bedrijfsleven begon de AI-hype eind vorig jaar, toen ChatGPT hoge ogen gooide met de veelal geloofwaardige en af en toe hilarische antwoorden die het kon genereren. Inmiddels hebben we veel geschreven over de aard van de technologie die erachter zit: generatieve AI. Zoals bekend kost deze tech ontzettend veel rekenkracht, mede door het verwerken van gigantische datasets die het AI-model voeden. Deze praktijk vindt niet exclusief plaats op Nvidia-chips, maar het is eigenlijk de enige grote speler als het gaat om datacenter- en AI-GPU’s. Google, Meta en Microsoft/AMD timmeren aan de weg, maar Nvidia heeft vooralsnog niks te vrezen.

Nvidia teert bij de AI-hype niet alleen op de machtige positie die het bezit in de laptop-, desktop- en datacenter-markt. Immers had een andere chipgigant al veel eerder op AI in kunnen zetten. Echter was het juist Nvidia die dit deed. Het ontwikkelde tensor cores, die zich specialiseren in taken die in tegenstelling tot de eerder ontwikkelde CUDA-cores uitermate geschikt zijn voor AI. In feite is het ontworpen om tensoren snel te berekenen. Nvidia deed dit omdat het geloofde dat AI-tech de volgende grote stap in de tech-industrie zou worden, zoals bijvoorbeeld smartphones dat rond 2007 waren. CEO Jensen Huang is er als de kippen bij om het huidige tijdstip als het “iPhone-moment” van AI te zien, dat doelt op de explosie die we tegenwoordig meemaken.

Partners als klanten

Niemand bij Nvidia zal dus al te erg verbaasd zijn dat AI nu dé “hot topic” binnen de tech-industrie is. Het heeft door de jaren heen miljarden geïnvesteerd in de ontwikkeling van tensor cores en andere AI-tech, waar het nu de vruchten van mag plukken. Het komt eveneens op een gunstig moment, aangezien inflatie en de daling in de consumentenvraag naar pc-hardware voor een mooi gapend gat zorgt waar de AI-drang in kan springen. Echter spreken we hier niet zomaar over een aantal grote orders: alleen al de AI-initiatieven van de Big Tech-spelers zijn reusachtig.

We moeten hierbij duidelijk maken dat niet iedereen zal kunnen of willen teren op cloud-hardware. Als iedereen Azure, Google Cloud en andere externe diensten zou toepassen, zou die op een gegeven moment overbelast raken. Daarnaast prefereren veel partijen om on-prem data te kunnen verwerken of eigen AI-modellen lokaal te ontwikkelen en te trainen. De AI-hype draait immers lang niet alleen maar om het inzetten van OpenAI’s GPT-4, Google PaLM of Meta’s LLaMA. Het toepassen van LLM’s op eigen data is van cruciaal belang om zeker te weten dat men voldoet aan de privacy- en compliance-eisen die relevant zijn. Grote partijen als Dell beloven bedrijven hierbij te helpen, inclusief Nvidia-GPU’s. Echter moge het resultaat van een tekort duidelijk zijn: een grote stijging van de al peperdure AI-hardware.

Stremming

We zien al aan de keuze van partners waar Nvidia de oplossing tracht te vinden. Het biedt bijvoorbeeld hybride oplossingen aan samen met ServiceNow. Dit betekent dat het slechts een fractie van de benodigde rekenkracht on-prem hoeft in te zetten en de rest in de cloud houdt. Het zal zoveel mogelijk in de cloud willen doen, waarbij het probeert het vertrouwen van klanten te winnen door services te bieden zoals NeMo Guardrails. Met andere woorden: wie lang moet wachten op de eigen AI-chips, kan tijdelijk uit de voeten met de cloud. Dat lijkt een tijdelijke uitweg te zijn voor de naderende tekorten.

Het is echter zo dat we onder de streep een stremming mogen verwachten omtrent AI-ontwikkeling. Dit heeft twee redenen: Nvidia zal allereerst uiteindelijk dermate hoge prijzen rekenen voor de schaarse hardware dat het vele partijen uitsluit. Ten tweede missen we de concurrentie die anders een alternatief zou bieden: Google, Meta en Microsoft/AMD zijn bij lange na niet in de positie om te wedijveren met Nvidia. Kortom: AI gaat alleen maar duurder worden, zeker op de korte termijn.

Lees ook: Computex-roundup 2023: AI domineert bij Nvidia, Intel en Qualcomm