Nvidia is momenteel het populairste jongetje van de klas

Nvidia is momenteel het populairste jongetje van de klas

Nadat Nvidia de nieuwe Blackwell-architectuur voor AI-berekeningen presenteerde, overspoelde een golf aan persberichten de Techzine-mailbox van bedrijven die de chips gaan gebruiken of op andere manieren samenwerken met het bedrijf. Nvidia positioneert zich steeds meer als dé leverancier van AI-rekenkracht en iedereen wil duidelijk maken dat óók zij vriendjes zijn met het populairste jongetje van de klas. Maar kan Nvidia aan de enorme vraag naar hun GPU’s voldoen?

Nvidia-CEO Jensen Huang presenteerde de nieuwe Blackwell-chip tijdens het eigen GTC 2024-evenement. Hij beloofde tot 30 keer betere prestaties voor inference workloads met LLM’s (large language models), ofwel het genereren van informatie door generatieve AI-modellen.

Ook kondigde hij partnerschappen aan met bedrijven in industrieën zo divers als dataverwerking, automotive, robotica en gezondheidszorg. Daarmee claimt Nvidia een sleutelrol voor zichzelf in de AI-wapenwedloop. Het dreef SiliconANGLE-analist Dave Vellante ertoe om GTC 2024 te omschrijven als het “belangrijkste evenement in de technologie-industrie”.

Goed om te onthouden dat Nvidia weliswaar een belangrijke schakel is in deze ontwikkeling, maar niet de enige. Chipfabrikant TSMC en chipmachinemaker ASML zijn onmisbaar voor het productieproces. De PR-spotlight staat momenteel echter vooral op Nvidia gericht, waardoor op hun beurt enorm veel bedrijven hun partnerschap met de in San Jose gevestigde GPU-gigant van de daken schreeuwen.

Aangekondigde partnerschappen en toepassingen

Zo meldde Amazon Web Services (AWS) het nieuwe Blackwell-platform te gaan gebruiken. Dat stelt klanten in staat realtime -én sneller, én kostenefficiënter- inference uit te voeren op multi-biljoen-parameter taalmodellen. Ook rust het Project Ceiba uit met ruim 20.000 van de zogeheten Grace Blackwell (GB200)-chips. Project Ceiba is een AI-supercomputer die helemaal op AWS draait.

Google Cloud en Microsoft volgen een vergelijkbare route door respectievelijk de Grace Blackwell-platformen en NIM (NVIDIA Instance Manager)-microservices te integreren in hun cloudinfrastructuur.

SAP wil met Nvidia-chips generatieve AI integreren in zijn cloudoplossingen, evenals Oracle. In de gezondheidszorg gaat Microsoft Azure gebruikmaken van Nvidia’s Clara-suite van microservices en DGX Cloud om innovatie in klinisch onderzoek en zorgverlening te versnellen. IBM Consulting kondigde aan met behulp van Nvidia’s AI Enterprise-softwarestack klanten te gaan ondersteunen bij het oplossen van complexe zakelijke vraagstukken.

Dan is er nog Snowflake, dat de samenwerking met Nvidia uitbreidt om NeMo Retriever te integreren. Daarmee kunnen klanten de prestaties van chatbotapplicaties verbeteren door ze te koppelen aan bedrijfsgegevens. Andere datacloud-providers als Box, Dataloop en Cloudera maakten bekend dat ze Nvidia microservices gaan gebruiken om de Retrieval-Augmented Generation (RAG)-pipelines van klanten te optimaliseren en de eigen gegevens van deze klanten in generatieve AI-toepassingen te integreren.

Tip: Wat is RAG (Retrieval-Augmented Generation)?

In de mailbox van Techzine vonden we verder persberichten van NetApp, Dell, Supermicro, Schneider Electric, HPE, Pure Storage en Cognizant, om er maar een handvol uit te lichten. De toepassingen variëren van ‘kant-en-klare’ generatieve AI SuperClusters tot referentieontwerpen voor AI-datacenters en AI-assisted medicijnonderzoek met hulp van Nvidia BioNeMo.

Nvidia profiteert volop van de AI-opmars

CEO Jensen Huang benadrukte dat wat Nvidia betreft “accelerated computing” de toekomst is. Accelerated computing (in tegenstelling tot general computing) is Nvidia’s term voor specifieke workloads die veel meer vereisen dan alleen een krachtige CPU. GPU’s met tienduizenden cores verwerken razendsnel AI-berekeningen. Nvidia, van oudsher fabrikant van dergelijke hardware, heeft daarom het meest kunnen profiteren van de AI-opmars.

In de nieuwe chipreeks is echter niet alleen rauwe rekenkracht belangrijk, maar juist de schaalbaarheid van de architectuur. Daardoor kunnen bedrijven bestaande H100-chips eenvoudigweg vervangen door de B200. Dat zal de acceptatie en implementatie van deze chips ten goede komen.

De beschikbaarheid van de B200 blijft echter een vraagteken vanwege de productiecomplexiteit. De ronkende persberichten waarmee bovengenoemde bedrijven hun samenwerking met Nvidia aankondigen, is wellicht een poging voldoende enthousiasme te etaleren om als eerste met de nieuwe chips aan de slag te mogen gaan. Naast enthousiasme zal -heel ouderwets- de bereidheid om de portemonnee te trekken doorslaggevend zijn voor een duurzame vriendschap.

Lees ook: Nvidia verstevigt AI-koppositie bij GTC 2024 met Blackwell-GPU’s