2min

Tags in dit artikel

, , ,

Meta is van plan dit jaar 350.000 Nvidia H100-GPU’s aan te schaffen om AI te ontwikkelen. In totaal komt de rekenkracht volgens CEO Mark Zuckerburg eind 2024 uit op het equivalent van 600.000 H100-chips. Broodnodig, aangezien de concurrentie ook fors inkoopt.

Zuckerberg stelde in een Instagram Reels-video dat Meta grote AI-ambities heeft. De heilige graal van AGI (artificial general intelligence) is het hoofddoel: AI die de menselijke intelligentie kan evenaren. Een dergelijke doorbraak zou al bij OpenAI in de maak zijn en voor interne ophef hebben gezorgd.

Miljarden naar Nvidia

Concreet hoopt Meta dus 350.000 H100-GPU’s te kopen, die gelden als de meest geavanceerde chips voor het trainen en ontwikkelen van AI. Analistenbureau Raymond James stelt dat een enkele H100 doorgaans voor 25.000 tot 30.000 dollar wordt verkocht. Ondanks dat Meta waarschijnlijk een korting krijgt voor de grote aantallen die het aanschaft, zal het bedrijf volgens SiliconANGLE meer dan 9 miljard dollar aan Nvidia moeten overmaken.

Er zijn daarnaast andere kapers op de kust. Meta zou net als Microsoft 150.000 H100-GPU’s in 2023 hebben ontvangen, stelt Omdia. Google, Amazon, Oracle en Tencent volgen op gepaste afstand, met elk een geschatte levering van 50.000 H100’s. Om te voldoen aan de reusachtige vraag naar AI-applicaties en verder te kunnen innoveren, hopen al deze partijen net als Meta hun totale AI-rekenkracht aanzienlijk te vergroten.

Strijdtoneel verandert

De aandacht ligt momenteel op de H100, maar AI-hardware bestaat in meer soorten en maten. Zo spreekt Meta over een beoogde rekenkracht van het equivalent van 600.000 H100-GPU’s, vermoedelijk bestaand uit modellen zoals de oudere Nvidia A100 en minder krachtige L40S.

Ook zal de opvolger van de H100, de vermeende B100 (codenaam “Blackwell”), waarschijnlijk medio dit jaar verschijnen. Met sneller HBM3e-geheugen van SK Hynix zullen de AI-prestaties aanzienlijk toenemen. Aangezien Nvidia meer dan 90 procent van de AI-GPU-markt in handen heeft en qua prestaties al voorop loopt, beïnvloeden deze ontwikkelingen sterk hoe snel AI-innovatie plaats kan vinden.

Meta’s AI-aanpak is anders

Meta hanteert een andere AI-aanpak dan de concurrentie. Daar waar OpenAI/Microsoft en Google hun meest geavanceerde modellen binnen de eigen bedrijfsmuren houden, zegt Meta voor open-source te kiezen. Eerst was deze beschikbaarheid perongeluk. Het eerste Llama-model, enkel bedoeld om te delen voor onderzoeksdoeleinden, lekte namelijk begin 2023 uit. Vervolgens werd Llama 2 direct beschikbaar gesteld, hoewel niet iedereen het erover eens is dat dit daadwerkelijk een open-source model wegens restricties op commerciële toepassingen.

Zuckerberg blijft erbij dat ook toekomstige AI-modellen op deze manier ‘open-source’ zouden zijn. “Deze technologie is zo belangrijk en de kansen zijn zo groot dat we het moeten open-sourcen en zo breed beschikbaar als we op een verantwoordelijke manier mogelijk kunnen maken.”

Lees ook: AI-chips van hyperscalers worden bij lange na niet volledig benut