3min

De AI-hype heeft Nvidia tot een biljoenenbedrijf gemaakt. Hoewel de Zuid-Koreaanse geheugenfabrikant SK Hynix dat astronomische bedrag niet zomaar zal bereiken, claimt het over drie jaar twee keer zoveel waard te zijn als nu. Als hofleverancier van HBM-geheugen voor AI-chips is die voorspelling daadwerkelijk geloofwaardig.

De voorspelling dat SK Hynix in waarde zal verdubbelen, komt van CEO Kwak Noh-Jung. Zijn bedrijf is de op twee na grootste geheugenfabrikant ter wereld, achter Samsung en het Amerikaanse Micron. Met een waarde van omgerekend 69 miljard euro moet het dus in 2027 in de buurt van 140 miljard euro zitten, oftewel 200 biljoen Zuid-Koreaanse won.

Het bedrijf kan deze waardeverdubbeling realiseren als het “de producten die we nu produceren goed voorbereiden, onze aandacht op investeringsefficiëntie richten en financieel robuust blijven,” stelde de CEO.

Voordelen van SK Hynix

Op het eerste gezicht lijkt dat een wat opmerkelijke claim. Immers heeft marktleider Samsung al zes kwartalen op rij weinig positiefs te melden als het om geheugen gaat, met dalende vraag (en dalende prijzen) tot gevolg. Hoewel DRAM- en NAND-productie dermate zal afnemen dat de prijzen weer zullen stijgen, is een volledig herstel ver weg.

SK Hynix heeft echter een aantal voordelen. Het bedrijf produceert de helft van alle HBM-chips wereldwijd, dat in alle meest recente Nvidia-GPU’s voor datacenters zit. Elke H100, de meest gewilde AI-GPU van Nvidia, bevat 80GB aan HBM-geheugen.

Het gevolg: HBM is aanzienlijk lucratiever dan de gehele computergeheugenmarkt doet vermoeden, met betere groeicijfers tot gevolg.

SK Hynix was in 2015 de eerste die HBM op grote schaal produceerde. HBM, een afkorting voor High-Bandwidth Memory, is aanzienlijk sneller dan conventionele DRAM of VRAM. Het bevat gestapelde SDRAM-chips en bereikt een vele malen hogere bandbreedte dan andere oplossingen. De fabricatie ervan is complex, met packaging die met behulp van microscopische ‘bumps’ communicatie door de chips in 3D kan regelen. Het is dus niet een tak van sport waar andere spelers in korte tijd aan mee kunnen doen.

Gegronde claim

Samsung voorspelt al een tijdje dat er verbetering in de geheugenmarkt aan gaat komen. De reden daarvoor: het zal zich meer gaan richten op HBM. De doelstelling is duidelijk: Samsung zegt het niet, maar het zal zijn pijlen richten op een nieuwe Nvidia-deal. Net als SK Hynix en Micron heeft het samples voor de nieuwste HBM-modules bij Nvidia liggen.

Echter gaat Nvidia per product doorgaans maar met een of twee geheugenpartners in zee. Met onder meer Intel, Qualcomm en AMD verder in de race rondom AI-chipproductie, zijn er daarnaast genoeg andere bedrijven om geheugen aan te verkopen. Toch domineert Nvidia momenteel de markt, met al geruime tijd meer dan 90 procent marktaandeel in datacenters.

Hoe dan ook is vooral SK Hynix goed gepositioneerd voor toekomstige HBM-generaties, met de verwachte capaciteit om Nvidia en andere AI-spelers te voorzien van het allersnelste geheugen. Aangezien AI-acceleratie qua snelheid vooral door bandbreedte gelimiteerd wordt, is een stap naar HBM3e (25 procent sneller dan HBM3) en HBM4 (verdubbelde bandbreedte versus HBM3) nodig voor voortdurende verbetering.

Dit alles leidt ertoe dat de HBM-markt volgens TrendForce met 30 procent zal groeien in het komende jaar, terwijl Mordor Intelligence een gemiddelde jaarlijkse groei van 25,86 procent voorspelt. Andere onderzoeksgroepen komen met vergelijkbare getallen. Als SK Hynix de meest lucratieve contracten weet te verkrijgen, zoals voor de nog overwegend onbekende Nvidia X100-chip bedoeld voor 2025, zou het zelfs deze groeicijfers kunnen overtreffen. Het blijft koffiedik kijken en bevat een aantal clausules die de SK Hynix-CEO al aanhaalt, maar een verdubbeling in waarde is reëel met deze cijfers. Als we uitgaan van ruim 25 procent jaarlijkse groei, zou het bedrijf over drie jaar nagenoeg verdubbeld zijn in waarde ten opzichte van nu.

Lees ook: Nvidia ziet Huawei als serieuze concurrent voor AI-chips