2min

De Nvidia H100 Tensor Core GPU draait op de nieuwe Hopper-architectuur en levert meer vermogen, functies en AI-compatibiliteit dan vorige modellen.

Nvidia heeft onlangs zijn nieuwe H100 Tensor Core GPU gelanceerd. De GPU is gebaseerd op de nieuwe Hopper-architectuur biedt meer dan 8 miljard transistors voor prestaties, schaalbaarheid en veiligheid.

De H100 GPU is geschikt is voor ’s werelds meest geavanceerde AI-toepassingen. Volgens Nvidia is het model 40 keer sneller dan traditionele central processing units (CPU’s). Daarnaast gebruikt het model second-gen multi-instance technologie om een groter aantal workloads gelijktijdig te verwerken.

“Ik beschouw Hopper als ‘de nieuwe motor van AI-fabrieken’, die aanzienlijke vooruitgang zal stimuleren in language-based AI, robotica, gezondheidszorg en biowetenschappen”, vertelde Nvidia-topman Jensen Huang tijdens het GTC 2022-evenement. “Hoppers Transformer Engine verhoogt de prestaties aanzienlijk, waardoor grootschalige AI- en HPC-toepassingen binnen bereik komen van bedrijven en onderzoekers.”

Nvidia H100 Tensor Core GPU

Volgens Nvidia baten ’s werelds grootste IT-bedrijven bij GPU’s met geïntegreerde gegevensbescherming, snelle berekeningen en ondersteuning voor moderne AI-technologieën.

De nieuwe GPU van Nvidia wordt beschikbaar in verschillende systemen van derden, waaronder Supermicro, Giga-Byte Technology, Fujitsu, Lenovo, Dell, Cisco, HPE en Atos. Ook cloudproviders als Google Cloud, Microsoft Azure, Amazon Web Services en Oracle Cloud gaan de H100 GPU in hun systemen installeren.

“We kijken ernaar uit om de volgende generatie AI-modellen mogelijk te maken op de nieuwste H100 GPU’s in Microsoft Azure”, reageerde Nidhi Chappell, general manager van Azure AI Infrastructure. “Met de Hopper-architectuur in combinatie met onze Azure AI supercomputing-technologie kunnen we de ontwikkeling van AI wereldwijd helpen versnellen.”

Meerdere onderzoeksinstellingen zullen de H100 GPU verwerken in supercomputers, waaronder de Universiteit van Tsukuba, het Zwitserse National Supercomputing Center, Texas Advanced Computing Center, Los Alamos National Lab en het Barcelona Supercomputing Center.

De GPU wordt geleverd met een vijfjarige licentie voor Nvidia AI Enterprise. Het platform helpt bedrijven bij het optimaliseren van AI-modellen. De licentie biedt toegang tot AI frameworks, chatboxes, vision AI, recommendation engines en meer.

Tip: ‘Europese Raad bedreigt de toekomst van artificial intelligence’