1 min

Tags in dit artikel

, , , ,

Google heeft afgelopen dinsdag meer details uitgebracht over diens AI-supercomputer. In vergelijking met de A100-chip van Nvidia zou de TPU-architectuur van Google 1,7 keer sneller zijn en bijna twee keer zo efficiënt, meldt Reuters.

Google maakt desondanks nog altijd gebruik van Nvidia’s technologie, hoewel nog maar 10 procent van Google’s AI-training plaatsvindt op extern ontworpen chips. De supercomputer wordt ingezet voor het verwerken van de datasets waar chatbots, afbeelding-generators en veel andere AI-applicaties van afhankelijk zijn. Deze berekeningen kunnen maanden tijd kosten. Zo duurde het 50 dagen voordat de training van Google’s meest geavanceerde large language model (PaLM) voltooid was. Recent lichtten we uit wat PaLM precies inhoudt.

Flexibiliteit

De kanttekening voor Google’s claim van superioriteit is dat het bedrijf alleen diens eigen TPUv4-technologie vergeleek met Nvidia’s A100-chip. Inmiddels heeft Nvidia met de H100 alweer een snellere opvolger op de markt. Het is dus de verwachting dat deze bedrijven stuivertje zullen blijven wisselen in de komende jaren.

Google is met name te spreken over de flexibiliteit die de TPU’s schijnen te hebben. Zo kan men on the fly om kapotte componenten heen werken en de topologie aanpassen op basis van wat een machine learning-model nodig heeft.

Tip: Nieuwe chips Nvidia voor generatieve AI-platform in Google Cloud