2min

Intel is nog sterker gaan concurreren met Nvidia door drie nieuwe chips speciaal voor het trainen en deployen van kunstmatige intelligentie (AI)-modellen uit te brengen. Op dit moment worden daar met name de GPU’s van Nvidia voor gebruikt. 

Nvidia kan de meeste concurrentie verwachten van de Nervana NNP-T1000 neural network processor, schrijft Silicon Angle. Dit is een geïntegreerd circuit geoptimaliseerd voor het trainen van AI-modellen met datamonsters. Met dit proces wordt ervoor gezorgd dat modellen accurate resultaten leveren.

Hoewel dit soort processen momenteel met name op Nvidia-chips worden uitgevoerd, wil Intel daar dus marktaandeel in overnemen. De nieuwe NNP-T1000 kan 119 triljoen operaties per seconde aan om dit alles mogelijk te maken.

De chip wordt echter niet als alleenstaand onderdeel verkocht, maar als onderdeel van accelerator-kaarten die in servers van enterprises geplaatst kunnen worden. De kaarten zijn zo ontworpen dat een grote hoeveelheid kaarten goed samen kunnen werken, waardoor ze volgens Intel zelfs AI-training workloads op supercomputerschaal aankunnen.

NNP-I1000

De tweede chip die geïntroduceerd werd, is de Nervana NNP-I1000. Deze chip wordt net als de NNP-T1000 in een accelerator-kaart geleverd. Deze chip is echter niet geoptimaliseerd voor het trainen van AI, maar voor inference. Inference zijn de berekeningen die modellen uitvoeren op live data als ze eenmaal in productie zijn genomen.

De NNP-I1000 is gebaseerd op de 10 nanometer-architectuur van Intel. In principe heeft het bedrijf een CPU gepakt, het teruggebracht naar twee processing cores en twaalf ‘inference engines’ toegevoegd om Ai-software te draaien.

De chip kan volgens Intel zelf 3.600 inferences per seconde uitvoeren, wat gemeten werd met ResNest50. ResNest50 is een AI-model dat gebruikt wordt om processor-prestaties te meten. Volgens de benchmark heeft deze chip 4,8 triljoen operaties per watt, waardoor de chip volgens Intel zelf de meest energie-efficiënte is in de categorie.

Nieuwe versie van Movidius Myriad

Intel heeft tot slot een nieuwe versie van zijn Movidius Myriad vision processing unit (VPU) gelanceerd, met de codenaam Keem Bay. Deze chip moet AI-systemen voor het verwerken van beelden en video’s in apparaten met weinig energie mogelijk maken. Denk hierbij bijvoorbeeld aan drones die machine learning gebruiken om obstakels te vermijden.

De nieuwe VPU moet tien keer meer inference-prestaties leveren dan de vorige generatie. Daarnaast is de chip volgens het bedrijf zes keer meer energie-efficiënt dan producten van concurrenten.