2min

Amazon Web Services (AWS) heeft EC2 instances met Tesla T4 GPU’s van Nvidia geïntroduceerd, meldt Venturebeat. De instances worden in de komende week beschikbaar voor gebruikers in G4-instances. Ook wordt T4 beschikbaar via de Amazon Elastic Container-dienst voor Kubernetes.

De nieuwe instance krijgt Nvidia T4-processors en “is echt ontworpen voor machine learning en om onze klanten te helpen de tijd die het kost om inferentie aan de rand van het netwerk te doen – waar die reactietijd echt van belang is – te verkorten”, aldus vicepresident van computer Matt Garman. Daarnaast moet de nieuwe instance de kosten drukken.

De nieuwe instance kan in totaal acht T4 GPU’s tegelijkertijd inzetten in de cloud.

T4

De Tesla T4 van Nvidia werd in september gepresenteerd. De opvolger van de P4 moet een vervijfvoudiging van de prestaties op het gebied van spraakherkenning met zich meebrengen en drie keer sneller zijn bij videoanalyses. De GPU richt zich op deep learning-systemen in datacentra, heeft 2.560 CUDA-cores en krijgt 320 Tensor-cores om AI-berekeningen 40 keer sneller uit te voeren dan een traditionele CPU.

Verder gebruikt de GPU de nieuwe Turing-architectuur die ook gebruikt wordt door de nieuwe RTX-kaarten van het bedrijf. De T4 heeft een bandbreedte van 320 GB/s, en door het compacte formaat van de kaart past hij in vrijwel ieder type server. De T4 verbruikt ongeveer 75 watt.

Google was in november vorig jaar de eerste cloudpartij die de T4’s op zijn platform beschikbaar maakte, toen nog in alpha. Sinds januari zijn ze in de bètafase beschikbaar, onder meer in Nederland. De T4 komt met 16 GB aan geheugen en prestaties tot 260 TOPs, waardoor de GPU volgens Google uitermate geschikt is voor inferentie-workloads. Ook kan de T4 goed gebruikt worden voor het trainen van machine learning-modellen.

Sinds het debuut van de GPU is deze ook toegevoegd aan datacentra van bedrijven als Cisco, Dell EMC en HPE.