2min

Cisco Systems heeft een systeem gemaakt speciaal voor kunstmatige intelligentie. Het gaat om de UCS C480 ML M5, een four-rack-unit server speciaal voor deep learning workloads. De server moet later dit jaar beschikbaar worden.

UCS-servers combineren compute resources met mogelijkheden voor networking en opslag, evenals management automation software. Binnenin de server van Cisco zitten twee Intel Xeon Scalable central processing units en acht Tesla V100-grafische kaarten van Nvidia.

Volgens Nvidia zelf biedt één van die kaarten al 47 keer de prestaties van een traditionele CPU voor deep learning workloads. De V100-chips in de server van Cisco communiceren met elkaar via een technologie genaamd NVLink, wat speciaal voor dergelijke systemen ontwikkeld is.

Het apparaat kan verder uitgerust worden met 24 opslagschijven of flash drives. In totaal bieden zes van de uitgangen ondersteuning voor USB-sticks.

Eerste op de markt

De server kan veel potentie bieden voor Cisco. Volgens Chirag Dekate, onderzoeker bij Gartner, zijn er nog geen andere hardware-providers die een serverbox met acht GPU’s aanbieden. Daarmee zou Cisco dus de eerste zijn. Gebruikers van het systeem krijgen nu de “mogelijkheid om deep learning te gebruiken, zonder nieuwe diversiteit te introduceren in hun datacentra”.

Om te zorgen dat de server werkt met de AI-diensten naar voorkeur, start Cisco een partnerschap met Hortonworks. Daarmee moet de machine de laatste 3.1-release van het Hadoop analytics-platform kunnen draaien. Die versie biedt ondersteuning voor populaire frameworks voor deep learning.

Daarnaast moet er ondersteuning komen voor Kubeflow. Dat is een open-source tool waardoor TensorFlow samen kan werken met de Kubernetes software contrainer orchestration engine. Bedrijven kunnen daarmee workloads gemakkelijk tussen verschillende soorten omgevingen verschuiven.