2min

Tags in dit artikel

, , , ,

Intel heeft op een evenement in Israël aangekondigd dat het met zijn eerste AI-chip voor datacenters komt. De Nervana Neural Network Processor for Inference, zoals de chip officieel heet, is bedoeld voor gebruik in grote datacenters die AI-workloads draaien.

De chip is een bewerkte versie van de 10-nm Ice Lake processor. Reuters meldt dat de nieuwe AI-chip erg energiezuinig zou zijn bij het verwerken van zware workloads. Volgens SiliconAngle is de chip dan ook al in gebruik in datacenters van een aantal klanten, waaronder Facebook.

De AI-chips die op het Hot Chips event in Israël werden gepresenteerd zijn Nervana NNP-T en NNP-I. De eerste is bedoeld voor het trainen van deep learning-modellen. De Nervana NNP-I is de chip die bedoeld is voor deep learning inference in datacenters, het inzetten van getrainde deep learning-modellen voor het verkrijgen van bruikbare data. De chip kan in datacenters worden geïmplementeerd via een M.2-poort op moederborden. Het idee achter de chip is dat de Xeon-processors van Intel minder kracht kwijt zijn aan inference. Zo kan er dus meer rekenkracht voor andere taken worden ingezet.

Modificaties aan Ice Lake

De Nervana NNP-I is in wezen een Ice Lake-processor waarbij twee cores en de grafische processor zijn verwijderd. Zo kunnen 12 Inference Compute Engines op de chip worden geplaatst. Volgens analist Holger Mueller van Constellation Research is de introductie van de AI-chip een stap vooruit voor Intel. “Intel verbetert zijn expertise op het gebied van energieverbruik en opslag en zoekt naar samenwerkingsmogelijkheden in zijn processorsuite”, zegt Mueller. “Omdat Springhill wordt ingezet via een M.2-device en -poort, iets wat een paar decennia geleden een co-processor werd genoemd, wordt de Xeon-processor hierdoor effectief ontlast. We zullen echter moeten afwachten hoe goed Springhill kan concurreren met meer gespecialiseerde, meestal GPU-gebaseerde processorarchitecturen.”