Tenstorrent, een start-up geleid door enkele belangrijke ex-AMD-medewerkers, is een samenwerking aangegaan met SiFive. De start-up wil het ontwerp van de Intelligence X280-processor van het bedrijf verwerken in hun eigen chips voor AI-toepassingen.
De X280-cores van SiFive zijn gebaseerd op de RISC-V-architectuur, met ondersteuning voor 64-bitintegers, multicore-ontwerpen en de vector math-extensie van RISC-V. De verwachting is dat deze extensie in de toekomst nuttig zal blijken voor machinelearning-applicaties.
Gespecialiseerd voor neurale netwerken
Door deze X280-cores te combineren met zijn eigen Tensix-cores, hoopt Tenstorrent gespecialiseerde processors te kunnen maken die overweg kunnen met exponentieel groeiende neurale netwerken. De start-up wil dit bereiken door gebruik te maken van packet processing, in plaats van de gebruikelijke aanpak met matrix-berekeningen, schrijft The Register. Uiteindelijk wil Tenstorrent een volledige hardware- en softwarestack bieden voor voor neurale netwerken.
Grote namen met AMD-roots
Het team achter Tenstorrent bestaat uit een aantal grote namen. De CEO van het bedrijf is Ljubisa Bajic. Bajic heeft jarenlang als chiparchitect bij AMD gewerkt, naast een korte periode bij Nvidia. Hij wordt bijgestaan door Jim Keller, een chipontwerper die naam heeft gemaakt met zijn bijdragen aan de succesvolle AMD-processors van rond de millenniumwisseling. Later heeft hij Apple geholpen met het ontwerpen van hun eigen ARM-chips voor iPhones, om later weer terug te keren bij AMD voor het ontwerpen van de Zen-architectuur. Keller vervult bij Tenstorrent de rol van CTO en president van het bedrijf. Ook andere hoge medewerkers hebben een indrukwekkende geschiedenis bij onder andere bedrijven als AMD en Intel.
Training en inference op één chip
De plannen van het team lijken groots te zijn. Ze wijzen op een processor die meerdere verschillende AI-capaciteiten samenbrengt op één chip. De Tensix-cores gaan over het neurale netwerk en de X280-cores regelen de applicatiecode en eventuele toepassingen die vectorberekeningen vereisen. Zo kunnen zowel de training als de inferentie worden uitgevoerd door een enkele chip.
Tip: Nvidia kondigt serverprocessor Grace aan, blinkt uit in AI-workloads