2min

De CEO van Google, Sundar Pichai, maakte tijdens de jaarlijkse I/O-conferentie duidelijk dat het bedrijf nog meer gaat inzetten op kunstmatige intelligentie (AI). Tijdens de conferentie werden nieuwe hardware en software geïntroduceerd speciaal voor kunstmatige intelligentie. 

De nieuwe hardware is de tweede generatie van de Tensor Processing Unit (TPU), op maat gemaakte chips voor machine learning en kunstmatige intelligentie. De eerste generatie chips worden binnen Google al heel breed toegepast: als iemand zoekt op Google, gebruik maakt van Translate of apps als Foto’s of Assistant gebruikt. Veel ander bedrijven gebruiken hiervoor commercieel beschikbare videokaarten van bijvoorbeeld Nvidia, maar Google heeft ervoor gekozen zijn eigen chips te ontwikkelen.

De nieuwe TPU’s beschikken over 180 teraflops aan rekenkracht. Onderdeel van de tweede generatie is de koppeling van die TPU’s, Google presenteerde daarvoor de TPU Pod, die bestaat uit 64 van die TPU’s, met een gezamenlijk vermogen van 11,5 petaflops. Dat is dus behoorlijk wat rekenkracht.

“Ons nieuwe grootschalige vertaalmodel heeft een volledige dag nodig om te trainen op 32 van de beste commercieel beschikbare GPU’s van de wereld,” lichtte Jeff Dean van het Google Brain-team tegenover The Verge toe. “Een achtste van een TPU Pod kan dat binnen een middagje doen.”

De snelheidswinst is dus gigantisch. Maar de belangrijkste vernieuwing is dat Google een ecosysteem wil bouwen rond de TPU’s. De bedoeling is dat via TensorFlow, een in 2015 gepresenteerd ontwikkelingsplatform voor kunstmatige intelligentie van Google, ontwikkelaars gebruik kunnen maken van de TPU Pods.

Dankzij de veel grotere rekenkracht kunnen de pods ook veel meer doen dan alleen trainen. De eerste editie van de TPU’s kon namelijk alleen AI trainen of interferentie. Dat laatste houdt in dat een AI berekeningen maakt op basis van zijn kennis, bijvoorbeeld voor het herkennen van objecten op een foto. De Google TPU 2.0 kan dat tegelijk doen en weet daardoor flinke snelheidswinst te behalen bij de ontwikkeling van AI.