2min

Tags in dit artikel

, ,

Zonder dat het daar iemand van op de hoogte bracht, heeft Apple in de zomer van 2014 compleet veranderd hoe zijn stemassistent Siri werkt. In plaats van enkel stemherkenning en wat standaard antwoorden te gebruiken, stapte het over op een geavanceerde techniek. De stemassistent werd daardoor zelflerend.

Dit blijkt uit een speciaal artikel dat Steven Levy voor Backchannel schreef, waarvoor hij uitgebreid met onder meer Eddy Cue, Apple’s hoofdverantwoordelijke voor de afdeling internetdiensten en Alex Acero van het Siri-team sprak.

De techniek waar Siri nu gebruik van maakt heet "neurale netwerken" en is geïnspireerd op het menselijk brein. Toen Siri in 2011 gelanceerd werd, maakte het programma voor de herkenning van menselijke stemmen gebruik van basis KI-technieken die al decennia bestonden. In 2014 ging men echter over op de nieuwe technologie.

Het is terugkijkend opmerkelijk hoe weinig mensen opgemerkt hebben dat er grote veranderingen plaatsvonden in het team van Siri. Zo huurde Apple langzaam experts op het gebied van neurale netwerken in. Voor gebruikers bleef Siri gewoon doen wat het deed, maar werd het beter in het verstaan van wat iemand daadwerkelijk zei.

"Dit was een van die dingen waarin de vooruitgang zo significant was, dat je de test opnieuw uit moest voeren om jezelf ervan te verzekeren dat niemand ergens per ongeluk een komma verkeerd geplaatst had", aldus Eddy Cue. Volgens Alex Acero maakte Siri in één klap de helft minder fouten. Dit gold voor alle talen waarin Siri beschikbaar was.

Afgezien van dit nieuws rond Siri kwamen er nog wat andere interessante feitjes naar buiten rond de manier waarop Apple zich een belangrijke positie verwerft binnen kunstmatige intelligentie. Zo koopt het tussen de twintig en dertig bedrijven per jaar die gespecialiseerd zijn in kunstmatige intelligentie. Ook onthulde het dat de grootte van alle programma’s voor kunstmatige intelligentie op een iPhone slechts 200MB in beslag nemen.