1 min

Half oktober maakte Google-dochter DeepMind bekend dat het een nieuwe versie van AlphaGo ontwikkeld had. Die was ertoe in staat om geheel zonder menselijke input het bordspel Go te leren. Sneller dan we eigenlijk verwacht hadden, is het systeem nu slim genoeg om zichzelf andere bordspellen aan te leren.

De onderzoekers van DeepMind maakten vandaag bekend dat ze een algemenere versie van AlphaGo Zero ontwikkeld hebben. Dat heeft zichzelf al getraind om in extreem korte tijd “bovenmenselijke” vaardigheden in schaken, Shogi (een Japanse klassieker) en andere speltypes aan te leren. En dat binnen een dag tijd, waarbij het systeem geen voorbeeldspellen of andere referenties nodig had.

Nog geen algemeen nut

Op het eerste gezicht is de ontwikkeling behoorlijk indrukwekkend. Tegelijk zijn schaken en Shogi relatief eenvoudig om aan te leren, makkelijker dan Go dat bijvoorbeeld is. De volgende stap is volgens de onderzoekers het trainen van de software, zodat deze ook ingewikkeldere spellen aan kan.

Zo zouden games als StarCraft II momenteel nog niet makkelijk aan te leren zijn voor de kunstmatige intelligentie. Ook is snelheid nog van groot belang, want ondanks dat 24 uur indrukwekkend is en snel genoeg is voor een bordspel, moet AI zich voor praktische toepassingen sneller kunnen aanpassen.

Tegelijk is het wel een indrukwekkende prestatie van DeepMind. AI moet er uiteindelijk toe in staat zijn om taken uit te voeren met minimale instructies. Onder meer robots en zelfrijdende auto’s moeten daar onder meer geschikt voor zijn.