Onderzoek van MIT en IBM belooft AI van contextuele kennis te voorzien

Wetenschappers van het MIT-IBM Watson AI Lab werken aan een aanpak die een aantal langlopende obstakels in het ontwerpen van kunstmatige intelligentie (AI)-modellen uit de weg helpt. De programma’s die hieruit voortvloeien moeten over de wereld kunnen leren door het te observeren.

Waar mensen veel kunnen leren over een omgeving door ernaar te kijken – zoals de kleur van een object of de afstand tussen twee objecten – is dit een stuk ingewikkelder voor AI-systemen. Maar nu beeldherkenning, het begrip van taal en symbolische program execution opkomen, moet dit wel mogelijk worden.

Het probleem

IBM en MIT werken daar dus aan. Dario Gil, vice president van AI en IBM Q bij IBM Research, legt de aanpak tegenover Venturebeat uit aan de hand van een voorbeeld.

“Stel je voor dat je een foto van een scène hebt, waarin een collectie aan objecten zichtbaar is die je moet classificeren en beschrijven. Een deep learning-oplossing voor dit probleem moet eerst getraind worden op duizenden voorbeeldvragen, en dat model kan in de war raken van variaties op dezelfde vragen.”

“Het probleem moet opgedeeld worden in diverse dingen. Je hebt een uitdaging voor visuele herkenning, je hebt een vraag en je moet begrijpen wat de woorden betekenen. En dan moet je nog logisch redeneren om het probleem op te lossen.”

De aanpak

De symbolic reasoning-aanpak – die onlangs in een paper van MIT, IBM en DeepMind beschreven werd – moet hier beter mee om kunnen gaan. Dit gebruikt een ‘neurosymbolic concept learer’ en een model dat geprogrammeerd is om concepten als ‘objecten’ en ‘ruimtelijke relaties’ in tekst te begrijpen.

De aanpak heeft een component dat los wordt gelaten op een set aan scènes met objecten, terwijl een ander component leert om vragen in natuurlijke taal toe te wijzen aan antwoorden. Het resulterende framework kan nieuwe vragen beantwoorden over verschillende scènes door visuele concepten in de vragen te herkennen, waardoor het erg schaalbaar is.

Bovendien is er minder data nodig dan bij deep learning-aanpakken. Volgens Gil is het mogelijk om dezelfde accuraatheid te bereiken met 1 procent van de trainingsdata. “Dat is goed nieuws voor de 99,99 procent van bedrijven die geen grote hoeveelheden gelabelde data hebben.”