2min

Een veelgehoord kritiekpunt op het gebruik van algoritmes, is dat het vaak ‘zwarte dozen’ zijn. Een algoritme, of een kunstmatige intelligentie (AI), maakt wel een beslissing, maar het is niet duidelijk hoe het tot die beslissing is gekomen. Een nieuwe tool van Google moet daar verandering in brengen.

De tool heet Explainable AI en moet aan gebruikers uitleggen hoe en waarom een model tot zijn conclusies komt, schrijft ZDNet. De tool bepaalt daarvoor precies hoeveel ieder deel van een dataset heeft bijgedragen aan de conclusie van het algoritme.

Explainable AI geeft iedere factor in de data een score om aan te geven hoeveel invloed het had om de conclusie van het model. Gebruikers kunnen die score opvragen om zo te ontdekken waarom een algoritme tot een bepaalde beslissing is gekomen.

De tool is bijvoorbeeld in te zetten bij algoritmes die kredietscores bepalen, stelt Thomas Kurian, de CEO van Google Cloud. “Als je een AI gebruikt om een kredietscore te bepalen, wil je kunnen begrijpen waarom het algoritme een specifiek model afwees en een ander accepteerde.”

Combinatie met What-If Tool

De tool is per direct te gebruiken voor machine learning-modellen die gehost worden bij de AutoML Tables en het Cloud AI Platform Prediction van Google. De tool is bovendien te combineren met de What-If Tool die Google vorig jaar presenteerde.

De What-If Tool is een tool voor ontwikkelaars die de impact van wijzigingen in AI kan visualiseren. Wordt een AI dus aangepast, dan hoeven gebruikers geen aparte code te schrijven om het model te analyseren. Er moet alleen een model en een dataset toegevoegd worden.

De nieuwe Explainable AI is te combineren met de What-If Tool om een compleet beeld te krijgen van het gedrag van een model.