2min

Google heeft vandaag een nieuwe AI-tool uitgebracht die moet helpen om online beeldmateriaal waarin kinderen misbruikt worden op te speuren en te verwijderen. De Content Safety API is een tool die deep neural networks gebruikt voor beeldverwerking. Daardoor zijn er minder mensenogen nodig om het werk te verrichten.

Momenteel doorzoeken onderzoekers handmatig duizenden foto’s. Dat is soms behoorlijk traumatiserend, wegens de inhoud van de beelden. “De snelle identificatie van nieuwe foto’s betekent dat kinderen die seksueel misbruikt worden nu sneller geïdentificeerd kunnen worden en beschermd tegen verder misbruik”, aldus ontwikkelaars Nikola Todorovic en Abhi Chaudhuri in een blog.

Gratis beschikbaar

De Content Safety API wordt gratis beschikbaar gemaakt voor NGO’s en partnerbedrijven van Google. De toolkit kan daardoor snel de content identificeren en melden. De tool vormt volgens de ontwikkelaars een forse verbetering op dit vlak, waarbij er tot zevenhonderd procent sneller materiaal met kindermisbruik gevonden werd.

De aankondiging van Google komt vlak nadat de Britse minister van buitenlandse zaken Jeremy Hunt forse kritiek op het bedrijf uitte. Google besloot volgens Hunt wel mee te werken aan censuur in China, maar doet volgens hem niet genoeg om te helpen materiaal van kindermisbruik wereldwijd te verwijderen of aan te pakken.

Niet de enige

Google is het niet enige bedrijf dat aan dit soort technologie werkt om kindermisbruik aan te pakken. De Britse politie maakte kortgeleden bijvoorbeeld bekend ook te werken aan een AI die gebruikt kan worden om gruwelijke beelden aan te pakken. Zo kan misbruik snel opgespoord en aangepakt worden. Tegelijk zorgt het ervoor dat mensen die de beelden op moeten sporen minder snel getraumatiseerd zullen raken.

Overigens wordt AI door veel meer bedrijven die actief zijn op het internet ingezet om materiaal dat niet in overeenstemming met hun gebruiksvoorwaarden is op te speuren. Naakt en abusievelijk commentaar wordt daardoor snel gevonden en verwijderd.