1 min

Het onderzoeksteam van Meta, moederbedrijf van Facebook, heeft het zogeheten ‘Segment Anything Model’ (SAM) geïntroduceerd. Het AI-model is getraind met ’s werelds grootste dataset van geannoteerde afbeeldingen, aldus Meta.

Het bedrijf verschaft in een blogpost meer details over de nieuwe AI-toepassing. Het onderscheiden van objecten op een foto wordt hierin segmentation genoemd. Volgens Meta is het verspreiden van SAM belangrijk om segmentation te democratiseren. De resultaten van dit AI-model mogen alleen voor onderzoeksdoeleinden gebruikt worden. Het is niet de eerste keer dat Meta diens AI-modellen publiekelijk beschikbaar stelt. Zelfs objecten die niet in de dataset voorkomen zou het AI-model kunnen onderscheiden.

VR-toepassing

Meta stelt dat SAM ‘een algemene notie heeft van wat objecten zijn’. Ook zou het breed toepasbaar zijn, zonder dat er extra training met een nieuwe dataset nodig is. Dit staat ook wel bekend als zero shot transfer in de AI-wereld.

Naast de huidige functionaliteit suggereert Meta dat de applicatie in de toekomst ingezet kan worden voor VR-toepassingen, zoals het virtueel verplaatsen en transformeren van objecten. Hierbij kan de VR-bril met pupildetectie zien waar de gebruiker naar kijkt en dat specifieke object detecteren. Dit noemt men ‘gaze-based object detection’.