2min

Apps die objecten detecteren, foto’s classificeren en gezichten herkennen zijn niets nieuws meer. Maar de kwaliteit van de software wil wel eens tegenvallen. Onderzoekers van Google hebben dan ook een nieuwe AI ontwikkeld die beelden niet alleen sneller moet verwerken, maar dat ook preciezer doet.

In een blogpost omschrijft het team van Google een geautomatiseerd systeem dat het MnasNet genoemd heeft. Dat voert verschillende modellen uit, meet de prestaties daarvan en selecteert op basis van die laatste factor het best werkende model. “Op die manier kunnen we direct zien wat er in de praktijk mogelijk is”, aldus de onderzoekers.

Uitgebreide proef

Het MnasNet-systeem bestaat uit drie delen: een neuraal netwerk dat controleert welke architecturen er zijn; een trainer die de modellen bouwt en traint en een TensorFlow Lite-engine die de snelheid van de modellen in kaart brengt. De onderzoekers koppelden het systeem vervolgens aan een aantal verschillende beeldherkenningsmodellen.

In hun proef werd ImageNet, een database van Stanford en Princeton, getest op objecten in die dataset. De resultaten lieten zien dat deze gecombineerde modellen anderhalf keer zo snel werkten als die van bijvoorbeeld MobileNetV2, dat momenteel als een van de beste modellen te boek staat.

“We zijn blij om te zien dat onze automatische aanpak voor de best mogelijke prestaties zorgt, in complexe taken van mobile vision”, aldus het team over de resultaten. “We zijn van plan om in de toekomst meer operations en optimizations door te voeren in onze zoekruimte, en dat toe te passen op meer verschillende mobile vision-taken, waaronder semantische segmentatie.”