1 min

OpenAI heeft twee nieuwe neurale netwerken ontwikkeld. Het eerste model is in staat om op basis van een beschrijving zelf nieuwe content te genereren en de tweede blinkt uit in het herkennen van afbeeldingen.

In een blogpost beschrijft OpenAI de mogelijkheden van DALL·E en Clip en laat het voorbeelden zien.

DALL·E

DALL·E is gebaseerd op de GPT-3-tekstgenerator die het bedrijf in 2020 onthulde. Het neurale netwerk is in staat om tekst en softwarecode te ontwikkelen aan de hand van eenvoudige omschrijvingen. Het netwerk is ook in staat om zelf tekeningen te maken.

Die laatste functie is door de ontwikkelaars flink getest met opdrachten aan de hand van beschrijvingen als “een fauteuil in de vorm van een avocado” of “een slak gemaakt van harp”. DALL·E wist afbeeldingen in verschillende stijlen en vanuit verschillende hoeken te genereren.

Clip

Het andere nieuwe neurale netwerk van OpenAI draagt de naam Clip. Clip is in staat om objecten te herkennen die worden vertoond in een afbeelding. Anders dan de verschillende bestaande neurale netwerken die ook afbeeldingen kunnen herkennen, kan Clip ook beschrijvingen maken van objecten die hij nog niet eerder gezien heeft.

Tip: OpenAI begint met het verkopen van AI-modellen