1 min

Meta lanceert Make-A-Video, een tool die video’s rendert op basis van bestaande afdeeldingen en tekstuele beschrijvingen.

Make-A-Video gebruikt artificial intelligence om video’s te genereren. Gebruikers kunnen video’s produceren door afbeeldingen en tekstregels in te voeren. De tool is vergelijkbaar met bestaande technologieën als Stable Diffusion en DALL-E.

De technologie maakt het mogelijk om video’s animeren op basis van statische bronafbeeldingen. Meta bouwde de tool met behulp van text-to-image-modellen, net zoals DALL-E van OpenAI. De organisatie traint de modellen met ongestructureerde videodata om realistische animaties te renderen. Make-A-Video is nog niet toegankelijk voor het publiek.

Meta

Op de officiële aankondigingspagina deelde Meta een aantal voorbeeldvideo’s. De video’s werden geproduceerd op basis van beschrijvingen als “een teddybeer die een portret schildert” en “een jong stel dat in zware regen loopt”.

“Make-A-Video heeft het potentieel om nieuwe kansen te creëren voor makers en kunstenaars”, vertelde de organisatie. “Het systeem leert hoe de wereld eruitziet en beweegt via tekstuele en visuele data. We zijn van plan een demo-ervaring uit te brengen.”

Het bedrijf maakte niet bekend wanneer en voor wie Make-A-Video beschikbaar zal zijn. Wel deelde Meta een aanmeldingsformulier voor geïnteresseerden die de tool in de toekomst willen uitproberen.

Uiteindelijk zal het AI-model in staat zijn om fotorealistische video’s op aanvraag te genereren. Meta voegde toe dat de video’s een watermerk krijgen om “het voor kijkers duidelijk te maken dat de video is gegenereerd met AI en niet werd vastgelegd”.

Tip: ‘Steeds meer cybercriminelen gebruiken deepfakes’