1 min

Tags in dit artikel

, , , , ,

OpenAI, Microsoft, Google en Anthropic richten zelf een organisatie op om de ontwikkeling van machine learning-modellen in goede banen te leiden.

Vier grote spelers in AI-producten zetten zelf de richtlijnen uit voor veilige en verantwoorde ontwikkeling van machine learning-modellen. OpenAI, Microsoft, Google en Anthropic openen een organisatie die zich richt op wat ze zelf ‘frontier AI models’ noemen. Dit zijn modellen die de capaciteit hebben om de publieke veiligheid in gevaar te brengen.

De missie zit duidelijk verpakt in de naam van de organisatie: Frontier Model Forum. Hierin combineren de vier bedrijven hun expertise voor het creëren van testen, benchmarks en best practices. De richtlijnen zullen ook overgebracht worden naar beleidsmakers, academici en bedrijven.

Dat is voorlopig nog toekomstmuziek. De vier partijen kondigden vandaag de oprichting aan en geven aan zich de komende maanden te focussen op het samenstellen van een adviesraad en raad van bestuur. Bovendien moet de financiering nog in orde worden gebracht.

Vermomd pleiten voor zelfregulering

Met het Frontier Model Forum tonen de vier bedrijven zich geëngageerd om veilige AI-producten op de markt te brengen. Tegelijk zendt het de boodschap dat externe regulering niet noodzakelijk is, maar dat spelers in het AI-veld graag hun eigen spelregels maken.

Het Frontier Model Forum nodigt andere spelers uit de AI-wereld dan ook uit om zich aan te sluiten. Geschikte organisaties ontwikkelen ‘frontier AI models’ en zijn toegewijd aan het veilig gebruik ervan.

Tip: Lobbyen OpenAI, Microsoft en Google zich onder de AI Act uit?