Google, Microsoft en xAI laten overheid AI-modellen vooraf testen

Google, Microsoft en xAI laten overheid AI-modellen vooraf testen

Google, Microsoft en xAI hebben ingestemd met het delen van niet-uitgebrachte versies van hun AI-modellen met de Amerikaanse overheid, zodat deze systemen kunnen worden getest voordat ze publiek beschikbaar komen. 

De evaluaties worden uitgevoerd door het Center for AI Standards and Innovation (CAISI), onderdeel van het Amerikaanse ministerie van Handel. 

Volgens het ministerie moet CAISI voortaan fungeren als centraal punt voor de beoordeling van commerciële frontier AI-systemen. De focus van de tests ligt op nationale veiligheidsrisico’s, waaronder cyberveiligheid, bioveiligheid en de mogelijke inzet van AI bij chemische wapens. Daarmee krijgen overheidsinstanties al toegang tot modellen voordat deze commercieel worden uitgerold.

De samenwerking volgt op eerdere afspraken die OpenAI en Anthropic ongeveer twee jaar geleden maakten met de regering Biden. CAISI heeft sindsdien al tientallen evaluaties uitgevoerd op geavanceerde AI-modellen, waaronder systemen die op dat moment nog niet publiek beschikbaar waren.

Volgens CAISI-directeur Chris Fall zijn onafhankelijke en technisch grondige evaluatiemethoden noodzakelijk om de impact van frontier AI op de nationale veiligheid goed te begrijpen. Fall stelt dat de uitgebreidere samenwerking met de AI-industrie het instituut in staat stelt om veiligheidscontroles sneller en op grotere schaal uit te voeren in een periode waarin AI-technologie zich razendsnel ontwikkelt.

Politieke koerswijziging rond AI-regulering

Opvallend is dat de aankondiging komt terwijl de regering Trump zich de afgelopen periode juist terughoudend opstelde tegenover regulering van kunstmatige intelligentie. De Amerikaanse overheid wilde voorkomen dat streng toezicht de innovatie zou vertragen, mede omdat de Verenigde Staten technologisch voorop proberen te blijven lopen ten opzichte van China.

Toch lijken de zorgen over AI-risico’s binnen Washington toe te nemen. Volgens SiliconANGLE speelde daarbij ook de gedeeltelijke release van het Claude Mythos-model van Anthropic een rol. Die introductie leidde opnieuw tot discussies over de snelheid waarmee steeds krachtigere AI-systemen worden ontwikkeld en beschikbaar komen.

The New York Times meldde eerder deze week bovendien dat de regering Trump werkt aan een mogelijk presidentieel decreet rond AI-governance. Daarbij zouden technologiebedrijven en overheidsinstanties gezamenlijk een formeel beoordelingsproces voor nieuwe AI-modellen opzetten. Dat zou een duidelijke koerswijziging betekenen voor het Witte Huis, dat AI-ontwikkeling tot nu toe grotendeels aan de markt overliet.

Trump stelde vorig jaar tijdens een AI-evenement nog dat kunstmatige intelligentie volgens hem niet afgeremd kan worden met politieke maatregelen of overmatige regelgeving. Inmiddels lijkt de Amerikaanse overheid echter voorzichtig te bewegen richting een actievere rol bij het toezicht op de ontwikkeling van geavanceerde AI-systemen, mede door toenemende publieke zorgen over cyberveiligheid, banenverlies, desinformatie en mentale gezondheid.