Het Amerikaanse ministerie van Defensie heeft AI-bedrijf Anthropic officieel aangemerkt als een risico voor de Amerikaanse toeleveringsketen. Daarmee escaleert een conflict tussen het Pentagon en de ontwikkelaar van het Claude-AI-model over de voorwaarden waaronder de technologie door het leger mag worden ingezet.
Bloomberg bericht over de controverse. Volgens een hoge defensiefunctionaris is het besluit direct van kracht. Tegelijkertijd wordt de software van Anthropic nog steeds gebruikt binnen lopende militaire operaties, onder meer in activiteiten van de Verenigde Staten rond Iran. Defensie had eerder aangegeven dat er een overgangsperiode van zes maanden zou komen om eventueel over te stappen naar andere leveranciers.
Het conflict ontstond tijdens onderhandelingen over een nieuw contract tussen het Pentagon en Anthropic. Daarbij probeerde het ministerie van Defensie duidelijke afspraken te maken over de toegang tot en het gebruik van de AI-technologie. De gesprekken liepen echter vast toen Anthropic garanties eiste dat zijn modellen niet zouden worden gebruikt voor massasurveillance van Amerikaanse burgers of voor de inzet van autonome wapensystemen.
Defensie vindt dat zulke beperkingen onacceptabel zijn. Volgens een betrokken functionaris moet het leger technologie kunnen inzetten voor alle wettelijk toegestane doeleinden. Wanneer een leverancier probeert het gebruik van cruciale systemen te beperken, kan dat volgens het Pentagon de operationele veiligheid en de inzet van militairen in gevaar brengen.
Opmerkelijke classificatie voor Amerikaans AI-bedrijf
Anthropic liet eerder weten een eventuele aanwijzing als supply-chainrisico juridisch te willen aanvechten. Een dergelijke classificatie wordt doorgaans toegepast op bedrijven of technologieën die gelinkt zijn aan geopolitieke tegenstanders van de Verenigde Staten. Het is daarom opmerkelijk dat een Amerikaans AI-bedrijf op deze manier wordt aangemerkt.
De gevolgen van het besluit kunnen aanzienlijk zijn voor zowel het Pentagon als Anthropic. De Amerikaanse defensieorganisatie maakte tot voor kort intensief gebruik van de technologie van het bedrijf. De Claude-modellen draaiden als een van de weinige AI-systemen in de geclassificeerde cloudomgeving van het Pentagon. De specifieke overheidsvariant Claude Gov werd binnen defensie gewaardeerd vanwege het relatief eenvoudige gebruik.
Ook binnen bestaande militaire systemen speelt Anthropic een rol. In het Maven Smart System van Palantir, een analyseplatform dat veel wordt gebruikt door Amerikaanse troepen in het Midden-Oosten, is Claude geïntegreerd als een van de taalmodellen. Het systeem helpt militairen om grote hoeveelheden operationele data snel te analyseren. Volgens betrokkenen functioneert de technologie goed en is die een belangrijk onderdeel geworden van AI-toepassingen binnen Amerikaanse operaties. De spanningen met het Pentagon kunnen invloed hebben op de toekomstige positie van het bedrijf, zeker bij overheidsopdrachten.
Het is nog onduidelijk op basis van welke juridische bevoegdheid het Pentagon het bedrijf officieel als supply-chainrisico heeft geclassificeerd. Anthropic verwacht dat Defensie daarvoor uiteindelijk een specifieke bepaling uit de Amerikaanse defensiewetgeving zal gebruiken. Mocht het zover komen, dan lijkt een rechtszaak tussen het AI-bedrijf en het Amerikaanse ministerie van Defensie vrijwel onvermijdelijk.