Kunstmatige intelligentie wordt op steeds meer verschillende vlakken toegepast. Zo ook binnen het leger. Nieuw onderzoek waarschuwt voor nieuwe soorten aantallen, waaronder ‘datavergiftiging’ en het hosten van AI-apps op niet goed beveiligde apparaten. Om die reden worden militaire organisaties wereldwijd dan ook opgeroepen om de “ongeanticipeerde interactie” tussen individuele AI-systemen te vermijden.

Landen zouden volgens een white paper van de Electronic Frontier Foundation (EFF) internationale afspraken moeten maken, om prioriteit te leggen bij de ontwikkeling van nieuwe technologie buiten de ‘kill chain’. Gevaarlijk is volgens de EFF vooral dat machine learning nog altijd kwetsbaar is, AI-systemen gehackt kunnen worden en dat systemen die gebruik maken van reinforcement learning onvoorspelbaar zijn.

Nieuwe aanvallen

In de paper The Cautious Path to Strategic Advantage schrijft onderzoeker Peter Eckersly dat de wereld op een kritisch kruispunt staat. AI-technologieën zijn volgens hem uiterst populair, en zorgen voor grote vooruitgang. Maar tegelijk zijn ze kwetsbaar voor verschillende vormen van manipulatie en aanvallen.

Gezien de toenemende mate waarin overheden hun legers onderzoek laten doen is het nodig om hier bepaalde regels in op te stellen en naar manieren te zoeken om te voorkomen dat er ongelukken gebeuren. Een tijd geleden ging Google een samenwerking aan met het Amerikaanse ministerie van defensie, het Pentagon, om drones slimmer te maken en meer mogelijkheden te geven om met behulp van AI beslissingen te maken. Dat leidde tot grote kritiek op Google, dat vervolgens met een ethische code voor AI kwam en beloofde zijn technologie niet in te laten zetten voor de ontwikkeling van wapens.

Verkeerde keuzes

De grote zorg waar de onderzoekers van de EFF het over hebben, ligt in de nieuwe soorten aanvallen waar AI mee te maken kan krijgen. De data aan de hand waarvan de AI leert wanneer het bepaalde doelwitten moet selecteren en wanneer het mag vuren, kan vergiftigd worden en daardoor niet zoals bedoeld zijn.

Het risico is dat autonome wapens, die dus door AI worden aangestuurd, gevaarlijke beslissingen maken en foute keuzes. Wat de EFF betreft moet de wereldwijde defensiegemeenschap dan ook uitzoeken hoe het “veilige en beheersbare AI-systmeen” kan ontwikkelen.