2min

Australische onderzoekers van de UniSA-universiteit zijn erin geslaagd Man-in-the-Middle (MitM)-aanvallen op autonome militaire robots te voorkomen. Dit met behulp van een algoritme dat de robot leerde MitM-aanvallen te signaleren.

In het experiment slaagden de onderzoekers van de Australische universiteiten erin een MitM-aanval op een autonome robot van het Amerikaanse leger te voorkomen. Het gebruikte intrusion detection-algoritme trainde de robot een dergelijke aanval te herkennen en de aanval te onderbreken.

Uit de testen bleek dat het gebruikte algoritme, waarover geen mededelingen zijn gedaan, in 99 procent van de gevallen te werken. De zogenoemde false positive rates waren minder dan 2 procent.

Uit deze cijfers blijkt dat het algoritme dus positief heeft gewerkt. De onderzoekers gaven daarnaast aan dat het gebruikte experimentele algoritme beter werkt dan bestaande technieken voor het detecteren van cyberaanvallen.

Militaire autonome robots zijn kwetsbaar

De onderzoekers zijn ook blij dat hun experiment is geslaagd, omdat in het algemeen autonome militaire robots zeer kwetsbaar zijn voor cyberaanvallen als data-inbreuken en elektronische ‘kapingen’. Dit komt doordat deze systemen zo afhankelijk zijn van netwerktechnologie dat hackers altijd wel een aanvalsvector kunnen vinden.

Ook het versleutelde dataverkeer en de beperkte integriteitscontrolefunctionaliteit beperken dit soort systemen voor goede securitymaatregelen in de onderliggende code, aldus de onderzoekers.

Ook interessant voor Industry 4.0

Niet alleen voor de militaire sector moet het geslaagde experiment hoop bieden, ook de hele Industry 4.0-sector kan hiervan profiteren. Ook deze sector is nog steeds gevoelig voor cyberaanvallen, stellen de Australische experts.

De onderzoekers gaan nu hun algoritme testen op meer (militaire) autonome toepassingen, zoals drones.

Tip: Anthropic kan AI beter uitleggen, hoe komt het model tot zijn resultaat?