Thales groot voorstander van regulering en certificering kunstmatige intelligentie (AI)

De afgelopen jaren heeft Thales fors geïnvesteerd in nieuwe technologie, door middel van eigen onderzoek en overnames. In totaal is er sinds 2016 zo’n 7 miljard euro geïnvesteerd. Een van de technologieën waar Thales fors in investeert is kunstmatige intelligentie, oftewel AI. Dat levert echter de nodige hoofdbrekens op, want er is nog geen regulatie of certificering. Dat moet nu wel gaan gebeuren, stelt CEO Patrice Caine.

Voor degene die niet bekend is met de Thales Group, dit Franse bedrijf levert complexe hardware- en software-oplossingen aan overheden en infrastructuurbedrijven. Voorbeelden hiervan zijn defensie, geheime diensten, vliegvelden en spoorwegbedrijven.

Recent brachten we een bezoek aan Thales om van CEO Patrice Caine te horen waar het bedrijf zich mee bezighoudt en wat de visie rond AI is, een technologie waar fors in geïnvesteerd wordt. Hiervoor werkt Thales samen met de Universiteit van Montreal. Een van de professoren van de Universiteit, Yoshua Bengio, was tijdens ons bezoek ook aanwezig om zijn visie te delen rondom AI. Vorig jaar was deze professor nog te zien bij de VPRO om duiding te geven over Deep Learning.

AI-oplossingen van Thales moeten perfect zijn, er is geen ruimte voor fouten

Thales investeert nu in AI-oplossingen die veel geavanceerder zijn dan de technologie die het vandaag de dag toepast. De vraag is wel hoelang het nog gaat duren voordat producten van Thales geleverd kunnen worden met deze geavanceerde kunstmatige intelligentie. Caine liet namelijk weten dat als Thales dit soort geavanceerde AI-technologie gaat inzetten, deze echt helemaal perfect moet zijn. Gezien de klanten die het bedrijf bedient en de manieren waarop technologie wordt ingezet is er vaak geen ruimte voor fouten.

De vraag in deze is ook wat je AI noemt en wat niet. De radar-oplossingen van Thales kan op dit moment al een raket onderscheiden van een vogel, of een raket onderscheiden van een vliegtuig, ook niet onbelangrijk. Dit is niet nieuw. Het bedrijf kan dit al geruime tijd, nog ver voordat de discussie en hype rondom AI ontstond. De vraag is dus noemen we dit AI of niet. Professor Bengio vult hierop aan dat de huidige AI-innovaties al veel betekent hebben voor de maatschappij. Op basis van de huidige innovatie zouden we onze maatschappij de komende tien jaar zelfs nog beter kunnen maken. Onder aan de streep is een huidige AI eigenlijk nog heel dom, aldus de professor. Het is allemaal nog te afhankelijk van de programmatuur en machine learing-algoritmes. Fouten en vooringenomenheid is op dit moment nog lastig te voorkomen.

Daar zit voor Thales ook meteen de crux. Caine stelt dat er geen ruimte is voor domheid. Als een marineschip een vliegend object detecteert met een radar van Thales dan is er heel weinig tijd. Men wil dan zo snel mogelijk weten of het een drone is, een gevechtsvliegtuig of misschien een passagiersvliegtuig. Als de AI vervolgens de verkeerde inschatting maakt kan dat grote gevolgen hebben.

Veel AI-oplossingen werken op dit moment verre van perfect. Een goed voorbeeld dat Thales aanhaalt is de AI van Spotify. Je kan een bepaalde playlist of artiest afspelen en aangeven dat Spotify ook soortgelijke muziek of artiesten mag afspelen. Iedereen die dit weleens heeft getest, hoort af en toe best een goed onbekend nummer. Er komt echter ook enorm veel slechte muziek voorbij. De AI maakt daarin dus niet altijd de beste keuze. Bij Spotify is dat makkelijk te vergeven. Je skipt gewoon naar het volgende nummer. Een trein die moet stoppen, een defensieapparaat dat moet verdedigen of een luchtvaartorganisatie van een druk vliegveld: dergelijke situaties zijn minder vergevingsgezind. Fouten kunnen dan dramatische gevolgen hebben.

Thales ziet een oplossing in een AI die zijn keuzes kan uitleggen

De grote uitdaging waar Thales nu voor staat is een AI te ontwikkelen die dus niet zo dom is. Een foutloze AI ontwikkelen is op dit moment eigenlijk niet te doen. Thales heeft dus goed gekeken naar de manier waarop het daar wel kan komen. Het bedrijf ziet de oplossing in een AI die kan uitleggen hoe deze tot zijn keuze is gekomen. Het is een beetje vergelijkbaar met wiskunde op school. Het uiteindelijk antwoord kreeg je een punt voor, maar de methode hoe je tot het antwoord was gekomen kreeg je drie punten voor.

Als een AI exact kan uitleggen waarom het bepaalde keuzes maakt, dan is het ook veel makkelijker om eventuele fouten te herstellen en de AI verder te perfectioneren. Dat is dan ook iets waar Thales zich op richt.

Voorkomen dat AI misbruikt wordt voor kwade bedoelingen

Als Thales of een ander bedrijf erin slaagt om AI minder dom te maken, wellicht door uit te laten leggen hoe bepaalde keuzes tot stand zijn gekomen, dan wordt het ook eenvoudiger om AI te misbruiken voor kwade bedoelingen. Drones voorzien van AI worden gezien als een van de grootste problemen voor de toekomst. Drones zouden misbruikt kunnen worden om aanslagen te plegen of huurmoorden op basis van gezichtsherkenning.

De grote vraag is natuurlijk hoe je dat kan voorkomen. De professor van de Universiteit van Montreal is hier onrealistisch in, hij ziet in wereldvrede de oplossing. Gelukkig is de CEO van Thales iets nuchterder. Hij denkt dat dergelijke zaken voorkomen met goede afspraken tussen landen zeker mogelijk moet zijn, bijvoorbeeld wanneer de Verenigde Naties met al zijn landen tot een afspraak komt. Thales gelooft niet in verbieden, maar wel in reguleren en certificeren.

Wereldwijd VN-akkoord of afspraak met veel landen

Thales zou graag zien dat verschillende landen met elkaar in gesprek gaan om tot een goed beleid rond AI te komen. Caine vergelijkt AI met landmijnen in zijn presentatie. Hoewel je nooit alle landen aan boord zal krijgen voor het reguleren van AI, kan het al voldoende zijn als 90 procent meedoet. Hij noemt de Verenigde Staten en Rusland als voorbeelden van landen die waarschijnlijk niet open staan voor het idee. Dit gebeurde ook toen landen afspraken maakten over het verbieden van landmijnen. Rusland en de Verenigde Staten hebben dat akkoord nooit gesteund, maar doordat alle andere landen het hebben doorgezet, is de productie en inzet van landmijnen vandaag de dag zo goed als nihil.

Hoe AI moet worden gecertificeerd, in welke normen iedereen zich kan vinden en wat dat betekent voor de technologiesector zal de toekomst moeten uitwijzen. Waarschijnlijk gaat het nog wel even duren, voordat daar echt duidelijkheid over is. In de tussentijd is Thales niet van plan om af te wachten, het heeft besloten zijn eigen “Charter” op te stellen. Hierin zal het bedrijf beschrijven wat volgens hen verantwoord en ethisch gebruik is van digitale middelen. Daarin komen dus de rode lijnen van Thales rondom ethiek en digitale transformatie, niet alleen voor militaire applicaties maar ook voor gebruik in het bedrijfsleven.

In de charter gaat het uit van drie onderwerpen;

  • Vertrouwen, vertrouwen in wat de AI doet maar vooral ook hoe het dat doet;
  • Waakzaamheid, wat is de ethische impact van AI in onze oplossingen;
  • Governance, ethiek komt voorop bij alles wat we doen;

Uiteindelijk komt de charter neer op verantwoord ondernemen met AI. Dat dit zo belangrijk is bij Thales, is terug te brengen tot het klantenbestand. Als veel overheden en defensie-apparaten tot je klantenbestand behoren, dan moet je hier serieus mee omgaan. Doe je dat niet en leidt het tot verkeerde keuzes met de verkeerde klanten. Dan kan het hele imago van het bedrijf onder druk komen te staan. Thales wil dat met deze charter duidelijk voor zijn.