4min

Tags in dit artikel

, ,

Kunstmatige intelligentie (AI) is een snel opkomende trend en drukt niet alleen zijn stempel op het nieuws: het drukt ook zijn stempel op de cloud-factuur van zakelijke klanten die er te vroeg induiken. In het kielzog van ChatGPT en de vele large language models (LLM’s) die al snel volgden, haalt AI wereldwijd de krantenkoppen. Hoewel er onnoemelijk veel voordelen zijn die bedrijven kunnen halen uit AI – variërend van het optimaliseren van bedrijfsprocessen, het verbeteren van bestaande producten en zelfs het creëren van nieuwe producten – is er een aantal valkuilen die bedrijven moeten vermijden om de vruchten ervan te plukken. Misschien wel het belangrijkste, vanuit zakelijk oogpunt, is het beheren van de kosten voor het draaien van deze modellen.

Geen enkele manager implementeert AI omwille van AI

Kosten en efficiëntie, dat is waar het meestal om draait. Maar hoe hoger de kosten van het gebruik van generatieve AI, hoe hoger de eisen die men stelt aan het ROI-voordeel. Het zit in de aard van het beestje dat er enorme hoeveelheden gegevens voor algemene en specifieke doeleinden nodig zijn om AI-engines aan te drijven. Echter, al die gegevens moeten worden opgeslagen, beheerd en beveiligd. Elk van deze functies brengt kosten met zich mee.

Door de capaciteit, prestaties- en schaalvereisten die nodig zijn om deze modellen effectief te beheren, streefden veel early adopters ernaar om ze in de public cloud te draaien. Hoewel bedrijfstransformatie het doel was van deze vroege projecten, was het eindresultaat voor velen een shockerende eindafrekening ’. Nu de onbezonnenheid plaatsmaakt voor een meer volwassen afweging over hoe deze schijnbaar gevoelige programma’s kunnen worden ingezet, kiezen organisaties voor een meer genuanceerde benadering.

Steeds vaker zal een LLM worden getraind alvorens deze wordt uitgevoerd in de public cloud of op de eigen infrastructuur van een organisatie, zodat de kosten beter in de hand kunnen worden gehouden. Dit is niet alleen logisch vanuit kostenoogpunt – zeker als je bedenkt dat het 4 tot 5 keer meer kan kosten om een compact AI-model in de cloud te laten draaien dan in een on-premises datacenter – maar het kan ook andere onbedoelde gevolgen beperken.

Gegevens onder controle houden

Hoewel kostenefficiëntie een belangrijke uitdaging is bij elk IT-project, zijn beveiliging en controle over data dat ook. Eén van de grootste valkuilen die bedrijven moeten vermijden bij het implementeren van AI-modellen, is het overtreden van regelgeving op het gebied van databeveiliging en -soevereiniteit. Dit effectief beheren in de public cloud is bijzonder moeilijk, zelfs met traditionele workloads. Met de nieuwe AI-modellen wordt deze uitdaging nog groter, omdat de wetgeving voor het gebruik en de training van deze modellen nog in ontwikkeling is.

Voor multinationals vormt datasoevereiniteit een flink risico. Nu landen nadenken over de gevolgen die AI voor de data privacy heeft, lijkt het onwaarschijnlijk dat er wereldwijde overeenstemming komt over AI-modellen en de gegevens die worden gebruikt om ze te trainen. Dit vereist dat bedrijven controle hebben over hun gegevens en hoe deze worden gebruikt. Een LLM die in de Australische tak van het bedrijf wordt gebruikt, mag bijvoorbeeld alleen worden getraind met Australische data en alleen in Australië worden gebruikt. Het introduceren van gegevens van Europese klanten in het Australische model kan een risico met zich meebrengen op het vlak van regelgeving.

Als de EU Apple kan dwingen om de opladers van haar apparaten te standaardiseren, dan durf ik wel te zeggen dat ze er ook voor kunnen zorgen dat de gegevens van haar burgers niet in het buitenland worden gebruikt. Het punt is dat we er nog maar net achter zijn welke vragen we moeten stellen op het gebied van regelgeving. Het zal nog wel even duren voordat we zelfs maar een glimp van de antwoorden kunnen opvangen. Tot die tijd moeten bedrijven de controle houden over hun gegevens en applicaties: iets wat veel moeilijker te bereiken is op infrastructuur die niet van hen is.

Afgezien van regelgeving zijn er meerdere beveiligingskwesties om rekening mee te houden. Als er bijvoorbeeld een chatbot voor de klantenservice wordt ontwikkeld, moeten er eigen productgegevens in de training worden opgenomen. Dit is extreem gevoelige informatie die organisaties waarschijnlijk niet graag in de public cloud bewaren. Bovendien is de overgrote meerderheid van de huidige AI-projecten ontworpen om concurrentievoordeel te behalen. Dat voordeel kan alleen worden behaald als de modellen en gegevens die worden gebruikt om ze te trainen, veilig worden bewaard.

Uiteindelijk is de opwinding over AI gegrond: het heeft het vermogen om de manier waarop bedrijven, overheden en de maatschappij als geheel werken, volledig te veranderen. Maar in deze begindagen moeten we ons bewust zijn van de risico’s en deze beheersen.

En hoewel innovatie niet gratis is, mag de toegangsprijs nooit een verrassing zijn.

Dit is een ingezonden bijdrage van Nutanix. Via deze link vind je meer informatie over de mogelijkheden van het bedrijf.