De ontwikkelingen op het gebied van data-innovatie en AI gaan razendsnel. Aan het eind van het jaar deel ik een overzicht van de belangrijkste trends op het gebied van data & AI voor komend jaar: van agentische systemen, tot kostenefficiënter gebruik van data. En van AI-observability tot de toevoeging van een semantische laag.
Agentische systemen worden de drijvende kracht achter praktische toepassingen
In 2025 gaan de eerste generatie aan breed gebruikte applicaties op basis van agents in productie. Denk aan applicaties die klantenserviceproblemen oplossen, cyberdreigingen identificeren en projectmanagementtaken overnemen. Agentische AI zorgt dat er meer mogelijkheden komen van AI-gedreven applicaties om actie te ondernemen, soms autonoom, maar in de meeste gevallen nog met menselijke ondersteuning. De verschuiving naar agentische AI zal geavanceerdere automatiseringsmogelijkheden mogelijk maken en bedrijven helpen om daadwerkelijk rendement op hun AI-investeringen te realiseren. Agentische AI heeft het potentieel om meer zichtbare zakelijke waarde te leveren door taken onafhankelijk uit te voeren via autonome besluitvorming, iets wat generatieve AI hiervoor niet zelfstandig kan doen.
De negativiteit rond AI verdwijnt
AI-hallucinaties vormen nu de grootste belemmering in het vertrouwen voor het gebruik van generatieve AI in de breedte. Veel generatieve AI wordt nu voornamelijk ingezet voor intern gebruik omdat het lastig is om organisaties zekerheid te krijgen over wat een model zal zeggen en om ervoor te zorgen dat de resultaten accuraat zijn. Er komen nu snel verbeteringen aan om AI-output binnen acceptabele grenzen te houden. Zo kunnen bedrijven nu kaders aangeven om bijvoorbeeld te bepalen wat AI wel of niet mag zeggen en welke toon wel of niet is toegestaan. Modellen begrijpen deze kaders of guardrails steeds beter en kunnen makkelijk worden aangepast om zaken zoals vooroordelen tegen te gaan. Toegang tot meer data, diverse data en relevantere bronnen zal daarnaast de nauwkeurigheid van AI verbeteren.
De GPU-markt corrigeert zichzelf, waardoor AI-gerelateerde kosten en doelen beter beheersbaar zijn
Het probleem met AI en GPU-gebruik is dat de chip in eerste instantie niet gelijkmatig verdeeld is. In Europa maken we ons meer zorgen over het tekort aan GPU’s dan bedrijven in de Verenigde Staten, waar meer capaciteit beschikbaar is. Regionale beschikbaarheid blijft op de lange termijn een probleem, maar de GPU-markt zal zichzelf corrigeren. De grootste zorg ligt in de elektriciteitstekorten waardoor het noodzakelijk wordt om AI-modellen te ontwikkelen die energiezuiniger zijn en minder afhankelijk van grootschalige GPU-capaciteit. Dit sluit aan bij de noodzaak om gespecialiseerde, kleinere modellen te bouwen om zowel efficiëntie als prestaties te waarborgen. Tot slot zijn de fysieke locatie van data en zorgen over de beveiliging barrières die innovatie tegenhouden.
Publieke sector bewuster bezig met kostenefficiëntie en innovatie
De markt in het algemeen, maar de publieke sector specifiek wordt zich bewuster van de noodzaak van kostenefficiëntie en innovatie om van Europa écht een broedplaats van innovatie te maken door verandering te omarmen. Zorgen over de cloud of implicaties voor beveiliging verdwijnen naar de achtergrond om plaats te maken voor kostenefficiënte oplossingen. Ik verwacht dat er dit jaar positieve stappen worden gezet in de markt in de realisatie dat innovatie een combinatie is van ideeën en uitvoering.
AI-observability wordt mainstream
AI-observability kijkt niet alleen naar de prestatie van een AI-systeem, maar ook naar de kwaliteit van de output. Zorgen om weg te nemen zijn de nauwkeurigheid, veiligheid, ethiek en vooroordelen. AI-observability is wat mij betreft het puzzelstuk om bedrijven vertrouwen te geven in hun AI-systemen en deze succesvol in te zetten voor het grote publiek..
Hoewel AI-observability nog relatief nieuw is, verwacht ik dat dit komend jaar doorbreekt. Steeds meer leveranciers gaan AI-observability functies uitbrengen om te voldoen aan de groeiende vraag naar AI-modellen waardoor ook de grotere cloudproviders deze functionaliteit zullen toevoegen.
Het integreren van een semantische laag in dataplatforms wordt essentieel voor betere AI-prestaties
De evolutie van het dataplatform is essentieel voor de ontwikkeling van AI. Volgend jaar zien we de toevoeging van een semantische laag, een door mensen ontwikkelde toevoeging die AI-modellen helpen beter te redeneren door hen te voorzien van context en begrip van data. Door de semantische laag dichter bij de data zelf te brengen, kunnen AI-modellen directer profiteren van contextuele inzichten. Dit vermindert de afhankelijkheid van extra stakeholders en verlaagt de belasting van het steeds opnieuw creëren van databegrip in elke applicatie die op de data is gebaseerd. Het toevoegen van deze semantische laag is een belangrijke stap in de evolutie van dataplatforms, waardoor AI in staat wordt gesteld om data effectiever te begrijpen en te analyseren.
Dit is een ingezonden bijdrage van Snowflake. Via deze link vind je meer informatie over de mogelijkheden van het bedrijf.