4min Analytics

Waarom agentic AI valt of staat met context engineering

Een man met een t-shirt van "Security" gebaart met zijn handen terwijl hij spreekt op een evenement, met vage posters en lanyards zichtbaar op de achtergrond.
Waarom agentic AI valt of staat met context engineering

Terwijl organisaties zich haasten om agentic AI-oplossingen te implementeren, wordt het ontsluiten van alle relevante proprietary data een cruciale succesfactor.

Inmiddels zijn vele organisaties bekend met agentic AI: systemen die autonoom ‘’denken’’ door zelfstandig de juiste tools, data en informatiebronnen te verzamelen om tot een antwoord te komen. Maar hier zit de crux: betrouwbaarheid en relevantie vallen of staan bij de nauwkeurigheid van de context. In de gemiddelde onderneming ligt die context verspreid over een wirwar aan ongestructureerde bronnen, van documenten en e-mails tot bedrijfsapplicaties en klantfeedback.

Het oplossen van dit vraagstuk is dit jaar essentieel voor de wereldwijde uitrol van agentic AI. Men begint zich gelukkig te realiseren dat je voor effectieve agentic AI relevante data nodig hebt. Dat besef is cruciaal, omdat deze AI namens iemand beslissingen maakt en actie onderneemt. Juist daarom is relevantie van cruciaal belang. In de praktijk blijkt dat als organisaties worstelen met het bouwen van AI-applicaties, dat het ontbreken van relevantie vaak het probleem is.

Overal agents

De strijd om de technologische voorsprong nadert een beslissend kantelpunt, nu organisaties alles op alles zetten om hun concurrentiepositie te versterken of nieuwe efficiëntieslagen te maken. Een studie van Deloitte voorspelt dat tot 75% van de bedrijven tegen eind 2026 zal investeren in agentic AI. Analist Gartner verwacht bovendien dat tegen eind 2026 maar liefst 40% van alle enterprise-applicaties taakspecifieke agents zal bevatten, vergeleken met minder dan 5% in 2025. Door deze specialisatie veranderen AI-assistenten in contextbewuste AI-agents. Daarmee verschuift agentic AI duidelijk van experimentele toepassingen naar grootschalige inzet binnen organisaties.

De opkomst van context engineering

Het proces om de juiste context op het juiste moment beschikbaar te maken voor de agents, noemen we context engineering. Dit zorgt er niet alleen voor dat een applicatie over de data beschikt voor accurate, diepgaande antwoorden, maar helpt het Large Language Model (LLM) ook te begrijpen welke tools en API’s nodig zijn om die data op correcte wijze te ontsluiten.

Open-source standaarden zoals het Model Context Protocol (MCP) maken het mogelijk voor LLM’s om te communiceren met externe databronnen. Maar slechts weinig platforms stellen organisaties in staat om op basis van eigen data betrouwbare, contextbewuste AI-agents te bouwen, met retrieval, governance en orkestratie geïntegreerd in één omgeving.

Elasticsearch speelt al jarenlang een leidende rol als platform voor context engineering. Onlangs introduceerde we binnen dit platform daarnaast Agent Builder, die de volledige operationele levenscyclus van AI-agents vereenvoudigt: van ontwikkeling en configuratie tot uitvoering, maatwerk en observability.

Agent Builder ondersteunt het bouwen van MCP-tools op private data met behulp van verschillende technieken, zoals Elasticsearch Query Language, een querytaal voor het filteren, transformeren en analyseren van data, en workflow modellering. Gebruikers kunnen deze tools vervolgens combineren met prompts en een LLM om een AI-agent te bouwen. Met een configureerbare, kant-en-klare conversational agent kunnen gebruikers direct met de data in de index chatten. Daarnaast kunnen zij geheel eigen agents ontwikkelen, gebruikmakend van diverse tools en prompts bovenop private data waarbij goede toegangseisen zoals RBAC toegepast worden.

Context engineering als nieuwe discipline

Prompt- en context engineering ontwikkelen zich tot volwaardige disciplines. Het is geen vakgebied waarvoor een opleiding in computerwetenschappen vereist is, maar het vraagt wel om een zekere mate van vakmanschap. Daardoor zullen er steeds meer opleidingen en best practices ontstaan. De echte uitdaging ligt niet in het schrijven van betere prompts, maar in het effectief inzetten van AI voor automatisering. Juist daar zit de structurele productiviteitswinst. Organisaties die zich hierop richten, zullen aantoonbaar succesvoller zijn.

Tegelijkertijd blijft context engineering zich ontwikkelen. Waar de sector begon met prompt engineering, verschoof de focus naar retrieval-augmented generation (RAG), waarbij relevante informatie via een contextvenster aan een taalmodel wordt meegegeven. Inmiddels ontstaan ook MCP-oplossingen die LLM’s ondersteunen bij het selecteren van de juiste tools. Deze evolutie staat niet stil. De manier waarop data met taalmodellen wordt gedeeld zal veranderen, met nieuwe benaderingen om modellen te verankeren in de juiste informatie. Daarbij ontstaan patronen die het mogelijk maken voor LLM’s om private data te begrijpen en te benutten, zonder dat ze daar specifiek op zijn getraind.

Dit is een ingezonden bijdrage van Elastic. Via deze link vind je meer informatie over de mogelijkheden van het bedrijf.