2min

Het is een understatement om generatieve AI als “hot topic” te bestempelen. De technologie is overal, van chatbots tot data-analyse. Echter zien Douwe Kiela (CEO) en Amanpreet Singh (CTO) van startup Contextual AI dat de enterprise-markt een aantal obstakels heeft voordat het volledig in kan zetten op deze vorm van kunstmatige intelligentie.

Op woensdag lanceerde Contextual AI vanuit “stealth-mode”: de startup kan al rekenen op 20 miljoen dollar (18,6 miljoen euro) aan investeringen. Tegenover TechCrunch liet Kiela weten dat men bij Contextual AI wil afwijken van de bestaande trend om generatieve AI vooral voor consumenten in te richten. Het is niet voor niets dat bijvoorbeeld Google Bard en ChatGPT vooral kunnen inspireren, maar nog niet echt foutlous nieuwe informatie kunnen genereren. Daarvoor, zo denkt Kiela, is een “next generation” variant nodig die het bedrijfsleven kan voorzien.

Immers bestaat momenteel al aardig wat weerstand tegen de ongeremde groei van AI-toepassingen. Over de inzet van gebruikersgegevens en de mogelijke schending van privacy- en copyrightwetten is de discussie nog niet afgelopen. De EU, de VS en andere politieke entiteiten zijn bezig met AI-regulering, waarvoor compliance uiteindelijk bepalend gaat zijn voor het bedrijfsleven. Dat is waar Contextual AI met verantwoordelijke use-cases wil komen, zodat iedereen vertrouwen kan hebben in AI.

Sporen verdiend

Kiela en mede-oprichter Singh hebben in ieder geval hun sporen verdiend. Beide heren hebben gewerkt bij AI-bedrijf Hugging Face en Meta, waarbij Kiela retrieval augmented generation (RAG) onderzocht. Deze toepassing klinkt al een stuk minder gevoelig voor ‘hallucinaties’, oftewel verkeerde informatie vanuit AI-bots. RAG kun je zien als een laag bovenop een LLM, die in de gaten houdt welke bronnen de informatie bevatten waar het AI-model mee op de proppen komt. Het verschaft de LLM van meer context rondom de vraag, zodat het zich beter grondt in de realiteit.

Deze vorm van ondoorzichtigheid kan leiden tot vrij concrete fouten. Omdat LLM’s niet ‘context-aware’ zijn, kan het verkeerde informatie verschaffen zonder dat duidelijk wordt waar het dit op baseert. Ook als het juist is, zou het wenselijk zijn als men de bron kan raadplegen. Dit is ge├»ntegreerd in Bing Chat, maar niet foutloos. RAG dient dit probleem op den duur te verhelpen naast andere bestaande problemen omtrent generatieve AI, denkt Kiela.

Het grote voordeel: nieuwe AI-modellen kunnen een stuk kleiner zijn zonder dat ze aan accuratesse inleveren. Een noodzakelijk iets op de langere termijn, aangezien we niet eindeloos supercomputers en datacenters kunnen bouwen. Het lokaal draaien van AI-modellen zou met RAG in ieder geval een stuk praktischer kunnen worden.

Momenteel heeft Contextual AI nog slechts acht medewerkers, maar het hoopt tegen het eind van het jaar 20 mensen in dienst te hebben. Het hoopt dat grote bedrijven open staan om de technologie op pilot-basis te proberen.

Lees ook: Marketeers zien generatieve AI als game changer