Nederlanders willen lang niet allemaal AI als teamlid

Nederlanders willen lang niet allemaal AI als teamlid

Hoewel 69 procent van de Nederlandse medewerkers gelooft dat AI-samenwerkingstools tijd besparen, voelt bijna de helft zich niet comfortabel om AI als virtueel teamlid in te zetten. Dit blijkt uit onderzoek van Lucid Software onder 261 professionals.

Nederlandse organisaties maken een dubbele uitdaging door met AI. Enerzijds zien werknemers de voordelen: ruim twee derde verwacht tijdwinst door AI-gedreven samenwerkingstools. Anderzijds worstelt 41 procent met het idee om AI daadwerkelijk als volwaardig teamlid te omarmen.

Dat gebrek aan vertrouwen heeft een duidelijke oorzaak. Slechts 22 procent van de medewerkers besteedt wekelijks tijd aan het leren over AI. De meesten doen dit bovendien alleen: 42 procent leest artikelen, 39 procent experimenteert met tools en 33 procent gebruikt AI-producten op het werk. Maar 11 procent houdt zich helemaal niet met AI bezig.

In gesprek met Techzine legt Chief Evangelist bij Lucid Software Bryan Stallings uit dat dergelijke frictie jegens AI niet al te gek is. Hij merkt op dat het werk dat we doen complex is, en de manier waarop succes gemeten wordt, is dat ook. “Meestal is weerstand [tegen verandering] niet omdat mensen koppig zijn.” Stallings ziet dat er een conflict is tussen de complexiteit van het eigen werk en hoe dit vervolgens wordt beoordeeld. AI kan hierin voor meer frictie zorgen, een mogelijke verklaring voor scepsis tegenover de technologie.

Dit wordt duidelijker als we kijken naar hoe AI-oplossingen doorgaans door managers worden begeerd wegens potentiële kostenbesparingen. De logische conclusie van werknemers is dat die besparingen voortkomen uit ontslagrondes, ook al zou dat volgens menig AI-expert niet zo moeten zijn.

Cruciale vaardigheden ontbreken vaak

Werknemers weten wel welke competenties nodig zijn voor de effectieve inzet van AI. Technische vaardigheden staan bovenaan (48 procent), gevolgd door aanpassingsvermogen (40 procent) en analytische vaardigheden om AI-output te interpreteren (34 procent). Eerder onderzoek toonde aan dat 86 procent van de Nederlandse medewerkers werkt met institutionele kennis die niet wordt vastgelegd, wat AI-implementatie extra bemoeilijkt. Immers is er dan geen data voor AI om zich op te baseren.

De grootste belemmeringen voor opschaling zijn zorgen over dataprivacy en beveiliging (38 procent), gebrek aan technische expertise (24 procent) en gebrek aan vertrouwen in AI-output (eveneens 24 procent). Zonder adequate training en veiligheidsmaatregelen blijft het vertrouwen laag. Het is opvallend dat regels eerder als een belemmering gevoeld worden dan de kwaliteit van AI zelf, terwijl ook vraagtekens bestaan rondom de vatbaarheid van de technologie bij complexe kwesties.

Onduidelijke richtlijnen vergroten ongemak

Hoe dan ook ontbreekt het vaak binnen het Nederlands bedrijfsleven aan duidelijk beleid. Van de organisaties heeft 41 procent geen heldere richtlijnen over AI-ethiek opgesteld. Een derde zegt dat dit wel het geval is, een kwart weet het niet zeker. Deze onzekerheid draagt bij aan het ongemak: de helft van de medewerkers maakt zich zorgen over onbedoeld verkeerd gebruik van AI omdat de richtlijnen onduidelijk zijn.

“Vertrouwen in AI opbouwen begint met een duidelijke basis: gedocumenteerde processen, beheer en transparantie”, zegt Dan Lawyer, Chief Product Officer bij Lucid Software. “Als die structuren aanwezig zijn, kunnen medewerkers AI op een verantwoorde en zelfverzekerde manier gebruiken.”

Lucid Software hoopt hierin te kunnen helpen. Stallings legt uit dat juist managementstructuren veelal tot frustraties leiden. “In plaats daarvan proberen we bij Lucid een wereld van ‘aligned autonomy’ te creëren.” Op een later moment duiken we daar dieper op in met de Chief Evangelist van het bedrijf.

Het Lucid-onderzoek vond plaats tussen 15 en 26 augustus 2025 onder 2.231 medewerkers uit diverse sectoren, waaronder 261 uit Nederland.