3min

Tags in dit artikel

, ,

Moederbedrijf van Google Alphabet raadt het eigen personeel aan om zeer voorzichtig om te gaan met chatbots, waaronder de eigen Bard-tool. Het wil niet dat werknemers gevoelige informatie naar de AI-bots toespelen, ondanks dat het zelf zeggenschap over Bard heeft.

Het komt niet al te best over: een techbedrijf dat niet helemaal achter de eigen technologie staat. Eerder deze maand bleek bij Meta al dat het eigen personeel niet gauw naar de eigen VR-headsets greep om te participeren aan de Metaverse, een visie van Mark Zuckerberg om veel werkzaamheden virtueel te maken. Nu lijkt het erop dat Google de gevaren van de eigen tech van bovenaf wil inperken. Toch is het belangrijk om hier wat nuance aan toe te voegen

Secure AI

Generatieve AI is in trek, en chatbots zijn de “posterchild” van de beweging. Immers was het ook ChatGPT dat de mogelijkheden van de technologie liet zien: de veelal menselijk overkomende antwoorden en vindingrijke toepassingen spreken tot de verbeelding. Tegenover dat product van OpenAI ging Google met Bard de strijd aan. Althans, zo wordt dat vaak gekarakteriseerd. Het feit is dat Google-CEO Sundar Pichai zich wel erg voorzichtig uitlaat over Bards capaciteiten. Eind maart sprak hij in een podcast van The New York Times over de “inspiratie” waar de chatbot voor bedoeld was. Niet echt een werkpaard voor professionals, dus.

Waar de voorzichtigheid van Google eerder op duidt, is dat het Bard niet positioneert als een bruikbaar middel voor serieus werk. Of tenminste, niet in het hier en nu. Het timmert aan de weg met verbeterde programmeercode-vaardigheden en wiskundige rekenkracht.

Waar Google naartoe wil, is een veilige omgang met AI-modellen. Dat houdt bijvoorbeeld in dat de cybersecurity op orde moet zijn. Ook dient de invoer van data niet te leiden tot het lekken van gegevens naar de buitenwereld. Daarom kwam het onlangs met het Secure AI Framework, dat veel beter aangeeft hoe Google naar AI aankijkt dan de beperkingen die het voor personeel oplegt wat Bard betreft.

Copilots versus chatbots

Bij toepassingen op basis van de technologie van concurrent OpenAI bezigt met name Microsoft de term ‘copilot’. Hier gaat het nog steeds om dezelfde achterliggende LLM’s (large language models) die ook ChatGPT ondersteunen, maar deze zijn toegepast voor een specifiek doel en met een berg beperkingen. Zo is de Copilot van GitHub of binnen een Office 365-applicatie niet zo praatgraag als een normale chatbot. Deze richten zich specifiek op een bepaalde taak en zijn vooraf in feite al getraind om daar niet van af te wijken. Dit hebben we al eens eerder geduid als een ‘chatbot met een baan’.

Dat is uiteindelijk waarom het niet zo gek is dat Google wat huiverig is om Bard zomaar in te zetten voor het eigen werk. De chatbot is een experiment, zo noemt het bedrijf de applicatie ook expliciet.

Zorgelijke ontwikkeling

Toch is het feit dat Google en OpenAI kunnen roepen wat ze willen, chatbots worden ingezet voor werkzaamheden. Ondanks dat partijen als Samsung en Amazon ook hun personeel niet zomaar gebruik laten maken van een AI-assistent, haalt Reuters onderzoek aan dat aangeeft dat 43 procent van professionals alsnog gebruikmaken van ChatGPT voor hun werk.

Momenteel zijn het nog spaarzame verhalen: een advocaat die nepfeiten opnoemt die door ChatGPT zijn bedacht of een cybercrimineel die phishing-mails door de chatbot laat opstellen. Echter gaan we dit steeds vaker zien als de kracht van generatieve AI niet in goede banen geleid wordt. Een zorgelijke ontwikkeling, met andere woorden.

De oplossing? Niet alleen duidelijke regelgeving en frameworks vanuit de overheid en het bedrijfsleven, maar ook educatie. De inzet van generatieve AI is al in volle gang en zal niet meer te stoppen zijn. Om dit te ondersteunen, moeten werknemers echt een hoger bewustzijn van security ontwikkelen dan nu het geval is.

Het is niet zo dat dat een verloren zaak is. Het is zaak om een heldere scheidslijn te plaatsen tussen recreatieve of experimentele tools zoals Bard en ChatGPT, en copilots zoals we ze zien bij applicaties. Denk ook aan security-hulpjes bij CrowdStrike en onlangs ook Trend Micro. Deze tools zorgen voor een versnelde detectie en response op cyber-aanvallen. Daarnaast creëren ze meer overzicht in een vaak moeilijk te doorgronden IT-omgeving. Het is misschien wel het duidelijkste voorbeeld van wat er mogelijk is met generatieve AI als het een heldere taak krijgt. Laat dat nu precies zijn hoe we in ons werkend leven bij de technologie terecht kunnen.