Meta AI heeft een nieuwe versie van de intelligente BlenderBot geïntroduceerd. De chatbot heeft meer menselijke functionaliteit gekregen en wordt daarmee nog realistischer in conversaties.

BlenderBot is ontwikkeld om meer realistische conversaties met mensen te voeren dan chatbots op dit moment kunnen. Vooral als dit op een intelligentere, veiligere en meer toepasbare manier kan plaatsvinden. De benodigde AI-modellen moeten zich daarom kunnen aanpassen aan de veranderende behoeftes van mensen.

De eerste versie van de chatbot gebruikte kunstmatige intelligentie voor empathie, kennis en personaliteit. In versie 2 werd deze functionaliteit verder uitgebreid met een langetermijngeheugencapaciteit. Hiermee kon BlenderBot interactievere en verfijnde conversaties uitvoeren op bijna ieder terrein.

BlenderBot3

In de recent uitgebrachte derde versie van BlenderBot is functionaliteit toegevoegd die vorige interacties onthoudt, hiervan leert en zichzelf daarmee verbeterd. De chatbot doorzoekt het internet voor informatie over vrijwel ieder onderwerp, maar ontwikkelt zich ook via natuurlijke conversaties en feedback met echte mensen.

BlenderBot3 is de eerste openbare 175 miljard parameters chatbot, compleet met de model weights, de code, de datasets en model cards. De chatbot is gebaseerd op het al openbare OPT-175B language-model van de social mediagigant. Dit AI-model is 58 keer zo groot als het model dat BlenderBot2 ondersteunde.

Toegepaste ML-technologieën

De chatbot wordt ondersteund door twee geavanceerde ML-technologieën uit de koker van Meta AI; SeeKeR en Director. Deze technologieën maken het voor BlenderBot3 mogelijk te leren van interacties en feedback. SeeKeR is een modulair Language Model (LM) dat een zoekmachine gebruikt om relevant en up-to-date te blijven.

Director is een nieuw model dat de chatbot helpt bij het genereren van antwoorden op basis taalmodellen en classificatie. Het eerste mechanisme helpt BlenderBot3 met de meest relevante en vloeiende antwoorden op basis van de trainingsgegevens. Het tweede mechanisme, de classifier, informeert het model van wat goed of fout is in een antwoord op basis van menselijke feedback. Voor een antwoord moeten zowel het taalmodel als de classifier het eens zijn dat alles correct is.

Voorkoming van misbruik

Een andere feature van BlenderBot3 waaraan Meta AI veel aandacht geeft, is dat de chatbot sterk wordt getraind op het voorkomen van misbruik. Aangezien de chatbot leert van menselijke conversaties en feedback, kan de chatbot worden gemanipuleerd in het uiten van schadelijke opmerkingen of taal.

Voor het voorkomen van deze mogelijkheid tot manipuleren zijn learning algoritmes toegevoegd die onderscheid maken tussen nuttige en schadelijke feedback. Deze algoritmes filteren de feedback en halen daarmee als schadelijk of verdacht beschouwde opmerkingen eruit. Deze algoritmes nemen daarbij het gedrag van de (menselijke) gebruikers in acht gedurende de hele conversatie. Op deze manier leren de algoritmes die gebruikers met goede intenties te vertrouwen en zij die negatieve intenties hebben te wantrouwen. Op deze manier moet BlenderBot3 dus veiliger en meer intelligent te worden.

Proefversie beschikbaar

Inmiddels is een proefversie van BlenderBot3 in de Verenigde Staten openbaar gemaakt. De AI-divisie van de social mediagigant nodigt iedereen uit met de intelligente chatbot in gesprek te gaan, zodat het kan leren en zichzelf verder kan trainen. Daarnaast kan de chatbot door de vele interacties straks ook zelf feedback aangeven, zoals met een duimpje omhoog of omlaag.

Meta AI geeft ook aan dat het data van BlenderBot3-interacties en -conversaties gaat delen. Ook zijn het onderliggende model en de model cards met de wetenschap gedeeld zodat conversatie-onderzoek rondom AI een boost krijgt.

Tip: Google AI LaMDA zou zelfbewust zijn, experts uiten stevige kritiek