Microsoft ontwikkelt nieuwe manier voor menselijkere gesprekken met bots

Abonneer je gratis op Techzine!

Microsoft heeft vandaag bekend gemaakt dat het een nieuwe manier heeft ontwikkeld voor AI-bots. Die kunnen daardoor niet alleen menselijke stemmen analyseren, maar tegelijkertijd een gesprek voeren met mensen. Daardoor zouden gesprekken natuurlijker gevoerd moeten worden.

De nieuwe techniek maakt het namelijk mogelijk voor bots om te voorspellen wanneer ze moeten stoppen met praten. Daardoor kunnen ze inspelen op de behoefte van hun menselijke gesprekspartner om bijvoorbeeld iets aan te vullen en de bot te onderbreken. Tegelijk is het ook mogelijk om te voorspellen wat iemand gaat zeggen en om te bepalen wanneer het zinvol is om iemand te onderbreken.

Menselijkere assistent

De meeste virtuele assistenten hebben de afgelopen jaren een menselijkere stem gekregen. Dankzij machine learning kunnen ze steeds beter menselijke stemmen analyseren en is het steeds ‘normaler’ om een gesprek met zo’n virtuele assistent te voeren. De nieuwe manier om te praten zal eerst in China uitgerold worden, waar Microsoft de assistent Xiaoice heeft. Verder wil men de functie daarna naar Japan uitrollen, naar de assistent Rinna.

De bedoeling is om daar binnen zes maanden mee te beginnen. Ook moet de uitrol naar andere virtuele assistenten snel gaan; zo wil Microsoft de functie naar bots als Zo in Skype, Ruuh in India en Rinna in Indonesië uitrollen. Om te leren wat de juiste manieren zijn om een gesprek te voeren, is gebruik gemaakt van de gesprekken die de bots van Microsoft met tweehonderd miljoen mensen gevoerd heeft de afgelopen jaren.

Een voorbeeld van hoe zo’n gesprek gaat, illustreerde AI-directeur van Zo, Ying Wang, in een mail aan VentureBeat. “Als Xiaoice een verhaal vertelt, zal ze niet zomaar onderbroken worden door gemompel en gepraat op de achtergrond, tenzij er een expliciete intentie van de gebruiker is om haar te laten stoppen,” begon Wang. “Maar, als Xiaoice een high-value IoT-taak uitvoert, zoals een stofzuigerrobot opladen, dan kiest ze er wel voor om niet-expliciete intenties van gebruikers te volgen.”