1 min

Amazon geeft zijn voice-assistent Alexa een stuk meer functionaliteit door deze te integreren met (generatieve) LLM-modellen. Het bedrijf hoopt zo de interesse van ontwikkelaars te trekken om nieuwe mogelijkheden te ontwikkelen.

Met de integratie van generatieve LLM- AI-modellen wil Amazon ontwikkelaars stimuleren meer innovatieve gebruikservaringen van de voice-assistent te ontwikkelen. De ontwikkelingen moeten voornamelijk meer natuurlijke gesprekken met de voice-assistent mogelijk maken.

Nieuwe toolset

Amazon biedt hen hiervoor een nieuwe toolset met AI. Het gaat onder meer om de integratie van realtime toegang tot data, functionaliteit voor het maken van restaurantreserveringen of het samenvatten van belangrijke nieuwsitems. De toolset is inzetbaar zonder complexe code en vereist geen ervaring met het trainen van specifieke interactiemodellen.

Daarnaast moeten de nieuwe op LLM-modellen gebaseerde tools het ontwikkelaars mogelijk maken content en API’s met de betreffende Alexa LLM-modellen, of LLM-modellen naar keuze, te integreren. Dit is dan weer belangrijk voor de vooruitgang van de natuurlijkheid van conversaties op Alexa-geschikte devices.

Werking

Meer specifiek leveren ontwikkelaars tijdens het ontwikkelproces zelf belangrijke onderdelen zoals het skill manifest, API-specificaties, contentbronnen en beschrijvingen in normale taal. Op het moment van draaien identificeert Alexa dan automatisch de juiste aanbieder, orkestreert het de API-calls en weet het content op basis van gebruikerscontex, de eerdere conversatiegeschiedenis en event-tijdstippen, op te halen.

Lees ook: Amazon IoT-security ondermaats, maar daarin is het niet de enige