1 min

Anthropic geeft aan dat zijn LLM AI-model Claude nu meer capaciteit heeft voor het analyseren van content uit bijvoorbeeld boeken. Hiervoor is het context-window opgerekt naar 100.000 tokens.

Volgens de AI-specialist heeft zijn LLM AI-model Claude nu een context window van 100.000 tokens gekregen. Deze hoeveelheid tokens vertegenwoordigt ongeveer 75.000 woorden. Tokens zijn fragmenten van woorden die het verwerken van AI-data eenvoudiger moet maken. Een context-window is gelijk aan kortetermijngeheugen of hoeveel door mensen geleverde input data een LLM-model tegelijkertijd kan verwerken.

Mogelijkheden

Het nu gerealiseerde omvangrijke grotere context window maakt het bijvoorbeeld mogelijk een intelligente chattool op basis van dit model een boek te laten schrijven, of langdurige conversaties te houden. Hierbij gaat het om gesprekken die uren of zelfs dagen kunnen duren, aldus Anthropic.

Ook kunnen bedrijven hiermee onder meer belangrijke informatie uit verschillende documenten halen via gespreksinteractie. Dit zou zelfs sneller gaan dan op vector-search gebaseerde methodes voor complexe zoekvragen.

Groter context window dan GPT-4

Volgens Ars Technica is het nieuwe Claude LLM-model van Anthropic een grote upgrade voor LLM-modellen. In vergelijking met de 100.000 tokens die het model nu in zijn context window heeft, beschikt GPT-4 van Open AI over context window van 4.096 tokens (ongeveer 3.000 woorden) als onderdeel van ChatGPT en 8.192 of 32.768 tokens via de in bèta bevindende GPT-4 API.

Lees ook: Samsung verbiedt gebruik ChatGPT weer