Qwen3.5 moet Alibaba naast GPT en Claude positioneren

Qwen3.5 moet Alibaba naast GPT en Claude positioneren

Alibaba zet een stap in de ontwikkeling van open source AI-modellen met de introductie van Qwen3.5. Het concern stelt dat dit nieuwe model op meerdere punten kan concurreren met, en in sommige gevallen beter presteert dan, gevestigde namen zoals GPT-5.2 en Claude 4.5 Opus. 

Dit schrijft SiliconANGLE. Qwen3.5 is beschikbaar gesteld via Hugging Face en wordt uitgebracht onder een open-sourcelicentie. Daarmee richt Alibaba zich nadrukkelijk op ontwikkelaars en onderzoeksinstellingen die zelf met het model aan de slag willen. Het systeem is standaard in staat om zeer lange prompts te verwerken, tot ruim 260.000 tokens, en kan met aanvullende optimalisaties nog verder worden opgeschaald. Dat maakt het geschikt voor complexe toepassingen zoals uitgebreide documentanalyse en codegeneratie. Daarnaast ondersteunt het meer dan 210 talen en dialecten en kan het ook beeldmateriaal verwerken, waaronder grafieken en andere visuele data.

De architectuur van Qwen3.5 is gebaseerd op het zogenoemde mixture-of-experts-principe. In plaats van één groot neuraal netwerk gebruikt het model meerdere gespecialiseerde netwerken, waarvan er per opdracht slechts een beperkt aantal actief is. Hierdoor wordt de benodigde rekenkracht aanzienlijk verlaagd zonder dat dit ten koste gaat van de prestaties. Hoewel het totale model bijna 400 miljard parameters telt, wordt per prompt slechts een fractie daarvan aangesproken.

Efficiëntere omgang met context en geheugen

Alibaba voerde diverse technische verfijningen door om de efficiëntie verder te vergroten. Een belangrijk onderdeel daarvan is de manier waarop het model met aandachtmechanismen omgaat. Waar traditionele attention-mechanismen snel veel geheugen verbruiken bij lange invoer, combineert Qwen3.5 klassieke benaderingen met een lichtere variant die minder geheugen nodig heeft. Dit maakt het model beter schaalbaar voor toepassingen met grote hoeveelheden context.

Ook maakt Qwen3.5 gebruik van een zogeheten gated delta network. Deze techniek helpt het model om irrelevante informatie tijdelijk los te laten en zorgt ervoor dat het leerproces tijdens training efficiënter verloopt. Onderzoek van onder meer Nvidia Corp. heeft eerder laten zien dat deze combinatie van technieken de hardware-eisen voor het trainen van grote taalmodellen kan verlagen.

In interne tests heeft Alibaba Qwen3.5 vergeleken met concurrerende modellen op meer dan dertig benchmarks. Daaruit blijkt dat het model vooral sterk is in het nauwkeurig opvolgen van instructies en in complexe redeneertaken. De resultaten laten geen absolute dominantie zien, maar wel dat Qwen3.5 zich kan meten met de top van de markt en in specifieke scenario’s betere scores behaalt.

Opvallend is ook de focus op multimodaliteit. Volgens Alibaba presteert Qwen3.5 beter dan eerdere eigen modellen die specifiek waren ontworpen voor beeldanalyse, zowel bij visueel redeneren als bij programmeertaken waarin beeld en tekst worden gecombineerd. Daarmee positioneert Alibaba Qwen3.5 als een breed inzetbaar model voor uiteenlopende AI-toepassingen.

Met deze release laat Alibaba zien dat open modellen niet alleen een academisch experiment zijn, maar ook een serieus alternatief vormen voor commerciële, gesloten AI-systemen. Voor ontwikkelaars en bedrijven biedt Qwen3.5 daarmee een nieuwe optie om geavanceerde AI-functionaliteit te integreren zonder volledig afhankelijk te zijn van propriëtaire platforms.