Google lanceert Gemma 4 met een breed licentiemodel

Google lanceert Gemma 4 met een breed licentiemodel

Google DeepMind heeft Gemma 4 uitgebracht, een reeks van vier open-weight AI-modellen. Ze zijn geschikt om op lokale apparaten te draaien, van kleine edge-endpoints tot werkstations. De 31B Dense staat op de derde plaats van de Arena AI-ranglijst voor open modellen, ondanks zijn beperkte omvang. Alle modellen zijn beschikbaar onder een Apache 2.0-licentie. Dit neemt eerdere, inmiddels vrij gebruikelijke, beperkingen weg voor developers.

De vier open-weight modellen zijn gebouwd voor geavanceerde redenering en agentic workflows, aldus Google. De line-up bestaat uit Effective 2B (E2B), Effective 4B (E4B), een 26B Mixture of Experts (MoE) en een 31B Dense-model, allemaal onder een Apache 2.0-licentie.

Het 31B Dense-model staat momenteel op de derde plaats van de Arena AI-tekstranglijst voor open modellen, terwijl het 26B MoE-model de zesde plaats inneemt. Volgens Google presteren beide modellen beter dan modellen die tot twintig keer zo groot zijn qua aantal parameters. Sinds Google Gemma in februari 2024 voor het eerst aan de open-source-community heeft geschonken, hebben ontwikkelaars de serie meer dan 400 miljoen keer gedownload en zijn er meer dan 100.000 communityvarianten ontstaan.

Van smartphones tot workstations

De E2B- en E4B-modellen zijn gericht op edge-apparaten. Ze draaien dus volledig offline op telefoons, een Raspberry Pi of Nvidia Jetson Orin Nano met zo goed als geen latency, en beschikken over native audio-input. De edge-modellen ondersteunen een contextvenster van 128K; de grotere 26B- en 31B-varianten bieden tot 256K tokens. Android-ontwikkelaars kunnen vandaag al prototypes van agentische flows maken via de AICore Developer Preview.

Voor desktopgebruik passen de 31B- en 26B-modellen op een enkele 80 GB NVIDIA H100 GPU. De 26B MoE activeert slechts 3,8 miljard parameters bij inferentie, waardoor de latentie laag blijft.

Apache 2.0 en een breder ecosysteem

De Apache 2.0-licentie is waarschijnlijk het meest opmerkelijke aspect van deze modelfamilie. Het betekent een duidelijke breuk met eerdere Gemma-releases. Gemma 3 bood multimodale ondersteuning en vier groottevarianten, maar met restrictievere voorwaarden. Gemma 4 voegt vanaf dag één compatibiliteit toe met vLLM, llama.cpp, Ollama, NVIDIA NIM, LM Studio en meer. Clément Delangue, CEO van Hugging Face, noemde de Apache 2.0-release al “een enorme mijlpaal”.

De licentie staat niet alleen gratis gebruik van het model toe, maar ook aanpassing en verdere distributie, zij het met de kleine voorwaarde dat er een vermelding van de bron moet worden opgenomen. Benchmarks van derden tonen aan dat Gemma 4 voorloopt op de open modellen van OpenAI. Maar de 31B Dense loopt niet overal voorop; modellen zoals Qwen 3.5 27B scoren op verschillende meetpunten bijna even goed.

De modellen zijn nu beschikbaar via Google AI Studio, Kaggle, Ollama en Hugging Face. Voor productie biedt Google Cloud implementatie via Vertex AI en Cloud Run.