2min Analytics

Google breidt Gemma-familie uit met compacte 270M-variant

Google breidt Gemma-familie uit met compacte 270M-variant

Google introduceert Gemma 3 270M, een nieuw compact AI-model met 270 miljoen parameters dat bedrijven kunnen fine-tunen voor specifieke taken. Het model belooft aanzienlijk lagere operationele kosten dan grotere alternatieven.

Gemma 3 270M is het jongste lid van Google’s open source AI-modellenreeks. Met 270 miljoen parameters – waarvan 170 miljoen voor embedding en 100 miljoen voor transformer blocks – is het model speciaal ontwikkeld voor taakspecifieke fine-tuning. De grote vocabulaire van 256.000 tokens zorgt ervoor dat het model ook specifieke en zeldzame termen goed kan verwerken.

Het model onderscheidt zich door zijn energiezuinigheid. Uit tests op een Pixel 9 Pro SoC bleek dat de INT4-gequantiseerde versie slechts 0,75 procent batterijverbruik heeft voor 25 gesprekken. “Dit maakt het ons meest energiezuinige Gemma-model”, aldus Google.

Het kleine formaat van Gemma 3 270M maakt snelle fine-tuning-experimenten mogelijk. Waar andere modellen dagen vergen, stelt Google nu dat bedrijven binnen uren de perfecte configuratie kunnen vinden voor hun gebruik. Bovendien kan het model volledig on-device draaien, wat betekent dat gevoelige informatie nooit de cloud hoeft te verlaten.

Breed inzetbaar voor specifieke taken

Gemma 3 270M richt zich op high-volume, goed gedefinieerde taken zoals sentimentanalyse, entiteitsextractie, query routing en het verwerken van ongestructureerde naar gestructureerde tekst. Voor bedrijven die elke milliseconde en micro-cent willen besparen, biedt dit model dramatische kostenbesparingen. Een fine-tuned 270M-model kan draaien op lichtgewicht, goedkope infrastructuur of direct op apparaten.

Het model is direct beschikbaar via platforms als Hugging Face, Ollama, Kaggle, LM Studio en Docker. Zowel pre-trained als instruction-tuned versies zijn uitgebracht. Voor deployment kunnen organisaties kiezen uit lokale implementatie tot Google Cloud Run.

Google biedt ook production-ready quantization-aware trained (QAT) checkpoints, waarmee modellen op INT4-precisie kunnen draaien met minimale prestatieverlies. Deze aanpak is essentieel voor deployment op apparaten met beperkte resources.

Voor bedrijven die een vloot van gespecialiseerde task-modellen willen bouwen, biedt Gemma 3 270M een kosteneffectieve basis. Elk model kan expert worden in zijn eigen taak zonder het budget te overschrijden.

Tip: Google introduceert nieuwe lichte Gemma 3 LLM’s