Google Cloud Run brengt serverless en containers samen

Google heeft tijdens Google Cloud Next een nieuw product aangekondigd, waarmee serverless en containerization samen worden gebracht. Het gaat om Google Cloud Run. Ook werd Cloud Run for GKE aangekondigd, wat specifiek ontworpen is om te draaien op Google’s versie van kubernetes.

De producten zijn ontstaan uit discussies met klanten, vertelt director of product management for serverless Oren Teich tegenover TechCrunch. Ontwikkelaars houden volgens hem van de flexibiliteit en wendbaarheid die ze krijgen bij een serverless-architectuur, maar zoeken naar meer dan slechts compute resources. Ze willen toegang krijgen tot de full stack, waar Cloud Run bij moet helpen.

Serverless maakt ontwikkelaars flexibeler omdat het ervoor zorgt dat ze zich geen zorgen meer hoeven te maken over servers. De applicatie wordt namelijk niet op een specifieke virtuele machine geladen. In plaats daarvan biedt de cloud-aanbieder precies genoeg resources die vereist zijn om een operatie te draaien. Zodra dat gedaan is, gaan de resources weer weg. Daardoor wordt alleen betaald voor wat er gebruikt is.

“Cloud Run introduceert een geheel nieuw product dat Docker-containers pakt en je direct een URL geeft. Dit is volledig uniek in de industrie”, aldus Teich. “We zorgen voor alles, vanaf de bovenkant van SSL-voorzieningen en -routing helemaal tot aan het daadwerkelijk draaien van de container voor je.” Gebruikers betalen per 100 milliseconden voor wat ze nodig hebben en het geheel wordt van begint tot eind beheerd.

GKE-tool

De GKE-tool biedt dezelfde voordelen, behalve dan dat ontwikkelaars hun containers op Google’s GKE-versie van kubernetes draaien. Ontwikkelaars kunnen immers ook andere versies van kubernetes gebruiken als hun organisatie hiervoor gekozen heeft. Het staat dus niet vast dat zij Google’s variant gebruiken.

Alles rondom Cloud Run is mogelijk gemaakt door een ander open source-project dat Google vorig jaar onthulde: Knative. “Cloud Run is gebaseerd op Knative, een open API en runtime-omgeving waarmee je je serverless workloads overal kunt draaien waar je wil – volledig beheerd op Google Cloud Platform, op je GKE-cluster of op je eigen beheerde kubernetes-cluster”, aldus Teich.