2min

Tags in dit artikel

,

Google heeft zijn cloud AI-platform geüpdatet en nieuwe functies toegevoegd aan AI Platform Prediction en AI Platform Training, waardoor gebruikers meer flexibiliteit en efficiëntie kunnen bereiken bij hun Artificial Intelligence-projecten (AI).

Het AI-platform brengt verschillende tools samen die ontworpen zijn om te helpen bij de ontwikkeling van machine learning, van het creëren van modellen tot de implementatie. De twee aangekondigde nieuwe updates zijn voor AI Platform Prediction en AI Platform Training.

AI Platform Prediction stelt applicatieontwikkelaars in staat om AI te gebruiken in een serverless omgeving, waarbij ze kunnen kiezen uit een set van Compute Engine machinetypes om hun model uit te voeren, en ook GPU’s toe kunnen voegen, zoals de voor de inference geoptimaliseerde NVIDIA T4, met lage latency.

Geautomatiseerde provisioning, scaling en serving

Dit betekent dat ontwikkelaars niet per se machine learning helemaal hoeven begrijpen of de serverinfrastructuur moeten beheren om het AI-platform te gebruiken, omdat de provisioning, schaalbaarheid en service van het model beheerd worden. Voorafgaand aan deze update vereiste Online Prediction dat de gebruiker een uit vier vCPU-machinetypes moest kiezen.

Daarnaast kunnen gebruikers nu voorspellingsverzoeken en antwoorden op BigQuery registreren, waarmee ze de afwijkingen en uitschieters kunnen analyseren en detecteren.

Volgens een blogbericht van Henry Tappen, productmanager van het Google Cloud AI Platform, maakt deze functie gebruik van een nieuw backend, gebouwd op Google Kubernetes Engine, die helpt om de tool betrouwbaar, snel en flexibel te maken.

AI Platform Training

Google AI Platform Training heeft ook een update gekregen, waardoor data scientists nu een trainingsscript op hun hardware kunnen uitvoeren zonder de onderliggende infrastructuur te hoeven beheren. Om de soorten modellen die ontwikkelaars kunnen trainen uit te breiden, heeft Google aangepaste containers toegevoegd, evenals Compute Engine machinetypen voor training, die beide nu algemeen beschikbaar zijn.

Aangepaste containers stellen ontwikkelaars in staat om elke Docker-container op de Google-service uit te rollen, terwijl Compute Engine ontwikkelaars in staat stelt om elke combinatie van CPU’s, RAM en accelerators te kiezen.

In principe kunnen ontwikkelaars nu bestaande AI-modellen en trainingsscripts gebruiken met Google Cloud, zonder dat ze code hoeven te wijzigen.