Docker heeft zijn Compose-tool uitgebreid met ondersteuning voor AI-agentarchitecturen via YAML-bestanden. Daarnaast zijn er nieuwe offloadmogelijkheden voor GPU-dreven cloudverwerking. Klanten die de bètaversie testen, bouwen al AI-toepassingen met de nieuwe containertools.
Kersverse startups promoten gespecialiseerde oplossingen, maar gevestigde partijen zoals Docker hopen dat ontwikkelaars zich aan continuïteit hechten. Uit een enquête van Futurum Group blijkt dat organisaties van plan zijn om meer te gaan uitgeven aan zowel AI-codegeneratie (83 procent) als vertrouwde AI-verrijkte tools (76 procent). Docker hoopt met dit nieuwe aanbod deze klanten te bereiken.
Het definiëren van AI-agentarchitecturen in YAML moet de fijnmazige aard van deze tech vereenvoudigen. Of deze abstractie voldoende blijkt voor complexe AI-toepassingen, moet nog worden getest wanneer de tools de bètafase verlaten. Dan pas wordt Docker’s nieuwe aanbod op schaal getest.
Convergentie van infrastructuur
Docker heeft eerder Model Runner toegevoegd voor lokale LLM-uitvoering en ondersteuning voor het enorm succesvolle Model Context Protocol (MCP) van Anthropic. Met de MCP Gateway kunnen AI-agents communiceren met tools en applicaties, met meer dan 100 MCP-servers beschikbaar via de catalogus van Docker.
De aanpak van het bedrijf staat in contrast met gespecialiseerde AI-ontwikkelingsplatforms door gebruik te maken van bestaande containerexpertise, de kernactiviteit van het bedrijf. Meer dan 500 klanten hebben tijdens de gesloten bètatests al toegang gehad tot de tools, waardoor de ergste kinderziektes inmiddels weggewerkt moeten zijn.
Nieuwe benadering van AI-ontwikkeling
De aankondiging op het WeAreDevelopers World Congress bevatte ook Docker Offload, een bètaversie waarmee ontwikkelaars AI-modellen op externe GPU’s kunnen draaien via clouddiensten van Google en Microsoft. Hierdoor is dure lokale hardware overbodig en blijven de vertrouwde Docker-workflows behouden.
Docker Compose ondersteunt nu AI-agentframeworks, waaronder CrewAI, Embabel, LangGraph, Sema4.ai, Spring AI en de Vercel AI SDK. Volgens Andy Ramirez, SVP Marketing bij Docker, stelt deze aanpak miljoenen ontwikkelaars die containers gebruiken in staat om AI-applicaties te bouwen zonder nieuwe toolsets te hoeven leren.
De aanpak met één Docker Compose-bestand lost kostenproblemen op door afzonderlijke toolingvereisten overbodig te maken. Het tempo van de ontwikkeling van AI-applicaties zorgt echter voor druk om snel te kunnen implementeren, ongeacht het gekozen platform.