1 min

Docker heeft in samenwerking met partners Neo4j, LangChain en Ollama een nieuwe generatieve AI-stack geïntroduceerd. Dit moet ontwikkelaars helpen snel en eenvoudig generatieve AI-applicaties te bouwen.

De samenwerking tussen Docker en de andere partners heeft een nieuwe zogenoemde GenAI-stack opgeleverd. Met deze stack is het de bedoeling dat ontwikkelaars snel en makkelijk generatieve AI-applicaties kunnen maken, zonder dat zij daarvoor alle benodigde technologieën en configuraties bij elkaar moeten zoeken.

De stack combineert hierbij de oplossingen en tooling van Docker waarmee ontwikkelaars al bekend zijn met de technologie van Neo4j, LangChain en Ollama om generatieve AI-applicaties te ontwikkelen.

Functionaliteit GenAI-stack

De nu in de stack bijeen gebrachte oplossingen, bevatten voorgeconfigureere onderdelen zoals de open-source LLM’s en ondersteuning van Ollama, vector en graph databases van Neo4j voor betere AI/ML-prestaties en het LangChain-framework voor de orkestratie van context-aware reasoning-applicaties.

De gezamenlijke GenAI-stack richt zich vooral op populaire use cases voor generatieve AI-applicaties. De stack is vanaf nu beschikbaar in het Docker Desktop Learning Center of via GitHub.

Lees ook: Docker introduceert tools voor ontwikkelen containerapplicaties en security