JFrog heeft een nieuwe Model Context Protocol (MCP) Server geïntroduceerd waarmee AI-assistenten en grote taalmodellen rechtstreeks kunnen communiceren met het JFrog-platform. De server is bedoeld om de productiviteit van ontwikkelaars te verhogen door natuurlijke taalcommando’s binnen codeeromgevingen mogelijk te maken.
Zoals Yoav Landman, medeoprichter en CTO van JFrog, opmerkte: “De toolstack en productarchitectuur voor ontwikkelaars zijn fundamenteel veranderd in het AI-tijdperk.” De MCP Server speelt in op deze verschuiving door een naadloze integratie tussen AI-tools en software supply chain management te bieden.
De oplossing speelt in op de groeiende behoefte aan AI-aangedreven ontwikkelworkflows, met behoud van de security- en governancevereisten van bedrijfssoftwareontwikkeling. Door selfservice AI gedurende de hele ontwikkelingscyclus te ondersteunen, wil JFrog teams helpen om sneller applicaties te bouwen zonder concessies te doen aan de beveiliging.
Integratie met ontwikkeltools
De MCP Server kan via standaard MCP-clients worden geïntegreerd met populaire agentische codeeromgevingen en IDE’s. Hierdoor hebben ontwikkelaars toegang tot de mogelijkheden van het JFrog Platform zonder hun favoriete ontwikkelomgeving te verlaten.
Belangrijke functies zijn onder meer repositorybeheer, monitoring van de buildstatus en gedetailleerde pakketinformatiequery’s. De server biedt ook resultaten van kwetsbaarheidsscans direct binnen de ontwikkelingsworkflow.
Ontwikkelaars kunnen de preview bekijken via AWS Marketplace of de stapsgewijze implementatiegids van JFrog volgen. Het bedrijf vraagt tijdens deze previewperiode om feedback om het aanbod te verfijnen voordat het algemeen beschikbaar wordt.
Tip: JFrog koopt securityspecialist Vdoo voor liquid software-processen