2min Devops

JetBrains ondersteunt nu ook Claude, OpenAI o1 en lokale AI

JetBrains ondersteunt nu ook Claude, OpenAI o1 en lokale AI

Claude, een favoriet AI-model onder programmeurs, wordt nu ondersteund door JetBrains AI Assistant. Daarnaast zijn de krachtigste LLM’s van OpenAI beschikbaar. Wie meer privacy of keuzevrijheid zoekt, kan voortaan ook een lokaal model draaien.

De integratie van lokale modellen vindt plaats via LM Studio, dat ontwikkelaars kunnen activeren onder “Third-party AI providers” in de AI Assistant-instellingen. Dit platform biedt een interface voor het beheren en draaien van AI-modellen op lokale machines, net als llama.cpp, Ollama of Jan Desktop.

Nieuwe AI-modellen

De conventionelere manier om AI te draaien is via API’s. JetBrains ondersteunt nu ook Anthropic’s modellen, te weten Claude 3.5 Sonnet en het goedkopere Claude 3.5 Haiku. Van OpenAI-huize zijn de krachtigere (en prijzigere) LLM’s o1, o1-mini en o3-mini toegevoegd. Aangezien o1-mini binnen ChatGPT simpelweg is vervangen door o3-mini, achten we die optie ietwat overbodig.

Wat duidelijk is, is dat Claude via de web-interface al razend populair is onder programmeurs. Dat bleek uit de eerste Anthropic Economic Index, dat in kaart bracht welke beroepen met name van de AI-tool gebruikmaken.

Lees ook: Zo wordt Anthropic’s Claude-chatbot werkelijk gebruikt

IDE met opties

De JetBrains AI Assistant, in 2023 geïntroduceerd, is volledig geïntegreerd in de IDE’s van het bedrijf. De tool kan verschillende taken automatiseren of vergemakkelijken, onder meer door het aanvullen van code, het genereren van documentatie en het refactoren van code. Het is in veel opzichten vergelijkbaar met GitHub Copilot, de populaire tegenhanger.

De opties voor lokale AI zullen op den duur aanzienlijk uitbreiden. Zeker na de recente introductie van het open-source DeepSeek-R1 en V3 blijkt dat imposante prestaties mogelijk zijn via lokaal te draaien LLM’s. Het volledige DeepSeek-R1 vereist met 671 miljard parameters wel meerdere krachtige GPU’s om op een acceptabel niveau te draaien, maar gedistilleerde DeepSeek-varianten van Llama en Qwen met tientallen miljarden parameters zijn een stuk haalbaarder. Voor ontwikkelteams met hoge compliance-eisen is dit wellicht een beginpunt voor domeinspecifieke, kleine AI-modellen die geen API-contact meer vereisen.

Lees ook: JetBrains-gebruikers worstelen met overgang naar nieuwe UI