2min

IBM breidt het enterprise AI-platform watsonx uit met hulp van Meta. Het grote LLaMA 2 zal voor klanten beschikbaar zijn om AI te trainen zonder zelf een model te hoeven bouwen. Voor nu blijft het bij een select groepje cliënten, gevolgd door een bredere release. Zo wordt de inzet van generatieve AI een stuk bereikbaarder.

Meta heeft een turbulente AI-aanpak gehad dit jaar. In februari stelde het een LLM genaamd LLaMA beschikbaar voor onderzoekers, hoewel het niet lang daarna gelekt werd op 4chan. Het kende 65 miljard parameters, hoewel er ook kleinere varianten bestonden.

De ontwikkeling van generatieve AI verkeert nog altijd in een stroomversnelling, en dus is er al LLaMA 2, met maximaal 70 miljard parameters. Deze verfijnde versie heeft een wat duidelijker opgezet plan vanuit Meta, dat nu dus wederom in zee gaat met IBM.

AI binnen handbereik

LLaMA 2 geldt als een zogeheten ‘foundation model’, dat in tegenstelling tot bijvoorbeeld GPT-4 nog expliciet extra training vereist. Een organisatie kan IBM’s watsonx.ai-studio inzetten om op een model als LLaMA 2 voort te borduren. Het meest voor de hand liggend is om zelf een dataset te ontwikkelen en het model daarmee te trainen. De toepassingen verschillen per bedrijf, en de twee bedrijven laten dit bewust open.

Een belangrijk vraagstuk rondom generatieve AI is het voorkomen en inperken van ongewenste outputs. Om die reden heeft IBM een optie voor LLaMA 2 beschikbaar die ‘guardrails’ toevoegt, waardoor grof taalgebruik al op voorhand geweerd wordt.

watsonx.ai zal verder nog uitbreiden met een studio voor AI-tuning en ook eigen generatieve AI-modellen. Zo kunnen bedrijven kijken welk model het beste functioneert voor de specifieke toepassing.

Geen dubbel werk

Het idee om AI op deze manier te bundelen is wellicht niet uniek aan IBM en Meta, maar het wijkt wel af van de API-aanpak die OpenAI erop nahoudt. Zo zijn er partijen als Salesforce die met GPT-gebaseerde oplossingen komen, waarbij we nog altijd onze twijfels hebben of deze AI-applicatie niet ontspoort. Immers is het lastig om via een externe toepassing goed inzicht te krijgen in de werking van een AI-model. OpenAI is wat dat betreft ook nog eens best schimmig over de details.

Tip: Salesforce biedt marketingassistant die altijd presteert

Dergelijke voorbeelden laten zien waarom organisaties wellicht een ander pad willen bewandelen waarbij men zelf meer aan de knoppen zit. AI-modellen die aanpasbaar zijn en op een inzichtelijke manier te trainen zijn, zullen voor veel organisaties een streepje voor hebben. Het is aan partijen als IBM en Meta om het voordeel daarvan te expliciteren, zoals met deze uitbreiding aan watsonx.ai. Immers voorkomt men met het aanbieden van foundation models dat er dubbel werk verricht moet worden, terwijl bedrijven nog zelf aan de slag kunnen met de AI-modellen en -training.