Het is een drukke release-week vanuit OpenAI. Het bedrijf introduceerde al het zogeheten Operator en het efficiënte model o3-mini. Nu schuift het ‘deep research’ naar voren. Wat houdt het in?
OpenAI-CEO Sam Altman beloofde afgelopen week om bepaalde releases te vervroegen als reactie op DeepSeek-R1, het Chinese AI-model dat bijna net zo goed kan redeneren als OpenAI’s eigen o1. Met o3-mini had het al een antwoord op de klacht dat o1-gebruik te duur is voor velen. Het is zelfs gratis uit te proberen en verlaagt de API-kosten aanzienlijk voor een redenerend model.
Koffie zetten, dan een antwoord
OpenAI biedt deep research aan voor de meest complexe vragen. De oplossing kan gehele tabellen met opgevraagde details creëren of allerlei data met elkaar vergelijken. Het is een soort opgefokte zoekopdracht, waar je ook even op moet wachten. Afhankelijk van de complexiteit van je vraag kun je 5 tot 30 minuten wachten op een antwoord.
Deep research is duidelijk niet goedkoop. Ook is het niet in de EU en nabije landen beschikbaar. Wie wel in een ondersteund gebied woont, moet alsnog 200 dollar per maand betalen voor ChatGPT Pro om nu al toegang te krijgen tot deze tool. Zelfs dan is het gebruik ervan beperkt: maximaal 100 queries per maand.
De ingeperkte aard van deep research verraadt een extreem hoge compute-eis. 100 keer een halfuur redeneren op basis van een grote context window zal voor OpenAI ongetwijfeld verliesmakend zijn, net als het bedrijf al eens heeft vermeld.
Later sneller en goedkoper
Het is duidelijk dat OpenAI snel heeft gereageerd op DeepSeek. o3-mini was mogelijk niet gratis geweest zonder de nieuwe Chinese concurrent. Het fungeert als een “reason”-knop in de gratis ChatGPT-app, precies zoals DeepSeek’s chat-interface “DeepThink”. o3-mini vervangt o1-mini. Ondertussen is o1 ook in beperkte mate gratis beschikbaar via Microsoft’s Copilot. “Think Deeper” is onderhuids het o1-model en kan net als bij OpenAI en DeepSeek aangevinkt worden voor een bepaalde vraag.
Echter zal het wat langer duren voordat er echte wijzigingen te zien zijn in het OpenAI-beleid. Zo is de uitleg rondom deep research even vaag als altijd; sinds GPT-3 in 2020 geeft OpenAI enkel informatie over de architectuur op helikopterniveau en toont het benchmark-resultaten. Dit in tegenstelling tot het Chinese DeepSeek, waarvan het team een uitgebreide whitepaper uitbracht voor zowel DeepSeek-V3 in december en het redenerende model R1 in januari.
Toch geeft CEO Sam Altman toe dat zijn OpenAI aan de ‘verkeerde kant van de geschiedenis‘ stond wat betreft het open-source debat. Met zowel GPT-2 als GPT-3 was het bedrijf al theatraal voorzichtig, omdat het snel vrijgeven van deze modellen schadelijk zou zijn geweest. Daar viel wat voor te zeggen destijds, maar nu is het simpelweg een competitief voordeel om te verbergen hoe GPT-4, GPT-4o, o1 en nu o3 precies werken. Toch is het DeepSeek één keer gelukt; wie weet lukt het nu nog een keer, en nog sneller, om te reageren.
Luister ook onze Techzine Talks-aflevering over DeepSeek: