1 min

OpenAI is begonnen met een bug bounty-programma voor het ontdekken van security bugs in zijn AI-modellen. Hierbij wordt samengewerkt met de security startup Bugcrowd. Inhoudelijke fouten in de modellen of tools als ChatGPT zijn geen onderdeel van het programma.

Met het bug bounty-programma wil OpenAI fouten opsporen in de securitystructuur van zijn AI-modellen en -tools, maar ook gerelateerde third-party software en tooling. Hierbij gaat het om technische securityfouten.

Fouten in de werking van de modellen of tools, zoals foute antwoorden, antwoorden met vooroordelen of ‘hallucinaties’ van de AI-modellen vallen expliciet niet onder het beloningsprogramma. Dit omdat deze fouten meer en uitgebreid onderzoek vergen en niet als een traditionele bug kunnen worden gekwalificeerd.

Strenge regels

Deelnemers aan het programma moeten aan een aantal strenge eisen of spelregels voldoen. Dit om OpenAI het mogelijk te maken ‘ethische’ en ‘kwaadwillende’ hacks te onderscheiden.

Onder meer moeten deelnemers policy-regels volgen, ontdekte bugs rapporteren en niet de privacy schenden, systemen storen, data vernietigen of de gebruikservaring hinderen. Iedere ontdekte bug moet vertrouwelijk blijven, totdat OpenAI aangeeft dat deze kan worden gepresenteerd. De bedoeling is dat binnen 90 dagen na ontvangst van het bug-rapport hiervoor toestemming wordt gegeven.

Met het bug bounty-programma van OpenAI en Bugcrowd kunnen securityonderzoekers tussen de 200 en 20.000 dollar verdienen met de kwetsbaarheden, bugs of andere securityfouten die zij ontdekken. Hoe zwaarder de bug, hoe meer geld zij krijgen.

Lees ook: OpenAI introduceert plugin-functionaliteit voor ChatGPT