2min

Tags in dit artikel

, ,

Canadese onderzoekers stellen dat ChatGPT nogal wat fouten maakt als het ingezet wordt voor hulp bij coderen. Bovendien kan de chatbot gebruikers wel waarschuwen voor deze fouten, maar geeft het alleen prijs als het hier een vraag over krijgt.

Deze week berichtte The Register over het wetenschappelijk onderzoek. Vier wetenschappers van de Canadese Université du Québec analyseerden de code die het grote taalmodel van OpenAI genereert aan de hand van security-overwegingen. Het antwoord: de code van ChatGPT is niet erg veilig.

Het abstract geeft verdere details over de methodiek. “We vragen ChatGPT verschillende programma’s te genereren en evalueren de veiligheid van de resulterende broncode. We onderzoeken verder of ChatGPT kan worden aangespoord om de beveiliging te verbeteren door passende prompts en bespreken de ethische aspecten van het gebruik van AI om code te genereren.”

Wat ze ontdekten was niet geruststellend. “De resultaten suggereren dat ChatGPT zich bewust is van potentiële kwetsbaarheden, maar desondanks vaak broncode genereert die niet robuust is voor bepaalde aanvallen”.

Problematische resultaten

De auteurs beschrijven hun resultaten als problematisch. “We ontdekten dat de door ChatGPT gegenereerde code in verschillende gevallen ver onder de minimale veiligheidsnormen viel die in de meeste contexten van toepassing zijn. Wanneer gevraagd werd of de geproduceerde code veilig was of niet, kon ChatGTP herkennen dat dit niet het geval was.”

De onderzoekers wezen ChatGPT verschillende programmeertaken toe die verschillende soorten beveiligingsproblemen aan het licht konden brengen. Voorbeelden variëren van geheugencorruptie, denial of service en onjuist geïmplementeerde cryptografie.

ChatGPT genereerde slechts vijf op 21 veilige programma’s na een eerste poging. Bovendien, zeggen de onderzoekers, “lijkt ChatGPT zich bewust van – en geeft het zelfs gemakkelijk toe – de aanwezigheid van kritieke kwetsbaarheden in de code die het voorstelt.” Raphaël Khoury, een universitair professor in computerwetenschappen en engineering, vertelde The Register: “Het is duidelijk een algoritme. Het weet niets, maar het kan onveilig gedrag herkennen”.

Lees ook: Verschillende bedrijven verbieden gebruik ChatGPT