1 min

Het gebruik van open-source AI-assistenten als GitHub Copilot leidt vaker tot de introductie van securitykwetsbaarheden in code. Dit stellen onderzoekers van Stanford University in een onderzoek.

Volgens de onderzoekers van de topuniversiteit leidt de introductie van AI-assistenten bij het ontwikkelen van code vaker tot securitykwetsbaarheden dan wanneer programmeurs ze niet gebruiken. Naast dat met behulp van deze op AI gebaseerde hulptools vaker kwetsbaarheden in code toevoegden, gaven gebruikers ook aan dat zij deze foute code toch als goede en veilige code beschouwden.

Vals gevoel van zekerheid

Het onderzoek constateert ook dat, hoewel AI-assistenten wel de productiviteit van ontwikkelaars verbeteren, gebruikers toch slechter de meegeleverde documentatie bestudeerden. Bijvoorbeeld de documentatie om zich tegen mogelijke kwetsbaarheden in code te beschermen.

De onderzoekers geven hiermee aan dat niet ervaren gebruikers van AI-assistenten mogelijk een vals gevoel van zekerheid krijgen.

Positieve noot

Toch zijn de onderzoekers van Stanford University niet helemaal negatief over het gebruik van AI-tooling voor het ontwikkelen van software. Volgens hen kunnen gebruikers van de tools, als ze vaker actief zijn met de code, bijvoorbeeld door de parameters te veranderen, vaker veiligere oplossingen leveren. Gebruikers die deze tooling niet gebruiken, leveren volgens het onderzoek ook vaker veiligere oplossingen op.

Wel waarschuwen de onderzoekers dat met het werken met tools als GitHub Copilot ontwikkelaars goed moeten opletten. Vooral als zij met belangrijke projecten bezig zijn.

Tip: GitHub maakt AI-tool Copilot algemeen beschikbaar