2min Security

GPT-5.4-Cyber moet AI steviger verankeren in cybersecurity

GPT-5.4-Cyber moet AI steviger verankeren in cybersecurity

OpenAI zet met de introductie van GPT-5.4-Cyber een volgende stap in de inzet van generatieve AI voor cybersecurity. Waar eerdere modellen al hielpen bij programmeren en code-analyse, richt deze variant zich expliciet op defensieve toepassingen.

De nieuwe modelvariant maakt deel uit van het programma Trusted Access for Cyber, bedoeld om geverifieerde beveiligingsprofessionals toegang te geven tot krachtigere en minder restrictieve AI-functionaliteit. Volgens het bedrijf is dat nodig omdat zowel verdedigers als aanvallers AI inzetten. OpenAI benadrukt dat de dreiging al langer bestaat, maar versnelt door de opkomst van geavanceerdere modellen.

Wat GPT-5.4-Cyber onderscheidt, is de aangepaste veiligheidsafweging. Waar standaardmodellen terughoudend zijn bij verzoeken rond hacking, ligt de drempel hier lager voor vertrouwde gebruikers. Securityonderzoekers kunnen daardoor eenvoudiger kwetsbaarheden analyseren of malware onderzoeken zonder broncode. Een woordvoerder stelt dat het model bewust minder snel blokkeert bij legitiem beveiligingswerk, terwijl misbruik beperkt moet blijven.

De ontwikkeling is mede ingegeven door praktijkervaring, waar bestaande modellen al delen van het beveiligingsproces automatiseren. Tegelijk erkent OpenAI dat risico’s niet alleen in de technologie zitten, maar ook in het gebruik. Toegang wordt daarom gekoppeld aan identiteitsverificatie en aanvullende signalen van betrouwbaarheid.

Codex Security als fundament

De introductie bouwt voort op eerdere initiatieven zoals Codex Security, dat automatisch kwetsbaarheden detecteert en oplossingen aandraagt. Sinds de bredere uitrol heeft het systeem bijgedragen aan het verhelpen van meer dan drieduizend kritieke en ernstige kwetsbaarheden, meldt SiliconANGLE. Via een open-sourceprogramma bereikt OpenAI daarnaast meer dan duizend projecten met gratis beveiligingsscans.

Opvallend is dat OpenAI afstand neemt van centrale controle over wie toegang krijgt. In plaats daarvan wil het bedrijf werken met objectieve verificatie en gebruikssignalen. Volgens een woordvoerder is het niet schaalbaar om handmatig te bepalen wie zich mag verdedigen met deze middelen.

De uitrol van GPT-5.4-Cyber verloopt gefaseerd, maar op grotere schaal dan eerdere initiatieven. OpenAI richt zich op duizenden beveiligingsspecialisten en honderden teams. Daarbij gelden meerdere toegangsniveaus, waarbij alleen de hoogste categorie toegang krijgt tot de meest permissieve variant.

De timing van de introductie wijst vooruit naar krachtigere modellen die later dit jaar worden verwacht. OpenAI ontwikkelt zijn systemen met de aanname dat toekomstige modellen een hoog niveau van cybercapaciteiten bereiken, wat extra veiligheidsmaatregelen vereist.

Dat deze ontwikkeling breder speelt, blijkt uit stappen van concurrenten. Zo introduceerde Anthropic recent een eigen model met sterke cybersecuritycapaciteiten voor een beperkte groep organisaties. OpenAI kiest voor een bredere uitrol en mikt op een grotere gebruikersgroep, vult SiliconANGLE aan..