Het Amerikaanse Ministerie van Handel verplicht makers van de meest geavanceerde AI-modellen om belangrijkste details hierover met de overheid te delen. Dat geldt ook voor de bedrijven die de infrastructuur leveren om dergelijke modellen te trainen. Zo wil de overheid het naadje van de kous weten over capaciteiten, security-maatregelen en andere zaken om meer grip te krijgen op de veilige ontwikkeling van AI.
De nieuwe regels van de regering-Biden richten zich op zeer grote AI-modellen, die enorme hoeveelheden rekenkracht vereisen. Zo is het verplicht om het bestaan te rapporteren van elk model dat meer dan 1026 integerbewerkingen of floating-points operations (FLOPS) nodig heeft, of modellen die getraind zijn op biologische gegevens met meer dan 1023 bewerkingen.
Daarnaast moeten bedrijven die de infrastructuur voor AI leveren, informatie overhandigen wanneer hun systemen netwerksnelheden van meer dan 300 Gbi per seconde kunnen bereiken of meer dan 1020 bewerkingen per seconde kunnen uitvoeren. In de praktijk betekent dat een infrastructuur van vele tienduizenden GPU’s, zo niet honderdduizend.
Schadelijke doeleinden
Developers moeten onder ander informatie verstrekken over de mogelijkheden van hun modellen, hoe veilig ze zijn en welke veiligheidstests (zoals red-teaming) zijn uitgevoerd om hacken of misbruik te voorkomen.
Een van de grootste zorgen is dat geavanceerde AI door kwaadwillenden misbruikt kan worden voor schadelijke doeleinden zoals cybercriminaliteit of zelfs het helpen ontwikkelen van biologische, chemische of nucleaire wapens.
Deze regels bouwen voort op tijdelijke richtlijnen die vorig jaar van kracht werden na een presidentieel decreet. over AI-veiligheid. Omdat de ontwikkeling van AI snel zo gaat, probeert de overheid de grote techbedrijven bij te benen door regels in te stellen die de grootste spelers in de industrie enigszins moeten beteugelen.
Lees ook: OpenAI staat vooraan om AI-beleid te vormen, en dat gaat ook Europa aan