4min

De Software Freedom Conservancy (SFC) doet een oproep om te stoppen met het gebruik van videoplatform Zoom. De reden voor de oproep zijn de stiekeme aanpassingen in gebruikersovereenkomsten rondom het gebruik van data om AI te trainen. Het lijkt het begin te zijn van een lichte trend, aangezien ook Microsoft zich al aan dezelfde feiten schuldig maakt.

SFC vraagt alle openscource-ontwikkelaars Zoom te boycotten en helpt gebruikers bij het overstappen naar een alternatief. Het videoplatform kwam vorige week in opspraak door aanpassingen in zijn servicevoorwaarden. Zoom leek meer gebruikersdata in het trainingsmodel voor AI te willen krijgen.

Door verwarrende formulering in de overeenkomst leek het zo te zijn dat het videoplatform weinig waarde hechtte aan de toestemming van gebruikers om AI te trainen met hun data. Zelfs zonder toestemming zou data nog in de trainingsset terechtkomen.

Verduidelijkingen om de zaken recht te zetten

Het videoplatform reageerde uiteindelijk op de feiten in een officiële blog. Daarin beweerde het dat de verwarrende sectie enkel bedoeld was om extra diensten te kunnen verlenen zonder extra toestemming aan de gebruiker te vragen. Het gaat dan bijvoorbeeld om het verkrijgen van een audio-opname van de meeting om uit te werken tot een samenvatting. Het vult verder aan: “Voor AI gebruiken we geen audio-, video- of chatinhoud om onze modellen te trainen zonder toestemming van de klant.”

De betreffende sectie 10.4 kreeg een volledig andere invulling, waardoor alleen de sectie die handelt over AI-training bij toestemming nog bevat dat Zoom “een eeuwigdurende, wereldwijde, niet-exclusieve, royaltyvrije, sublicentieerbare en overdraagbare licentie en alle andere rechten die vereist of noodzakelijk zijn voor het toegestane gebruik” verkrijgt door de toestemming.

Voorwaarden zijn vaak warrig en lang

Het kwaad was echter al geschiet. De servicevoorwaarden zaaide verwarring, maar zijn ook enorm listig om te controleren. Het zou namelijk heel wat tijd in beslag nemen om geüpdatete voorwaarden van iedere partij te lezen, die tijd is er doorgaans niet voor zakelijke gebruikers. Dat bewees dit verhaal nog maar eens, aangezien de initiële aanpassingen eigenlijk al van maart dateren. Het duurde echter tot vorige week voordat het bedrijf hierover negatieve feedback ontving.

Zoom is overigens niet de enige techspeler die aan zijn servicevoorwaarden sleutelt. Microsoft heeft recent ook een nieuwe AI Services-paragraaf gepubliceerd waarin het aangeeft dat het bijvoorbeeld gespreksgegevens mag opslaan voor later gebruik. De nieuwe voorwaarden zullen in werking treden vanaf 30 september. Alleen Bing Enterprise Chat zal zijn handen volledig van gebruikersdata houden.

Als gebruiker zijn de opties om je data uit het trainingsmodel te houden dus beperkt. Bij het videoplatform Zoom hebben gebruikers overigens ook niet alles zelf in handen, aangezien de toestemming van één IT-administrator al voldoende toestemming geeft om de data van werknemers van het volledige bedrijf bij te houden.

Europees lichtpuntje

Het ziet er in ieder geval naar uit dat techbedrijven het niet zo serieus nemen met dataprivacy. Het trainen van de modellen achter de generatieve AI, lijkt belangrijker dan de privacy van gebruikers te respecteren. Gebruikers die hun data echt niet willen delen, hebben alleen de optie de tools simpelweg links te laten liggen.

Toch is er aan dit verhaal een Europees lichtpuntje. Europese gebruikers worden namelijk beschermd door privacywetten. De wijziging van Google in het privacybeleid omtrent het trainen van AI-modellen, werd daarom niet naar de Europese versie doorgesluisd. De chatbot van deze partij mocht eveneens enkel lanceren in Europa samen met een privacyhub. Daarin is het mogelijk om aan te geven dat chatbot Bard zichzelf niet mag trainen met jouw gegevens.

Al blijft het techbedrijf hier wel de touwtjes in handen houden. Je data wordt standaard wel opgenomen in de trainingsset. Hoewel het over jouw data gaat, moet je dus zelf aan Google laten weten dat je deze data graag privé houdt. In de ideale wereld vraagt ieder bedrijf met een AI-tool natuurlijk zelf de toestemming aan gebruikers om hun data te mogen opnemen.

AI-ontwikkelaars plukken van het internet

Maar in een ideale wereld leven we niet. Large language modellen zijn al lang getraind op basis van gegevens die vrij toegankelijk beschikbaar waren op het internet. ChatGPT ontstond bijvoorbeeld niet uit het niets, maar de ontwikkelaars achter het model plukten informatie zo van het internet. Ook als deze informatie auteursrechtelijk beschermd is.

Lees ook: ‘ChatGPT gebaseerd op illegale sites, privégegevens en piraterij’

Nu de eerste producten op basis van deze modellen ontstaan, zien techbedrijven nieuwe kansen om AI te trainen. Niet langer alleen op wat publiekelijk beschikbaar is, maar ook op alle input die gebruikers zelf geven aan de tools. Nieuwe servicevoorwaarden zijn daarvoor nodig, terwijl de eerdere modellen zonder enige toestemming te vragen zich eigenlijk al trainden op wat openbaar beschikbaar was. Het trainen van AI torent daarom al langere tijd uit boven dataprivacy.