Salesforce adresseert met Trailhead-module AI-vooroordelen

Salesforce maakt modules voor zijn Trailhead ontwikkelaarseducatieplatform voor kunstmatige intelligentie (AI), meldt ZDNet. Op die manier moeten meer mensen algoritmes kunnen bouwen, en dan ook nog eens op een verantwoordelijke manier. 

De Trailhead-modules zijn volgens Kathy Baxter, architect van ethical AI practice bij Salesforce, ontworpen voor werknemers, klanten en partners die werken met Einstein en diverse modellen gebruiken. Salesforce gaat er vanuit dat met low code-ontwikkelaarstools meer technologie- en zakelijke professionals algoritmes kunnen en gaan bouwen. Maar dan moeten ze wel begrijpen hoe ze dat verantwoordelijk doen.

Er wordt de laatste tijd veel gesproken over AI-ethiek, -vooroordelen en -transparantie. Een grote zorg is dat individuele algoritmes geen vooroordelen hebben, maar die wel krijgen als ze gecombineerd worden met andere modellen.

“Nu AI toegankelijker wordt en duidelijk begint te worden wat de impact is, worden we geconfronteerd met nieuwe vraagstukken over hoe we ervoor zorgen dat de toekomst van AI verantwoordelijk en eerlijk is – ook wanneer het gebouwd is door mensen zonder technische training of AI-expertise”, aldus Baxter.

Responsible Creation of Artificial Intelligence

Volgens Baxter is de eerste stap in het bouwen van verantwoordelijke AI-oplossingen, begrijpen dat de vooroordelen in de modellen en trainingdata kunnen zitten. Trailhead krijgt dan ook meerdere toevoegingen die gericht zijn op AI-ethiek en het voorkomen van vooroordelen.

Voor nu is het er echter eentje, genaamd Responsible Creation of Artificial Intelligence. Deze module bevat informatie over ethisch en menselijk gebruik van technologie, het begrijpen van AI en het herkennen van vooroordelen in AI. Ook wordt er aandacht besteed aan het verwijderen van uitsluitingen uit data en algoritmes.

De Trailhead-modules kunnen mogelijk ook informatie gaan geven over welke toekomstige functies er in Einstein gebouwd moeten worden. Einstein heeft al een aantal tools om AI-vooroordelen te voorkomen, die ingebouwd zitten in diverse pilots. “We proberen klanten te helpen bij het begrijpen wat er in een model zit, uit te leggen wat er gedaan wordt en te communiceren hoe het werkt”, aldus Baxter.