Mistral AI probeert zich in het AI-veld te positioneren als het veilige alternatief voor OpenAI en andere AI-tools. Het bedrijf introduceert een API voor content-moderatie.
De API herkent schadelijke content uit acht verschillende categorieën. Haatspraak, seksuele inhoud, geweld en privacygevoelige informatie zijn enkele voorbeelden hiervan. De herkenning gebeurt zowel in berichten als in conversaties.
Mistral AI heeft voor de security-service zijn LLM Ministral 8B aangezwengeld. Dat model is sinds enkele weken beschikbaar.
‘Veiligheid cruciaal in AI’
Het bedrijf geeft aan het bijzonder belangrijk te vinden dat ontwikkelingen in de AI-industrie altijd gebeuren met aandacht voor veiligheid. Bij concurrent OpenAI zijn er aanwijzingen dat de veiligheid in de ontwikkeling snel aan de kant wordt geschoven voor andere belangen. Verschillende managers die vertrokken bij het bedrijf kaarten dit namelijk aan in de openbare berichten die zij schrijven over de reden van hun vertrek.
Lees ook: Kapitaal of veiligheid: OpenAI ondergaat de gevolgen van kiezen voor kapitaal
“De afgelopen maanden hebben we een groeiend enthousiasme gezien in de industrie en de onderzoeks-community voor nieuwe LLM-gebaseerde moderatiesystemen, die kunnen helpen om moderatie schaalbaar en robuuster te maken in alle applicaties”, aldus het bedrijf.
Om andere Amerikaanse concurrenten nog een loef af te steken, biedt de API ondersteuning voor elf talen. Vaak houden Amerikaanse concurrenten het bij de eigen taal en worden ‘vreemde talen’ met veel minder zorg en aandacht behandeld. De API ondersteunt Arabisch, Engels, Frans, Duits, Italiaans, Japans, Koreaans, Portugees, Russisch en Spaans.
Lees ook: WSO2 probeert orde te brengen in de chaos van AI API-beheer