VS overweegt verbod DeepSeek op overheidsapparaten 

VS overweegt verbod DeepSeek op overheidsapparaten 

Het Witte Huis overweegt naar verluidt een regel die de installatie van de DeepSeek-app op overheidsapparaten verbiedt.  

The Wall Street Journal meldt op basis van anonieme bronnen, dat de maatregel waarschijnlijk wordt ingevoerd. Volgens het rapport zijn er zorgen over de manier waarop DeepSeek gebruikersgegevens verwerkt. Het Chinese AI-laboratorium maakt geen details bekend over wie toegang heeft tot de verzamelde informatie.  

DeepSeek kreeg eerder dit jaar bekendheid met de lancering van DeepSeek-R1. Dit is een open-source groot taalmodel dat is geoptimaliseerd voor redeneren. Dit model presteert beter dan OpenAI’s concurrerende o1-redeneeralgoritme op verschillende taken. Bovendien beweert DeepSeek dat R1 minder heeft gekost om te trainen dan veel eerdere LLM’s.  

DeepSeek chatbot-app is populair

Naast R1 biedt DeepSeek een chatbot-app aan die vergelijkbaar is met ChatGPT, legt SiliconANGLE uit. Deze dienst is het doelwit van het mogelijke verbod van de Amerikaanse regering. Op een bepaald moment was DeepSeek zelfs de meest gedownloade app in zowel de App Store als Google Play.  

De mobiele app van DeepSeek is niet gebaseerd op R1, maar op DeepSeek-V3, een LLM die het AI-lab in december als open-source beschikbaar stelde. Dit model heeft beperktere redeneercapaciteiten. Het heeft echter veel architecturale overeenkomsten met R1, aangezien R1 is gebaseerd op V3.  

Beide modellen bevatten 671 miljard parameters, georganiseerd in subnetwerken—neurale netwerken die zich elk richten op een specifieke set taken. Wanneer een gebruiker een prompt invoert, genereert slechts één van deze subnetwerken het antwoord. Dit beperkt het hardware gebruik.

Meerdere tokens gelijktijdig genereren

DeepSeek trainde V3 met een dataset van 14,8 miljard tokens. Een token kan bestaan uit een paar letters of cijfers. Gewoonlijk genereren LLM’s output token voor token, maar bij V3 koos DeepSeek voor een andere aanpak: het model werd geconfigureerd om meerdere tokens tegelijk te genereren, wat volgens het bedrijf de prestaties verbeterde.  

R1, het meest geavanceerde redeneermodel van DeepSeek, is een versie van V3 die intensiever is getraind. Dit extra trainen omvatte deels gesuperviseerde fine-tuning, waarbij het model voorbeelden kreeg van hoe het taken moet uitvoeren. Daarnaast verfijnde DeepSeek R1 verder met reinforcement learning.  

Volgens The Wall Street Journal zou het mogelijke DeepSeek-verbod van het Witte Huis zich niet alleen tot overheidsapparaten beperken. Men zou ook overwegen om appstores te verbieden de chatbotdienst aan te bieden. Daarnaast discussieert men over beperkingen op hoe Amerikaanse cloudproviders DeepSeek-modellen aan klanten mogen leveren. Besprekingen over deze laatste twee maatregelen bevinden zich nog in een vroeg stadium.  

Het is onduidelijk of de beperkingen voor cloudproviders alleen R1 en V3 betreffen of ook de minder krachtige LLM’s van DeepSeek.  

In januari bracht het bedrijf een redeneermodel uit genaamd R1-Zero, dat volledig werd getraind met reinforcement learning. Normaal gesproken combineren LLM-ontwikkelaars dit met gesuperviseerde fine-tuning. DeepSeek beweert dat R1-Zero het eerste open-sourcemodel is dat aantoont dat de redeneercapaciteiten van LLM’s puur door reinforcement learning kunnen worden verbeterd.  

Daarnaast heeft DeepSeek verschillende zogenoemde gedistilleerde modellen op basis van R1 als open-source vrijgegeven. Deze modellen bevatten een deel van de kennis van R1 en zijn gebaseerd op de open-source Llama- en Qwen-LLM-families. Hun omvang varieert van 1,5 miljard tot 70 miljard parameters.  

De Amerikaanse marine en NASA verbieden hun personeel al om de DeepSeek-app op werkapparaten te installeren. Texas, New York en Virginia hebben recent soortgelijke regels ingevoerd voor staatsmedewerkers. In Zuid-Korea en Italië hebben privacytoezichthouders appstores verboden om DeepSeek aan consumenten aan te bieden.