Gezamenlijk AI trainen zonder data te delen: FlexOlmo maakt het mogelijk

Gezamenlijk AI trainen zonder data te delen: FlexOlmo maakt het mogelijk

Onderzoekers van het Allen Institute for Artificial Intelligence (AI2) hebben een nieuw raamwerk gepresenteerd voor het trainen van LLM’s, zonder dat de onderliggende trainingsdata tussen organisaties gedeeld hoeft te worden. 

LLM’s zijn doorgaans afhankelijk van enorme hoeveelheden trainingsdata van hoge kwaliteit. In sectoren zoals de gezondheidszorg of financiële dienstverlening zijn zulke datasets vaak verspreid over meerdere instellingen of afdelingen. Theoretisch zou het samenvoegen van deze gegevens leiden tot krachtigere modellen. In de praktijk blijkt dat lastig Regelgeving en data-privacy maken het onmogelijk om data zomaar te verplaatsen of centraliseren.

FlexOlmo biedt hiervoor een oplossing. Het stelt organisaties in staat om lokaal een AI-model te trainen op eigen data, en vervolgens die modellen te combineren – zonder dat de data zelf het netwerk van de organisatie verlaat.

Gezamenlijk anchor model

Het FlexOlmo-framework start met een gezamenlijk anchor model dat elke deelnemer lokaal traint op zijn eigen data. In tegenstelling tot traditionele federated learning-methodes, worden de modellen daarna niet gemiddeld of samengevoegd in een lineair proces. In plaats daarvan worden ze geïntegreerd in een zogeheten Mixture of Experts (MoE)-architectuur: een AI-model dat bestaat uit meerdere gespecialiseerde neurale netwerken.

Elke deelnemer levert dus een getraind submodel aan, inclusief een eigen router. Dat is een module die bepaalt of een bepaald submodel een taak moet uitvoeren. Wanneer de modellen worden gecombineerd, worden ook de routers geïntegreerd. Dit zorgt ervoor dat het samengevoegde MoE-model nog steeds efficiënt en accuraat taken kan toewijzen aan de juiste expert.

Volgens het team achter FlexOlmo zorgt deze architectuur ervoor dat modellen asynchroon kunnen worden ontwikkeld: organisaties kunnen op verschillende momenten aanhaken en hun modellen toevoegen zonder hertraining van het geheel.

Beveiliging en prestaties

In een paper onderzochten de onderzoekers of het mogelijk zou zijn om trainingsdata terug te halen uit het uiteindelijke FlexOlmo-model. Uit hun evaluatie bleek dat het risico op data-extractie zeer laag is. Het ging om slechts 0,7% in hun testscenario, terwijl een overfitted model in een controlegroep 60% van de gegevens prijsgaf.

Op het vlak van prestaties scoort FlexOlmo ook goed. Bij een benchmark met modellen tot 37 miljard parameters, zagen de onderzoekers een verbetering van 10,1% in nauwkeurigheid ten opzichte van eerdere methodes voor het combineren van modellen. De prestaties benaderen die van een centraal getraind model, ondanks het gebrek aan gedeelde data.

De onderzoekers zien brede toepassingsmogelijkheden voor FlexOlmo, vooral in sectoren met gevoelige of gereguleerde data. Denk aan samenwerkingen tussen ziekenhuizen, financiële instellingen of overheidsinstanties die AI willen inzetten zonder concessies te doen aan privacy en compliance.