2min

Tags in dit artikel

,

Microsoft maakt Tutel bekend. De open-source library is per direct beschikbaar voor de ontwikkeling van AI-modellen en -applicaties met een ‘mixture of experts’-architectuur.

Mixture of experts (MoE) is een architectuur voor AI-modellen; een reeks ontwerpoverwegingen voor de ontwikkeling van zelflerende, voorspellende code en applicaties. De aanwezigheid van meerdere specialistische modellen is kenmerkend voor een MoE-aanpak. Dergelijke specialistische modellen noemen we experts. Experts worden uitsluitend opgeroepen wanneer een vraagstuk hun specialisme vereist. Het laatste verduidelijken we met een theoretisch voorbeeld: AI-toepassing in tekstcontrole. Een grammatica-expert zou bijvoorbeeld niet opgeroepen worden om een synoniem voor een woord voor te stellen. Daar is de vocabulaire-expert voor.

Microsofts staak in MoE

Microsoft is bijzonder geïnteresseerd in MoE omdat de aanpak efficiënt met hardware omgaat. Alleen experts met specialismen die benodigd zijn voor een vraagstuk gebruiken processorvermogen. De rest van een model wacht rustig op zijn beurt, wat efficiëntie bevordert.

Microsoft onderstreept haar interesse met de lancering van Tutel, een open-source library voor de ontwikkeling van MoE-modellen. Volgens Microsoft stelt de toepassing van Tutel ontwikkelaars in staat om de werking van MoE-modellen te versnellen en de benodigde hardware efficiënter te benutten. Het laatste geldt in het bijzonder voor MoE-modellen die Microsoft Azure NDm A100 v4 VM’s gebruiken. Daarop is Tutel toegespitst.

Een concreet interface moet de integratie van Tutel en bestaande MoE-oplossingen vergemakkelijken. De recente integratie van Tutel in fairseq – een toolkit van Facebook voor de training van AI-modellen – voegt daad bij woord.

Tip: AI, machine learning en deep learning – wat is het verschil?