2min

Een reeks nieuwe gratis tools van Meta maakt het mogelijk om AI workloads te optimaliseren voor de processoren van meerdere leveranciers. De organisatie wil AI developers helpen bij het voorkomen van vendor lock-in.

Het nieuwe artificial intelligence (AI)-platform is gebouwd op PyTorch, een open-source machine learning framework dat code tot twaalf keer sneller kan laten draaien op Nvidia A100-processoren en tot vier keer sneller op AMD MI250-processoren. De veelzijdigheid van de nieuwe software is net zo belangrijk als de prestatieverbeteringen, benadrukt Meta in een blogpost. De software stelt developers in staat om AI apps te optimaliseren voor de processoren van meerdere leveranciers.

Waarom?

Software is een onderscheidende factor geworden voor chipfabrikanten die developers proberen te verleiden om hun chips te gebruiken. De meeste chipfabrikanten ontwikkelen een software-ecosysteem met tools voor het optimaliseren van workloads op processoren. Het Nvidia CUDA-systeem is tot nu toe is het meest gebruikte platform voor de optimalisering van AI apps.

Zodra developers hun code optimaliseren voor Nvidia-processoren wordt het lastig om de code te optimaliseren voor de modellen van concurrenten. Volgens Meta stelt het nieuwe open-source AI-platform gebruikers in staat om workloads voor meerdere processoren te optimaliseren, zodat bedrijven met verschillende processorleveranciers kunnen werken zonder aan een partij vast te zitten.

Meta schreef in een blogpost dat het platform meer keuze onder leveranciers biedt voor deep learning developers. Daarnaast zou het platform de migratiekosten verminderen. Reuters vroeg Nvidia en AMD om commentaar, maar kreeg aanvankelijk geen reactie.

Vendor lock-in

De software van Meta is ontworpen voor ‘inference’, een proces dat plaatsvindt wanneer getrainde machine learning-algoritmen worden gevraagd om snelle beslissingen te nemen, zoals het identificeren van de onderwerpen van afbeeldingen.

MLCommons, een onafhankelijke organisatie die de AI-snelheid van technologie beoordeelt, stelt dat het softwareproject van Meta bedrijven ten goede komt. Volgens MLCommons wordt software steeds belangrijker voor hardwareprestaties, met name op het gebied van neurale netwerken, machine learning en inference.

Tip: Google Cloud gaat workloads gratis optimaliseren voor Xeon Scalable VM’s