Meta introduceert eigen hardware stack voor AI-workloads

Meta introduceert eigen hardware stack voor AI-workloads

Meta heeft onlangs eigen processors,een datacenterontwerp en een supercomputer geïntroduceerd voor AI-workloads. De techgigant wil hiermee een stukje van de taart in handen krijgen als het gaat om AI-oplossingen en -toepassingen, maar ook de controle behouden.

Meta voelt de druk van andere techgiganten als het gaat om AI-ontwikkelingen en wil daarbij aanhaken. Onlangs heeft de techgigant daarom een aantal belangrijke aankondigingen gedaan, vooral op het gebied van hardware. Meta wil hiermee, naar eigen zeggen, de controle krijgen en houden over de hele eigen AI-infrastructuur stack.

Processors en datacenterontwerp

De belangrijkste aankondiging is de komst van eigen AI-workload processors. De Meta Training and Inference Accelerator (MTIA) richt zich specifiek op inference workloads en moet daarvoor meer rekenkracht, betere prestaties, minder latency en meer efficiency bieden.

Daarnaast is deze ASIC-accelerator volledig aangepast aan de eigen interne workloads binnen Meta. De MTIA-accelerator wordt straks in combinatie met GPU’s, waarschijnlijk Nvidia GPU’s, gebruikt, zo is de bedoeling.

Meta-AIchips-1

De techgigant introduceert ook een nieuw datacenterontwerp. Dit ontwerp moet beter beantwoorden aan de inzet van AI-hardware voor zowel training, als inference. Denk aan met vloeistof gekoelde AI-hardwaretoepassingen en een high-performance AI-netwerkomgeving die duizenden AI-processors met elkaar verbindt in grote AI-trainingclusters.

Meta-AIchips-2

Supercomputer

Last but not least, kondigt Meta de komst van de Research SuperCluster (RSC) AI Supercomputer aan. Dit is volgens de techgigant één van de snelste AI-trainingssupercomputers in de wereld. De supercomputer bestaat uit 16,000 GPU’s en een 3-level Clos netwerkfabric dat bandbreedte levert voor 2.000 trainingssystemen.

Lees ook: Meta vermindert waterverbruik in datacenters