2min

Tijdens Supercomputing 2023 (SC23) in Denver, Colorado heeft Intel zojuist een aantal aankondigingen gedaan. Naast dat men meer details deelde over de Aurora-supercomputer, stelde Intel dat het als enige een competitieve AI-chip te bieden heeft tegenover Nvidia’s aanbod.

In samenwerking met het Amerikaanse Argonne National Laboratory werkt men aan de zogeheten Aurora-supercomputer. Met behulp van een GPT-3 LLM van 1 biljoen parameters willen beide partijen wetenschappelijke doorbraken bewerkstelligen. Men liet voorafgaand aan SC23 benchmarks zien van medicijnenonderzoek, deeltjesfysica en moleculaire simulatie die de schaalbaarheid van de architectuur liet zien. Enigszins veelzeggend is dat alleen de vergelijking met Nvidia’s oudere A100-chip werd gemaakt: per GPU-kaart zou Intels oplossing 45 procent sneller presteren op de zelf ontworpen large language model.

Tip: VMware zet samenwerking met Intel op voor eenvoudiger macOS-beheer

HPC- en AI-workloads

Ook pochte Intel over de prestaties van de eigen Data Center GPU Max Series-chips, deze keer ten opzichte van de Nvidia H100 in diverse HPC-workloads. Men stelt dat de GPU Max 1550 gemiddeld 36 procent sneller is dan Nvidia’s topmodel. Deze H100 is momenteel de meest felbegeerde GPU ter wereld, met gesuggereerde prijzen van 10.000 dollar per stuk.

Al eerder stelde Intel dat de eigen Gaudi 2-GPU’s competitief waren met de H100 wat AI-inferencing betreft, terwijl men nu alvast vooruitkijkt naar Gaudi 3. Deze variant zal in 2024 gelanceerd worden.

Ook gaf het bedrijf een preview van de vijfde generatie Xeon-processors, die vooralsnog geen duidelijke releasedatum hebben. Deze HPC-CPU zal meer cores kennen en ingebouwde Advanced Matrix Extensions kennen – concreet houdt dit in dat deze chips gespecialiseerde AI-hardware aan boord zullen hebben.