HPE en AMD kondigen Helios AI rack aan met ethernet-netwerk

HPE en AMD kondigen Helios AI rack aan met ethernet-netwerk

HPE heeft de AMD “Helios” AI rack-scale oplossing aangekondigd, een complete rack voor AI-training en grootschalige inferencing. Dit nieuwe AI-rack beschikt over 72 AMD Instinct MI455X GPU’s, 260 terabyte aan bandbreedte en 2,9 AI exaflops aan FP4-prestaties. Verder zet HPE in op open standaarden en is dit het eerste AI-rack dat gebruik maakt van een ethernet-netwerk. De nieuwe AI-oplossing komt wereldwijd beschikbaar in 2026.

HPE en AMD bundelen hun krachten voor AI-infrastructuur die inferencing op grote schaal mogelijk moet maken. Het nieuwe rack combineert hardware, software en netwerkcapaciteit in één systeem. Antonio Neri, CEO van HPE, benadrukt het belang van open standaarden: “Met AMD ‘Helios’ en onze purpose-built HPE scale-up networking oplossing bieden we cloudproviders snellere deployments, meer flexibiliteit en minder risico bij het schalen van AI-computing.”

De samenwerking tussen HPE en AMD bestaat al meer dan tien jaar. Beide partijen leverden eerder meerdere exascale-systemen voor supercomputing.

De architectuur is gebaseerd op specificaties van het Open Compute Project (OCP). Het Open Rack Wide (ORW) ontwerp combineert energiezuinige vloeistofkoeling met een praktische opzet voor onderhoud. HPE Services levert het systeem met directe vloeistofkoeling en ervaring met exascale-installaties.

Lees ook: Met HPE Private Cloud AI draai je al je AI-workloads on-premises

Eerste ethernet-gebaseerde scale-up switch

Het meest opvallende aan de aankondiging is de nieuwe HPE Juniper Networking scale-up switch. Dit is volgens HPE de eerste switch die geoptimaliseerde prestaties voor AI-workloads levert over standaard ethernet. De switch is ontwikkeld in samenwerking met Broadcom en gebruikt diens Tomahawk 6 networking chip.

De oplossing is gebaseerd op de open Ultra Accelerator Link over Ethernet (UALoE) standaard. Hierdoor kunnen workloads grote hoeveelheden verkeer, zoals hoge inferencing throughput en massale modelgroottes via het netwerk uitwisselen. Het gebruik van ethernet minimaliseert vendor lock-in en maakt snellere feature-updates mogelijk.

Het enige echte alternatief is gebruikmaken van NVLink of InfiniBand om AI-chips verkeer te laten uitwisselen. Die technologieën zijn echter beide in handen van Nvidia na de overname van Mellanox InfiniBand. Door ethernet op te schalen en open standaarden te gebruiken kan je daar nu omheen werken.

CEO van Broadcom, Hock Tan, benadrukt het belang van open ethernet: “Ons high-performance silicon levert ultra-lage latency, uitstekende prestaties en lossless networking met de schaalbaarheid en efficiëntie die moderne AI-workloads vereisen. Samen met HPE en AMD stellen we klanten in staat krachtige AI-datacenters te bouwen met standaard ethernet.”

De nieuwe HPE scale-up oplossing vormt een aanvulling op bestaande scale-out en scale-across aanbod. Hiermee biedt HPE een compleet “networks for AI” portfolio. De switch beschikt over AI-native automation en de garantie dat het netwerkoperaties kan vereenvoudigen.

Open standaarden en software-ecosysteem

De AMD Helios architectuur maakt gebruik van open source AMD ROCm software en AMD Pensando networking-technologie. Dit moet innovatie versnellen en de total cost of ownership verlagen. Het systeem ondersteunt moderne AI- en HPC-workloads zonder compromissen op het gebied van capaciteit en dataverwerking.

HPE richt zich met deze oplossing primair op cloud service providers, waaronder neoclouds. De vraag naar AI-rekencapaciteit groeit snel en organisaties zoeken naar flexibele, interoperabele en energie-efficiënte oplossingen. De combinatie van HPE’s systeeminnovatie met AMD’s complete compute-stack moeten hierop inspelen.

De wereldwijde beschikbaarheid van de AMD Helios AI rack-scale oplossing is gepland voor 2026. HPE bevestigt dat het een van de eerste bedrijven is die dit complete turnkey rack kan leveren.

Lees ook: AMD’s AI-plan: groter, sneller, goedkoper dan Nvidia