Dell Technologies komt met een grote uitbreiding van het eigen AI Factory. Het bedrijf introduceert nieuwe servers, storage-oplossingen en netwerkinfrastructuur voor AI-workloads. Dell mikt daarbij op het versnellen van AI-implementatie in elke stap, van experimentatie tot productie.
Tijdens Dell Technologies World in Las Vegas komt het bedrijf traditiegetrouw met een aantal grote aankondigingen. Allereerst komt het met een uitbreiding van de Dell AI Factory with NVIDIA (bij branding altijd met hoofdletters geschreven), die voorzien wordt van een verbeterde infrastructuur en full-stack AI-oplossingen. De tweede aankondiging omvat bredere verbeteringen aan het gehele Dell AI Factory-portfolio, waaronder nieuwe pc’s, edge-oplossingen en servers voor datacenters.
Oprichter en CEO Michael Dell benadrukt het belang van deze ontwikkelingen. Hij spreekt over “een missie” om AI naar alle Dell-klanten te brengen. De technologie moet toegankelijker worden, zo stelt hij. De zogeheten AI Factory is sinds de introductie ervan medio 2024 hiervoor het vehikel geworden bij Dell.
Krachtige nieuwe hardware
Centraal staat de nieuwe generatie aan PowerEdge-servers. Dell introduceert vandaag de PowerEdge XE9780- en XE9785-servers in zowel lucht- als vloeistofgekoelde varianten. Deze servers ondersteunen tot 192 Nvidia Blackwell Ultra GPU’s met direct-to-chip vloeistofkoeling en kunnen worden uitgebreid tot 256 GPU’s per Dell IR7000-rack. Volgens Dell bieden deze platforms tot vier keer snellere training voor large language models in vergelijking met hun voorgangers. Daarbij moet gezegd worden dat de vloeistofkoeling verraadt dat hier sprake is van een forser wattage dan ooit: een enkele B300 Ultra vraagt om 1.400 watt (!).
Ironisch genoeg is er wel sprake van betere energie-efficiëntie dan ooit. De nieuwe PowerEdge XE9712 met Nvidia GB300 NVL72 belooft 50 keer meer AI-reasoning-inference output en 5 keer betere throughput. Hierbij maakt het gebruik van Dell’s nieuwe PowerCool-technologie, wat de energie-efficiëntie aanzienlijk verbetert.
De netwerkinfrastructuur is eveneens vernieuwd met de PowerSwitch SN5600 en SN2201 Ethernet, onderdeel van het Nvidia Spectrum-X Ethernet-platform. Deze switches leveren een doorvoersnelheid tot 800 gigabit per seconde, essentieel voor data-intensieve AI-workloads.
Databeheer voor AI
AI-systemen zijn slechts zo goed als de data waarmee ze werken. Dell heeft daarom ook het AI Data Platform verbeterd. Dell ObjectScale krijgt een compacter software-defined systeem dat grootschalige AI-implementaties ondersteunt terwijl het de kosten en benodigde ruimte in het datacenter vermindert.
Daarnaast introduceert Dell een nieuwe oplossing gebouwd met PowerScale, Project Lightning en PowerEdge XE-servers. Door gebruik te maken van KV-cache en Nvidia’s NIXL-bibliotheken is deze oplossing specifiek ontworpen voor gedistribueerde inference-workloads op grote schaal.
AI voor iedereen
Dell’s tweede aankondiging benadrukt dat AI niet alleen voor grote datacenters is. Toch is er vanzelfsprekend sprake van een aanzienlijk kleinere schaal hierbij. De Dell Pro Max AI PC wordt geïntroduceerd als de eerste laptop met een enterprise-grade discrete NPU (neural processing unit). Daarnaast komt Dell met de Pro Max Plus met Qualcomm AI 100 PC Inference Card, het eerste mobiele workstation met een enterprise-grade discrete NPU. We hebben het bij deze NPU over zo’n 870 AI TOPS, niet de tientallen TOPS die de eerste NPU’s in AI-pc’s hadden.
AI is voor veel organisaties inmiddels essentieel, stelt Dell. Uit hun onderzoek blijkt dat voor 75 procent van de organisaties AI cruciaal is voor hun strategie, terwijl 65 procent al AI-projecten in productie heeft gebracht. Toch blijven uitdagingen zoals datakwaliteit, security en hoge kosten de voortgang vertragen. Gezien de vage aard van wat we wel en niet als AI definiëren, zijn we niet helemaal zeker van het precieze belang van GenAI, agentic AI en de laatste innovaties in dit speelveld; toch is AI, in de ruime zin van het woord, duidelijk niet meer weg te denken.
Jeff Clarke, COO van Dell Technologies, licht toe: “Dit jaar is een aaneenschakeling van innovaties geweest – en we blijven doorgaan. We hebben meer dan 200 updates toegevoegd aan de Dell AI Factory. Met onze nieuwste AI-ontwikkelingen helpen we bedrijven van elke omvang om AI sneller te implementeren.”
Kostenefficiënt alternatief voor cloud
Een interessant aspect van Dell’s aanpak is de focus op kostenefficiëntie. Het bedrijf claimt dat de Dell AI Factory-aanpak tot 62 procent kosteneffectiever is voor het draaien van grote AI-modellen (LLM’s) on-premises vergeleken met de public cloud. Dit is een belangrijk verkoopargument in een tijd waarin bedrijven worstelen met stijgende kosten, die in de cloud lang niet zo beheersbaar blijken te zijn als ooit gedacht.