Red Hat introduceert Red Hat AI Enterprise, een geïntegreerd platform voor het implementeren en beheren van modellen, agents en applicaties in de hybride cloud. Tegelijk komt versie 3.3 van Red Hat AI beschikbaar, met uitgebreide modelondersteuning en verbeterde hardware-integratie. Het complete aanbod moet organisaties helpen van gefragmenteerde experimenten naar operationele AI te bewegen.
Het nieuwe platform moet de kloof tussen infrastructuur en innovatie dichten. Red Hat AI Enterprise bundelt tuning- en agentic-mogelijkheden met de basis van Red Hat Enterprise Linux en Red Hat OpenShift. “We bieden de complete stack, van GPU-accelerated hardware tot de modellen en agents die bedrijfslogica aansturen”, zegt vice president and general manager, AI Business Unit, Joe Fernandes.
De enterprise AI-sector evolueert snel van simpele chatinterfaces naar autonome agentic workflows. Maar veel organisaties blijven volgens Red Hat steken in de pilotfase door gefragmenteerde tools en inconsistente infrastructuur. Het bedrijf heeft zijn AI-aanbod de afgelopen maanden systematisch uitgebreid om deze obstakels weg te nemen.
Van inferencing tot modelcatalogus
Red Hat AI Enterprise integreert high-performance AI-inferencing, modeltuning en agent deployment-mogelijkheden. Het platform gebruikt de vLLM inference-engine en het llm-d distributed inference framework voor geoptimaliseerde generatieve AI-implementaties. Het draait op Red Hat OpenShift, wat schaalbaarheid en consistentie moet garanderen in hybride hardware-omgevingen.
Voor het nieuwe platform werkt Red Hat samen met Nvidia. Samen ontwikkelden ze Red Hat AI Factory with Nvidia, dat Red Hat AI Enterprise combineert met Nvidia AI Enterprise. Dit moet productie-AI voor enterprises versnellen en schaalbaar maken. Het platform biedt flexibiliteit voor “elk model, elke hardware, elke omgeving”.
Versie 3.3 breidt modelecosysteem uit
Versie 3.3 van het Red Hat AI-portfolio brengt forse updates. Het modelecosysteem groeit met gevalideerde, productie-klare gecomprimeerde versies van Mistral-Large-3, Nemotron-Nano en Apertus-8B-Instruct via de OpenShift AI Catalog. Daarnaast kunnen gebruikers de modellen Ministral 3 en DeepSeek-V3.2 met sparse attention implementeren.
Multimodale verbeteringen tellen ook mee: 3x snellere Whisper-verwerking, geospatial ondersteuning en verbeterde EAGLE speculative decoding voor agentic workflows. Een technology preview van Models-as-a-Service (MaaS) geeft IT-teams self-service opties tot privé-gehoste modellen via een API gateway. Dat centraliseert AI-toegang intern en belooft een AI-fundering die private en schaalbare AI-adoptie binnen enterprise omgevingen.
Op hardware-gebied komt er ondersteuning voor generatieve AI op CPU’s, te beginnen met Intel-processors voor kosteneffectieve small language model-inferentie. Ook zijn er certificeringen voor Nvidia Blackwell Ultra en AMD MI325X-accelerators toegevoegd. Red Hat benadrukt de keuze tussen verschillende hardwareplatforms als cruciaal voor organisaties die hun AI-strategie nog aan het ontwikkelen zijn.
Van data tot productie
De nieuwe Red Hat AI Python Index speelt een centrale rol. Deze trusted repository levert hardened, enterprise-grade versies van tools als Docling, SDG Hub en Training Hub. Teams kunnen daarmee overstappen van gefragmenteerde experimenten naar security-focused productie-pipelines, aldus het bedrijf.
Daaromheen komen uitgebreide observability- en safety-features. Realtime telemetrie biedt inzicht in de gezondheid, prestaties en gedrag van modellen. Dit omvat llm-d deployments en MaaS cluster- en modelgebruik. Een technology preview van geïntegreerde NeMo Guardrails stelt developers in staat operationele veiligheid en alignment af te dwingen.
Tot slot krijgen organisaties on-demand toegang tot GPU-resources door intelligente orkestratie en gepoolde hardware-toegang. Automatische checkpointing bespaart de status van langlopende training-jobs, wat werkverlies voorkomt en compute-kosten voorspelbaarder maakt in dynamische omgevingen.