Red Hat positioneert zijn open-sourceplatform als de basis voor bedrijven die AI willen implementeren en digitale soevereiniteit nastreven. In gesprek met Techzine legt Chief Product Officer Ashesh Badani uit hoe de meer dan 25 jaar oude open-sourcefilosofie nu van toepassing is op het AI-tijdperk, waarin keuze en controle belangrijker zijn dan ooit.
Red Hat bouwt al meer dan twintig jaar aan de basis van open-source. Die filosofie strekt zich nu uit tot artificial intelligence, waarbij bedrijven voor nieuwe uitdagingen staan. De markt wordt overspoeld met large language models, hardware accelerators en implementatieopties. Organisaties hebben moeite om te kiezen tussen verschillende GPU-leveranciers, cloudproviders en AI-modellen.
Red Hat is van mening dat dit een weerspiegeling is van eerdere technologische verschuivingen. Net zoals er na de vroege dominantie van Amazon meerdere public clouds zijn ontstaan, verwacht Red Hat een vergelijkbare diversiteit in GPU-omgevingen en AI-infrastructuur. Bedrijven zullen opties willen hebben voor waar ze workloads draaien, welke accelerators ze gebruiken en welke modellen ze implementeren, inclusief kleinere, taakgerichte modellen die minder rekenkracht vereisen.
“Innovatie vindt niet plaats binnen de vier muren van één organisatie”, legt Badani uit. “Het gebeurt dankzij samenwerking over de hele wereld.” Deze open aanpak is bedoeld om vendor lock-in te voorkomen en bedrijven flexibiliteit te bieden. Red Hat wijst op zijn geschiedenis met Linux en Kubernetes als bewijs dat open standaarden zowel innovatie als operationele efficiëntie creëren.
Lees ook: Chris Wright: AI heeft model, accelerator en cloudflexibiliteit nodig
Soevereiniteit zonder duidelijke definitie
Digitale soevereiniteit is een belangrijk onderwerp geworden, maar het blijft moeilijk om het te definiëren. Badani wijst op deelnemers aan een rondetafelgesprek voor leidinggevenden, die het niet eens konden worden over één definitie. Sommigen zien soevereiniteit als controle over data en applicaties. Anderen zien het als een nationale of regionale infrastructuurvereiste.
Red Hat komt deze ambiguïteit in verschillende markten tegen. Europa toont bijzondere interesse in soevereine cloudoplossingen, maar ook het Midden-Oosten, Azië en Zuid-Amerika onderzoeken soortgelijke concepten. Uit de discussie bleek dat bedrijven weten dat ze soevereiniteit willen, maar dat veel van hen nog niet volledig hebben gedefinieerd wat dat voor hun activiteiten betekent. “Een van de aanwezige bedrijfsleiders zei dat soevereiniteit draait om controle”, merkt Badani op. “Controle over mijn data, mijn applicaties, mijn processen, mijn omgevingen.”
Het gebrek aan duidelijkheid zorgt voor uitdagingen voor zowel leveranciers als klanten. Zonder overeengekomen normen wordt het bouwen van soevereine oplossingen ingewikkeld. Red Hat positioneert zijn open-sourcebasis als een manier om deze zorgen weg te nemen, ongeacht hoe soevereiniteit uiteindelijk wordt gedefinieerd, door keuze, portabiliteit tussen leveranciers, transparantie en toegang tot broncode te bieden.
Hardwarepartnerschappen vergroten het bereik van AI
Red Hat kondigde eerder samenwerkingen aan met grote chipfabrikanten om diverse AI-infrastructuren te ondersteunen, wat aansluit bij de accelerator-flexibiliteit die men nastreeft. De samenwerkingen met Nvidia, Intel en AMD zijn gericht op het certificeren van hardware voor Red Hat OpenShift AI.
Het partnerschap met Nvidia omvat ondersteuning van NIM-microservices op OpenShift AI. Deze inference microservices behoren tot het AI Enterprise-platform van Nvidia. De integratie belooft een gestroomlijnde implementatie naast andere AI-implementaties.
De samenwerking met Intel richt zich op het certificeren van Gaudi AI-versnellers, Xeon-processors en Arc GPU’s voor OpenShift AI. Het doel is om interoperabiliteit te garanderen binnen de productlijn van Intel voor modelontwikkeling, training en monitoring.
En dan is er nog AMD, dat zich aansluit via GPU Operators op OpenShift AI. Dit biedt processingkracht voor AI-workloads in hybride cloudomgevingen. Red Hat stelt dat deze partnerschappen hardwarekeuze mogelijk maken met behoud van prestaties.
Het bedrijf ziet de waarde in van het ondersteunen van meerdere soorten accelerators. Bedrijven die momenteel experimenteren met AI weten vaak niet welke hardware het beste aan hun behoeften voldoet. Gecertificeerde opties voor Intel-, AMD- en Nvidia-chips bieden organisaties flexibiliteit naarmate de vereisten evolueren.
Toepassingen vervagen door AI-integratie
De grens tussen traditionele applicaties en AI-applicaties verdwijnt. Red Hat verwacht dat al zijn producten uiteindelijk AI-compatibel of AI-ondersteund zullen zijn. Gebruikers zullen AI-mogelijkheden als standaard verwachten, net zoals internetconnectiviteit de standaard is geworden.
Een ontwikkeltool illustreert deze verschuiving. Geïntegreerde ontwikkelomgevingen bestaan al 30 jaar. Nu vervullen tools als Cursor vergelijkbare functies, maar worden ze bestempeld als AI-tools. Het onderscheid wordt onduidelijk wanneer bestaande software AI-mogelijkheden toevoegt. “Is dat een traditionele applicatie of is dat een AI-applicatie?”, vraagt Badani zich af om de verwarring rond categorisering te benadrukken.
Het platform van Red Hat is bedoeld om beide scenario’s te ondersteunen. Sommige workloads zullen puur op AI gericht zijn, zoals de implementatie van LLM’s. Andere zullen traditionele applicaties zijn die zijn uitgebreid met AI-functies. De architectuur moet dit spectrum aankunnen zonder dat er een aparte infrastructuur nodig is.
Natuurlijk versterkt Red Hat ook zijn aanwezigheid op het gebied van agents, wat wordt gezien als de natuurlijke evolutie van cloud-native services. Deze autonome systemen zullen steeds meer taken uitvoeren die voorheen menselijke tussenkomst vereisten. Red Hat ziet agents als applicaties die toevallig AI gebruiken, in plaats van als een volledig aparte categorie.
De eerste stappen in de acceptatie van AI
Ondanks de hype bevindt de acceptatie van AI door bedrijven zich nog in een vroeg stadium. Bedrijven proberen te bepalen welke modellen ze moeten gebruiken, hoe ze deze moeten implementeren en waar regelgeving van toepassing is. De technologie zelf wordt nog steeds gedefinieerd. Red Hat meldt dat het dit jaar meer dan 1000 klantcontacten had op het gebied van AI. Veel organisaties willen overstappen van tokenverbruik naar tokenprovisioning. In plaats van voor elke API-call externe diensten te betalen, willen bedrijven hun eigen inferentie-infrastructuur runnen.
Deze verschuiving vereist platforms die GPUs as a service, models as a service en goed levenscyclusbeheer kunnen bieden. Organisaties hebben tools nodig voor het monitoren van het gebruik, het toepassen van guardrails en het beheren van modelversies. Het bedrijf trekt parallellen met eerdere technologische transities. Containerisering en microservices stonden voor vergelijkbare uitdagingen op het gebied van beheer en implementatie. De oplossingen die voor Kubernetes zijn ontwikkeld, zijn nu van toepassing op AI-workloads, maar zijn aangepast aan de specifieke vereisten van modellen en inferentie.
Optimisme versus voorzichtigheid
De houding ten opzichte van AI verschilt uiteindelijk per regio en organisatie. De Verenigde Staten lijken toleranter en moedigen experimenten aan. Europa is voorzichtiger en maakt zich zorgen over vooringenomenheid, veiligheid en onbedoelde effecten van AI-systemen. Dat blijkt uit een recent onderzoek van Red Hat.
Het zorgt voor spanning tussen de wens om te innoveren en de noodzaak om goed bestuur in te voeren. Bedrijven hebben behoefte aan evaluatiekaders, detectie van vooringenomenheid en veiligheidscontroles. Ze hebben ook beleid nodig dat experimenteren niet volledig belemmert. “AI-technologie is er nu eenmaal. Het is onwaarschijnlijk dat deze weer zal verdwijnen”, aldus Badani. “De vraag is dus: hoe kunnen we deze technologie optimaal benutten?”
Uit gesprekken van Red Hat met bedrijven komen gemengde perspectieven naar voren. Sommigen zien de belofte van AI voor productiviteit en nieuwe mogelijkheden. Anderen maken zich zorgen over risico’s en implementatieproblemen. De open-sourcegigant positioneert zijn platform als een manier om te profiteren van AI met behoud van controle. Red Hat is ervan overtuigd dat zijn AI-framework onzekerheid wegneemt en AI-succes mogelijk maakt door klanten in staat te stellen hun workloads op elk model, elke accelerator en elke cloud uit te voeren. “We willen klanten in staat stellen om aan de slag te gaan, in de wetenschap dat ze met Red Hat voorbereid zijn op alle innovaties die we de komende jaren verwachten”, aldus Badani.
Tijdens de discussie werd erkend dat definities van AI voortdurend in ontwikkeling zijn. Wat als artificial intelligence geldt en wat als standaardautomatisering, is niet altijd duidelijk. Naarmate de mogelijkheden verbeteren en redeneringsmodellen zich ontwikkelen, zullen er nieuwe use cases ontstaan die vandaag de dag nog niet bestaan.
Platformbenadering voor onzekerheid
De strategie van Red Hat is gericht op het bieden van een uniform platform voor AI en traditionele applicaties. De OpenShift-basis ondersteunt containers, virtuele machines en nu ook AI-workloads. Deze consolidatie is bedoeld om de infrastructuur te vereenvoudigen en organisaties flexibiliteit te bieden. Het bedrijf heeft specifieke AI-producten toegevoegd, waaronder OpenShift AI, Enterprise Linux AI en de AI Inferencing Server. Deze tools behandelen verschillende onderdelen van de AI-levenscyclus, van ontwikkeling tot implementatie tot inferentie.
Door voort te bouwen op open-source, stelt Red Hat dat bedrijven keuze en flexibiliteit behouden met betrekking tot software en hardware. Als de vereisten veranderen of er betere modellen op de markt komen, kunnen organisaties zich aanpassen zonder hun volledige infrastructuur te vervangen. Hetzelfde platform dat de workloads van vandaag uitvoert, moet ook de innovaties van morgen aankunnen. Deze aanpak biedt een antwoord op de onzekerheid in de AI-markt. Bedrijven weten niet welke technologieën zullen domineren of hoe de regelgeving zich zal ontwikkelen. Een open, flexibel platform biedt zekerheid tegen verkeerde architecturale keuzes.
Badani benadrukt dat zowel innovatie als efficiëntie belangrijk zijn. Nieuwe mogelijkheden moeten kunnen samenwerken met bestaande investeringen. Bedrijven kunnen niet alles weggooien om AI te implementeren. Platforms die een brug slaan tussen legacy- en moderne workloads en tegelijkertijd diverse hardware ondersteunen, zullen waarschijnlijk worden geaccepteerd. Red Hat is met meer dan 25 jaar ervaring in open-source klaar voor deze transitie. Dezelfde principes die de acceptatie van Linux hebben gestimuleerd, zijn nu van toepassing op AI-infrastructuur.