4min

Red Hat heeft tijdens zijn summit in Boston de nodige innovatie voor Ansible gepresenteerd. Een hele grote verandering is dat Ansible nu ook Event-Driven is. Niet langer hoeft de software een Ansible playbook af trappen, maar kan Ansible op basis van waargenomen events automatisch een Playbook starten. Daarnaast introduceert het met Ansible Lightspeed een generatieve AI chatbot die gebruikers gaat helpen met het schrijven van Ansible Playbooks.

Om maar met het belangrijkste onderdeel te beginnen: Ansible is nu Event-Driven. Als men kijkt naar hoe IT-omgevingen vandaag de dag zijn opgebouwd, waar organisaties naar toe willen, dan is het eigenlijk maar vreemd dat dit nog niet mogelijk was. Ansible-playbooks draaien op basis van waargenomen events. Hiervoor moest eerder een andere software-oplossing worden gebruikt die zowel de waarneming deed als het opstarten van het juiste playbook. Dit is nu voor 50 procent veranderd: Ansible kan namelijk zelf niets waarnemen, het verbindt de infrastructuur met de applicaties die zich bezighouden met observability. Zodra een dergelijke applicatie zijn events richting Ansible communiceert, kan men in Ansible configureren hoe Ansible daarop moet reageren.

Luister ook: Hoe Log4Shell ons blijft achtervolgen anno 2023

Het uiteindelijk doel is IT-automatisering. Niet langer handmatig playbooks starten om een probleem op te lossen, dus. Het is eveneens de bedoeling om minder afhankelijk worden van oplossingen van derden, al blijf je voor observability wel gewoon afhankelijk.

Wat ons betreft is het een stap in de goede richting, al denken wij dat de vraag naar meer IT-automation vele malen groter is. IT Operations wil veel minder tijd kwijt zijn aan beheer en het oplossen van problemen dan nu. Het meeste wat IT operations vandaag de dag doet, kan vrijwel geautomatiseerd gebeuren. Natuurlijk is er toezicht nodig, maar elk Ansible Playbook zelf ontwikkelen of configureren zou niet meer nodig moeten zijn.

Met meer AI zou Ansible ook zelf moeten kunnen detecteren welke Playbooks er nodig zijn voor bepaalde workloads en hoe je die moet inzetten. Hopelijk is dat een volgende stap in de nabije toekomst.

Sneller en eenvoudiger Playbooks maken met Ansible Lightspeed

Bij Red Hat kon men ook niet om de hype heen van generatieve AI. Het succes van OpenAI wilde Red Hat niet aan zich voorbij laten gaan. Om die reden heeft men gekeken hoe het generatieve AI kon toepassen binnen zijn eigen portfolio. Het schrijven/coderen van Ansible Playbooks ligt uiteraard snel voor de hand. Bij Red Hat konden ze ons vertellen dat GPT-3 en GPT-4 hier niet goed genoeg in zijn om dat commercieel in te zetten. Bij Red Hat’s moedermaatschappij IBM hebben ze echter nog een hele krachtige IBM Watson AI-engine op de plank liggen. Hiermee heeft Red Hat zijn eigen LLM (large language model) kunnen ontwikkelen en om die reden kunnen gebruikers straks wel Ansible Playbooks gaan schrijven. Deze oplossing heet Ansible Lightspeed. Lightspeed kan straks ook automatisch verbeteringen voorstellen, net als een goede spelling- en grammaticacontrole.

Grote klanten die zelf een grote database aan Ansible Playbooks hebben kunnen die in de toekomst ook gebruiken om eigen LLM’s te ontwikkelen, zodat het meer Playbooks kan ontwikkelen die gebruikmaken van dezelfde soort code.

De exacte werking en training van deze LLM’s kon Red Hat nog niet veel over vertellen. Wel dat ze het belangrijk vinden dat de Playbooks van klanten niet in een generieke LLM terechtkomen. Wat echter nog onduidelijk is, is hoe ze de modellen gaan corrigeren als er bijvoorbeeld fouten inzitten. Of hoe ze het model binnen de lijntjes laten kleuren, want generatieve AI heeft duidelijke grenzen nodig. Dat was lokaal in Nederland nog wat onduidelijk, maar wordt hopelijk de komende dagen of weken snel duidelijk.

Red Hat gebruikt nu generatieve AI om Playbooks te ontwikkelen, hierdoor kan men deze sneller ontwikkelen en uitrollen. Dat is een stap in de goede richting, al zal niet iedereen dat zo zien in de community. We vragen ons echter af: had Red Hat ook niet kunnen inspelen op de no-code/low-code hype van de afgelopen jaren? Hiermee had men IT operations-medewerkers zonder codeerskills kunnen inzetten voor het maken van Playbooks. Dat was in onze optiek effectiever geweest dan generatieve AI.

Eigen AI/LLM ontwikkelen met Red Hat OpenShift AI

Wat Red Hat wel goed doet is faciliteren. De vraag naar AI, machine learning en het ontwikkkelen van bijvoorbeeld eigen LLM’s groeit nu enorm. Het trainen van modellen vraagt enorm veel van de onderliggende infrastructuur: er is veel rekenkracht voor nodig. Met Red Hat OpenShift AI speelt het bedrijf hierop in. Het heeft OpenShift geoptimaliseerd voor dit soort workloads om een uniforme ervaring te bieden, zowel on-premise als in de cloud. Hiervoor heeft het partnerships gesloten om verschillende technologieën beter te ondersteunen, onder meer Anaconda, IBM Watson Studio, Intel OpenVINO, AI Analytics toolkit, Pachyderm en Starburst.

Hiermee wordt het voor grote organisaties met strenge compliance eisen ook mogelijk om on-premises modellen te ontwikkelen, trainen en deployen.