4min

Technologie heeft beheer nodig, maar op het gebied van device management is het belangrijk om te realiseren dat we een nieuw tijdperk van Internet of Things (IoT) en slimme machines omarmen — vooral wanneer apparaten in de categorie van edge computing vallen. Hoe beslissen we vandaag de dag over device management?

Software developers die in dit veld werken hebben behoefte aan tools om IoT-apparaten snel en functioneel te beheren en controleren. Waar mogelijk willen ze een automatiseringsvoordeel behalen.

Om na te gaan hoe de IT-industrie met deze uitdaging omgaat spraken we een aantal organisaties met expertise over edge computing, softwareontwikkeling en device management. De centrale vraag is welke problemen naar voren komen bij het testen, valideren en uiteindelijk beheren van management software voor edge- en IoT-apparaten.

“Een van de belangrijkste innovaties van moderne softwareontwikkeling is de mogelijkheid om software te testen en te valideren op de exacte hardware die voor de implementatie is geselecteerd”, aldus Jason Knight, chief strategy officer bij OctoML. Het bedrijf van Knight probeert artificial intelligence (AI) duurzamer te maken met efficiëntie en automatisering om diensten te schalen en ontwikkelingslast te verminderen.

Knight benadrukt hoe belangrijk het is om software te kunnen testen op de exacte hardware waarop de software uiteindelijk wordt uitgerold. Die mogelijkheid is niet vanzelfsprekend. Volgens Knight verschillen de hardware en libraries voor machine learning vaak sterk tussen ontwikkelings-, test- en productie-omgevingen, waardoor het erg lastig kan zijn om ervoor te zorgen dat ML-applicaties performance- en nauwkeurigheidstargets halen.

Vandaar stelt Knight dat het cruciaal is om over een betrouwbaar edge device management-systeem te beschikken waarmee ontwikkelaars hun machine learning-toepassingen kunnen testen, debuggen en valideren op echte hardware.

“Dit wordt nog belangrijker bij gespecialiseerde targets zoals embedded hardware en machine learning accelerators. Het testen van niet-standaard hardware in simpelere test/deployment loops en vooruitgang op het gebied van machine learning acceleration zijn belangrijke ingrediënten voor minder complexiteit in deze traditioneel complexe domeinen,” voegde Knight toe.

Red Hat

Red Hat wilde meer dan één mening geven over dit onderwerp — en wie zijn wij om de open-source puristen tegen te houden? Volgens senior solution architect Erica Langhi zijn interconnectiviteit en interoperabiliteit tussen sensoren en edge-componenten onmisbaar voor een moderne en betrouwbare edge computing-architectuur.

“Open API’s en open source zijn een kritisch fundament omdat ze transparantie en flexibiliteit bieden. Dat is nodig om ervoor te zorgen dat componenten naadloos met elkaar samenwerken”, stelt Langhi.

Langhi herinnert ons aan het feit dat er meerdere grote factoren in het spel zijn, en dat we moeten denken in termen van besturingssystemen en platformen als we een punt willen maken over fatsoenlijk edge en IoT device management.

“Belangrijke overwegingen voor edge-architecturen zijn een lichtgewicht container orchestration platform dat zich uitstrekt tot edge-omgevingen, een besturingssysteem dat consistentie biedt tussen datacenters en edge nodes, en lichtgewicht patronen zoals serverless”, vertelt Langhi.

Haar visie wordt onderstreept door collega Salim Khodri, edge go-to-market specialist voor EMEA bij Red Hat. Als het gaat om implementatiescenario’s zoals intelligente landbouw, gezichtsherkenningsrobots of slimme parkeersystemen, dan moet AI interferencing van de cloud naar de edge worden verplaatst om te profiteren van lage latency en netwerkbandbreedte, aldus Khodri.

“Edge AI heeft een zeer interessant potentieel, maar er zijn enkele bijzondere uitdagingen. Het draaien van AI-toepassingen in edge-omgevingen vereist diepgaande controles van beveiliging en schaalbaarheid. Alleen dat geeft vertrouwen dat de inzichten die je verzamelt voor datagedreven beslissingen altijd beschikbaar en beschermd zijn”, vertelde Khodri.

Hybride, gecentraliseerd beheer

Khodri suggereert dat veel organisaties bij de overstap naar edge AI op zoek zullen gaan naar een centraal, veilig en hybride cloudplatform dat helpt bij het bouwen, beheren en schalen van AI-implementaties op duizenden servers in edge-omgevingen. Klinkt inderdaad als Red Hat.

“Een dergelijk platform maakt het mogelijk om AI gemakkelijker uit te breiden naar netwerken van winkels, magazijnen, ziekenhuizen, fabrieksvloeren, enzovoorts. Ook operations worden eenvoudiger. Het is nog een reden om gecentraliseerd beheer voor edge na te streven, wat op zijn beurt AI toegankelijker en praktischer maakt op alle locaties”, legde Khodri uit.

Hebben we dan toch echt controle over het beheer van edge-apparatuur? Ja, maar — en het is een grote máár — we beheren vanuit meer dan één bestuurdersstoel en meer dan één perspectief. Het handboek over best practices voor edge-apparatuur heeft nog geen vierseizoensbanden, laat staan een kaart of koolstofneutrale motor.

Net als cloud computing, dat opkwam zonder de security-, observability- en beheertools die we inmiddels als normaal beschouwen, is edge computing gegroeid zonder een redelijke standaard voor device management. Laten we dat zo snel mogelijk aanpakken.

Afbeelding: Adrian Bridgwater

Tip: Evenementen, euro’s en centen: de staat van open source in 2023