Amazon Web Services (AWS) heeft nieuwe functies toegevoegd die enterprises meer flexibiliteit moeten bieden in hoe ze het cloud-platform gebruiken. Het gaat onder meer om Deep Learning Containers, schrijft Silicon Angle.
AWS Deep Learning Containers is een softwarebundel die bestaat uit populaire kunstmatige intelligentie (AI) tools uit het open source-ecosysteem, dat Amazon heeft samengevoegd in Docker containers. Daarmee wordt het eenvoudig om ze te deployen op verschillende soorten AWS compute instances. De containers zijn bedoeld om engineers in staat te stellen om een cloud-gebaseerde AI-ontwikkelomgeving op te zetten in slechts een paar minuten.
Ook komen de Deep Learning Containers met een serie aan optimalisaties die AI-prestaties verbeteren. De voorverpakte versie van het TensorFlow deep learning-framework kan bijvoorbeeld neurale netwerken twee keer zo snel trainen als de normale versie. Deze boost in snelheid wordt geboden via aanpassingen die de software efficiënter werk laat verspreiden over grafische kaarten in het cloud-platform van de provider.
TensorFlow is bovendien slechts een van de twee AI-tools die beschikbaar is als een Deep Learning Container bij de lancering. De andere is Apache MXNet. In de toekomst komen er meer frameworks bij.
Concurrency Scaling
AWS onthulde daarnaast een nieuwe automatiserings-tool voor zijn Redshift data warehouse, dat ook bedoeld is om de administratieve overhead voor zijn gebruikers te verkleinen. Het gaat om Concurrency Scaling, een mechanisme dat extra verwerkingskracht kan alloceren als er een piek in gebruik is. De extra resources worden weer weggehaald als ze niet langer nodig zijn. Ook bracht AWS officieel zijn App Mesh network monitoring tool uit.
Verder werd er een trio aan infrastructuuropties uitgerold die gericht zijn op enterprises die hun cloud-uitgaven willen verminderen. De eerste is Glacier Deep Archive, een nieuwe tier in de S3 object storage-dienst die ontworpen is om data die weinig gebruikt wordt veilig te houden. Het nieuwe abonnement is maximaal 75 procent goedkoper dan de bestaande S3 Glacier Archive-tier.
Daarnaast zijn er nieuwe versies van de M5a en R5a compute instance-families gelanceerd. Deze instances werden in november geïntroduceerd en gebruiken chips van Advanced Micro Devices, waarmee ze tien procent goedkoper worden dan vergelijkbare Intel Xeon-gebaseerde AWS-machines.
De update biedt de mogelijkheid om M5a en R5a nodes te voorzien van 75 GB tot 3,5 TB aan direct aangesloten NVMe flash drives. Daarmee wordt snellere toegang geboden dan reguliere opslag, omdat ze dichtbij de onderliggende servers zitten.