Intel brengt met nieuwe DevCloud gratis AI-hardware naar onderzoekers

Services
Intel brengt met nieuwe DevCloud gratis AI-hardware naar onderzoekers

Ontwikkelaars, data scientists, onderzoekers, academici en startups die gebruikmaken van kunstmatige intelligentie (AI) krijgen er een nieuwe set gratis hardware voor hun werk bij. Intel heeft namelijk een nieuwe Nervana DevCloud aangekondigd die duizenden gebruikers toegang zal geven tot de nieuwste chips voor het aandrijven van innovatie.

Het chipbedrijf kondigde de nieuwe Devcloud aan tijdens de O’Reilly AI Conference in San Fransisco. Intel liet tijdens de onthulling weten dat de compute-capaciteit van de DevCloud aangedreven wordt door zijn eigen Xeon-processors. De DevCloud zal beschikbaar zijn als onderdeel van de Nervana AI Academy.

Deze academie zal in oktober openen voor maximaal 200.000 deelnemers. Geïnteresseerden kunnen zich per direct inschrijven. Om bezoekers van de Nervana AI Academy te helpen met AI zullen zij ook deel kunnen nemen aan gratis cursussen en is er aanvullende begeleiding.

Intel steekt veel arbeid in het toepasbaar maken van zijn chips voor de nieuwste generatie machine learning-algoritmes. Met DevCloud kan het bedrijf zijn positie in de markt verstevigen. Bovendien heeft Intel al meerdere overnames die te maken hebben met AI achter zich. Zo verscheen er op Techzine eerder  het bericht over de aankoop van Nervana Systems, een startup die met zijn algoritmes en software voor AI en deep learning voor zou lopen op de rest van de markt. Bovendien werkt de chipmaker samen met Tata Consultancy Services om de ontwikkeling van AI-systemen te versnellen.

Concurrentie

Ook Google voorziet AI-onderzoekers van tools die de ontwikkeling moet bevorderen. De techgigant onthulde tijdens zijn ontwikkellaarsconferentie Google I/O TensorFlow Research Cloud, waarmee geautoriseerde onderzoekers toegang krijgen tot 1000 Cloud tensor processing units (TPU’s). Deze chips van Google zijn gespecialiseerd in het verwerken van machine learning-berekeningen tegen hoge snelheden. De tweede generatie TPU-chip is in staat om maximaal 180 teraflops te verwerken. Volgens Google zorgt die snelheid ervoor dat de tijd waarin AI getraind moet worden af kan nemen van een aantal weken tot een aantal dagen of zelfs uren.