Amazon Web Services har släppt koden från sitt SageMaker Neo machine learning service som den Neo-AI-projekt under Apache Software License. För första gången på AWS re:Invent i November, SageMaker Neo syftar till att hjälpa utvecklare att optimera utbildad modeller för riktade plattformar.
På samma sätt, Neo-AI kommer att göra det möjligt chipmakers, enhet beslutsfattare och utvecklare för att optimera modeller för en mängd olika plattformar.
AWS sa Neo-AI automatiskt optimerar modeller för TensorFlow, MXNet, PyTorch, ONNX, och XGBoost ramar, och potentiellt fördubblar hastigheten på dessa modeller, utan att förlora i noggrannhet. Plattformen konverterar även modeller till ett gemensamt format för att minska kompatibilitetsproblem.
Generellt, AWS sade att målet är att påskynda lärande installationer på kanten enheter.
“Normalt, att optimera en lärande modell för flera plattformar är svårt eftersom utvecklare behöver för att ställa modeller manuellt för varje plattform hårdvara och programvara,” AWS är Sukwon Kim och Vin Sharma skriver i ett blogginlägg. “Detta är särskilt utmanande för edge-enheter, som tenderar att vara begränsad på beräkna makt och lagring.”
Också: Top moln leverantörer 2018: Hur AWS, Microsoft, Google Cloud-Plattformen, IBM Moln, Oracle, Alibaba stack upp
Intel, Nvidia, och Arm är att stödja den första versionen av Neo-AI, med Xilinx, Kadens och Qualcomm inställd på att komma ombord vid ett senare tillfälle.
RELATERADE ARTIKLAR:
Vad är det bästa moln lagring för dig?Toppen moln leverantörer 2018: Hur AWS, Microsoft, GoogleEverything du behöver veta om cloud, explainedXaaS: Varför “allt” är nu en serviceInfographic: Varför företag byter till Allt som ServiceFree PDF ladda ner: Framtiden för Allt som ServiceSaaS, PaaS och IaaS: Förstår differencesCloud design: Hur man gör flytta utan att förlora controlAmazon moln ledningen krymper som Microsoft Azure tillväxten exploderar TechRepublic
Relaterade Ämnen:
Amazon
Digital Omvandling
CXO
Sakernas Internet
Innovation
Affärssystem