Noll
En värld av integrerade utvecklingsmiljöer, eller “IDEs” rika programmering verktyg för att samla många möjligheter, har inte sett mycket action i år eftersom artificiell intelligens och cloud computing uppslukas programmering i allmänhet.
En spännande start baserade i Brooklyn, New York, kan ändra på det.
Paperspace, som grundades för tre år sedan, tisdagen meddelat att man har fått $13 miljoner i venture pengar från investerare Battery Ventures, Sinusvåg Ventures, Sorenson Ventures, liksom investeringar arm-chip jätten Intel, att dess totala distanser hittills till 19 musd. Befintliga investerare Initieras Inkomst gick också runt.
Pengarna kommer att gå till att förbättra och utvidga Paperspace främsta produkt, “Toning”, en typ av mash-up av verktyg speciellt designad för att programmera maskinen lärande neurala nätverk. Intel engagemang är särskilt intressant, eftersom Intel har under de senaste åren förstärkt upp på olika AI-projekt för att förnya sin processor lineupen.
Även: Snabbt.ai: s programvara kan radikalt demokratisera AI
Grundare och chief executive Dillon Erb talade med ZDNet om helt-primitiva programmeringsmiljö för dagens lärande utveckling.
Problemet Paperspace är att ta itu med, säger han, är besläktad till början av webbutveckling. “Det är inte svårt att hitta beräkna i dag, säger Erb, med hänvisning till tillgängligheten av GPU gårdar på Amazon och TPU installationer i Googles Google Cloud.
“Det saknas en del är mjukvara, precis som i början av webbutveckling. Detta är ett allvarligt problem som många människor står inför, som vi har sett första hand de utmaningar som människor har till och med utveckla en enda [AI] modell.”
En data scientist kan genomföra 15 rader av Facebook ‘ s PyTorch machine-learning framework, och “att ha tillgång till banbrytande forskning.” Men, “då alla andra kod som behövs för att sätta samman det du sluta hem-rolling det själv, gräva upp ett gäng av open-source verktyg och hacka den tillsammans.”
Gradient kombinerar den populära Jupyter Notebook utveckling gränssnitt med PyTorch eller TensorFlow eller andra ramar, och ett moln installation av Docker behållare. Ett speciellt Python-modul för Paperspace hämtas lokalt för att köra Paperspace kommandoraden, och ett par krokar är inbäddade i ett mål PyTorch eller annan fil. Från det, det är trivialt att kick off Köra kommandot hämtar en PyTorch projektet från GitHub, och använda det till men många behållare anläggningar som behövs på ren metall GPU-bearbetning som förvaltas av Paperspace. (Bolaget har tidigare i år aviserat stöd för Googles andra generationen av TPU.) Paperspace tar hand om uppgifter om sådana saker som hur man ska lösa i/O-flaskhalsar, säger Erb, eller hur struktur lagringsutrymme för appar.
Också: Facebook open-source AI ramen PyTorch 1.0 släppt
Kundbasen tenderar mot grupper av 5 till 15 personer, allt AI-forskare. De betalar en per-användare -, per-månad avgift, med stigande nivåer av GPU jobb utsläppsrätter. En enterprise-version, med en rörlig prissättning, inkluderar saker såsom obegränsad GPU arbetsbelastning.

Paperspace cloud-baserad programmeringsmiljö vill vara gold-standard för enkel publicering av modeller på oavsett samling av Grafikprocessorer, TPUs, eller andra processorer ett lag vill ha.
Poängen med allt detta är inte att sälja GPU computing, som är en handelsvara, och medan Paperspace byggt sina egna datacenter för en del av arbetet, det bygger också på Google Cloud fall. Så grossistverksamhet Grafikprocessorer, eller TPUs, är bara en biljett för att komma in på spelet. Den verkliga magin, insisterar Erb, är den “stack” i koden som gör det lätt att knyta Jupyter till Github machine learning projekt och sedan till underliggande beräkna.
Paperspace började när det var ingen Grafikprocessorer som erbjuds på en värd grund. Erb och kollegor — laget ligger för närvarande på en mager 16 personer — hade kommit från världen av datorstödd design, och de insåg värdet av tillgång till GPU gårdar. (Namnet Paperspace kommer från CAD-världen. Det hänvisar till “fönster in i en 3-D värld,” bolaget säger. Som namnet på start, det betyder att fungera som “en metafor för begreppet en portal till den oändliga kraften i molnet.”)
Paperspace fått såddfinansiering från inkubatorn YCombinator för det ursprungliga uppdraget att bygga GPU moln. Men då Erb och kollegor märkt något intressant. “Vi var att få alla dessa begär för något som särskilt fokuserat på TensorFlow och PyTorch,” han speglar. “Vi insåg när vi grävde i att detta var en greenfield möjlighet.”
Också: Google preps TPU 3.0 för AI, maskininlärning, modell träning
Paperspace har samarbetat under en tid nu med Snabb.ai, icke-vinstdrivande organisation som drivs av Jeremy Howard och Rachel Thomas som har undervisat i kurser i maskininlärning, som var nyligen aktuell i detta utrymme. Erb har märkt kampen för studenter i Howard kurser för att få ihop ens de mest grundläggande mjukvara. “Bara att få Jupiter igång, och se till att du inte får ut hundratals dollar för GPU fall, är en utmaning”, konstaterar han. “Problemet är inte att få tillgång till hårdvaran, som är det gott om, problemet är den programvara för att knyta ihop det hela.
Erb hoppas Paperspace stack kommer att bli en branschstandard för att “lager av abstraktion” som sitter framför allt GPU, eller TPU, eller andra beräkna används av en klient. Han noterar trender i maskininlärning till abstrakt bort från server-infrastruktur. En “cool grej” han har sett framväxten av ONNX, industrin för att fastställa en gemensam översättning modell mellan olika maskininlärning ramar. Det är en tid av enorm jäsa i branschen, och “rätt nivå av abstraktion för dessa saker är odefinierad just nu”, vilket innebär att fördelningen av resurser mellan GPU och behållare och maskininlärning ramar och verktyg programvara.
En intressant fråga är vad som händer med Intel i den här affären. Företaget har ännu inte visa kisel i naturen för att i någon högre grad, släpper fältet så långt att Nvidias Grafikprocessorer och Googles TPUs. Erb kommer inte att kommentera Intels potentiella silicon framgångar, men han är “väldigt glada” om det pågående arbetet mellan Paperspace och Intel.
“Intel är att göra riktigt stora investeringar” i AI, säger han. “I våra samtal med AI-grupp där de alla arbetar på det stora problemet, det är inte bara hårdvara och mjukvara, det är större än antingen
Tidigare och relaterade täckning:
Vad är AI? Allt du behöver veta
En verkställande guide till artificiell intelligens, från maskininlärning och allmänna AI att neurala nätverk.
Vad är djupt lärande? Allt du behöver veta
Lowdown på djupt lärande: från hur det förhåller sig till de bredare fält av maskinen lärande genom hur man kommer igång med det.
Vad är lärande? Allt du behöver veta
Denna guide förklarar vad lärande är, hur den är relaterad till artificiell intelligens, hur det fungerar och varför det är viktigt.
Vad är cloud computing? Allt du behöver veta om
En introduktion till cloud computing rätt från grunderna upp till IaaS och PaaS, hybrid, offentliga och privata moln.
Relaterade artiklar:
Det finns ingen roll för AI eller data vetenskap: det här är ett lagarbete Start Släkt ger strimma av hopp för AI i robotik AI: vy från Chief Data Vetenskap Kontor Salesforce intron Einstein Röst, en AI röst assistent för företag att det inte är Det jobb AI är förstört som stör mig, det är de som växer Hur Facebook skalor AI
Relaterade Ämnen:
Utvecklare
Digital Omvandling
CXO
Sakernas Internet
Innovation
Affärssystem
0