Veloce.ai software potrebbe radicalmente democratizzare AI

0
87

Zero

Oggi segna il culmine di due anni di sviluppo per alcuni software in grado di rendere la macchina di apprendimento molto più facile da programmare, contribuendo in tal modo a democratizzare AI.

Che sia la speranza di Jeremy Howard, co-fondatore del San Francisco-based Veloce.ai, un avvio outfit che è oggi il rilascio della versione 1.0 di “fastai,” una serie di librerie di codice progettato per semplificare radicalmente la macchina da scrivere compiti di apprendimento.

Costruito sulla cima di Facebook del Pytorch biblioteca, che ha anche la sua versione, la 1.0 comunicato oggi, fastai permette di eseguire attività come eseguire un convolutional rete neurale per il riconoscimento di immagini sul ImageNet i test di benchmark con solo una manciata di righe di codice. (ZDNet Steven J. Vaughan-Nichols è più su Facebook open sourcing PyTorch.)

Gli strumenti vengono fuori una serie di corsi popolari su macchina di apprendimento eseguire in fretta.ai, che Howard fondata tre anni fa con sua moglie, Rachel Thomas. Sia gli individui che avevano un raggio obiettivo di rendere AI più accessibile. “Crediamo nella potenza di apprendimento profondo,” Howard detto a ZDNet, “ma siamo stati entrambi terrorizzati della misura in cui l’attuale gruppo omogeneo di giovani uomini bianchi controllano la maggior parte della tecnologia, e così abbiamo deciso di fare qualcosa al riguardo.”

Anche: Facebook open-sources PyTorch 1.0 AI framework

“Quello che spero è che un sacco di gente si renderà conto che state-of-the-art di risultati di apprendimento profondo sono qualcosa che possono ottenere, anche se non sono una Stanford University apprendimento profondo Dottorato di ricerca.”

Dall’inizio, Howard e Thomas previsto un componente software per la loro macchina di corsi di formazione. Infatti, “il nostro obiettivo interno è arrivare al punto in cui siamo, non avrebbe bisogno di un corso più”, dice, scherzando sul fatto che “il fatto che abbiamo un corso significa finora abbiamo fallito.” In realtà, Veloce.dell’ia programmi di studio e di lavoro con gli studenti sono stati “un modo per vedere che cosa abbiamo bisogno di fare” per rendere l’intero processo di programmazione della macchina di apprendimento molto più semplice.

Il fastai libreria è stata sviluppata a pezzi e negli ultimi due anni, soprattutto da Howard stesso, ma con qualche aiuto da parte di studenti di corsi di laurea, in particolare francese, insegnante di matematica che ha fatto una residenza con Howard, Sylvain Gugger.

La versione odierna è la prima volta che tutte le parti sono unite in un lucido, tutto integrato.

Howard partito con la Keras libreria di rete neurale funzioni, prima sulla parte superiore della libreria Python chiamato a Teano, e poi in cima a Google ampiamente usato TensorFlow.

In definitiva, “Abbiamo trovato Keras non era abbastanza flessibile” per Fastai, dice Howard. Pytorch, al contrario, era molto più espressivo, consentendo di attuare nuove ML algoritmi. “Il Keras classe API non sapere molte cose di cui avete bisogno per utilizzare, devi raccontare un po ‘di più”, spiega, “il che significa che devi essere forte abbastanza praticante” di machine learning.

Anche: Top 5: le Cose da sapere riguardo AI TechRepublic

Al contrario, “Pytorch ha un molto, molto bella libreria di classi, e il modo in cui esso consente di lavorare con i dati, è veramente pulito, facile e flessibile.”

Pytorch funzioni che sono particolarmente preziosi sono cose come il “DataLoader” classe”, che mette il set di dati, per esempio, di un’immagine-riconoscimento attività su l’unità di elaborazione grafica (GPU).

Ma, “PyTorch mancava Keras la facilità di utilizzo”, ha note. “Così abbiamo deciso di iniziare con lo sviluppo del proprio software per PyTorch cosa Keras fatto per TensorFlow; ma piuttosto che semplicemente creare una versione di Keras, abbiamo creato qualcosa di nuovo.”

La magia di fastai è evidente l’eleganza e la semplicità di fastai sintassi, che frusta diverse fasi dell’attività per un intero ML di attività.

Qui, per esempio, è fastai codice di chiamata per essere un convolutional rete neurale, o la CNN, per il riconoscimento di immagini, in questo caso, il popolare MNIST il riconoscimento della grafia test:

dati = get_mnist()

imparare = ConvLearner(dati, tvm.resnet18, metriche=precisione)

imparare.fit(1)

Che è tutto quello che c’è troppo di esso. Sotto il cofano, il fastai “Studente” di classe è chiamata a un numero di Pytorch risorse per far funzionare il tutto.

Google Google Cloud è stato il primo ad annunciare il supporto per fastai. C’è un interessante articolo sull’uso di fastai e PyTorch su Google Cloud ML ricercatore Viacheslav Kovalevskyi, sul Medio.

Amazon Amazon Web Services ha annunciato il suo supporto, e rendere disponibili nel suo “AWS Apprendimento Profondo AMIs” e la sua “Amazon SageMaker.” Microsoft ha oggi annunciato il supporto nel suo servizio cloud Azure. Microsoft chief technology officer per AI, Giuseppe Sirosh, ha detto nelle osservazioni preparati che Microsoft è “felice di vedere Veloce.AI aiutando a democratizzare il deep learning a scala e sfruttare la potenza del cloud.”

Un altro modo Howard spera che il codice sarà democratizzare la macchina di apprendimento è il suo utilizzo in un separato, startup di venture denominata Piattaforma.ai, di cui è direttore scientifico. Un esperto di dominio, come ad esempio un ricercatore medico, può caricare la cella di immagini o di altri dati per la Piattaforma.ai, etichetta di loro, e sputare fuori un profondo modello di apprendimento. L’intento è quello di costruire una facile interfaccia utente grafica per specifici del dominio di risolvere un problema senza la necessità di essere esperti in AI o cloud computing, un po ‘ come le idee di intelligenza artificiale in medicina che sono circolate per decenni, ma con poco profitto fino ad ora.

(Mentre Veloce.ai è registrato come una società del Delaware, a differenza di Piattaforma.ai, fare soldi non è la sua intenzione, ma piuttosto di fornire strumenti open-source per consentire ad imprese commerciali.)

Anche: Google Cervello, Microsoft scandagliare i misteri di reti con AI

Howard ha perseguito tali ideali democratici intorno alla macchina di apprendimento in altre impostazioni. Egli è stato il fondatore di Enlitic, la San Francisco di avvio che utilizza un profondo apprendimento per cose come riconoscere i tumori in immagini mediche.

Howard stesso ha un fondo più interessanti. Ha ottenuto un concerto come consulente di strategia con McKinsey & Co. direttamente dalla high school, la laurea rapidamente dal ruolo di supporto help-desk. Ha poi continuato a ottenere un B. A. presso l’Università di Melbourne in filosofia, ma mantenne la consulenza nei settori dell’informatica e del machine learning.

Howard ha grande prospettiva sia il passato e il futuro di machine learning. Molto prima che il recente rinascimento deep learning, con l’impegno di Yoshua Bengio a Montreal MILA, e Geoffrey Hinton di Google DeepMind, la tecnologia multi-livello gerarchico per le reti neurali non esisteva nel 1990. Egli cita la “LetNet5″ rete costruita da Facebook dell’Yan LeCun quando era un accademico, e più a lungo la memoria a breve termine” modelli di allora.

“Abbiamo avuto esempi di [reti] più livelli nascosti, da dieci a quindici anni in anticipo sul loro tempo, ma molti di noi non prendere atto.”

Come per la strada da percorrere, Howard, memore dei recenti corsa di critica di apprendimento profondo da artisti del calibro di Gary Marcus, la NYU scienziato cognitivo e imprenditore, che ha scritto il lungo articolo che descrive come il deep learning cade a corto di il Santo Graal di “artificiale l’intelligenza generale,” e continua a tweet regolarmente a tali carenze.

Marcus, dice Howard, implica un profondo apprendimento della praticanti non sono consapevole dei suoi limiti, ma che in realtà sono a conoscenza. “Beh, sì, ha delle cose non è perfetto”, ammette, e “deep learning non può fare tutto, ma è un jolly utile strumento, e può aiutare le persone a fare meglio il loro lavoro in un sacco di modi.”

Howard è un pratico piegato: “Forse non ci portano a generalizzata AI, ma chi se ne frega. Non sto cercando di costruire un cervello, questo non è qualcosa che mi interessa.”

Precedente e relativa copertura:

Che cosa è l’IA? Tutto quello che devi sapere

Un esecutivo a guida di intelligenza artificiale, machine learning e generale AI alle reti neurali.

Cos’è il deep learning? Tutto quello che devi sapere

Il lowdown su deep learning: da come si relaziona con il più ampio campo di machine learning a come iniziare con esso.

Che cosa è macchina di apprendimento? Tutto quello che devi sapere

Questa guida spiega in cosa consiste la macchina di apprendimento, di come esso è legato all’intelligenza artificiale, come funziona e perché è importante.

Che cos’è il cloud computing? Tutto quello che devi sapere su

Un’introduzione al cloud computing destra, dalle nozioni di base fino a IaaS e PaaS, ibrido, public e private cloud.

Storie correlate:

Non c’è un ruolo per IA o i dati della scienza: questo è un lavoro di squadra di Avvio del Parentado porta scheggia di speranza per l’intelligenza artificiale robotica AI: La vista dal Capo Scienza di Dati Ufficio Salesforce intro Einstein Voce, una IA assistente vocale per le imprese non i posti di lavoro AI è distruggere che mi da fastidio, è che quelli che stanno crescendo Come Facebook scale AI

Argomenti Correlati:

Sviluppatore

La Trasformazione Digitale

CXO

Internet delle Cose

L’innovazione

Enterprise Software

0