Conferenze per sviluppatori: Hanno saltato lo squalo e dimenticato gli sviluppatori?
ZDNet Mary Jo Foley e Larry Dignan lamentano per come sviluppatore di conferenze come la generazione di Microsoft, Google I/O, Facebook F8 e Apple WWDC sono più sulla visione aziendale dichiarazioni e meno sulla reale gli sviluppatori di strumenti effettivamente utilizzati. Leggi di più: https://zd.net/2V0mt0A
Google martedì ha annunciato che il suo Cloud TPU v2 Cialde e Cloud TPU v3 Baccelli sono attualmente disponibili al pubblico in versione beta, consentendo di machine learning per ricercatori e tecnici per procedere più velocemente e formare più in grado di apprendimento automatico di modelli. I baccelli sono composti da scaffali di un Tensore Unità di Elaborazione (TPUs), custom chip di silicio di Google, presentato al pubblico nel 2016. Insieme in multi-rack forma, che ammontano a un “scalabile supercomputer per l’apprendimento automatico,” Google ha detto.
Inoltre: Il Pixel 3A è ufficiale: Ecco quello che dovete sapere | Android Q: Tutto ciò che devi sapere
Google ha annunciato la versione beta durante il Google I/O conference, l’annuale sviluppatore caso in cui Google in genere rende più AI relativi annunci, compreso il rilascio di AI prodotti e servizi rivolti a clienti aziendali.
Una Nuvola di TPU Pod può includere più di 1.000 singoli TPU chips. Sono collegati da un due-dimensionale toroidale maglie della rete, che in TPU stack software programma più rack di macchine come un’unica macchina attraverso una varietà di alto livello Api. Gli utenti possono sfruttare anche le piccole sezioni di una Nuvola di TPU Contenitore, denominato “fette.”
L’ultima generazione Cloud TPU v3 Baccelli sono raffreddati a liquido, per il massimo delle prestazioni. Ognuno offre più di 100 petaFLOPs di potenza di calcolo. In termini di materie prime operazioni matematiche al secondo, una Nuvola di TPU v3 Pod è paragonabile ad un Top 5 supercomputer in tutto il mondo, Google ha detto-anche se si opera a bassa precisione numerica.
Anche: Google Demis Hassabis è uno inesorabilmente pubblico curioso fronte AI
Con che tipo di potere, il TPU Baccelli può prendere solo pochi minuti o ore per completare ML carichi di lavoro che vorresti richiedere giorni o settimane per completare su altri sistemi. In particolare, Google dice che sono adatti per i clienti con esigenze particolari, quali l’iterazione più veloce, mentre la formazione di grandi dimensioni ML di modelli, di formazione, di modelli più accurati utilizzando il set di dati più grandi (in milioni di esempi etichettati; terabyte o petabyte di dati), o di riqualificazione di un modello con i nuovi dati su base giornaliera o settimanale.
Più dal Google I/O:
Google espande Android Jetpack, altri lo sviluppo di Android toolsGoogle di I/O: 14 Android OS moduli per ottenere over-the-air di sicurezza updateGoogle si espande Android Jetpack, altri lo sviluppo di Android toolsGoogle vede next-gen Duplex, Assistente di come prendere il controllo dei tuoi tasksGoogle dice che l’indirizzo di AI, macchina per il modello di apprendimento biasThe Pixel 3A è ufficiale: Ecco che cosa avete bisogno per knowGoogle di I/O: Da “AI primi” di ai di lavoro per everyoneGoogle Pixel 3a specifiche, prezzo, caratteristiche: perfetto timingGoogle si espande ML Kit di funzionalità per la creazione di ML in mobile appsGoogle si espande framework di interfaccia utente Flutter da just mobile multi-platformGoogle I/O 2019: grandi annunci da parte del keynote
Argomenti Correlati:
La Trasformazione Digitale
CXO
Internet delle Cose
L’innovazione
Enterprise Software