Google gør Cloud TPU Bælg offentligt tilgængelig i beta

0
150

Udvikler-konferencer: Har de sprunget haj og glemt-udviklere?
ZDNet ‘ s Mary Jo Foley og Larry Dignan beklage hvordan udvikler konferencer såsom Microsoft Bygge, Google i/O, Facebook F8 og Apple WWDC er mere om corporate vision og mindre om den faktiske værktøjer udviklere rent faktisk bruger. Læs mere: https://zd.net/2V0mt0A

Google tirsdag meddelte, at dets Cloud-TPU v2 Bælg og Cloud TPU v3 Bælg er nu offentligt tilgængelig i beta, så machine learning forskere og ingeniører til at gentage hurtigere tog og bedre i stand machine learning modeller. Bælgene er sammensat af reoler af Tensor Processing Units (TPUs), custom silicium-chips Google først afsløret i 2016. Sammen i multi-rack form, at de udgør en “skalerbar supercomputer for machine learning,” sagde Google.

Også: Pixel 3A er officielt: Her er, hvad du har brug for at vide | Android Q: Alt, hvad du behøver at vide

Google annoncerede betaversion under Google i/O konference, den årlige udvikler tilfælde, hvor der typisk Google gør flere AI-relaterede meddelelser, herunder frigivelse af AI produkter og serviceydelser, der er rettet mod virksomhedens kunder.

En enkelt Sky TPU-Pod kan indeholde mere end 1.000 individuelle TPU chips. De er forbundet med en to-dimensional ringkerne mesh-netværk, som TPU software stack bruger til at programmere flere stativer af maskiner, som en enkelt maskine, der via en bred vifte af high-level Api ‘ er. Brugere kan også udnytte små dele af en Sky TPU-Pod, der hedder “skiver.”

Den nyeste generation af Cloud-TPU v3 Bælg er de væskekølede for at få maksimal ydelse. Hver leverer mere end 100 petaFLOPs af computerkraft. I form af rå matematiske operationer per sekund, en Sky TPU v3 Pod er sammenlignelig med en Top 5 supercomputer i hele verden, Google sagde — men det fungerer ved lavere numerisk præcision.

Også: Google ‘ s Demis Hassabis er et ubønhørligt nysgerrig ansigt AI

Med den slags magt, TPU-Pods kan tage kun få minutter eller timer at gennemføre ML arbejdsmængder, der ville tage dage eller uger for at fuldføre på andre systemer. Specifikt, Google siger, at de er velegnet til kunder med specifikke behov, såsom iteration hurtigere, mens du træner stort ML modeller, uddannelse mere præcise modeller med større datasæt (millioner af mærket eksempler; terabyte eller petabytes af data), eller omskoling en model med nye data på daglig eller ugentlig basis.

Mere fra Google I/O:

Google udvider Android Jetpack, en anden Android-udvikling toolsGoogle I/O: 14 Android OS moduler for at få over-the-air sikkerhed updateGoogle udvider Android Jetpack, en anden Android-udvikling toolsGoogle ser next-gen Duplex, Assistent, som tager over din tasksGoogle siger, at det vil tage AI, machine learning model biasThe Pixel 3A er officielt: Her er, hvad du har brug for at knowGoogle I/O: Fra “AI første” til AI, der arbejder for everyoneGoogle er Pixel 3a ‘ s specs, pris, har har noget nær perfekt timingGoogle udvider ML Kit kapaciteter til at bygge ML i mobile appsGoogle udvider UI framework Vibration fra just mobile til multi-platformGoogle i/O-2019: Den største meddelelser fra keynote

Relaterede Emner:

Google

Digital Transformation

CXO

Tingenes Internet

Innovation

Virksomhedens Software