Gör Google Cloud TPU Skida finns tillgänglig i beta

0
144

Utvecklare konferenser: Har de hoppade hajen och glömt bort utvecklare?
ZDNet Mary Jo Foley och Larry Dignan beklaga hur utvecklare konferenser som Microsoft Bygga, Google i/O, Facebook F8 och Apple WWDC är mer om företagets vision uttalanden och mindre om den faktiska verktyg för utvecklare som faktiskt använder. Läs mer: https://zd.net/2V0mt0A

Google på tisdag meddelade att dess Moln TPU v2 Skida och Moln TPU v3 Skida är nu allmänt tillgängliga i beta, så maskininlärning forskare och ingenjörer för att gå snabbare och träna mer kapabel modeller. Baljorna är sammansatt av rack av Tensor Processing unit (TPUs), anpassade kisel chips Google först presenterades i 2016. Tillsammans i flera rack form, att de utgör en “skalbar superdator för maskininlärning,” säger Google.

Också: Pixel 3A officiell: Här är vad du behöver veta | Android Q: Allt du behöver veta

Google tillkännagav att beta-release under Google i/O-konferensen, den årliga utvecklare händelse där Google vanligtvis gör flera AI-relaterade meddelanden, inklusive utsläpp av AI produkter och tjänster som är avsedda för företagskunder.

Ett enda Moln TPU Pod kan innehålla mer än 1 000 enskilda TPU marker. De är sammanlänkade av en två-dimensionell toroidala mesh-nätverk, där TPU programvara stack använder för att programmera flera rack av maskiner som en enda maskin via en mängd olika hög-nivå-Api: er. Användare kan också utnyttja små delar av ett Moln TPU-Pod, som kallas “skivor.”

Den senaste generations Cloud TPU v3 Skida är vätskekyld för maximal prestanda. Var och en ger mer än 100 petaflop av datorkraft. När det gäller rå matematiska operationer per sekund, ett Moln TPU v3 Pod är jämförbar med en Topp 5 superdator över hela världen, säger Google-men det fungerar vid lägre numerisk precision.

Också: Google är Demis Hassabis är en ständigt nyfiken ansikte AI

Med den typen av makt, TPU Skida kan ta bara några minuter eller timmar att slutföra ML arbetsbelastning som skulle ta dagar eller veckor att slutföra på andra system. Specifikt, Google säger att de är väl lämpade för kunder med specifika behov, som att gå snabbare samtidigt som utbildning stora ML modeller, utbildning mer korrekta modeller med större datamängder (miljoner märkt exempel; terabyte eller petabyte av data), eller omskolning en modell med nya data på en dag eller vecka.

Mer från Google i/O:

Google utökar Android Jetpack, andra Android-utveckling toolsGoogle I/O: 14 Android OS moduler för att komma over-the-air-säkerhet updateGoogle expanderar Android Jetpack, andra Android-utveckling toolsGoogle ser nästa generations Duplex, Assistent som tar över din tasksGoogle säger att det kommer att ta itu med AI, machine learning model biasThe Pixel 3A officiell: Här är vad du behöver för att knowGoogle I/O: Från “AI första” till AI arbetar för everyoneGoogle Pixel 3a: s specifikationer, pris, har har nära perfekta timingGoogle expanderar ML Kit kapacitet för att bygga ML till mobila appsgoogle stannar expanderar ramverk Fladdra från bara mobil till multi-platformGoogle i/O-2019: Den största meddelanden från keynote

Relaterade Ämnen:

Google

Digital Omvandling

CXO

Sakernas Internet

Innovation

Affärssystem