Google i/O: Fra ‘AI første’ AI arbejder for alle

0
147
img-20190507-100255.jpg

×

img-20190507-100255.jpg

Takket være fremskridt inden for AI, Google bevæger sig ud over sin grundlæggende mission om at “organisere verdens information,” Google-CEO Sundar Pichai sagde tirsdag.

Også: Pixel 3A er officielt: Her er, hvad du har brug for at vide | Android Q: Alt, hvad du behøver at vide

“Vi bevæger os fra et firma, der hjælper dig med at finde svar på en virksomhed, der hjælper dig med at få tingene gjort,” Pichai sagde i sin Google i/O keynote adresse. “Vi ønsker, at vores produkter til at arbejde hårdere for dig i forbindelse med dit job, dit hjem og dit liv.”

For to år siden ved den årlige udvikler-konference, Pichai, der er fastsat ud Googles “AI først” – strategien. Tirsdag, lagde han ud af måder, hvorpå AI er at have en betydelig effekt på tværs af på tværs af alle sine platforme, produkter og tjenester.

Fra styresystemer og apps til hjem udstyr og i bilen, grænseflader, Google er at tilføre AI overalt. Ideen er, at jeg vil hjælpe mennesker med at blive mere produktive i alle aspekter af deres liv, uanset om de er i en corporate indstilling eller brug for hjælp til at læse tegn på metroen. Med Google Assistent i kernen af mange meddelelser, herunder den næste generation af Duplex, det er klart, hvordan nye AI-funktioner vil bringe mere værdi til mange af Google ‘ s produkter — og potentielt hjælpe Google med at opbygge sin indtægtskilder ud over annonce-salg.

Skal læse

Google ‘ s next-gen Assistent er 10x hurtigere og ved, hvor din mor bor (CNET)Google Duplex, men langt mindre uhyggelig og mere nyttigt (CNET)Google bringer AR og Linse tættere på den fremtidige søgning (CNET)

Pichai åbnet op for konferencen, som anskueliggør, hvordan machine learning gør det muligt for nye funktioner på Søg. For eksempel, Google er at bringe sin “Fuld Dækning” Nyheder funktionen til Google-Søgning til en bedre organisering nyheder-resultater i Søg. Hvis en bruger søger, for eksempel, for “sort hul” machine learning vil hjælpe med at identificere forskellige typer af historier og give dem et komplet billede af, hvordan en historie er ved at blive dækket.

Google er også at udvide mulighederne i Linsen — AI kamera værktøj, der havde premiere sidste år i/O — til at forbinde flere ting i den fysiske verden med den digitale information. Så for eksempel, at en bruger kunne pege deres Lens-aktiveret enhed til en restaurant menu til at trække billeder af de forskellige menupunkter. Eller de kunne pege Linse til en opskrift, i Bon Apetit magasin for at se den side, der kommer til live. Google sagde, at det arbejder med partnere som detailhandlere og museer til at oprette disse typer af oplevelser.

For at sikre, AI kamera funktioner, der virkelig arbejde for alle, annoncerede Google har integreret nye tekst, oversættelse og tale kapaciteter i Google Gå, Søge-app til entry level enheder. En bruger kan blot peger app ‘ en på et tegn til at få det læst højt for dem. Brugerne kan også have den app oversætte tekst og derefter læse det højt i deres foretrukne sprog.

De har i øjeblikket arbejder i mere end et dusin sprog. Det udnytter tekst til tale -, computer vision og Google ‘ s 20 års sprog, forståelse fra Søgningen. Der er komprimeret til lidt over 100 KB, den kan arbejde i telefoner, der koster så lidt som $35, så det er tilgængeligt for mere end 800 millioner voksne i verden, der kæmper for at læse.

AI er også en drivkraft-enhed værktøjer — nogle, der er rettet mod en forbedring af tilgængeligheden for handicappede brugere. For eksempel, en værktøj kaldet Live Relæ hjælper døve bruge telefonen, selv hvis de ikke ønsker at tale. Kører helt af på enhed-med den private samtale, der forbliver i brugerens hænder — Live Relæ vil oversætte tale fra indgående opkald i teksten. Derefter, den omsætter brugerens tekst svar i tale. Det starter ved at advare den person, der er på den anden ende af linjen, at de taler med brugerens virtuelle assistent.

Google er også at udforske ideen om personlig kommunikation-modeller, der kan forstå forskellige typer af indlæg. Google forskere indsamler tale prøver fra brugere, der er svære at forstå-sådan som mennesker, der stammer, eller som har været ramt af et slagtilfælde — til at uddanne nye stemmegenkendelse modeller. Det forskningsprojekt, kaldet Projekt Euphonia, skal underrette Google, Assistent stemmegenkendelse modeller i fremtiden.

Google har også fremvist, hvordan er virtuelle assistent beføjelser sin hardware, herunder udvidet sin familie af smart home-enheder. Google meddelte, at det har relanceret Google Startside familie under Reden navn og debuterede den Næste Hub Max. Designet til fælles rum som køkken, den Næste Hub Max har et kamera og en større 10-tommer skærm. Det kan effektivt funktion har et tv, en digital fotoramme, en smart home controller og mere, Google sagde. Det lancerer senere på sommeren for $229.

Mere fra Google I/O:

Google udvider Android Jetpack, en anden Android-udvikling toolsGoogle I/O: 14 Android OS moduler for at få over-the-air sikkerhed updateGoogle udvider Android Jetpack, en anden Android-udvikling toolsGoogle gør Cloud TPU Bælg offentligt tilgængelige i betaGoogle ser next-gen Duplex, Assistent, som tager over din tasksGoogle siger, at det vil tage AI, machine learning model biasThe Pixel 3A er officielt: Her er, hvad du har brug for at knowGoogle er Pixel 3a ‘ s specs, pris, har har noget nær perfekt timingGoogle udvider ML Kit kapaciteter til at bygge ML i mobile appsGoogle udvider UI framework Vibration fra just mobile til multi-platformGoogle i/O-2019: Den største meddelelser fra keynote

Relaterede Emner:

Google

Digital Transformation

CXO

Tingenes Internet

Innovation

Virksomhedens Software