
På Googles I/O 2024 utviklerkonferanse brukte selskapet stort sett hele tiden på å snakke om AI (som forventet). Under keynoten beskrev Google hvordan kunstig intelligens ville integreres med Android fremover, med Gemini som trer inn i den samme virtuelle assistentrollen som Google Assistant, men på en mer integrert, kontekstuell måte.
Også: Android 15 avduket: Her er 8 spennende (eller nyttige) funksjoner som kommer til telefonen din
Etter å ha sluppet Gemini-appen tilbake i februar, har Google begynt å spesifisere Gemini for Android med en rekke nye funksjoner som kan sette inn AI i flere aspekter av hverdagen din.
Google prøvde å vise disse endringene som et grunnlag. – Nytenkning av Android, men i det minste for nå er de mer komplementære til den større Android-opplevelsen.
Tvillingene i seg selv er bokstavelig talt det. Google finjusterer Geminis design slik at den flyter på toppen av det du gjør, i stedet for å ta opp hele skjermen slik den gjør nå. Dette er på samme måte som Google Assistant presenterer seg selv. Med Gemini får du imidlertid et stort tekstfelt å skrive ledetekstene inn i, noe som reduserer fokuset på talemeldinger.
Det nye overlegget er ment å representere dypere integrasjon med hvilken app du bruker, og gi deg kontekstualiserte kontroller. Google ga et eksempel på når du ser på en YouTube-video; trekk opp Gemini, og du vil se en knapp som sier “Spør denne videoen”," slik at du kan bruke kunnskapsbasen til videoen til å stille spørsmål eller oppsummere innholdet. Du kan også gjøre dette med PDF-er, så lenge du abonnerer på Gemini Advanced, som har et lengre kontekstvindu.
Dessuten: 3 nye Gemini Advanced-funksjoner avduket på Google I/O 2024
Gemini vil også flyte lettere i apper, for eksempel når du bruker dra-og-slipp. Under keynoten demonstrerte Google hvordan du kan be chatboten om å generere et bilde, og deretter dra resultatet inn i en meldingsapp, slippe det og sende det til vennen din.
Over tid sier Google Gemini vil bli mer kontekstuelt bevisst på apper på telefonen din og gjøre det enklere å navigere i dem med dynamiske forslag.
Google oppgraderer også Circle to Search, som allerede er tilgjengelig på over 100 millioner Android-enheter, for å hjelpe med lekser. Spesifikt vil funksjonen kunne hjelpe elevene bedre å forstå komplekse fysikk- og matematikkordproblemer de sitter fast på. De vil få en detaljert oversikt over hvordan de skal løse problemet og trenger aldri å røre det digitale informasjonsarket eller pensum.
Dessuten: Google ertet nettopp AR-smartbriller, og du kan allerede se hvordan programvaren fungerer
Den nye muligheten er drevet av Googles LearnLM-modell, som har som mål å gjøre læring enklere med AI. Over tid sier Google at du vil kunne bruke Circle to Search til å løse mer komplekse problemer som involverer ting som symbolske formler, diagrammer og grafer.
Sirkel for å søke er allerede tilgjengelig på tvers av store smarttelefoner, inkludert Samsung Galaxy S24 .
Kerry Wan/ZDNET
Google kunngjorde også at Gemini Nano, modellen som er bygget direkte inn i Android (riktignok på svært få enheter), vil motta en oppgradering kalt “Gemini Nano med multimodalitet.” Den oppdaterte LLM lar deg bruke ulike medieinndata som tekst, bilder, videoer og stemme for å samhandle med Gemini og få svar på spørsmål, informasjon om forespørsler og mer.
Også: Møt Gemini AI Live: Like FaceTiming med en venn som vet alt
Modellen vil drive funksjoner som TalkBack for tekstbeskrivelser av bilder og ekte- spam-varslinger under telefonsamtaler (noe som er nyttig hvis du av en eller annen grunn tror at personen som ringer fra det ukjente nummeret faktisk er prinsen av Egypt, og du må overføre 1 million dollar til ham).
Dette er bare noen av AI-godbitene som Google vil bringe til Android 15 og nyere over tid. Noen av dem lanseres først på Pixel, mens andre vil være tilgjengelige for alle som laster ned Gemini-appen. Det gjenstår å se hvordan det hele vil skjemmes ut, men det er klart at hvis du eier og bruker en Android-telefon, er den i ferd med å bli mye kraftigere.