I en nylig ZDNET artikkel, forklarer min venn og kollega David Gewirtz hvorfor han anser den kommende iPhone 16, med fokus på iOS 18 og Apple Intelligence, som en viktig oppgradering.
Selv om jeg verdsetter Davids perspektiv, ber jeg om å være annerledes.
Også: 6 grunner til at iOS 18 gjør iPhone 16 til en må-oppgradering for meg
David argumenterer for at inkorporeringen av kunstig intelligens (AI) i iOS 18 gjør iPhone 16 til en nødvendig oppgradering for ham, og understreker potensialet til Apple Intelligence til å revolusjonere vår interaksjon med enhetene våre. Selv om jeg er enig i hans syn på lang sikt, er jeg ikke overbevist om at den første versjonen av Apple Intelligence vil representere det store spranget fremover i brukervennlighet som så mange mennesker forventer.
Hvert år venter min kone og jeg spent på lanseringen av den nye iPhone. Som en del av Apples oppgraderingsprogram returnerer vi enhetene våre, tilbakestiller lånet vårt hos Citizens Bank og anskaffer den nyeste modellen. I løpet av de siste årene har jeg valgt Pro Max, og min kone har valgt basismodellen. De årlige forventede forbedringene har vært inkrementelle, men verdsatt.
Til tross for buzz rundt iPhone 16s nye funksjoner og integreringen av Apple Intelligence, demper flere bekymringer min entusiasme for oppgradering.
Hva de ikke forteller oss om Apple Intelligence
Apple Intelligence representerer et betydelig sprang i AI-funksjoner på enheten, og bringer avansert maskinlæring og naturlig språkbehandling direkte til telefonene våre. Imidlertid er denne teknologien fortsatt i sin spede begynnelse. LLM-er på enheten og generativ AI er i hovedsak i en alfa- eller betafase, og det er mye usikkerhet om hvor godt de vil prestere på gjeldende Apple-mobilmaskinvare.
David ser på integreringen av AI i iOS 18 som et betydelig sprang fremover. Men la oss ikke tulle oss selv. Disse AI-funksjonene på enheten er i sin spede begynnelse, noe som betyr at de kanskje ikke leverer den sømløse opplevelsen som Apple-brukere har forventet. Når Apple Intelligence lanseres for offentligheten høsten 2024, vil det fortsatt betraktes som beta, ikke et ferdig produkt.
Det må bemerkes at Apple Intelligence ikke bare er en annen tilfeldig eller rutinemessig iOS- eller til og med MacOS-funksjonsoppgradering. Enheten vil laste en nedskalert versjon av Apples Foundation Models, en hjemmedyrket storspråkmodell (LLM), som vil være flere gigabyte stor og ha så mange som 3 milliarder parametere. (Sammenlign det med hundrevis av milliarder av parametere som brukes av modeller som GPT-3.5 og GPT-4 – eller hva Apple vil kjøre i sine datasentre for sin “Private Cloud Compute”-funksjon i Apple Intelligence.)
Dessuten: Apple Intelligence vil forbedre Siri i 2024, men forvent ikke de fleste oppdateringene før 2025
Hvordan dette vil fungere på iOS, iPadOS og MacOS har ennå ikke blitt fullstendig detaljert for utviklere, men den må lastes – i det minste delvis – i minnet, og potensielt oppta mellom 750 MB og 2 GB RAM når den kjøres, ifølge gjeldende estimater, avhengig av hvor god Apples minnekomprimeringsteknologi er og andre faktorer.
Det er en betydelig mengde minne allokert til en kjerne OS-funksjon som ikke alltid vil bli brukt. Som et resultat må deler av den lastes dynamisk inn og ut av minnet etter behov, og legge til nye systembegrensninger for applikasjoner og potensielt legge ekstra stress på CPU.
Den nåværende iPhone maskinvaren kutter den ikke
Tidligere denne måneden diskuterte jeg hvordan eldre — så vel som nåværende generasjon – iOS-enheter er ikke kraftige nok til å håndtere Generative AI-oppgaver på enheten. Base-iPhone 15, som bare har 6 GB RAM, kan slite med å møte kravene til Apple Intelligence ettersom den utvikler seg og blir mer integrert i iOS, kjerne Apple-applikasjoner og utviklerapplikasjoner. Eldre iPhones har 6 GB RAM eller mindre.
iPhone 15 Pro, med 8 GB RAM, kan være bedre egnet for disse oppgavene. Det er den eneste iOS-enhetsutviklere kan bruke til å teste Apple Intelligence (foruten deres Mac-er og iPad-proffer) før iPhone 16 sendes, antagelig i oktober. Imidlertid kan mange sluttbrukere fortsatt oppleve suboptimal ytelse på en 8GB-enhet når Apple Intelligence er fullt implementert.
Også: De beste telefonene du kan kjøpe: Eksperttestet
Tidlige brukere kan finne AI-funksjonene mer nyttige for utviklere enn vanlige brukere, ettersom systemet kan trenge finjustering og oppdateringer for å nå sitt fulle potensial. Jeg forventer også at Apple Intelligence, i likhet med base-iPhone 15 og tidligere iPhone-eiere som ikke vil ha tilgang til den når de oppgraderer til iOS 18, vil være en funksjon som sluttbrukere ganske enkelt kan slå av, og lagre minnet for applikasjonsbruk.
Den kommende iPhone 16, til tross for at den muligens har mer avansert maskinvare, kan også slite med de nye AI-egenskapene på grunn av designsykluser som ikke tok hensyn til disse funksjonene. Det kan ta enda en produktsyklus eller to før maskinvaren er helt på linje med de nye AI-egenskapene som skal rulles ut i iOS 18 og utover. Som et resultat kan brukere oppleve suboptimal ytelse og en mindre sømløs brukeropplevelse.
Hvorfor du ikke bør kjøpe iPhone 16 for Apple Intelligence
Av disse grunnene ser jeg iPhone 16 (og potensielt til og med iPhone 17) som overgangsprodukter i Apples reise med AI på enheten.
I tillegg til andre silisiumoptimaliseringer, vil fremtidige iPhones sannsynligvis kreve mer RAM for å fullt ut støtte disse AI-funksjonene, noe som kan føre til økte kostnader. Hvis base-iPhone 16 trenger 8 GB RAM for å kjøre Apple Intelligence effektivt, kan startprisen bli presset til $899 eller høyere. Pro-modellene kan kreve 12 GB eller til og med 16 GB RAM, noe som øker prisen. Dette vil også bety en ny A18-brikke for Pro-modellene, mens base-iPhone 16 kanskje bare får den nåværende A17 – selv om kanskje en “A17X”; med 10 GB kan være bygget for å gi telefonen mer minne.
Også: Hver iPhone-modell som vil støtte Apples kommende AI-funksjoner (foreløpig)
Foruten minneproblemer krever AI-behandling mye kraft og ekstra dataressurser. Uten betydelige fremskritt innen batteri- og strømstyringsteknologi, kan brukere måtte lade telefonene oftere. Dette kan føre til økt batteriforbruk, redusert batterilevetid og potensielle ytelsesproblemer. Den ekstra prosessorkraften som trengs for å kjøre LLM-er på enheten kan belaste CPU-en, føre til at enheten varmes opp og påvirke dens generelle ytelse og pålitelighet.
Hvordan Apple Intelligence sannsynligvis vil utvikle seg
Apples AI-evner forventes å forbedres betydelig i de kommende årene. Innen 2025 kan vi se mer avansert og pålitelig integrering av Apple Intelligence, ikke bare på mobile enheter og Mac-er, men også på produkter som Apple Watch, HomePod, Apple TV og en forbrukerorientert versjon av Vision-headsettet.
For å utvide Apple Intelligence til disse mindre kraftige enhetene, slik selskapet gjør med sin “Private Cloud Compute”; ved å kjøre sikre Darwin-baserte servere i datasentrene deres for mer avansert LLM-behandling, kan Apple utnytte skybaserte ressurser for disse mindre kraftige systemene gjennom fullt utviklede datasenterfunksjoner og partnerskap med selskaper som OpenAI eller Google .
Også: For å redde Vision Pro, må Apple gjøre disse tre tingene
Alternativt kan de vurdere en distribuert eller “mesh” AI-behandlingssystem, der inaktive enheter i en husholdning eller bedrift kan hjelpe mindre kraftige med LLM-spørringer.
Apple kan oppnå dette ved å utstyre MacOS 15 Sequoia, iOS 18 og iPadOS 18 med Apple Intelligence og på -enhet LLM som planlagt. Påfølgende endringer i iCloud, iOS, iPadOS og MacOS kan gjøre det mulig for alle enheter å kommunisere sine generative AI-egenskaper og inaktive behandlingstilstand. Dette vil tillate dem å fungere som fullmektiger for hverandres Apple Intelligence-forespørsler.
Bedrifter kan også bruke en administrasjonsløsning for mobilenheter for å lette tilgangen til LLM-er på enheten med forretnings-Macer. I tillegg kan iPhone eller Mac brukes som proxy for Apple Watch eller HomePod-forespørsler for mobilbrukere. Vi kan også se en kraftigere Apple TV med mer innebygd minne og prosessering for å fungere som en Apple Intelligence "hub" for hver Apple-enhet som brukes i en husholdning.
Se for deg at iPhone-en din bruker den ubrukte prosessorkraften til Mac eller iPad, alle utstyrt med LLM-er på enheten, for å takle komplekse AI-oppgaver. Dette vil øke tilgjengeligheten til AI-funksjoner på tvers av Apples produktspekter.
Nøkkelpunkter å vurdere før du oppgraderer til iPhone 16
Apples AI-funksjoner er praktisk talt beta : Apple Intelligence er fortsatt i sin spede begynnelse og gir kanskje ikke den sømløse opplevelsen Apple-brukere forventer. Apple Intelligences potensial vil bli realisert i fremtidige iterasjoner med mer moden maskinvare- og programvareoptimalisering.
Maskinvarebegrensninger: iPhone 16 kan slite med Apple Intelligences krav på grunn av designsykluser som i utgangspunktet ikke tok hensyn til disse funksjonene. iPhone 16 er et overgangsprodukt, og det vil sannsynligvis ta enda en produktsyklus eller to før maskinvaren er helt på linje med de nye AI-egenskapene.
Bekymringer om batteri og ytelse: AI-behandling er strømkrevende og kan føre til økt batteriforbruk og ytelsesproblemer.
Bredere forbedringer: Vurder forbedringene i kamerakvalitet, skjerm og generell ytelse, ikke bare AI-funksjonene.
Men jeg er fortsatt optimistisk
Til tross for hypen rundt Apple Intelligence, mange andre grunner til å vurdere å oppgradere til iPhone 16. Forbedringer i kamerakvalitet, skjerm og generell ytelse er fortsatt verdt å merke seg. iPhone 16 vil sannsynligvis ha bedre sensorer, forbedret databehandlingsfotografering og overlegne videoegenskaper. Skjermen kan også se forbedringer i lysstyrke, fargenøyaktighet og oppdateringsfrekvens, noe som gjør den til en bedre enhet for medieforbruk og spilling.
Også: De 3 Apple-produktene du bør' ikke kjøp denne måneden (inkludert denne iPaden)
Men hvis du vurderer iPhone 16 utelukkende på grunn av AI-egenskapene – som fortsatt er under utvikling og neppe vil levere den forventede ytelsen som er angitt i WWDC 2024 keynote — du vil kanskje administrere forventningene dine.