Apple hevder at deres AI-system på enheten ReaLM 'ytrer vesentlig bedre enn' GPT-4

0
32
Swidthiri=

En smartere Siri kan komme til iPhone. 

Maria Diaz/ZDNET

Vi vet at Apple jobber med en serie AI-kunngjøringer for WWDC 2024 i juni, men vi vet ennå ikke nøyaktig hva disse vil innebære. Å forbedre Siri er en av Apples hovedprioriteringer, ettersom iPhone-brukere jevnlig klager på assistenten. Apples AI-forskere publiserte denne uken en forskningsartikkel som kan kaste nytt lys over Apples AI-planer for Siri, kanskje i tide til WWDC.

Artikkelen introduserer Reference Resolution As Language Modeling (ReALM), et konversasjons-AI-system med en ny tilnærming for å forbedre referanseoppløsningen. Håpet er at ReALM kan forbedre Siris evne til å forstå kontekst i en samtale, behandle innhold på skjermen og oppdage bakgrunnsaktiviteter. 

Også: OpenAIs stemmemotor kan klone en stemme fra et 15-sekunders klipp. Lytt selv

Å behandle referanseoppløsning som et språkmodelleringsproblem bryter fra tradisjonelle metoder fokusert på samtalekontekst. ReaLM kan konvertere samtale-, skjerm- og bakgrunnsprosesser til et tekstformat som deretter kan behandles av store språkmodeller (LLMs), og utnytter deres semantiske forståelsesevner.

Forskerne benchmerket ReaLM-modeller mot GPT-3.5 og GPT-4, OpenAIs LLM-er som for øyeblikket driver gratis ChatGPT og betalt ChatGPT Plus. I artikkelen sa forskerne at deres minste modell presterte sammenlignet med GPT-4, mens deres største modeller gjorde det enda bedre.

“Vi demonstrerer store forbedringer i forhold til et eksisterende system med lignende funksjonalitet på tvers av forskjellige typer referanser, med vår minste modell som oppnår absolutte gevinster på over 5 % for referanser på skjermen,”" forskerne forklarte i avisen. “Vi sammenligner også med GPT-3.5 og GPT-4, med vår minste modell som oppnår ytelse som kan sammenlignes med GPT-4, og de større modellene våre overgår den betydelig.”

Også: En AI-modell med emosjonell intelligens? Jeg gråt, og Humes EVI fortalte meg at den brydde seg

Avisen viser fire størrelser av ReALM-modellen: ReALM-80M, ReALM-250M, ReALM-1B og ReALM-3B. "M" og "B" angi antall parametere i henholdsvis millioner og milliarder. GPT-3.5 har 175 milliarder parametere, mens GPT-4 angivelig kan skryte av rundt 1,5 billioner parametere. 

"Vi viser at ReaLM utkonkurrerer tidligere tilnærminger, og yter omtrent like godt som den nyeste teknologien LLM i dag, GPT-4, til tross for at den består av langt færre parametere," avisen opplyser.

Apple har ennå ikke bekreftet om denne forskningen vil spille en rolle i iOS 18 eller dens nyeste enheter.