OpenAI trener GPT-4s etterfølger. Her er 3 store oppgraderinger du kan forvente fra GPT-5

0
47
OpenAI ChatGPT GPT-4o Maria Diaz/ZDNET

Selv om OpenAIs sist lanserte modell. , GPT-4o, økte ante på store språkmodeller (LLM), selskapet jobber allerede med sin neste flaggskipmodell, GPT-5. 

Også: Slik bruker du ChatGPT Plus: Fra GPT-4o til interaktive bord

Før til vårbegivenheten som inneholdt GPT-4o's kunngjøring, håpet mange at selskapet ville lansere den svært forventet GPT-5. For å begrense spekulasjonene postet administrerende direktør Sam Altman til og med på X, “ikke gpt-5, ikke en søkemotor.” 

Nå, bare to uker senere, i et blogginnlegg som avduker en ny sikkerhets- og sikkerhetskomité dannet av OpenAI-styret for å anbefale sikkerhets- og sikkerhetsbeslutninger , bekreftet selskapet at det trener opp sin neste flaggskipmodell, mest sannsynlig med henvisning til GPT-4-etterfølgerne, GPT-5.

"OpenAI har nylig begynt å trene opp sin neste grensemodell, og vi forventer at de resulterende systemene vil bringe oss til neste nivå av evner på vår vei til AGI [kunstig generell intelligens]," sa selskapet i et blogginnlegg. 

Selv om det kan ta måneder om ikke lenger før GPT-5 er tilgjengelig for kunder — LLM-er kan ta lang tid å bli opplært — her er noen forventninger til hva OpenAIs neste generasjons modell vil kunne gjøre, rangert fra minst spennende til mest spennende. 

Bedre nøyaktighet 

I følge tidligere trender kan vi forvente at GPT-5 blir mer nøyaktige i sine svar – fordi den vil bli trent på mer data. Generative AI-modeller som ChatGPT fungerer ved å bruke arsenalet av treningsdata for å gi energi til svarene de gir. Derfor, jo mer data en modell er trent på, jo bedre er modellens evne til å generere sammenhengende innhold, noe som fører til bedre ytelse. 

Også: Hvordan bruke ChatGPT til å lage diagrammer og tabeller med avansert dataanalyse

For hver modell som er utgitt så langt, har treningsdataene økt. Rapporter sa for eksempel at GPT-3.5 ble trent på 175 milliarder parametere mens GPT-4 ble trent på en billion. Vi vil sannsynligvis se et enda større hopp med utgivelsen av GPT-5. 

Økt multimodalitet 

Når vi forutsier GPT-5s evner, kan vi se på forskjellene mellom alle store flaggskipmodeller siden GPT-3.5, inkludert GPT-4 og GPT-4o. Med hvert hopp ble modellen mer intelligent og kunne skilte med mange oppgraderinger, inkludert pris, hastighet, kontekstlengder og modalitet. 

GPT-3.5 kan bare legge inn og skrive ut tekst. Med GPT-4 Turbo kan brukere legge inn tekst- og bildeinndata for å få tekstutganger. Med GPT-4o kan brukere legge inn en kombinasjon av tekst, lyd, bilde og video og motta en hvilken som helst kombinasjon av tekst, lyd og bilde. 

Også: Hva gjør GPT står for? Forstå GPT-3.5, GPT-4, GPT-4o og mer

Etter denne trenden vil neste trinn for GPT-5 være muligheten til å sende ut video. I februar avduket OpenAI sin tekst-til-video-modell Sora, som kan bli integrert i GPT-5 for å sende ut video. 

Mulighet til å handle autonomt (AGI)

Det er ingen tvil om at chatbots er imponerende AI-verktøy som kan hjelpe folk med mange oppgaver, inkludert å generere kode, Excel-formler, essays, CV-er, apper, diagrammer og tabeller og mer. Vi har imidlertid sett et økende ønske om kunstig intelligens som vet hva du vil ha gjort og som kan gjøre det med minimal instruksjon – kunstig generell intelligens, eller AGI. 

Med AGI ville brukere be agenten om å oppnå et sluttmål, og den ville være i stand til å produsere resultatet ved å resonnere hva som må gjøres, planlegge hvordan det skal gjøres og utføre oppgaven. For eksempel, i et ideelt scenario der GPT-5 hadde AGI, vil brukere kunne be om en oppgave som “Bestill en burger fra McDonald's for meg”," og AI vil være i stand til å fullføre en rekke oppgaver som inkluderer å åpne McDonalds-siden og legge inn bestillingen, adressen og betalingsmåten din. Alt du trenger å bekymre deg for er å spise burgeren. 

Også: Hva handler kunstig generell intelligens egentlig om? Å erobre siste etappe av AI-våpenkappløpet

Opstarten av Rabbit R1  prøver å oppnå det samme målet ved å lage en gadget som kan bruke agenter til å skape en friksjonsfri opplevelse med oppgaver i den virkelige verden, som å bestille en Uber eller bestille mat. Enheten har blitt utsolgt flere ganger til tross for at den ikke er i stand til å utføre de mer avanserte oppgavene nevnt ovenfor. 

Som neste grense for AI, kan AGI fullstendig oppgradere typen assistanse vi får fra AI og endre hvordan vi tenker på assistenter totalt. I stedet for å stole på AI-assistenter for å fortelle oss for eksempel hvordan været er, vil de kunne hjelpe til med å utføre oppgaver for oss fra start til slutt, som – spør du meg – er noe å se frem til.