
Selv om OpenAIs sist lanserte modell. , GPT-4o, økte ante på store språkmodeller (LLM), selskapet jobber allerede med sin neste flaggskipmodell, GPT-5.
Også: Slik bruker du ChatGPT Plus: Fra GPT-4o til interaktive bord
Før til vårbegivenheten som inneholdt GPT-4o's kunngjøring, håpet mange at selskapet ville lansere den svært forventet GPT-5. For å begrense spekulasjonene postet administrerende direktør Sam Altman til og med på X, “ikke gpt-5, ikke en søkemotor.”
ikke gpt-5, ikke en søkemotor, men vi har jobbet hardt med noen nye ting vi tror folk vil elske! føles som magi for meg.
mandag kl. 10 PT. https://t.co/nqftf6lRL1— Sam Altman (@sama) 10. mai 2024
Nå, bare to uker senere, i et blogginnlegg som avduker en ny sikkerhets- og sikkerhetskomité dannet av OpenAI-styret for å anbefale sikkerhets- og sikkerhetsbeslutninger , bekreftet selskapet at det trener opp sin neste flaggskipmodell, mest sannsynlig med henvisning til GPT-4-etterfølgerne, GPT-5.
"OpenAI har nylig begynt å trene opp sin neste grensemodell, og vi forventer at de resulterende systemene vil bringe oss til neste nivå av evner på vår vei til AGI [kunstig generell intelligens]," sa selskapet i et blogginnlegg.
Selv om det kan ta måneder om ikke lenger før GPT-5 er tilgjengelig for kunder — LLM-er kan ta lang tid å bli opplært — her er noen forventninger til hva OpenAIs neste generasjons modell vil kunne gjøre, rangert fra minst spennende til mest spennende.
Bedre nøyaktighet
I følge tidligere trender kan vi forvente at GPT-5 blir mer nøyaktige i sine svar – fordi den vil bli trent på mer data. Generative AI-modeller som ChatGPT fungerer ved å bruke arsenalet av treningsdata for å gi energi til svarene de gir. Derfor, jo mer data en modell er trent på, jo bedre er modellens evne til å generere sammenhengende innhold, noe som fører til bedre ytelse.
Også: Hvordan bruke ChatGPT til å lage diagrammer og tabeller med avansert dataanalyse
For hver modell som er utgitt så langt, har treningsdataene økt. Rapporter sa for eksempel at GPT-3.5 ble trent på 175 milliarder parametere mens GPT-4 ble trent på en billion. Vi vil sannsynligvis se et enda større hopp med utgivelsen av GPT-5.
Økt multimodalitet
Når vi forutsier GPT-5s evner, kan vi se på forskjellene mellom alle store flaggskipmodeller siden GPT-3.5, inkludert GPT-4 og GPT-4o. Med hvert hopp ble modellen mer intelligent og kunne skilte med mange oppgraderinger, inkludert pris, hastighet, kontekstlengder og modalitet.
GPT-3.5 kan bare legge inn og skrive ut tekst. Med GPT-4 Turbo kan brukere legge inn tekst- og bildeinndata for å få tekstutganger. Med GPT-4o kan brukere legge inn en kombinasjon av tekst, lyd, bilde og video og motta en hvilken som helst kombinasjon av tekst, lyd og bilde.
Også: Hva gjør GPT står for? Forstå GPT-3.5, GPT-4, GPT-4o og mer
Etter denne trenden vil neste trinn for GPT-5 være muligheten til å sende ut video. I februar avduket OpenAI sin tekst-til-video-modell Sora, som kan bli integrert i GPT-5 for å sende ut video.
Mulighet til å handle autonomt (AGI)
Det er ingen tvil om at chatbots er imponerende AI-verktøy som kan hjelpe folk med mange oppgaver, inkludert å generere kode, Excel-formler, essays, CV-er, apper, diagrammer og tabeller og mer. Vi har imidlertid sett et økende ønske om kunstig intelligens som vet hva du vil ha gjort og som kan gjøre det med minimal instruksjon – kunstig generell intelligens, eller AGI.
Med AGI ville brukere be agenten om å oppnå et sluttmål, og den ville være i stand til å produsere resultatet ved å resonnere hva som må gjøres, planlegge hvordan det skal gjøres og utføre oppgaven. For eksempel, i et ideelt scenario der GPT-5 hadde AGI, vil brukere kunne be om en oppgave som “Bestill en burger fra McDonald's for meg”," og AI vil være i stand til å fullføre en rekke oppgaver som inkluderer å åpne McDonalds-siden og legge inn bestillingen, adressen og betalingsmåten din. Alt du trenger å bekymre deg for er å spise burgeren.
Også: Hva handler kunstig generell intelligens egentlig om? Å erobre siste etappe av AI-våpenkappløpet
Opstarten av Rabbit R1 prøver å oppnå det samme målet ved å lage en gadget som kan bruke agenter til å skape en friksjonsfri opplevelse med oppgaver i den virkelige verden, som å bestille en Uber eller bestille mat. Enheten har blitt utsolgt flere ganger til tross for at den ikke er i stand til å utføre de mer avanserte oppgavene nevnt ovenfor.
Som neste grense for AI, kan AGI fullstendig oppgradere typen assistanse vi får fra AI og endre hvordan vi tenker på assistenter totalt. I stedet for å stole på AI-assistenter for å fortelle oss for eksempel hvordan været er, vil de kunne hjelpe til med å utføre oppgaver for oss fra start til slutt, som – spør du meg – er noe å se frem til.