Siden OpenAI lanserte ChatGPT i slutten av november 2022, har gratisversjonen av ChatGPT holdt seg relativt uendret, med samme store språkmodell (GPT-3.5) og brukergrensesnitt – og med de samme begrensningene. Imidlertid vil OpenAIs rekke ChatGPT-oppgraderinger forbedre brukerne betydelig. erfaring med chatboten.
På OpenAIs live-streamede arrangement på mandag avduket selskapet betydelige oppdateringer til gratisversjonen av ChatGPT som låser opp en hel rekke nye multimodale funksjoner for brukere, inkludert ny og forbedret tale- og bildeassistanse.
Også: De beste AI-chatbotene: ChatGPT er ikke den eneste som er verdt å prøve
Her er en oppsummering av de nye funksjonene og hva de betyr for deg.
GPT-4o
Den største nyheten fra arrangementet var lanseringen av en ny flaggskipmodell for store språk (LLM) fra OpenAI — GPT-4o. Som navnet tilsier, gir denne modellen GPT-4-nivå intelligens; den har imidlertid flere oppgraderinger fra forgjengeren, for eksempel raskere ytelse og multimodale muligheter på tvers av tekst, stemme og syn.
Ikke bare låser denne oppgraderingen opp banebrytende funksjoner — inkludert en ny stemmemodell og utvidede språk — men den gir endelig gratis brukere tilgang til de fleste funksjonene som vanligvis var begrenset til ChatGPT Plus-abonnenter for $20 per måned.
For eksempel kan gratisbrukere nå oppleve intelligens på GPT-4-nivå, få svar fra nettet via ChatGPT Bla gjennom med Bing, analysere data, chatte om bilder og dokumenter, bruke GPT-er og få tilgang til GPT-butikken. Tidligere var alle disse funksjonene kun tilgjengelige for ChatGPT Plus-abonnenter.
Fordelene som ChatGPT Plus-brukere fortsetter å nyte inkluderer fem ganger kapasiteten tilgjengelig for gratisbrukere, prioritert tilgang til GPT-4o, og oppgraderinger som den nye macOS-appen. I motsetning til dette vil gratisbrukere startes tilbake til GPT-3.5 når GPT-4o har kapasitet.
GPT-4o rulles ut til ChatGPT Plus- og Team-brukere i dag, med tilgjengelighet for Enterprise-brukere snart, ifølge selskapet. Gratis brukere har også LLM rullet ut til dem; disse brukerne vil imidlertid ha noen bruksbegrensninger.
Ny talemodus
Livestream-demoen som stjal showet var den nye og forbedrede stemmemodusen, superladet med GPT-4os nye video- og lydfunksjoner. I motsetning til forrige stemmemodus, vil brukere nå oppleve mer naturlige samtaler. For eksempel kan brukere avbryte stemmeassistenten og få assistenten til å snakke med forskjellige stemmer. I livestream-demoen fikk brukeren ChatGPT synge svar eller snakke i forskjellige toner, for eksempel “dramatisk robotstemme”.
AI-assistenten vil også kunne bruke konteksten fra miljøet ditt til gi stemmesvar. I demoen nedenfor kan du høre ChatGPTs stemmemodus chatte med brukeren og utdype omgivelsene hans, for eksempel hva han har på seg og hvor han sitter.
Dette kan være nyttig hvis du ønsker hjelp med det du ser på. For eksempel, hvis du vil vite navnet på den vakre bygningen du nylig møtte i en ny by, eller hvis du vil ha en meny oversatt. Den direktesendte demoen inkluderte en del der to personer hadde en samtale på to forskjellige språk, og ChatGPTs forbedrede stemmemodus oversatte hele samtalen.
Den forbedrede stemmemodusen vil rulle ut i alfa i løpet av de kommende ukene, og ChatGPT Plus-brukere vil få tidlig tilgang etter hvert som selskapet lanserer det bredere.
Last opp skjermbilder, bilder og dokumenter
Som nevnt ovenfor lar GPT-4o brukere laste opp bilder og dokumenter, i tillegg til tekst, for å få AI-innsikt om informasjonen de trenger. Dette er en stor gevinst fordi funksjonen uten tvil er en av de mest nyttige AI-chatbotene har å tilby, og til nå har den vært begrenset til ChatGPT Plus-brukere. Videre var den eneste gratis mainstream chatboten som tilbød dokumentopplasting til nå, Anthropics Claude.
Også: 4 ting Claude AI kan gjøre som ChatGPT ikke kan
Noen måter brukere kan dra nytte av funksjonen på er ved å laste opp PDF-er, for eksempel forskningsartikler eller lange juridiske dokumenter, og be chatboten om detaljerte sammendrag eller spørsmål om innholdet, som ChatGPT kan gi samtalesvar på. Brukere kan bruke bildefunksjonen til å hjelpe med innhold de ser på, for eksempel en matematisk ligning på et regneark eller identifisere hvilken type plante de ser.
Utvidede språk < /h2>
Med GPT-4o støtter ChatGPT nå mer enn 50 språk; du kan se hele listen her. I følge OpenAI er dette designet for å gjøre ChatGPT mer tilgjengelig for et globalt publikum. De utvidede språkene er imidlertid også nyttige for vanlige brukere fordi de hjelper med chatbotens oversettelsesmuligheter, som også har blitt forbedret med den nye talemodusen.
Nytt nettlesergrensesnitt og app
< p>Siden lanseringen av ChatGPT har brukergrensesnittet ikke endret seg i det hele tatt – før nå. Chatboten har nå det OpenAI kaller et "forenklet utseende" som er både “vennligere og mer samtalevennlig”. Når brukere besøker siden, vil de se en ny startskjerm, meldingsoppsett og mer, som vist på skjermbildet nedenfor.
Endringene virker minimale, med den største forskjellen et renere, mer forenklet utseende. I tillegg slipper selskapet en ny macOS-app til ChatGPT Plus-brukere fra og med i dag, som vil bli gjort mer bredt tilgjengelig i de kommende ukene. Selskapet deler at Windows vil få sin egen versjon senere i år.
GPT Store-tilgang
GPT-er er tilpassede ChatGPT-chatboter som er skreddersydd for å utføre spesifikke oppgaver. De erstattet ChatGPT-plugins i mars fordi de er lettere for utviklere å bygge; brukere kan nå finne mer enn tre millioner GPT-er i GPT Store.
Denne funksjonen er verdifull fordi den lar brukere utvide ChatGPT-funksjonene og integrere AI med noen av favorittapplikasjonene deres. For eksempel har Canva sin egen GPT, som lar brukere designe prosjekter fra chatboten. Et annet eksempel er Wolfram GPT, som hjelper brukere med matematikk innenfor chatbot-grensesnittet.