Microsoft lanserer Phi-3 Mini, en AI-modell som er mindre, men som fortsatt konkurrerer med GPT-3.5

0
12
microsoft-mobile-device SOPA Images/Getty Images

Selv om teknologiselskaper kjemper for å bygge større og bedre kunstig intelligens-modeller, er det fortsatt betydelig verdi i mindre modeller. Microsoft dobler ned på det konseptet.

Microsoft lanserte tirsdag Phi-3 Mini, den første av tre små modeller selskapet sier den vil lansere i løpet av de kommende månedene. Microsoft trente Phi-3 Mini på 3,8 milliarder parametere, eller variabler som AI-modeller bruker for å levere bedre resultater. Phi-3 Mini er den minste av de tre modellene Microsoft planlegger å lansere. Selskapet sa ikke nøyaktig når de kunne forvente Phi-3 Small, som vil ha blitt trent på 7 milliarder parametere, eller Phi-3 Medium, som vil ha blitt trent på 14 milliarder parametere.

For å si Disse parametertallene i perspektiv, har noen rapporter antydet at OpenAIs GPT-4 Turbo ble trent på mer enn 1 billion parametere. Forrige uke sa Meta at når den endelige Llama 3-modellen lanseres senere i 2024, vil den ha blitt trent på 700 milliarder parametere.

Dessuten: Microsoft avduker Phi-2, en liten språkmodell som pakker kraft

Jo flere parametere en modell er trent på, desto bedre er den i stand til å levere den typen resultater brukerne ønsker, men dette har en kostnad. Jo flere parametere en AI-modell har, jo mer kraft og energi krever den for å levere resultater. Selv om flere parametere kan være best for kompliserte spørringer eller virksomhetskritiske AI-implementeringer, som de i helsevesenet, er det ikke alltid tilfelle.

Faktisk, mindre modeller som de Microsoft utvikler er gode for smarttelefoner og andre enheter med lavere strømstyrke. Microsoft kan bruke Phi-3 i mobile enheter, der AI-ytelsen på enheten er begrenset av brikkesettkraft og batterilevetid.

Til tross for sin mindre størrelse, presterer Phi-3 Mini bra, hevder Microsoft. I et intervju med The Verge sa selskapet at Phi-3 Mini tilbyr samme ytelse som modeller trent på mer enn 10 ganger antall parametere Microsoft brukte, og selv om den ikke kan matche GPT-4 eller GPT-4 Turbo, den er like dyktig som GPT-3.5.

Microsoft fortalte The Verge at selskapet trente Phi-3 Mini på en “pensum” som inkluderte barnebøker for å oppnå den ytelsen. Selskapet brukte også en større modell for å lage AI-genererte barnebøker for å supplere materialet fra den virkelige verden.

Microsoft gjør Phi-3 Mini tilgjengelig gratis på sin Azure-skyplattform, modellsamarbeidssiden Hugging Ansikts- og AI-modelltjeneste Ollama.