Det är AI-systemet som en gång ansågs vara för farligt att släppa till allmänheten av dess skapare. Nu gör Microsoft en uppgraderad version av programmet, OpenAI:s autokompletteringsprogram GPT-3, tillgänglig för företagskunder som en del av dess svit med Azure molnverktyg.
GPT-3 är det mest kända exemplet på en ny generation av AI-språkmodeller. Dessa system fungerar i första hand som autokompletteringsverktyg: mata dem med en textbit, oavsett om det är ett e-postmeddelande eller en dikt, så kommer AI:n att göra sitt bästa för att fortsätta det som har skrivits. Deras förmåga att tolka språk gör det också möjligt för dem att ta på sig andra uppgifter som att sammanfatta dokument, analysera känslan av text och generera idéer för projekt och berättelser – jobb som Microsoft säger att dess nya Azure OpenAI Service kommer att hjälpa kunder med.
Här är ett exempelscenario från Microsoft:
“En sportfranchise kan bygga en app för fans som ger resonemang av kommentarer och en sammanfattning av spelets höjdpunkter, låga ljus och analyser i realtid. Deras marknadsföringsteam kan sedan använda GPT-3:s förmåga att producera originalinnehåll och hjälpa dem att bolla idéer för sociala medier eller blogginlägg och interagera med fansen snabbare.”
GPT-3 används redan för denna typ av arbete via ett API som säljs av OpenAI. Nystartade företag som Copy.ai lovar att deras GPT-härledda verktyg kommer att hjälpa användare att piffa upp e-postmeddelanden och pitchdeck, medan mer exotiska applikationer inkluderar att använda GPT-3 för att driva ett textspel för att välja-din-egen-äventyr och chatbots som låtsas vara fiktiva TikTok influencers.
Medan OpenAI kommer att fortsätta sälja sitt eget API för GPT-3 för att ge kunderna de senaste uppgraderingarna, kommer Microsofts ompaketering av systemet att riktas mot större företag som vill ha mer support och säkerhet. Det betyder att deras tjänst kommer att erbjuda verktyg som “åtkomsthantering, privata nätverk, datahanteringsskydd [och] skalningskapacitet.”
Microsoft använder redan GPT-3 i sina produkter
Det är inte klart hur mycket detta kan kannibalisera OpenAI:s verksamhet, men de två företagen har redan ett tätt partnerskap. Under 2019 investerade Microsoft 1 miljard dollar i OpenAI och blev dess enda molnleverantör (en viktig relation i den datorintensiva världen av AI-forskning). Sedan, i september 2020, köpte Microsoft en exklusiv licens för att direkt integrera GPT-3 i sina egna produkter. Hittills har dessa ansträngningar fokuserat på GPT-3:s kodgenererande kapacitet, där Microsoft använder systemet för att bygga in autoslutförandefunktioner i sin svit av PowerApps-applikationer och dess Visual Studio Code-redigerare.
Dessa begränsade applikationer är vettiga med tanke på de enorma problemen som är förknippade med stora AI-språkmodeller som GPT-3. För det första: mycket av det som dessa system genererar är skräp och kräver mänsklig kuration och tillsyn för att sortera det goda från det dåliga. För det andra: dessa modeller har också gång på gång visat sig innehålla fördomar som finns i deras träningsdata, från sexism till islamfobi. De är mer benägna att associera muslimer med våld, till exempel, och hyser till förlegade könsstereotyper. Med andra ord: om du börjar leka med dessa modeller i ett ofiltrerat format kommer de snart att säga något otäckt.
Microsoft vet bara alltför väl vad som kan hända när sådana system släpps lös på allmänheten (minns du Tay, den rasistiska chatboten?). Så det försöker undvika dessa problem med GPT-3 genom att införa olika skyddsåtgärder. Dessa inkluderar att ge åtkomst att använda verktyget endast genom inbjudan; granska kundernas användningsfall; och tillhandahåller “filtrerings- och övervakningsverktyg för att förhindra olämpliga utdata eller oavsiktlig användning av tjänsten.”
Det är dock inte klart om dessa begränsningar kommer att räcka. Till exempel, när The Verge frågade hur exakt företagets filtreringsverktyg fungerar, eller om det fanns några bevis för att de kunde minska olämpliga utdata från GPT-3, undvek företaget frågan.
“Jag skulle inte vilja vara den person eller företaget som är ansvarigt för vad det kan säga baserat på utbildningsdata”
Emily Bender, professor i beräkningslingvistik vid University of Washington som har skrivit mycket om stora språkmodeller, säger att Microsofts försäkringar saknar substans. “Som noterat i [Microsofts] pressmeddelande, inkluderar GPT-3:s träningsdata potentiellt “allt från vulgärt språk till rasistiska stereotyper till personligt identifierande information”, sa Bender till The Verge via e-post. “Jag skulle inte vilja vara den person eller företaget som är ansvarigt för vad det kan säga baserat på utbildningsdata.”
Bender noterar att Microsofts introduktion av GPT-3 inte uppfyller företagets egna AI-etiska riktlinjer, som inkluderar en princip om transparens – vilket innebär att AI-system bör vara ansvarsfulla och begripliga. Trots detta, säger Bender, är den exakta sammansättningen av GPT-3:s träningsdata ett mysterium och Microsoft hävdar att systemet “förstår” språk – en inramning som är starkt ifrågasatt av många experter. “Det är oroande för mig att Microsoft lutar sig åt den här typen av AI-hype för att sälja den här produkten,” sa Bender.
Men även om Microsofts GPT-3-filter kan vara oprövade , kan den undvika en hel del problem genom att helt enkelt välja sina kunder noggrant. Stora språkmodeller är verkligen användbara så länge deras utdata kontrolleras av människor (även om detta krav förnekar några av de utlovade effektivitetsvinsterna). Som Bender noterar, om Azure OpenAI Service bara hjälper till att skriva “kommunikation riktad till företagsledare” är det inte alltför problematiskt.
“Jag skulle ärligt talat vara mer bekymrad över språk som genereras för en TV-spelkaraktär”, säger hon, eftersom den här implementeringen sannolikt skulle fungera utan mänsklig tillsyn. “Jag rekommenderar starkt att alla som använder den här tjänsten aldrig använder den på ett offentligt sätt utan omfattande testning i förväg och människor i slingan.”