Dyd, intellekt og tillit: Hvordan ChatGPT slo mennesker 3-0 i moralsk Turing-test

0
45

Din nye moralske dommer?

Surasak Suwanmake/Getty Images

< p>Du stoler på deg selv — vel, mesteparten av tiden.

Du stoler litt mindre på andre mennesker — mesteparten av tiden.

Hvor mye stoler du imidlertid på AI ?

Også: Etikken til generativ AI: Hvordan vi kan utnytte denne kraftige teknologien

Svaret på det spørsmålet, i hvert fall når det kommer til moralsk dømmekraft, ser ut til å være: Mer enn du stoler på mennesker.

Du skjønner, forskere ved Georgia State University utførte nettopp en slags moralsk Turing Test. De ønsket å se hvordan bare dødelige reagerer på to forskjellige kilder som gir svar på spørsmål om moral. AI var seierherren.

Jeg ønsker ikke å bli altfor begeistret for forestillingen om AI som en bedre moralsk dommer enn for eksempel prester, filosofer eller ukjendtlig fil som du alltid møter i baren.

Men her er noen ord fra Georgia States egen pressemelding: “Deltakere vurderte svar fra AI og mennesker uten å vite kilden, og favoriserte overveldende AIs svar i form av dydighet, intelligens og pålitelighet.”

Din indre sjel kan fortsatt nøle av ordene “dydighet, intelligens og pålitelighet.” Min sjel er ikke i stand til å finne likevekt når jeg hører ordet «overveldende».

Hvis AI virkelig er bedre til å veilede oss gjennom spørsmål om moral, bør den hele tiden være ved vår side mens vi går gjennom livets etiske usikkerhetsmomenter.

Også: OpenAIs nye modellspesifikasjon avslører mer om hvordan den vil at AI skal oppføre seg

Tenk bare hva AI kan gjøre for partiske lærere eller politisk kompromitterte dommere. Vi i den virkelige verden kunne umiddelbart stille spørsmål som: “Å, du sier at det er det som er riktig.” Men hva tenker AI?"

Det ser ut til at Georgia State's forskere aktivt har vurdert dette. Hovedforsker Eyal Aharoni observerte: “Jeg var allerede interessert i moralsk beslutningstaking i rettssystemet, men jeg lurte på om ChatGPT og andre LLM-er kunne ha noe å si om det.”

Det er ikke, men som om Aharoni er helt overbevist om AIs sanne moralske overlegenhet.

Også: Hvordan jeg tester en AI-chatbots kodeevne – og du kan også< /p>

“Hvis vi ønsker å bruke disse verktøyene, bør vi forstå hvordan de fungerer, deres begrensninger, og at de ikke nødvendigvis fungerer på den måten vi tenker når vi samhandler med dem”," sa han.

Aharoni gjorde det klart at forskerne ikke fortalte deltakerne kildene til de to konkurrerende svarene de ble tilbudt.

Etter at han sikret deltakerne' dommen avslørte han imidlertid at ett av to svar hadde vært fra et menneske og ett fra en AI. Så spurte han dem om de kunne fortelle hvilken som var hvilken. Det kunne de.

"Grunnen til at folk kunne se forskjellen ser ut til å være fordi de vurderte ChatGPTs svar som overlegne," sa han.

Vent, så de trodde automatisk at ChatGPT allerede er overlegen menneskelig moralsk tanke? 

Også: Hvorfor må fremtiden være BYO AI: Model innlåsing avskrekker brukere og kveler innovasjon

På dette tidspunktet bør man nevne at deltakerne alle var studenter, så kanskje de lenge har brukt ChatGPT til å skrive alle oppgavene sine, derfor omfavner de allerede en tro på at det er bedre enn de er.

Det er ;er fristende å finne disse resultatene uhyre håpefulle, selv om ordet “tro”; gjør mye arbeid her.

Hvis jeg er revet i et moralsk dilemma, hvor oppløftende er det da jeg kan henvende meg til ChatGPT og få veiledning om for eksempel om det er riktig å saksøke noen eller ikke. Så igjen, jeg tror kanskje ChatGPTs svar vil være mer moralsk, men jeg kan bli lurt.

Aharoni ser faktisk ut til å være mer forsiktig.

"Folk er kommer til å stole mer og mer på denne teknologien, og jo mer vi stoler på den, jo større blir risikoen over tid," sa han.

Også: De beste AI-chatbotene: ChatGPT er ikke den eneste som er verdt å prøve

Vel, ja, men hvis ChatGPT får svaret ikke sant oftere enn vennene våre gjør, vil det være den beste vennen vi noen gang har hatt, ikke sant? Og verden vil bli et mer moralsk sted.

Det er virkelig en fremtid å se frem til.