Bare fordi AI anbefaler en klippe, betyr det ikke at du må hoppe

0
28
Crispin la valiente/Getty Images

Når en spennende teknologi suser mot oss, har vi en tendens til å bli pakket inn i spenningen.

Spesielt når det kommer til noe så dramatisk som kunstig intelligens. 

Også: Det hvite hus planlegger å regulere myndighetenes bruk av AI

AI kan skrive eksamensoppgavene våre. AI kan skrive annonser. AI kan til og med lage filmer. Likevel er det fortsatt den irriterende tanken om at AI ikke akkurat er perfekt, spesielt når det kommer til hallusinasjoner – de irriterende øyeblikkene når AI rett og slett finner på ting.

Likevel er inntrykket at selskaper som Google og Microsoft er dristig innstilt på å injisere AI i alle aspekter av samfunnet.

Hvor kan vi da finne en følelse — en sann følelse — av hva som fortsatt må gjøres med AI for å gjøre er det pålitelig?

Jeg innrømmer at jeg har vært på det søket en stund, så jeg ble flyttet til gjentatt lesning av et sjelbærende, livsbekreftende uttrykk for ærlighet fra Ayanna Howard, AI-forsker og dekan ved College of Engineering ved Ohio State University .

Da Howard skrev i MIT Sloan Management Review, tilbød han den mest kortfattede oppsummeringen av gapet mellom teknologer og, vel, alle andre.

Hun kom med denne enkle tanken: “Teknologer er ikke opplært til å være samfunnsvitere eller historikere. Vi er i dette feltet fordi vi elsker det, og vi er vanligvis positive til teknologi fordi det er vårt felt."

Også: De beste AI-chatbotene: ChatGPT er ikke bare en som er verdt å prøve

Men dette, sa Howard presciently, er nettopp problemet: “Vi er ikke flinke til å bygge broer med andre som kan oversette det vi ser som positivt og det vi vet er noen av de negative også."

Det er faktisk et desperat behov for oversettelse, et desperat behov for teknologer å ha litt mer emosjonell intelligens når de skaper fremtidens teknologi.

"Det første [behovet] — og dette krever sannsynligvis regulering — er at teknologiselskaper, spesielt de innen kunstig intelligens og generativ AI, trenger å finne ut måter å blande menneskelig emosjonell kvotient (EQ) med teknologi for å gi folk hint om når de skal gjette slike verktøy," sa Howard.

Tenk tilbake til de første dagene av internett. Vi ble overlatt til våre egne enheter å finne ut hva som var sant, hva som var overdrevet og hva som var totalt bunkum.

Også: Microsoft ønsker å stoppe deg fra å bruke AI-chatbots for ondskap

Vi er ekstremt begeistret, men går fortsatt mot et visst nivå av sikkerhet. 

Howard forklarte at så lenge et stykke teknologi ser ut til å fungere, vil mennesker generelt stole på det. Selv om, som i et eksperiment hun var en del av, vil folk blindt følge en robot bort fra en branntrapp — ja, under en brann.

Med AI, foreslår Howard, bør slike som ChatGPT innrømme når de har en mangel på sikkerhet.

Dette fritar ikke vårt behov for å være årvåken, men det vil garantert skape et høyere nivå av tillit som er avgjørende hvis AI skal bli akseptert, i stedet for fryktet eller pålagt.

Howard bekymrer seg for at hvem som helst kan lage et AI-produkt for øyeblikket. “Vi har oppfinnere som ikke vet hva de gjør, som selger til selskaper og forbrukere som er for tillitsfulle”," sa hun.

Også: Generativ AI vil forandre kundeservice for alltid. Slik kommer vi dit

Hvis ordene hennes virker advarende, er de fortsatt en usedvanlig positiv avsløring av rene sannheter, av utfordringene involvert i å bringe en potensielt revolusjonerende teknologi til verden og gjør det pålitelig.

Til syvende og sist, hvis AI ikke er pålitelig, kan det ikke være teknologien det er hypet opp til å være.