“Dersom dine venner har fortalt deg til å hoppe utfor en bro, ville du?”
Det er en advarsel om at du sikkert har hørt i barndommen, et hypotetisk eksempel på farene ved groupthink. Og det sannsynlig inspirert mer impulsiv atferd enn det forhindret. Men i en ikke altfor fjern fremtid, kan foreldrene har til å oppdatere denne lille ordtaket:
“Hvis en robot fortalt deg til å hoppe utfor en bro, ville du?”
Fordi, som det viser seg, er ganske få som trolig ville.
I en studie publisert i tidsskriftet Science Robotics, forskere fra Tyskland og STORBRITANNIA har vist at barn er utsatt for gruppepress fra roboter. Funnene, sier forskerne, viser at, som roboter og AIs bli integrert i sosiale områder, må vi være forsiktig med den innflytelsen de utøver, spesielt på de unge.
Roboter og AI kunne bruke sosiale innflytelse til å endre vår atferd
Papiret er forfatterne spør, “For eksempel, hvis roboter anbefaler produkter, tjenester, eller preferanser, vil overholdelse […] være høyere enn med mer tradisjonell annonsering metoder?” De oppmerksom på at roboter er introdusert til mange andre domener der sosial påvirkning kan være viktig, blant annet helse, utdanning og sikkerhet.
Studiet i spørsmålet er faktisk en gjenskapelse av kanskje den best kjente og mest innflytelsesrike demonstrasjon av sosial konformitet: Asch eksperiment. Denne serien av tester, først gjennomført i 1951 av polske psykolog Solomon Asch, illustrerer hvordan mennesker kan bli påvirket av groupthink til det punktet hvor vi vil nekte selv den mest åpenbare fakta.
Ett av kortene er brukt i den opprinnelige Asch test. Deltakerne hadde å si hvilken linje på høyre var nærmest i lengden til linje på venstre side.
Bilde: Creative Commons
I sine eksperimenter, Asch inviterte 50 mannlige studenter til å ta del i en “visjon test”. Elevene ble sittende rundt et bord og vises på en linje på et kart ved siden av en gruppe på tre andre linjene av varierende lengde, merket A, B, og C. De ble deretter bedt om, ett av gangen, for å si hvilken av de tre linjene var nærmest i lengden til den første. Svaret var innlysende, men hva deltakerne ikke vet er at alle, men en av studentene var skuespillere. Og når ringers ble oppfordret til å gi sine svar, de alle ga samme, feil svar.
Når det kom til å slå av den virkelige testen fag (som alltid gikk sist), omtrent en tredjedel styrtet til sosialt press og ga den samme, feil svar som sine jevnaldrende. I løpet av 12 slike prøvelser som Asch gjennomført, omtrent 75 prosent av deltakerne forholdt seg på denne måten minst én gang, mens bare en fjerdedel aldri forholdt seg i det hele tatt.
“Det er slik en elegant, lite eksperiment som vi bare tenkte: la oss gjøre det igjen, men med roboter,” sier Tony Belpaeme, en professor i robotics ved University of Plymouth og co-forfatter av papiret. Og det er nøyaktig hva han og hans kolleger gjorde, å legge den ekstra vri av testing første gruppene av voksne og deretter grupper av barn.
Resultatene viste at selv om voksne ikke føler behov for å følge eksempelet av roboter, barna var mye mer sannsynlig, også. “Når barna var alene i rommet, de var ganske god på oppgaven, men når robotene deltok og ga feil svar, de bare fulgte roboter,” sier Belpaeme.
Bilder som viser roboten brukes (A); oppsett av eksperimentet (B og C); og “vision test” som vist til deltakere (D).
Bilde av Anna-Lisa Vollmer, Robin Lese, Tørker Trippas, og Tony Belpaeme
Selv om det er mottakelighet av barn som sprang ut i dette eksperimentet, det faktum at de voksne ikke var påvirket av roboter er også betydelig. Det er fordi det går mot en etablert teori i sosiologi kjent som “datamaskinen er sosiale aktører,” eller CASA. Denne teorien, som først ble skissert i 1996 en bok, sier at mennesker har en tendens til å kommunisere med datamaskiner som om de var andre mennesker. Resultatene av denne studien viser at det er grenser for denne teorien, selv om Belpaeme sier at han og hans kolleger ble ikke overrasket av dette.
“Resultatene med de voksne var det vi forventet,” sier han. “Roboter brukte vi ikke har nok tilstedeværelse for å være innflytelsesrik. De er for små, for toylike.” Voksne deltakerne spurt etter testen fortalte forskerne bare så mye, sier at de antok at robotene var feil eller ikke avansert nok til å få spørsmålet rett. Belpaeme tyder på at hvis de prøvde igjen med mer slående roboter (“Som om vi sa” Dette er Googles nyeste AI'”), så resultatene kan være forskjellige.
Selv om CASA teorien ble ikke validert i akkurat denne testen, er det fortsatt en god indikasjon på menneskelig atferd når det kommer til roboter og datamaskiner. Tidligere studier har funnet at vi er mer sannsynlig å nyte samspill med roboter som vi oppfatter som har den samme personligheten som oss, akkurat som med mennesker, og vi lett stereotypen roboter basert på deres antatte kjønn (som er et tema som er blitt spesielt relevant i en alder av virtuelle assistent).
Disse sosiale instinkter kan også påvirke vår atferd. Vi finner det vanskeligere å slå av roboter hvis de ber oss om ikke å gjøre, for eksempel. En annen studie publisert i dag i Science Robotics fant vi er bedre til å betale oppmerksomhet hvis vi blir sett av en robot som vi oppfatter som “betyr.”
Alt dette betyr at selv om det er barn som ser ut til å gi mer lett å robot gruppepress, voksne er ikke akkurat immune. Forskere sier at dette er en dynamisk vi trenger å ta hensyn til, spesielt som roboter og AI få mer sofistikert. Tenk på hvordan den slags personopplysninger som fikk delt i Cambridge Analytica skandalen kan brukes til å påvirke oss når kombinert med sosial INTELLIGENS. “Det er ingen tvil om det, sier Belpaeme. “Denne teknologien vil bli brukt som en kanal for å overtale oss, sannsynligvis for reklame.”
Denne roboten gruppepress kan brukes til det gode så vel som onde. For eksempel, AI-systemer i pedagogisk innstillinger kan lære barna god læring vaner, og det er bevis for at roboter kan bidra til å utvikle sosiale ferdigheter hos autistiske barn. Med andre ord, selv om mennesker kan bli påvirket av roboter, er det fortsatt mennesker som får bestemme hvordan.