“Om dina vänner berättade för dig att hoppa från en bro, skulle du?”
Det är en varning om att du förmodligen hört i sin barndom, ett hypotetiskt exempel på faran med grupptänkande. Och det sannolikt inspirerat mer impulsivt beteende än det förhindras. Men inom en inte alltför avlägsen framtid, föräldrar kan ha för att uppdatera denna lilla ordspråket:
“Om en robot sa till dig att hoppa från en bro, skulle du?”
Eftersom, som det visar sig, en hel del skulle nog.
I en studie som publiceras idag i tidskriften Science Robotics, forskare från Tyskland och STORBRITANNIEN visade att barn är känsliga för grupptryck från robotar. Resultaten, säger forskarna, visar att robotar och AIs integreras i det sociala utrymmen, att vi måste vara försiktiga om den påverkan de utövar, särskilt på de unga.
Robotar och AI kan använda sociala påverka för att ändra vårt beteende
Tidningens författarna frågar, “Till exempel, om robotar rekommendera produkter, tjänster, eller preferenser, kommer följa […] att vara högre än med mer traditionella metoder reklam?” De noterar att robotar håller på att införas till massor av andra områden där det sociala inflytande skulle kunna vara viktigt, inklusive hälso-och sjukvård, utbildning och trygghet.
Studien i fråga är faktiskt en nyinspelning av den kanske mest kända och mest inflytelserika demonstration av sociala överensstämmelse: Asch experiment. Denna serie av tester, först utfördes 1951 av polska psykolog Solomon Asch, visar hur människor kan påverkas av grupptänkande till den punkt där vi kommer att förneka även de mest uppenbara fakta.
En av de kort som används i den ursprungliga Asch test. Deltagarna hade att säga vilken linje på rätt var närmast i längden att linjen på den vänstra.
Bild: Creative Commons
I hans experiment, Asch inbjudna 50 manliga studenter att delta i en “vision test.” Eleverna sitter runt ett bord och som visas i en linje på en diagrammet intill en grupp av tre andra linjer av olika längd, betecknade A, B och C. De ombads sedan, ett i taget, för att säga vilken av de tre linjerna var närmast i längd till den första. Svaret var uppenbart, men vad deltagarna inte vet är att alla utom en av eleverna som var skådespelare. Och när den nya uppmanades att ge sina svar, de gav alla samma, felaktiga svar.
När det kom till tur av det verkliga testet föremål (som alltid gick sista), ungefär en tredjedel gav efter för det sociala trycket och gav den samma, felaktiga svar som sina jämnåriga. Under loppet av 12 sådana prövningar som Asch utförs, ungefär 75 procent av deltagarna som förekommer på detta sätt minst en gång, medan endast en fjärdedel aldrig överensstämde alls.
“Det är en sådan elegant litet experiment som vi tänkte bara: låt oss göra det igen, men med robotar”, säger Tony Belpaeme, professor i robotik vid University of Plymouth och co-författare av papperet. Och det är precis vad han och hans kollegor gjorde, lägga till en extra twist of testa första grupper av vuxna och då grupper av barn.
Resultaten visade att även vuxna inte känner behov av att följa exemplet av robotar, barnen var mycket mer troligt, alltför. “När barnen var ensamma i rummet, de var ganska bra på den uppgiften, men när robotar deltog och gav fel svar, de bara följde robotar”, säger Belpaeme.
Bilder som visar den robot som används (A), installation av experimentet (B och C); och “vision test” som visas för deltagarna (D).
Foto av Anna-Lisa Vollmer, Robin Läsa, Torkar Trippas, och Tony Belpaeme
Även om det är risken för att de barn som hoppar ut i det här experimentet, det faktum att vuxna inte var nöjda med robotar är också betydande. Det beror på att det går mot en etablerad teori i sociologi känd som “datorn är sociala aktörer”, eller CASA. Denna teori, som först beskrivs i en 1996 boken, säger att människor tenderar att interagera med datorer som om de var medmänniskor. Resultaten av denna studie visar att det finns gränser för denna teori, även om Belpaeme säger att han och hans kollegor var inte förvånad över detta.
“Resultaten med de vuxna var vad vi förväntade oss, säger han. “Robotar använde vi inte har tillräckligt med närvaro för att vara inflytelserik. De är alltför små, alltför toylike.” Vuxna deltagare frågade efter testet berättade för forskarna bara så mycket, att säga att de antog att de robotar som var fel eller var inte tillräckligt avancerad för att få frågan rätt. Belpaeme tyder på att om de försökte igen med mer imponerande utseende robotar (“Som om vi sa” Detta är Googles senaste AI'”), då resultaten kan vara olika.
Även CASA teori inte var godkänd i just detta test, det är fortfarande en bra prediktor av mänskligt beteende när det gäller robotar och datorer. Tidigare studier har visat att vi är mer troligt att du gillar att interagera med robotar som vi uppfattar som har samma personlighet som oss, precis som med människor, och att vi lätt stereotyp robotar som bygger på deras uppfattning om kön (vilket är en fråga som blir särskilt relevant i en ålder av virtuell assistent).
Dessa sociala instinkter kan också påverka vårt beteende. Vi tycker att det är svårare att stänga av robotar om de tigger oss inte, till exempel. En annan studie som idag publiceras i Science Robotics hittade vi är bättre på att uppmärksamma om vi är bevakad av en robot som vi uppfattar som “elaka”.
Allt detta innebär att även om det är barn som verkar ge mer lätt att robotliknande grupptryck, vuxna inte exakt immunförsvaret. Forskare säger att detta är en dynamisk, måste vi ta hänsyn till, särskilt som robotar och AI blir mer sofistikerade. Tycker om hur den typ av personuppgifter som fick delas under Cambridge Analytica skandal kan användas för att påverka oss när de kombineras med sociala AI. “Det är ingen tvekan om det”, säger Belpaeme. “Den här tekniken kommer att användas som en kanal för att övertyga oss om, förmodligen för annonsering.”
Denna robot grupptryck kan användas för goda såväl som onda. Till exempel, AI-system i pedagogiska sammanhang kan lära barnen goda lära sig vanor, och det finns bevis för att robotar kan hjälpa till att utveckla sociala färdigheter hos autistiska barn. Med andra ord, även om människor kan påverkas av robotar, det är fortfarande människor som får bestämma hur.