“Se i tuoi amici ti ha detto di saltare giù da un ponte, lo faresti?”
E ‘ un avvertimento probabilmente avete già sentito parlare durante l’infanzia, un esempio ipotetico di i pericoli del pensiero di gruppo. E probabilmente ispirato più di comportamento impulsivo che ha impedito. Ma in un futuro non troppo lontano futuro, i genitori possono aggiornare questo piccolo adagio:
“Se un robot detto di saltare giù da un ponte, lo faresti?”
Perché, a quanto pare, un bel po’, probabilmente.
In uno studio pubblicato oggi sulla rivista Science, la Robotica, i ricercatori provenienti da Germania e il regno UNITO hanno dimostrato che i bambini sono sensibili alle pressioni dei coetanei da robot. I risultati, dicono i ricercatori, dimostrano che, come robot e AIs sono integrate in spazi sociali, abbiamo bisogno di essere attenti circa l’influenza che esse hanno, in particolare sui giovani.
Robot e AI potrebbe utilizzare i social per influenzare e cambiare il nostro comportamento
Autori del documento, chiede, “Per esempio, se i robot raccomandare i prodotti, i servizi o le preferenze, la conformità […] in più rispetto ai più tradizionali metodi di pubblicità?” Si nota che i robot sono stati presentati un sacco di altri domini in cui l’influenza sociale potrebbe essere importante, come sanità, istruzione e sicurezza.
Lo studio in questione è in realtà una reinvenzione di forse il più noto e il più influente dimostrazione del conformismo sociale: l’esperimento di Asch. Questa serie di prove, eseguita per la prima volta nel 1951 da polacco psicologo Solomon Asch, illustra come l’uomo possa essere influenzato dal pensiero di gruppo al punto in cui si vuole negare anche i fatti più evidenti.
Una delle carte del Asch test. I partecipanti hanno avuto a dire che la linea sulla destra è stata più vicina in lunghezza, per la linea sulla sinistra.
Immagine: Creative Commons
Nei suoi esperimenti, Asch invitati 50 studenti universitari di sesso maschile per prendere parte a un “test di visione.” Gli studenti erano seduti intorno a un tavolo e mostrato una linea su un grafico accanto a un gruppo di altre tre linee di lunghezza variabile, denominati A, B, e C. è stato poi chiesto, uno alla volta, dire quale delle tre linee che fu più vicina, e della lunghezza del primo. La risposta era ovvia, ma quello che i partecipanti non sapevo è che tutti, ma uno degli studenti erano attori. E quando le suonerie sono stati chiamati a dare la loro risposta, che a tutti ha dato la stessa risposta non corretta.
Quando arriva il turno dell’esame reale soggetto (che andava sempre ultimo), circa un terzo ceduto alle pressioni sociali e ha dato la stessa risposta errata come i loro coetanei. Nel corso di 12 tali prove che Asch condotta, circa il 75 per cento dei partecipanti conformato in questo modo, almeno una volta, mentre solo un quarto non conformi a tutti.
“È un elegante piccolo esperimento che abbiamo solo pensato: proviamo a farlo di nuovo, ma con i robot”, dice Tony Belpaeme, professore di robotica presso l’Università di Plymouth e co-autore della carta. Ed è esattamente quello che lui e i suoi colleghi, aggiungendo il tocco di prima prova per gruppi di adulti e poi i gruppi di bambini.
I risultati hanno mostrato che, mentre gli adulti non sentono la necessità di seguire l’esempio dei robot, i bambini erano molto più probabile che, troppo. “Quando i bambini erano soli nella stanza, erano piuttosto bene il compito, ma quando il robot ha preso parte e ha dato risposte sbagliate, hanno solo seguito il robot”, dice Belpaeme.
Le immagini che mostrano il robot utilizzato (A); il programma di installazione dell’esperimento (B e C); e il “test di visione”, come indicato partecipanti (D).
Foto di Anna-Lisa Vollmer, Robin Leggere, Asciuga Trippas, e Tony Belpaeme
Anche se è la suscettibilità dei bambini che salta fuori in questo esperimento, il fatto che gli adulti non sono stati influenzati dal bots è anche significativo. Ecco perché va contro una consolidata teoria in sociologia noto come “computer sono gli attori sociali” o di CASA. Questa teoria, che è stata inizialmente descritta nel 1996 il libro, afferma che gli esseri umani tendono a interagire con i computer, come se fossero altri esseri umani. I risultati di questo studio mostrano che ci sono dei limiti a questa teoria, anche se Belpaeme dice che lui e i suoi colleghi non sono stati sorpresi da questo.
“I risultati con gli adulti erano quello che ci aspettavamo”, dice. “I robot ci utilizzate non hanno abbastanza la presenza influente. Sono troppo piccoli, troppo toylike.” I partecipanti adulti interrogato, dopo la prova, ha detto i ricercatori, così come molto, dicendo che essi hanno ipotizzato che i robot sono stati malfunzionamento o non erano abbastanza avanzata per ottenere la risposta. Belpaeme suggerisce che se hanno provato di nuovo con più splendida robot (“Come se abbiamo detto: ‘Questo è più recente di Google AI’”), quindi i risultati potrebbero essere diversi.
Anche se la CASA la teoria non è stato convalidato in questo particolare test, è ancora un buon predittore del comportamento umano quando si tratta di robot e computer. Gli ultimi studi hanno trovato che siamo più propensi a godere di interagire con i bot che noi percepiamo come avere la stessa personalità di noi, proprio come con gli esseri umani, e noi prontamente stereotipo robot basato sulla loro percezione del genere (che è un argomento che è diventato particolarmente rilevante nell’età dell’assistente virtuale).
Questi istinti sociali possono anche influenzare il nostro comportamento. Troviamo più difficile per disattivare il robot, se si sta chiedendo di non, per esempio. Un altro studio pubblicato oggi nella Scienza Robotica trovato stiamo meglio a prestare attenzione, se siamo noi ad essere guardato da un robot che noi percepiamo come “vero”.
Tutto questo significa che anche se si tratta di bambini che sembrano cedere più facilmente robotica pressione dei pari, gli adulti non sono esattamente immunitario. I ricercatori dicono che questa è una dinamica che abbiamo bisogno di prestare attenzione, in particolare, come la robotica e AI sempre più sofisticate. Pensate a come l’ordinamento dei dati personali, che ha condiviso durante il Cambridge Analytica scandalo potrebbe essere utilizzato per influenzare noi, quando combinato con i social AI. “Non c’è dubbio su di esso,” dice Belpaeme. “Questa tecnologia potrà essere utilizzata come canale di convincere noi, probabilmente per la pubblicità.”
Questo robot pressione dei pari può essere utilizzato per il bene come il male. Per esempio, AI sistemi educativi possono insegnare ai bambini buone abitudini di apprendimento, e non c’è evidenza che i robot possono aiutare a sviluppare abilità sociali nei bambini autistici. In altre parole, anche se gli esseri umani possono essere influenzati da robot, è ancora l’uomo che a decidere come.