Kinderen zijn gevoelig voor groepsdruk van robots

0
139

“Als je vrienden verteld dat je van een brug springen, zou u?”

Het is een waarschuwing die u waarschijnlijk gehoord in de kindertijd, een hypothetisch voorbeeld van de gevaren van groepsdenken. En het zal waarschijnlijk geïnspireerd meer impulsief gedrag dan het voorkomen. Maar in de niet al te verre toekomst, kunnen ouders hebben een update te weinig gezegde:

“Als een robot zei dat je van een brug springen, zou u?”

Want, zo blijkt, wel een paar zou waarschijnlijk.

In een onderzoek dat vandaag wordt gepubliceerd in het tijdschrift Science Robotica, onderzoekers uit Duitsland en het verenigd koninkrijk heeft aangetoond dat kinderen gevoelig zijn voor groepsdruk van robots. De bevindingen, zeggen de onderzoekers tonen aan dat, als robots en AIs worden geïntegreerd in sociale ruimtes, wij moeten voorzichtig zijn over de invloed die ze uitoefenen, in het bijzonder op de jeugd.

Robots en AI zou kunnen gebruiken sociale invloed om te veranderen van ons gedrag

Het papier van de auteurs vragen, “bijvoorbeeld, als robots adviseren van producten, diensten of voorkeuren, zal de naleving […] hoger is dan bij de meer traditionele methoden van reclame?” Let op: de robots zijn geïntroduceerd op tal van andere domeinen, waar de sociale invloed van belang kunnen zijn, waaronder gezondheidszorg, onderwijs, en veiligheid.

De studie in kwestie is eigenlijk een proefuitzending van misschien wel de bekendste en meest invloedrijke demonstratie van sociale conformiteit: de Asch experiment. Deze serie van tests, het eerst uitgevoerd in 1951 door de poolse psycholoog Solomon Asch, illustreert hoe de mens kan worden beïnvloed door groepsdenken tot het punt waar we zullen het ontkennen, zelfs de meest voor de hand liggende feiten.

Een van de kaarten die gebruikt zijn in de originele Asch test. De deelnemers moesten zeggen welke lijn het dichtst in de lengte van de lijn aan de linkerkant.

Beeld: Creative Commons

In zijn experimenten, Asch uitgenodigd 50 mannelijke studenten om deel te nemen in een “vision test.” De leerlingen zaten rondom een tafel en weergegeven met een lijn op een kaart naast een groep van drie andere lijnen van verschillende lengtes, gelabeld A, B, en C. waren Zij vroeg daarna, een voor een tijd, om te zeggen welke van de drie lijnen was het dichtst in de lengte van de eerste. Het antwoord was duidelijk, maar wat de deelnemers niet wisten, is dat het allemaal maar één van de studenten waren acteurs. En wanneer de ringers werden opgeroepen om hun antwoord, ze gaf dezelfde, verkeerde reactie.

Als het ging om het de beurt aan de echte test onderworpen (die ging altijd als laatste), ongeveer een derde van de ingestorte maatschappelijke druk en gaf dezelfde, onjuiste antwoord als hun collega ‘ s. In de loop van 12 van dergelijke studies, die Asch uitgevoerd, ongeveer 75 procent van de deelnemers gelijkvormig op deze manier ten minste een keer, terwijl slechts een kwart nooit geconformeerd.

“Het is een elegant klein experiment dat we dachten: laten we het opnieuw doen, maar dan met robots,” zegt Tony Belpaeme, een professor van robotica aan de Universiteit van Plymouth en co-auteur van het papier. En dat is precies wat hij en zijn collega ‘ s deed, het toevoegen van de extra twist van het testen van de eerste groepen volwassenen en dan groepen van kinderen.

De resultaten toonden aan dat, terwijl de volwassenen heb niet de behoefte om het volgen van het voorbeeld van de robots, de kinderen waren waarschijnlijk veel meer, ook. “Wanneer de kinderen waren alleen in de kamer, ze waren heel goed in de taak, maar als de robots nam deel en gaf verkeerde antwoorden, ze volgde gewoon de robots”, zegt Belpaeme.

Beelden die de robot gebruikt (A); de opzet van het experiment (B en C); en de “vision test” zoals getoond aan de deelnemers (D).

Foto van Anna-Lisa Vollmer, Robin Lezen, Dries Trippas, en Tony Belpaeme

Hoewel het de gevoeligheid van de kinderen die sprongen in dit experiment is het feit dat de volwassenen werden niet beïnvloed door de bots is ook belangrijk. Dat is omdat het ingaat tegen een gevestigde theorie in de sociologie bekend als “computer zijn de sociale actoren,” of CASA. Deze theorie werd voor het eerst beschreven in 1996 een boek, stelt dat mensen de neiging hebben om te communiceren met computers alsof ze medemensen. De resultaten van deze studie tonen aan dat er grenzen zijn aan deze theorie, hoewel Belpaeme zegt dat hij en zijn collega ‘ s waren dan ook niet verbaasd door dit.

“De resultaten met de volwassenen kregen wat we hadden verwacht,” zegt hij. “De robots die we gebruikt hebben niet voldoende aanwezigheid om meer invloed te krijgen. Ze zijn te klein, te toylike.” Volwassen deelnemers ondervraagd na de test vertelde de onderzoekers net zo veel, te zeggen dat ze gingen ervan uit dat het robots waren een storing of waren niet geavanceerd genoeg om op de vraag. Belpaeme suggereert dat als ze probeerde het opnieuw met een indrukwekkende robots (“als we zeiden: ‘Dit is Google ‘ s nieuwste AI'”), dan kunnen de resultaten afwijken.

Hoewel de CASA theorie is niet gevalideerd in deze test, het is nog steeds een goede voorspeller is van het menselijk gedrag als het gaat om robots en computers. Vroegere studies hebben gevonden dat we meer kans om te genieten van de interactie met bots die we waarnemen met dezelfde persoonlijkheid als ons, net zoals bij de mens, en wij gemakkelijk stereotype robots gebaseerd op hun perceptie van het geslacht (dat is een onderwerp dat is met name relevant in het tijdperk van de virtuele assistent).

Deze sociale instincten kan ook invloed hebben op ons gedrag. We vinden het moeilijker uit te schakelen robots als ze bedelen ons niet, bijvoorbeeld. Een ander onderzoek dat vandaag wordt gepubliceerd in Science Robotica vinden we beter op te letten of we worden gadegeslagen door een robot, die we ervaren als “betekenen.”

Dit alles betekent dat, hoewel het de kinderen die lijken te geven in gemakkelijk meer te robotic druk van leeftijdsgenoten, volwassenen niet precies het immuunsysteem. Onderzoekers zeggen dat dit een dynamische we aandacht aan moet besteden, vooral als robots en AI meer verfijnd. Denk na over hoe de soort persoonlijke gegevens die heb gedeeld tijdens de Cambridge Analytica schandaal zou kunnen worden gebruikt om de invloed van ons wanneer het wordt gecombineerd met sociale AI. “Er is geen twijfel over,” zegt Belpaeme. “Deze technologie zal worden gebruikt als een kanaal naar ons over te halen, waarschijnlijk voor de reclame.”

Deze robot peer pressure kan worden gebruikt voor het goede als het kwade. Bijvoorbeeld, AI systemen in het onderwijs kan leren kinderen goed te leren gewoonten, en er is bewijs dat robots kunnen helpen bij het ontwikkelen van sociale vaardigheden bij autistische kinderen. In andere woorden, hoewel de mens beïnvloed kan worden door robots, het is nog steeds de mens die bepalen hoe.