AI en ethiek: Het debat dat moet worden

0
96

Of we het nu weten of niet, kunstmatige intelligentie (AI) is al doordrenkt in het dagelijks leven. Het is aanwezig in de manier waarop sociale media feeds worden georganiseerd; de manier voorspellende zoekopdrachten op Google, en hoe muziekservices zoals Spotify maken song suggesties.

De technologie is ook het helpen veranderen van de manier waarop bedrijven zaken doen.

Commonwealth Bank of Australia, bijvoorbeeld, heeft toegepast AI te analyseren 200 miljard data-punten om meer tijd, zodat de klantenservice officieren kunt focussen op de dingen precies wat de titel suggereert: de service aan klanten. Als een resultaat, de bank heeft gezien een 400% stijging van customer engagement.

IBM is het gebruik van de techniek te behouden Australië de beroemde stranden van weg te wassen. Wetenschappers zijn het gebruiken van de mogelijkheden om hun tijd in de aanpak van de erosie van de kust, eerder dan op het in kaart brengen – en dat is zeer tijdrovend.

Volgens Data61 principal scientist in strategie en een vooruitziende blik Stefan Hajkowicz, AI maakt een “venster van probleemoplossende vermogens”.

“AI is in staat om te besparen die veel mensen van kanker, het verbeteren van de geestelijke gezondheid door het AI-enabled counseling sessie, het zal helpen bij het verminderen van ongevallen op de weg-er zijn grote voordelen in de toekomst aan uw leven door AI”, zei hij.

“De mensheid in Australië wanhopig nodig heeft. AI gaat om kritisch te zijn bij het oplossen van dilemma ‘ s in de gezondheidszorg, bijvoorbeeld, waar de gezondheidszorg uitgaven aan het groeien is op niet-duurzame tarieven. AI is cruciaal technologie die gaat helpen vrijwel elke sector in onze samenleving.”

Een PwC rapport uitgebracht in 2017 voorspeld dat AI een impuls zal geven aan het wereldwijde BBP met 14% — of $15.7 biljoen – 2030.

Wat niet te doen

Hoofd van de School van de Filosofie aan de Australian National University (ANU) Seth Lazar is van mening dat, gezien de impact van AI zal hebben, er de werkingssfeer van de technologie beter.

“Er zijn zo veel manieren waarop we kunnen gebruiken als AI voor sociaal goed, maar de laatste twee jaar is duidelijk geworden dat er mogelijk een hoop onbedoelde gevolgen — en niet te vergeten in die AI kan worden gebruikt voor slechte redenen — zo is er een enorme vraag naar en interesse voor het ontwikkelen van AI met onze waarden”, zei hij.

Bewijs van wanneer AI mis is gegaan kon worden gelokaliseerd op de tijd in de Verenigde Staten als AI algoritmes werden gebruikt om aanbevelingen te formuleren over gevangenisstraffen. Een verslag van ProPublica tot de conclusie dat de AI-systeem was vooroordeel tegen de zwarte verdachten als het consequent aanbevolen langere zinnen in vergelijking met blanke collega ‘ s voor hetzelfde misdrijf.

Zie ook: Artificial intelligence, ethiek beleid (TechRepublic)

De United Nations Educational, Scientific, and Cultural Organisation (UNESCO) heeft onlangs beschuldigd Siri van Apple, Microsoft ‘s Cortana en Amazon’ s Alexa, samen met andere vrouwelijke stem digital assistants, van het versterken van de “algemeen gehouden geslacht vooroordelen”.

“Omdat de toespraak van de meeste stem-assistenten een vrouw is, stuurt hij een signaal dat vrouwen vriendelijk, volgzaam en eager to please helpers, beschikbaar bij de aanraking van een knop of met een stomp spraakopdracht op, zoals ‘hey’ of ‘OK’. De assistent heeft geen kracht van het agentschap dan wat de commandant vraagt het,” het ik zou Blozen Als ik Kon rapport beschreven.

“Het honours opdrachten en reageert query’ s, ongeacht hun tone of vijandigheid. In veel gemeenschappen, dit versterkt het heersende geslacht vooroordelen dat vrouwen ondergeschikt zijn en tolerant te zijn van een slechte behandeling.”

Een ander voorbeeld zou zijn wanneer Microsoft de AI bot, Tay, die oorspronkelijk werd ontworpen om te communiceren met mensen online via informele en speelse conversatie, eindigde stofzuigen, goed, slecht, lelijk en interacties. Na minder dan 16 uur van start, Tay omgezet in een koperen anti-Semiet, waarin De Nazi ‘s waren”.

Professor van AI aan de Universiteit van New South Wales Toby Walsh zei: “Er is overvloedig voorbeelden van hoe onze algoritmen kunnen erven van de afwijking die er bestaat in de samenleving hebben we als we niet voorzichtig zijn”.

Hij merkte echter, als de AI is zorgvuldig geprogrammeerd om de juiste vragen te stellen en ontworpen door diverse teams, “het zal veel meer gewoon beslissingen”.

Voor zowel Lazar en Hajkowicz, hun grootste bezorgdheid over bestaande AI zijn de mensen die het bouwen van deze systemen, waarvan ze zeggen dat ze zijn net met het uitpakken van de waarde van de mensen die werken in Silicon Valley die afkomstig zijn van elitaire milieus.

“Een van de belangrijke problemen die vaak aan de orde gesteld is dat de AI wordt gebouwd door een hoop jonge, blanke mannen in de leeftijdscategorie 20-30, want dat is de AI medewerkers”, Hajkowicz zei.

“Ik denk dat het direct betekent dat ze aan het bouwen zijn AI, dat is een vooroordeel, maar ik denk dat het de moeite waard een kijkje in hoe dat is gebeurt, en of ze zijn het creëren van AI dat is werkelijk een afspiegeling is van de diverse wereld.”

Gebouw ethische AI met diversiteit

Een deel van de oplossing te helpen bij het overwinnen van deze systemische vooroordelen die zijn ingebouwd in de bestaande AI-systemen, volgens Lazar, is om open gesprekken over ethiek — met ingang van de diversiteit aan opvattingen in termen van cultuur, geslacht, leeftijd en socio-economische achtergrond — en hoe het kan worden toegepast op AI.

“Wat we moeten doen is erachter te komen hoe om systemen te ontwikkelen die rekening houden met de democratische waarden en we moeten beginnen met de discussie binnen de Australische samenleving over wat we willen deze waarden te worden,” zei hij.

“Het is de voortdurende evaluatie en revisie en machinewerk doen we evolueren als een samenleving en hopelijk kunnen we evolueren naar steeds moreel beter.”