Da beskyttelsesforanstaltninger endnu ikke er på plads for at sikre, at teknologien bruges ansvarligt, sagde FN -kommissæren, bør regeringerne snarest tøjle kunstig intelligens.
Billede: picture alliance/Contributor/Getty Images
Opfordringer til at sætte bremser på brugen af kunstig intelligens og i nogle tilfælde helt at forbyde teknologien bliver stærkere. Nu har FN's menneskerettighedschef Michelle Bachelet sluttet sig til koret af eksperter, der opfordrer regeringerne til at tage stærkere handling for at holde algoritmer under kontrol, i en ny rapport, der anbefaler moratorier for salg og brug af kunstig intelligens til højrisiko brugssager.
Bachelet gik også ind for et forbud mod nogle AI -applikationer, der er i strid med international menneskerettighedslovgivning, såsom individuel social scoring baseret på diskriminerende kriterier.
Da beskyttelsesforanstaltninger endnu ikke er på plads for at sikre, at teknologien bruges ansvarligt, sagde FN -kommissæren, bør regeringerne snarest tøjle kunstig intelligens. Uden det vil algoritmer, der potentielt kan skade menneskerettighederne, fortsat blive indsat uden tilsyn og forårsage mere skade på borgerne.
Algoritmer findes allerede i alle aspekter af de fleste menneskers liv, understregede Bachelet og pegede på forskellige systemer, der i øjeblikket deltager i livsændrende beslutninger, såsom hvem der får offentlige tjenester, hvem der får et job, eller hvilke brugere kan se og dele online.
“Vi har ikke råd til at fortsætte med at spille indhentning af AI-at tillade brugen heraf med begrænsede eller ingen grænser eller tilsyn og håndtere de næsten uundgåelige konsekvenser for menneskerettighederne,” sagde Bachelet.
FN -kommissærens kommentarer kommer bag på en rapport, der blev udført af hendes kontor for at undersøge, hvordan AI kan påvirke menneskerettigheder som privatliv, sundhed, uddannelse, bevægelsesfrihed eller ytringsfrihed.
Selvom kunstig intelligens i vid udstrækning viste sig at være “en kraft til det gode”, der kan hjælpe samfund og økonomier med at overvinde enorme udfordringer, fremhævede rapporten også en “ubestridelig og støt voksende” indvirkning af AI på visse menneskerettigheder.
Algoritmer kan for eksempel trænge væsentligt ind i brugernes privatliv. AI -systemer fodres med store mængder data, herunder personlige data, som tilskynder organisationer til at indsamle, gemme og behandle følsomme oplysninger om deres brugere eller kunder, nogle gange på hemmelighedsfulde måder. Systemerne kan igen bruges til at forudsige menneskers personlige liv, lige fra det kvarter, de bor i, til deres sovemønstre.
Der er flere sektorer, hvor brugen af disse AI -systemer er særlig bekymrende, ifølge rapporten. De omfatter retshåndhævelse, hvor algoritmer kan påvirke en beslutning om at anholde en kriminel samt offentlige tjenester, hvor AI -modeller kan hjælpe med at bestemme velfærdsrettigheder hele vejen til, om en familie skal markeres til besøg af børnepasningstjenester.
På arbejdspladsen pegede rapporten på risikoen ved at bruge algoritmer til at overvåge og styre arbejdere. Og online kan AI -systemer bruges til at understøtte beslutninger om indholdsstyring, hvilket er medvirkende til at afgøre, hvilken type indhold hver bruger udsættes for.
For mange af disse applikationer er risikoen todelt. Ikke alene kan AI -systemet selv være i modstrid med grundlæggende menneskerettigheder som f.eks. Retten til privatlivets fred; men i nogle tilfælde, når algoritmen er forudindtaget, kan teknologien også træffe diskriminerende beslutninger.
For eksempel kan de data, der bruges til at informere AI -systemer, være forudindtaget mod bestemte grupper, eller de kan simpelthen være defekte, forældede eller irrelevante, hvilket igen får algoritmer til at træffe uretfærdige beslutninger. Sådan endte for eksempel algoritmen, der blev brugt til at forudsige elevernes karakterer i Storbritannien sidste år, med at tildele højere karakterer til dem, der bor i velhavende områder.
Der er nok eksempler på, at AI -modeller træffer skadelige – og nogle gange almindelige forkerte – beslutninger til bekymring. “Risikoen for diskrimination forbundet med AI-drevne beslutninger-beslutninger, der kan ændre, definere eller skade menneskeliv-er alt for reel. Derfor skal der systematisk vurderes og overvåges effekter af AI-systemer for at identificere og afbøde menneskelige liv. rettighedsrisici, “sagde Bachelet.
FN-rapporten gjorde især opmærksom på staternes brug af algoritmer til overvågningsformål og især biometriske teknologier som ansigtsgenkendelse, som bruges til at identificere mennesker i realtid og på afstand, med potentiale til at tillade ubegrænset sporing af enkeltpersoner.
Der bør være et moratorium for brugen af biometriske teknologier i offentlige rum, siger rapporten, indtil det er påvist, at der ikke er problemer med algoritmens nøjagtighed, og at systemet ikke har en diskriminerende virkning.
Det er derfor op til regeringerne at implementere de rigtige love for at holde udviklingen af AI -værktøjer, der muliggør overvågning og andre krænkelser af menneskerettighederne under kontrol, ifølge FN -kommissæren.
Tidligere på året afslørede EU -Kommissionen f.eks. udkast til regler om kunstig intelligens, som katalogiserede AI -applikationer baseret på forskellige risikoniveauer. Øverst på pyramiden var brugssager, der medfører “uacceptabel risiko”, som krænker de grundlæggende rettigheder og bør forbydes.
Brugen af ansigtsgenkendelse i offentlige rum, sagde EU -Kommissionen, bør forbydes, da den krænker disse rettigheder. Kendelsen kom imidlertid med forskellige undtagelser, der blev fordømt af fortalergrupper for at give mulighed for mange smuthuller.
Fortrolighed
Sådan gør du fortrolighed til din virksomheds 'killer -app' Personligt identificerbare oplysninger (PII): Hvad det er, hvordan det bruges, og hvordan det beskyttes Datasikkerhed og datasikkerhed er ikke det samme Cybersikkerhed 101: Beskyt dit privatliv mod hackere, spioner og regeringen
Relaterede emner:
Government Digital Transformation CXO Internet of Things Innovation Enterprise Software