Crisis Text Line hævder anonymiserede samtaledata hjælper med at opbygge AI til 'en mere empatisk verden'

0
178

Politico rapporterede for nylig, hvordan Crisis Text Line (som ikke er tilknyttet National Suicide Prevention Lifeline) deler data fra samtaler med Loris.ai, som bygger AI-systemer designet til at øge den empatiske samtale fra kundeservicemedarbejdere . Crisis Text Line er en non-profit-tjeneste, der giver en tekstlinje til diskussioner om mental sundhed, men den er også aktionær i Loris.ai og delte ifølge Politico på et tidspunkt en administrerende direktør med virksomheden.

“Ingen dataskrubbeteknik eller erklæring i en servicevilkår kan løse den etiske krænkelse”

Før hotlinebrugere taler med frivillige rådgivere, giver de samtykke til dataindsamling og kan læse virksomhedens praksis for datadeling. Politico citerer en frivillig, der siger, at de personer, der kontakter linjen, “har en forventning om, at samtalen kun er mellem de to mennesker, der taler” og hævder, at han blev fyret i august efter at have rejst bekymringer om CTLs håndtering af data. Siden da startede den samme medarbejder et andragende, der pressede CTL “til at reformere sin dataetik.”

Politico bemærkede, hvordan Crisis Text Line siger, at databrug og AI spiller en rolle i, hvordan det fungerer:

“Datavidenskab og kunstig intelligens er kernen i organisationen – og sikrer, siger den, at de, der er i de mest krævende situationer, ikke venter mere end 30 sekunder, før de begynder at sende beskeder med en af ​​dens tusindvis af frivillige rådgivere. Den siger, at den finkæmmer de data, den indsamler for at få indsigt, der kan hjælpe med at identificere de mest trængende sager eller nulstille folks problemer, på nogenlunde samme måde, som Amazon, Facebook og Google mine tendenser fra likes og søgninger.”

Efter rapporten udgav Crisis Text Line en erklæring på sin hjemmeside og via en Twitter-tråd. I en erklæring sagde Crisis Text Line, at det ikke “sælger eller deler personligt identificerbare data med nogen organisation eller virksomhed.” Det fortsætter med at hævde, at “[d]en eneste profit-partner, som vi har delt fuldt skrubbede og anonymiserede data med, er Loris.ai. Vi grundlagde Loris.ai for at udnytte erfaringerne fra driften af ​​vores service til at gøre kundesupport mere menneskelig og empatisk. Loris.ai er en for-profit-virksomhed, der hjælper andre for-profit-virksomheder med at anvende de-eskaleringsteknikker i nogle af deres mest notorisk stressende og smertefulde øjeblikke mellem kundeservicerepræsentanter og kunder.”

Til sit forsvar sagde Crisis Text Line “Vores dataskrubbeproces er blevet underbygget af uafhængige privatlivsvagter såsom Electronic Privacy Information Center, som kaldte Crisis Text Line “en modelforvalter af personlige data.” Den citerede et brev fra 2018 til FCC, men at forsvaret er mere rystende nu, hvor Electronic Privacy Information Center (EPIC) har svaret med sin egen erklæring og siger, at citatet blev brugt uden for dens oprindelige kontekst:

“Vores udtalelser i det brev var baseret på en diskussion med CTL om deres dataanonymisering og skrubbepolitikker for deling af akademisk forskning, ikke en teknisk gennemgang af deres datapraksis. Vores anmeldelse var ikke relateret til, og vi diskuterede ikke med CTL, den kommercielle dataoverførselsordning mellem CTL og Loris.ai. Hvis vi havde, kunne vi have rejst de etiske bekymringer med kommerciel brug af intime beskeddata direkte med organisationen og deres rådgivere. Men det var vi ikke, og henvisningen til vores brev nu, ude af kontekst, er forkert.”

På Loris.ai-webstedet hævder det “beskyttelse af personlige data er kernen i alt, hvad vi gør,” og at “vi henter vores indsigt fra anonymiserede, aggregerede data, der er blevet renset for personligt identificerbare oplysninger (PII).” Det er ikke nok for EPIC, som understreger, at Loris og CTL søger at “udvinde kommerciel værdi ud af de mest følsomme, intime og sårbare øjeblikke i livet (for) de individer, der søger mental sundhedshjælp og de hårdtarbejdende. frivillige respondenter… Ingen dataskrubbeteknik eller erklæring i en servicevilkår kan løse den etiske krænkelse.”