Crisis Text Line beendet den Austausch von Gesprächsdaten mit dem KI-Unternehmen

0
178

Crisis Text Line hat entschieden, die Weitergabe von Gesprächsdaten an das ausgegliederte KI-Unternehmen Loris.ai einzustellen, nachdem es von Datenschutzexperten geprüft wurde. „In den vergangenen Tagen haben wir uns die Anliegen unserer Community genau angehört“, schreibt der Hotline-Dienst in einer Erklärung auf seiner Website. “Wir hören dich. Crisis Text Line hat eine offene und öffentliche Beziehung zu Loris AI. Wir verstehen, dass Sie nicht möchten, dass Crisis Text Line Daten an Loris weitergibt, obwohl die Daten sicher behandelt, anonymisiert und von personenbezogenen Daten befreit werden.“ Loris.ai wird alle Daten löschen, die es von Crisis Text Line erhalten hat.

Politico berichtete kürzlich, wie Crisis Text Line (das nicht mit der National Suicide Prevention Lifeline verbunden ist) Daten aus Gesprächen mit Loris.ai teilt, das KI-Systeme entwickelt, die darauf ausgelegt sind, die einfühlsame Konversation von Kundendienstmitarbeitern zu verbessern. Crisis Text Line ist ein gemeinnütziger Dienst, der eine Textleitung für Diskussionen über psychische Gesundheit bereitstellt, aber es ist auch Anteilseigner von Loris.ai und hat laut Politico zu einem bestimmten Zeitpunkt einen CEO mit dem Unternehmen geteilt.

„Keine Methode zur Datenbereinigung oder Aussage in den Nutzungsbedingungen kann diesen ethischen Verstoß beheben“

Bevor Hotline-Benutzer mit freiwilligen Beratern sprechen, stimmen sie der Datenerfassung zu und können die Datenweitergabepraktiken des Unternehmens lesen. Politico zitierte einen Freiwilligen, der behauptete, dass die Personen, die sich an die Leitung wenden, „erwartet haben, dass das Gespräch nur zwischen den beiden Personen stattfindet, die miteinander sprechen“, und sagte, er sei im August entlassen worden, nachdem er Bedenken hinsichtlich des Umgangs von CTL mit Daten geäußert hatte. Seitdem hat derselbe Mitarbeiter eine Petition gestartet, in der er CTL dazu drängt, „seine Datenethik zu reformieren“.

Politico bemerkte, wie Crisis Text Line sagt, dass Datennutzung und KI eine Rolle bei der Funktionsweise spielen:

„Datenwissenschaft und KI sind das Herzstück der Organisation – sie sicherzustellen sagt, dass diejenigen in den Situationen mit den höchsten Einsätzen nicht länger als 30 Sekunden warten, bevor sie anfangen, mit einem der Tausenden von freiwilligen Beratern zu kommunizieren. Es sagt, dass es die gesammelten Daten nach Erkenntnissen durchkämmt, die dabei helfen können, die bedürftigsten Fälle zu identifizieren oder die Probleme der Menschen einzugrenzen, ähnlich wie Amazon, Facebook und Google Trends aus Likes und Suchanfragen gewinnen.“

Im Anschluss an den Bericht veröffentlichte Crisis Text Line eine Erklärung auf ihrer Website und über einen Twitter-Thread. In einer Erklärung sagte Crisis Text Line, dass es „keine personenbezogenen Daten an Organisationen oder Unternehmen verkauft oder weitergibt“. Es wurde weiter behauptet, dass „der einzige gewinnorientierte Partner, mit dem wir vollständig bereinigte und anonymisierte Daten geteilt haben, Loris.ai ist. Wir haben Loris.ai gegründet, um die Erkenntnisse aus dem Betrieb unseres Dienstes zu nutzen, um den Kundensupport menschlicher und einfühlsamer zu gestalten. Loris.ai ist ein gewinnorientiertes Unternehmen, das anderen gewinnorientierten Unternehmen dabei hilft, in einigen ihrer notorisch stressigsten und schmerzhaftesten Momente zwischen Kundendienstmitarbeitern und Kunden Deeskalationstechniken einzusetzen.“

Zu seiner Verteidigung sagte Crisis Text Line: „Unser Datenbereinigungsprozess wurde von unabhängigen Datenschutzbeauftragten wie dem Electronic Privacy Information Center bestätigt, das Crisis Text Line als „vorbildlichen Verwalter personenbezogener Daten“ bezeichnete. Es zitierte jedoch einen Brief an die FCC aus dem Jahr 2018, dass die Verteidigung jetzt wackeliger ist, da das Electronic Privacy Information Center (EPIC) mit einer eigenen Erklärung geantwortet hat, dass das Zitat außerhalb seines ursprünglichen Kontexts verwendet wurde:

„Unsere Aussagen in diesem Schreiben basierten auf einer Diskussion mit CTL über ihre Richtlinien zur Datenanonymisierung und -bereinigung für die gemeinsame Nutzung akademischer Forschungsergebnisse, nicht auf einer technischen Überprüfung ihrer Datenpraktiken. Unsere Überprüfung bezog sich nicht auf die kommerzielle Datenübertragungsvereinbarung zwischen CTL und Loris.ai und wir haben sie nicht mit CTL besprochen. Wenn wir das getan hätten, hätten wir die ethischen Bedenken bezüglich der kommerziellen Nutzung vertraulicher Nachrichtendaten direkt bei der Organisation und ihren Beratern vorbringen können. Aber das waren wir nicht, und der Verweis auf unseren Brief jetzt, aus dem Zusammenhang gerissen, ist falsch.“

Auf der Website Loris.ai heißt es „Schutz personenbezogener Daten steht im Mittelpunkt von allem, was wir tun“, und dass „wir unsere Erkenntnisse aus anonymisierten, aggregierten Daten ziehen, die von personenbezogenen Daten (PII) bereinigt wurden.“ Das ist EPIC nicht genug, das darauf hinweist, dass Loris und CTL versuchen, „kommerziellen Wert aus den sensibelsten, intimsten und verletzlichsten Momenten im Leben (von) Personen zu ziehen, die psychiatrische Hilfe suchen, und von denen, die hart arbeiten freiwillige Responder … Keine Datenbereinigungstechnik oder Aussage in den Nutzungsbedingungen kann diesen ethischen Verstoß beheben.“

Aktualisierung, 22:15 Uhr ET: Diese Geschichte wurde aktualisiert, um die Entscheidung von Crisis Text Line widerzuspiegeln, die Weitergabe von Daten an Loris.ai einzustellen.