Google setzt freien AI-tool zu helfen, Unternehmen zu identifizieren material, das sexuellen Kindesmissbrauch

0
199

Ausstanzen der Verbreitung von material über sexuellen Kindesmissbrauch (CSAM) ist eine Priorität für die großen internet-Unternehmen. Aber es ist auch eine schwierige und erschütternde Aufgabe für diejenigen, die auf der Front — menschliche Moderatoren, die haben zu identifizieren und zu entfernen, die beleidigenden Inhalt. Das ist, warum Google ist heute die Veröffentlichung freier KI-software entwickelt, um zu helfen, diese Personen.

Die meisten tech-Lösungen in diesem Bereich arbeiten, durch die Prüfung der Bilder und videos gegen ein Katalog von zuvor identifizierten beleidigend. (Siehe zum Beispiel: PhotoDNA, ein tool von Microsoft entwickelt und bereitgestellt, die von Unternehmen wie Facebook und Twitter.) Diese Art von software bekannt als “crawler” ist ein effektiver Weg, um stop Personen bekannt, die zuvor identifizierten CSAM. Aber es kann nicht fangen material, das nicht bereits markiert als illegal. Für die menschliche Moderatoren haben, in Schritt und überprüfen Sie den Inhalt selbst.

Die Google-AI-tool triages gekennzeichnet, material, helfen die Moderatoren schneller arbeiten

Dies ist, wo Google die neue AI-tool helfen. Mit dem Unternehmens-know-how in der Bildverarbeitung, unterstützt es die Moderatoren Sortieren gekennzeichneten Bilder und videos und “die Priorisierung der meisten wahrscheinlich CSAM Inhalt zur überprüfung.” Damit sollte in einem viel schnelleren review-Prozess. In einem Versuch, sagt Google, das AI-tool half der moderator “take action auf 700 Prozent mehr CSAM Inhalte über den gleichen Zeitraum.”

Sprechen, an Den Rand, Fred Langford, stellvertretender Vorsitzender der Internet Watch Foundation (IWF), sagte, die software würde “helfen, teams wie unseren eigenen bereitstellen unserer begrenzten Ressourcen viel effektiver.” “Im moment haben wir nur die rein Menschen gehen durch Inhalt und sagen, “ja”, “Nein”, sagt Langford. “Das wird helfen, mit triaging.”

Der IWF ist eine der größten Organisationen, die sich gegen die Verbreitung von CSAM online. Es hat seinen Sitz in Großbritannien, sondern finanziert sich durch Beiträge von großen internationalen tech-Unternehmen, darunter Google. Es beschäftigt teams von menschlichen Moderatoren zu identifizieren Missbrauch Bilder, und funktioniert tip-Linien in mehr als einem Dutzend Ländern für die internet-Benutzer um Meldung Verdächtiger material. Es führt auch eigene Ermittlungsmaßnahmen; identifizieren von Standorten, wo CSAM gemeinsam und arbeiten mit den Strafverfolgungsbehörden, Sie zu schließen.

Langford sagt, dass Sie wegen der Natur des “phantastischen Behauptungen zu AI,” der IWF wird sein, testet Google das neue AI-tool gründlich zu sehen, wie er ausführt und passt mit den Moderatoren der’ workflow. Er fügte hinzu, dass Instrumente wie diese waren ein Schritt hin zu vollständig automatisierten Systemen, die sich identifizieren können, bisher unveröffentlichtem material, die ohne menschliche Interaktion überhaupt. “Diese Art von Klassifikator ist ein bisschen wie der Heilige Gral in unserer arena.”

Aber, fügte er hinzu, solche tools sollte nur vertraut werden mit “clear-cut” – Fälle zu vermeiden, dass missbräuchlich material durch die Maschen. “Vor ein paar Jahren hätte ich gesagt, dass diese Art der Klassifizierer war fünf, sechs Jahre”, sagt Langford. “Aber jetzt denke ich, wir sind nur ein oder zwei Jahre davon entfernt, etwas zu schaffen, ist voll automatisiert, in einigen Fällen.”