Früher in diesem Monat, die Sie möglicherweise haben gesehen, die eine website namens ThisPersonDoesNotExist.com die Runde macht, nutzt die KI zu generieren verblüffend realistische gefälschte Gesichter. Gut, hier ist die Fortsetzung: WhichFaceIsReal.com können Sie testen Sie Ihre Fähigkeit, zu unterscheiden, AI-erzeugt fakes von den echten Artikel. Einfach gehen Sie zu der Website und klicken Sie auf, wer Sie denken, ist die Reale person!
WhichFaceIsReal.com hat auch einen höheren Sinn, obwohl. Es wurde von zwei Wissenschaftlern von der Universität von Washington, Jevin West und Carl Bergstrom, von denen beide studieren, wie Informationen verbreitet sich über die Gesellschaft. Sie denken, dass der Anstieg der AI-erzeugt fakes könnte ärger, untergräbt das Vertrauen der Gesellschaft in Erscheinung, und zu erziehen, die Massen.
“Wenn eine neue Technologie wie diese kommt, die gefährlichste Zeit ist, wenn die Technologie ist da draußen, aber die öffentlichkeit ist sich nicht bewusst,” Bergstrom erzählt Die Schwelle. “Das ist, wenn es verwendet werden kann, am effektivsten.”
“Also, was wir versuchen zu tun ist, die öffentlichkeit aufzuklären, den Menschen bewusst machen, dass diese Technologie gibt”, sagt West. “Genau wie schließlich die meisten Menschen aufmerksam gemacht wurden, dass Sie in Photoshop ein Bild.”
Gefälschte Gesichter generiert ThisPersonDoesNotExist.com.
Beide Seiten benutzen eine Maschine-learning-Methode, bekannt als generative gegnerische Netz (oder GAN) zu erzeugen, deren Fälschungen. Diese Netze funktionieren, indem Sie brütete in riesigen stapeln von Daten (in diesem Fall, eine Menge von Porträts von echten Menschen), das lernen, die Muster in Ihnen, und dann versuchen zu replizieren, was Sie gesehen haben.
Der Grund GANs so gut ist, dass Sie sich selbst testen. Ein Teil der Netzwerk generiert Gesichter, und die andere vergleicht Sie mit den Trainingsdaten. Wenn es kann sagen, der Unterschied, den generator gesendet wird, zurück zum Zeichenbrett, zur Verbesserung seiner Arbeit. Es ist wie bei einem strengen Kunst-Lehrer, der wird nicht lassen Sie verlassen die Klasse, bis Sie ziehen Sie die richtige Anzahl der Augen auf Ihrem Kohle-portrait. Es gibt keinen Raum für AI Picassos — Realismus nur.
“die gefährlichste Zeit ist, wenn die Technik wird es aber der öffentlichkeit nicht bewusst.”
Diese Techniken können verwendet werden, um zu manipulieren, audio und video sowie Bilder. Zwar gibt es Einschränkungen, was diese Systeme tun (Sie können nicht geben Sie eine Beschriftung für ein Bild, das Sie wollen, um zu existieren, und Sie haben es magicked in) Sie verbessern sich stetig. Deepfakes drehen kann, videos von Politikern in die Puppen, und Sie können sogar drehen Sie Sie in eine große Tänzerin.
Mit diesem Fall der AI-generierte Gesichter, Bergstrom und West beachten Sie, dass eine schädliche Verwendung möglicherweise die Verbreitung von Fehlinformationen nach einem Terroranschlag. Zum Beispiel, KI könnte verwendet werden, um erzeugen ein fake Täter, die online verbreitet werden, Ausbreitung über soziale Netzwerke.
In diesen Szenarien werden Journalisten in der Regel versuchen, überprüfen Sie die Quelle des Bildes, die Verwendung von tools wie Google Reverse Image search. Aber, dass würde nicht funktionieren auf eine AI-fake. “Wenn Sie wollte, um zu injizieren, Fehlinformationen in einer situation wie dieser, wenn Sie post ein Bild von dem Täter und es ist jemand anderes bekommt er korrigiert sehr schnell”, sagt Bergstrom. “Aber wenn Sie ein Bild von jemandem, der überhaupt nicht existiert? Denken Sie an die Schwierigkeit der Verfolgung, die nach unten.”
Sie beachten Sie, dass Akademiker und Forscher entwickeln eine Vielzahl von Werkzeugen, die können vor Ort deepfakes. “Mein Verständnis ist, dass rechts jetzt es ist eigentlich ganz einfach zu tun”, bemerkt West. Und die Prüfung ablegen, über die Sie vermutlich gefunden, Sie konnten unterscheiden zwischen der AI-generierte Gesichter und echte Menschen. Es gibt eine Reihe von erzählt, einschließlich der asymmetrischen Gesichtern, Zahnfehlstellungen, unrealistisch Haar und Ohren, die, naja, einfach nicht so Aussehen wie Ohren.
Aber diese fakes werden besser. In drei Jahren [fakes] nicht zu unterscheiden”, sagt West. Und wenn das passiert, wissen die halbe Miete sein. Sagt Bergstrom: “Unsere Botschaft ist sehr viel nicht, dass die Menschen sollten nicht an etwas zu glauben. Unsere Botschaft ist das Gegenteil: es ist nicht leichtgläubig.”