Facebook är faktum-pjäser tåg AI för att upptäcka “djupt falska” – videor

0
79

Noll

Så kallade “djupa förfalskningar” finns nu en stor oro för OSS lagstiftare orolig att AI-manipulerade filmer som skildrar människor att göra eller säga saker som de aldrig skulle kunna bli en nationell säkerhetsrisk.

Efter förra veckans utfrågning där Facebook COO Sheryl Sandberg fick frågan om hur Facebook skulle varna användare om djupt falska videor, företaget har meddelat att man nu utökar sin granskning av artiklar med fakta kontrollera partner till video och bilder.

Alla 27 av Facebook: s faktagranskning partner i 17 länder kommer att kunna bidra till recensioner. OSS faktakontroll parterna har Associated Press, factcheck.org, Politifact, Snopes, och konservativa papper The Weekly Standard.

Facebook säger att det har byggt en maskin-learning-modellen för att identifiera potentiellt falska foton eller videoklipp och sedan skickar dessa till sin faktum-pjäser för granskning. Tredje part faktakontroll partners kan använda visuell kontroll tekniker, inbegripet omvänd bild du söker och bildens metadata analys för att granska innehållet.

“Faktum-pjäser kan bedöma sanningen eller falskheten i en video eller ett foto genom att kombinera dessa kunskaper med andra journalistiska metoder, som med hjälp av forskning från experter, forskare eller myndigheter,” sade Facebook produktchef Antonia Woodford.

SE: Hur man ska genomföra AI och maskininlärning (ZDNet särskild rapport) | Ladda ner rapporten som en PDF (TechRepublic)

Facebook har för avsikt att använda sin samling av granskare betyg av foton och videor för att förbättra noggrannheten av sin machine-learning-modellen för att upptäcka felaktig information i dessa media format.

Det är definierat tre typer av felaktig information i bilder och video, inklusive: manipuleras eller påhittade innehåll, innehåll som kan presenteras ur sitt sammanhang, och falska påståenden i text eller ljud.

Facebook erbjuder en hög nivå översikt av svårigheter att identifiera felaktiga uppgifter i bild-och videomaterial jämfört med text, och några av de tekniker som man använder för att övervinna dem. Men det övergripande intrycket är att Facebook inte är nära med ett automatiserat system för att upptäcka felaktig information i video och bilder på skalan.

För närvarande använder OCR för att extrahera text från bilder, till exempel en falsk rubrik på ett foto för att jämföra sms: a till rubriker från fact-checkers ” artiklarna. Det är också att utveckla sätt att upptäcka om ett foto eller en video har blivit manipulerad. För detta, det är med hjälp av ljud-transkription för att jämföra om texten extraheras från ljud matchar påståenden i texten som faktum-pjäser har tidigare krossat.

“Just nu, vi är mer avancerade med hjälp av OCR på foton än vad vi är, med hjälp av ljud-transkription på video,” sade Facebook produktchef Tessa Lyon.

Som med artiklar, Facebook kommer att fokusera på att identifiera dubbletter av falska videor och foton när ett faktum-checker har bekräftat det som falskt.

SE: It-säkerhet i ett sakernas internet och mobila världen (ZDNet särskild rapport) | Ladda ner rapporten som en PDF (TechRepublic)

Lyons sagt att Facebook är “ganska bra” på att hitta exakta kopior av foton, men när bilder är något manipulerad det är mycket svårare för Facebook att automatiskt upptäcka.

“Vi behöver fortsätta investera i en teknik som kommer att hjälpa oss att identifiera mycket nära dubbletter som har ändrats i små sätt,” sade Lion.

Och att upptäcka när något har lagts fram ur sitt sammanhang är också en stor utmaning, enligt Lyons.

“Förståelse om något har tagits ur sitt sammanhang är ett område som vi satsar på, men har en hel del arbete kvar att göra, eftersom du behöver för att förstå den ursprungliga sammanhang i media, i vilket sammanhang det presenteras, och om det finns en diskrepans mellan de två,” hon noterade.

Effekterna av desinformation i foto och video innehåll skiljer sig också från land till land. Facebook har funnit att i USA har de flesta människor rapporterar att se felaktig information i artiklarna, medan i Indonesien människor oftare rapporterar att se vilseledande information i bilder.

“I länder där media ekosystem är mindre utvecklad eller läs-och skrivkunnighet är lägre, folk kan vara mer benägna att se en falsk rubrik på ett foto, eller se en manipulerad bild, och tolka det som nyheter, medan det i länder med robust nyheter ekosystem, begreppet “nyheter” är mer bundna till artiklar,” sade Lion.

DE SENASTE OCH RELATERADE TÄCKNING

Facebook lanserar verktyg för att automatiskt åtgärda buggar

Verktyget, som kallas SapFix, har använts för att leverera stabila kod uppdateringar till miljontals enheter som använder Facebook Android-app.

EU luktar internet i ansiktet med länk skatt och ladda upp lagar filter

I en av de dummaste teknik förordning flyttar sedan USA: s FCC förstörde Usa: s nätneutralitet, Eu: s upphovsrätt översyn lovar att vraket dagens internet.

Facebook data integritet skandal: En lathund (TechRepublic)

Läs om sagan om Facebook misslyckanden i att säkerställa sekretess för användar-data, inklusive hur det förhåller sig till Cambridge Analytica, GDPR, Brexit kampanj, och 2016 AMERIKANSKA presidentvalet.

Facebook backar nya Brasilien-Argentina undervattenskabel

Undersea länk förväntas tas i drift år 2020.

Facebook AI nu fixar buggar som stavningskontroll, korrigerar stavfel (CNET)

SapFix kan gratis programmerare från kodning slit.

Alfabetet är Loon ballonger bara strålade internet över 1000 km

Loon ingenjörer kan nu öka internet täckning med hjälp av en web av ballonger som är anslutna till en enda grund-kopplingspunkt.

Relaterade Ämnen:

Säkerhet

Digital Omvandling

CXO

Sakernas Internet

Innovation

Affärssystem

0