Plugins i webbläsaren för att upptäcka falska nyheter visar svårigheten att hantera den information apocalypse’

0
131

Enligt vissa att världen är på väg mot en information apokalyps. En kombination av AI-genererade förfalskningar, falska nyheter gone wild, och vacklande förtroende för medierna innebär snart, ingen kommer att kunna lita på vad de ser eller hör på nätet. Men ingen panik ännu, säger en delmängd av dessa profeter, för en lösning finns redan på sidan: mer teknik.

Denna vecka, två projekt som presenterades som är avsedda att fungera som en buffert mellan världen och falska nyheter. Den första, SurfSafe, skapades av ett par av UC Berkley undergrads, Aska Bhat och Rohan Phadte. Den andra Verkligheten Defender, är ett verk av AI Foundation, en start som grundades 2017 som har ännu att släppa en kommersiell produkt. Båda projekten finns plugins som kommer att varna användare för att felaktig information genom att skanna bilder och videoklipp på webbsidor som de tittar på och flaggning någon fiffla innehåll.

“ett fritt samhälle beror på människor som har någon slags överenskommelse om vad målet verkligheten är.”

Lars Buttler, VD, AI Foundation, berättar Gränsen att hans lag var motiverade att skapa plug-in på grund av eskalerande oro desinformation, inklusive AI-genererade förfalskningar. “Vi kände att vi var på tröskeln till något som kan vara mycket kraftfullt, men också mycket farligt, säger Buttler. “Du kan använda dessa verktyg på ett positivt sätt, för underhållning och nöje. Men ett fritt samhälle beror på människor som har någon slags överenskommelse om vad målet verkligheten är, så jag tycker att vi ska vara rädda om detta.”

De är inte de enda. Under det senaste året, ett ökande antal initiativ har lanserats med syfte att hjälpa oss att navigera i den “post-sanning” världen. På många sätt, de rädslor som de uttrycker är bara en fortsättning på en trend som växte fram i mitten av 2000-talet under ledning av George W. Bush. (Tror att Stephen Colbert satirizing Fox News’ kärlek “truthiness.”) Men det här är den senaste iteration har också en skarpare kanter slipas av ascendency av Ordförande Trump och hype kring den nya tekniken som AI.

Ja, de flesta spelare är inblandade namecheck maskininlärning någonstans i deras planen. Dessa sträcker sig från startups som Factmata, som tog $1 miljon för att skapa “automatiserad maskin journalistik som gör den mest sakliga artiklar,” att DARPA: s kommande deepfake konkurrens, vilket kommer att ställa expert mot expert i en kamp för att skapa och upptäcka AI förfalskningar. Som man kan förvänta sig, trovärdigheten av dessa projekt varierar, både i termer av uppenbara motivation och hur det är tekniskt möjligt deras planer är. Och tittar man på Verkligheten Försvarare och SurfSafe plugins i mer detalj gör för en bra fallstudie i detta avseende.

Olika sätt att upptäcka ett falskt

Av de två plugins, SurfSafe metod är enklare. En gång installerat, användare kan klicka på bilderna, och mjukvaran kommer att utföra något som liknar en omvänd bildsökning. Det kommer att leta efter samma innehåll som visas på tillförlitlig “källa” – platser och flagga kända fiffla bilder. Verkligheten Försvarare lovar att göra samma sak (plug-in har ännu inte starta helt och hållet), men i en mer tekniskt avancerad sätt, med hjälp av maskininlärning för att kontrollera huruvida eller inte en bild har mixtrat med. Både plugins också att uppmuntra användare att hjälpa till med denna process, identifiera bilder som har manipulerats eller så kallade “propaganda”.

De två metoderna är mycket olika. SurfSafe s lutar sig kraftigt på den expertis av etablerade medier. Dess omvänd bildsökning är i princip att skicka läsare att titta på andra webbplatser ” täckning i hopp om att de har hittat den falska. “Vi tror att det finns grupper som gör ett bra jobb [faktagranskning innehåll], men vi vill att användarna ska få tillgång till informationen genom att klicka en mus”, säger SurfSafe är Aska Bhat. Verkligheten Försvarare, samtidigt vill använda tekniken för att automatisera denna process.

En skärmdump från AI-Stiftelsen visar sin Verklighet Försvarare plug-in i handlingen.

Bild: AI Foundation

Att gå ner de sista sträckan är utan tvekan svårare, som spotting fiffla bilder med programvaran är inte något vi kan beräknas på ett tillförlitligt sätt automatisera. Även om det finns ett antal metoder som kan hjälpa till (som att leta efter en inkonsekvens i komprimeringsartefakter), människor har fortfarande att göra den slutliga kontrollen. Det samma är sant för nyare typer av förfalskningar som gjorts med hjälp av artificiell intelligens. En lovande teknik för att identifiera AI ansikte swappar jämför hudfärg bildruta för bildruta för att upptäcka en aktiv puls, men det är ännu inte testats i stor skala.

Automatiserade kontroller är mer än sannolikt att misslyckas, säger Dartmouth College professor och kriminalteknisk expert Hany Farid. Sett till Gränsen, Farid säger att han är “mycket skeptisk” av Verkligheten Försvarare planer. Även om man bortser tekniska utmaningar, säger Farid, det är mycket större frågor att ta upp när det gäller att avgöra vad som är falskt och vad som inte är det.

“Bilder som inte faller snyggt in i kategorier av falska och äkta, säger Farid. “Det är ett kontinuum, en otroligt komplex mängd frågor att ta itu med. Vissa förändringar är meningslösa, och några i grunden förändra karaktären på en bild. Att låtsas att vi kan träna en AI att upptäcka skillnaden är otroligt naivt. Och att låtsas att vi kan crowdsource det är ännu mer så.”

För crowdsourcing komponent, Farid konstaterar att det finns ett antal studier visar att människor är väldigt dåliga på att upptäcka falska bilder. De missar subtila saker som skuggor som pekar på fel sätt samt mer uppenbara förändringar som extra armar och ben Fotoshoppade på organ. Han påpekar att med crowdsourcing, det finns också hot av grupper manipulera sanningen: att rösta politiskt i linje med personliga övertygelser, till exempel, eller bara trolling.

Bhat säger SurfSafe kommer att kringgå en del av dessa problem genom att låta användarna välja egna betrodda källor. Så, de kan använda för New York Times att berätta för dem vad bilder kan vara manipulerad eller “propaganda”, eller de kan använda Breitbart och Fox News. När vi frågade vad för att stoppa detta leder till att användarna kan helt enkelt följa sina egna befintliga fördomar, Bhat säger team tankar om detta en hel del, men fann att nyhetskanaler på olika sidor av den politiska skalan överens om att majoriteten av berättelser. Detta minimerar potentiella användare att falla i echo chambers, föreslår Bhat.

SurfSafe plug-in inte kunnat identifiera några skärmdumpar från en välkänd fiffla video av Emma González.

Dessa utmaningar innebär inte att vi är hjälplösa, dock. Kan vi verkligen kalla sig uppenbart fejkade viral innehåll, som fiffla video Parklandskap skytte överlevande Emma González att visas att riva upp en kopia av den AMERIKANSKA Konstitutionen (det var faktiskt en skjutbana mål), eller grovt Photoshoppad bild av en Seattle Seahawks-spelare dansa med en brinnande Amerikansk flagga (dansen var verkliga, flaggan var inte).

Men även om sådana bilder inte tvinga oss att ta itu med filosofiska quandaries, kan de fortfarande vara knepigt att spika ner. I våra tester, till exempel SurfSafe plug-in som redovisas de mest spridda versionen av Seahawks bild som en bluff, men det kunde inte hitta varianter som delas på Facebook där bilden hade blivit beskuren eller var en skärmdump tagen från en annan plattform. Plug-in var ännu sämre på att identifiera stillbilder från González video, inte ens identifiera ett antal skärmdumpar värd på Snopes.

En del av dessa problem beror på hur SurfSafe kataloger bilder. Bhat säger att det bara kan kontrollera bilder som har setts av en användare åtminstone en gång (det som nu samlas in “en miljon” bilder i ett par dagar av användning), vilket kan förklara att de förfaller. Men en annan anledning kan vara plug-in använder hashing, en matematisk process som förvandlar bilder och filmer i unika strängar av siffror. Både SurfSafe och Verklighet Försvarare använda denna metod för att skapa deras index av verkliga och fiffla bilder, som att söka (och lagring) av strängar av siffror är mycket snabbare än att använda i full storlek bilder.

Men att skapa en hash är en konst. Centrala frågor är: hur olika gör en bild måste vara för att det ska få sin egen unika kod? Om det är beskuren, inte det räknas som samma bild? Vad sägs om en liten förändring i färg eller komprimering? Dessa beslut utan enkla svar. Om din hash gäller ett bredare utbud av bilder, det risker med utsikt över viktiga förändringar, om det är för känsligt, då du har för att kontrollera eller faktum-in för ett mycket större antal bilder.

När vi frågade om dessa utmaningar, både AI Foundation och SurfSafe fela på sidan av försiktighet. De säger att deras produkter är fortfarande utvecklas (och ännu inte släppt i fall av Verkligheten Försvarare), och att de inte förväntar sig sådana problem att lösas över en natt.

En plug-in som du ställer ut

Denna sista punkt är förvisso sant, och experter tyder på att vår nuvarande sjukdomskänsla är här för att stanna. Sarah Roberts, biträdande professor vid UCLA som specialiserat sig på digital information och media, berättar Väg att produkter som Verkligheten Försvarare är en viktig “instansiering av samtida oro,” men att de inte tar itu med underliggande frågor.

“Jag tror att folk upplever ett vakuum.”

“Jag tror att folk upplever ett vakuum, säger Roberts. “De känner ett tomrum, en avsaknad av förtroende för institutioner.” Hon tillägger att sjunkande läsekrets av etablerade nyhetsmedia och bristen på statligt stöd till bibliotek och offentliga skolor är “oroande tendenser.” Dessa var platser där människor kan lära sig själva och lära sig hur information i samhället produceras och sprids, säger Roberts, och nu är de glömda.

“Det är inte som människor vaknade upp utan en önskan att vara informerade eller utan en önskan att ha tillförlitliga, kontrollerats informationskällor”, säger hon. “I själva verket är det tvärtom. I en tid präglad av riklig information, människor behöver för att kunskap nu mer än någonsin.”

Denna expertis, utan tvekan, har inte gått bort. Det har bara varit överröstas av högljudda röster, glad att kasta desinformation kamrat i vattnet i online media bara för att orsaka en frenesi. Och detta leder oss till en större fråga för både Verklighet Försvarare och SurfSafe. Även om produkter kan nå sina uppsatta mål, hur kommer de att uppmuntra människor att verkligen använda dem? Hur de gör sig hörd i sorlet? Fast konstaterar i sin täckning av SurfSafe, det är en avsaknad av digital kompetens som gör att människor som är utsatta för falska nyheter och viral bluffar i första hand. Att få dessa individer att installera en plug-in kommer inte att bli lätt.

Men för Roberts, det är bara en viss “brist på fantasi” i dessa lösningar. De gör något, säger hon, men det är inte alls tillräckligt. “Vad folk drabbas av panik om är en politisk situation, en ekonomisk situation. Och hur har du ett ingrepp på den nivån? En webbläsare-nivå… Vad kommer att uppnå?”