Nul
Såkaldte “deep forfalskninger” er nu en stor bekymring for OS lovgivere bekymret for, at AI-manipulerede videoer der viser mennesker at gøre eller sige ting, de aldrig ville kunne blive en national sikkerhedstrussel.
Efter sidste uges høring, hvor Facebook COO Sheryl Sandberg blev spurgt om, hvordan Facebook vil advare brugerne om, at dybt falske videoer, virksomheden har meddelt, at man nu udvider sin gennemgang af artikler med fact-kontrol partnere til video og billeder.
Alle 27 af Facebook ‘ s fact-kontrol partnere i 17 lande vil være i stand til at bidrage til anmeldelser. OS faktisk-kontrol parter omfatter Associated Press, factcheck.org, Politifact, Snopes, og konservative papir The Weekly Standard.
Facebook siger, at det har bygget en maskine-learning model til for at registrere potentielt falske fotos eller videoer, og derefter sender disse til sin virkeligheden-brikker til gennemgang. Tredjeparts-fact-kontrol-partnere kan anvende visuelle teknikker, herunder omvendt billede, der søger og billedets metadata analyse at gennemgå indholdet.
“Fact-brikker er i stand til at vurdere sandheden eller falskheden af et foto eller en video ved at kombinere disse evner med andre journalistiske praksis, gerne ved hjælp af forskning fra eksperter, forskere og offentlige myndigheder,” sagde Facebook product manager Antonia Woodford.
SE: Hvordan man gennemfører AI og machine learning (ZDNet særlige rapport) | Download rapporten som PDF (TechRepublic)
Facebook har til hensigt at bruge sin samling af anmelder bedømmelser af fotos og videoer til at forbedre nøjagtigheden af sin maskine-learning model i at opdage fejlinformation i disse formater.
Det er defineret tre typer af misinformation i billeder og video, herunder: manipuleres eller opdigtet indhold, indhold, der er præsenteret ud af kontekst; og falske påstande i tekst eller lyd.
Facebook tilbyder et højt niveau overblik over de vanskeligheder, identifikation af falske oplysninger i billed-og video-indhold i forhold til tekst, og nogle af de teknikker, der bruger til at overvinde dem. Men det samlede indtryk er, at Facebook ikke er tæt på at have et automatiseret system til detektering af misinformation i video og billeder på skalaen.
I øjeblikket, det er at bruge OCR til at udtrække tekst fra billeder, såsom en falsk overskrift på et billede, for at sammenligne den tekst, overskrifter fra virkeligheden-brikker’ – artikler. Det er også at udvikle metoder til at opdage, hvis et foto eller en video er blevet manipuleret. For dette, er det ved hjælp af lyd transskription for at sammenligne, om teksten er uddrag fra lyden matcher krav i tekst-dam har tidligere debunked.
“I det øjeblik, vi er mere avanceret, med hjælp af OCR på billeder, end vi er med ved hjælp af lyd transskription på videoer,” sagde Facebook product manager Tessa Lyon.
Som med artikler, Facebook vil fokusere på at identificere dubletter af falske videoer og fotos, når en kendsgerning-checker, har bekræftet den som falsk.
SE: Cybersikkerhed i en tingenes internet og mobil verden (ZDNet særlige rapport) | Download rapporten som PDF (TechRepublic)
Lyons sagde, at Facebook er “temmelig god” til at finde nøjagtige kopier af fotos, men når billederne er lidt manipuleret, er det meget sværere for Facebook til automatisk at registrere.
“Vi er nødt til at fortsætte med at investere i teknologi, der vil hjælpe os med at identificere meget nær dubletter, der er blevet ændret i det små,” sagde Lyon.
Og at opdage, når noget er blevet præsenteret ud af en sammenhæng, er også en stor udfordring, ifølge Lyon.
“Forståelse, hvis noget er blevet taget ud af kontekst er et område, vi investerer i, men har en masse arbejde at gøre, fordi du er nødt til at forstå den oprindelige kontekst, medie, kontekst, som det bliver fremlagt, og om der er en uoverensstemmelse mellem de to,” hun er angivet.
Virkningen af misinformation i foto-og video-indhold adskiller sig også fra land til land. Facebook har fundet, at i USA er de fleste mennesker rapporterer at se misinformation i artikler, der henviser til, at i Indonesien folk oftere rapporterer at se vildledende oplysninger i billeder.
“I lande, hvor medierne økosystem er mindre udviklet eller læse-og skrivefærdigheder priser er lavere, kan folk være mere tilbøjelige til at se en falsk overskrift på et foto, eller se et manipuleret foto, og tolker det som nyheder, der henviser til, at i lande med robust nyheder økosystemer, begrebet “nyheder” er mere bundet til artikler,” sagde Lyon.
DE SENESTE OG RELATEREDE DÆKNING
Facebook lancerer værktøj til automatisk at lave fejl
Det værktøj, kaldet SapFix, har været brugt til skibet stabil kode opdateringer til millioner af enheder, der bruger Facebook til Android-app ‘ en.
EU smager internet i ansigtet med link skat og uploade filter love
I en af de dummeste teknologi forordning bevæger sig, da USA er FCC ødelagt Usa ‘s net-neutralitet, Eu’ s lov om ophavsret eftersyn lover at vraget i dag er internettet.
Facebook data privacy skandale: Et cheat sheet (TechRepublic)
Læs om sagaen om Facebook ‘ s fejl i at sikre privatlivets fred for brugerens data, herunder hvordan det relaterer til Cambridge Analytica, GDPR, Brexit kampagne, og 2016 AMERIKANSKE præsidentvalg.
Facebook ryggen nye Brasilien-Argentina undersøisk kabel
Den undersøiske link forventes at være i drift i 2020.
Facebook AI nu retter fejl som stavekontrol retter stavefejl (CNET)
SapFix kan gratis programmører fra kodning slid.
Alfabetet er Loon balloner bare strålede internettet over 1000km
Loon ingeniører nu kan øge internet dækning ved hjælp af en web-balloner, der er tilsluttet en enkelt jorden adgangspunkt.
Relaterede Emner:
Sikkerhed
Digital Transformation
CXO
Tingenes Internet
Innovation
Virksomhedens Software
0