Capo falso: MIT lavoro mostra false notizie di rilevamento non è molto c’è ancora

0
144

Come il MIT sta cercando di risolvere AI pregiudizi
Tonya Sala colloqui con il Dottor Aleksander Madry, professore associato di informatica presso il MIT, su ciò che è stato fatto per risolvere il bias errore in algoritmi di computer vision.

Fino a che punto il mondo deve andare per rilevare falsi, generata da un computer a scrivere? Un po ‘ più in là, se una recente ricerca da parte di scienziati del MIT è corretto. Rilevazione di falsi richiede un sacco di affidamento dell’intelligenza artificiale statistiche, schemi, modelli che a loro volta possono essere falsificati.

Giovedì, MIT intelligenza artificiale scienziato Tal Schuster e colleghi provenienti da Israele, Tel Aviv University, Cornell University pubblicato un elemento del blog circa due recenti rapporti di ricerca hanno pubblicato in materia di “notizie false” e come spot. (Facebook AI team di ricerca ha avuto una mano nel sostenere il lavoro.)

La conclusione della ricerca è che la scelta di una macchina di testo generati non è sufficiente: Una rete neurale dovrà, inoltre, separare ciò che è valido e veritiero di testo, forse creati da umani, ma forse anche quelli creati da una macchina, da un testo che è dannoso e fuorviante.

mit-fake-news-conundrum-2019.png

L’enigma delle false notizie di rilevamento, dicono i ricercatori, è che, per essere valido, di fatto corretta scrittura può venire dal automatica, macchina di testo generati, e false informazioni possono provenire dalle mani dell’uomo, così si deve andare di più profondo della semplice rilevazione di che pasta è generato da una macchina e che cosa è generato da una persona.

MIT CSAIL

Il problema di base è che AI, quando viene utilizzato per individuare un falso, spesso si basa su statistiche indizi nel testo, indizi che possono essere fuorvianti. Nella prima carta del due, Schuster e colleghi pick up dove gli scienziati dell’Allen Institute di Machine learning lasciato all’inizio di quest’anno. Ti ricordo che la Allen Institute scienziati nel Maggio introdotto una rete neurale chiamato “Grover” che potrebbe essere utilizzato per scoprire testo che è stato generato automaticamente da reti simili, come il “GPT2” lingua di rete di OpenAI. In altre parole, una rete neurale è stato utilizzato per la cattura di un altro.

La chiave per Grover era che GPT2 e modelli di linguaggio come, ad esempio, Google Bert,” lasciare una sorta di traccia di firma o nel loro modo di costruire il testo. Raccogliere le combinazioni di parole che sono più banali, meno inventiva, di scrittori umani. Da rilevare che firma Grover era in grado di dire quando un pezzo di testo è stata fatta da una macchina. Che approccio per la rilevazione di false notizie è venuto per essere definito come la “provenienza” approccio, il che significa che racconta il falso dal vero esaminando la generazione di parole è, umano o macchina.

Grover è buona, il team del MIT ha riconosciuto, ma il problema è che non tutte le macchine di testo generati è falso, nel senso di essere fuorviante. Sempre di più, le macchine per scrivere testo valido, per aiutare gli editori. Gli stessi programmi che consentono di automatizzare l’articolo di notizie di produzione per le legittime fonti di notizie potrebbe essere usato per fare fuorviante articoli se un malintenzionato entrato in possesso del codice. Allora, come fai a distinguere il bene dal male?

Inoltre: Per la Cattura di un Falso: Macchina di apprendimento annusa la sua macchina-scritti di propaganda

Non è facile. Schuster e colleghi di prendere CNN notizie, articoli, scritti da persone, e hanno Grover completare l’articolo originale con un romanzo, generata dal computer frase, vero o falso. Una seconda rete era per dire che le frasi erano vere che false. A volte è fatto bene, ma solo se prima è stata esposta per la formazione esempi di falso e vero frasi. In quel modo, potrebbe vedere i modelli di uso del linguaggio che la rete neurale utilizzata nella costruzione vero contro falso di bilancio. Quando non è stato dato a coloro esempi specifici durante l’allenamento, la precisione del sensore immerso.

In una seconda, più sottile di prova, se l’essere umano-scritto il testo è stato leggermente modificato, dire, avendo Grover inserire la negazione parole, come “non”, il rivelatore non è riuscito a risolvere il vero e il falso, il significato, la sua precisione non era meglio di casuale.

La conclusione che Schuster e colleghi raggiungere è che senza esempi molto specifici per funzionare da reti neurali come Grover sono senza speranza. Dato che, essi suggeriscono la rete neurale ha bisogno di qualcosa di più, è necessario incorporare una qualche conoscenza che rivela la “veridicità” del testo.

“Si consiglia di estendere il nostro set di dati e di creare un punto di riferimento che rappresenta il contenuto e la veridicità in una vasta gamma di uomo-macchina, collaborando applicazioni, dall’articolo intero generazione di ibridi di scrittura e di editing,” scrivono.

“Questo riflette una definizione di notizie false che incorpora la veridicità piuttosto di provenienza.”

Nel secondo articolo, gli autori di trovare un simile tipo di problema con un popolare set di dati per false notizie di rilevamento, chiamato “FEBBRE” che sta per “Fatto di Estrazione e Verifica”. La FEBBRE è stata introdotta lo scorso anno dall’Università di Cambridge e Amazon ricercatori ed è pensato come una risorsa su cui ferroviaria di reti neurali per rilevare falsi articoli e altre falsi testi come le descrizioni dei prodotti. Umana commentatori si era concentrato sull’articolo di Wikipedia per estrarre frasi e testo di supporto per formare una collezione di 185,445 “, sostiene,” le dichiarazioni del fatto che possono essere vere o false, come “Barbara Bush è stato un coniuge di un presidente americano durante il suo mandato” (vero, lei era la moglie del primo Presidente Bush, H. W.)

La FEBBRE è supposto per dire quanto è buono una rete neurale è per capire se una affermazione è vera, basata sulle relative sentenze. Ma Schuster e colleghi hanno trovato che i modelli di parole nella domanda sono stati una soffiata alla rete neurale in modo che potesse indovinare correttamente anche senza consultazione le prove. Per esempio, se le frasi contenute le parole “non” o “ancora” o simili di altre coppie di parole, erano più probabilità di non essere sostiene che vorresti essere confutate da prove. In questo modo, la rete neurale non era davvero imparare qualcosa circa la verità e la falsità, era solo per tenere traccia delle statistiche di coppie di parole.

Inoltre: ad Alta energia: Facebook AI guru LeCun AI immagina la prossima frontiera

Infatti, quando gli autori di riformulare le frasi FEBBRE, si potrebbe causare la rete neurale prestazioni di immergersi. “Non sorprende che le prestazioni di FEBBRE addestrati modelli calo significativo su questo set di test, pur avendo completato il vocabolario sovrapposizione con il set di dati originale,” scrivono.

La morale dell’esperimento, scrivono, è che, andando avanti, le reti neurali per la rilevazione di falsi bisogno di essere addestrati su un set di dati che viene depurato di tali pregiudizi. Essi offrono un set di dati, una versione di FEBBRE in cui le singole frasi sono ri-pesato, in modo che il giveaway frasi di trasportare meno impatto. Gli autori esprimono la speranza che ad un più equilibrato il dataset di portare a linguaggio naturale modelli “esecuzione di ragionamento rispetto alla prova”.

Presi insieme, i due rapporti sono un altro ricordo che le metriche delle prestazioni per le reti neurali su test può essere fuorviante. Capire cosa è vero e cosa è falso in frasi appare un compito più difficile per un computer che sarebbe stata inizialmente supposto.

Un sacco di lavoro in più, sarà necessario spostare l’AI di là di riconoscimento di pattern e verso qualcosa che può stare in piedi per algoritmi mani dannosi.

Intelligenza Artificiale

Wells Fargo: intelligenza Artificiale, machine learning un ‘arma a doppio taglio’

No, questo l’IA non sa ottavo grado della scienza

Che cosa è l’IA? Tutto quello che devi sapere sull’Intelligenza Artificiale

Di nuovo AI posti di lavoro supera il numero di posti di lavoro persi (ZDNet YouTube)

Elon Musk dice AI verranno creati posti di lavoro irrilevante (CNET)

Come aggiungere intelligenza artificiale per il 2020 È di bilancio (TechRepublic)

Argomenti Correlati:

Big Data Analytics

La Trasformazione Digitale

CXO

Internet delle Cose

L’innovazione

Enterprise Software