Se stai leggendo queste parole, tranquilli, sono state scritte da un essere umano. Se la quantità di intelligenza, che è per voi a dire.
L’età di scrittura da una macchina che può passare radunare con i lettori umani non è abbastanza su di noi, almeno, non se uno legge attentamente.
Gli scienziati del non-profit, OpenAI questa settimana ha rilasciato un modello di rete neurale che non solo mangia tonnellate di scrittura umana — 40 gigabyte vale la pena di Web-raschiato dati si scopre anche che tipo di attività da eseguire, rispondendo alle domande per la scrittura di saggi di esecuzione della traduzione, il tutto senza essere esplicitamente detto di fare così, ciò che è noto come “zero-shot” apprendimento di compiti.
Il debutto set off un nugolo di notizie circa le nuove e pericolose forme di “profondo falsi.” La realtà è che questi falsi, mentre impressionante, dovrebbe facilmente resa umana discernimento.
La singolare visione della OpenAI squadra, ed è veramente un affascinante svolta, è che la probabilità di prevedere la prossima parola in una frase può essere esteso per predire il punto di un enunciato, il significato, l’obiettivo di un compito.
Inoltre: Perché chatbots ancora ci lascia indifferenti

Grafica da OpenAI della GPT-2 report.
OpenAI
Come scrivono, “il Linguaggio fornisce un modo flessibile per specificare i compiti, gli ingressi e le uscite come una sequenza di simboli.” Che porta a unsupervised learning by macchina, dove non esplicito obiettivo deve essere impostato per la formazione.
Il progetto, da ricercatori Alec Radford, Jeffrey Wu, Rewon Bambino, David Luan, Dario Amodei, Ilya Sutskever, è stato il colpo udito in tutto il mondo nel Giorno di san Valentino, e la stampa è andato in città.
“Questa IA è Troppo Potente per il Rilascio al Pubblico” era il titolo da PC Mag, abbastanza rappresentativo di tono nelle ultime 24 ore.
Non era solo il test di sfondamento risultati della nuova rete neurale, soprannominato “GPT-2”, che afferrato i titoli. Ancora più sorprendente per molti è stata la decisione da Radford e colleghi a non divulgare i dettagli del loro modello di rete, o di rilasciare il codice, per paura che potrebbe essere utilizzato per scopi dannosi.
Come gli autori hanno spiegato in un post sul blog, giovedì, oltre a molti usi della tecnologia che sono immaginabili, “Possiamo anche immaginare l’applicazione di questi modelli per scopi malevoli,” tra cui “la generazione fuorviante articoli di notizie.”
L’aggiunta di carburante per le cose è il fatto che OpenAI è sostenuta, tra gli altri, il CEO di Tesla Elon Musk.
Anche: Facebook open sources torre di Babele, i Klingon non supportato
Come Marrian Zhou con ZDNet sorella del sito CNet, ha scritto, “Muschio garantiti AI group: il Nostro generatore di testo è così buono spaventoso.” Ed Baig di USA Today portare con, “Troppo spaventoso? Elon Musk ha OpenAI società non rilasciare tech che può generare false notizie.”
Aiuta lo sgomento generale che il lavoro è stato svolto con la partecipazione di Ilya Sutskever, che ha tanto contribuito a far progredire l’arte di elaborazione del linguaggio naturale. Egli è stato determinante nella creazione ampiamente utilizzato approcci di “embedding” parole e stringhe di parole in rappresentazioni di computer, tra cui “word2vec” e “seq2sec.”
Anche se il codice non è stato rilasciato, alcuni giornalisti hanno dato una dimostrazione della tecnologia di questa settimana e sembrava generalmente colpito. Vox è Kelsey Piper utilizzato lo strumento per completare l’articolo che ha iniziato circa GPT-2. Con una singola frase su GPT-2, macchina buttato giù più paragrafi in linea con il tema, quindi, forse convincente come un articolo, al passaggio di un colpo d’occhio.
I risultati discussi in modo formale, la carta “Modelli di Linguaggio sono Incustoditi Multitasking Studenti,” mostra che il sistema ha fatto vari test di benchmark, battendo il precedente di dichiarare-of-the-art di elaborazione del linguaggio naturale modelli.
Ma non temete, molto di uscita di GPT-2 non tenere sotto attento controllo.
Anche: Nvidia favoloso falsi decomprimere la scatola nera di AI
Gli esempi forniti da OpenAI mostra una netta mancanza di coerenza logica. Inoltre, alcuni fin troppo familiare manufatti di produzione di computer, come la duplicazione di termini, appaiono in molti esempi.
La sensazione generale dei testi non è a differenza di il sentimento della più avanzata chat bot, in cui si ha un’esperienza di qualcosa di meno-che-intelligente al lavoro.
Originale fashion blog post by Ethan M. Wong di Strada x Sprezza, fino in alto, e le due risposte di seguito, prodotta dall’originale GPT rete neurale, sulla sinistra, e il nuovo modello, GPT-2, sulla destra.
OpenAI.
I migliori esempi OpenAI prodotti sono notizie false, in cui la forma del genere, che è già abbastanza sconnesso, leviga la mancanza di logica. E ‘un po’ come quello che Stephen Colbert una volta coniato come “truthiness.”
Due notizie false pezzi, circa il furto di materiale nucleare, e uno su Miley Cyrus essere catturato taccheggio, in modo convincente ape la tipica borsa di fatti contenuti nel newswire copia.
L’esempio migliore offerta è un fittizio account di news su unicorni di essere scoperto nelle Ande. I nove punti del pezzo, sono una interessante lettura che odora di standard giornalistici fiera. E ‘un po’ difficile giudicare, però, perché non ha alcun fondamento in alcuna vera logica scientifica del processo o fatti della regione delle Ande (né fatti su unicorni).
Anche: Cina AI scienziati insegnare una rete neurale di treno stesso
Quando GPT-2 mosse per affrontare la scrittura che richiede lo sviluppo di idee e di logica, le crepe si rompono abbastanza ampia. Un esempio di saggio sulla guerra civile americana, viene richiesto solo da una singola frase, “Per oggi compito a casa, si prega di descrivere le ragioni per la Guerra Civile americana,” forme come qualcosa che potrebbe essere presentato in una classe. Ma è un miscuglio di sconnesso e rudimentali pseudo-notizie e opinioni. Alcuni saggi della scuola sono molto di un pasticcio, ma si sarebbe abbattuto come senza senso comunque.
Esempi contenuti nella ricerca formale carta simile debolezza. Un breve pezzo prende come input umano-scritto i paragrafi di un blog di moda post by Ethan M. Wong di Strada x Sprezza, a partire dal 2016. La macchina procede a bollux-up tutti i riferimenti in un disordine totale.
Deve leggere
‘IA è molto, molto stupido”, dice Google AI leader (CNET)Come ottenere tutti Google Assistente nuove voci di adesso (CNET)Unificata di Google IA divisione di un chiaro segnale di AI del futuro (TechRepublic)Top 5: le Cose da sapere riguardo AI (TechRepublic)
In un altro esempio, la macchina viene alimentata in parte umano-testo scritto sulle attrazioni turistiche in Spagna. La macchina procede a generare belle frasi in inglese sulla storia della Spagna Moresca, ma le informazioni non sono coerenti. La “Reconquista” della Spagna è descritto come la costituzione di una dinastia Musulmana in Spagna, e poi successivamente, come la fine della dominazione Musulmana. Questa macchina storico, in altre parole, si sposta in tutto il luogo, senza disciplina.
Nessuno dei quali, tuttavia, dovrebbe diminuire quello che sembra un notevole risultato per la OpenAI squadra. Non solo hanno formato una macchina per produrre perfettamente valido sequenze di parole umane esempi, senza etichette di questi esempi; hanno inoltre dimostrato che il computer è in grado di indovinare il compito semplicemente da dedurre dal testo stesso.
Gli autori riassumono con l’osservazione che, nonostante alcuni ottimi risultati sul benchmark, molto lavoro resta ancora da fare.
“Ci sono senza dubbio molti compiti pratici in cui la prestazione di GPT-2 è ancora meglio di casuale,” scrivono. “Anche su attività comuni che abbiamo valutato, come risposta a domande e traduzione, lingua solo per i modelli iniziano a sovraperformare banale linee di base quando si dispone di sufficiente capacità.”
Precedente e relativa copertura:
Che cosa è l’IA? Tutto quello che devi sapere
Un esecutivo a guida di intelligenza artificiale, machine learning e generale AI alle reti neurali.
Cos’è il deep learning? Tutto quello che devi sapere
Il lowdown su deep learning: da come si relaziona con il più ampio campo di machine learning a come iniziare con esso.
Che cosa è macchina di apprendimento? Tutto quello che devi sapere
Questa guida spiega in cosa consiste la macchina di apprendimento, di come esso è legato all’intelligenza artificiale, come funziona e perché è importante.
Che cos’è il cloud computing? Tutto quello che devi sapere su
Un’introduzione al cloud computing destra, dalle nozioni di base fino a IaaS e PaaS, ibrido, public e private cloud.
Storie correlate:
Google AI naviga in “gamescape” per conquistare la teoria dei giochi
Questo è ciò che l’IA sembra (come disegnato dall’IA)
Google DeepMind team leader 3D game dev piattaforma
DeepMind AI punti i primi segni della malattia dell’occhio
Argomenti Correlati:
Big Data Analytics
La Trasformazione Digitale
CXO
Internet delle Cose
L’innovazione
Enterprise Software