Zero
Il singolare esempio di AI progressi negli ultimi anni è come il computer può riconoscere qualcosa in una foto. Ancora, anche semplice test può mostrare come fragile tali abilità sono davvero.
L’ultimo trucco per gioco il sistema viene fornito per gentile concessione di ricercatori presso l’Università di Auburn a Auburn, in alabama, e media titan Adobe Systems. In un documento rilasciato questa settimana, hanno mostrato che l’immagine in alto riconoscimento reti neurali facilmente fallire se gli oggetti sono spostato o ruotato anche da una piccola quantità.
Un camion dei pompieri, per esempio, visto dalla testa, potrebbe essere correttamente riconosciuto. Ma una volta puntato in aria e si voltò più volte, lo stesso camion dei pompieri è mis-classificato dalla rete neurale come un autobus o un fireboat o un bob.
Anche: Facebook Oculus ricerca di artigianato strano miscuglio di John Oliver e Stephen Colbert
Mentre studi precedenti hanno mostrato le immagini possono essere modificate in termini di texture o di illuminazione per ingannare una rete neurale, è la prima volta che la “posa”, cioè il 3D l’orientamento di un oggetto, è stata manipolata per generare immagini di esempio che potrebbe viaggio-la rete.
Il risultato è che lo stato dell’arte del riconoscimento dell’immagine è “ingenuo” e in alcuni casi una maggiore comprensione delle strutture tridimensionali sembra che li aiutino a stare meglio.
Stato dell’arte delle reti neurali come Google Nascita sono bravo a “classificare” le cose in immagini, concludono, ma non sono realmente riconoscere gli oggetti, nel vero senso dell’espressione.
La carta, Sciopero (con) una Posa: le Reti Neurali Sono Facilmente Ingannare da Strane Pose di Oggetti Familiari, è pubblicato su arXiv pre-server di stampa, ed è stato scritto da Michael A. Alcorn, Qi Li, Zhitao Gong, Chengfei Wang Wei-Shinn Ku, e Anh Nguyen di Auburn, e Lungo Mai di Adobe. (Adobe ha contribuito anche il sostegno finanziario per lo sforzo.)
Gli autori hanno anche inviato il codice usato per farlo su GitHub.
Anche: Google riflette le carenze di apprendimento automatico

I ricercatori della Auburn computer-rendered oggetto immagini per ingannare Google “Inception” di rete in misclassifying oggetti in foto, semplicemente ruotando gli oggetti da 10 gradi.
I ricercatori hanno acquistato un set di dati di 100 computer tridimensionale, il rendering di oggetti che sono smilier per le cose che si trovano in ImageNet database utilizzato per la formazione di reti neurali per il riconoscimento di immagini. Ciò significa che i veicoli come autobus per la scuola e dei vigili del fuoco, e segnali di stop e panche di cani.
Poi hanno modificato i oggetti 3D da cambiare il pitch, yaw e roll degli oggetti. Hanno usato una procedura chiamata “random search” per trovare le pose che potrebbe ingannare Google di stato-of-the-art “Inception v. 3 di rete”. Essenzialmente, essi sono stati la formazione di un insieme di equazioni per ottenere una buona generazione di “contraddittorio” esempi di immagini, tipo di pitting una rete neurale contro l’altro.
Nei loro test, Inception “è stato sbagliato per la stragrande maggioranza dei campioni,” scrivono. “La mediana per cento di classificazioni corrette per tutti i 30 oggetti era solo 3.09%”.
Il punto essenziale è che Google Inizio, in realtà non mis-caratterizzare tutte le immagini di un oggetto, di alcune immagini generate dal sistema è entrato di diritto. Ma tendeva ad essere molto stretto, in ciò che ha ottenuto, confusi dalle pose che erano al di fuori della norma.
“Il DNN la capacità di riconoscere un oggetto (ad esempio, un camion dei pompieri) in un’immagine varia radicalmente l’oggetto viene ruotato nel mondo,” scrivono.
Gli autori hanno trovato solo un po ‘ di modifica che potrebbe avere un grande impatto, con una differenza di spostare l’oggetto 8 gradi in termini di “pitch” e 9.17 in termini di “roll” in una scena era abbastanza per confondere Inizio. Il contraddittorio, la rete neurale è in grado di inviare Inizio off nelle erbacce, costringendolo a mis-classificare le cose in tutto 797 diverse classi di oggetti.
Anche: Guardando i video di YouTube potrebbe un giorno far robot copia esseri umani
Il risultato è che l’Inizio e per l’altra immagine sistemi di riconoscimento come non sono realmente riconoscere gli oggetti, di per sé. “In somma, il nostro lavoro mostra che state-of-the-art DNNs al modulo classificazione di immagini bene, ma sono ancora lontani da un vero e proprio oggetto di riconoscimento,” scrivono. Ma anche il rilevamento di oggetti possono essere ingannati, hanno trovato. Gli autori hanno quindi utilizzato la loro contraddittorio sistema per prendere il top-of-the-line “Yolo v3” objet sistema di riconoscimento. Hanno trovato il 75,5% delle immagini che battere Inizio anche ingannare Yolo.
È chiaro che le reti neurali potrebbe essere necessario qualche aiuto sostanziale per andare avanti. Anche quando il “AlexNet” rete neurale è stato ri-addestrati, con l’altra le immagini incluse nel ImageNet database, era ancora ingannare, quando sono presentati con nuovi esempi di contraddittorio immagini dopo l’allenamento.
Anche: Google AI ricercatori di trovare strano motivo in più per giocare a Compromessi!
Gli autori suggeriscono che alcuni di problema può avere a che fare con una certa estetica nelle immagini trovate su Internet, che sono utilizzati nella formazione di reti neurali.
“Perché ImageNet e MS COCO set di dati sono costruiti a partire da fotografie scattate da persone, set di riflettere le tendenze estetiche dei loro rapitori,” scrivono.
Gli autori suggeriscono che una soluzione è quella di caricare fino ImageNet con un sacco di contraddittorio esempi. Ma essi sottolineano che “acquring larga scala, di alta qualità di oggetti 3D set di dati è costoso e laborioso.”
Un’altra risposta che proponiamo è quello di utilizzare “geometrico priori” per dare le reti neurali una maggiore raffinatezza.
Lo studio, che offrono, potrebbe essere l’inizio della creazione di tutto il “contraddittorio mondi” che si potrebbe verificare in profondità i sistemi di apprendimento. Che tipo di lavoro potrebbe “servire come un interpretabilità strumento per l’estrazione di informazioni utili su questi black-box, i modelli, le funzioni interne.”
Precedente e relativa copertura:
Che cosa è l’IA? Tutto quello che devi sapere
Un esecutivo a guida di intelligenza artificiale, machine learning e generale AI alle reti neurali.
Cos’è il deep learning? Tutto quello che devi sapere
Il lowdown su deep learning: da come si relaziona con il più ampio campo di machine learning a come iniziare con esso.
Che cosa è macchina di apprendimento? Tutto quello che devi sapere
Questa guida spiega in cosa consiste la macchina di apprendimento, di come esso è legato all’intelligenza artificiale, come funziona e perché è importante.
Che cos’è il cloud computing? Tutto quello che devi sapere su
Un’introduzione al cloud computing destra, dalle nozioni di base fino a IaaS e PaaS, ibrido, public e private cloud.
Storie correlate:
36 dei migliori film sull’AI, rankedThis è che l’IA sembra (come disegnato dall’IA)AI robot killer vengono, ma l’ONU li vuole bannedDigital trasformazione nel 2019: AI, robotica, e IoT giocare ruoli da protagonista
Argomenti Correlati:
La Trasformazione Digitale
CXO
Internet delle Cose
L’innovazione
Enterprise Software
0