Come le reti neurali vedere la profondità?

0
178

Umana, l’acuità visiva è generalmente molto meglio rispetto anche alla più alta risoluzione fotografie, quindi non tutte queste caratteristiche sono accessibili a DNNs. Per esempio, le foto, soprattutto quelli compressi, tendono a spalmare bene texture.

Risultati

Nei loro esperimenti, i ricercatori hanno scoperto che MonoDepth utilizza principalmente la posizione verticale di oggetti per la stima della profondità, piuttosto che per la loro dimensione apparente. Questo può essere influenzata dalla posizione della telecamera e di rollio e il modello tende a mis-stima della distanza. Inoltre, MonoDepth è inaffidabile quando si è di fronte con gli oggetti che non erano nella sua formazione.

L’Archiviazione Bit prendere

Mentre questo studio è limitato a un singolo DNN – MonoDepth – addestrato su un singolo set di dati – KITTI – indica la necessità di profilo di questi modelli di apprendimento. Dato che ci sono decine di milioni di machine vision abilitato veicoli di crociera intorno, nel prossimo decennio, non li vogliamo falciatura, in costume, il trucco o treaters solo perché non si guarda come le persone che sono stati addestrati a vedere.

Che cosa questo uomo vede è che se non riusciamo a capire come DNNs raggiungere i loro risultati, si sono tenuti a scoprire i propri limiti in pratica, piuttosto che nei test. Sufficiente tragedie – pensare Boeing 737 Max – potrebbe paralizzare l’accettazione pubblica di machine learning. E che, data la riduzione forza lavoro nel mondo sviluppato, sarebbe una tragedia maggiore, se vogliamo mantenere le nostre economie in crescita.

I commenti sono benvenuti!

Argomenti Correlati:

Archiviazione

La Trasformazione Digitale

CXO

Internet delle Cose

L’innovazione

Enterprise Software