L’intelligenza artificiale e il futuro della fotografia smartphone

0
141

La fotografia è stata trasformata nell’era di smartphone. Non solo è la posa diversa, come nel caso del selfie, ma tutta la natura del processo di luce viene catturato dalle telecamere telefono è qualcosa di diverso.

Le telecamere non sono più solo una lente e sensore sono anche la collezione di algoritmi che immediatamente manipolare le immagini per ottenere risultati fotografici che altrimenti richiedono ore e ore di manipolazione tramite il software desktop. La fotografia è diventata la fotografia computazionale.

I continui miglioramenti nella macchina di apprendimento di forme di intelligenza artificiale porterà ancora più funzionalità che renderanno smartphone di oggi foto ricordo.

Esempi recenti dello stato dell’arte sui telefoni sono dell’Alfabeto Google Pixel 3 smartphone di immagini, e di Apple iPhone X le foto. Nel primo caso, Google ha utilizzato la macchina di apprendimento di acquisire maggiori dettagli in condizioni di scarsa luminosità, in modo che le scene di notte guardare come la luce del giorno. Questi sono semplicemente non scatti mai esistito in natura. Sono super-risoluzione immagini.

Anche: Nvidia favoloso falsi decomprimere la scatola nera di AI

E Apple, dall’iPhone X nel 2017, ha aggiunto “l’effetto “bokeh”,” artful sfocatura di elementi al di fuori del punto focale. Questo non è stato raggiunto via aspetti della lente stessa, come è il caso nella fotografia tradizionale, ma piuttosto da un calcolo di regolazione dei pixel dopo che l’immagine viene catturata.

E ‘ possibile il 2019 e il 2020 sviluppo svolta si modifica la prospettiva di un’immagine per migliorare. Speriamo, che porterà ad una correzione delle distorsioni inerenti smartphone fotografia che li fanno venire a breve, accanto al digital single-lens reflex (DSLR) le immagini della fotocamera.

microsoft-2019-pose-regression-using-cnn.png

Come un convolutional rete neurale, o la CNN, i tentativi di ricostruire la realtà da una foto. Da “Comprendere i Limiti della CNN a base di Assoluta Fotocamera Posa di Regressione,” di Torsten Sattler della Chalmers University of Technology, Qunjie Zhou e Laura Leal-Taixe del politecnico di Monaco, e Marc Pollefeys dell’ETH di Zurigo e Microsoft.

Sattler et al.

×

microsoft-2019-posa-regressione-usando-la cnn.png

Si potrebbe, infatti, il raggiungimento di risultati simile a ciò che è noto come “tilt-shift” telecamere. In un tilt-shift, l’obiettivo è angolato per l’angolo in cui una persona è in piedi con la fotocamera, e quindi di correggere le distorsioni che si sarebbe creato a immagine perché l’angolo tra l’individuo e la scena. Tilt-shift, la capacità può essere avuto da DSLR proprietari in una varietà di supporti rimovibili per lenti da vari produttori.

La media fotocamera del telefono ha un barilotto dell’obiettivo, così piccola che tutto ciò che cattura è distorta. Nulla è mai abbastanza la forma giusta in quanto è nel mondo reale. La maggior parte della gente potrebbe non notare o di cura, come sono abituati a selfies su Instagram. Ma sarebbe bello se queste aberrazioni, potrebbe essere migliorata. E se si può, sarebbe un punto di vendita per il prossimo turno di smartphone di Google, Apple, etc.

Sempre più, l’iPhone e altre fotocamere porterà telecamere posteriori con 3-D sensori. Questi sensori, realizzati da artisti del calibro di Lumentum Partecipazioni e altri produttori di chip, misurare la profondità dei dintorni del telefono cellulare con l’invio di fasci di luce, e contando che tornare al telefono dopo che rimbalza oggetti. Tecniche come il “tempo di volo” consentire il telefono per misurare in dettaglio la struttura tridimensionale dell’ambiente circostante.

Tali sensori possono usufruire di un vasto corpo di lavoro statistico che è stato fatto negli ultimi anni per capire il rapporto tra immagini 2-D e il mondo reale.

google-night-sight-demonstration-2018.png

Google “Notte di Vista” sul suo Pixel 3 smartphone: le scene che non sono mai esistiti in natura.

Google.

×

google-notte-spettacolo-dimostrazione-2018.png

Molto del lavoro è stato fatto con le statistiche per ottenere il tipo di fisica che andare in tilt-shift lenti, sia con che senza la speciale attrezzatura fotografica. Per esempio, una tecnica chiamata “RANSAC,” o “campione casuale di consenso,” risale al 1981 ed è specificamente progettato per trovare punti di riferimento nel mondo 3d che possono essere associati a punti in 2-D piano dell’immagine, per sapere come l’immagine 2-D è correlata alla realtà tridimensionale. Utilizzando questa tecnica, è possibile ottenere una maggiore comprensione su come una rappresentazione bidimensionale corrisponde al mondo reale.

Un team di ricercatori presso l’Università di Firenze nel 2015 costruita su RANSAC per dedurre l’installazione di un pan-tilt-zoom fotocamera con un ragionamento a ritroso da foto. Essi sono stati in grado di ottimizzare il attuatori, motori che controllano la fotocamera, a una multa di laurea utilizzando software per analizzare quanto la distorsione è introdotto nella foto con diversi posizionamenti della fotocamera. E sono stati in grado di farlo per il video, non solo per le immagini fisse.

Anche: Facebook falsi la sfocatura con ai per rendere VR più reale

Da quel momento, c’è stato un flusso costante di lavoro per la stima di oggetti in immagini, di cui all’come la stima della posa, e un’attività correlata, simultanea localizzazione e mapping, o SLAM, che costruisce nel software una “nuvola” di punti in una scena 3d che possono essere utilizzati per capire quanto la distorsione è in una foto digitale.

I ricercatori dell’Università di Erlangen-Norimberga, in Germania, e il Woods Hole Oceanographic Institution nel 2017 ha mostrato una libreria Python, chiamato CameraTransform, che permette di valutare le dimensioni reali di un oggetto nel mondo lavorando indietro dall’immagine scattata.

canon-2018-depth-discovery-neural-net.png

Vedere dietro gli angoli: una rete neurale creata dai ricercatori di dedurre gli oggetti nascosti in una foto, che consiste di un encoder-decoder combinato con un generativa contraddittorio rete. Per gentile concessione di Helisa Dhamo, Keisuke Tateno, Iro Laina, Nassir Navab, e Federico tombari dr. dell’Università Tecnica di Monaco di baviera, con il sostegno di Canon, Inc.

Dhamo et al.

×

canon-2018-profondità-scoperta-neurale.png

L’anno scorso, i ricercatori presso l’Università Tecnica di Monaco di baviera, Germania e Canon, Inc. ha mostrato è possibile prendere una singola immagine, di dedurre ciò che è in scena occlusa da un altro oggetto. Chiamato “a livelli di profondità dell’immagine”, è possibile creare nuove scene da rimuovere un oggetto da una foto, rivelando lo sfondo che la fotocamera non ha mai visto, ma che è stato calcolato dall’immagine. L’approccio utilizza il familiare encoder-decoder approccio trovato in molti di rete neurale applicazioni, per calcolare la profondità di una scena, e un “generativa contraddittorio rete”, o GAN, per costruire le parti della scena che non sono mai stati realmente in vista, quando è stata scattata la foto.

Tutti che la ricerca è spumeggiante e sta per culminare in alcune fantastiche abilità per il prossimo raccolto di telecamere smartphone, dotato di 3-D sensori. I risultati di questa linea di ricerca deve essere splendida. Almeno, si può immaginare ritratti eseguiti su smartphone che non hanno più strane distorsioni dei volti delle persone. Super-risoluzione immagini di architettura sarà possibile creare linee parallele sera fuori tutte le distorsioni della lente. Il settore smartphone sarà in grado di rivendicare un’altra vittoria contro la DSLR mercato come telefoni sfornare immagini mozzafiato con livelli di precisione e realismo.

Ma, naturalmente, la tendenza di lunga durata per smartphone, la fotografia è lontano dal realismo, verso il più suggestivi effetti che non erano possibili prima fotografia computazionale. E così possiamo vedere che usi di 3-D di rilevamento che tendono verso il surreale.

Anche: Apple spera potrai capire cosa fare con l’IA iPhone XS

Per esempio, tilt-shift, le telecamere possono essere utilizzate per creare alcuni stranamente bellissimi effetti, come restringere la profondità di campo di tiro ad un grado estremo. Che ha l’effetto di rendere i paesaggi guardare come se stanno modelli di giocattoli, in una strana soddisfazione. Ci sono applicazioni per i telefoni che farà qualcosa di simile, ma l’effetto 3-D sensori accoppiata a tecniche di IA andrà ben al di là di ciò che le app raggiungere. Ci sono tecniche per il raggiungimento di tilt-shift in Photoshop, ma sarà molto più soddisfacente di avere gli stessi effetti venire a destra fuori della fotocamera ogni volta che si preme il pulsante di scatto.

Lungo la strada, ci sarà un’altra fase che significa molto in termini di avanzamento tecniche di machine learning. È possibile evitare l’uso del 3-D sensori e basta usare un convolutional rete neurale, o la CNN, di dedurre le coordinate nello spazio di oggetti. Che permetterebbe di risparmiare sulla spesa di costruzione di sensori all’interno di telefoni cellulari.

Deve leggere

‘IA è molto, molto stupido”, dice Google AI leader (CNET)Come ottenere tutti Google Assistente nuove voci di adesso (CNET)Unificata di Google IA divisione di un chiaro segnale di AI del futuro (TechRepublic)Top 5: le Cose da sapere riguardo AI (TechRepublic)

Tuttavia, attualmente, il solo software approcci produrre scarsi risultati, come discusso in un report uscito questa settimana da ricercatori della Microsoft e collaboratori accademici. Conosciuto come “assoluto posa di regressione,” il solo software approccio non è riuscito a generalizzare, scrivono, dopo l’allenamento, il che significa che qualsiasi cosa le tecniche della CNN acquisito non stimare correttamente la geometria quando testato con nuove immagini.

Gli autori considerano il proprio lavoro “un’importante verifica di integrità” per il solo software sforzi, e concludono che “c’è ancora una quantità significativa di ricerca da fare prima della posa di regressione approcci diventato praticamente rilevante”.

Come funziona ottenere fatto? Non da singoli ricercatori. Sarà fatto da un sacco di proprietari di smartphone. Con i nuovi modelli, contenente 3-D dei sensori, ma sarà batter d’occhio la loro impressionante 3-D di rilevamento avanzata di immagini. Mentre lo fanno, la loro dispositivo, o il cloud, sarà tenere traccia di come il mondo reale geometria correla per immagini 2-D. Sarà che utilizza tutte le attività, in altre parole, per continuare la formazione. Da qualche giorno, con sufficiente 3-D scatti, la CNN, o qualunque algoritmo è utilizzato, sarà abbastanza intelligente per guardare il mondo e di sapere esattamente che cosa è come, anche senza l’aiuto di 3-D e la percezione della profondità.

Stai cercando in avanti per il prossimo smartphone fotocamera innovazioni? Ditemi cosa ne pensate nella sezione commenti.

Precedente e relativa copertura:

Che cosa è l’IA? Tutto quello che devi sapere

Un esecutivo a guida di intelligenza artificiale, machine learning e generale AI alle reti neurali.

Cos’è il deep learning? Tutto quello che devi sapere

Il lowdown su deep learning: da come si relaziona con il più ampio campo di machine learning a come iniziare con esso.

Che cosa è macchina di apprendimento? Tutto quello che devi sapere

Questa guida spiega in cosa consiste la macchina di apprendimento, di come esso è legato all’intelligenza artificiale, come funziona e perché è importante.

Che cos’è il cloud computing? Tutto quello che devi sapere su

Un’introduzione al cloud computing destra, dalle nozioni di base fino a IaaS e PaaS, ibrido, public e private cloud.

Storie correlate:

Google AI naviga in “gamescape” per conquistare la teoria dei giochi
Questo è ciò che l’IA sembra (come disegnato dall’IA)
Google DeepMind team leader 3D game dev piattaforma
DeepMind AI punti i primi segni della malattia dell’occhio

Argomenti Correlati:

Apple

La Trasformazione Digitale

CXO

Internet delle Cose

L’innovazione

Enterprise Software