0

Google e i ricercatori dicono che il loro algoritmo di processi ad alta risoluzione di immagini su smartphone in millisecondi, di corrispondenza o di migliorare le attuali alternative.
Google/MIT CSAIL
Ritocco smartphone scatta dopo l’assunzione di loro potrebbe essere presto un ricordo del passato, grazie alla nuova fotografia computazionale tecniche sviluppate da Google.
Google ha realizzato un nuovo algoritmo di elaborazione delle immagini che si basa su un sistema cloud-based per automaticamente il ritocco delle immagini sviluppato da MIT Computer Science and Artificial Intelligence Laboratory (CSAIL).
MIT system, sviluppato nel 2015, ha inviato una bassa risoluzione immagine per l’elaborazione in cloud computing, che ha restituito un su misura ‘trasformare ricetta” per modificare l’immagine ad alta risoluzione memorizzati sul telefono.
Utilizzando tecniche di apprendimento automatico per addestrare una rete neurale per fare ciò, al MIT, nata nel cloud, Google immagine algoritmo è abbastanza efficiente per spostare l’elaborazione di un telefono per offrire una immagine del mirino in pochi millisecondi.
Il lavoro è presentato in un documento congiunto da parte di Google e ricercatori del MIT, che descrive un algoritmo che “i processi di immagini ad alta risoluzione su uno smartphone in millisecondi, offre in tempo reale un mirino a 1.080 p risoluzione, e confronta la qualità di stato-of-the-art tecniche di approssimazione su una vasta classe di immagine operatori”.
Immagine operatori di gestire attività quali selfie miglioramenti, filtri, immagine affettare, correzione del colore, e così via.
Apple, Microsoft, Google, e gli altri stanno già utilizzando la fotografia computazionale per migliorare la qualità di scatto, nonostante le limitazioni hardware.
L’iPhone dual-modulo fotocamera, Microsoft Pix app e Google Pixel HDR+, sono tutti esempi di fotografia computazionale al lavoro, che si basano su algoritmi sul dispositivo per rendere l’immagine miglioramenti.
Tuttavia, come la carta note, HDR+ è un esempio di un livello di codice definito dall’immagine operatore. Google e il MIT di rete neurale è in grado di riprodurre HDR+ e molti altri operatori.
Google testato la sua tecnica su un Pixel di telefono e riuscito a rendere 1,920×1,080 immagini in un finale elaborato anteprima raggio di 20 millisecondi. Inoltre, si adatta in modo lineare, in modo da 12 megapixel immagine ha preso 61 millisecondi per il processo.
Google vede il potenziale per il nuovo algoritmo di fornire in tempo reale l’immagine miglioramenti con una migliore mirino e un minore impatto sulla batteria.
“Uso di machine learning per la fotografia computazionale è una prospettiva eccitante, ma è limitata dalla grave di calcolo e di potenza vincoli di telefoni cellulari,” Google ricercatore Jon Barron ha detto MIT News.
“Questa carta ci può fornire un modo per aggirare questi problemi e di produrre nuove e interessanti, in tempo reale esperienze fotografiche senza consumare la batteria o dando un lag mirino esperienza.”
0