Google, MIT AI sofort behebt Ihre smartphone Schnappschüsse, wie Sie Schießen

0
128

0

screen-shot-2017-08-03-at-14-00-36.png

Google und die MIT-Forscher sagen, Ihre Algorithmus verarbeitet high-res-Bilder auf einem smartphone in Millisekunden, der Abgleich oder die Verbesserung auf den aktuellen alternativen.

Google/MIT CSAIL

Retusche smartphone schnappt nach der Einnahme von Ihnen könnte bald ein Ding der Vergangenheit, durch neue computergestützte Techniken der Fotografie von Google entwickelt.

Google hat eine neue Bildverarbeitungs-Algorithmus baut auf einem cloud-basierten system für die automatische Retusche von Bildern entwickelt, die von MIT ‘ s Computer Science and Artificial Intelligence Laboratory (CSAIL).

MIT dem system, entwickelt im Jahr 2015 gesendet, ein low-res Bild für die Verarbeitung in der cloud, dass wieder eine “maßgeschneiderte” transform Rezept’ zum Bearbeiten der high-res Bild auf dem Telefon gespeichert sind.

Mithilfe von machine-learning-trainieren eines neuronalen Netzes zu tun, was MIT dem system in der cloud, Google-Bild-Algorithmus ist effizient genug, um diese Verarbeitung zu einem Telefon zu liefern, einen Sucher Bild innerhalb von Millisekunden.

Die Arbeit ist in einem gemeinsamen Papier von Google und MIT-Forscher, beschreibt einen Algorithmus, der die Verfahren der hochauflösenden Bilder auf ein smartphone (in Millisekunden), bietet eine Echtzeit-Sucher, 1.080 p Auflösung, die Spiele und die Qualität der state-of-the-art Näherungsverfahren, die auf eine große Klasse von Bild-Betreiber.”

Bild-Operatoren behandeln Aufgaben wie die selfie-Erweiterungen, Filter, Bild schneiden, Farbkorrektur und so weiter.

Apple, Microsoft, Google und andere sind schon mit der computational photography zu verbessern, die Qualität der Schnappschüsse, trotz hardware-Beschränkungen.

Die iPhone-dual-Kamera-Modul, das Microsoft-Pix-app und Googles Pixel HDR+ sind alle Beispiele für die computational photography bei der Arbeit, die sich auf algorithmen, die auf dem Gerät Bild-Verbesserungen.

Jedoch, wie das Papier, Notizen, HDR+, ist ein Beispiel für eine programmatisch definierte Bild Betreiber. Die Google und MIT neuronale Netz in der Lage ist zu reproduzieren HDR+, und mehrere andere Betreiber.

Google testete seine Technik auf ein Pixel Telefon und verwaltete zum Rendern von 1920×1080 Bilder in eine abschließende verarbeitet Vorschau innerhalb von 20 Millisekunden. Es skaliert Linear, also eine 12-megapixel-Bildes dauerte 61 Millisekunden zu verarbeiten.

Google sieht Potenzial für den neuen Algorithmus zu liefern Echtzeit-Bild-Verbesserungen mit einem besseren Sucher und weniger Auswirkungen auf die Batterie.

“Mit machine learning for computational photography ist eine aufregende Aussicht, ist aber begrenzt durch die starke Rechen-und Leistungsbeschränkungen von Mobiltelefonen,” Google-Forscher Jon Barron sagte MIT News.

“Dieses Papier kann uns einen Weg zu umgehen diese Probleme und erzeugen neue, fesselnde Echtzeit-fotografische Erfahrungen ohne Entleerung Ihrer Batterie oder geben Sie einen laggy Sucher erleben.”

0