0

Google und die MIT-Forscher sagen, Ihre Algorithmus verarbeitet high-res-Bilder auf einem smartphone in Millisekunden, der Abgleich oder die Verbesserung auf den aktuellen alternativen.
Google/MIT CSAIL
Retusche smartphone schnappt nach der Einnahme von Ihnen könnte bald ein Ding der Vergangenheit, durch neue computergestützte Techniken der Fotografie von Google entwickelt.
Google hat eine neue Bildverarbeitungs-Algorithmus baut auf einem cloud-basierten system für die automatische Retusche von Bildern entwickelt, die von MIT ‘ s Computer Science and Artificial Intelligence Laboratory (CSAIL).
MIT dem system, entwickelt im Jahr 2015 gesendet, ein low-res Bild für die Verarbeitung in der cloud, dass wieder eine “maßgeschneiderte” transform Rezept’ zum Bearbeiten der high-res Bild auf dem Telefon gespeichert sind.
Mithilfe von machine-learning-trainieren eines neuronalen Netzes zu tun, was MIT dem system in der cloud, Google-Bild-Algorithmus ist effizient genug, um diese Verarbeitung zu einem Telefon zu liefern, einen Sucher Bild innerhalb von Millisekunden.
Die Arbeit ist in einem gemeinsamen Papier von Google und MIT-Forscher, beschreibt einen Algorithmus, der die Verfahren der hochauflösenden Bilder auf ein smartphone (in Millisekunden), bietet eine Echtzeit-Sucher, 1.080 p Auflösung, die Spiele und die Qualität der state-of-the-art Näherungsverfahren, die auf eine große Klasse von Bild-Betreiber.”
Bild-Operatoren behandeln Aufgaben wie die selfie-Erweiterungen, Filter, Bild schneiden, Farbkorrektur und so weiter.
Apple, Microsoft, Google und andere sind schon mit der computational photography zu verbessern, die Qualität der Schnappschüsse, trotz hardware-Beschränkungen.
Die iPhone-dual-Kamera-Modul, das Microsoft-Pix-app und Googles Pixel HDR+ sind alle Beispiele für die computational photography bei der Arbeit, die sich auf algorithmen, die auf dem Gerät Bild-Verbesserungen.
Jedoch, wie das Papier, Notizen, HDR+, ist ein Beispiel für eine programmatisch definierte Bild Betreiber. Die Google und MIT neuronale Netz in der Lage ist zu reproduzieren HDR+, und mehrere andere Betreiber.
Google testete seine Technik auf ein Pixel Telefon und verwaltete zum Rendern von 1920×1080 Bilder in eine abschließende verarbeitet Vorschau innerhalb von 20 Millisekunden. Es skaliert Linear, also eine 12-megapixel-Bildes dauerte 61 Millisekunden zu verarbeiten.
Google sieht Potenzial für den neuen Algorithmus zu liefern Echtzeit-Bild-Verbesserungen mit einem besseren Sucher und weniger Auswirkungen auf die Batterie.
“Mit machine learning for computational photography ist eine aufregende Aussicht, ist aber begrenzt durch die starke Rechen-und Leistungsbeschränkungen von Mobiltelefonen,” Google-Forscher Jon Barron sagte MIT News.
“Dieses Papier kann uns einen Weg zu umgehen diese Probleme und erzeugen neue, fesselnde Echtzeit-fotografische Erfahrungen ohne Entleerung Ihrer Batterie oder geben Sie einen laggy Sucher erleben.”
0