Google, MIT AI straks løser din smartphone snaps, som du skyde

0
150

0

screen-shot-2017-08-03-at-14-00-36.png

Google og MIT forskere siger, at deres algoritme processer high-res billeder på en smartphone i millisekunder, for at matche eller forbedre den nuværende alternativer.

Google/MIT CSAIL

Retouchering smartphone snaps efter at have taget dem kan snart være en saga blot, takket være nye beregningsmæssige fotografering teknikker, der er udviklet af Google.

Google har fremstillet et nyt billede-behandling algoritme, der bygger på et cloud-baseret system til automatisk retouchering af billeder, der er udviklet af MIT ‘ s Computer Science and Artificial Intelligence Laboratory (CSAIL).

MIT system, som er udviklet i 2015, sendte en low-res billede for behandling i skyen, der har returneret et skræddersyet “omdanne opskrift’ for at redigere high-res billede, der er gemt på telefonen.

Ved hjælp af maskinen at lære at træne et neuralt netværk til at gøre, hvad MIT system gjorde i clouden, Google ‘ s image algoritme er effektiv nok til at flytte denne behandling til en telefon til at levere en søgeren inden for millisekunder.

Arbejdet er præsenteret i et fælles oplæg fra Google, og MIT forskere, der beskriver en algoritme, som “processer billeder i høj opløsning på en smartphone i millisekunder giver en real-time søgeren på 1,080 s beslutning, og matcher kvaliteten af state-of-the-art tilnærmelse teknikker på en stor klasse af billedet operatører.”

Billede operatører varetage opgaver såsom selfie forbedringer, filtre, billede, udskæring, farve korrektion, og så videre.

Apple, Microsoft, Google, og andre er allerede hjælp af computational fotografering for at forbedre kvaliteten af snaps, på trods af hardware begrænsninger.

IPhone ‘s dual-kamera modul, Microsofts Pix-program, og Google’ s Pixel HDR+ er alle eksempler på beregningsmæssige fotografering på arbejde, som er baseret på algoritmer på enheden for at gøre billedet forbedringer.

Men, som det papir, noter, HDR+ er et eksempel på en programmatisk-defineret billede operatør. Google og MIT neurale netværk er i stand til at gengive HDR+ og flere andre operatører.

Google testet sin teknik på en Pixel telefon og formået at gøre 1,920×1,080 billeder til en endelig behandles preview inden for 20 millisekunder. Det er også skalerer lineært, så en 12-megapixel billede tog 61 millisekunder til at behandle.

Google ser potentialet for den nye algoritme til at levere real-time billede ekstraudstyr med en bedre søgeren og mindre indflydelse på batteriet.

“Brug af machine learning til computational fotografering er et spændende perspektiv, men er begrænset af den alvorlige beregningsmæssige og magt begrænsninger af mobiltelefoner,” Google forsker Jon Barron fortalte MIT Nyheder.

“Dette papir kan give os en måde at omgå disse problemer og producere nye, spændende, real-time fotografiske oplevelser uden at dræne dit batteri, eller giver dig en laggy søgeren oplevelse.”

0