0

Google en MIT onderzoekers zeggen dat hun algoritme processen high-res foto ‘ s op een smartphone in milliseconden, matching of het verbeteren van de huidige alternatieven.
Google/MIT CSAIL
Retoucheren smartphone snaps na het nemen van hen kunnen binnenkort een ding van het verleden, dankzij de nieuwe rekenkundige fotografie technieken, ontwikkeld door Google.
Google heeft een nieuwe image-processing algoritme dat gebaseerd is op een cloud-gebaseerd systeem voor het automatisch retoucheren van afbeeldingen is ontwikkeld door MIT ‘ s Computer Science and Artificial Intelligence Laboratory (CSAIL).
MIT-systeem, ontwikkeld in 2015, stuurde een low-res afbeelding voor verwerking in de cloud, die terugkeerde van een op maat gemaakt ‘transformeren recept’ voor het bewerken van de high-res afbeelding die opgeslagen is op de telefoon.
Met behulp van machine learning trainen van een neuraal netwerk om te doen wat MIT-systeem heeft in de cloud, Google image algoritme is efficiënt genoeg is om een dergelijke verwerking naar een telefoon voor het leveren van een zoeker het beeld binnen milliseconden.
Het werk wordt gepresenteerd in een gezamenlijk werkstuk door Google en MIT onderzoekers beschrijven een algoritme dat “processen beelden in hoge resolutie op een smartphone in milliseconden, biedt een real-time zoeker op 1.080 p resolutie, en komt overeen met de kwaliteit van state-of-the-art aanpassing technieken op een grote klasse van beeld-operatoren.”
Afbeelding operators hanteren taken zoals selfie verbeteringen, filters, image snijden, kleur correctie, enzovoort.
Apple, Microsoft, Google, en anderen zijn al behulp van computational fotografie aan het verbeteren van de kwaliteit van drukknopen, ondanks hardware beperkingen.
De iPhone dual-camera module van Microsoft Pix-app en de Google-Pixel HDR+ zijn allemaal voorbeelden van rekenkundige fotografie op het werk, die zijn gebaseerd op algoritmen op het apparaat om het beeld verbeteringen.
Echter, als de papieren notities, HDR+ is een voorbeeld van een programmatisch-gedefinieerd beeld van de operator. De Google en MIT neurale netwerk kunnen reproduceren HDR+ en een aantal andere operators.
Google getest zijn techniek op een Pixel telefoon en beheerd te renderen 1,920×1,080 beelden in een definitief verwerkt preview binnen 20 milliseconden. Ook schalen lineair, dus een 12 megapixel foto ‘ 61 milliseconden te verwerken.
Google ziet potentieel voor het nieuwe algoritme voor het leveren van real-time afbeeldingen verbeteren met een betere zoeker en minder van invloed zijn op de batterij.
“Met behulp van machine learning for computational fotografie is een spannend vooruitzicht, maar wordt beperkt door de zware rekenkundige en macht beperkingen van mobiele telefoons,” Google-onderzoeker Jon Barron vertelde MIT Nieuws.
“Dit papier kan ons voorzien van een manier om deze problemen te omzeilen en het produceren van nieuwe, aansprekende, real-time fotografische ervaringen zonder aftappen van uw batterij of het geven van u een laggy zoeker ervaring.”
0