Googles Pixel 6 und Pixel 6 Pro bringen neben Software endlich auch neue Kamera-Hardware

0
167

Nach vielen Vorankündigungen und Leaks hat Google heute auf seiner Pixel Fall Launch-Veranstaltung endlich alle Details zu Pixel 6 und Pixel 6 Pro bekannt gegeben. Einige der größten Änderungen an diesen neuen Flaggschiff-Handys von Google sind aktualisierte Kameramodule. Pixel-Handys waren lange die Champions der Smartphone-Fotografie, aber Google ruht sich seit einiger Zeit auf seinen Lorbeeren aus und verwendet den gleichen 12,2-Megapixel-Sensor Sony IMX363 von Pixel 3 bis Pixel 5 und 5A.

Jetzt beherbergen die Hauptkameras des Pixel 6 und 6 Pro einen 50-Megapixel-Sensor, der größer als seine Vorgänger ist und die Bilder auf eine Ausgabe von 12,5 Megapixeln herunterbricht. Google behauptet, dass es 150 Prozent mehr Licht einfangen kann als das Pixel 5. Nach dem iPhone-Playbook verfügen beide Pixel über Ultraweitwinkelobjektive mit 12-Megapixel-Sensoren, während das 6 Pro ein drittes Teleobjektiv mit 4-fach optischem Zoom und 48 Megapixel Auflösung hinzufügt. Auf der Vorderseite hat die Selfie-Kamera des Pixel 6 8 Megapixel mit einem Sichtfeld von 84 Grad, während die 6 Pro 11,1 Megapixel und 94 Grad für einfachere Gruppen-Selfies bietet.

Das Setup der Rückfahrkamera ist eine ziemliche Abkehr von früheren Pixeln, bei denen die Standardhardware von Pixel-Kameras es Google ermöglichte, sich voll und ganz auf die Softwareoptimierung zu konzentrieren. Bei einigen Pixel-Iterationen wurden ein oder zwei zusätzliche Linsen hinzugefügt oder entfernt, aber jede stützte sich hauptsächlich auf Rechenfunktionen.

Diese Softwareentwicklungen haben auch dem Pixel 6 und 6 Pro neue Funktionen gebracht. Google behauptet, dass sein überarbeiteter Portrait-Modus verschiedene Hauttöne von breiteren, vielfältigeren Personengruppen besser wiedergeben kann, und nennt die Funktion Real Tone. Google hat sich mit Farbfotografen und Kameraleuten zusammengetan, um vielfältigere Porträts in den Bilddatensatz seiner Kameramodelle zu integrieren. Google sagt, dass es sogar einige Aberrationen korrigiert hat, die die Bildwiedergabe von Personen mit dunklerer Haut härter beeinflussen, wie zum Beispiel die Implementierung eines neuen Algorithmus zur Verringerung von Streulicht, das dunkle Haut auswäscht. Google sagt, dass es sich dem Aufbau einer gerechteren Erfahrung mit seinen Kamera- und Bildgebungsprodukten verschrieben hat, was hoffentlich eine willkommene Abkehr von früheren Auslassungen in seinen Algorithmen sein wird.

Was Google Face Unblur nennt, verspricht, die bei jedem Drücken aufgenommenen Bilder zu verwenden, um Gesichter auch beim Fotografieren von Bewegungen scharf zu halten. Der Bewegungsmodus wurde für die Aufnahme von Action-Aufnahmen und Langzeitbelichtungen entwickelt, für Ästhetik wie das Streifen von Autolichtern über eine Nachtlandschaft oder das Schwenken mit einem sich bewegenden Motiv, um den Hintergrund unscharf zu machen und ein Gefühl von Geschwindigkeit zu vermitteln. Schließlich versucht Magic Eraser, störende Objekte und Fotobomber in Google Fotos zu entfernen.

Magic Eraser kann automatisch unerwünschte Motive aus dem Hintergrund entfernen. GIF: Google

Magic Eraser klingt ein bisschen nach dem lange aufgegebenen Maschendrahtzaun-Konzept, das jetzt in einer erreichbareren Form wiederbelebt wurde. Google zeigte auf der Google I/O 2017, sechs Monate bevor das Pixel 2 herauskam, die automatische Objektentfernung, aber es hat es nie auf ein Gerät geschafft. Es wurde scheinbar vergessen und von Google stillschweigend zurückgelassen. Obwohl es sich seitdem um eine Fallstudie für die Software-First-Mentalität von Google handelt, sieht es so aus, als ob eine Version davon jetzt in Pixel 6 und Google Fotos lebendig ist.

In Entwicklung… wir fügen diesem Beitrag weitere hinzu, aber du kannst unserem Live-Blog zu Pixel 6 folgen, um die Neuigkeiten noch schneller zu erfahren.

Verwandt: