Android S funktioner, du vil elske: Et bedre kamera erfaring

0
113

Android-P kommer til at gøre det lettere at understøtte næsten enhver kamera konfiguration med ting som den nye Multi-Kamera API.

Android kommer i alle former og størrelser. Det er en af de få forbrugeren operativsystemer, der tillader et selskab at skræddersy oplevelsen til deres hardware-platform, og det er en stor grund til det er blevet så populært — en virksomhed, der kan gøre noget anderledes eller bedre end konkurrenterne er gratis bare for at gøre det. Du vil se, at blive udnyttet på mange måder, når du begynder at kigge på det store udvalg af Android-telefoner, men kun få, hvis disse oplysninger er så tydeligt, som det er med kameraet.

Din telefon har sandsynligvis to eller tre faktiske fysiske kameraer med objektiver og alle. Men det kunne have fire, eller bare én, fordi den, som vi nævnte Android kan en virksomhed, der gør telefoner, der gør tingene på sin egen måde, når det kommer til hardware-funktioner. Men det betyder ikke, at det var let — ingeniører og udviklere har måttet arbejde hårdt for at støtte deres egen konfiguration til kameraer. Samtidig vil der stadig være en masse arbejde til støtte af forskellige kamera-konfigurationer, Google har rettet op på nogle af de svære detaljer med Android S.

Multi-kamera API

Du har måske bemærket, at nogle telefoner som Samsung Galaxy S9, bruger to kameraer på bagsiden af telefonen, mens andre kun har én. Dette er ikke kun for udseendets skyld, eller fordi der er tre kameraer, der er bedre end to kameraer, og den anden linse er der til at indsamle oplysninger, de andre er ikke indsamling, mens du tager et foto.

Vidvinkel fotos til siden (der er ingen måde, en computer algoritme, der kan genskabe dem), du kan gøre alt så godt eller bedre med en linse, end du kan med to, men det er ikke nemt. Google bruger et enkelt kamera på bagsiden og et laser diode i Pixel 2 for at fange gode billeder med en enkelt linse, men det er også ved hjælp utrolig kraftfuld ML (machine learning) algoritmer, der “ved” hvad de objekter, du kan se i en foto formodes at se ud. Softwaren kan derefter justere billedet, så ser tingene på den måde, de algoritmer, og forhåbentlig vil vores øjne, tror, de skal.

Ikke alle virksomheder, der gør smartphones har ressourcer til at bygge en ordentlig real-time support for flere kameraer. Nu er Google gør det for dem.

Samsung ikke har adgang til ML algoritmer som denne, i hvert fald ikke dem der er tilfredse med at bruge. Hvad Samsung har, er et team af crack hardware ingeniører, der kan løse næsten ethvert problem, og software team, der kan gøre hardware til at fungere, som det skal. Galaxy Note 8 (og andre high-end modeller) bruger to kameraer på bagsiden af telefonen til at gøre ting som at måle afstand, og juster fokus, og der er ingen tvivl om, at det er en lige så fremragende job. Dette skyldes, at Samsung har ressourcer til at tackle spørgsmålet om støtte til noget som Portræt fotos på deres egen måde.

Ikke alle virksomheder, der laver Android-telefoner har ressourcer til at bruge to eller flere kameraer på samme tid til at samle data og pakke det hele i ét billede, så Google gør det nemmere med Android P ‘ s nye Multi-kamera API.

I Android P-udviklere vil være i stand til at samle billeddata fra to eller flere kameraer samtidig. Det betyder, at en telefon med to bagudvendende eller to foran kameraer, der kan kombinere image data fra hver i realtid og skaber billeder, der bruger problemfri zoom, bokeh, stereo-vision eller næsten alt andet, som en udvikler kan drømme om at gøre med to forskellige streams af billeddata. Udviklere kan også få fat i data fra en “logisk” kamera, der skifter mellem en eller flere kameraer, mens den er i brug.

Disse ideer er ikke nye, men native Android støtte er, og det er en big deal.

Dette betyder, at en tredje “virtuelle” kamera kan blive skabt, der griber billeddata ved hjælp af en eller begge bageste kameraer. En ansøgning kan få fat i “normale” data gennem et kamera, og distance data for en problemfri zoom gennem en anden, og skifte den oprindelige kamera frem og tilbage for at danne en virtuel stream med henblik på at behandle noget, som en fotofilter på den baggrund. Dette skift vil ske så hurtigt, at de oprindelige billeddata, der skal være uændret.

Du kan have zoomet ind på billedet gennem et teleobjektiv, som også er i stand til at bruge hardware til at skabe en sort og hvid baggrund, komplet med digital bokeh. Du skal nok ikke nogensinde gøre sådan en ting, men hvis en udvikler ønsker at tilbyde det, han eller hun kunne.

Disse ændringer er ikke “nye” ideer. De er meget lignende, til, hvad virksomheder som Samsung og LG har gjort med telefoner, der bruger mere end ét kamera til at tage et billede. Forskellen er, at Samsung og LG havde til at gøre det, fordi det var noget, der ikke nogensinde har gjort før. Google tilføje denne støtte direkte i Android betyder bedre fotos fra producenter, der ikke har de samme ressourcer Samsung eller LG har.

Multi-kamera API vil også støtte monokrom (tror, sorte og hvide) kameraer. Hvis kameraer er i stand de vil blive understøttet fuldt ud, ligesom det vigtigste kamera med høj opløsning på en telefon.

Endnu flere lækkerier

Den Multi-kamera-API ‘ en i Android S vil få al den opmærksomhed og vil gøre for de større virkning, men der er et par andre vigtige ændringer, der kommer til kamera med Android S.

Session parametre er en måde at udviklere kan få deres app få fat i et billede, uden at det tager for evigt at behandle, selv hvis de er at udnytte den nye Multi-kamera API. Funktioner som “Session_Regular” og “Session_High-Hastighed” lad en udvikler beslutte, hvor meget af telefonens begrænset ressource pool, der kan bruges til at få fat i et billede hurtigt, når det skal gøres, og ikke så hurtig, når det ikke.

Overfladen deling vil lade programmer “håndtere forskellige use-cases uden at det er nødvendigt for at stoppe og starte kameraet streaming.” Dette betyder, at en app ikke er nødt til at stoppe med at arbejde på at få billeddata det ser gennem linsen(es), mens du beslutte, hvad de skal gøre med det forrige foto. Det er vigtigt, når du tænker på ting som korte klip, vi opfatter som levende billeder.

Mindre ændringer kan have en effekt, også. Android S har flere vigtige.

Andre endnu mindre ændringer er en API til at gøre det muligt for skærmen at fungere som en flash med blinkende hvid gange som et almindeligt kamera flash i stedet for en udvikler at skulle kode det selv, samt adgang til OIS (optisk billedstabilisering) tidsstempel for program-niveau special effects — enhver app kan stabilisere et foto samt det indbyggede kamera app kan med denne ændring.

Sidst, men ikke mindst, en korrekt understøttelse af eksterne USB-kameraer kommer så ting som inspektion kameraer, mikroskoper eller endda teleskoper, der kan bruges via din telefons USB-port, uden at en masse af bygherren arbejde at skrive en driver, men med flere funktioner end en grundlæggende “USB-webcam” interface, der virker i nogle tilfælde i dag.

Ingen af disse ændringer vil gøre os til en bedre fotograf, men vil det gøre vores kameraer god nok til at vi kan tage bedre billeder. I sidste ende, det er alt der tæller, ikke?