Android-P funktioner som du kommer att älska: En bättre kamera erfarenhet

0
466

Android-P kommer att göra det lättare att stöd för nästan vilken kamera konfiguration med saker som den nya Multi-Kamera API.

Android kommer i alla former och storlekar. Det är en av de få konsumenten operativsystem som tillåter ett företag att skräddarsy upplevelsen att deras hårdvara plattform och det är en stor anledning till att det har blivit så populära — ett företag som kan göra något annorlunda eller bättre än konkurrenterna är gratis bara för att göra det. Du kommer att se att tas tillvara på många olika sätt när du börjar titta på den stora sortiment av Android-telefoner, men få om dessa detaljer är lika uppenbart som det är med kameran.

Din telefon har förmodligen två eller tre faktiska fysiska kameror med linser och alla. Men det kunde ha fyra, eller bara en, eftersom som vi nämnde Android låter ett företag som tillverkar telefoner gör saker på sitt eget sätt när det kommer till hårdvara funktioner. Men det betyder inte att det var lätt — ingenjörer och utvecklare har fått arbeta hårt för att stödja sin egen konfiguration för kameror. Samtidigt finns det fortfarande en hel del arbete för att stödja olika kamera-konfigurationer, Google har tagit upp några av de tuffa detaljer med Android-P.

Multi-kamera API

Du kanske har märkt att vissa telefoner som Samsung Galaxy S9, använda två kameror på baksidan av telefonen, medan andra bara har en. Detta är inte bara för syns eller på grund av att tre kameror är bättre än två kameror och den andra linsen är där för att samla in information med andra är inte att samla in när du tar ett foto.

Vidvinkel foton åt sidan (det finns inget sätt som en dator algoritm kan återskapa dem), du kan göra allt lika bra eller bättre med en objektiv än kan du med två men det är inte lätt. Google använder en enda bakre kamera och en laserdiod i Pixel 2 om du vill ta bra bilder med en enda lins, men det är också med hjälp av otroligt mäktiga ML (machine learning) algoritmer som “vet” vad de objekt som du ser i bild är tänkt att se ut. Programmet kan sedan justera bilden, så saker och ting ser ut som de algoritmer, och förhoppningsvis, i våra ögon, tycker de borde.

Inte alla företag att göra smartphones har resurser att bygga ut korrekt realtid stöd för flera kameror. Nu har Google gör det för dem.

Samsung inte har tillgång till ML algoritmer som detta, åtminstone inte som man är nöjd med. Vad Samsung har ett crack team av ingenjörer hårdvara som kan lösa nästan alla problem och programvara team som kan göra att hårdvaran fungerar som det ska. Galaxy Note 8 (och andra high-end-modeller) använder två kameror på baksidan av telefonen för att göra saker som att mäta avstånd och justera fokus och det går inte att förneka att den gör ett lika bra jobb. Detta beror på att Samsung har resurser att ta itu med frågan om stöd något som Porträtt-Läge foton på sitt eget sätt.

Inte alla företag att göra Android-telefoner har resurser att använda två eller flera kameror samtidigt för att samla in data och packa det hela till ett foto, så Google är att göra det lättare med Android-P: s nya Multi-kamera API.

I Android-P utvecklare kommer att kunna samla in bilddata från två eller flera kameror samtidigt. Det innebär att en telefon med två bakre eller två främre kameror kan kombinera bild data från varje i realtid och skapa foton som använder sömlös zooma, bokeh, stereo vision eller nästan vad som helst annat att en utvecklare kan drömma om att göra med två olika strömmar av bilddata. Utvecklare kan också ta tag i uppgifter från ett “logiskt” kamera som växlar mellan en eller flera kameror samtidigt i bruk.

Dessa idéer är inte nya, men native stöd för Android är och det är en big deal.

Detta innebär att en tredje “virtuella” kamera kan skapas som griper tag image data med hjälp av en eller båda bakre kameror. En ansökan kan ta tag i “normal” data via en kamera, avstånd data för en sömlös zooma genom en sekund, och slå den ursprungliga kameran fram och tillbaka för att forma en virtuell ström för att bearbeta något som ett foto filter på bakgrunden. Detta byte skulle ske så snabbt den ursprungliga bilddata bör vara oförändrad.

Du kunde ha en inzoomad bild genom ett teleobjektiv som också kunna använda hårdvaran för att skapa en svart och vit bakgrund komplett med digital bokeh. Du kommer förmodligen aldrig göra en sådan sak, men om en utvecklare vill erbjuda det han eller hon kunde.

Dessa förändringar är inte “nya” idéer. De är mycket liknande till vad företag som Samsung och LG har gjort med telefoner som använder mer än en kamera för att ta ett foto. Skillnaden är att Samsung och LG var tvungen att göra det eftersom det var något som inte någonsin har gjort innan. Google lägger till detta stöd direkt till Android innebär bättre foton från tillverkare som inte har samma resurser som Samsung eller LG har.

Multi-kamera-API stöder också monokrom (tror att svarta och vita) kameror. Om kameror är kapabel att de kommer att stödjas fullt precis som de främsta kamera med hög upplösning på en telefon.

Ännu mer godsaker

Multi-kamera API i Android-P kommer att få all uppmärksamhet och kommer att göra för större effekt, men det finns några andra viktiga förändringar som kommer till kameran med Android-P.

Session parametrar är ett sätt att utvecklare kan ha sin app ta en bild utan att det tar evigheter att processen, även om de är att utnyttja den nya Multi-kamera API. Funktioner som “Session_Regular” och “Session_High-Speed” låta utvecklare att bestämma hur mycket av telefonens begränsade resurspool kan användas för att ta ett foto snabbt när det behöver göras och inte så snabb när det gör det inte.

Ytan delar kommer att låta program “att hantera olika användning-fall utan att behöva stoppa och starta kameran streaming.” Detta innebär att en app inte sluta arbeta på att få bilddata det ser genom objektivet(es) medan du bestämmer vad du ska göra med den föregående foto. Det är viktigt när du tänker på saker som kort klipp som vi uppfattar som levande bilder.

Mindre förändringar kan ha en inverkan också. Android-P har flera viktiga sådana.

Andra ännu mindre förändringar är en API för att tillåta skärmen för att fungera som en blixt genom blinkande vitt gånger som en vanlig kamera-blixt istället för en utvecklare behöver för att kod som sig själva, liksom tillgång till OIS (optisk bildstabilisering) tidsstämplar för tillämpning-nivå specialeffekter — någon app som kan stabilisera ett foto samt den inbyggda kamera-appen kan i och med denna förändring.

Sist men inte minst, rätt stöd för externa USB-kameror kommer så saker som inspektion kameror, mikroskop eller ens teleskop kan användas via telefonens USB-port utan en massa utvecklare arbete att skriva en förare men med fler funktioner än en vanlig “USB-webbkamera” gränssnitt som fungerar i vissa fall idag.

Ingen av dessa förändringar kommer att göra oss till en bättre fotograf, men det kommer att göra våra kameror tillräckligt bra för att vi kan ta bättre bilder. I slutet, det är allt som räknas, eller hur?