Apple testar Deep Fusion-kamerafunktionen i iPhone 11 och iPhone 11 Pro i iOS 13-utvecklarbeta

Apple har uppdaterat iOS 13 i rekordhastighet, delvis för att lägga till nya funktioner, men mestadels för att korrigera buggar.

Men det betyder inte att ytterligare funktioner inte fortfarande är i horisonten. Till exempel Deep Fusion-kamerafunktionen, som Apple tillkännagav vid sitt "by innovation only" -händelse tidigare i år tillsammans med iPhone 11 och iPhone 11 Pro. Apple har alltid sagt att funktionen skulle lanseras vid ett senare tillfälle, med en efterföljande programuppdatering till iOS 13, och nu är funktionen i beta.

Gränsen har rapporten idag, som beskriver hur Apple arbetar med den kommande offentliga lanseringen av Deep Fusion och hur funktionen kommer att göra de redan imponerande kamerorna i Apples senaste flaggskeppssmartphones ännu bättre.

Du kan se resultatet av ett foto taget med Deep Fusion i bilden högst upp i denna artikel.

Deep Fusion är en viktig funktion för bilder med ”medel-till-lågt ljus”. Det är också en funktion som körs helt i bakgrunden och arbetar för att optimera och förbättra bilder medan iPhone 11/11 Pro-ägaren tar bilder på språng.

Rapporten har en fin uppdelning av hur den ska fungera i bakgrunden:

  1. När du trycker på slutarknappen har kameran redan tagit tre bilder med en snabb slutartid för att frysa rörelsen i skottet. När du trycker på slutaren tar det ytterligare tre bilder och sedan en längre exponering för att fånga detaljer.
  2. De tre vanliga bilderna och lång exponeringsbilden slås samman i det Apple kallar en "syntetisk lång" - det är en stor skillnad från Smart HDR.
  3. Deep Fusion väljer den korta exponeringsbilden med de flesta detaljer och sammanfogar den med den syntetiska långa exponeringen - till skillnad från Smart HDR, sammanfogar Deep Fusion bara dessa två ramar, inte mer. Dessa två bilder behandlas också för brus på annat sätt än Smart HDR, på ett sätt som är bättre för Deep Fusion.
  4. Bilderna körs genom fyra detaljbehandlingssteg, pixel för pixel, vardera skräddarsydda för ökande mängder av detaljer - himlen och väggarna är i det lägsta bandet, medan hud, hår, tyger och så vidare är den högsta nivån. Detta genererar en serie viktningar för hur du kan blanda de två bilderna - ta detaljer från en och ton, färg och luminans från den andra.
  5. Den slutliga bilden genereras.

Enligt rapporten kommer telelinsen mestadels att använda Deep Fusion, med Smart HDR-funktionen som bara tar över i en bild när det finns mycket ljusa scener. Standardvinkellinsen kommer under tiden att förlita sig mest på Smart HDR-funktionen för ljusa till medelstora ljusa scener, och Deep Fusion kommer att sparka in med scenerna med medium till lågt ljus. Det ultrabreda objektivet kommer aldrig att använda Deep Fusion eller Night Mode, eftersom det bara stöder Smart HDR-funktionen och ingen av de andra funktionerna.

Nattläge sparkar alltid in och är den primära funktionen i ett svagt ljus.

Som nämnts i rapporten testar Apple för närvarande funktionen i en beta av iOS 13. Den beta är för närvarande inte tillgänglig för utvecklare och inte heller offentliga betatestare. Apple kommer sannolikt att fröa den första betaen, med Deep Fusion, någon gång snart, kanske till och med senare idag som iOS 13.2.

Ser du fram emot ankomsten av Deep Fusion?