AI rekonstruerar detaljer

I presentationen av S26 nämndes ”Adaptive Pixel-sensorn” för möjligheten att ge S26 Ultra bilder med optisk kvalitet i 10 gångers inzoomning. Vi förklarar vad det faktiskt innebär. 

En av styrkorna S26 Ultra har är bilder med zoom. Det här har varit sant även för föregångarna, sedan Samsung med S20 Ultra för nu sex år sedan introducerade Space Zoom med upp till 100 gångers förstoring.

Sedan dess har en del förbättringar presenterats. Framförallt större sensorer och i S26 Ultra finns optisk zoom i 3x och 5x. Utöver det säger Samsung själva att telefonen tack vare ”Adaptive Pixel-sensorn” erbjuder zoom i motsvarande optisk kvalitet även i 2 och 10 gångers förstoring. Det här var vi intresserade av hur det fungerar och har därför frågat Samsung om en förklaring.

Inget nytt, släpptes redan 2022

Grunden i detta är periskopobjektivet med 5x zoom och sensorn på 50 megapixel. När en användare tar en bild i 5x sparar telefonen en bild på 12 megapixel. Samma utgångspunkt gäller för 10x, men då beskärs den centrala delen av bilden och den del som blir kvar då innehåller enligt Samsung ungefär 12 megapixel användbar bildinformation som kompletteras med AI som rekonstruerar ytterligare detaljer, minskar brus och öka skärpan. Resultatet här är alltså enligt Samsung tillräckligt detaljerat för att det ska motsvara vad man förväntar sig av ett 10x zoomobjektiv och förklaring till att de benämner det som 10x zoom med optisk kvalitet.

Det här är alltså inget nytt, utan snarare Samsungs egen benämning för det som ofta kallas computational photography, alltså bearbetning med hjälp av mjukvara. Adaptive Pixel introducerade Samsung 2022 i samband med S22-serien och släppet av One UI 4.1.