På djupet

Så funkar mobilens kamerasensorer: Mer än bara megapixel

Vi förklarar hur mobilens kamera jobbar för att ge bra bilder, och varför 50 megapixel inte är 50 megapixel.

Publicerad

De flesta mobiltelefoner har idag kameror med 48-50 megapixels upplösning, men du som användare får bilder med 12 megapixels upplösning. Det gör förstås att bildfilens storlek inte spårar ur, men det finns fler skäl än så till att du inte får dina mobilbilder i sensorns fulla upplösning. Vi börjar med att förklara hur kamerasensorn registrerar bilden.

Så funkar mobilkamerasensorn

Varje “pixel” på mobilkamerans sensor är i princip en liten enkel fotosensor som registrerar ljusstyrkan på det infallande ljuset. Inte färgen.

De flesta mobiltelefoner har idag kameror med 48-50 megapixels upplösning, men du som användare får bilder med 12 megapixels upplösning. Det gör förstås att bildfilens storlek inte spårar ur, men det finns fler skäl än så till att du inte får dina mobilbilder i sensorns fulla upplösning. Vi börjar med att förklara hur kamerasensorn registrerar bilden.

Så funkar mobilkamerasensorn

Varje “pixel” på mobilkamerans sensor är i princip en liten enkel fotosensor som registrerar ljusstyrkan på det infallande ljuset. Inte färgen.

För att få ut färginformation ligger det därför ett färgfilter över varje sensor, ett så kallat bayer-filter som alltså bara registrerar en färg. Därför är det redan här missvisande att kalla sensorerna för pixlar. Pixlarna på skärmen motsvaras ju av lampor i de tre primärfärgerna som lyser olika starkt och tillsammans bildar tre färgade lampor en pixel. Pixlarna i kamerasensorn motsvarar alltså snarare färglamporna än pixlarna på skärmen. Men å andra sidan, om du har en Oled-skärm på mobilen fuskar man med pixlarna på samma sätt. Det finns inte en lampa av varje färg för varje pixel utan för vissa färger delar flera pixlar samma lysdiod.

Varje pixel på kamerasensorn registrerar alltså ljus i en färg. Vanligen rött, grönt eller blått, och bayerfiltret har fler gröna filter än de andra färgerna eftersom ögat är mest känsligt i den färgen. Det förekommer varianter på vilka färger som registreras och i vilken mängd men principen är densamma.

Illustration: Canon

Ut kommer alltså en bild där varje pixel har en färg. För att dra slutsatsen om de andra grundfärgerna i pixeln tittar man på de omkringliggande pixlarnas färger och använder ett genomsnitt för dem. Dels är det alltså ett element av beräkning och processande för att få ens en grundläggande bild, dels blir varje pixel en smula diffus eftersom dess färger måste gissas. Därför är det inte så enkelt att bara få ut en bild i kamerasensorns fulla upplösning.

Därför kombineras flera pixlar till en

Att kombinera fyra pixlar till en ger flera fördelar och bättre bilder.

Nu får vi ju normalt inte ut en 50-megapixelbild utan en bild på typiskt 12 eller 12,5 megapixel ur mobilkameran. För att få den kombinerar man alltså fyra bildpunkter till en pixel. Det finns även varianter där en 100-megapixelsensor kombinerar nio bildpunkter till en eller en 200-megapixelsensor kombinerar 16 bildpunkter till en.

Fördelarna med detta är dels att du faktiskt får färginformation från alla färger i varje pixel, bildpunkterna har ju bara en färg men när du kombinerar dem får du med alla färger. Dels minskar bruset i varje pixel. Om en pixel skapas av en bildpunkt finns det risk att just den punkten har fått ett felaktigt värde av rena slumpskäl, men om du kombinerar flera bildpunkter och du tar ett genomsnitt reduceras felet. Men det motverkas delvis av att färgpunkterna blir mindre ju fler du har, och det introducerar mer felkällor.

Illustration: Canon

Storleken har betydelse

Sensorns storlek är viktigare för hur bra kameran är än antalet megapixel.

Antalet megapixel i mobilkameran har blivit standardmåttet för hur bra en mobilkamera är. Det hänger med sedan den tid då kamerorna ofta var lågupplösta. Den första Iphone hade till exempel en 2-megapixelkamera och då var en 4-megapixelkamera självklart bättre eftersom du fick mindre pixliga bilder.

Idag däremot är upplösningen i regel inte en begränsning, och framför allt är den inte ett bra mått på hur bra bilder en mobilkamera tar. Ett betydligt bättre mått är sensorstorleken.

Bild: Sony

Sensorstorleken anges vanligen som ett bråktal av typen 1/x tum, alltså hur stor del av en tum sensorn är på. Ju mindre den andra siffran är, desto större är sensorn alltså. Som exempel har Iphone 17 en sensor på 1/1,56 tum för huvudkameran, det vill säga ungefär två tredjedels tum. Vidvinkelkamerans sensor är däremot på 1/2,55 tum, det vill säga bara lite mer än hälften så stor. Det förklarar varför bilderna från vidvinkelkameran blir sämre trots att kamerorna har samma upplösning.

I praktiken är inte sensorstorleken ett exakt mått, eftersom man mäter sensorns fysiska dimensioner och den faktiska yta som används av bildpunkter är mindre och kan variera mellan olika tillverkare, men det är nära nog för jämförelser.

Rent praktiskt innebär det att ju större sensor du har, desto större blir också bildpunkterna. De kan då ta in mer ljus, och ange sitt färgvärde med större noggrannhet och med mindre risk för fel. Den skillnaden märks mest vid mörkerfotografering där mängden ljus som når kameran är liten. Då kan varje extra registrerad foton göra skillnad.

Om vi tittar på Samsung Galaxy S25 Ultra och Iphone 17 Pro, så har Galaxy S25 Ultra en sensor på 200 megapixel i huvudkameran medan Iphone 17 Pro har en på 48 megapixel. Men sensorerna är ungefär lika stora, 1/1,3 i Galaxy S25 Ultra, 1/1,28 i Iphone 17 Pro. De enskilda pixlarna i Samsungs kamerasensor är alltså mycket mindre.

I teorin är det en nackdel att ha många men små bildpunkter på kamerasensorn framför färre men större, givet samma storlek på sensorn. Det beror på flera skäl, till exempel att bildpunkterna inte tar tillvara hela ytan på sensorn och det därför blir mer dödyta, eller att ljuset på grund av sin vågformiga egenskap sprids när den passerar något så litet som en mobilkameralins, och denna spridning tenderar att bli större än vad bildpunkten är om du har 200 megapixel på en mobilkamerasensor. Det innebär att bruset ökar i pixlarna om de är för små.

Att det ändå inte är självklart vilket som är bäst av färre eller fler pixlar blir tydligt av att de två stora tillverkarna av mobilkamerasensorer, Sony och Samsung, valt varsitt spår. Sony föredrar generellt sensorer med 50 megapixel medan Samsungs bästa sensorer ofta har 200 megapixel. I Samsungs fall framhåller man olika tekniska lösningar som kompenserar för problemen som uppstår vid för små pixlar.

För att sammanfatta så är alltså sensorns storlek en av dess viktigaste egenskaper, men det kan också vara värt att hålla ögonen på storleken på de enskilda pixlarna.

Förlustfri zoom med fler pixlar, funkar det?

Ofta framhålls det att sensorns högre upplösning kan ge inzoomade bilder utan förlust av skärpa. Det är bara delvis sant.

Om en mobilsensor är på 50 megapixel kan man beskära en bild från den i full upplösning till 12 megapixel och på så vis få två gångers zoom utan att man behöver digitalt förstora bilden. Visserligen tappar man lite ljusupptagning eftersom man använder ljuset från mindre yta, men i princip borde väl resultatet bli likvärdigt med att ha en separat telekamera?

Tyvärr inte. Som vi tidigare skrivit så har varje pixel, eller snarare bildpunkt, på sensorn bara en färg. Du kan inte heller stänga av färgfiltren för att få gråskaleupplösningen. Vare bildpunkt motsvarar alltså inte en pixel. Med algoritmer kan man som nämnt gissa sig till alla färgerna i pixeln utifrån omkringliggande pixlar, men det går inte att hävda att beskärningen kan ge en uppförstorad bild utan förluster i bildkvalitet. Kommer du upp i 200 megapixel på sensorn kan du däremot beskära bilden och fortfarande få full färginformation i varje pixel. Du kan också utnyttja flera exponeringar för att få bättre bild.

Beräknande fotografering

Efterbehandlingen av bilderna, där resultatet av mer än en exponering kombineras, blir en allt större del av bildresultatet. Det kallas ibland för Computational Photography, beräknande fotografering.

Om du tar en serie bilder med mycket kort intervall hinner förhoppningsvis inget i motivet röra sig. Med flera bilder att utgå från kan du eliminera bruset i enskilda pixlar, och i dåliga ljusförhållanden kan du avgöra värdet på enskilda pixlar med bättre noggrannhet, det vill säga du får mindre brusiga mörkerbilder. Om du dessutom gör dessa exponeringar med olika kamerainställningar kan du få in mer information om motivet än vad en bild kunde ge, för att till exempel fånga nyanser både i mörka och ljusa partier av bilden samtidigt.

Det här är rätt så beräkningskrävande och kräver prestanda både av kamerasensorn och av mobilens bildbehandlingskretsar. Det är faktiskt här mer än någon annan stans man märker skillnaden mellan toppmodeller och mellanprismobiler. Den extra prestandan gör helt enkelt skillnad på bildresultatet.

En del tillverkare, som Apple och Oneplus, använder detta till att skapa bilder med högre upplösning än 12 megapixel, i Apples fall 18, för Oneplus 26 megapixel, som fortfarande är skarpa och med mer detaljrikedom än 12-megapixelbilderna. Med bara en enda exponering som grund hade dessa bilder inte alls känts lika skarpa uppförstorade som bilderna i normal upplösning.