Skulle hjälpa

Krönika: Mobilkameran, systemkameran och AI som verkligen inte funkar

Mobilkameran brukade ha tydliga nackdelar jämfört med en “riktig” kamera, men det är sedan länge allt mindre påtagligt. En ytterligare hjälp på traven skulle AI vara, för med beräkningskraft och intelligens skulle man komma runt faktiska begränsningar. Det hoppet verkar dock vara helt bortblåst.

Publicerad Uppdaterad

Jag började reflektera över det här häromdagen, när Xiaomi släppte en mobil med en kameramodul med fyra kameraplatser. Tre av dem var fyllda med kameror, en var tom och där stod det AI. Vänta nu, tänkte jag för att sedan skeptiskt fråga mig om de då ens vet vad AI är. Men låt oss börja från början.

AI är helt klart ett svårt begrepp att greppa och det används titt som tätt felaktigt. Många är mobiltillverkarna som lätt sätter klistermärket AI på nya “smarta” funktioner utan att det är befogat. 

Inte bara en kamera, men ibland ändå en kamera

Jag började reflektera över det här häromdagen, när Xiaomi släppte en mobil med en kameramodul med fyra kameraplatser. Tre av dem var fyllda med kameror, en var tom och där stod det AI. Vänta nu, tänkte jag för att sedan skeptiskt fråga mig om de då ens vet vad AI är. Men låt oss börja från början.

AI är helt klart ett svårt begrepp att greppa och det används titt som tätt felaktigt. Många är mobiltillverkarna som lätt sätter klistermärket AI på nya “smarta” funktioner utan att det är befogat. 

Inte bara en kamera, men ibland ändå en kamera

HTC One M8, med inte bara en kamera.

De första tecknen på AI i mobilkamerorna var egentligen porträttläget som dök upp runt 2015. HTC släppte sin HTC One M8 med en extra hjälpkamera och möjlighet att ställa om skärpa i efterhand. Huawei var tidiga även de med P9 och P9 Plus som hade dubbla kameror (dock inte för porträtt) och Apple släppte Iphone 7 Plus med dubbla kameror och porträttläge 2016. Sedan dess har vi sett att mobiler även med bara en kamera har liknande porträttlägen. Om vi jämför bilder från en mobilkamera med de från en systemkamera eller bara en lite mer avancerad kompaktkamera så är det just bokeh-effekten med oskarp bakgrund samtidigt som motivet är i skärpa som är tydligaste exemplet. Det har så klart blivit en tydlig morot för mobiltillverkarna att överbrygga och man gör det med AI. Man härmar alltså systemkamerans rent optiska effekt med hjälp av mjukvara.

Första stegen

Det här har ofta varit allt annat än lyckat. Resultaten vi kunnat bevittna har sträckt sig från onödigt till rent felaktigt. De första stegen i AI-utvecklingen när det gäller kamera var hur telefonen kunde känna igen himmel, katt, snö, hund, människa och ställa in inställningarna baserat på det. Till oklar nytta, för vad skiljer en bra bild på en hund från en på en katt? När vi idag ser på exempelbilder från de första mobilkamerorna med “smart” teknik ser det mer eller mindre ut som de pytsat ut skärpa och oskärpa i motivet helt på måfå. Utvecklingen har gått framåt. På vägen fram till idag har vi bevittnat LG G7 Thinq som i kameraappen skrev ut allt den tyckte sig se. I komplett mörker tyckte den sig se både öl och människor, något som vi kan intyga var helt fel. I en kyrka tyckte den att bänkraderna måste vara innertak och den ser evighetsbassänger överallt. Siktade vi kameran mot en fontän föreslog kameran att det var öl eller vin i den.

LG G7 Thinq

Det finns några goda exempel också. En av de mer genomtänkta funktionerna är de jag uppmärksammat tidigare i Samsungs kameraapp, att den kan varna dig om någon du tog kort på blinkade i kameraögonblicket eller om du råkade skymma en del av linsen med fingret. Så att du direkt kan ta om bilden. Den kan även märka om linsen är smutsig och behöver rengöras. Sedan finns det flera exempel där AI gjort nytta när bilderna väl är tagna, då tekniken kan sortera och kategorisera dina bilder efter vad de föreställer. Samsung är inte felfria de heller för där har jag fått information om att bilden jag tog i strandkanten på Djurgården i Stockholm visade en krokodil. 

Grönt blev illgrönt

Anledningen till att jag slogs av mobiltillverkarnas strävan att överträffa eller mäta sig med systemkamerorna just denna gång var en telefon jag just börjat testa. Som jag nämnde i inledningen har Xiaomi Redmi Note 11 Pro inte bara AI-läge i kameraappen utan även AI skrivet i en av kameragluggarna på baksidan. Och detta är ett av de tydligaste exemplen på AI jag upplevt. För det var så tydligt. 

Två sekunder efter att jag med AI aktiverat riktade kameran mot min lunch signalerade kameraappen Mat och vred upp färgmättnaden till det dubbla, så att grönt blev illgrönt. Långt ifrån hur maten faktiskt såg ut. Samtidigt blev den trägrå bordsskivan rödbrun.

Som en liten parentes är ju det här en annan utveckling för kamera och foto. Det handlar inte alltid om att skapa en korrekt bild. Oftare om att skapa något unikt, något som drar uppmärksamhet till sig. 

Men åter till Xiaomi Redmi Note 11 Pro. Två sekunder efter att jag riktar bort kameran från maten och mot en person istället skruvas färgerna ner och Porträtt-ikonen dyker upp istället. Då växlar kameran till mer normal färgåtergivning, men jag märker inga positiva effekter av AI.

Tur att AI i det här fallet gick att stänga av för det var så klart exakt vad jag efter dessa erfarenheter gjorde.

Ingen är felfri

Inte ens Samsungs senaste flaggskepp Samsung Galaxy S22 Ultra är felfri, långt därifrån. Den har förbättrat porträttläge som med hjälp av AI ska hitta minsta lilla hårstrå för att gränsen mellan skarpt och oskarpt ska bli korrekt. Ändå har jag upptäckt flera exempel där “intelligensen” är tillräckligt osmart för att luras av verkligheten och servera felaktiga bilder, bland annat där en sked, på grund av reflekterande ljus gissar jag, av telefonen tolkades som den befann sig i en annan dimension och suddades ut. Vi människor är uppenbarligen med vår verkliga intelligens betydligt smartare än denna artificiella och det övertaget verkar vi av allt att döma få behålla lång tid framöver, på gott och ont.