Funktioner i bakgrunden

Krönika: När AI meckar med våra bilder utan att vi bett om det

Det är svårt att jämföra mobilkameror när automatiken varit framme.

Det var länge sedan bildkvaliteten hos en mobilkamera avgjordes av sensorer och optik. Idag när du tar en bild bränner mobilkameran av en skur av exponeringar och kombinerar ihop dem för att få bättre skärpa, ljusstyrka och färgåtergivning. 

AI är också en faktor. Alltså inte när du i bildvisningsprogrammet i efterhand redigerar bilden för att ta bort oönskade detaljer, utan saker som sker automatiskt utan att du kan påverka det. Förra vändan artificiell intelligens i mobilen var Nästa Stora Grej var det i samband med att AI började kunna känna igen vad bilder föreställde. Toppmodellerna hade då så kallade AI-kameror som skulle tolka motivet och göra bättre bilder av det.

Exakt på vilket sätt en bild blev bättre av att kameran kunde se skillnad på en hund och en katt, vilka anpassningar av bilden som gjordes med hjälp av den informationen, framgick aldrig, och efter en tid slutade mobiltillverkarna att prata om AI-kameror.

Det var länge sedan bildkvaliteten hos en mobilkamera avgjordes av sensorer och optik. Idag när du tar en bild bränner mobilkameran av en skur av exponeringar och kombinerar ihop dem för att få bättre skärpa, ljusstyrka och färgåtergivning. 

AI är också en faktor. Alltså inte när du i bildvisningsprogrammet i efterhand redigerar bilden för att ta bort oönskade detaljer, utan saker som sker automatiskt utan att du kan påverka det. Förra vändan artificiell intelligens i mobilen var Nästa Stora Grej var det i samband med att AI började kunna känna igen vad bilder föreställde. Toppmodellerna hade då så kallade AI-kameror som skulle tolka motivet och göra bättre bilder av det.

Exakt på vilket sätt en bild blev bättre av att kameran kunde se skillnad på en hund och en katt, vilka anpassningar av bilden som gjordes med hjälp av den informationen, framgick aldrig, och efter en tid slutade mobiltillverkarna att prata om AI-kameror.

Men kanske har man kommit på andra sätt att använda tekniken utan att man talar så mycket om det?

När jag jämför mobilkameror har ett av de bästa sätten att avgöra bildens skärpa varit att fotografera text. Särskilt för inzoomade bilder och bilder tagna i mörker, en favorit har varit att fotografera en bokhylla i ett mörkt rum och jämföra texten på ryggarna.

På sistone har jag insett att detta inte längre fungerar. Många tillverkares mobilkameror verkar nämligen identifiera vad som är text i bilden och skärpa upp texten så att den blir skarp och läsbar när den annars skulle ha varit suddig.

Är inte det bara bra? Tja, om du fotar specifikt för att kunna läsa vad det står kanske. Du kan aldrig få ut mer information ur en bild i efterhand än vad som finns i exponeringen. Om du tar flera bilder och jämför dem, ja, men du kan inte hävda att en bild blivit skarpare om den digitalt efterbehandlats, man har bara lurat dina ögon att tro det.

Låt mig ge ett exempel. Du provar att fota en skylt med tio gångers förstoring med din mobilkamera. Du upptäcker att skylten ser helt skarp ut och tänker “wow vilken bra zoom jag har!”. Sedan ser du en spännande fågel och vill ta en bild av den för att kolla upp i fågelboken. Den blir bara en suddig fläck. För även om AI skulle kunna identifiera det just som en fågel finns det inget sätt att i efterhand skärpa upp den så den blir tydligare, för till skillnad från text på skyltar finns det inget sätt att avgöra hur just den här fågeln såg ut. I det här fallet föredrar du nog att mobilkameran inte ens försöker, för en obehandlad suddig fläck kanske kan ge ett hum om vilka färger fågeln hade på vilka ställen, men om kameran försökt skärpa upp bilden kan motivet ha blivit helt förvrängt på kuppen.

När jag nu jämför mobilkameror tittar jag efter saker som inte är bokstäver, såsom logotyper på skyltar eller bilder på bokryggarna. Ibland kan man se att någon AI fått för sig att en symbol är en bokstav och försökt skärpa till den och förvrängt den på kuppen.