För perfekta månar och bebisar

Krönika: AI-fotografering är inte nödvändigtvis fel, utom när det blir fel

Fuskar mobiltillverkarna med dina kamerabilder? Ibland. Spelar det någon roll? Ibland.

Publicerad Uppdaterad

Ända sedan Huawei först lanserade en mobilkamera med en zoom som kunde fota månen i detalj har rykten om fusk snurrat. Det ryktades att en användare fotat en boll och fått en bild av månen påklistrad.

Härom veckan beslöt en fotograf att gå till djupet med frågan, i detta fall med en Samsungmobil. Metoden han använde var smart. Han tog en bild av månen med en proffskamera och reducerade detaljerna i bilden innan han förstorade upp den och fotograferade av den med Samsungmobilen. Resultatet presenterades på Reddit. Han fick en mer detaljerad bild av månen än vad som fanns i originalmotivet. Fusk kunde därmed anses vara bevisat.

Det fick Samsung att gå ut med ett pressmeddelande där de förklarade hur deras mobil arbetade med månläget. Till Samsungs försvar ska sägas att det definitivt inte är så trivialt som att klistra in en bild av månen när man känner igen motivet. Visserligen vänder månen alltid samma sida mot jorden, men den vobblar lite i sin bana och därför varierar det ändå lite vad vi ser av månen och i vilken vinkel. Om man bara klistrade in en månbild skulle alltså haven och kratrarna på månen skifta plats en smula, och det finns det inga tecken på att de gör i Reddit-fotografens experiment. Det handlar istället om att först känna igen att det är månen som fotograferas, sedan identifiera enskilda detaljer och förstärka upp dem utifrån en databas över hur månen ser ut i olika faser och väder.

Ända sedan Huawei först lanserade en mobilkamera med en zoom som kunde fota månen i detalj har rykten om fusk snurrat. Det ryktades att en användare fotat en boll och fått en bild av månen påklistrad.

Härom veckan beslöt en fotograf att gå till djupet med frågan, i detta fall med en Samsungmobil. Metoden han använde var smart. Han tog en bild av månen med en proffskamera och reducerade detaljerna i bilden innan han förstorade upp den och fotograferade av den med Samsungmobilen. Resultatet presenterades på Reddit. Han fick en mer detaljerad bild av månen än vad som fanns i originalmotivet. Fusk kunde därmed anses vara bevisat.

Det fick Samsung att gå ut med ett pressmeddelande där de förklarade hur deras mobil arbetade med månläget. Till Samsungs försvar ska sägas att det definitivt inte är så trivialt som att klistra in en bild av månen när man känner igen motivet. Visserligen vänder månen alltid samma sida mot jorden, men den vobblar lite i sin bana och därför varierar det ändå lite vad vi ser av månen och i vilken vinkel. Om man bara klistrade in en månbild skulle alltså haven och kratrarna på månen skifta plats en smula, och det finns det inga tecken på att de gör i Reddit-fotografens experiment. Det handlar istället om att först känna igen att det är månen som fotograferas, sedan identifiera enskilda detaljer och förstärka upp dem utifrån en databas över hur månen ser ut i olika faser och väder.

Det är alltså å ena sidan tekniskt avancerat att kunna få en så bra bild av månen som man får med de mobilkameror som klarar av den här typen av månfotografering, men å andra sidan klarar sensorn inte på riktigt av att fånga den bild du fått.

Är detta viktigt? Ja och nej. Har du knäppt en bild på månen vill du förmodligen ha en bra bild på månen, samtidigt som du nog inte väntar dig att få en astronomiskt korrekt bild med en mobilkamera. Man kan säga att Samsung här lägger krut på att ge dig det du förväntar dig att få.

Å andra sidan är det egentligen rätt meningslöst att fota bara månen, och den främsta anledningen att Huawei och Samsung har detta månläge är för att marknadsföra den kraftfulla zoom de har i sina kameror. Här blir det ju vilseledande eftersom de skarpa månbilderna egentligen inte är ett resultat av zoomkameran utan av (den visserligen minst lika tekniskt imponerande) AI-beräkningen.

Den nya Huawei P60 sägs däremot kunna ta bilder med motiv där du får en skarp måne tillsammans med till exempel en skyline från en stad, något Samsung i dagsläget inte klarar. Då blir det ju en annan sak. Den funktionen gör att du kan få snygga bilder du annars inte kunnat få och som samtidigt är rättvisande mot motivet. Att det sedan inte är vad kamerasensorn klarar av att leverera kanske man bryr sig om som kamerapuritan, men inte som användare som vill ta en snygg bild. Förutsatt att det verkligen är den bild man vill ta. Det är ju teoretiskt möjligt att någon hade haft den suddiga bilden med månen på sin vägg och i en bild på rummet fått en uppskärpt måne man inte vill ha. Samsung har lovat att deras månläge ska bli bättre på att se skillnad på månen och foton av månen.

Exemplet ovan är konstruerat, men väldigt relevant i andra sammanhang där man använder ai-baserad förbättring av bilden för att lägga till information som inte finns i källfilen. Ett exempel på hur snett det kan gå visade en användare på Twitter som hade använt “remastering”-funktionen i Samsungs galleriapp på en bebisbild. Den garanterat tandfria bebisen fick se sin tunga utbytt mot en prydlig liten tandrad, utöver att ögonen “snyggades till”.

Försök med andra bebisbilder har inte gett samma resultat, så problemet är säkert inte utbrett. Och det är rimligt och begripligt att det inte blir perfekt varje gång artificiell intelligens ska försöka tolka bildkällan. Det bästa vore ju om användaren fick veta att bilden bearbetats och gavs möjligheten att välja mellan originalbilden och den bearbetade bilden. I fallet med bebisbilden gör användaren ett aktivt val att bearbeta bilden som är lätt att ångra. Med månbilden sker det bakom ryggen på användaren, och vem vet vilka andra situationer AI-förbättring sker utan att vi vet om det?