-
PLUS
Krönika: Tunnkollaps – Motorola har 13 dagar på sig att lägga ner Edge 70
-
PLUS
Duell bästa vikbara: Samsung Galaxy Z Fold 7 mot Google Pixel 10 Pro Fold
-
PLUS
Krönika: Iphone Air kommer att floppa
-
PLUS
Nästa flaggskepp, T9, Lyca Mobile, vad är bildmotor och mer – Mobil svarar
-
PLUS
Krönika: Allt är relativt, storleken också
-
PLUS
Duell: Samsung Galaxy A17 mot Motorola Moto G56
-
PLUS
Krönika: Snabb mobil oavsett prestanda
-
PLUS
Intervju: Oppos Nordenchef om inträdet på svenska marknaden
-
PLUS
Krönika: Lanseringarna som skapar en lucka i tiden
-
PLUS
Nyheterna i Samsung One UI 8 på djupet
Google IO
Vi sammanfattar det viktigaste från Google IO 2024
Här kan du se det viktigaste från Googles inledningsanförande på utvecklarkonferensen Google IO 2024.
Det var tydligt AI-fokus på Googles utvecklarkonferens, precis som väntat, men vi fick inte se något av kommande telefoner eller annan hårdvara, inte ens en smygtitt på kommande prylar. Inte heller nämndes ett ord om Wear OS.
Istället var det stort fokus på de som faktiskt konferensen riktas till, mjukvaruutvecklare, och hur de kan använda AI för att skapa nya tjänster och användarupplevelser. Vi fick också se många exempel på hur AI tar plats i Googles tjänster som Gmail, Google Foto, Maps och Sök.
I Sök ger AI översikter så att du kan ställa komplexa frågor i flera steg och på det sättet låta Google ge dig snyggt uppspaltade svar. Sök baseras fortfarande på Googles fundament med värdering av vilka källor som är betrodda, men sökupplevelsen laddas med AI och ska kunna planera, sammanfatta, jämföra och utvärdera åt dig.
I Google Foto ska du kunna fråga avancerade frågor baserat på de bilder du har lagrat där. Till exempel "vad är registreringsnumret på min bil" eller "när lärde sig min dotter simma" och så ska Google kunna svara på det, baserat på de bilder du har.
I Gmail kommer AI kunna sammanfatta långa mailtrådar och ge svar på frågor baserat på sökningar i allt från bilagor till separata konversationer.
En sak som google betonade gång på gång var att deras AI-motor Gemini är multimodal från grunden. Det innebär att den egentligen är neutral inför vilken form informationen in och ut har. Det ger många fördelar. Googles Gemini kan översätta bilder till text men också sammanställa information som finns i både bild, text och ljud. Ett exempel på det är att du i olika Google-funktioner kommer att kunna göra sökningar genom att spela in en video där du till exempel visar en pryl som inte fungerar och frågar vad det kan bero på.
Men också åt andra hållet. Google gav ett exempel på hur man matar in kurslitteratur i motorn och ber den presentera informationen muntligt för folk som lär sig lättare på det viset. I exemplet lästes inte informationen upp, utan den levererades som en dialog mellan två personer, och du kunde dessutom bryta in med frågor som de då tog upp och svarade på.
Google lade även upp riktningen för Android 15 där AI står i centrum och det läser du mer om här i vår separata nyhet om det.