Googles egen babelfisk

Google utvecklar språkmodell för 1000 språk

Googles arbete med att bryta ner språkliga barriärer fortsätter, och nu strävar man efter att nå upp till 1000 olika språk.

Publicerad Uppdaterad

I november 2022 gick Google ut med informationen att man arbetar med en modell för maskininlärning där avsikten är att den ska komma att kunna hantera världens 1000 mest talade språk. Modellen kallas för Universal Speech Model (USM) och den består av två miljarder parametrar där man har använt 12 miljoner timmars med tal och 28 miljarder textbaserade meningar för att lära upp den. För tillfället stöder USM ungefär 300 språk och avsikten är att den ska kunna användas för att översätta fram och tillbaka mellan språk i realtid. En version av USM används redan nu på Youtube för att skapa automatiska undertexter.

Ett led i arbetet med att kunna få USM att omfatta så många språk är att den omfattar modeller för att finjustera sin egen inlärning, och därmed bli allt bättre på egen hand.

Källa