Att prata mellan fyra ögon

Microsofts AI får ett ansikte

Snart kan du komma att se vem du pratar med när du kommunicerar med Microsofts AI Copilot.

Publicerad

Microsoft har lanserat ett nytt experiment i sin AI-assistent Copilot som ska göra samtal med chatboten mer mänskliga. Genom projektet Copilot Labs kan användare nu välja mellan fyrtio olika animerade avatarer som visar realistiska ansiktsuttryck och rörelser under röstsamtal. Avatarerna reagerar i realtid på vad som sägs, vilket ger en mer naturlig och personlig upplevelse jämfört med tidigare text- eller röstbaserade interaktioner. 

Tekniken bakom animationerna bygger på VASA-1, en avancerad AI-modell utvecklad av Microsoft Research. Den kan skapa trovärdiga ansiktsrörelser, inklusive huvud- och munrörelser, utifrån en enda stillbild. Till skillnad från traditionella metoder krävs inga 3D-modeller eller motion capture-system, vilket gör tekniken både snabb och lätt att implementera. 

Syftet med de animerade ansiktena är att minska känslan av att prata med en maskin och istället skapa en mer engagerande och tillmötesgående dialog. Enligt Microsoft kan det vara särskilt användbart i utbildningssammanhang, kundtjänst eller andra situationer där mänsklig närvaro och empati är viktiga. 

Funktionen är i dagsläget begränsad till användare i Storbritannien, Kanada och USA, och finns tillgänglig via Copilot Labs. Det är ännu oklart när eller om den kommer att lanseras i fler länder.