Kunstig intelligens har lært at genskabe en persons udseende ved hjælp af hans stemme

En usædvanlig udvikling blev præsenteret på Massachusetts Institute of Technology, der udvider mulighederne i intelligente systemer. Nu behøver AI kun at lytte til en kort optagelse af en persons stemme for med høj pålidelighed at bestemme, hvordan han ser ud.

Udviklingen blev opkaldt Speech2Face og er stadig udelukkende videnskabelig, dens distribution er begrænset til akademiske kredse. Formelt taler vi om en anden type generative-kontroversielle neurale netværk, der ved prøving og fejl vælger parametrene for en persons udseende baseret på stemmedata. Desuden overstiger nøjagtigheden af ​​dets arbejde betydeligt resultaterne af tilfældige gæt.

Hvilke algoritmer der blev brugt af amerikanske forskere, vides stadig ikke med sikkerhed. Der er kun resultatet af arbejdet med AI, der overraskende nøjagtigt gengiver nøglefunktionerne ved deltagernes udseende i eksperimentet. Systemet, ud fra billederne at dømme ud fra stemmen bestemmer ikke kun en persons køn og alder, men også hudens farve!

Mest spændende er hovedspørgsmålet: hvorfor oprette en sådan AI? Fra beskrivelsen fra udviklerne følger det, at de nu er fokuseret på at forbedre algoritmer og er meget bange for, at nogen vil bruge den "rå" teknologi til personlig vinding. Men de har brug for store datasæt og test for at øge repræsentativiteten, så de er nødt til at tage risici og ty til hjælp fra det globale videnskabelige samfund. Det er meget muligt, at målet med Speech2Face vil være at skabe et nyt værktøj til at udsætte eller omvendt generere deepfakes.