Un algoritmo logra reconstruir el aspecto de una persona sólo con su voz

Un algoritmo desarrollado por el Instituto Tecnológico de Massachusetts (MIT), en Estados Unidos, ha sido capaz de reconstruir el aspecto del rostro de una persona tomando como punto de partida únicamente su voz



No Banner to display

El laboratorio de Ciencias Informáticas e Inteligencia Artificial del MIT (MIT CSAIL) ha publicado Speech2Face (‘de habla a cara’, en inglés), una herramienta que a través de un extracto breve de habla es capaz de determinar factores como la edad, el género y la etnia de una persona.

Los autores del estudio han asegurado que su objetivo «no es reconstruir una imagen precisa de la persona, sino más bien recuperar características físicas que están correlacionadas con el habla».

Este proyecto busca saber hasta qué punto es posible saber el aspecto de una persona a partir de su voz, y se inspira en la manera en que las personas construimos modelos de los rasgos de alguien de quien solamente conocemos su voz.

Speech2Face funciona a través de una red neuronal de aprendizaje profundo diseñada y entrenada a partir de la base de datos abierta AVSpeech, compuesta por más de 100.000 personas hablando en fragmentos cortos de seis segundos.

Los resultados a la hora de identificar a personas de etnias blancas y asiáticas han sido buenos, según los investigadores, pero no tanto en los casos de personas de raza negra o de India, posiblemente debido a su menor presencia en las bases de datos.

Fuente: La Nación



Articulos relacionados