Los avances en IA conversacional y de generación de imágenes están siendo tan espectaculares como continuados. En cuestión de unos pocos meses se han abierto al público varias plataformas capaces de proporcionar resultados virtualmente indistinguibles de los creados por un ser humano de carne y hueso salvo en los más nimios detalles, y tras la sorpresa que ha supuesto
ChatGPT, ahora Microsoft ha anunciado
VALL-E, una IA capaz de simular la voz de una persona con una muestra de solo tres segundos.
Este "modelo neuronal de códec de lenguaje" destaca por una elevadísima capacidad de síntesis del habla, posible gracias a una biblioteca de audio creada inicialmente por Meta que contiene 60.000 horas de inglés hablado por más de 7.000 interlocutores. Como suele suceder con muchos de estos registros para investigación y desarrollo (desde rostros para reconocimiento fácil a composiciones artísticas para generación de imágenes), gran parte de las muestras de audio
proceden del dominio público, y más concretamente de los audiolibros de LibriVox.
Partiendo de esta vasta colección de sonidos humanos, VALL-E puede imitar una voz a partir de un corte de tres segundos y una
ground truth a partir de una grabación de esa misma persona diciendo una frase concreta para ejecutar posteriormente una comparación. Con estos datos, la IA puede pronunciar los textos introducidos con sorprendente fidelidad. Según indica ArsTechnica, algunas frases pueden sonar algo enlatadas, pero otras pueden confundirse fácilmente con el habla de una persona real, manteniendo un tono emocional verosímil.
Microsoft tiene grandes expectativas para VALL-E. Algunos de sus posibles usos pasarían por la creación de aplicaciones de texto a voz de alta calidad, algo que podría ser muy útil para personas afectadas de dolencias en las partes del cuerpo que hacen posible el habla a nivel mecánico, así como para aquellas con problemas neurodegenerativos. Sin embargo, también existe un riesgo importante de que se produzca un uso fraudulento de VALL-E, y por este motivo Microsoft no ha querido divulgar el código. Lo que sí ha publicado es un
paper que puede ser leído en
este enlace.
Fuente: ArsTechnica