Skip to main content

DT en Español podría recibir una comisión si compras un producto desde el sitio

Esta IA puede falsificar tu voz después de solo tres segundos

La inteligencia artificial (IA) está teniendo un momento ahora, y el viento continúa soplando en sus velas con la noticia de que Microsoft está trabajando en una IA que puede imitar la voz de cualquiera después de haber sido alimentado con una breve muestra de tres segundos.

La nueva herramienta, denominada VALL-E, ha sido entrenada en aproximadamente 60.000 horas de datos de voz en inglés, que Microsoft dice que es «cientos de veces más grande que los sistemas existentes». Usando ese conocimiento, sus creadores afirman que solo necesita un poco de información vocal para comprender cómo replicar la voz de un usuario.

Hombre hablando por teléfono
Fizkes/Shutterstock

Más impresionante, VALL-E puede reproducir las emociones, los tonos vocales y el entorno acústico que se encuentran en cada muestra, algo con lo que otros programas de IA de voz han luchado. Eso le da un aura más realista y acerca sus resultados a algo que podría pasar como un discurso humano genuino.

En comparación con otros competidores de texto a voz (TTS), Microsoft dice que VALL-E «supera significativamente al sistema TTS de disparo cero de última generación en términos de naturalidad del habla y similitud del altavoz». En otras palabras, VALL-E suena mucho más como humanos reales que como IA rivales que encuentran entradas de audio en las que no han sido entrenados.

En GitHub, Microsoft ha creado una pequeña biblioteca de ejemplos creados con VALL-E. Los resultados son en su mayoría muy impresionantes, con muchas muestras que reproducen el tono y el acento de las voces de los oradores. Algunos de los ejemplos son menos convincentes, lo que indica que VALL-E probablemente no sea un producto terminado, pero en general el resultado es convincente.

Enorme potencial y riesgos

Una persona que realiza una videollamada en un dispositivo Microsoft Surface que ejecuta Windows 11.
Microsoft/Unsplash

En un documento que presenta VALL-E, Microsoft explica que VALL-E «puede conllevar riesgos potenciales en el mal uso del modelo, como falsificar la identificación de voz o hacerse pasar por un altavoz específico». Una herramienta tan capaz de generar un discurso que suene realista plantea el espectro de deepfakes cada vez más convincentes, que podrían usarse para imitar cualquier cosa, desde una ex pareja romántica hasta una personalidad internacional prominente.

Para mitigar esa amenaza, Microsoft dice que «es posible construir un modelo de detección para discriminar si un clip de audio fue sintetizado por VALL-E». La compañía dice que también utilizará sus propios principios de IA al desarrollar su trabajo. Esos principios abarcan esferas como la equidad, la seguridad, la privacidad y la rendición de cuentas.

VALL-E es solo el último ejemplo de la experimentación de Microsoft con la IA. Recientemente, la compañía ha estado trabajando en la integración de ChatGPT en Bing, utilizando IA para recapitular sus reuniones de Teams e injertando herramientas avanzadas en aplicaciones como Outlook, Word y PowerPoint. Y según Semafor, Microsoft está buscando invertir $ 10 mil millones en el fabricante de ChatGPT OpenAI, una compañía en la que ya ha invertido fondos significativos.

A pesar de los riesgos aparentes, herramientas como VALL-E podrían ser especialmente útiles en medicina, por ejemplo, para ayudar a las personas a recuperar su voz después de un accidente. Ser capaz de replicar el habla con un conjunto de entradas tan pequeño podría ser inmensamente prometedor en estas situaciones, siempre que se haga bien. Pero con todo el dinero que se gasta en IA, tanto por Microsoft como por otros, está claro que no va a desaparecer pronto.

Recomendaciones del editor