Skip to main content

DT en Español podría recibir una comisión si compras un producto desde el sitio

Esta IA puede falsificar tu voz después de solo tres segundos

La inteligencia artificial (IA) está teniendo un momento ahora, y el viento continúa soplando en sus velas con la noticia de que Microsoft está trabajando en una IA que puede imitar la voz de cualquiera después de haber sido alimentado con una breve muestra de tres segundos.

La nueva herramienta, denominada VALL-E, ha sido entrenada en aproximadamente 60.000 horas de datos de voz en inglés, que Microsoft dice que es «cientos de veces más grande que los sistemas existentes». Usando ese conocimiento, sus creadores afirman que solo necesita un poco de información vocal para comprender cómo replicar la voz de un usuario.

Hombre hablando por teléfono
Fizkes/Shutterstock

Más impresionante, VALL-E puede reproducir las emociones, los tonos vocales y el entorno acústico que se encuentran en cada muestra, algo con lo que otros programas de IA de voz han luchado. Eso le da un aura más realista y acerca sus resultados a algo que podría pasar como un discurso humano genuino.

En comparación con otros competidores de texto a voz (TTS), Microsoft dice que VALL-E «supera significativamente al sistema TTS de disparo cero de última generación en términos de naturalidad del habla y similitud del altavoz». En otras palabras, VALL-E suena mucho más como humanos reales que como IA rivales que encuentran entradas de audio en las que no han sido entrenados.

En GitHub, Microsoft ha creado una pequeña biblioteca de ejemplos creados con VALL-E. Los resultados son en su mayoría muy impresionantes, con muchas muestras que reproducen el tono y el acento de las voces de los oradores. Algunos de los ejemplos son menos convincentes, lo que indica que VALL-E probablemente no sea un producto terminado, pero en general el resultado es convincente.

Enorme potencial y riesgos

Una persona que realiza una videollamada en un dispositivo Microsoft Surface que ejecuta Windows 11.
Microsoft/Unsplash

En un documento que presenta VALL-E, Microsoft explica que VALL-E «puede conllevar riesgos potenciales en el mal uso del modelo, como falsificar la identificación de voz o hacerse pasar por un altavoz específico». Una herramienta tan capaz de generar un discurso que suene realista plantea el espectro de deepfakes cada vez más convincentes, que podrían usarse para imitar cualquier cosa, desde una ex pareja romántica hasta una personalidad internacional prominente.

Para mitigar esa amenaza, Microsoft dice que «es posible construir un modelo de detección para discriminar si un clip de audio fue sintetizado por VALL-E». La compañía dice que también utilizará sus propios principios de IA al desarrollar su trabajo. Esos principios abarcan esferas como la equidad, la seguridad, la privacidad y la rendición de cuentas.

VALL-E es solo el último ejemplo de la experimentación de Microsoft con la IA. Recientemente, la compañía ha estado trabajando en la integración de ChatGPT en Bing, utilizando IA para recapitular sus reuniones de Teams e injertando herramientas avanzadas en aplicaciones como Outlook, Word y PowerPoint. Y según Semafor, Microsoft está buscando invertir $ 10 mil millones en el fabricante de ChatGPT OpenAI, una compañía en la que ya ha invertido fondos significativos.

A pesar de los riesgos aparentes, herramientas como VALL-E podrían ser especialmente útiles en medicina, por ejemplo, para ayudar a las personas a recuperar su voz después de un accidente. Ser capaz de replicar el habla con un conjunto de entradas tan pequeño podría ser inmensamente prometedor en estas situaciones, siempre que se haga bien. Pero con todo el dinero que se gasta en IA, tanto por Microsoft como por otros, está claro que no va a desaparecer pronto.

Diego Bastarrica
Diego Bastarrica es periodista y docente de la Universidad Diego Portales de Chile. Especialista en redes sociales…
Los generadores de imágenes de IA parecen propagar estereotipos de género y raza
generador imagenes ia propagar estereotipos genero raza im  genes

Los expertos han afirmado que los generadores de imágenes de IA populares, como Stable Diffusion, no son tan expertos en detectar los sesgos de género y culturales cuando utilizan algoritmos de aprendizaje automático para crear arte.

Muchos generadores de texto a arte le permiten ingresar frases y dibujar una imagen única en el otro extremo. Sin embargo, estos generadores a menudo pueden basarse en sesgos estereotipados, que pueden afectar la forma en que los modelos de aprendizaje automático fabrican imágenes. Las imágenes a menudo pueden occidentalizarse o mostrar favores a ciertos géneros o razas, dependiendo de los tipos de frases utilizadas, señaló Gizmodo.

Leer más
La millonaria fiesta en el metaverso de la Unión Europea que fue un fiasco
union europea fiesta metaverso fiasco vignesh moorthy lvjzhvc0us8 unsplash

El metaverso sigue generando chascarros mayúsculos, pero sobre todo, pérdidas millonarias de dinero, luego de que se revelara una mega fiesta digital que organizó la Unión Europea y a la que acudieron solo 6 personas.

Esta fiesta fue organizada por el departamento de ayuda exterior de la Comisión Europea para poder acercar a los jóvenes a este mundo digital con diferentes charlas motivacionales. Pero el resultado ha sido fatídico. El corresponsal de Devex, Vince Chadwick, ha publicado un tweet en el que ha relatado su nefasta experiencia al quedarse solo en esta fiesta.

Leer más
Hinchas rebeldes usan filtros AR en Qatar 2022 para mostrar la bandera del orgullo
hinchas usan filtros ar qatar bandera orgullo lgbtq del

Las autoridades de Qatar están muy preocupadas por cualquier manifestación en la Copa del Mundo que pueda atentar contra sus valores morales, como la famosa bandera del orgullo LGBTQ, prohibida en los estadios y calles.

Por eso, los hinchas han encontrado una forma de evitar la censura: la realidad aumentada (AR).

Leer más