Amazon Prime Video planea usar IA para doblar programas y películas en idiomas extranjeros al inglés y al español latinoamericano. La compañía ha comenzado un programa piloto que utiliza doblaje «asistido por IA» en 12 películas y series con licencia, incluidos títulos como El Cid: La Leyenda, Mi Mamá Lora y Long Lost.
Amazon dice que el piloto utiliza un enfoque híbrido para el doblaje «en el que los profesionales de la localización colaboran con la IA para garantizar el control de calidad», y dejó en claro que solo utilizará su proceso asistido por IA en contenido que aún no tenga soporte de doblaje.
Muchos cinéfilos creen que ver una versión doblada de una película o serie en un idioma extranjero socava el arte. Dado que la actuación de un actor es una combinación de movimiento, habla y énfasis, es importante experimentarla toda, incluso si necesitas subtítulos para entender lo que se dice. Si el doblaje de IA pudiera preservar el 100% de ese rendimiento, al tiempo que lo convierte a un idioma diferente, podría redefinir lo que significa ver una película doblada.
Por otro lado, el doblaje de IA amenaza el sustento de los actores de doblaje profesionales. En 2023, los actores de doblaje dieron la voz de alarma a través de la Asociación Nacional de Actores de Locución (NAVA). Emitió consejos para los actores de doblaje, diciéndoles que nunca otorguen derechos de síntesis a un cliente y que se comuniquen con su sindicato o con un abogado si sospechan que el contrato está tratando de quitarles sus derechos.
Entre sus preocupaciones estaba que los estudios pudieran usar la IA para editar líneas de diálogo, en efecto obteniendo nuevas actuaciones de los actores sin llevarlos de vuelta al estudio de grabación (o pagarles para que lo hicieran).
Amazon no es la primera empresa en emplear el doblaje basado en IA. En 2023, Spotify estrenó una herramienta basada en la tecnología de OpenAI que le permitía clonar las voces de sus presentadores de podcasts y doblarlas a otros idiomas.
Esa tecnología ha seguido mejorando a un ritmo espectacular. En 2024, OpenAI se jactó de que solo necesitaba 15 segundos de audio de muestra para crear un clon de IA de la voz de alguien. Solo unos meses después, Microsoft, que ha invertido mucho en OpenAI, reveló que su propio modelo de voz de IA de última generación, VALL-E 2, era demasiado peligroso para lanzarlo, según su realismo, lo que provocó temores de uso indebido.