No eres solo tú, los resultados de búsqueda realmente están empeorando. Los investigadores de Amazon Web Services (AWS) han realizado un estudio que sugiere que el 57% del contenido en Internet hoy en día es generado por IA o traducido utilizando un algoritmo de IA.
El estudio, titulado «A Shocking Amount of the Web is Machine Translated: Insights from Multi-Way Parallelism«, argumenta que la traducción automática (TA) de bajo costo, que toma un determinado fragmento de contenido y lo regurgita en varios idiomas, es la principal culpable. «Las traducciones paralelas multidireccionales generadas por máquinas no solo dominan la cantidad total de contenido traducido en la web en idiomas de bajos recursos donde la traducción automática está disponible; También constituye una gran fracción del contenido web total en esos idiomas», escribieron los investigadores en el estudio.
También encontraron evidencia de sesgo de selección en qué contenido se traduce automáticamente a varios idiomas en comparación con el contenido publicado en un solo idioma. «Este contenido es más corto, más predecible y tiene una distribución temática diferente en comparación con el contenido traducido a un solo idioma», escribieron los investigadores.
Además, la creciente cantidad de contenido generado por IA en Internet, combinado con la creciente dependencia de las herramientas de IA para editar y manipular ese contenido, podría conducir a un fenómeno conocido como colapso del modelo, y ya está reduciendo la calidad de los resultados de búsqueda en la web. Dado que los modelos de IA de frontera como ChatGPT, Gemini y Claude dependen de cantidades masivas de datos de entrenamiento que solo se pueden adquirir raspando la web pública (ya sea que viole los derechos de autor o no), tener la web pública llena de contenido generado por IA, y a menudo inexacto, podría degradar gravemente su rendimiento.
«Es sorprendente lo rápido que se produce el colapso del modelo y lo difícil que puede ser», dijo el Dr. Ilia Shumailov de la Universidad de Oxford a Windows Central. «Al principio, afecta a los datos de las minorías, a los datos que están mal representados. A continuación, afecta a la diversidad de las salidas y la varianza se reduce. A veces, se observa una pequeña mejora en los datos de la mayoría, que oculta la degradación del rendimiento de los datos de las minorías. El colapso del modelo puede tener graves consecuencias».
Los investigadores demostraron esas consecuencias haciendo que lingüistas profesionales clasificaran 10.000 oraciones en inglés seleccionadas al azar de una de las 20 categorías. Los investigadores observaron «un cambio dramático en la distribución de los temas al comparar los datos paralelos de 2 vías a 8+ (es decir, el número de traducciones de idiomas), con temas de ‘conversación y opinión’ que aumentaron del 22,5% al 40,1%» de los publicados.
Esto apunta a un sesgo de selección en el tipo de datos que se traducen a varios idiomas, que es «sustancialmente más probable» que provengan del tema de «conversación y opinión».
Además, los investigadores descubrieron que «las traducciones paralelas altamente multidireccionales son significativamente de menor calidad (6,2 puntos de estimación de calidad del cometa peores) que las traducciones paralelas de 2 vías». Cuando los investigadores auditaron 100 de las oraciones paralelas altamente multidireccionales (aquellas traducidas a más de ocho idiomas), encontraron que «una gran mayoría» provenía de granjas de contenido con artículos «que caracterizamos como de baja calidad, que requerían poca o ninguna experiencia, o esfuerzo previo para crear».
Eso ciertamente ayuda a explicar por qué el CEO de OpenAI, Sam Altman, sigue insistiendo en que es «imposible» hacer herramientas como ChatGPT sin acceso libre a obras con derechos de autor.