Si alguna vez has usado ChatGPT, podría haberte sorprendido descubrir que, en ocasiones, la inteligencia artificial (IA) parece “pensar” en chino u otros idiomas, incluso cuando la conversación está completamente en inglés o en español. Este curioso fenómeno no solo ha llamado la atención de los usuarios, sino que también ha generado un debate entre expertos en inteligencia artificial sobre a qué se debe esta rareza.
El origen del misterio
El caso más notable de este comportamiento se dio poco después del lanzamiento del modelo de razonamiento llamado “o1” por OpenAI. Algunos usuarios comenzaron a notar que el modelo aparentemente “cambiaba” de idioma a mitad de sus pasos lógicos. Por ejemplo, si se le preguntaba algo como “¿Cuántas R hay en la palabra ‘strawberry’?”, el modelo podía llegar a la respuesta final en inglés, pero, mientras la procesaba, algunos pasos intermedios mostraban frases o razonamientos en chino, persa u otros idiomas.
Why did o1 pro randomly start thinking in Chinese? No part of the conversation (5+ messages) was in Chinese… very interesting… training data influence pic.twitter.com/yZWCzoaiit
— Rishab Jain (@RishabJainK) January 9, 2025
En redes sociales como Reddit o X (Twitter), varios usuarios compartieron experiencias similares, preguntándose por qué la IA cambiaba de idioma sin motivo aparente. Lo más curioso es que OpenAI no ha dado una explicación oficial al respecto, por lo que nadie sabe a qué se debe exactamente. Sin embargo, el fenómeno ha dejado a expertos y curiosos especulando sobre las posibles razones.
Teorías sobre el “pensamiento” en otro idioma de la IA
Aunque no hay una respuesta definitiva, se han propuesto varias teorías que intentan explicar este curioso fenómeno:
1. Influencia de los datos de entrenamiento
Una de las teorías más populares sugiere que este comportamiento podría estar relacionado con los datos utilizados para entrenar los modelos. Sistemas como o1 están entrenados con grandes volúmenes de información en varios idiomas, incluyendo inglés, chino, persa, hindi y otros. Además, se ha señalado que OpenAI y otras empresas de IA recurren a servicios de etiquetado de datos en distintas regiones del mundo, como China, debido a la disponibilidad de expertos y menores costos.
El etiquetado de datos, un proceso en el que humanos ayudan a los modelos a clasificar y comprender información, podría influir en los patrones de razonamiento del modelo. Si una gran proporción de los datos etiquetados provienen de regiones donde se habla chino, es posible que esto genere un sesgo hacia ese idioma. Este sesgo podría explicar por qué o1 a veces “piensa” en chino o utiliza estructuras lingüísticas propias de ese idioma para resolver tareas complejas.
2. Eficiencia lingüística
Otra explicación interesante se centra en las características intrínsecas de ciertos idiomas, que los hacen más eficientes para determinadas tareas. Por ejemplo, en chino, cada dígito numérico tiene solo una sílaba, lo que podría hacer que sea más práctico para cálculos matemáticos o tareas que requieren manipular números rápidamente.
Algunos investigadores especulan que los modelos podrían “preferir” ciertos idiomas dependiendo del tipo de tarea, simplemente porque encuentran patrones más óptimos en ese idioma. Un ingeniero de la startup de IA Hugging Face comparó este fenómeno con la forma en que los humanos cambian de idioma según el contexto: alguien que aprendió matemáticas en chino podría encontrar más fácil realizar cálculos en ese idioma, mientras que utilizaría otro idioma para expresar conceptos abstractos como los de filosofía o literatura.
3. La naturaleza probabilística de los modelos
A diferencia de la idea de que algunos idiomas son más eficientes para ciertas tareas (como se menciona en el punto anterior), esta teoría se basa en cómo las IA procesan el texto. Los modelos no “entienden” las palabras como nosotros; en su lugar, dividen el texto en fragmentos pequeños llamados “tokens” (que pueden ser palabras, sílabas o caracteres). Durante su entrenamiento, los modelos aprenden a identificar patrones en estos tokens para elegir la respuesta más probable en cada caso.
Si el modelo ha visto que ciertas tareas complejas, como resolver problemas matemáticos o de lógica, se realizan con más frecuencia en chino durante su entrenamiento, podría asociar este idioma con esos tipos de razonamientos. En este caso, no es que el chino sea mejor para esas tareas, sino que el modelo “cree” que es el camino más lógico porque encontró patrones más consistentes en ese idioma durante su aprendizaje. Esta teoría pone el énfasis en el funcionamiento interno del modelo.
4. Posible “alucinación” de la IA
A side effect of this is it tends to hallucinate in other, unwarranted languages.
This is an easy question in Arabic that sent it into a yapping session in (presumably) Russian. https://t.co/IJfpBwvAv8 pic.twitter.com/FFEHDeGpGc
— Amgad Hasan (@AmgadGamalHasan) November 30, 2024
En algunos casos, el cambio de idioma podría ser una forma de “alucinación” de la IA, un término utilizado para describir cuando los modelos generan respuestas que no tienen sentido o que no están relacionadas con la pregunta inicial. Estas alucinaciones son producto de asociaciones internas erróneas creadas durante el entrenamiento.
Este fenómeno puede surgir cuando los modelos intentan “rellenar los vacíos” en su razonamiento, generando respuestas inesperadas que a veces incluyen idiomas distintos al de entrada. Aunque las alucinaciones son un comportamiento conocido en la IA, su relación con el uso de múltiples idiomas sigue siendo un área de estudio.
La falta de transparencia en los procesos de la IA
Uno de los mayores desafíos para entender este comportamiento es la opacidad de los sistemas de IA. Como mencionó un investigador del Instituto Allen para la IA a TechCrunch, es extremadamente difícil analizar por qué los modelos toman ciertas decisiones, ya que sus procesos internos son en gran medida incomprensibles incluso para sus creadores. Esto resalta la necesidad de mayor transparencia en cómo se desarrollan y entrenan estas tecnologías.
Solo podemos especular
using o1 to help me recall a song… wild to see it switch to french mid chain-of-thought 🫨 pic.twitter.com/7AM2DK19XR
— Luca Soldaini 🎀 (@soldni) September 16, 2024
Aunque aún no tenemos una respuesta definitiva sobre por qué ChatGPT y otros modelos de IA “piensan” en chino u otros idiomas, estas teorías nos ofrecen una mejor comprensión de cómo funcionan estas herramientas. Ya sea por la influencia de los datos de entrenamiento, la eficiencia o simples asociaciones probabilísticas, este fenómeno resalta lo complejos y misteriosos que pueden ser estos sistemas. Mientras OpenAI u otras empresas no entreguen más detalles, solo podemos especular sobre las razones detrás de este comportamiento.