Skip to main content
  1. Casa
  2. Tendencias
  3. Features

¿Por qué la IA de ChatGPT a veces “piensa” en chino?

Si alguna vez has usado ChatGPT, podría haberte sorprendido descubrir que, en ocasiones, la inteligencia artificial (IA) parece “pensar” en chino u otros idiomas, incluso cuando la conversación está completamente en inglés o en español. Este curioso fenómeno no solo ha llamado la atención de los usuarios, sino que también ha generado un debate entre expertos en inteligencia artificial sobre a qué se debe esta rareza.

El origen del misterio

El caso más notable de este comportamiento se dio poco después del lanzamiento del modelo de razonamiento llamado “o1” por OpenAI. Algunos usuarios comenzaron a notar que el modelo aparentemente “cambiaba” de idioma a mitad de sus pasos lógicos. Por ejemplo, si se le preguntaba algo como “¿Cuántas R hay en la palabra ‘strawberry’?”, el modelo podía llegar a la respuesta final en inglés, pero, mientras la procesaba, algunos pasos intermedios mostraban frases o razonamientos en chino, persa u otros idiomas.

Recommended Videos

Why did o1 pro randomly start thinking in Chinese? No part of the conversation (5+ messages) was in Chinese… very interesting… training data influence pic.twitter.com/yZWCzoaiit

— Rishab Jain (@RishabJainK) January 9, 2025

En redes sociales como Reddit o X (Twitter), varios usuarios compartieron experiencias similares, preguntándose por qué la IA cambiaba de idioma sin motivo aparente. Lo más curioso es que OpenAI no ha dado una explicación oficial al respecto, por lo que nadie sabe a qué se debe exactamente. Sin embargo, el fenómeno ha dejado a expertos y curiosos especulando sobre las posibles razones.

Teorías sobre el “pensamiento” en otro idioma de la IA

Aunque no hay una respuesta definitiva, se han propuesto varias teorías que intentan explicar este curioso fenómeno:

1. Influencia de los datos de entrenamiento

Una de las teorías más populares sugiere que este comportamiento podría estar relacionado con los datos utilizados para entrenar los modelos. Sistemas como o1 están entrenados con grandes volúmenes de información en varios idiomas, incluyendo inglés, chino, persa, hindi y otros. Además, se ha señalado que OpenAI y otras empresas de IA recurren a servicios de etiquetado de datos en distintas regiones del mundo, como China, debido a la disponibilidad de expertos y menores costos.

ChatGPT
phoenixmusicman / Reddit

El etiquetado de datos, un proceso en el que humanos ayudan a los modelos a clasificar y comprender información, podría influir en los patrones de razonamiento del modelo. Si una gran proporción de los datos etiquetados provienen de regiones donde se habla chino, es posible que esto genere un sesgo hacia ese idioma. Este sesgo podría explicar por qué o1 a veces “piensa” en chino o utiliza estructuras lingüísticas propias de ese idioma para resolver tareas complejas.

2. Eficiencia lingüística

Otra explicación interesante se centra en las características intrínsecas de ciertos idiomas, que los hacen más eficientes para determinadas tareas. Por ejemplo, en chino, cada dígito numérico tiene solo una sílaba, lo que podría hacer que sea más práctico para cálculos matemáticos o tareas que requieren manipular números rápidamente.

Algunos investigadores especulan que los modelos podrían “preferir” ciertos idiomas dependiendo del tipo de tarea, simplemente porque encuentran patrones más óptimos en ese idioma. Un ingeniero de la startup de IA Hugging Face comparó este fenómeno con la forma en que los humanos cambian de idioma según el contexto: alguien que aprendió matemáticas en chino podría encontrar más fácil realizar cálculos en ese idioma, mientras que utilizaría otro idioma para expresar conceptos abstractos como los de filosofía o literatura.

3. La naturaleza probabilística de los modelos

A diferencia de la idea de que algunos idiomas son más eficientes para ciertas tareas (como se menciona en el punto anterior), esta teoría se basa en cómo las IA procesan el texto. Los modelos no “entienden” las palabras como nosotros; en su lugar, dividen el texto en fragmentos pequeños llamados “tokens” (que pueden ser palabras, sílabas o caracteres). Durante su entrenamiento, los modelos aprenden a identificar patrones en estos tokens para elegir la respuesta más probable en cada caso.

Si el modelo ha visto que ciertas tareas complejas, como resolver problemas matemáticos o de lógica, se realizan con más frecuencia en chino durante su entrenamiento, podría asociar este idioma con esos tipos de razonamientos. En este caso, no es que el chino sea mejor para esas tareas, sino que el modelo “cree” que es el camino más lógico porque encontró patrones más consistentes en ese idioma durante su aprendizaje. Esta teoría pone el énfasis en el funcionamiento interno del modelo.

4. Posible “alucinación” de la IA

A side effect of this is it tends to hallucinate in other, unwarranted languages.

This is an easy question in Arabic that sent it into a yapping session in (presumably) Russian. https://t.co/IJfpBwvAv8 pic.twitter.com/FFEHDeGpGc

— Amgad Hasan (@AmgadGamalHasan) November 30, 2024

En algunos casos, el cambio de idioma podría ser una forma de “alucinación” de la IA, un término utilizado para describir cuando los modelos generan respuestas que no tienen sentido o que no están relacionadas con la pregunta inicial. Estas alucinaciones son producto de asociaciones internas erróneas creadas durante el entrenamiento.

Este fenómeno puede surgir cuando los modelos intentan “rellenar los vacíos” en su razonamiento, generando respuestas inesperadas que a veces incluyen idiomas distintos al de entrada. Aunque las alucinaciones son un comportamiento conocido en la IA, su relación con el uso de múltiples idiomas sigue siendo un área de estudio.

La falta de transparencia en los procesos de la IA

Uno de los mayores desafíos para entender este comportamiento es la opacidad de los sistemas de IA. Como mencionó un investigador del Instituto Allen para la IA a TechCrunch, es extremadamente difícil analizar por qué los modelos toman ciertas decisiones, ya que sus procesos internos son en gran medida incomprensibles incluso para sus creadores. Esto resalta la necesidad de mayor transparencia en cómo se desarrollan y entrenan estas tecnologías.

Solo podemos especular

using o1 to help me recall a song… wild to see it switch to french mid chain-of-thought 🫨 pic.twitter.com/7AM2DK19XR

— Luca Soldaini 🎀 (@soldni) September 16, 2024

Aunque aún no tenemos una respuesta definitiva sobre por qué ChatGPT y otros modelos de IA “piensan” en chino u otros idiomas, estas teorías nos ofrecen una mejor comprensión de cómo funcionan estas herramientas. Ya sea por la influencia de los datos de entrenamiento, la eficiencia o simples asociaciones probabilísticas, este fenómeno resalta lo complejos y misteriosos que pueden ser estos sistemas. Mientras OpenAI u otras empresas no entreguen más detalles, solo podemos especular sobre las razones detrás de este comportamiento.

Karina Tapia
Redes sociales (Facebook, Instagram, TikTok), videojuegos y las últimas tendencias del internet y la industria tecnológica…
Topics
Las zapatillas Nike que se convierten en un Super Nintendo
Nike SNES

El sueño de todo aquel que fue niño entre los ochenta y los noventa, amante de Nintendo y de las zapatillas Nike, por fin se ha consumado en algo parecido a una obra de arte: Las AIR SNES son una versión muy personalizada de las Nike Air Max 90 que sirven para jugar Super Nintendo.

Para celebrar el 35º aniversario del lanzamiento de Super Nintendo en Japón (donde se llamaba Super Famicom), el diseñador Gustavo Bonzanini creó un homenaje que mezcla la moda y la tecnología de los 90. 

Leer más
Este extraordinario robot humanoide juega baloncesto como un profesional
Basketball, Person, Playing Basketball

Un equipo de roboticistas de la Universidad de Ciencia y Tecnología de Hong Kong (HKUST) ha enseñado al robot G1 a moverse como un jugador profesional de baloncesto e incluso a tirar a canasta. Realmente es un logro extraordinario y nos entusiasma por el futuro de los robots humanoides.

Trabajando con el robot humanoide compacto y superversátil G1 de Unitree, el equipo ha conseguido de alguna manera que parezca un jugador profesional de baloncesto, manejando el balón con competencia mientras realiza movimientos fluidos antes de lanzarlo hacia la canasta al estilo de Nikola Jokić.

Leer más
El Año en Búsquedas de Google 2025: qué buscó el mundo
Google celular

Llegó el momento, ese termómetro mundial que te indica que fue lo más buscado en el mundo en 2025, el Año en Búsquedas de Google, que resume de buena manera estos 365 días que ya se van.

El Year in Search 2025 se encuentra disponible y además puedes revisarlo por país.

Leer más