Skip to main content

Hay una imagen que está destruyendo a ChatGPT

La respuesta de ChatGPT a un mensaje que incluye una imagen con algo de ruido digital.
DT

Enviar imágenes como indicaciones a ChatGPT sigue siendo una característica bastante nueva, pero en mis propias pruebas, funciona bien la mayor parte del tiempo. Sin embargo, alguien acaba de encontrar una imagen que ChatGPT parece no poder manejar, y definitivamente no es lo que esperas.

La imagen, descubierta por brandon_xyzw en X (antes Twitter), presenta algo de ruido digital. No es nada especial, en realidad, solo un fondo negro con algunas líneas verticales por todas partes. Pero si intentas mostrárselo a ChatGPT, la imagen rompe el chatbot todas y cada una de las veces, sin falta.

Intenté alimentar la imagen a ChatGPT con indicaciones de texto adicionales y sin ellas, como parte de una conversación o al comienzo de un nuevo chat. La única respuesta que recibo es el mensaje de error de ChatGPT, «Hmm… Parece que algo ha salido mal». Intentar generar una nueva respuesta no ayuda.

Whatever you do, don't show ChatGPT this image pic.twitter.com/DwSkmz0xP6

— Brandon (@brandon_xyzw) January 10, 2024

Curiosamente, ChatGPT respondió cuando le envié una captura de pantalla del tweet que contenía la imagen, y lo describió muy bien. Sin embargo, cuando intenté mostrarle la imagen real en esa misma conversación, se rompió de nuevo.

¿Qué tiene de especial esta imagen que hace que ChatGPT la odie tanto? Es difícil decirlo. Busqué imágenes similares en la web y descubrí que ChatGPT se rompe cuando se enfrenta a algunas de ellas, pero no a todas. Lo más probable es que sea solo un error, dado que manejó bien la captura de pantalla, así como imágenes similares con ruido digital.

Bing Chat responde a un mensaje de imagen.
Tendencias Digitales

Probé la imagen con algunos de los otros chatbots populares y no tuvieron ningún problema en contarme más sobre la imagen. Mientras ChatGPT luchaba por responder a mis indicaciones, Bing Chat analizó la imagen y me la describió con cierto detalle. Mientras que Bing Chat optó por un análisis de tipo técnico, Google Bard comenzó a interpretar la imagen, diciendo lo siguiente: «Los colores rojo y azul a menudo se usan juntos para representar fuerzas opuestas o complementarias. En este caso, las líneas rojas y azules podrían verse como la representación de la energía positiva y negativa, o el orden y el caos».

En última instancia, aunque ChatGPT funciona bastante bien la mayor parte del tiempo, no está exento de fallas. A veces se olvida de lo que se le permite o no se le permite hacer, negándose a realizar tareas simples con las que no tuvo ningún problema con solo dos mensajes antes. Los errores en la generación de respuestas también ocurren con bastante frecuencia, pero esta imagen en particular rompe constantemente el chatbot. Tendremos que volver a intentarlo en un par de días y ver si OpenAI ha solucionado el problema.

Recomendaciones del editor

Diego Bastarrica
Diego Bastarrica es periodista y docente de la Universidad Diego Portales de Chile. Especialista en redes sociales…
Un grupo de científicos le hicieron un jailbreak a ChatGPT
cientificos jailbreak chatgpt rolf van root lyi1t85lry8 unsplash

Un grupo de investigadores ha descubierto que es posible eludir el mecanismo arraigado en los chatbots de IA para que puedan responder a consultas sobre temas prohibidos o delicados mediante el uso de un chatbot de IA diferente como parte del proceso de entrenamiento.

Un equipo de científicos informáticos de la Universidad Tecnológica de Nanyang (NTU) de Singapur llama extraoficialmente al método un "jailbreak", pero es más oficialmente un proceso "Masterkey". Este sistema utiliza chatbots, incluidos ChatGPT, Google Bard y Microsoft Bing Chat, entre sí en un método de entrenamiento de dos partes que permite que dos chatbots aprendan los modelos del otro y desvíen cualquier comando contra temas prohibidos.

Leer más
¿Por qué el NY Times quiere aniquilar a ChatGPT?
new york times demanda openai chatgpt microsoft jakayla toney apm4g7xkeci unsplash

The New York Times se ha convertido en la primera gran organización de medios de comunicación en enfrentarse a las empresas de IA en los tribunales, acusando a OpenAI y a su patrocinador, Microsoft, de infringir sus derechos de autor al utilizar su contenido para entrenar productos impulsados por IA como ChatGPT de OpenAI.

En una demanda presentada en el Tribunal Federal de Distrito en Manhattan, el gigante de los medios afirma que "millones" de sus artículos protegidos por derechos de autor se utilizaron para entrenar sus tecnologías de inteligencia artificial, lo que le permitió competir con el New York Times como proveedor de contenido.

Leer más
Bing Chat: cómo usar la versión ChatGPT de Microsoft
Bing Chat: cómo usar la versión ChatGPT de Microsoft.

Bing Chat es la respuesta de Microsoft a ChatGPT; de hecho, se basa en la misma tecnología que hace funcionar el chatbot de OpenAI. Pero Microsoft tiene un enfoque muy diferente, ya que  integra la IA generativa directamente en su navegador web Edge y en su motor de búsqueda Bing. Incluso llegará a todo el conjunto de aplicaciones de Office en el futuro. Aquí se explica cómo registrarse y utilizar Bing Chat hoy.
Cómo obtener Bing Chat

Bing Chat se lanzó originalmente solo como una lista de espera, pero ahora está ampliamente disponible en bing.com/new y requiere descargar la nueva versión de Microsoft Edge. Simplemente haz clic en “Descargar Microsoft Edge”, el que luego te pedirá que elijas la plataforma en la que te encuentras. Esto instalará el nuevo navegador, como con cualquier otra aplicación.

Leer más