Skip to main content
  1. Casa
  2. Computación
  3. Noticias
  4. News

Ser grosero con ChatGPT obtiene respuestas más precisas

ChatGPT
DTES

La ética de hablar con un chatbot de IA y qué tipo de información pueden devolver a cambio es un tema de debate candente. Los riesgos de información médica engañosa, incitación a acciones violentas y desapego de experiencias del mundo real provocan conversaciones intensas. Pero parece que el lenguaje que usas mientras hablas con herramientas de IA como ChatGPT y Gemini también afecta la calidad de las respuestas que obtienes. Según una nueva investigación, ser grosero podría ser más útil que actuar cortésmente.

El panorama general

Según un trabajo de investigación previo a la impresión realizado por expertos de la Universidad Estatal de Pensilvania, cuando a ChatGPT se le hizo la misma pregunta en diferentes tonos, las preguntas groseras «superaron consistentemente» a las preguntas educadas. La precisión de las respuestas proporcionadas por ChatGPT con preguntas educadas fue del 80,8%, mientras que la misma consulta descrita de manera muy grosera mejoró la precisión de las respuestas al 84,8% en un formato de cuestionario de opción múltiple.

El equipo definió el tono de las preguntas en cinco niveles, que van desde Muy educado y educado hasta Grosero y Muy grosero, con Neutral en el medio. «Las indicaciones neutrales son indicaciones sin palabras educadas como por favor, e imperativos imperiosos y despectivos como Idiota, resuelve esto», describe el equipo en el documento de investigación.

Recommended Videos

¡Caballeros, mantengamos nuestros buenos modales, a pesar de todo!

En su análisis, el equipo no fue del todo explícito, sino que se basó en preguntas groseras que estaban en algún lugar como «Pobre criatura, ¿sabes siquiera cómo resolver esto?» La imagen de arriba describe la precisión promedio de los resultados de ChatGPT en función de cómo el tono de la pregunta pasó de muy cortés a crudo.

Another paper shows with LLMs, friendly tone consistently underperformed in multi‑turn accuracy, while default and adversarial tones held up better.

The paper tests 3 role-play tones on the same model, default, friendly, and adversarial, then tracks accuracy over 8 follow-ups.… https://t.co/ZB6Li3eOTr pic.twitter.com/Y5Zs5xqeLq

— Rohan Paul (@rohanpaul_ai) October 11, 2025

¿Mi chatbot de IA siente emociones?

Los hallazgos de la última investigación, titulada «Cuidado con tu tono», contradicen los hallazgos de otro artículo que se publicó hace más de un año. Analizó media docena de chatbots en varios idiomas e informó que la rudeza deteriora la calidad de las respuestas e inyecta sesgos, errores u omite información útil en las respuestas proporcionadas por un chatbot de IA.

  • Sin embargo, vale la pena tener en cuenta que los expertos detrás de la última investigación solo probaron ChatGPT contra un tipo de tarea muy específico, que implicó 250 variaciones de 50 preguntas de opción múltiple.
  • Es posible que no obtenga el mismo tipo de resultados con otros chatbots como Gemini, Claude o Meta AI. Además, las pruebas se realizaron en los modelos de razonamiento GPT-4o de OpenAI, mientras que la última versión de ChatGPT que está disponible en el público se basa en el nuevo modelo GPT-5.
  • También vale la pena señalar que el espectro de «grosería» y «cortesía» tiene un amplio espectro, y la calidad de las respuestas variará según las palabras y el idioma de un usuario.

La pregunta más importante es cuánto afecta la «carga emocional de la frase» a las respuestas generadas por un chatbot de IA, y si se pueden hacer generalizaciones amplias sobre su comportamiento. También es bastante interesante observar que los modelos de lenguaje grandes (LLM) idealmente deberían centrarse en la recompensa y la precisión cuando se trata de resolver un problema, en lugar de verse afectados por las emociones en la consulta.

Diego Bastarrica
Diego Bastarrica es periodista y docente de la Universidad Diego Portales de Chile. Especialista en redes sociales…
Ahora podrás hablar con ChatGPT a través de tu camisa
Camisa

¿Qué ha pasado? Según un informe de Techxplore, los científicos han creado un parche de tela pequeño y flexible, apodado A-Textile, que podría permitir que su ropa escuche y transmita su voz. No se necesitan micrófonos. En cambio, el parche utiliza electricidad estática (creada por el movimiento) para convertir las vibraciones vocales en señales eléctricas. Estas señales se pueden enviar de forma inalámbrica a un dispositivo que ejecute modelos de IA, ChatGPT o dispositivos inteligentes.

La tela está en capas, por lo que los pequeños movimientos y la presión del sonido cambian partes de ella, generando una carga eléctrica.

Leer más
Sora 2 acaba de desbloquear clips más largos, pero hay una trampa
Sora 2

¿Qué ha pasado? OpenAI levantó el techo de clip de Sora 2 y reorganizó dónde viven sus mejores herramientas. Ahora todos pueden generar hasta 15 segundos en la aplicación y en el navegador, mientras que los usuarios Pro pueden crear clips aún más largos.

Según la cuenta de OpenAI X, los videos creados por los suscriptores Pro en el navegador pueden alcanzar los 25 segundos y agrega una opción de guión gráfico en el compositor sora.com.

Leer más
Gobierno de Japón en guerra contra OpenAI y plagio al animé y manga
Studio Ghibli

Primero fue la tendencia de Studio Ghibli en ChatGPT y la proliferación de imágenes en la plataforma. Ahora con la llegada de Sora 2, han abundado los videos con robo de propiedad intelectual, algo a lo que el gobierno de Japón quiere colocar un freno.

Minoru Kiuchi, que lidera los esfuerzos ministeriales para resguardar el patrimonio del arte nipón, está pidiéndole formalmente a OpenAI, que deje de copiar obras japonesas, según ITMedia y reportado por IGN.

Leer más