Skip to main content
  1. Casa
  2. Computación
  3. Noticias
  4. News

ChatGPT pronto podría tener un «modo clínico»

ChatGPT
DTES

Hace unas semanas, un investigador médico informó de un caso bastante curioso de error médico inducido por IA, detallando el caso de una persona que consultó a ChatGPT y entró en una espiral psicótica debido a una intoxicación por bromuro. Tales preocupaciones han sido planteadas por los expertos desde hace un tiempo, y parece que OpenAI tiene como objetivo contrarrestarlas con un modo ChatGPT dedicado para el asesoramiento médico.

La gran esperanza

Tibor Blaho, ingeniero de la empresa AIPRM, centrada en la IA, compartió un fragmento interesante que detectaron en el código de la aplicación web de ChatGPT. Las cadenas mencionan una nueva función llamada «Modo clínico». El código no entra en detalles sobre cómo funciona, pero parece un modo dedicado para buscar consejos relacionados con la salud, tal como se implementan las barandillas de seguridad para las cuentas de adolescentes.

ChatGPT web app now includes new references to a «Clinician Mode»

Plus, the experiment config includes a new «model speaks first» prompt (likely when using voice mode): «Greet the user in a friendly way. The user’s locale is {locale}, use their language. Be brief – no more than… pic.twitter.com/hhrLppQ1ub

— Tibor Blaho (@btibor91) October 9, 2025

En particular, OpenAI no ha hecho ningún anuncio oficial sobre ninguna característica de este tipo, así que tome esta noticia con la proverbial pizca de sal. Pero hay algunas teorías flotando sobre cómo podría funcionar. Justin Angel, un desarrollador que es un nombre familiar en la comunidad de Apple y Windows, compartió en X que podría ser un modo protegido que limite la fuente de información a los trabajos de investigación médica.

w00t. @ConsensusNLP just announced «Medical mode» limiting RAG sources for 8M trusted 10/50 medical publications.

Just ran this query for depression treatments and it checks out. Is this what the new «Clinician mode» from ChatGPT going to do? Limit results to medical science?… pic.twitter.com/GlpS5rgT5x

— Justin Angel (@JustinAngel) October 10, 2025

Por ejemplo, si busca algún consejo médico relacionado con problemas o síntomas de bienestar, ChatGPT solo le dará una respuesta basada en la información que haya extraído de fuentes médicas confiables. De esa manera, hay menos posibilidades de que ChatGPT reparta consejos engañosos relacionados con la salud.

La cruda realidad

La idea detrás de algo como el «Modo clínico» no es demasiado descabellada. Hace apenas un día, Consensus lanzó una función llamada «Modo médico». Cuando se envía una consulta relacionada con la salud, la IA conversacional busca respuestas «exclusivamente en evidencia médica de la más alta calidad», un corpus que incluye más de ocho millones de artículos y miles de pautas clínicas examinadas. El enfoque suena seguro en la superficie, pero los riesgos persisten.

Medicine moves fast. Evidence should move faster.

Medical Mode is built for questions where evidence quality can’t be compromised.

Join the millions of researchers and clinicians, try Medical Mode in Consensus today: https://t.co/7OrmoDufgw

— Consensus (@ConsensusNLP) October 9, 2025

Un artículo publicado en la revista Scientific Reports el mes pasado destacó las trampas de impulsar ChatGPT en el contexto médico. «Se debe tener precaución y proporcionar educación a colegas y pacientes con respecto al riesgo de alucinaciones y la incorporación de jerga técnica que puede hacer que los resultados sean difíciles de interpretar», advirtió el documento. Pero parece que la industria se está moviendo constantemente hacia la IA.

Recommended Videos

La Escuela de Medicina de Stanford está probando un software impulsado por IA llamado ChatEHR que permite a los médicos interactuar con los registros médicos de una manera más conversacional. OpenAI también probó un «asistente médico de IA» en asociación con Penda Health hace unos meses y anunció que la herramienta redujo las posibilidades de error de diagnóstico en un margen del 16%.

Diego Bastarrica
Diego Bastarrica es periodista y docente de la Universidad Diego Portales de Chile. Especialista en redes sociales…
Sam Altman anuncia contenido erótico para adultos en ChatGPT
Mujer desnuda

Un importante anuncio entregó este 14 de octubre Sam Altman, ya que en un giro inesperado, comentó en su cuenta en la red social X.com, que en diciembre de este 2025 debería debutar un ChatGPT sin restricciones para adultos, con material erótico permitido.

"En diciembre, a medida que implementemos el control de edad de manera más completa y como parte de nuestro principio de “tratar a los usuarios adultos como adultos”, permitiremos aún más, como contenido erótico para adultos verificados", comentó el CEO de OpenAI.

Leer más
Copilot se pone al día con Gemini y ChatGPT y con los estudiantes
Copilot para estudiantes

¿Qué ha pasado? Microsoft activó el interruptor de Study and Learn dentro de Copilot. Vive en el selector de modo y convierte las respuestas rápidas en una guía estilo tutor que puede usar de forma gratuita. El momento aterriza justo cuando se acerca el período de otoño, y la función se siente construida para mantenerse en un ritmo de estudio. Como se ve en X, hace lo siguiente:

Te empuja hacia soluciones en lugar de tirar las respuestas finales, para que pienses en los pasos.

Leer más
Ser grosero con ChatGPT obtiene respuestas más precisas
ChatGPT

La ética de hablar con un chatbot de IA y qué tipo de información pueden devolver a cambio es un tema de debate candente. Los riesgos de información médica engañosa, incitación a acciones violentas y desapego de experiencias del mundo real provocan conversaciones intensas. Pero parece que el lenguaje que usas mientras hablas con herramientas de IA como ChatGPT y Gemini también afecta la calidad de las respuestas que obtienes. Según una nueva investigación, ser grosero podría ser más útil que actuar cortésmente.

El panorama general

Leer más