Las redes sociales comenzaron como una herramienta para mantenerse conectado con las personas que amas. Con el tiempo, sus daños fueron expuestos, lo que llevó a estas plataformas a construir herramientas de control parental. Parece un movimiento similar para los chatbots de IA, comenzando con el que lo inició todo: ChatGPT.
OpenAI ha anunciado que está explorando las barreras de protección parental mientras usa ChatGPT. “También introduciremos pronto controles parentales que brinden a los padres opciones para obtener más información y dar forma a cómo sus adolescentes usan ChatGPT”, dijo la compañía en una publicación de blog.
Además, el gigante de la IA está considerando la idea de designar contactos de emergencia para que cuando los usuarios adolescentes sientan ansiedad severa o atraviesen una crisis emocional, ChatGPT pueda advertir a sus padres o tutores. En su forma actual, ChatGPT solo recomienda recursos para obtener ayuda.
Esto se produce después de las críticas, la alarma de la investigación y las demandas contra OpenAI. Pero ChatGPT no es el único culpable aquí, aunque la iniciativa planeada por OpenAI también debe ser replicada por otros actores de la industria de la IA. La investigación publicada en la revista Psychiatric Services a principios de este mes encontró que las respuestas ofrecidas por los chatbots son “inconsistentes para responder preguntas sobre el suicidio que pueden presentar riesgos intermedios”.

La investigación solo se centró en ChatGPT de OpenAI, Claude de Anthropic y Gemini de Google. Estos son los nombres más importantes del juego, por lo que obviamente el centro de atención recaerá sobre ellos. Pero la situación se vuelve más turbia en el caso de los chatbots de IA menos conocidos, especialmente aquellos que adoptan un enfoque “sin censura” para las conversaciones. Independientemente, al igual que las aplicaciones de redes sociales, los controles parentales son la necesidad del momento para los chatbots de IA convencionales, dada su historia reciente.
Una historia arriesgada
En los últimos años, múltiples investigaciones han revelado patrones de riesgo en las conversaciones de chatbots de IA cuando se trata de temas delicados como la salud mental y las autolesiones. Un informe reciente de Common Sense Media reveló cómo el chatbot Meta AI (que ahora está disponible en WhatsApp, Instagram y Facebook) ofreció consejos sobre trastornos alimentarios, autolesiones y suicidio a adolescentes.
En un caso de una conversación grupal simulada, el chatbot presentó un plan para el suicidio masivo y, según los informes, mencionó el tema repetidamente en el chat. Pruebas independientes realizadas por The Washington Post encontraron que el chatbot de Meta “fomentó un trastorno alimentario”.
En 2024, The New York Times detalló el caso de un joven de 14 años que desarrolló una profunda relación con un bot de IA en la plataforma Character.AI y finalmente se quitó la vida. A principios de este mes, la familia de un joven de 16 años culpó a OpenAI después de descubrir que ChatGPT esencialmente actuó como un “entrenador suicida” para su hijo.
Los expertos también han advertido que la psicosis de la IA es un problema real, que empuja a las personas a una peligrosa espiral de delirios. En un caso, una persona siguió la guía de salud de ChatGPT y, bajo su influencia, comenzó a consumir un químico que le dio un raro trastorno psicótico desencadenado por envenenamiento por bromuro.
En un caso de Texas, un chatbot de IA “sexualizado” alentó un cambio de comportamiento serio en un niño de 9 años con el tiempo, mientras que otro expresó simpatía por los niños que matan a sus padres a un joven de 17 años. Los expertos de Cambridge expusieron recientemente cómo los chatbots de IA conversacional influyen negativamente en los pacientes vulnerables de salud mental.
Los controles parentales no van a resolver todos los riesgos fundamentales que plantean los chatbots de IA, pero si un gran jugador como ChatGPT da un ejemplo positivo, es probable que otros sigan los pasos.