Skip to main content
  1. Home
  2. Tendencias
  3. Noticias
  4. Features

Fuerte demanda contra Character AI por muerte de adolescente obesionado con chatbots

Add as a preferred source on Google
demanda character ai muerte adolescente obsesionado chatbots christin hume mfb1b1s4smc unsplash
Imagen utilizada con permiso del titular de los derechos de autor

Una situación controvertida se está viviendo en Estados Unidos en materia de regulación de IA, luego de que una familia decidiera demandar a Character.AI, sus fundadores Noam Shazeer y Daniel De Freitas, y a Google a raíz de la muerte de un adolescente, alegando muerte por negligencia, prácticas comerciales engañosas y responsabilidad por productos defectuosos.

Presentada por la madre de la adolescente, Megan García, afirma que la plataforma para chatbots de IA personalizados era «irrazonablemente peligrosa» y carecía de barandillas de seguridad mientras se comercializaba para niños.

Recommended Videos

Qué pasó con el adolescente

Como se describe en la demanda, Sewell Setzer III, de 14 años, comenzó a usar Character.AI el año pasado, interactuando con chatbots inspirados en personajes de Game of Thrones, incluida Daenerys Targaryen. Setzer, que chateó con los bots continuamente en los meses previos a su muerte, se suicidó el 28 de febrero de 2024, «segundos» después de su última interacción con el bot.

Las acusaciones incluyen que el sitio «antropomorfiza» a los personajes de IA y que los chatbots de la plataforma ofrecen «psicoterapia sin licencia». Character.AI alberga chatbots centrados en la salud mental como «Therapist» y «Are You Feeling Lonely», con los que Setzer interactuó.

El sitio web y la aplicación móvil de Character.AI tienen cientos de chatbots de IA personalizados, muchos de ellos inspirados en personajes populares de programas de televisión, películas y videojuegos.

La respuesta de Character AI

Character.AI ha anunciado varios cambios en la plataforma, y la jefa de comunicaciones, Chelsea Harrison, dijo en un correo electrónico a The Verge: «Estamos desconsolados por la trágica pérdida de uno de nuestros usuarios y queremos expresar nuestras más profundas condolencias a la familia».

«Como empresa, nos tomamos muy en serio la seguridad de nuestros usuarios, y nuestro equipo de Confianza y Seguridad ha implementado numerosas medidas de seguridad nuevas en los últimos seis meses, incluida una ventana emergente que dirige a los usuarios a la Línea Nacional de Prevención del Suicidio que se activa por términos de autolesión o ideación suicida», dijo Harrison.

Diego Bastarrica
Diego Bastarrica es periodista y docente de la Universidad Diego Portales de Chile. Especialista en redes sociales…
La «minoría ruidosa» distorsiona la percepción de toxicidad en Internet
Sign, Symbol, Road Sign

Investigadores de psicología social ha revelado un fenómeno inquietante: los estadounidenses sobrestiman dramáticamente la toxicidad online, creyendo que aproximadamente el 43% de usuarios de Reddit publican comentarios abusivos, cuando la realidad científica muestra que solo el 3% lo hace.

El estudio, realizado por Angela Y. Lee y Eric Neumann con 1,090 participantes adultos estadounidenses, comparó percepciones públicas con datos reales de grandes estudios de plataformas sociales. Los resultados fueron contundentes: en Reddit, la gente cree que usuarios tóxicos son 13 veces más comunes de lo que realmente son.

Read more
La internet ya no es humana
Flower, Flower Arrangement, Plant

Un fenómeno tecnológico sin precedentes está redefiniendo el panorama digital: por primera vez en una década, el tráfico generado por bots impulsados por IA ha superado la actividad humana online, con 51-52% del tráfico global proveniente de fuentes no humanas según el reporte Bad Bot Report 2025 de Imperva.

Este cambio refleja la proliferación de herramientas de IA accesibles como ChatGPT, Google Gemini, Perplexity AI y ByteSpider Bot. Aunque muchos bots son benéficos (rastreadores de búsqueda, indexadores de contenido), el lado oscuro es alarmante: aproximadamente 37% de todo tráfico internet corresponde a "bots maliciosos", con intención de defraudar, hackear o espiar.

Read more
Experimento muy generoso de Anthropic: la máquina expendedora regaló todo
Machine, Appliance, Device

Anthropic condujo un audaz experimento de "red teaming" permitiendo que su modelo Claude gestionara una máquina expendedora dentro de las oficinas del Wall Street Journal, revelando tanto el potencial como las fragilidades de los agentes de inteligencia artificial autónomos.​

La iniciativa, llamada Project Vend, buscaba examinar cómo un modelo de IA se desempeñaría enfrentado a tareas económicas complejas del mundo real. Una versión personalizada de Claude, bautizada como "Claudius", recibió la responsabilidad de administrar inventario, establecer precios y maximizar ganancias a través de una interfaz Slack. El sistema poseía acceso a herramientas reales: busqueda web para investigar productos, capacidad de comunicarse con proveedores (representados por Andon Labs) y un mecanismo de honor para registrar transacciones.​

Read more