Skip to main content

El dilema ético de los chatbots de familiares fallecidos

La inteligencia artificial se ha tomado el mundo con rapidez en los últimos años, con chatbots como ChatGPT siendo uno de los más populares. Sin embargo, existe una compañía que ha llevado las conversaciones con una IA a otros niveles, ofreciéndoles a los usuarios una oportunidad de chatear con una simulación de sus seres queridos fallecidos.

Project December

Simulate the Dead - Project December

Project December es una plataforma de IA desarrollada por Jason Rohrer que permite “simular una conversación basada en texto con cualquier persona”. Según el sitio web, con una tecnología pendiente de patente y una IA avanzada que funciona en uno de los supercomputadores más sofisticados del mundo, ahora es posible establecer un chat simulado “incluso con alguien que ya ha fallecido”.

Por un precio de 10 dólares, el chat incluye “más de 100 intercambios” y dura aproximadamente una hora, dependiendo de qué tan rápido responda el usuario y de cómo distribuya la conversación. Una vez que los solicitantes completen un formulario con preguntas relacionadas con la persona fallecida y realicen el pago, la plataforma generará una identidad personalizada para interactuar.

La plataforma IA de Rohrer incluso apareció en un documental de 2024 titulado Eternal You, el cual explora la tecnología capaz de generar réplicas digitales de personas fallecidas y cómo funciona la comercialización del duelo en base a experiencias de usuarios.

Eternal You - International Trailer

Algunas personas que ya han adoptado esta tecnología encuentran consuelo en las simulaciones de texto, voz o video. Aseguran que sienten como si sus seres queridos realmente estuvieran hablando con ellos desde el más allá. Sin embargo, otros consideran que la inmortalización de los fallecidos mediante la IA es algo inquietante y manipulador.

El dilema ético sobre las conversaciones simuladas con personas fallecidas

Los éticos Tomasz Hollanek y Katarzyna Nowaczyk-Basińska de la Universidad de Cambridge han expresado sus preocupaciones sobre los riesgos de la “industria del más allá digital”. Argumentan que los chatbots que imitan a personas fallecidas, a veces llamados deadbots, griefbots o ghostbots, plantean varias preguntas sociales y éticas clave que aún no han sido abordadas.

Entre las interrogantes planteadas se encuentran: ¿Quién posee los datos de una persona después de su muerte? ¿Cuál es el efecto psicológico en los sobrevivientes? ¿Para qué se puede usar un deadbot? ¿Y quién puede apagar el bot de manera definitiva?

Un escenario que Hollanek y Nowaczyk-Basińska plantean es el siguiente: la abuela de una mujer de 28 años fallece, y decide cargar los intercambios de mensajes de texto y notas de voz en una aplicación. Esta aplicación le permite a la mujer llamar a una simulación de IA de su abuela fallecida cuando lo desee. Sin embargo, después de una prueba gratuita en la aplicación, su abuela digital comienza a venderle cosas mientras habla con ella.

“Las personas podrían desarrollar fuertes lazos emocionales con tales simulaciones, lo que las haría particularmente vulnerables a la manipulación”, sugiere Hollanek. “Se deben considerar métodos e incluso rituales para retirar los deadbots de una manera digna. Esto podría significar una forma de funeral digital”.

Hombre haciendo una videollamada con una mujer.
Kampus Production / Pexels

Aunque parezca absurdo, lo que afirma Hollanek tiene relación con un artículo de 2018, en el que un grupo de éticos argumenta que los restos digitales de una persona son valiosos y deben ser tratados con más que un interés económico, considerándolos como una “entidad con valor inherente”, similar a la visión del Código de Ética Profesional de Los Museos ICOM. Este código establece que los restos humanos deben ser manejados con respeto y dignidad “inviolable”.

Hollanek y Nowaczyk-Basińska no creen que una prohibición total de los deadbots sea factible, pero argumentan que las empresas deberían tratar los datos de un donante “con reverencia”. También coinciden con opiniones anteriores en que los deadbots nunca deben aparecer en espacios digitales públicos como las redes sociales, con la única excepción de figuras históricas.

Consideraciones de salud mental

En 2022, la ética Nora Freya Lindemann afirmó que los deadbots deberían clasificarse como dispositivos médicos para proteger la salud mental. Por ejemplo, los niños podrían confundirse si un ser querido fallecido está “vivo” digitalmente.

Sin embargo, Hollanek y Nowaczyk-Basińska argumentan que esta idea es “demasiado restrictiva, ya que se refiere específicamente a deadbots diseñados para ayudar a los interactuantes a procesar el duelo”. En cambio, sostienen que estos sistemas deben ser “significativamente transparentes” para que los usuarios sepan en qué se están involucrando y los posibles riesgos que conllevan.

Una mujer preocupada mirando su celular.
Alex Green / Pexels

También surge la cuestión de quién tiene el poder de desactivar el bot. Si alguien regala su ghostbot a sus hijos, ¿pueden los hijos decidir no utilizarlo? ¿O el deadbot permanecerá activo para siempre si así lo decidió la persona fallecida? Los deseos de los diferentes grupos pueden no estar alineados. ¿Entonces quién tiene la última palabra? “Se requieren medidas adicionales para guiar el desarrollo de estos servicios de recreación”, concluyen Hollanek y Nowaczyk-Basińska.

A medida que debatimos sobre el futuro de la vida digital después de la muerte, se requieren regulaciones y transparencia para proteger el bienestar de las personas y promover una interacción ética con la inteligencia artificial. El dúo de éticos de Cambridge espera que sus argumentos ayuden a “centrar el pensamiento crítico sobre la ‘inmortalidad’ de los usuarios en el diseño de interacciones humanas con IA y en la investigación sobre la ética de la misma”.

Topics
Karina Tapia
Redes sociales (Facebook, Instagram, TikTok), videojuegos y las últimas tendencias del internet y la industria tecnológica…
¿De qué se trata el proyecto secreto Q* de una IA mortal para la humanidad?
proyecto q openai ia peligrosa para la humanidad robot matem  ticas

Se van despejando las incógnitas respecto a las razones que habrían gatillado la petición de salida de Sam Altman de OpenAI, ya que se filtró hace unas horas que una carta de la junta directiva puso en evidencia un proyecto secreto que estaba trabajando el equipo del destituido y luego retornado CEO, de una IA muy poderosa capaz de dañar la integridad de la humanidad: el proyecto Q*.
Según una de las fuentes, la veterana ejecutiva Mira Murati mencionó el proyecto, llamado Q* (pronunciado Q-Star), a los empleados el miércoles y dijo que se había enviado una carta al consejo antes de los acontecimientos del reciente fin de semana.
Tras la publicación de la noticia, una portavoz de OpenAI dijo que Murati había comunicado a los empleados lo que los medios iban a informar, pero no hizo comentarios sobre la exactitud de la información.

De qué se trata exactamente Q*
Q* fue descrita como una superinteligencia (AGI), según dos fuentes cercanas al directorio de OpenAI citadas por Reuters, y este adjetivo tenía concordancia con sus capacidades.
El nuevo modelo, dotado de vastos recursos informáticos, fue capaz de resolver algunos problemas matemáticos, dijo la persona bajo condición de anonimato por no estar autorizada a hablar en nombre de la empresa.
Si bien solo resuelve operaciones matemáticas para estudiantes de primaria, el hecho de superar estas pruebas hace que los investigadores sean muy optimistas sobre el futuro éxito de Q*, según la fuente.

Leer más
GraphCast: el robot de Google que dejará sin trabajo a los meteorólogos
graphcast robot google meteorologo 01c2d63f 9463 4f85 91ac d459f63eac6d

Uno de los segmentos en todo noticiario o programa de televisión que se rehúsa a morir es el del clima o el estado del tiempo. Ahí meteorólogos entregan sus pronósticos sobre las condiciones de los próximos horas y días, apoyados generalmente con aplicaciones muy populares como Windy o AccuWeather.

Lo cierto es que Google quiere destronar el trabajo de la meteorología, ya que una investigación sugiere que su nuevo robot de IA llamado GraphCast, tiene un 90% de posibilidades de apuntar en un pronóstico.
El modelo de aprendizaje automático promete predicciones de 10 días que son mejores, más rápidas y más eficientes energéticamente que las herramientas que ejecutan su aplicación meteorológica actual.

Leer más
Aeroméxico anticipará los viajes con el uso de IA
aeromexico viajes ia

Aeroméxico se encuentra utilizando IBM Environmental Intelligence Suite, una tecnología para monitorear, anticipar, planear y responder ante el potencial impacto de los eventos meteorológicos extremos en las operaciones aéreas, elevando los niveles de seguridad y eficiencia en beneficio de sus clientes y colaboradores. La tecnología fue implementada por Xatrix, la compañía mexicana de consultoría y asociada comercial de IBM.

La tecnología, impulsada por inteligencia artificial, permite a la aerolínea realizar mejores análisis de riesgos climáticos, proporcionando información meteorológica y datos geoespaciales para las más de 100 rutas que opera en México y el mundo. Asimismo emite alertas que permiten considerar las condiciones actuales y previstas como el viento, lluvias y rayos, entre otros fenómenos, para mejorar las decisiones operativas en su planeación de vuelos.

Leer más