La inteligencia artificial se ha tomado el mundo con rapidez en los últimos años, con chatbots como ChatGPT siendo uno de los más populares. Sin embargo, existe una compañía que ha llevado las conversaciones con una IA a otros niveles, ofreciéndoles a los usuarios una oportunidad de chatear con una simulación de sus seres queridos fallecidos.
Project December
Project December es una plataforma de IA desarrollada por Jason Rohrer que permite “simular una conversación basada en texto con cualquier persona”. Según el sitio web, con una tecnología pendiente de patente y una IA avanzada que funciona en uno de los supercomputadores más sofisticados del mundo, ahora es posible establecer un chat simulado “incluso con alguien que ya ha fallecido”.
Por un precio de 10 dólares, el chat incluye “más de 100 intercambios” y dura aproximadamente una hora, dependiendo de qué tan rápido responda el usuario y de cómo distribuya la conversación. Una vez que los solicitantes completen un formulario con preguntas relacionadas con la persona fallecida y realicen el pago, la plataforma generará una identidad personalizada para interactuar.
La plataforma IA de Rohrer incluso apareció en un documental de 2024 titulado Eternal You, el cual explora la tecnología capaz de generar réplicas digitales de personas fallecidas y cómo funciona la comercialización del duelo en base a experiencias de usuarios.
Algunas personas que ya han adoptado esta tecnología encuentran consuelo en las simulaciones de texto, voz o video. Aseguran que sienten como si sus seres queridos realmente estuvieran hablando con ellos desde el más allá. Sin embargo, otros consideran que la inmortalización de los fallecidos mediante la IA es algo inquietante y manipulador.
El dilema ético sobre las conversaciones simuladas con personas fallecidas
Los éticos Tomasz Hollanek y Katarzyna Nowaczyk-Basińska de la Universidad de Cambridge han expresado sus preocupaciones sobre los riesgos de la “industria del más allá digital”. Argumentan que los chatbots que imitan a personas fallecidas, a veces llamados deadbots, griefbots o ghostbots, plantean varias preguntas sociales y éticas clave que aún no han sido abordadas.
Entre las interrogantes planteadas se encuentran: ¿Quién posee los datos de una persona después de su muerte? ¿Cuál es el efecto psicológico en los sobrevivientes? ¿Para qué se puede usar un deadbot? ¿Y quién puede apagar el bot de manera definitiva?
Un escenario que Hollanek y Nowaczyk-Basińska plantean es el siguiente: la abuela de una mujer de 28 años fallece, y decide cargar los intercambios de mensajes de texto y notas de voz en una aplicación. Esta aplicación le permite a la mujer llamar a una simulación de IA de su abuela fallecida cuando lo desee. Sin embargo, después de una prueba gratuita en la aplicación, su abuela digital comienza a venderle cosas mientras habla con ella.
“Las personas podrían desarrollar fuertes lazos emocionales con tales simulaciones, lo que las haría particularmente vulnerables a la manipulación”, sugiere Hollanek. “Se deben considerar métodos e incluso rituales para retirar los deadbots de una manera digna. Esto podría significar una forma de funeral digital”.
Aunque parezca absurdo, lo que afirma Hollanek tiene relación con un artículo de 2018, en el que un grupo de éticos argumenta que los restos digitales de una persona son valiosos y deben ser tratados con más que un interés económico, considerándolos como una “entidad con valor inherente”, similar a la visión del Código de Ética Profesional de Los Museos ICOM. Este código establece que los restos humanos deben ser manejados con respeto y dignidad “inviolable”.
Hollanek y Nowaczyk-Basińska no creen que una prohibición total de los deadbots sea factible, pero argumentan que las empresas deberían tratar los datos de un donante “con reverencia”. También coinciden con opiniones anteriores en que los deadbots nunca deben aparecer en espacios digitales públicos como las redes sociales, con la única excepción de figuras históricas.
Consideraciones de salud mental
En 2022, la ética Nora Freya Lindemann afirmó que los deadbots deberían clasificarse como dispositivos médicos para proteger la salud mental. Por ejemplo, los niños podrían confundirse si un ser querido fallecido está “vivo” digitalmente.
Sin embargo, Hollanek y Nowaczyk-Basińska argumentan que esta idea es “demasiado restrictiva, ya que se refiere específicamente a deadbots diseñados para ayudar a los interactuantes a procesar el duelo”. En cambio, sostienen que estos sistemas deben ser “significativamente transparentes” para que los usuarios sepan en qué se están involucrando y los posibles riesgos que conllevan.
También surge la cuestión de quién tiene el poder de desactivar el bot. Si alguien regala su ghostbot a sus hijos, ¿pueden los hijos decidir no utilizarlo? ¿O el deadbot permanecerá activo para siempre si así lo decidió la persona fallecida? Los deseos de los diferentes grupos pueden no estar alineados. ¿Entonces quién tiene la última palabra? “Se requieren medidas adicionales para guiar el desarrollo de estos servicios de recreación”, concluyen Hollanek y Nowaczyk-Basińska.
A medida que debatimos sobre el futuro de la vida digital después de la muerte, se requieren regulaciones y transparencia para proteger el bienestar de las personas y promover una interacción ética con la inteligencia artificial. El dúo de éticos de Cambridge espera que sus argumentos ayuden a “centrar el pensamiento crítico sobre la ‘inmortalidad’ de los usuarios en el diseño de interacciones humanas con IA y en la investigación sobre la ética de la misma”.