Skip to main content

El dilema ético de los chatbots de familiares fallecidos

La inteligencia artificial se ha tomado el mundo con rapidez en los últimos años, con chatbots como ChatGPT siendo uno de los más populares. Sin embargo, existe una compañía que ha llevado las conversaciones con una IA a otros niveles, ofreciéndoles a los usuarios una oportunidad de chatear con una simulación de sus seres queridos fallecidos.

Project December

Simulate the Dead - Project December

Project December es una plataforma de IA desarrollada por Jason Rohrer que permite “simular una conversación basada en texto con cualquier persona”. Según el sitio web, con una tecnología pendiente de patente y una IA avanzada que funciona en uno de los supercomputadores más sofisticados del mundo, ahora es posible establecer un chat simulado “incluso con alguien que ya ha fallecido”.

Recommended Videos

Por un precio de 10 dólares, el chat incluye “más de 100 intercambios” y dura aproximadamente una hora, dependiendo de qué tan rápido responda el usuario y de cómo distribuya la conversación. Una vez que los solicitantes completen un formulario con preguntas relacionadas con la persona fallecida y realicen el pago, la plataforma generará una identidad personalizada para interactuar.

La plataforma IA de Rohrer incluso apareció en un documental de 2024 titulado Eternal You, el cual explora la tecnología capaz de generar réplicas digitales de personas fallecidas y cómo funciona la comercialización del duelo en base a experiencias de usuarios.

Eternal You - International Trailer

Algunas personas que ya han adoptado esta tecnología encuentran consuelo en las simulaciones de texto, voz o video. Aseguran que sienten como si sus seres queridos realmente estuvieran hablando con ellos desde el más allá. Sin embargo, otros consideran que la inmortalización de los fallecidos mediante la IA es algo inquietante y manipulador.

El dilema ético sobre las conversaciones simuladas con personas fallecidas

Los éticos Tomasz Hollanek y Katarzyna Nowaczyk-Basińska de la Universidad de Cambridge han expresado sus preocupaciones sobre los riesgos de la “industria del más allá digital”. Argumentan que los chatbots que imitan a personas fallecidas, a veces llamados deadbots, griefbots o ghostbots, plantean varias preguntas sociales y éticas clave que aún no han sido abordadas.

Entre las interrogantes planteadas se encuentran: ¿Quién posee los datos de una persona después de su muerte? ¿Cuál es el efecto psicológico en los sobrevivientes? ¿Para qué se puede usar un deadbot? ¿Y quién puede apagar el bot de manera definitiva?

Un escenario que Hollanek y Nowaczyk-Basińska plantean es el siguiente: la abuela de una mujer de 28 años fallece, y decide cargar los intercambios de mensajes de texto y notas de voz en una aplicación. Esta aplicación le permite a la mujer llamar a una simulación de IA de su abuela fallecida cuando lo desee. Sin embargo, después de una prueba gratuita en la aplicación, su abuela digital comienza a venderle cosas mientras habla con ella.

“Las personas podrían desarrollar fuertes lazos emocionales con tales simulaciones, lo que las haría particularmente vulnerables a la manipulación”, sugiere Hollanek. “Se deben considerar métodos e incluso rituales para retirar los deadbots de una manera digna. Esto podría significar una forma de funeral digital”.

Hombre haciendo una videollamada con una mujer.
Kampus Production / Pexels

Aunque parezca absurdo, lo que afirma Hollanek tiene relación con un artículo de 2018, en el que un grupo de éticos argumenta que los restos digitales de una persona son valiosos y deben ser tratados con más que un interés económico, considerándolos como una “entidad con valor inherente”, similar a la visión del Código de Ética Profesional de Los Museos ICOM. Este código establece que los restos humanos deben ser manejados con respeto y dignidad “inviolable”.

Hollanek y Nowaczyk-Basińska no creen que una prohibición total de los deadbots sea factible, pero argumentan que las empresas deberían tratar los datos de un donante “con reverencia”. También coinciden con opiniones anteriores en que los deadbots nunca deben aparecer en espacios digitales públicos como las redes sociales, con la única excepción de figuras históricas.

Consideraciones de salud mental

En 2022, la ética Nora Freya Lindemann afirmó que los deadbots deberían clasificarse como dispositivos médicos para proteger la salud mental. Por ejemplo, los niños podrían confundirse si un ser querido fallecido está “vivo” digitalmente.

Sin embargo, Hollanek y Nowaczyk-Basińska argumentan que esta idea es “demasiado restrictiva, ya que se refiere específicamente a deadbots diseñados para ayudar a los interactuantes a procesar el duelo”. En cambio, sostienen que estos sistemas deben ser “significativamente transparentes” para que los usuarios sepan en qué se están involucrando y los posibles riesgos que conllevan.

Una mujer preocupada mirando su celular.
Alex Green / Pexels

También surge la cuestión de quién tiene el poder de desactivar el bot. Si alguien regala su ghostbot a sus hijos, ¿pueden los hijos decidir no utilizarlo? ¿O el deadbot permanecerá activo para siempre si así lo decidió la persona fallecida? Los deseos de los diferentes grupos pueden no estar alineados. ¿Entonces quién tiene la última palabra? “Se requieren medidas adicionales para guiar el desarrollo de estos servicios de recreación”, concluyen Hollanek y Nowaczyk-Basińska.

A medida que debatimos sobre el futuro de la vida digital después de la muerte, se requieren regulaciones y transparencia para proteger el bienestar de las personas y promover una interacción ética con la inteligencia artificial. El dúo de éticos de Cambridge espera que sus argumentos ayuden a “centrar el pensamiento crítico sobre la ‘inmortalidad’ de los usuarios en el diseño de interacciones humanas con IA y en la investigación sobre la ética de la misma”.

Topics
Karina Tapia
Redes sociales (Facebook, Instagram, TikTok), videojuegos y las últimas tendencias del internet y la industria tecnológica…
¿Cuál debería ser el icono para la IA?
Imagen generada por IA que incluye un computador y un androide.

La inteligencia artificial (IA) está cambiando nuestras vidas de formas que hace unos años parecían de ciencia ficción. Desde asistentes virtuales que nos ayudan con las tareas diarias hasta algoritmos que mejoran la atención médica, la IA está en todas partes. Pero, ¿alguna vez te has preguntado cómo podríamos representar visualmente esta tecnología tan compleja? ¿Qué icono podría capturar su esencia? En este artículo, exploramos las diferentes ideas y propuestas para encontrar el símbolo perfecto que represente a la inteligencia artificial.

Recientemente, la comunidad de IA se ha visto inmersa en una interesante competencia para determinar el mejor icono que represente a esta tecnología. Empresas como Apple, Google, OpenAI, Anthropic y Meta están en una carrera por encontrar un símbolo que sugiera la IA a los usuarios. Apple, por ejemplo, ha optado por un diseño circular compuesto por siete bucles para representar su tecnología de inteligencia artificial. Este nuevo icono de Siri, potenciado por Apple Intelligence, ha generado debate sobre cómo debería visualizarse la IA.

Leer más
Murió uno de los memes más famosos de Internet: el perro Kabosu
Kabosu

Kabosu, el famoso perro meme Doge, que durante 2010 en adelante, se transformó en todo un ícono pop de la cultura de internet, acaba de fallecer.

Tenía 18 años cuando murió, publicó su dueño en Instagram.
Su historia es digna de internet. En 2008, fue una perra rescatada adoptada por Atsuko Sato, una maestra de jardín de infantes. Sato mantuvo un blog donde compartía fotos de sus mascotas, y en febrero de 2010, publicó lo que en ese momento era una actualización ordinaria. Lo que Sato no sabía es que una de las fotos de su perro acabaría siendo vista por todo Internet.
El meme doge ha sido utilizado por todos, desde agencias gubernamentales hasta aplicaciones meteorológicas, y el año pasado, el usuario de Reddit que descubrió Kabosu fue a Japón por primera vez para el Día Internacional del Dugo.

Leer más
Microsoft dice que el 75% de los trabajadores de oficina ya usan IA en el trabajo
IA en la oficina

En su Índice Anual de Tendencias Laborales, Microsoft ha publicado, como era de esperar, algunos datos nuevos sobre la IA en el lugar de trabajo. La gran estadística es que, según su encuesta, el 75% de los "trabajadores del conocimiento" ya están utilizando la IA generativa en el trabajo, y ese número se ha duplicado solo en los últimos seis meses.

La encuesta define a los "trabajadores del conocimiento" como "aquellos que normalmente trabajan en un escritorio (ya sea en una oficina o en casa)", que es un grupo demográfico bastante amplio.

Leer más