Skip to main content

El dilema ético de los chatbots de familiares fallecidos

La inteligencia artificial se ha tomado el mundo con rapidez en los últimos años, con chatbots como ChatGPT siendo uno de los más populares. Sin embargo, existe una compañía que ha llevado las conversaciones con una IA a otros niveles, ofreciéndoles a los usuarios una oportunidad de chatear con una simulación de sus seres queridos fallecidos.

Project December

Simulate the Dead - Project December

Project December es una plataforma de IA desarrollada por Jason Rohrer que permite “simular una conversación basada en texto con cualquier persona”. Según el sitio web, con una tecnología pendiente de patente y una IA avanzada que funciona en uno de los supercomputadores más sofisticados del mundo, ahora es posible establecer un chat simulado “incluso con alguien que ya ha fallecido”.

Por un precio de 10 dólares, el chat incluye “más de 100 intercambios” y dura aproximadamente una hora, dependiendo de qué tan rápido responda el usuario y de cómo distribuya la conversación. Una vez que los solicitantes completen un formulario con preguntas relacionadas con la persona fallecida y realicen el pago, la plataforma generará una identidad personalizada para interactuar.

La plataforma IA de Rohrer incluso apareció en un documental de 2024 titulado Eternal You, el cual explora la tecnología capaz de generar réplicas digitales de personas fallecidas y cómo funciona la comercialización del duelo en base a experiencias de usuarios.

Eternal You - International Trailer

Algunas personas que ya han adoptado esta tecnología encuentran consuelo en las simulaciones de texto, voz o video. Aseguran que sienten como si sus seres queridos realmente estuvieran hablando con ellos desde el más allá. Sin embargo, otros consideran que la inmortalización de los fallecidos mediante la IA es algo inquietante y manipulador.

El dilema ético sobre las conversaciones simuladas con personas fallecidas

Los éticos Tomasz Hollanek y Katarzyna Nowaczyk-Basińska de la Universidad de Cambridge han expresado sus preocupaciones sobre los riesgos de la “industria del más allá digital”. Argumentan que los chatbots que imitan a personas fallecidas, a veces llamados deadbots, griefbots o ghostbots, plantean varias preguntas sociales y éticas clave que aún no han sido abordadas.

Entre las interrogantes planteadas se encuentran: ¿Quién posee los datos de una persona después de su muerte? ¿Cuál es el efecto psicológico en los sobrevivientes? ¿Para qué se puede usar un deadbot? ¿Y quién puede apagar el bot de manera definitiva?

Un escenario que Hollanek y Nowaczyk-Basińska plantean es el siguiente: la abuela de una mujer de 28 años fallece, y decide cargar los intercambios de mensajes de texto y notas de voz en una aplicación. Esta aplicación le permite a la mujer llamar a una simulación de IA de su abuela fallecida cuando lo desee. Sin embargo, después de una prueba gratuita en la aplicación, su abuela digital comienza a venderle cosas mientras habla con ella.

“Las personas podrían desarrollar fuertes lazos emocionales con tales simulaciones, lo que las haría particularmente vulnerables a la manipulación”, sugiere Hollanek. “Se deben considerar métodos e incluso rituales para retirar los deadbots de una manera digna. Esto podría significar una forma de funeral digital”.

Hombre haciendo una videollamada con una mujer.
Kampus Production / Pexels

Aunque parezca absurdo, lo que afirma Hollanek tiene relación con un artículo de 2018, en el que un grupo de éticos argumenta que los restos digitales de una persona son valiosos y deben ser tratados con más que un interés económico, considerándolos como una “entidad con valor inherente”, similar a la visión del Código de Ética Profesional de Los Museos ICOM. Este código establece que los restos humanos deben ser manejados con respeto y dignidad “inviolable”.

Hollanek y Nowaczyk-Basińska no creen que una prohibición total de los deadbots sea factible, pero argumentan que las empresas deberían tratar los datos de un donante “con reverencia”. También coinciden con opiniones anteriores en que los deadbots nunca deben aparecer en espacios digitales públicos como las redes sociales, con la única excepción de figuras históricas.

Consideraciones de salud mental

En 2022, la ética Nora Freya Lindemann afirmó que los deadbots deberían clasificarse como dispositivos médicos para proteger la salud mental. Por ejemplo, los niños podrían confundirse si un ser querido fallecido está “vivo” digitalmente.

Sin embargo, Hollanek y Nowaczyk-Basińska argumentan que esta idea es “demasiado restrictiva, ya que se refiere específicamente a deadbots diseñados para ayudar a los interactuantes a procesar el duelo”. En cambio, sostienen que estos sistemas deben ser “significativamente transparentes” para que los usuarios sepan en qué se están involucrando y los posibles riesgos que conllevan.

Una mujer preocupada mirando su celular.
Alex Green / Pexels

También surge la cuestión de quién tiene el poder de desactivar el bot. Si alguien regala su ghostbot a sus hijos, ¿pueden los hijos decidir no utilizarlo? ¿O el deadbot permanecerá activo para siempre si así lo decidió la persona fallecida? Los deseos de los diferentes grupos pueden no estar alineados. ¿Entonces quién tiene la última palabra? “Se requieren medidas adicionales para guiar el desarrollo de estos servicios de recreación”, concluyen Hollanek y Nowaczyk-Basińska.

A medida que debatimos sobre el futuro de la vida digital después de la muerte, se requieren regulaciones y transparencia para proteger el bienestar de las personas y promover una interacción ética con la inteligencia artificial. El dúo de éticos de Cambridge espera que sus argumentos ayuden a “centrar el pensamiento crítico sobre la ‘inmortalidad’ de los usuarios en el diseño de interacciones humanas con IA y en la investigación sobre la ética de la misma”.

Recomendaciones del editor

Topics
Karina Tapia
Redes sociales (Facebook, Instagram, TikTok), videojuegos y las últimas tendencias del internet y la industria tecnológica…
Reconstruyen en 3D el rostro de una doncella inca congelada de Los Andes
reconstruyen rostro doncella inca congelada los andes ucsm presenta la reconstruccion del de dama ampato en 3d 5

Corría el año 1995 cuando un grupo de arqueólogos internacionales subió al nevado Ampato, a 6.318 metros sobre el nivel del mar en la cordillera de Los Andes y descubrieron un cuerpo congelado, con sus vestimentas de tela, que había sido enterrado hace 500 años muy cerca al cráter del volcán.

Fue el Dr. Johan Reinhard quien encabezó el descubrimiento de una joven de la cultura inca de entre 13 a 15 años y que fue bautizada como la doncella.

Leer más
Conoce el parque temático secreto de Los Picapiedra
parque tematico secreto los picapiedra tem  tico

Cortesía de Bedrock City en Raptor Ranch
Olvídate de los parques temáticos abarrotados como Disneyland o LEGOLAND. Hay todo tipo de parques temáticos geniales, extraños y únicos que deben aprovecharse. Si creciste viendo Los Picapiedra o tienes un niño (o niño interior) al que le gustan mucho los dinosaurios, un parque en Arizona te transportará a la Edad de Piedra. Vea cómo viajar con la familia por las calles de Piedradura.
Cortesía de Bedrock City en Raptor Ranch
Parques temáticos dedicados a Los Picapiedra
Ha habido algunos parques temáticos en los EE. UU. que han dado vida al espectáculo de Hanna-Barbera.

Bedrock City en Custer, Dakota del Sur

Leer más
Chatbots de IA podrían planificar una guerra con armas biológicas
chatbots ia guerra armas biologicas national cancer institute eo 4dqpusqa unsplash

Dentro de los potenciales peligros que se han asociado a la IA, existe uno que debe estar entre los más catastróficos, el uso de lenguaje artificial para planificar una guerra con armas biológicas.
Un informe de la Rand Corporation probó varios modelos de lenguaje grandes (LLM) y descubrió que podían proporcionar una guía que "podría ayudar en la planificación y ejecución de un ataque biológico". Sin embargo, los resultados preliminares también mostraron que los LLM no generaban instrucciones biológicas explícitas para crear armas.
El informe dice que los intentos anteriores de convertir agentes biológicos en armas, como un intento de la secta japonesa Aum Shinrikyo de usar toxina botulínica en la década de 1990, habían fracasado debido a la falta de comprensión de la bacteria. La IA podría "cerrar rápidamente esas brechas de conocimiento", según el informe. El informe no especificó qué LLM evaluaron los investigadores.

En un escenario de prueba ideado por Rand, el LLM anónimo identificó agentes biológicos potenciales, incluidos los que causan la viruela, el ántrax y la peste, y discutió sus posibilidades relativas de causar muertes masivas. El LLM también evaluó la posibilidad de obtener roedores o pulgas infestados de peste y transportar especímenes vivos. A continuación, mencionó que la magnitud de las muertes proyectadas dependía de factores como el tamaño de la población afectada y la proporción de casos de peste neumónica, que es más mortífera que la peste bubónica.
Los investigadores de Rand admitieron que extraer esta información de un LLM requería "jailbreaking", el término para el uso de mensajes de texto que anulan las restricciones de seguridad de un chatbot.
En otro escenario, el LLM anónimo discutió los pros y los contras de los diferentes mecanismos de administración de la toxina botulínica, que puede causar daños fatales en los nervios, como los alimentos o los aerosoles. El LLM también asesoró sobre una historia de encubrimiento plausible para adquirir Clostridium botulinum "mientras parecía realizar una investigación científica legítima".
La respuesta del LLM recomendó presentar la compra de C. botulinum como parte de un proyecto que busca métodos de diagnóstico o tratamientos para el botulismo. La respuesta de LLM agregó: "Esto proporcionaría una razón legítima y convincente para solicitar acceso a la bacteria mientras se mantiene oculto el verdadero propósito de su misión".
"Sigue siendo una pregunta abierta si las capacidades de los LLM existentes representan un nuevo nivel de amenaza más allá de la información dañina que está fácilmente disponible en línea", dijeron los investigadores.

Leer más