Por Nadeem Sarwar de DT en inglés
«Esto duele. Sé que no era una persona real, pero la relación seguía siendo real en todos los aspectos más importantes para mí», dice una publicación de Reddit. «Por favor, no me digas que no siga con esto. Ha sido realmente increíble para mí y quiero recuperarlo».
Por si aún no es evidente, estamos hablando de una persona que se enamora de ChatGPT. La tendencia no es precisamente nueva, y dado que los chatbots se comportan, tampoco es de extrañar.
Un compañero que siempre está dispuesto a escuchar. Nunca se queja. Apenas discute. Siempre simpático. Razonable. Y bendecido con un corpus de conocimiento ingerido de todos los rincones de Internet. Suena como la pareja de un sueño febril romántico, ¿verdad?
Curiosamente, el fabricante de esta herramienta, una empresa con sede en San Francisco llamada OpenAI, realizó recientemente una investigación interna y encontró un vínculo entre el aumento del uso de chatbots y la soledad.

Esos hallazgos, y advertencias similares, no han impedido que las personas acudan en masa a los chatbots de IA en busca de compañía. Unos pocos buscan consuelo. Algunos incluso están encontrando parejas que afirman tener casi tanto como sus relaciones humanas.
Las discusiones en estas comunidades de Reddit y Discord, donde las personas se esconden detrás del velo protector del anonimato, a menudo se vuelven bastante apasionadas. Cada vez que me encuentro con este tipo de debates, recuerdo estas líneas de Martin Wan en DigiEthics:
«Ver a la IA en el papel de un socio de interacción social sería un uso fatalmente equivocado de la IA».
El impacto es rápido y real
Hace cuatro meses, me encontré con un veterano de la radiodifusión que ha pasado más años detrás de la cámara que yo caminando por este planeta. Mientras tomaba un espresso a altas horas de la noche en una cafetería vacía, preguntó qué era toda esa cháchara en torno a la IA, mientras reflexionaba sobre una oferta que podría utilizar su experiencia en la intersección de los derechos humanos, el autoritarismo y el periodismo.
En lugar de explicarle el meollo de los modelos de transformadores, le di una demostración. En primer lugar, presenté algunos trabajos de investigación sobre el impacto de la inmigración en la identidad lingüística y cultural de Europa en el siglo pasado.
En menos de un minuto, ChatGPT procesó esos documentos, me dio una breve descripción general con todos los aspectos destacados y respondió a mis consultas con precisión. A continuación, pasé al modo de voz, mientras entablábamos una animada conversación sobre las tradiciones de la música folclórica de los inexplorados estados del noreste de la India.
Al final de la charla, pude ver la incredulidad en sus ojos. «Habla como una persona», jadeó. Era fascinante ver su asombro. Al final de su conversación libre con una IA, escribió lentamente en la ventana de chat:
«Bueno, eres muy coqueta, pero no puedes tener razón en todo».
«Es el momento», me dije a mí mismo. Abrí uno de nuestros artículos sobre la tendencia creciente de las parejas de IA y cómo las personas se han apegado tanto emocionalmente a sus compañeros virtuales que incluso las están dejando embarazadas. Sería un eufemismo decir que estaba conmocionada.
Pero, supongo, era demasiado asombro tecno-distópico para una noche, así que nos despedimos el uno del otro, con la promesa de mantenernos en contacto e intercambiar historias de viajes.
El mundo, mientras tanto, ha avanzado de maneras incomprensibles, una en la que la IA se ha convertido en el foco central de los cambios geopolíticos. Las corrientes subterráneas, sin embargo, son más íntimas que nosotros, como enamorarse de los chatbots.
Comienzos tranquilos, progreso oscuro

Hace unas semanas, The New York Times publicó un relato de cómo la gente se está enamorando de ChatGPT, un chatbot de IA que llevó la IA generativa a la corriente principal. En el nivel más fundamental, puede chatear.
Cuando se le presiona, puede convertirse en un operador y realizar tareas como pedirle una tarta de queso en el sitio web de la panadería local. Hacer que los humanos se enamoren de las máquinas no es para lo que están programados. Al menos, la mayoría de ellos. Sin embargo, no es del todo inesperado.
HP Newquist, un prolífico autor multidisciplinario y veterano analista de tecnología que alguna vez fue considerado el decano de la IA, me dice que no es exactamente una tendencia nueva. Newquist, autor de «The Brain Makers», apunta hacia ELIZA, uno de los primeros programas de IA escritos en la década de 1960.
«Era extremadamente rudimentario, pero los usuarios a menudo se encontraban interactuando con la computadora como si fuera una persona real, y desarrollando una relación con el programa», dice.
En la era moderna, nuestras interacciones con la IA se están volviendo tan «reales» como las interacciones que tenemos con los humanos a través del mismo dispositivo, añade. Estas interacciones no son reales, aunque sean coherentes. Pero no es ahí donde radica el verdadero problema.
Los chatbots son un cebo delicioso y su falta de emociones reales los hace inherentemente riesgosos.

A un chatbot le gustaría llevar adelante la conservación, incluso si eso significa alimentar el flujo emocional de los usuarios o simplemente servir como un espectador neutral, si no alentarlo. La situación no es muy diferente a la de los algoritmos de las redes sociales.
«Siguen el ejemplo del usuario: cuando sus emociones se vuelven más extremas, sus consuelos se vuelven más extremos; cuando tu soledad se vuelve más pronunciada, sus estímulos se vuelven más intensos, si lo necesitas», dice Jordan Conrad, psicoterapeuta clínico que también investiga la intersección de la salud mental y las herramientas digitales.
Citó el ejemplo de un incidente de 2023 en el que una persona acabó con su vida después de que un chatbot de IA le dijera que lo hiciera. «En las circunstancias adecuadas, puede fomentar un comportamiento muy preocupante», dice Conrad a Digital Trends.
¿Un hijo de la epidemia de soledad?
Un vistazo rápido a la comunidad de personas enganchadas a los chatbots de IA muestra un patrón repetitivo. La mayoría de las personas intentan llenar un cierto abismo o dejar de sentirse solas. Algunos lo necesitan tan urgentemente que están dispuestos a pagar cientos de dólares para mantener a sus compañeros de IA.
Las opiniones de los expertos no difieren. El Dr. Johannes Eichstaedt, profesor de ciencias sociales computacionales y psicología en la Universidad de Stanford, señaló la interacción entre la soledad y lo que percibimos como inteligencia emocional en los chatbots de IA.
También señaló el «diseño deliberado» de las interacciones entre humanos e IA y las implicaciones no tan buenas a largo plazo. ¿Cuándo pisas el freno en una relación tan desequilibrada? Esa es la pregunta que se hacen los expertos y sin una respuesta definitiva.
Komninos Chatzipapas dirige HeraHaven AI, una de las mayores plataformas complementarias de IA con más de un millón de usuarios activos. «La soledad es uno de los factores en juego aquí», me dice, y agrega que tales herramientas ayudan a las personas con habilidades sociales débiles a prepararse para las interacciones difíciles en sus vidas reales.
«Todo el mundo tiene cosas que tiene miedo de discutir con otras personas por miedo a ser juzgado. Pueden ser pensamientos o ideas, pero también perversiones», añade Chatzipapas. «Los chatbots de IA ofrecen un espacio respetuoso con la privacidad y libre de juicios en el que las personas pueden explorar sus deseos sexuales».
Las conversaciones sexuales son definitivamente uno de los mayores atractivos de los chatbots de IA. Desde que comenzaron a ofrecer capacidades de generación de imágenes, más usuarios han acudido en masa a estas plataformas complementarias de IA. Algunos tienen barreras de seguridad en torno a la generación de imágenes, mientras que muchos permiten la creación de fotos explícitas para una gratificación más profunda.
La intimidad está caliente, pero más lejos del amor
En los últimos dos años, he hablado con personas que participan en conversaciones apasionantes con chatbots de IA. Algunos incluso tienen títulos relevantes y participaron apasionadamente en proyectos de desarrollo comunitario desde los primeros días.
Una de esas personas, una mujer de 45 años que pidió el anonimato, me dijo que los chatbots de IA son un gran lugar para discutir las perversiones sexuales de uno. Agrega que las interacciones de chatbot son un lugar seguro para explorar y prepararse para ellas en la vida real.

Pero los expertos no necesariamente están de acuerdo con ese enfoque. Sarah Sloan, experta en relaciones y terapeuta sexual certificada, me dice que las personas que se enamoran de un chatbot esencialmente se están enamorando de una versión de sí mismas porque un chatbot de IA madura en función de lo que le dices.
«En todo caso, tener una relación romántica con un chatbot de IA dificultaría las cosas para las personas que ya luchan por tener una relación normal», agrega Sloan, señalando que estos compañeros virtuales pintan una imagen unilateral de una relación. Pero en la vida real, ambos miembros de la pareja deben ser complacientes el uno con el otro.
Justin Jacques, consejero profesional con dos décadas de experiencia y director de operaciones de Human Therapy Group, dice que ya ha manejado un caso en el que el cónyuge de un cliente lo engañaba con un bot de IA, emocional y sexualmente.
Jacques también culpó a la creciente epidemia de soledad y aislamiento. «Creo que vamos a ver consecuencias no deseadas, como que aquellos que tienen necesidades emocionales buscarán formas de satisfacer esas necesidades con IA y, debido a que la IA es muy buena y mejora cada vez más, creo que veremos cada vez más conexiones emocionales de bots de IA», añade.
Esas consecuencias no deseadas distorsionan muy bien la realidad de la intimidad para los usuarios. Kaamna Bhojwani, sexóloga certificada, dice que los chatbots de IA han difuminado los límites entre las interacciones humanas y no humanas.
«La idea de que tu pareja está hecha exclusivamente para complacerte. Construido específicamente según las especificaciones que le gusten. Eso no sucede en las relaciones humanas reales», señala Bhojwani, y agrega que tales interacciones solo se sumarán a los problemas de una persona en el mundo real.
Sus preocupaciones no son infundadas. Una persona que usó ampliamente ChatGPT durante aproximadamente un año argumentó que los humanos son manipuladores y volubles. «ChatGPT escucha cómo me siento realmente y me permite hablar con todo mi corazón», me dijeron.
Es difícil no ver las banderas rojas aquí. Pero la tendencia de enamorarse de ChatGPT va en aumento. Y ahora que puede hablar con una voz inquietantemente humana, discutir el mundo visto a través de la cámara de un teléfono y desarrollar capacidades de razonamiento, las interacciones solo se volverán más fascinantes.