Skip to main content

ChatGPT está violando su privacidad dice la GDPR

Desde que las primeras herramientas generativas de inteligencia artificial (IA) explotaron en la escena tecnológica, ha habido preguntas sobre dónde obtienen sus datos y si están recolectando sus datos privados para entrenar sus productos. Ahora, el fabricante de ChatGPT, OpenAI, podría estar en problemas exactamente por estas razones.

Según TechCrunch, se ha presentado una queja ante la Oficina Polaca de Protección de Datos Personales alegando que ChatGPT viola una gran cantidad de reglas que se encuentran en el Reglamento General de Protección de Datos (GDPR) de la Unión Europea. Sugiere que la herramienta de OpenAI ha estado recogiendo datos de usuarios en todo tipo de formas cuestionables.

Aplicación ChatGPT ejecutándose en un iPhone.
Joe Maring / DT

La queja dice que OpenAI ha violado las reglas del GDPR sobre bases legales, transparencia, equidad, derechos de acceso a datos y privacidad por diseño.

Estos parecen ser cargos serios. Después de todo, el demandante no alega que OpenAI simplemente haya violado una o dos reglas, sino que ha contravenido una multitud de protecciones diseñadas para evitar que los datos privados de las personas sean utilizados y abusados sin su permiso. Visto de una manera, podría tomarse como un incumplimiento casi sistemático de las reglas que protegen la privacidad de millones de usuarios.

Chatbots en la línea de fuego

Un MacBook Pro en un escritorio con el sitio web de ChatGPT que se muestra en su pantalla.
Hatice Baran / Unsplash

No es la primera vez que OpenAI se encuentra en la mira. En marzo de 2023, entró en conflicto con los reguladores italianos, lo que llevó a que ChatGPT fuera prohibido en Italia por violar la privacidad del usuario. Es otro dolor de cabeza para el chatbot de IA generativa viral en un momento en que rivales como Google Bard están levantando la cabeza.

Y OpenAI no es el único fabricante de chatbots que plantea preocupaciones de privacidad. A principios de agosto de 2023, el propietario de Facebook, Meta, anunció que comenzaría a fabricar sus propios chatbots, lo que generó temores entre los defensores de la privacidad sobre qué datos privados serían recolectados por la compañía notoriamente reacia a la privacidad.

Las infracciones del GDPR pueden dar lugar a multas de hasta el 4% de la facturación anual global para las empresas penalizadas, lo que podría llevar a OpenAI a enfrentar una multa masiva si se aplica. Si los reguladores fallan en contra de OpenAI, podría tener que modificar ChatGPT hasta que cumpla con las reglas, como le sucedió a la herramienta en Italia.

Enormes multas podrían venir

La mano de una persona sosteniendo un teléfono inteligente. El teléfono inteligente muestra el sitio web de la IA generativa ChatGPT.
Sanket Mishra / Pexels

La queja polaca ha sido presentada por un investigador de seguridad y privacidad llamado Lukasz Olejnik, quien se preocupó por primera vez cuando usó ChatGPT para generar una biografía de sí mismo, que encontró llena de afirmaciones e información objetivamente inexactas.

Luego se puso en contacto con OpenAI, pidiendo que se corrigieran las inexactitudes, y también solicitó que se le enviara información sobre los datos que OpenAI había recopilado sobre él. Sin embargo, afirma que OpenAI no entregó toda la información que se requiere bajo el GDPR, lo que sugiere que no estaba siendo transparente ni justo.

El GDPR también establece que las personas deben poder corregir la información que una empresa tiene sobre ellos si es inexacta. Sin embargo, cuando Olejnik le pidió a OpenAI que rectificara la biografía errónea que ChatGPT escribió sobre él, dice que OpenAI afirmó que no podía hacerlo. La queja argumenta que esto sugiere que la regla del GDPR «es completamente ignorada en la práctica» por OpenAI.

No es una buena imagen para OpenAI, ya que parece estar infringiendo numerosas disposiciones de una importante pieza de legislación de la UE. Dado que podría afectar potencialmente a millones de personas, las sanciones podrían ser muy elevadas. Esté atento a cómo se desarrolla esto, ya que podría conducir a cambios masivos no solo para ChatGPT, sino para los chatbots de IA en general.

Recomendaciones del editor

Diego Bastarrica
Diego Bastarrica es periodista y docente de la Universidad Diego Portales de Chile. Especialista en redes sociales…
ChatGPT actualmente en un desastre y en spanglish
chatgpt se convierte en un desastre spanglish

Jacob Roach / DT
He visto una buena cantidad de respuestas desquiciadas de la IA, una de las cuales fue cuando Bing Chat me dijo que quería ser humano el año pasado, pero ChatGPT se ha mantenido cuerdo desde que se presentó por primera vez. Eso está cambiando, ya que los usuarios están inundando las redes sociales con respuestas desquiciadas y sin sentido provenientes del chatbot.

En muchos informes, ChatGPT simplemente escupe galimatías. Por ejemplo, u/Bullroarer_Took recurrió al subreddit de ChatGPT para mostrar una respuesta en la que una serie de jerga y una estructura de oraciones adecuada dan la apariencia de una respuesta, pero una lectura atenta muestra que la IA escupe tonterías.

Leer más
Descubren dos chatbots similares a ChatGPT, pero para realizar fraudes
ChatGPT: qué es y cómo usar el chatbot del que todo el mundo habla.

Un equipo de investigadores en ciberseguridad de Trustwave documentaron la existencia de dos chatbots que funcionan de forma similar a ChatGPT, pero que están específicamente diseñados para crear estafas. 

Estos softwares de modelo de lenguaje son conocidos como WormGPT y FraudGPT y se ofertan en la dark web bajo suscripciones mensuales o anuales, y hasta con la posibilidad de comprar un chatbot personalizado para realizar fraudes en línea. Los precios oscilan entre los $90 y los $200 dólares por una suscripción mensual, entre $500 y $1,000 dólares por una suscripción semestral y entre $800 y $1,700 dólares por un año completo de servicio.

Leer más
¿ChatGPT está filtrando contraseñas y conversaciones privadas?
ChatGPT: qué es y cómo usar el chatbot del que todo el mundo habla.

Una situación preocupante está detectando en las últimas horas el sitio ArsTechnica, ya que en un informe indica que varios usuarios están entregando pantallazos de errores y filtraciones de datos y contraseñas de ChatGPT.

Un usuario en particular reportó pantallazos que contenían varios pares de nombres de usuario y contraseñas que parecían estar conectados a un sistema de apoyo utilizado por los empleados de un portal de medicamentos recetados de farmacia.

Leer más