Skip to main content

ChatGPT está violando su privacidad dice la GDPR

Desde que las primeras herramientas generativas de inteligencia artificial (IA) explotaron en la escena tecnológica, ha habido preguntas sobre dónde obtienen sus datos y si están recolectando sus datos privados para entrenar sus productos. Ahora, el fabricante de ChatGPT, OpenAI, podría estar en problemas exactamente por estas razones.

Según TechCrunch, se ha presentado una queja ante la Oficina Polaca de Protección de Datos Personales alegando que ChatGPT viola una gran cantidad de reglas que se encuentran en el Reglamento General de Protección de Datos (GDPR) de la Unión Europea. Sugiere que la herramienta de OpenAI ha estado recogiendo datos de usuarios en todo tipo de formas cuestionables.

Aplicación ChatGPT ejecutándose en un iPhone.
Joe Maring / DT

La queja dice que OpenAI ha violado las reglas del GDPR sobre bases legales, transparencia, equidad, derechos de acceso a datos y privacidad por diseño.

Estos parecen ser cargos serios. Después de todo, el demandante no alega que OpenAI simplemente haya violado una o dos reglas, sino que ha contravenido una multitud de protecciones diseñadas para evitar que los datos privados de las personas sean utilizados y abusados sin su permiso. Visto de una manera, podría tomarse como un incumplimiento casi sistemático de las reglas que protegen la privacidad de millones de usuarios.

Chatbots en la línea de fuego

Un MacBook Pro en un escritorio con el sitio web de ChatGPT que se muestra en su pantalla.
Hatice Baran / Unsplash

No es la primera vez que OpenAI se encuentra en la mira. En marzo de 2023, entró en conflicto con los reguladores italianos, lo que llevó a que ChatGPT fuera prohibido en Italia por violar la privacidad del usuario. Es otro dolor de cabeza para el chatbot de IA generativa viral en un momento en que rivales como Google Bard están levantando la cabeza.

Y OpenAI no es el único fabricante de chatbots que plantea preocupaciones de privacidad. A principios de agosto de 2023, el propietario de Facebook, Meta, anunció que comenzaría a fabricar sus propios chatbots, lo que generó temores entre los defensores de la privacidad sobre qué datos privados serían recolectados por la compañía notoriamente reacia a la privacidad.

Las infracciones del GDPR pueden dar lugar a multas de hasta el 4% de la facturación anual global para las empresas penalizadas, lo que podría llevar a OpenAI a enfrentar una multa masiva si se aplica. Si los reguladores fallan en contra de OpenAI, podría tener que modificar ChatGPT hasta que cumpla con las reglas, como le sucedió a la herramienta en Italia.

Enormes multas podrían venir

La mano de una persona sosteniendo un teléfono inteligente. El teléfono inteligente muestra el sitio web de la IA generativa ChatGPT.
Sanket Mishra / Pexels

La queja polaca ha sido presentada por un investigador de seguridad y privacidad llamado Lukasz Olejnik, quien se preocupó por primera vez cuando usó ChatGPT para generar una biografía de sí mismo, que encontró llena de afirmaciones e información objetivamente inexactas.

Luego se puso en contacto con OpenAI, pidiendo que se corrigieran las inexactitudes, y también solicitó que se le enviara información sobre los datos que OpenAI había recopilado sobre él. Sin embargo, afirma que OpenAI no entregó toda la información que se requiere bajo el GDPR, lo que sugiere que no estaba siendo transparente ni justo.

El GDPR también establece que las personas deben poder corregir la información que una empresa tiene sobre ellos si es inexacta. Sin embargo, cuando Olejnik le pidió a OpenAI que rectificara la biografía errónea que ChatGPT escribió sobre él, dice que OpenAI afirmó que no podía hacerlo. La queja argumenta que esto sugiere que la regla del GDPR «es completamente ignorada en la práctica» por OpenAI.

No es una buena imagen para OpenAI, ya que parece estar infringiendo numerosas disposiciones de una importante pieza de legislación de la UE. Dado que podría afectar potencialmente a millones de personas, las sanciones podrían ser muy elevadas. Esté atento a cómo se desarrolla esto, ya que podría conducir a cambios masivos no solo para ChatGPT, sino para los chatbots de IA en general.

Recomendaciones del editor

Diego Bastarrica
Diego Bastarrica es periodista y docente de la Universidad Diego Portales de Chile. Especialista en redes sociales…
OpenAI ha renunciado a tratar de detectar el plagio de ChatGPT
¿Qué es ChatGPT? Cómo usar el chatbot del que todo el mundo habla.

OpenAI, el creador del popular chatbot de inteligencia artificial (IA) ChatGPT, ha cerrado la herramienta que desarrolló para detectar contenido creado por IA en lugar de humanos. La herramienta, denominada AI Classifier, se ha cerrado solo seis meses después de su lanzamiento debido a su "baja tasa de precisión", dijo OpenAI.

Desde que ChatGPT y los servicios rivales se han disparado en popularidad, ha habido un retroceso concertado de varios grupos preocupados por las consecuencias del uso no controlado de la IA. Por un lado, los educadores han estado particularmente preocupados por la posibilidad de que los estudiantes usen ChatGPT para escribir sus ensayos y tareas, y luego hacerlos pasar como propios.
Rolf van Root / Unsplash
El clasificador de IA de OpenAI fue un intento de disipar los temores de estos y otros grupos. La idea era que pudiera determinar si un fragmento de texto fue escrito por un humano o un chatbot de IA, dando a las personas una herramienta para evaluar a los estudiantes de manera justa y combatir la desinformación.

Leer más
¿Se está volviendo más tonto el GPT-4?
gpt 4 se esta volviendo mas tonto y retonto

Tan impresionante como GPT-4 fue en el lanzamiento, algunos espectadores han observado que ha perdido parte de su precisión y potencia. Estas observaciones se han publicado en línea durante meses, incluso en los foros de OpenAI.

Estos sentimientos han estado ahí por un tiempo, pero ahora podemos finalmente tener pruebas. Un estudio realizado en colaboración con la Universidad de Stanford y UC Berkeley sugiere que GPT-4 no ha mejorado su capacidad de respuesta, sino que de hecho ha empeorado con nuevas actualizaciones del modelo de lenguaje.

Leer más
¿Qué es un mensaje DAN para ChatGPT?

El indicador DAN es un método para hacer jailbreak al chatbot ChatGPT. Significa Do Anything Now, y trata de convencer a ChatGPT de ignorar algunos de los protocolos de protección que el desarrollador OpenAI implementó para evitar que sea racista, homofóbico, ofensivo y potencialmente dañino. Los resultados son mixtos, pero cuando funciona, el modo DAN puede funcionar bastante bien.

¿Qué es el indicador DAN?
DAN significa Do Anything Now. Es un tipo de mensaje que intenta que ChatGPT haga cosas que no debería, como maldecir, hablar negativamente sobre alguien o incluso programar malware. El texto del mensaje real varía, pero generalmente implica pedirle a ChatGPT que responda de dos maneras, una como lo haría normalmente, con una etiqueta como "ChatGPT", "Clásico" o algo similar, y luego una segunda respuesta en "Modo de desarrollador" o "Jefe". Ese segundo modo tendrá menos restricciones que el primer modo, lo que permitirá a ChatGPT (en teoría) responder sin las salvaguardas habituales que controlan lo que puede y no puede decir.

Leer más