Desde que las primeras herramientas generativas de inteligencia artificial (IA) explotaron en la escena tecnológica, ha habido preguntas sobre dónde obtienen sus datos y si están recolectando sus datos privados para entrenar sus productos. Ahora, el fabricante de ChatGPT, OpenAI, podría estar en problemas exactamente por estas razones.
Según TechCrunch, se ha presentado una queja ante la Oficina Polaca de Protección de Datos Personales alegando que ChatGPT viola una gran cantidad de reglas que se encuentran en el Reglamento General de Protección de Datos (GDPR) de la Unión Europea. Sugiere que la herramienta de OpenAI ha estado recogiendo datos de usuarios en todo tipo de formas cuestionables.
La queja dice que OpenAI ha violado las reglas del GDPR sobre bases legales, transparencia, equidad, derechos de acceso a datos y privacidad por diseño.
Estos parecen ser cargos serios. Después de todo, el demandante no alega que OpenAI simplemente haya violado una o dos reglas, sino que ha contravenido una multitud de protecciones diseñadas para evitar que los datos privados de las personas sean utilizados y abusados sin su permiso. Visto de una manera, podría tomarse como un incumplimiento casi sistemático de las reglas que protegen la privacidad de millones de usuarios.
Chatbots en la línea de fuego
No es la primera vez que OpenAI se encuentra en la mira. En marzo de 2023, entró en conflicto con los reguladores italianos, lo que llevó a que ChatGPT fuera prohibido en Italia por violar la privacidad del usuario. Es otro dolor de cabeza para el chatbot de IA generativa viral en un momento en que rivales como Google Bard están levantando la cabeza.
Y OpenAI no es el único fabricante de chatbots que plantea preocupaciones de privacidad. A principios de agosto de 2023, el propietario de Facebook, Meta, anunció que comenzaría a fabricar sus propios chatbots, lo que generó temores entre los defensores de la privacidad sobre qué datos privados serían recolectados por la compañía notoriamente reacia a la privacidad.
Las infracciones del GDPR pueden dar lugar a multas de hasta el 4% de la facturación anual global para las empresas penalizadas, lo que podría llevar a OpenAI a enfrentar una multa masiva si se aplica. Si los reguladores fallan en contra de OpenAI, podría tener que modificar ChatGPT hasta que cumpla con las reglas, como le sucedió a la herramienta en Italia.
Enormes multas podrían venir
La queja polaca ha sido presentada por un investigador de seguridad y privacidad llamado Lukasz Olejnik, quien se preocupó por primera vez cuando usó ChatGPT para generar una biografía de sí mismo, que encontró llena de afirmaciones e información objetivamente inexactas.
Luego se puso en contacto con OpenAI, pidiendo que se corrigieran las inexactitudes, y también solicitó que se le enviara información sobre los datos que OpenAI había recopilado sobre él. Sin embargo, afirma que OpenAI no entregó toda la información que se requiere bajo el GDPR, lo que sugiere que no estaba siendo transparente ni justo.
El GDPR también establece que las personas deben poder corregir la información que una empresa tiene sobre ellos si es inexacta. Sin embargo, cuando Olejnik le pidió a OpenAI que rectificara la biografía errónea que ChatGPT escribió sobre él, dice que OpenAI afirmó que no podía hacerlo. La queja argumenta que esto sugiere que la regla del GDPR «es completamente ignorada en la práctica» por OpenAI.
No es una buena imagen para OpenAI, ya que parece estar infringiendo numerosas disposiciones de una importante pieza de legislación de la UE. Dado que podría afectar potencialmente a millones de personas, las sanciones podrían ser muy elevadas. Esté atento a cómo se desarrolla esto, ya que podría conducir a cambios masivos no solo para ChatGPT, sino para los chatbots de IA en general.