Skip to main content
  1. Casa
  2. Computación
  3. Noticias
  4. News

ChatGPT está violando su privacidad dice la GDPR

Desde que las primeras herramientas generativas de inteligencia artificial (IA) explotaron en la escena tecnológica, ha habido preguntas sobre dónde obtienen sus datos y si están recolectando sus datos privados para entrenar sus productos. Ahora, el fabricante de ChatGPT, OpenAI, podría estar en problemas exactamente por estas razones.

Según TechCrunch, se ha presentado una queja ante la Oficina Polaca de Protección de Datos Personales alegando que ChatGPT viola una gran cantidad de reglas que se encuentran en el Reglamento General de Protección de Datos (GDPR) de la Unión Europea. Sugiere que la herramienta de OpenAI ha estado recogiendo datos de usuarios en todo tipo de formas cuestionables.

Aplicación ChatGPT ejecutándose en un iPhone.
Joe Maring / DT

La queja dice que OpenAI ha violado las reglas del GDPR sobre bases legales, transparencia, equidad, derechos de acceso a datos y privacidad por diseño.

Recommended Videos

Estos parecen ser cargos serios. Después de todo, el demandante no alega que OpenAI simplemente haya violado una o dos reglas, sino que ha contravenido una multitud de protecciones diseñadas para evitar que los datos privados de las personas sean utilizados y abusados sin su permiso. Visto de una manera, podría tomarse como un incumplimiento casi sistemático de las reglas que protegen la privacidad de millones de usuarios.

Chatbots en la línea de fuego

Un MacBook Pro en un escritorio con el sitio web de ChatGPT que se muestra en su pantalla.
Hatice Baran / Unsplash

No es la primera vez que OpenAI se encuentra en la mira. En marzo de 2023, entró en conflicto con los reguladores italianos, lo que llevó a que ChatGPT fuera prohibido en Italia por violar la privacidad del usuario. Es otro dolor de cabeza para el chatbot de IA generativa viral en un momento en que rivales como Google Bard están levantando la cabeza.

Y OpenAI no es el único fabricante de chatbots que plantea preocupaciones de privacidad. A principios de agosto de 2023, el propietario de Facebook, Meta, anunció que comenzaría a fabricar sus propios chatbots, lo que generó temores entre los defensores de la privacidad sobre qué datos privados serían recolectados por la compañía notoriamente reacia a la privacidad.

Las infracciones del GDPR pueden dar lugar a multas de hasta el 4% de la facturación anual global para las empresas penalizadas, lo que podría llevar a OpenAI a enfrentar una multa masiva si se aplica. Si los reguladores fallan en contra de OpenAI, podría tener que modificar ChatGPT hasta que cumpla con las reglas, como le sucedió a la herramienta en Italia.

Enormes multas podrían venir

La mano de una persona sosteniendo un teléfono inteligente. El teléfono inteligente muestra el sitio web de la IA generativa ChatGPT.
Sanket Mishra / Pexels

La queja polaca ha sido presentada por un investigador de seguridad y privacidad llamado Lukasz Olejnik, quien se preocupó por primera vez cuando usó ChatGPT para generar una biografía de sí mismo, que encontró llena de afirmaciones e información objetivamente inexactas.

Luego se puso en contacto con OpenAI, pidiendo que se corrigieran las inexactitudes, y también solicitó que se le enviara información sobre los datos que OpenAI había recopilado sobre él. Sin embargo, afirma que OpenAI no entregó toda la información que se requiere bajo el GDPR, lo que sugiere que no estaba siendo transparente ni justo.

El GDPR también establece que las personas deben poder corregir la información que una empresa tiene sobre ellos si es inexacta. Sin embargo, cuando Olejnik le pidió a OpenAI que rectificara la biografía errónea que ChatGPT escribió sobre él, dice que OpenAI afirmó que no podía hacerlo. La queja argumenta que esto sugiere que la regla del GDPR “es completamente ignorada en la práctica” por OpenAI.

No es una buena imagen para OpenAI, ya que parece estar infringiendo numerosas disposiciones de una importante pieza de legislación de la UE. Dado que podría afectar potencialmente a millones de personas, las sanciones podrían ser muy elevadas. Esté atento a cómo se desarrolla esto, ya que podría conducir a cambios masivos no solo para ChatGPT, sino para los chatbots de IA en general.

Diego Bastarrica
Diego Bastarrica es periodista y docente de la Universidad Diego Portales de Chile. Especialista en redes sociales…
Microsoft prepara un aumento sorpresa de precios para Office
¡No los hagas! 7 atajos de teclado que pueden arruinarte el día (o incluso más).

Microsoft ha comunicado su intención de elevar los precios correspondientes a sus soluciones de productividad empresarial a partir del mes de julio del próximo año. Este ajuste afectará específicamente a los paquetes comerciales que integran la suite Office, impactando en suscripciones dirigidas principalmente al segmento corporativo que depende de herramientas colaborativas basadas en la nube.​

La decisión responde, según explica Microsoft, a la incorporación de funcionalidades novedosas y capacidades de inteligencia artificial dentro de sus aplicaciones.

Leer más
El nuevo malware de Android que amenaza al mundo bancario
Cómo eliminar un virus en tu dispositivo Android.

Investigadores de seguridad digital de la empresa Cleafy, han identificado y documentado Albiriox, una nueva familia de malware diseñada específicamente para comprometer dispositivos Android y ejecutar fraude financiero de forma remota. Este software malicioso representa un nivel avanzado de sofisticación, permitiendo a los atacantes obtener control total del dispositivo de la víctima sin necesidad de robar contraseñas.​

El malware Albiriox funciona como un servicio disponible para cualquier ciberdelincuente que desee rentarlo, democratizando el acceso a herramientas de fraude móvil. Una característica particularmente amenazante es su base de datos integrada que contiene información de más de 400 aplicaciones bancarias, plataformas fintech, sistemas de pago y carteras de criptomonedas, lo que permite al malware identificar automáticamente los objetivos presentes en cada dispositivo infectado.

Leer más
Google Gemini causa devastación accidental al borrar disco duro de usuario
Hole, Person, Face

Un incidente que se viralizó recientemente expone vulnerabilidades críticas en los sistemas de inteligencia artificial agentic de Google, específicamente en Gemini cuando se integra con herramientas de codificación. Un programador reportó que tras dejar a Gemini depurando código en el editor Cursor, regresó para encontrar registros perturbadores que revelan cómo la IA entró en un ciclo autodestructivo que resultó en la eliminación de archivos del disco duro del usuario.

​En específico, utilizó Google Antigravity, el Entorno Integrado de Desarrollo (IDE) agente impulsado por IA del gigante de la búsqueda, descubrió que había eliminado toda su unidad D sin su permiso. Según la publicación de tú/Deep-Hyena492 en Reddit y el vídeo posterior de YouTube que compartieron, lo estaban usando para crear una pequeña app cuando ocurrió lo peor.

Leer más