Occidente tiene un problema de confianza con China y sus aplicaciones de internet, eso es un hecho, sobre todo a la luz de lo que está ocurriendo actualmente en Estados Unidos con TikTok. Y algo similar ya se está cuestionando sobre DeepSeek.
El ministro de Ciencia de Australia, Ed Husic, se ha convertido en el primer miembro de un gobierno occidental en plantear preocupaciones de privacidad sobre DeepSeek: «tendría mucho cuidado con eso, este tipo de temas deben sopesarse cuidadosamente», sostuvo en entrevista con ABC News.
¿Cuál es la postura de Estados Unidos?: Donald Trump ha dicho que DeepSeek es una «llamada de atención» para Estados Unidos, pero no pareció sugerir que fuera una amenaza para la seguridad nacional, sino que dijo que incluso podría ser algo bueno si redujera los costos.
¿Es un potencial problema de seguridad DeepSeek? ¿Qué datos recopila?
La misma página de DeepSeek de su Política de privacidad, admite que recopila grandes cantidades de información personal de los usuarios, que luego se almacena «en servidores seguros» en China.
La aplicación afirma que utiliza esta información para mejorar DeepSeek al mejorar su «seguridad, protección y estabilidad».
A continuación, compartirá esta información con otros, como proveedores de servicios, socios publicitarios y su grupo empresarial, que se conservará «durante el tiempo que sea necesario».
Qué información es esa:
- Su dirección de correo electrónico, número de teléfono y fecha de nacimiento, ingresados al crear una cuenta
- Cualquier entrada del usuario, incluidos texto y audio, así como historiales de chat
- La llamada «información técnica», que va desde el modelo y el sistema operativo de su teléfono hasta su dirección IP y «patrones de pulsación de teclas».
Emily Taylor, directora ejecutiva de Oxford Information Labs, comentó en entrevista con BBC, cuáles son los riesgos de DeepSeek:
«Para cualquier modelo de IA disponible abiertamente, con una interfaz web o de aplicaciones, incluido, entre otros, DeepSeek, las indicaciones o preguntas que se hacen a la IA, luego están disponibles para los creadores de ese modelo, al igual que las respuestas. Por lo tanto, cualquiera que trabaje en áreas confidenciales o de seguridad nacional debe ser consciente de esos riesgos», sostuvo.