Skip to main content
  1. Home
  2. Computación
  3. Noticias
  4. News

Microsoft liberó accidentalmente 38 TB de datos privados

Add as a preferred source on Google

Se acaba de revelar que los investigadores de Microsoft filtraron accidentalmente 38TB de información confidencial en la página GitHub de la compañía, donde potencialmente cualquiera podría verla. Entre el tesoro de datos había una copia de seguridad de las estaciones de trabajo de dos ex empleados, que contenían claves, contraseñas, secretos y más de 30,000 mensajes privados de Teams.

Según la firma de seguridad en la nube Wiz, la filtración se publicó en el repositorio GitHub de inteligencia artificial (IA) de Microsoft y se incluyó accidentalmente en un tramo de datos de entrenamiento de código abierto. Eso significa que se alentó a los visitantes a descargarlo, lo que significa que podría haber caído en las manos equivocadas una y otra vez.

Un monitor grande que muestra una advertencia de violación de piratería de seguridad.
Stock Depot / Getty Images

Las violaciones de datos pueden provenir de todo tipo de fuentes, pero será particularmente vergonzoso para Microsoft que esta se haya originado con sus propios investigadores de IA. El informe de Wiz indica que Microsoft cargó los datos utilizando tokens de firma de acceso compartido (SAS), una característica de Azure, que permite a los usuarios compartir datos a través de cuentas de Azure Storage.

Recommended Videos

A los visitantes del repositorio se les pidió que descargaran los datos de entrenamiento de una URL proporcionada. Sin embargo, la dirección web otorgaba acceso a mucho más que solo los datos de entrenamiento planificados, y permitía a los usuarios navegar por archivos y carpetas que no estaban destinados a ser de acceso público.

Control total

Una persona que usa una computadora portátil con un conjunto de código visto en la pantalla.
Sora Shimazaki / Pexels

Se pone peor. El token de acceso que permitió todo esto estaba mal configurado para proporcionar permisos de control total, informó Wiz, en lugar de permisos de solo lectura más restrictivos. En la práctica, eso significaba que cualquiera que visitara la URL podía eliminar y sobrescribir los archivos que encontraba, no simplemente verlos.

Wiz explica que esto podría haber tenido consecuencias nefastas. Como el repositorio estaba lleno de datos de entrenamiento de IA, la intención era que los usuarios los descargaran y los introdujeran en un script, mejorando así sus propios modelos de IA.

Sin embargo, debido a que estaba abierto a la manipulación gracias a sus permisos mal configurados, «un atacante podría haber inyectado código malicioso en todos los modelos de IA en esta cuenta de almacenamiento, y todos los usuarios que confían en el repositorio GitHub de Microsoft habrían sido infectados por él», explica Wiz.

Desastre potencial

Una representación digital de una computadora portátil siendo pirateada por un hacker.
Tendencias digitales

El informe también señaló que la creación de tokens SAS, que otorgan acceso a carpetas de Azure Storage como esta, no crea ningún tipo de rastro de papel, lo que significa que «no hay forma de que un administrador sepa que este token existe y dónde circula». Cuando un token tiene permisos de acceso completo como este, los resultados pueden ser potencialmente desastrosos.

Afortunadamente, Wiz explica que informó el problema a Microsoft en junio de 2023. El token SAS con fugas fue reemplazado en julio, y Microsoft completó su investigación interna en agosto. El lapso de seguridad acaba de ser reportado al público para dar tiempo a solucionarlo por completo.

Es un recordatorio de que incluso las acciones aparentemente inocentes pueden conducir a violaciones de datos. Afortunadamente, el problema ha sido parcheado, pero se desconoce si los piratas informáticos obtuvieron acceso a alguno de los datos confidenciales del usuario antes de que se eliminaran.

Diego Bastarrica
Diego Bastarrica es periodista y docente de la Universidad Diego Portales de Chile. Especialista en redes sociales…
ChatGPT da el tiro de gracia a GPT-4o, GPT-4.1, GPT-4.1 mini y o4-mini
ChatGPT

Una importante reducción de modelos hará desde el 13 de febrero la gente de OpenAI en ChatGPT, ya que el popular chatbot  pronto descontinuará varios de los modelos GPT.

En dos semanas OpenAI eliminará los modelos GPT-4o, GPT-4.1, GPT-4.1 mini y OpenAI o4-mini de ChatGPT. La retirada de estos modelos antiguos probablemente no afectará a la mayoría de los usuarios, ya que OpenAI afirma que la mayoría de los usuarios han pasado a GPT-5.2 (y que GPT-4o solo lo usa el 0,1 por ciento de los usuarios a diario).

Read more
Windows 11 sumaría una barra superior al estilo macOS gracias a PowerToys
Computer, Electronics, Pc

Microsoft está probando un cambio llamativo en la interfaz de Windows 11: una barra de menú superior opcional, similar a la de macOS o algunas distribuciones de Linux. La idea surge desde el equipo de PowerToys, la suite de herramientas avanzadas para usuarios de Windows, que trabaja en un nuevo componente llamado Command Palette Dock.

Según los primeros detalles publicados por la propia Microsoft y recogidos por medios especializados, el dock funcionaría como una franja permanente en el borde de la pantalla —por defecto, en la parte superior— que mostraría información del sistema y accesos directos a herramientas y comandos. La propuesta contempla también la posibilidad de ubicarla en los laterales o en la parte inferior, según prefiera cada usuario.

Read more
Anthropic enfrenta multimillonaria demanda por piratería musical
Pirata

La empresa de inteligencia artificial Anthropic, creadora del popular modelo de lenguaje Claude, se encuentra en el ojo del huracán tras una nueva demanda presentada por los principales sellos discográficos del mundo. Universal Music Publishing Group, Concord Music Group y ABKCO acusaron formalmente a la compañía de utilizar más de 20 mil canciones protegidas por derechos de autor sin autorización para entrenar sus modelos de IA.

Según el documento legal presentado el pasado 28 de enero ante los tribunales de California, Anthropic descargó intencionalmente millones de archivos mediante BitTorrent desde sitios de piratería como LibGen y PiLiMi, incluyendo composiciones musicales y partituras pertenecientes a artistas consagrados como The Rolling Stones, Neil Diamond, Elton John y Coldplay, entre muchos otros.

Read more