El MIT acaba de estrenar un documento esencial para instituciones laborales, gubernamentales, públicas y estudiantiles sobre los riesgos que conlleva el uso de IA y una categorización de potenciales peligros.
El Repositorio de Riesgos de IA, es una base de datos completa de cientos de riesgos documentados que plantean los sistemas de IA. El repositorio tiene como objetivo ayudar a los responsables de la toma de decisiones en el gobierno, la investigación y la industria a evaluar los riesgos cambiantes de la IA.
Como dice la gente del MIT: «Una completa base de datos viva de más de 700 riesgos de IA categorizados por su causa y dominio de riesgo».
El Repositorio de Riesgos de IA consta de tres partes:
- La base de datos de riesgos de IA captura 700+ riesgos extraídos de 43 marcos existentes, con citas y números de página.
- La taxonomía causal de los riesgos de la IA clasifica cómo, cuándo y por qué se producen estos riesgos.
- La Taxonomía de Dominios de Riesgos de IA clasifica estos riesgos en siete dominios (por ejemplo, «Desinformación») y 23 subdominios (por ejemplo, «Información falsa o engañosa»).
El repositorio de riesgos de IA proporciona:
- Una visión general accesible del panorama de riesgos de la IA.
- Una fuente de información actualizada regularmente sobre nuevos riesgos e investigaciones.
- Un marco de referencia común para investigadores, desarrolladores, empresas, evaluadores, auditores, responsables políticos y reguladores.
- Un recurso para ayudar a desarrollar investigaciones, currículos, auditorías y políticas.
- Una manera fácil de encontrar riesgos e investigaciones relevantes.
«Comenzamos nuestro proyecto con el objetivo de comprender cómo las organizaciones están respondiendo a los riesgos de la IA», dijo Peter Slattery, postdoctorado entrante en MIT FutureTech y líder del proyecto, al sitio VentureBeat. «Queríamos una visión completa de los riesgos de la IA para utilizarla como lista de comprobación, pero cuando analizamos la literatura, descubrimos que las clasificaciones de riesgos existentes eran como piezas de un rompecabezas: individualmente interesantes y útiles, pero incompletas».
El repositorio utiliza un sistema de clasificación bidimensional. En primer lugar, los riesgos se clasifican en función de sus causas, teniendo en cuenta la entidad responsable (humana o de IA), la intención (intencionada o no intencionada) y el momento del riesgo (antes o después del despliegue). Esta taxonomía causal ayuda a comprender las circunstancias y los mecanismos por los que pueden surgir los riesgos de la IA.
En segundo lugar, los riesgos se clasifican en siete dominios distintos, que incluyen la discriminación y la toxicidad, la privacidad y la seguridad, la desinformación y los actores malintencionados y el uso indebido.
El repositorio de riesgos de inteligencia artificial está concebido como una base de datos dinámica. Está disponible para el público y las organizaciones pueden descargarla para su uso personal. El equipo de investigación tiene previsto actualizar la base de datos regularmente con nuevos riesgos, descubrimientos investigativos y tendencias en desarrollo.