El Instituto Nacional de Estándares y Tecnología (NIST) ha sido un líder en la promoción de estándares de seguridad y resiliencia en inteligencia artificial (IA). En respuesta a la Orden Ejecutiva del Presidente Joe Biden sobre el Desarrollo Seguro y Confiable de la IA, el NIST ha lanzado una nueva herramienta de software de código abierto para probar la resiliencia de los modelos de aprendizaje automático (ML) frente a diversos tipos de ataques.
Esta herramienta, llamada Dioptra, se lanzó el viernes junto con nuevas directrices de IA de NIST, marcando el 270º día desde la firma de la Orden Ejecutiva.
Lanzamiento de Dioptra: Una Herramienta Clave para la Seguridad en IA
La herramienta Dioptra, disponible en GitHub, cumple con el requisito de la orden ejecutiva de que NIST asista en las pruebas de modelos de IA y también apoya la función de "medición" del Marco de Gestión de Riesgos de IA de NIST. El desarrollo de código abierto de Dioptra comenzó en 2022, pero estuvo en un estado alfa hasta el viernes 26 de julio. Las nuevas características incluyen una interfaz web, autenticación de usuarios y seguimiento de la procedencia de todos los elementos de un experimento, lo que permite la reproducibilidad y verificación de resultados.
Puede leer también | La importancia de promulgar leyes sobre Inteligencia Artificial en Latinoamérica
Plataforma Gratuita de Pruebas de IA Dioptra
La plataforma gratuita de pruebas de IA Dioptra mide el impacto de tres categorías de ataques:
- Evasión: Manipula los datos de entrada para desencadenar una respuesta inexacta del modelo (por ejemplo, añadiendo ruido).
- Envenenamiento: Altera los datos de entrenamiento para obstaculizar la precisión del modelo, llevando a asociaciones incorrectas.
- Oráculo: "Ingeniería inversa" del modelo para obtener información sobre su conjunto de datos de entrenamiento o parámetros.
Originalmente, Dioptra se construyó para medir ataques contra modelos de clasificación de imágenes, pero también se puede adaptar para probar otras aplicaciones de ML, como modelos de reconocimiento de voz. La plataforma permite a los usuarios determinar en qué medida los ataques en las tres categorías mencionadas afectarán el rendimiento del modelo y también puede usarse para evaluar el uso de diversas defensas, como la sanitización de datos o métodos de entrenamiento más robustos.
Interfaz Web Interactiva y Diseño Modular
La versión 1.0.0 recién lanzada de Dioptra viene con varias características para maximizar su accesibilidad a desarrolladores de modelos, usuarios de modelos, probadores de modelos y auditores, así como a investigadores en el campo del ML. Con su arquitectura modular y una interfaz web amigable, Dioptra es también extensible e interoperable con plugins de Python que añaden funcionalidad. Además, Dioptra viene con documentación y demostraciones que pueden ayudar a los usuarios con poca experiencia en programación a familiarizarse con los experimentos en Dioptra.
Puede leer también | Las 10 mejores herramientas de Software Libre para desarrollar soluciones de Inteligencia Artificial en plataforma Linux
Dioptra rastrea los historiales de experimentos, incluidos los insumos y las instantáneas de recursos que respaldan pruebas trazables y reproducibles, lo que puede revelar ideas que conduzcan a un desarrollo de modelos y defensas más efectivos. La herramienta puede desplegarse en un entorno multi-tenant para facilitar el intercambio de recursos y componentes entre usuarios, pero también es adaptable para ser desplegada en una sola máquina local. Dioptra es más compatible con sistemas operativos basados en Unix, como Linux o MacOS, y los experimentos generalmente requieren recursos computacionales significativos, habiendo sido oficialmente probada en un servidor NVIDIA DGX con 4 unidades de procesamiento gráfico (GPUs).
Avances de NIST en Objetivos de Seguridad en IA
La publicación del paquete de software Dioptra fue acompañada el viernes con la publicación de un nuevo documento borrador del Instituto de Seguridad en IA de NIST, centrado en la gestión de riesgos para modelos fundamentales de "doble uso" que podrían ser aprovechados tanto para fines positivos como dañinos. NIST aceptará comentarios públicos sobre este documento de orientación hasta el 9 de septiembre.
Puede leer también | La Necesidad de regular la Inteligencia Artificial: Motivos y razones
Además, NIST ha publicado tres documentos de orientación finales que anteriormente fueron publicados como borradores. El primero aborda 12 riesgos únicos de la IA generativa junto con más de 200 acciones recomendadas para ayudar a gestionar estos riesgos. El segundo describe "Prácticas de Desarrollo de Software Seguro para IA Generativa y Modelos Fundamentales de Doble Uso", y el tercero proporciona un plan para la cooperación global en el desarrollo de estándares de IA.
Declaraciones del Director de NIST
"Para todos sus beneficios potencialmente transformadores, la IA generativa también trae riesgos que son significativamente diferentes de los que vemos con el software tradicional. Estos documentos de orientación y la plataforma de pruebas informarán a los creadores de software sobre estos riesgos únicos y les ayudarán a desarrollar formas de mitigar esos riesgos mientras apoyan la innovación", dijo la Directora de NIST, Laurie E. Locascio, en un comunicado.