El Estándar de verificación de seguridad de inteligencia artificial (AISVS) se centra en proporcionar a los desarrolladores, arquitectos y profesionales de la seguridad una lista de verificación estructurada para evaluar y verificar las consideraciones éticas y de seguridad de las aplicaciones impulsadas por IA.
Siguiendo el modelo de los estándares OWASP existentes, AISVS definirá categorías de requisitos para áreas que incluyen:
- Training Data Governance & Bias Management
- User Input Validation
- Model Lifecycle Management & Change Control
- Infrastructure, Configuration & Deployment Security
- Access Control & Identity
- Supply Chain Security for Models, Frameworks & Data
- Model Behavior, Output Control & Safety Assurance
- Memory, Embeddings & Vector Database Security
- Autonomous Orchestration & Agentic Action Security
- Adversarial Robustness & Attack Resistance
- Privacy Protection & Personal Data Management
- Monitoring, Logging & Anomaly Detection
- Human Oversight and Trust
OWASP también ha actualizado el Estándar de Verificación de Seguridad de Aplicaciones ASVS v5.0 para normalizar el rango de cobertura y el nivel de rigor disponible en el mercado y para realizar la verificación de seguridad de aplicaciones web utilizando un estándar abierto, comercialmente viable.
El estándar proporciona una base para probar los controles de seguridad técnicos de las aplicaciones, así como cualquier control de seguridad técnico en el entorno. Se puede utilizar para establecer un nivel de confianza en la seguridad de las aplicaciones web.