Ley de IA2026-04-1610 min de lectura

Sistema de gestión de riesgos de IA: Guía completa para el Reglamento de IA de la UE (Art. 9)

MW
Malte Wagenbach

Founder & CEO, Matproof

Sistema de gestión de riesgos de IA: Guía completa para el Reglamento de IA de la UE (Art. 9)

Un sistema de gestión de riesgos de IA en el marco del Reglamento de IA de la UE es un sistema continuo e iterativo requerido por el Art. 9 para cada sistema de IA de alto riesgo — que abarca la identificación, el análisis, la evaluación y la mitigación de riesgos a lo largo de todo el ciclo de vida de la IA, desde el diseño hasta el despliegue y el seguimiento poscomercialización. Este sistema debe establecerse, documentarse y mantenerse antes del plazo de aplicación del 2 de agosto de 2026, con multas de hasta 15 millones de euros o el 3% del volumen de negocio anual mundial en caso de incumplimiento (Art. 99). Según una encuesta de la OCDE de 2025, solo el 34% de las organizaciones que utilizan IA en la UE dispone de un proceso formal de gestión de riesgos de IA, y la Comisión Europea estima que el sistema cuesta entre 6.000 y 7.000 € por sistema de IA de alto riesgo.

Esta guía cubre lo que el Art. 9 exige específicamente, cómo construir un sistema conforme desde cero, una lista de comprobación práctica y las herramientas que pueden ayudar.

Realiza la evaluación gratuita de preparación para el AI Act para evaluar tu madurez actual en gestión de riesgos.

Lo que exige el Art. 9

El Artículo 9 del Reglamento de IA de la UE establece seis requisitos fundamentales para el sistema de gestión de riesgos:

1. Proceso continuo e iterativo (Art. 9(1))

El sistema de gestión de riesgos debe ser un proceso iterativo continuo planificado y ejecutado a lo largo de todo el ciclo de vida del sistema de IA de alto riesgo. Debe actualizarse de forma regular y sistemática. No es una evaluación puntual — es un sistema vivo.

Implicación clave: Las revisiones anuales de riesgos son insuficientes. Necesitas un proceso que desencadene una reevaluación cuando el sistema de IA cambie, cuando surjan nuevos riesgos o cuando los datos poscomercialización revelen un comportamiento inesperado.

2. Identificación de riesgos (Art. 9(2)(a))

Debes identificar y analizar los riesgos conocidos y razonablemente previsibles que el sistema de IA de alto riesgo puede presentar para:

  • La salud y la seguridad de las personas
  • Los derechos fundamentales de las personas
  • El medioambiente (cuando corresponda)

Deben cubrirse tanto el uso previsto como las condiciones de uso indebido razonablemente previsible.

3. Estimación y evaluación de riesgos (Art. 9(2)(b))

Para cada riesgo identificado, estima:

  • La probabilidad de que se materialice el riesgo
  • La gravedad del daño potencial
  • Los grupos afectados y su vulnerabilidad

Después evalúa si el riesgo residual (tras la mitigación) es aceptable teniendo en cuenta los beneficios del sistema y el estado de la técnica.

4. Mitigación de riesgos (Art. 9(2)(c)-(d))

Adoptar medidas de gestión de riesgos apropiadas y específicas. El Reglamento de IA especifica una jerarquía:

  1. Eliminar los riesgos mediante decisiones de diseño y desarrollo donde sea posible
  2. Reducir los riesgos mediante medidas de mitigación y control adecuadas
  3. Informar a los deployers sobre los riesgos residuales a través de instrucciones de uso y medidas de transparencia
  4. Medidas técnicas que incluyan prácticas de gobernanza de datos conforme al Art. 10

5. Pruebas (Art. 9(7)-(8))

Las pruebas deben realizarse para:

  • Identificar las medidas de gestión de riesgos más apropiadas
  • Garantizar que el sistema cumple los requisitos de manera coherente
  • Validar frente a métricas predefinidas apropiadas para el propósito previsto del sistema

Las pruebas deben incluir:

  • Pruebas en condiciones reales
  • Pruebas antes de la comercialización del sistema
  • Pruebas durante todo el ciclo de vida del sistema
  • Pruebas específicas sobre sesgos y equidad

6. Consideración del impacto en grupos específicos (Art. 9(9))

Los sistemas de IA de alto riesgo que afecten a niños, personas con discapacidad u otros grupos vulnerables deben tener en cuenta las características específicas de esos grupos en el proceso de gestión de riesgos.

El marco de cuatro fases

Fase 1: Identificación de riesgos

Duración: 1–2 semanas por sistema de IA

Actividades:

  • Mapear el alcance decisional y el contexto de despliegue del sistema de IA
  • Identificar todas las partes interesadas (usuarios, sujetos, partes afectadas)
  • Realizar una lluvia de ideas estructurada sobre riesgos (AMFE, HAZOP adaptados para IA)
  • Revisar los riesgos conocidos de sistemas de IA similares o de la literatura académica
  • Analizar escenarios de uso indebido (entradas adversariales, deriva de objetivos, sobredependencia)
  • Documentar los riesgos relacionados con los datos (sesgo, calidad, representatividad)

Entregable: Registro de riesgos — un catálogo estructurado de todos los riesgos identificados con descripciones, categorías y partes afectadas.

Fase 2: Análisis y evaluación de riesgos

Duración: 1–2 semanas por sistema de IA

Actividades:

  • Evaluar cada riesgo en cuanto a probabilidad (1–5) y gravedad (1–5)
  • Calcular los números de prioridad de riesgo (Probabilidad × Gravedad × Detectabilidad)
  • Mapear los riesgos respecto a los derechos fundamentales afectados (no discriminación, privacidad, dignidad humana)
  • Evaluar los riesgos frente al estado de la técnica — ¿qué mitigaciones son técnicamente factibles?
  • Evaluar la aceptabilidad del riesgo residual: ¿es el riesgo restante proporcional a los beneficios del sistema?

Entregable: Matriz de evaluación de riesgos con puntuaciones, prioridades y determinaciones de aceptabilidad.

Fase 3: Mitigación de riesgos

Duración: 2–4 semanas por sistema de IA

Actividades:

  • Diseñar medidas de mitigación para cada riesgo inaceptable
  • Implementar controles técnicos (preprocesamiento de datos, restricciones de salida, umbrales de confianza)
  • Implementar controles organizativos (procedimientos de supervisión humana, vías de escalada)
  • Actualizar la documentación del sistema para reflejar las mitigaciones
  • Comunicar los riesgos residuales a los deployers mediante las instrucciones de uso (Art. 13)

Jerarquía de mitigación (Art. 9(2)(c)):

Prioridad Enfoque Ejemplo
1.ª Eliminar por diseño Suprimir características de entrenamiento sesgadas
2.ª Controles técnicos Añadir umbrales de confianza, validación de salidas
3.ª Controles organizativos Revisión humana para decisiones límite
4.ª Informar a los deployers Documentar limitaciones y salvaguardas recomendadas

Entregable: Plan de mitigación con responsabilidades asignadas, calendarios y criterios de éxito.

Fase 4: Supervisión y revisión

Duración: Continua

Actividades:

  • Establecer métricas de supervisión del rendimiento (precisión, equidad, robustez)
  • Implementar la detección de deriva para los modelos desplegados
  • Recopilar retroalimentación poscomercialización de los deployers y las personas afectadas
  • Planificar reevaluaciones periódicas de riesgos (mínimo trimestral para riesgos de alta gravedad)
  • Procesar los informes de incidentes y los cuasi-incidentes
  • Actualizar el registro de riesgos con los nuevos hallazgos

Entregable: Plan de supervisión poscomercialización + Informes periódicos de revisión de riesgos.

Lista de comprobación de gestión de riesgos de IA

Gobernanza

  • Responsable de la gestión de riesgos de IA designado (persona o equipo)
  • Apetito de riesgo y umbrales de tolerancia definidos
  • Líneas de reporte establecidas hacia la dirección general
  • Gestión de riesgos de IA integrada en el marco de riesgos empresarial existente

Identificación de riesgos

  • Inventario de sistemas de IA completado con clasificaciones de riesgos
  • Uso previsto y uso indebido previsible documentados para cada sistema
  • Riesgos para la salud, la seguridad y los derechos fundamentales identificados
  • Impacto en grupos vulnerables evaluado (Art. 9(9))
  • Registro de riesgos vivo mantenido

Análisis de riesgos

  • Todos los riesgos evaluados en cuanto a probabilidad y gravedad
  • Aceptabilidad del riesgo residual evaluada
  • Mitigaciones comparadas con el estado de la técnica

Mitigación de riesgos

  • Medidas de mitigación implementadas según la jerarquía
  • Riesgos residuales documentados en las instrucciones de los deployers (Art. 13)
  • Mitigaciones validadas mediante pruebas (Art. 9(7))

Pruebas

  • Métricas preliminares definidas según Art. 9(8)
  • Pruebas realizadas en condiciones reales
  • Pruebas de sesgo y equidad para características protegidas
  • Resultados de las pruebas documentados con determinaciones de superado/fallado

Supervisión

  • Sistema de supervisión poscomercialización establecido (Art. 72)
  • Procedimientos de notificación de incidentes definidos (Art. 73)
  • Revisiones periódicas de riesgos planificadas (mínimo trimestral)
  • Canales de retroalimentación de deployers creados

Errores comunes

1. Tratar la gestión de riesgos como un ejercicio puntual

El Art. 9(1) exige explícitamente un proceso iterativo continuo. Las organizaciones que completan una evaluación de riesgos en el despliegue y nunca la revisan son no conformes.

2. Ignorar el uso indebido previsible

El Art. 9(2)(a) requiere la evaluación de riesgos tanto del uso previsto como del uso indebido razonablemente previsible. Un sistema de puntuación de crédito diseñado para decisiones de préstamo pero que podría usarse para la selección de empleados crea riesgos que el proveedor debe anticipar.

3. No cumplir los requisitos de prueba

El Art. 9(7) exige pruebas frente a métricas predefinidas — no pruebas ad hoc a posteriori. Define tus criterios de aceptación antes de las pruebas, no después de examinar los resultados.

4. No tener en cuenta los grupos vulnerables

El Art. 9(9) requiere específicamente la consideración de los impactos sobre los niños, las personas con discapacidad y otros grupos vulnerables. Esto se pasa por alto con frecuencia en los marcos de riesgo genéricos.

Preguntas frecuentes

¿Cuál es la diferencia entre la gestión de riesgos de IA y la gestión de riesgos TI tradicional?

La gestión de riesgos de IA aborda desafíos únicos de la IA: deriva del modelo, sesgo de datos, limitaciones de explicabilidad, comportamientos emergentes y vulnerabilidad adversarial. La gestión de riesgos TI tradicional se centra en la disponibilidad, la confidencialidad y la integridad. En el marco del Reglamento de IA de la UE, la gestión de riesgos de IA debe abordar específicamente los riesgos para los derechos fundamentales — una dimensión raramente cubierta en los marcos TI.

¿Con qué frecuencia debe actualizarse el sistema de gestión de riesgos?

El Art. 9(1) exige actualizaciones continuas a lo largo de todo el ciclo de vida del sistema de IA. En la práctica, esto significa: actualizaciones inmediatas cuando el sistema cambia materialmente, revisiones trimestrales para riesgos de alta gravedad, reevaluaciones anuales completas y actualizaciones ad hoc cuando la supervisión poscomercialización revela nuevos riesgos.

¿Puedo usar ISO 31000 o NIST AI RMF como mi marco del Art. 9?

Sí — ambos proporcionan bases sólidas. Sin embargo, ninguno cubre completamente los requisitos del Art. 9. A ISO 31000 le faltan consideraciones específicas de IA (sesgo, deriva, explicabilidad). NIST AI RMF se alinea bien, pero no cubre los requisitos específicos de la UE, como la evaluación de derechos fundamentales y el análisis de impacto en grupos vulnerables. Úsalos como puntos de partida y añade elementos específicos del Art. 9.

¿Qué pruebas se requieren según el Art. 9(7)?

Las pruebas deben validar que el sistema de IA alcanza su propósito previsto con un riesgo residual aceptable. Esto incluye pruebas en condiciones reales, pruebas frente a métricas predefinidas, pruebas de sesgo y equidad sobre características protegidas y pruebas de robustez (entradas adversariales, casos límite). El requisito clave es que las métricas deben definirse antes de las pruebas — no derivarse de los resultados de las pruebas.

¿Cómo se relaciona el Art. 9 con la supervisión poscomercialización del Art. 72?

Forman un bucle de retroalimentación. El Art. 9 requiere el sistema inicial de gestión de riesgos. El Art. 72 requiere una supervisión poscomercialización continua que retroalimenta el Art. 9. Cuando la supervisión revela nuevos riesgos o una degradación del rendimiento, el sistema de gestión de riesgos debe actualizarse.

gestión riesgos IAsistema gestión riesgos IAgestión riesgos reglamento IA UEevaluación riesgos IAArt. 9 reglamento IAmarco gestión riesgos IA

EU AI Act Readiness Assessment

Check your AI compliance before August 2026

Take the free assessment

¿Listo para simplificar el cumplimiento?

Esté listo para la auditoría en semanas, no meses. Vea Matproof en acción.

Solicitar una demo