Conformité

AI Act: Clasificación de riesgo de la IA

Guía sobre la clasificación de riesgo del AI Act europeo. Riesgo inaceptable, alto, limitado y mínimo: qué implica cada nivel.

10 avril 20265 min de lectureWarDek Team

El AI Act (Reglamento Europeo de Inteligencia Artificial) es la primera legislación integral del mundo sobre IA. Entró en vigor en agosto de 2024, con una implementación progresiva hasta 2027. Su pilar central es un sistema de clasificación por niveles de riesgo que determina las obligaciones de cada sistema de IA.

Para las empresas españolas, entender esta clasificación es fundamental: las sanciones pueden alcanzar los 35 millones de euros o el 7% de la facturación global.

Los 4 niveles de riesgo

Nivel 1: Riesgo inaceptable (PROHIBIDO)

Sistemas de IA prohibidos en la UE. Sin excepciones comerciales:

Plazo: prohibiciones aplicables desde febrero de 2025.

Nivel 2: Alto riesgo (REGULADO)

Sistemas de IA que afectan significativamente a derechos fundamentales. Permitidos pero con obligaciones estrictas:

Identificación biométrica remota

Infraestructuras críticas

Educación y formación profesional

Empleo y gestión de trabajadores

Acceso a servicios esenciales

Aplicación de la ley

Migración y control de fronteras

Justicia y procesos democráticos

Nivel 3: Riesgo limitado (TRANSPARENCIA)

Sistemas de IA con obligaciones de transparencia. Los usuarios deben saber que interactúan con IA:

Nivel 4: Riesgo mínimo (LIBRE)

La gran mayoría de sistemas de IA. Sin obligaciones específicas del AI Act:

Obligaciones para sistemas de alto riesgo

Si tu sistema de IA está clasificado como alto riesgo, debes cumplir:

Antes de comercializar

| Obligación | Detalle | |------------|---------| | Sistema de gestión de riesgos | Evaluación continua de riesgos durante todo el ciclo de vida | | Gobernanza de datos | Datos de entrenamiento relevantes, representativos, sin sesgos | | Documentación técnica | Arquitectura, rendimiento, limitaciones, instrucciones de uso | | Registro de actividades (logs) | Trazabilidad automática de decisiones | | Transparencia | Información comprensible para los usuarios | | Supervisión humana | Mecanismos para que humanos puedan intervenir y corregir | | Precisión y robustez | Nivel apropiado de exactitud, resiliencia y ciberseguridad | | Evaluación de conformidad | Auto-evaluación o evaluación por organismo notificado | | Marcado CE | Declaración de conformidad antes de la comercialización |

Después de comercializar

Calendario de implementación

| Fecha | Hito | |-------|------| | Febrero 2025 | Prohibiciones (riesgo inaceptable) | | Agosto 2025 | Códigos de buenas prácticas para IA de propósito general | | Agosto 2025 | Obligaciones para proveedores de modelos GPAI | | Agosto 2026 | Obligaciones para sistemas de alto riesgo (Anexo III) | | Agosto 2027 | Obligaciones para sistemas integrados en productos regulados |

¿Cómo clasificar tu sistema de IA?

Pregúntate:

  1. ¿Está en la lista de prohibidos? → Nivel 1: Prohibido
  2. ¿Está en el Anexo III (sectores regulados)? → Nivel 2: Alto riesgo
  3. ¿Interactúa con personas o genera contenido? → Nivel 3: Transparencia
  4. ¿Ninguna de las anteriores? → Nivel 4: Libre

Si tienes dudas, el principio de precaución aplica: clasifica al nivel superior hasta que puedas confirmar lo contrario.

Conexión con tu infraestructura web

Si tu sitio web utiliza sistemas de IA — chatbots, personalización, scoring, detección de fraude — el AI Act te afecta. WarDek incluye un módulo de evaluación AI Act que analiza:


Escanea tu sitio web gratis con WarDek — OWASP, NIS2, RGPD, AI Act en un solo escaneo.

#ai-act#inteligencia-artificial#clasificacion-riesgo#europa

Scannez votre site gratuitement

WarDek détecte les vulnérabilités mentionnées dans cet article en quelques secondes.

Retour à Conformité