AI Act LogoLey de Inteligencia Artificial

Ley de Inteligencia Artificial

Ley de IA

El Reglamento (UE) 2024/1689 del Parlamento Europeo y del Consejo, de 13 de junio de 2024, por el que se establecen normas armonizadas sobre inteligencia artificial, entrará en vigor el 2 de agosto de 2026. La Ley de IA de la UE es una nueva normativa destinada a garantizar que los sistemas de inteligencia artificial que se comercialicen en la UE sean seguros, confiables y respeten los derechos fundamentales. Su objetivo es fortalecer el mercado interior y fomentar la innovación (especialmente para las pymes), al tiempo que protege la salud, la seguridad, la democracia y el Estado de derecho. La Ley establece normas uniformes en toda la UE: define qué usos de la IA están prohibidos, establece requisitos estrictos para los sistemas de IA de alto riesgo, obliga a aplicar medidas de transparencia (como el etiquetado del contenido generado por IA) y crea mecanismos para la supervisión del mercado y la aplicación de la normativa.

Acceso rápido

Índice de contenidos

Capítulo 3
Sistema de IA de alto riesgo
Sección 1
Clasificación de los sistemas de IA como de alto riesgo
Sección 2
Requisitos de los sistemas de IA de alto riesgo
Sección 3
Obligaciones de los proveedores e implantadores de sistemas de IA de alto riesgo y otras partes interesadas
Sección 4
Autoridades de notificación y organismos notificados
Sección 5
Normas, evaluación de la conformidad, certificados, registro
Capítulo 9
Control posterior a la comercialización, intercambio de información y vigilancia del mercado
Sección 1
Seguimiento postcomercialización
Sección 2
Intercambio de información sobre incidentes graves
Sección 3
Ejecución
Sección 4
Recursos
Sección 5
Supervisión, investigación, aplicación y control de los proveedores de modelos de IA de propósito general

Preguntas Frecuentes – Ley de Inteligencia Artificial de la UE

1. ¿Qué regula la Ley de IA?

La ley cubre todos los sistemas de IA que se comercialicen o utilicen dentro de la UE (incluso si el proveedor está fuera de la UE). Establece normas comunes para vender, desplegar y utilizar la IA. Esto incluye: prohibir ciertas prácticas dañinas (Art. 5); imponer requisitos estrictos a la IA de "alto riesgo" (como en sectores críticos); establecer obligaciones de transparencia (como divulgación y etiquetado); y crear una base de datos y mecanismos de supervisión de la UE. También regula los grandes modelos de IA de propósito general (como los grandes modelos de lenguaje), exigiendo pruebas y monitoreo de los sistemas más potentes.

2. ¿Quién debe cumplir la ley?

Se aplica a una amplia gama de actores. Los proveedores de sistemas de IA (quienes los desarrollan y comercializan) deben cumplir, ya estén en la UE o fuera (si la salida de la IA se usa en la UE). También los usuarios (quienes utilizan la IA bajo su control en la UE), importadores, distribuidores y fabricantes que integren IA en productos. Incluso las entidades no comunitarias que ofrezcan IA en el mercado de la UE deben seguir las reglas. Las excepciones principales son el uso militar, doméstico y la I+D pura que no se comercialice.

3. ¿Qué son los "sistemas de IA de alto riesgo"?

Son aquellos que pueden dañar significativamente la salud, la seguridad o los derechos fundamentales. Incluyen IA usada en infraestructura crítica, dispositivos médicos, contratación y recursos humanos, educación y exámenes, servicios públicos esenciales (como bienestar), fuerzas del orden, control fronterizo y procesos legales o democráticos. Deben cumplir estrictos requisitos de pruebas, documentación y evaluación de conformidad.

4. ¿Qué prácticas de IA están prohibidas?

El Artículo 5 prohíbe:

  • IA subliminal o manipuladora que distorsione el comportamiento
  • Sistemas de puntuación social injustos
  • Predicción delictiva no autorizada basada en perfiles
  • Categorización biométrica de rasgos sensibles
  • Reconocimiento emocional en escuelas/lugares de trabajo (con excepciones)
  • Raspado facial masivo sin consentimiento para bases de datos

El reconocimiento facial en tiempo real por la policía está prohibido salvo excepciones estrictas.

5. ¿Qué deben hacer las empresas para cumplir?

Los proveedores de IA de alto riesgo deben:

  • Implementar un sistema de gestión de riesgos y calidad
  • Mantener documentación técnica y registros de actividad
  • Realizar una evaluación de conformidad antes de comercializar
  • Emitir una Declaración de Conformidad de la UE y colocar el marcado CE
  • Proporcionar instrucciones y advertencias detalladas al usuario

Deben monitorear el rendimiento y reportar incidentes graves.

6. ¿Cómo afecta esto a empresas y desarrolladores?

Las empresas tendrán mayores cargas de cumplimiento para la IA de alto riesgo, como documentación, pruebas y rediseño. Pero también hay beneficios: un marco único de la UE reemplaza normas nacionales fragmentadas. Se apoya la innovación mediante entornos de prueba regulados y exenciones para PYMEs. Los proveedores no comunitarios también deben cumplir si ofrecen IA en la UE.

7. ¿Cómo se hará cumplir la ley y cuáles son las sanciones?

Las autoridades nacionales supervisarán el cumplimiento. Las sanciones incluyen:

  • Hasta 35 millones de euros o 7% del volumen de negocios global por prácticas prohibidas
  • Hasta 15 millones o 3% por incumplir obligaciones de alto riesgo
  • Hasta 7,5 millones o 1% por información falsa

Las autoridades pueden inspeccionar sistemas, solicitar documentos y ordenar correcciones.

8. ¿Cuáles son los requisitos de transparencia?

Obligaciones clave:

  • Avisar al usuario al interactuar con IA
  • Etiquetado de contenido sintético y deepfakes
  • Divulgación del uso de reconocimiento emocional y categorización biométrica
  • Marcar el contenido generado por IA como sintético

Estas reglas ayudan a los usuarios a identificar la IA y comprender decisiones automatizadas.

9. ¿La ley frenará la innovación o dañará a los usuarios?

La ley busca equilibrar seguridad e innovación. Se centra en los riesgos más graves y permite la mayor parte de la IA sin restricciones. Se fomenta la innovación con entornos controlados y reglas claras, lo que puede aumentar la confianza del usuario.

10. ¿Cuándo entra en vigor la ley?

Se publicó en junio de 2024 y entró en vigor 20 días después. La mayor parte aplica desde el 2 de agosto de 2026. Algunas partes (como las prohibiciones) comenzaron el 2 de febrero de 2025 y otras se aplicarán de forma progresiva. Las empresas deben prepararse antes de 2026.

AI Act Logo

Seguimos e interpretamos cada desarrollo relacionado con la Ley de Inteligencia Artificial de la UE a medida que ocurre.