AI Act LogoLey de Inteligencia Artificial

Recital 111

Conviene establecer una metodología para clasificar los modelos de IA de propósito general como modelos de IA de propósito general con riesgos sistémicos. Dado que los riesgos sistémicos se derivan de capacidades particularmente elevadas, debe considerarse que un modelo de IA de propósito general presenta riesgos sistémicos si tiene capacidades de alto impacto, evaluadas sobre la base de herramientas técnicas y metodologías adecuadas, o un impacto significativo en el mercado interior debido a su alcance. Por capacidades de alto impacto en los modelos de IA de propósito general se entienden capacidades que igualan o superan las capacidades registradas en los modelos de IA de propósito general más avanzados. La gama completa de capacidades de un modelo podría comprenderse mejor tras su comercialización o cuando los implantadores interactúen con el modelo. Según el estado de la técnica en el momento de la entrada en vigor del presente Reglamento, la cantidad acumulada de cálculo utilizada para el entrenamiento del modelo de IA de propósito general, medida en operaciones de coma flotante, es una de las aproximaciones pertinentes a las capacidades del modelo. La cantidad acumulada de cálculo utilizada para el entrenamiento incluye el cálculo utilizado en todas las actividades y métodos destinados a mejorar las capacidades del modelo antes de su despliegue, como el preentrenamiento, la generación de datos sintéticos y el ajuste. Por lo tanto, debe fijarse un umbral inicial de operaciones en coma flotante que, si es alcanzado por un modelo de IA de propósito general, lleve a presumir que se trata de un modelo de IA de propósito general con riesgos sistémicos. Este umbral debería ajustarse con el tiempo para reflejar los cambios tecnológicos e industriales, como las mejoras algorítmicas o el aumento de la eficiencia del hardware, y debería complementarse con puntos de referencia e indicadores de la capacidad del modelo. Para ello, la Oficina de Inteligencia Artificial debería colaborar con la comunidad científica, la industria, la sociedad civil y otros expertos. Los umbrales, así como las herramientas y los puntos de referencia para la evaluación de las capacidades de alto impacto, deberían ser sólidos predictores de la generalidad, sus capacidades y el riesgo sistémico asociado de los modelos de IA de propósito general, y podrían tener en cuenta la forma en que el modelo se comercializará o el número de usuarios a los que puede afectar. Para complementar este sistema, debería existir la posibilidad de que la Comisión adoptara decisiones individuales por las que se designara un modelo de IA de propósito general como modelo de IA de propósito general con riesgo sistémico si se constatara que dicho modelo tiene capacidades o un impacto equivalentes a los captados por el umbral establecido. Dicha decisión debe adoptarse sobre la base de una evaluación global de los criterios para la designación de un modelo de IA de propósito general con riesgo sistémico establecidos en un anexo del presente Reglamento, como la calidad o el tamaño del conjunto de datos de entrenamiento, el número de empresas y usuarios finales, sus modalidades de entrada y salida, su nivel de autonomía y escalabilidad, o las herramientas a las que tiene acceso. Previa solicitud motivada de un proveedor cuyo modelo haya sido designado como modelo de IA de propósito general con riesgo sistémico, la Comisión debe tener en cuenta la solicitud y puede decidir reevaluar si puede seguir considerándose que el modelo de IA de propósito general presenta riesgos sistémicos.

El presente considerando se refiere a

Artículo 51: Clasificación de los modelos de IA de propósito general como modelos de IA de propósito general con riesgo sistémico

Anexo XIII: Criterios para la designación de los modelos de IA de propósito general con riesgo sistémico a que se refiere el artículo 51

AI Act Logo

Seguimos e interpretamos cada desarrollo relacionado con la Ley de Inteligencia Artificial de la UE a medida que ocurre.