AI Act LogoLey de Inteligencia Artificial

Recital 161

Es necesario aclarar las responsabilidades y competencias a nivel de la Unión y nacional en lo que respecta a los sistemas de IA que se basan en modelos de IA de propósito general. Para evitar el solapamiento de competencias, cuando un sistema de IA se base en un modelo de IA de propósito general y el modelo y el sistema sean suministrados por el mismo proveedor, la supervisión debe tener lugar a nivel de la Unión a través de la Oficina de IA, que debe tener a tal efecto las competencias de una autoridad de vigilancia del mercado en el sentido del Reglamento (UE) 2019/1020. En todos los demás casos, las autoridades nacionales de vigilancia del mercado siguen siendo responsables de la supervisión de los sistemas de IA. Sin embargo, en el caso de los sistemas de IA de uso general que puedan ser utilizados directamente por los desplegadores para al menos un propósito clasificado como de alto riesgo, las autoridades de vigilancia del mercado deben cooperar con la Oficina de IA para llevar a cabo evaluaciones de cumplimiento e informar al Consejo y a otras autoridades de vigilancia del mercado en consecuencia. Además, las autoridades de vigilancia del mercado deben poder solicitar asistencia a la Oficina de IA cuando la autoridad de vigilancia del mercado no pueda concluir una investigación sobre un sistema de IA de alto riesgo debido a su incapacidad para acceder a determinada información relacionada con el modelo de IA de propósito general en el que se basa el sistema de IA de alto riesgo. En tales casos, debe aplicarse mutatis mutandis el procedimiento relativo a la asistencia mutua en casos transfronterizos del capítulo VI del Reglamento (UE) 2019/1020.

El presente considerando se refiere a

Artículo 75: Asistencia mutua, vigilancia del mercado y control de los sistemas de IA de uso general

AI Act Logo

Seguimos e interpretamos cada desarrollo relacionado con la Ley de Inteligencia Artificial de la UE a medida que ocurre.