AI Act LogoLey de Inteligencia Artificial

Recital 96

Con el fin de garantizar eficazmente la protección de los derechos fundamentales, los implantadores de sistemas de IA de alto riesgo que sean organismos de Derecho público, o entidades privadas que presten servicios públicos y los implantadores de determinados sistemas de IA de alto riesgo enumerados en un anexo del presente Reglamento, como entidades bancarias o aseguradoras, deben llevar a cabo una evaluación de impacto sobre los derechos fundamentales antes de ponerlo en funcionamiento. Los servicios importantes para las personas que son de carácter público también pueden ser prestados por entidades privadas. Las entidades privadas que prestan estos servicios públicos están vinculadas a tareas de interés público, como en los ámbitos de la educación, la sanidad, los servicios sociales, la vivienda o la administración de justicia. El objetivo de la evaluación de impacto sobre los derechos fundamentales es que el implantador identifique los riesgos específicos para los derechos de las personas o grupos de personas que puedan verse afectados y determine las medidas que deben adoptarse en caso de que se materialicen dichos riesgos. La evaluación de impacto debe realizarse antes de implantar el sistema de IA de alto riesgo y debe actualizarse cuando el implantador considere que ha cambiado alguno de los factores pertinentes. La evaluación de impacto debe identificar los procesos pertinentes del implantador en los que se utilizará el sistema de IA de alto riesgo de acuerdo con su finalidad prevista, y debe incluir una descripción del período de tiempo y la frecuencia con que se prevé utilizar el sistema, así como de las categorías específicas de personas físicas y grupos que puedan verse afectados en el contexto específico de utilización. La evaluación también debe incluir la identificación de los riesgos específicos de daños que puedan afectar a los derechos fundamentales de dichas personas o grupos. Al realizar esta evaluación, el responsable del despliegue debe tener en cuenta la información pertinente para una evaluación adecuada del impacto, incluida, entre otras, la información facilitada por el proveedor del sistema de IA de alto riesgo en las instrucciones de uso. A la luz de los riesgos identificados, los responsables del despliegue deben determinar las medidas que deben adoptarse en caso de que se materialicen dichos riesgos, incluidas, por ejemplo, las disposiciones de gobernanza en ese contexto específico de uso, como las disposiciones para la supervisión humana con arreglo a las instrucciones de uso o los procedimientos de tramitación de reclamaciones y de recurso, ya que podrían contribuir a mitigar los riesgos para los derechos fundamentales en casos de uso concretos. Tras realizar esa evaluación de impacto, el implantador deberá notificarlo a la autoridad de vigilancia del mercado pertinente. Cuando proceda, para recopilar la información pertinente necesaria para realizar la evaluación de impacto, los implantadores de sistemas de IA de alto riesgo, en particular cuando los sistemas de IA se utilicen en el sector público, podrían implicar a las partes interesadas pertinentes, incluidos los representantes de los grupos de personas que puedan verse afectadas por el sistema de IA, expertos independientes y organizaciones de la sociedad civil, en la realización de dichas evaluaciones de impacto y en el diseño de las medidas que deban adoptarse en caso de que se materialicen los riesgos. La Oficina Europea de Inteligencia Artificial (Oficina de IA) debería elaborar un modelo de cuestionario para facilitar el cumplimiento y reducir la carga administrativa de los implantadores.

El presente considerando se refiere a

Artículo 27: Evaluación de impacto sobre los derechos fundamentales de los sistemas de IA de alto riesgo

AI Act Logo

Seguimos e interpretamos cada desarrollo relacionado con la Ley de Inteligencia Artificial de la UE a medida que ocurre.