Recital 53
También es importante aclarar que puede haber casos específicos en los que los sistemas de IA a los que se hace referencia en ámbitos predefinidos especificados en el presente Reglamento no conlleven un riesgo significativo de perjuicio de los intereses jurídicos protegidos en dichos ámbitos porque no influyan materialmente en la toma de decisiones o no perjudiquen sustancialmente dichos intereses. A efectos del presente Reglamento, un sistema de IA que no influye materialmente en el resultado de la toma de decisiones debe entenderse como un sistema de IA que no tiene un impacto en la sustancia, y por tanto en el resultado, de la toma de decisiones, ya sea humana o automatizada. Un sistema de IA que no influye materialmente en el resultado de la toma de decisiones podría incluir situaciones en las que se cumplen una o más de las siguientes condiciones. La primera de estas condiciones debe ser que el sistema de IA esté destinado a realizar una tarea de procedimiento limitada, como un sistema de IA que transforme datos no estructurados en datos estructurados, un sistema de IA que clasifique documentos entrantes en categorías o un sistema de IA que se utilice para detectar duplicados entre un gran número de aplicaciones. Estas tareas son de naturaleza tan estrecha y limitada que sólo plantean riesgos limitados que no se ven incrementados por el uso de un sistema de IA en un contexto que figura como uso de alto riesgo en un anexo del presente Reglamento. La segunda condición debe ser que la tarea realizada por el sistema de IA tenga por objeto mejorar el resultado de una actividad humana previamente realizada que pueda ser pertinente a efectos de los usos de alto riesgo enumerados en un anexo del presente Reglamento. Teniendo en cuenta estas características, el sistema de IA sólo proporciona una capa adicional a una actividad humana con el consiguiente menor riesgo. Esta condición se aplicaría, por ejemplo, a los sistemas de IA destinados a mejorar el lenguaje utilizado en documentos previamente redactados, por ejemplo en relación con el tono profesional, el estilo académico del lenguaje o mediante la alineación del texto con un determinado mensaje de marca. La tercera condición debe ser que el sistema de IA esté destinado a detectar patrones de toma de decisiones o desviaciones de patrones de toma de decisiones previos. El riesgo se reduciría porque el uso del sistema de IA sigue a una evaluación humana realizada previamente, a la que no pretende sustituir ni influir, sin una revisión humana adecuada. Estos sistemas de IA incluyen, por ejemplo, los que, dado un determinado patrón de calificación de un profesor, pueden utilizarse para comprobar a posteriori si el profesor puede haberse desviado del patrón de calificación, con el fin de señalar posibles incoherencias o anomalías. La cuarta condición debe ser que el sistema de IA esté destinado a realizar una tarea que sólo sea preparatoria de una evaluación pertinente a efectos de los sistemas de IA enumerados en un anexo del presente Reglamento, con lo que el posible impacto del resultado del sistema será muy bajo en términos de representar un riesgo para la evaluación posterior. Esa condición abarca, entre otras cosas, las soluciones inteligentes para el tratamiento de archivos, que incluyen diversas funciones de indización, búsqueda, tratamiento de texto y voz o vinculación de datos a otras fuentes de datos, o los sistemas de IA utilizados para la traducción de documentos iniciales. En cualquier caso, debe considerarse que los sistemas de IA utilizados en casos de uso de alto riesgo enumerados en un anexo del presente Reglamento plantean riesgos significativos de daño para la salud, la seguridad o los derechos fundamentales si el sistema de IA implica la elaboración de perfiles en el sentido del artículo 4, punto 4, del Reglamento (UE) 2016/679 o del artículo 3, punto 4, de la Directiva (UE) 2016/680 o del artículo 3, punto 5, del Reglamento (UE) 2018/1725. Para garantizar la trazabilidad y la transparencia, un proveedor que considere que un sistema de IA no es de alto riesgo sobre la base de las condiciones mencionadas anteriormente debe elaborar la documentación de la evaluación antes de que dicho sistema se comercialice o se ponga en servicio y debe facilitar dicha documentación a las autoridades nacionales competentes a petición de estas. Dicho proveedor debe estar obligado a registrar el sistema de IA en la base de datos de la UE creada en virtud del presente Reglamento. Con vistas a proporcionar orientaciones adicionales para la aplicación práctica de las condiciones en las que los sistemas de IA enumerados en un anexo del presente Reglamento son, con carácter excepcional, de riesgo no elevado, la Comisión, previa consulta al Consejo, debe proporcionar directrices que especifiquen dicha aplicación práctica, completadas con una lista exhaustiva de ejemplos prácticos de casos de uso de sistemas de IA que son de riesgo elevado y casos de uso que no lo son.
El presente considerando se refiere a
Artículo 6: Normas de clasificación de los sistemas de IA de alto riesgo