Recital 132
Determinados sistemas de IA destinados a interactuar con personas físicas o a generar contenidos pueden plantear riesgos específicos de suplantación de identidad o engaño, con independencia de que se califiquen o no de alto riesgo. En determinadas circunstancias, el uso de estos sistemas debería, por tanto, estar sujeto a obligaciones específicas de transparencia sin perjuicio de los requisitos y obligaciones para los sistemas de IA de alto riesgo y sujeto a excepciones específicas para tener en cuenta la necesidad especial de las fuerzas y cuerpos de seguridad. En particular, debe notificarse a las personas físicas que están interactuando con un sistema de IA, a menos que ello resulte obvio desde el punto de vista de una persona física razonablemente bien informada, observadora y perspicaz teniendo en cuenta las circunstancias y el contexto de uso. Al aplicar esta obligación, deben tenerse en cuenta las características de las personas físicas pertenecientes a grupos vulnerables debido a su edad o discapacidad, en la medida en que el sistema de IA esté destinado a interactuar también con dichos grupos. Además, las personas físicas deben ser notificadas cuando estén expuestas a sistemas de IA que, mediante el tratamiento de sus datos biométricos, puedan identificar o inferir las emociones o intenciones de dichas personas o asignarlas a categorías específicas. Dichas categorías específicas pueden referirse a aspectos como el sexo, la edad, el color del pelo, el color de los ojos, los tatuajes, los rasgos personales, el origen étnico, las preferencias personales y los intereses. Dicha información y notificaciones deben facilitarse en formatos accesibles para las personas con discapacidad.
