AI Act LogoLoi sur l'intelligence artificielle

Récital 96

Afin de garantir efficacement la protection des droits fondamentaux, les déployeurs de systèmes d'IA à haut risque qui sont des organismes de droit public, ou des entités privées fournissant des services publics et les déployeurs de certains systèmes d'IA à haut risque énumérés dans une annexe au présent règlement, tels que les entités bancaires ou d'assurance, devraient procéder à une évaluation de l'impact sur les droits fondamentaux avant de mettre en service ces systèmes. Les services importants pour les individus qui sont de nature publique peuvent également être fournis par des entités privées. Les entités privées qui fournissent de tels services publics sont liées à des tâches d'intérêt public, par exemple dans les domaines de l'éducation, des soins de santé, des services sociaux, du logement et de l'administration de la justice. L'objectif de l'analyse d'impact sur les droits fondamentaux est de permettre au responsable du déploiement d'identifier les risques spécifiques pour les droits des individus ou des groupes d'individus susceptibles d'être affectés, et d'identifier les mesures à prendre en cas de matérialisation de ces risques. L'analyse d'impact doit être réalisée avant le déploiement du système d'IA à haut risque et doit être mise à jour lorsque le responsable du déploiement estime que l'un des facteurs pertinents a changé. L'analyse d'impact doit identifier les processus pertinents du responsable du déploiement dans lesquels le système d'IA à haut risque sera utilisé conformément à sa destination, et doit comprendre une description de la période et de la fréquence auxquelles le système est destiné à être utilisé, ainsi que des catégories spécifiques de personnes physiques et de groupes qui sont susceptibles d'être affectés dans le contexte spécifique d'utilisation. L'évaluation doit également comprendre l'identification des risques spécifiques de préjudice susceptibles d'avoir une incidence sur les droits fondamentaux de ces personnes ou groupes. Lors de cette évaluation, le responsable du déploiement devrait prendre en compte les informations pertinentes pour une évaluation correcte de l'impact, y compris, mais sans s'y limiter, les informations fournies par le fournisseur du système d'IA à haut risque dans les instructions d'utilisation. À la lumière des risques identifiés, les responsables du déploiement devraient déterminer les mesures à prendre en cas de matérialisation de ces risques, y compris, par exemple, les dispositions de gouvernance dans ce contexte d'utilisation spécifique, telles que les dispositions relatives à la surveillance humaine conformément aux instructions d'utilisation ou les procédures de traitement des plaintes et de recours, car elles pourraient contribuer à atténuer les risques pour les droits fondamentaux dans des cas d'utilisation concrets. Après avoir réalisé cette analyse d'impact, le responsable du déploiement devrait en informer l'autorité de surveillance du marché concernée. Le cas échéant, pour collecter les informations nécessaires à la réalisation de l'analyse d'impact, les déployeurs de systèmes d'IA à haut risque, en particulier lorsque les systèmes d'IA sont utilisés dans le secteur public, pourraient impliquer les parties prenantes concernées, y compris les représentants des groupes de personnes susceptibles d'être affectées par le système d'IA, des experts indépendants et des organisations de la société civile, dans la réalisation de ces analyses d'impact et la conception des mesures à prendre en cas de matérialisation des risques. L'Office européen de l'intelligence artificielle (AI Office) devrait élaborer un modèle de questionnaire afin de faciliter la mise en conformité et de réduire la charge administrative pour les déployeurs.

Le présent considérant concerne

Article 27 : Évaluation de l'impact sur les droits fondamentaux des systèmes d'IA à haut risque

AI Act Logo

Nous suivons et interprétons chaque développement lié à la loi sur l’intelligence artificielle de l’UE en temps réel.