AI Act LogoLoi sur l'intelligence artificielle

Récital 53

Il est également important de préciser qu'il peut y avoir des cas spécifiques dans lesquels les systèmes d'IA visés dans les domaines prédéfinis spécifiés dans le présent règlement n'entraînent pas un risque important d'atteinte aux intérêts juridiques protégés dans ces domaines parce qu'ils n'influencent pas matériellement la prise de décision ou ne portent pas atteinte à ces intérêts de manière substantielle. Aux fins du présent règlement, un système d'IA qui n'influence pas sensiblement le résultat d'une prise de décision doit être compris comme un système d'IA qui n'a pas d'incidence sur la substance, et donc sur le résultat, d'une prise de décision, qu'elle soit humaine ou automatisée. Un système d'IA qui n'influence pas matériellement le résultat de la prise de décision pourrait inclure des situations dans lesquelles une ou plusieurs des conditions suivantes sont remplies. La première de ces conditions devrait être que le système d'IA soit destiné à exécuter une tâche procédurale limitée, comme un système d'IA qui transforme des données non structurées en données structurées, un système d'IA qui classe des documents entrants par catégories ou un système d'IA qui est utilisé pour détecter les doublons parmi un grand nombre d'applications. Ces tâches sont d'une nature tellement étroite et limitée qu'elles ne présentent que des risques limités qui ne sont pas accrus par l'utilisation d'un système d'IA dans un contexte répertorié comme une utilisation à haut risque dans une annexe du présent règlement. La deuxième condition doit être que la tâche exécutée par le système d'IA soit destinée à améliorer le résultat d'une activité humaine précédemment accomplie qui peut être pertinente aux fins des utilisations à haut risque énumérées dans une annexe du présent règlement. Compte tenu de ces caractéristiques, le système d'IA n'apporte qu'une couche supplémentaire à une activité humaine dont le risque est par conséquent réduit. Cette condition s'appliquerait, par exemple, aux systèmes d'IA destinés à améliorer le langage utilisé dans des documents déjà rédigés, par exemple en ce qui concerne le ton professionnel, le style académique du langage ou en alignant le texte sur un certain message de marque. La troisième condition devrait être que le système d'IA soit destiné à détecter des modèles de prise de décision ou des écarts par rapport à des modèles de prise de décision antérieurs. Le risque serait réduit parce que l'utilisation du système d'IA fait suite à une évaluation humaine préalable qu'il n'est pas censé remplacer ou influencer, sans examen humain approprié. Ces systèmes d'IA comprennent par exemple ceux qui, à partir d'un certain modèle de notation d'un enseignant, peuvent être utilisés pour vérifier a posteriori si l'enseignant s'est écarté du modèle de notation, de manière à signaler les incohérences ou les anomalies potentielles. La quatrième condition devrait être que le système d'IA soit destiné à effectuer une tâche qui n'est que préparatoire à une évaluation pertinente aux fins des systèmes d'IA énumérés dans une annexe du présent règlement, ce qui rend l'impact possible de la sortie du système très faible en termes de risque pour l'évaluation à suivre. Cette condition couvre, entre autres, les solutions intelligentes pour le traitement des fichiers, qui comprennent diverses fonctions d'indexation, de recherche, de traitement du texte et de la parole ou de mise en relation des données avec d'autres sources de données, ou les systèmes d'IA utilisés pour la traduction de documents initiaux. En tout état de cause, les systèmes d'IA utilisés dans des cas d'utilisation à haut risque énumérés dans une annexe du présent règlement devraient être considérés comme présentant des risques importants d'atteinte à la santé, à la sécurité ou aux droits fondamentaux si le système d'IA implique un profilage au sens de l'article 4, point 4), du règlement (UE) 2016/679 ou de l'article 3, point 4), de la directive (UE) 2016/680 ou de l'article 3, point 5), du règlement (UE) 2018/1725. Afin d'assurer la traçabilité et la transparence, un fournisseur qui estime qu'un système d'IA ne présente pas de risque élevé sur la base des conditions visées ci-dessus devrait établir la documentation relative à l'évaluation avant que ce système ne soit mis sur le marché ou mis en service et devrait fournir cette documentation aux autorités nationales compétentes qui en font la demande. Ce fournisseur devrait être tenu d'enregistrer le système d'IA dans la base de données de l'UE établie en vertu du présent règlement. Afin de fournir des orientations supplémentaires pour la mise en œuvre pratique des conditions dans lesquelles les systèmes d'IA énumérés dans une annexe du présent règlement ne présentent pas, à titre exceptionnel, un risque élevé, la Commission devrait, après avoir consulté le comité, fournir des lignes directrices précisant cette mise en œuvre pratique, complétées par une liste complète d'exemples pratiques de cas d'utilisation de systèmes d'IA qui présentent un risque élevé et de cas d'utilisation qui n'en présentent pas.

Le présent considérant concerne

Article 6 : Règles de classification des systèmes d'IA à haut risque

AI Act Logo

Nous suivons et interprétons chaque développement lié à la loi sur l’intelligence artificielle de l’UE en temps réel.