AI Act LogoLoi sur l'intelligence artificielle

Récital 31

Les systèmes d'IA fournissant une évaluation sociale des personnes physiques par des acteurs publics ou privés peuvent conduire à des résultats discriminatoires et à l'exclusion de certains groupes. Ils peuvent violer le droit à la dignité et à la non-discrimination, ainsi que les valeurs d'égalité et de justice. Ces systèmes d'IA évaluent ou classent des personnes physiques ou des groupes de personnes physiques sur la base de multiples points de données liés à leur comportement social dans des contextes multiples ou à des caractéristiques personnelles ou de personnalité connues, déduites ou prédites sur certaines périodes de temps. Le score social obtenu par ces systèmes d'IA peut conduire à un traitement préjudiciable ou défavorable de personnes physiques ou de groupes entiers de personnes physiques dans des contextes sociaux sans rapport avec le contexte dans lequel les données ont été générées ou collectées à l'origine, ou à un traitement préjudiciable disproportionné ou injustifié par rapport à la gravité de leur comportement social. Il convient donc d'interdire les systèmes d'IA qui impliquent de telles pratiques de notation inacceptables et conduisent à de tels résultats préjudiciables ou défavorables. Cette interdiction ne devrait pas affecter les pratiques d'évaluation licites des personnes physiques qui sont mises en œuvre dans un but spécifique conformément au droit de l'Union et au droit national.

Le présent considérant concerne

Article 5 : Pratiques interdites en matière d'IA

AI Act Logo

Nous suivons et interprétons chaque développement lié à la loi sur l’intelligence artificielle de l’UE en temps réel.