AI Act LogoGesetz über künstliche Intelligenz

Erwägungsgrund 31

KI-Systeme zur sozialen Bewertung natürlicher Personen durch öffentliche oder private Akteure können zu diskriminierenden Ergebnissen und zum Ausschluss bestimmter Gruppen führen. Sie können gegen das Recht auf Würde und Nichtdiskriminierung sowie gegen die Werte der Gleichheit und Gerechtigkeit verstoßen. Solche KI-Systeme bewerten oder klassifizieren natürliche Personen oder Gruppen davon auf der Grundlage mehrerer Datenpunkte, die sich auf ihr soziales Verhalten in verschiedenen Kontexten oder auf bekannte, abgeleitete oder vorhergesagte persönliche oder Persönlichkeitsmerkmale über bestimmte Zeiträume beziehen. Die aus solchen KI-Systemen gewonnene Sozialbewertung kann zu einer nachteiligen oder ungünstigen Behandlung natürlicher Personen oder ganzer Gruppen von natürlichen Personen in sozialen Kontexten führen, die nichts mit dem Kontext zu tun haben, in dem die Daten ursprünglich erzeugt oder gesammelt wurden, oder zu einer nachteiligen Behandlung, die in keinem Verhältnis zur Schwere ihres Sozialverhaltens steht oder nicht gerechtfertigt ist. KI-Systeme, die solche inakzeptablen Bewertungspraktiken beinhalten und zu solchen nachteiligen oder ungünstigen Ergebnissen führen, sollten daher verboten werden. Dieses Verbot sollte rechtmäßige Bewertungspraktiken natürlicher Personen, die zu einem bestimmten Zweck im Einklang mit dem Unionsrecht und dem nationalen Recht durchgeführt werden, nicht beeinträchtigen.

Dieser Erwägungsgrund bezieht sich auf

Artikel 5: Verbotene AI-Praktiken

AI Act Logo

Wir verfolgen und interpretieren jede Entwicklung rund um das EU-Gesetz über künstliche Intelligenz in Echtzeit.