AI Act LogoGesetz über künstliche Intelligenz

Erwägungsgrund 93

Risiken im Zusammenhang mit KI-Systemen können sich zwar aus der Art und Weise ergeben, wie solche Systeme konzipiert sind, aber auch aus der Art und Weise, wie solche KI-Systeme genutzt werden, können Risiken entstehen. Die Betreiber von KI-Systemen mit hohem Risiko spielen daher eine entscheidende Rolle bei der Gewährleistung des Schutzes der Grundrechte, indem sie die Verpflichtungen des Anbieters bei der Entwicklung des KI-Systems ergänzen. Sie sind am besten in der Lage zu verstehen, wie das Hochrisiko-KI-System konkret genutzt wird, und können daher potenzielle erhebliche Risiken erkennen, die in der Entwicklungsphase nicht vorhergesehen wurden, da sie den Nutzungskontext und die Personen oder Personengruppen, die wahrscheinlich betroffen sind, einschließlich schutzbedürftiger Gruppen, genauer kennen. Die in einem Anhang zu dieser Verordnung aufgeführten Betreiber von mit hohem Risiko behafteten KI-Systemen spielen ebenfalls eine entscheidende Rolle bei der Information natürlicher Personen und sollten, wenn sie Entscheidungen in Bezug auf natürliche Personen treffen oder an solchen Entscheidungen mitwirken, die natürlichen Personen darüber informieren, dass sie von der Nutzung des mit hohem Risiko behafteten KI-Systems betroffen sind. Diese Information sollte den beabsichtigten Zweck und die Art der Entscheidungen, die es trifft, umfassen. Der Betreiber sollte die natürlichen Personen auch über ihr Recht auf eine Erklärung gemäß dieser Verordnung informieren. In Bezug auf KI-Systeme mit hohem Risiko, die zu Strafverfolgungszwecken eingesetzt werden, sollte diese Verpflichtung gemäß Artikel 13 der Richtlinie (EU) 2016/680 umgesetzt werden.

Dieser Erwägungsgrund bezieht sich auf

Artikel 26: Pflichten der Betreiber von KI-Systemen mit hohem Risiko

Artikel 27: Grundrechtliche Folgenabschätzung für hochriskante KI-Systeme

AI Act Logo

Wir verfolgen und interpretieren jede Entwicklung rund um das EU-Gesetz über künstliche Intelligenz in Echtzeit.