Erwägungsgrund 53
Es ist auch wichtig klarzustellen, dass es besondere Fälle geben kann, in denen KI-Systeme, die in den in dieser Verordnung festgelegten Bereichen genannt werden, nicht zu einem erheblichen Risiko einer Beeinträchtigung der in diesen Bereichen geschützten Rechtsgüter führen, weil sie die Entscheidungsfindung nicht wesentlich beeinflussen oder diese Interessen nicht wesentlich beeinträchtigen. Für die Zwecke dieser Verordnung sollte unter einem KI-System, das das Ergebnis der Entscheidungsfindung nicht wesentlich beeinflusst, ein KI-System verstanden werden, das keine Auswirkungen auf den Inhalt und damit das Ergebnis der menschlichen oder automatisierten Entscheidungsfindung hat. Ein KI-System, das das Ergebnis der Entscheidungsfindung nicht wesentlich beeinflusst, könnte Situationen umfassen, in denen eine oder mehrere der folgenden Bedingungen erfüllt sind. Die erste Bedingung sollte darin bestehen, dass das KI-System eine enge verfahrenstechnische Aufgabe erfüllen soll, z. B. ein KI-System, das unstrukturierte Daten in strukturierte Daten umwandelt, ein KI-System, das eingehende Dokumente in Kategorien einordnet, oder ein KI-System, das dazu dient, Duplikate in einer großen Zahl von Anwendungen zu erkennen. Diese Aufgaben sind so eng gefasst und begrenzt, dass sie nur begrenzte Risiken mit sich bringen, die durch den Einsatz eines KI-Systems in einem Kontext, der in einem Anhang zu dieser Verordnung als risikoreiche Verwendung aufgeführt ist, nicht erhöht werden. Die zweite Bedingung sollte sein, dass die von dem KI-System ausgeführte Aufgabe dazu dient, das Ergebnis einer zuvor ausgeführten menschlichen Tätigkeit zu verbessern, die für die Zwecke der in einem Anhang zu dieser Verordnung aufgeführten Verwendungen mit hohem Risiko relevant sein kann. In Anbetracht dieser Merkmale stellt das KI-System lediglich eine zusätzliche Ebene zu einer menschlichen Tätigkeit dar, die folglich ein geringeres Risiko birgt. Diese Bedingung würde beispielsweise für KI-Systeme gelten, die dazu bestimmt sind, die Sprache in bereits verfassten Dokumenten zu verbessern, z. B. in Bezug auf einen professionellen Ton, einen akademischen Sprachstil oder durch die Anpassung des Textes an eine bestimmte Markenbotschaft. Die dritte Bedingung sollte sein, dass das KI-System dazu dient, Entscheidungsmuster oder Abweichungen von früheren Entscheidungsmustern zu erkennen. Das Risiko wäre geringer, weil der Einsatz des KI-Systems auf eine zuvor abgeschlossene menschliche Bewertung folgt, die es nicht ersetzen oder beeinflussen soll, ohne dass eine angemessene menschliche Überprüfung stattfindet. Zu solchen KI-Systemen gehören beispielsweise solche, die bei einem bestimmten Benotungsmuster eines Lehrers dazu verwendet werden können, nachträglich zu prüfen, ob der Lehrer möglicherweise von dem Benotungsmuster abgewichen ist, um mögliche Unstimmigkeiten oder Anomalien aufzuzeigen. Die vierte Bedingung sollte darin bestehen, dass das KI-System eine Aufgabe erfüllen soll, die lediglich der Vorbereitung einer Bewertung dient, die für die Zwecke der in einem Anhang zu dieser Verordnung aufgeführten KI-Systeme relevant ist, so dass die möglichen Auswirkungen der Ergebnisse des Systems im Hinblick auf ein Risiko für die nachfolgende Bewertung sehr gering sind. Diese Bedingung gilt unter anderem für intelligente Lösungen für die Dateibearbeitung, die verschiedene Funktionen wie Indexierung, Suche, Text- und Sprachverarbeitung oder Verknüpfung von Daten mit anderen Datenquellen umfassen, oder für KI-Systeme, die für die Übersetzung von Ausgangsdokumenten verwendet werden. In jedem Fall sollte bei KI-Systemen, die in den in einem Anhang zu dieser Verordnung aufgeführten Anwendungsfällen mit hohem Risiko eingesetzt werden, davon ausgegangen werden, dass sie erhebliche Risiken für die Gesundheit, die Sicherheit oder die Grundrechte bergen, wenn das KI-System ein Profiling im Sinne von Artikel 4 Nummer 4 der Verordnung (EU) 2016/679 oder Artikel 3 Nummer 4 der Richtlinie (EU) 2016/680 oder Artikel 3 Nummer 5 der Verordnung (EU) 2018/1725 impliziert. Um Rückverfolgbarkeit und Transparenz zu gewährleisten, sollte ein Anbieter, der ein KI-System auf der Grundlage der oben genannten Bedingungen als nicht risikobehaftet einstuft, eine Dokumentation der Bewertung erstellen, bevor dieses System in Verkehr gebracht oder in Betrieb genommen wird, und diese Dokumentation den zuständigen nationalen Behörden auf Anfrage vorlegen. Ein solcher Anbieter sollte verpflichtet sein, das AI-System in der gemäß dieser Verordnung eingerichteten EU-Datenbank zu registrieren. Um weitere Orientierungshilfen für die praktische Umsetzung der Bedingungen zu geben, unter denen die in einem Anhang zu dieser Verordnung aufgeführten KI-Systeme ausnahmsweise kein hohes Risiko darstellen, sollte die Kommission nach Anhörung des Beirats Leitlinien für die praktische Umsetzung vorlegen, die durch eine umfassende Liste praktischer Beispiele für Anwendungsfälle von KI-Systemen, die ein hohes Risiko darstellen, und für Anwendungsfälle, die kein hohes Risiko darstellen, ergänzt werden.
Dieser Erwägungsgrund bezieht sich auf
Artikel 6: Klassifizierungsregeln für KI-Systeme mit hohem Risiko
