Recital 27
Aunque el enfoque basado en el riesgo es la base de un conjunto proporcionado y eficaz de normas vinculantes, es importante recordar las directrices éticas de 2019 para una IA digna de confianza elaboradas por el HLEG independiente de IA nombrado por la Comisión. En esas directrices, el HLEG de IA desarrolló siete principios éticos no vinculantes para la IA que pretenden ayudar a garantizar que la IA sea digna de confianza y éticamente sólida. Los siete principios incluyen la agencia y la supervisión humanas; la solidez técnica y la seguridad; la privacidad y la gobernanza de los datos; la transparencia; la diversidad, la no discriminación y la equidad; el bienestar social y medioambiental y la responsabilidad. Sin perjuicio de los requisitos jurídicamente vinculantes del presente Reglamento y de cualquier otra legislación aplicable de la Unión, esas directrices contribuyen al diseño de una IA coherente, digna de confianza y centrada en el ser humano, en consonancia con la Carta y con los valores en los que se fundamenta la Unión. De acuerdo con las directrices del HLEG sobre IA, la agencia y la supervisión humanas significan que los sistemas de IA se desarrollan y utilizan como una herramienta al servicio de las personas, que respeta la dignidad humana y la autonomía personal, y que funciona de manera que puede ser controlada y supervisada adecuadamente por los seres humanos. Solidez y seguridad técnicas significa que los sistemas de IA se desarrollan y utilizan de forma que sean sólidos en caso de problemas y resistentes frente a los intentos de alterar el uso o el rendimiento del sistema de IA para permitir un uso ilícito por parte de terceros, y minimizar los daños no intencionados. Privacidad y gobernanza de datos significa que los sistemas de IA se desarrollan y utilizan de acuerdo con las normas de privacidad y protección de datos, al tiempo que procesan datos que cumplen altos estándares en términos de calidad e integridad. Transparencia significa que los sistemas de IA se desarrollan y utilizan de forma que permitan una trazabilidad y explicabilidad adecuadas, al tiempo que se informa a los seres humanos de que se comunican o interactúan con un sistema de IA, así como se informa debidamente a los usuarios de las capacidades y limitaciones de ese sistema de IA y a las personas afectadas de sus derechos. Diversidad, no discriminación y equidad significa que los sistemas de IA se desarrollan y utilizan de forma que incluyan a diversos actores y promuevan la igualdad de acceso, la igualdad de género y la diversidad cultural, evitando al mismo tiempo los impactos discriminatorios y los sesgos injustos prohibidos por el Derecho de la Unión o nacional. Bienestar social y medioambiental significa que los sistemas de IA se desarrollan y utilizan de forma sostenible y respetuosa con el medio ambiente, así como de manera que beneficien a todos los seres humanos, al tiempo que se supervisan y evalúan los impactos a largo plazo sobre el individuo, la sociedad y la democracia. La aplicación de estos principios debería traducirse, cuando sea posible, en el diseño y el uso de modelos de IA. En cualquier caso, deben servir de base para la elaboración de códigos de conducta en el marco del presente Reglamento. Se anima a todas las partes interesadas, incluidas la industria, el mundo académico, la sociedad civil y las organizaciones de normalización, a tener en cuenta, según proceda, los principios éticos para el desarrollo de mejores prácticas y normas voluntarias.