AI Act LogoLoi sur l'intelligence artificielle

Loi sur l'intelligence artificielle

Loi sur l'IA

Le règlement (UE) 2024/1689 du Parlement européen et du Conseil du 13 juin 2024, qui établit des règles harmonisées en matière d’intelligence artificielle, entrera en vigueur le 2 août 2026. La loi européenne sur l’IA est une nouvelle législation visant à garantir que les systèmes d’intelligence artificielle mis sur le marché de l’UE soient sûrs, dignes de confiance et respectent les droits fondamentaux. Elle vise à renforcer le marché intérieur et à stimuler l’innovation (notamment pour les PME), tout en protégeant la santé, la sécurité, la démocratie et l’état de droit. La loi établit des règles uniformes à l’échelle de l’UE : elle définit les usages de l’IA interdits, impose des exigences strictes pour les systèmes d’IA à haut risque, rend obligatoires certaines mesures de transparence (comme l’étiquetage du contenu généré par l’IA) et met en place des processus de surveillance du marché et d’application de la loi.

Accès rapide

Table des matières

Chapitre 3
Système d'IA à haut risque
Section 1
Classification des systèmes d'IA comme étant à haut risque
Section 2
Exigences relatives aux systèmes d'IA à haut risque
Section 3
Obligations des fournisseurs et des déployeurs de systèmes d'IA à haut risque et des autres parties
Section 4
Autorités de notification et organismes notifiés
Section 5
Normes, évaluation de la conformité, certificats, enregistrement
Chapitre 9
Suivi post-commercialisation, partage d'informations et surveillance du marché
Section 1
Surveillance après la mise sur le marché
Section 2
Partage d'informations sur les incidents graves
Section 3
Exécution
Section 4
Recours
Section 5
Supervision, enquête, application et contrôle concernant les fournisseurs de modèles d'IA à usage général

Foire aux questions – Loi européenne sur l'intelligence artificielle

1. Que régule la loi sur l'IA ?

La loi couvre tous les systèmes d'IA commercialisés ou utilisés dans l'UE (même si le fournisseur est situé en dehors de l'UE). Elle fixe des règles communes pour la vente, le déploiement et l'utilisation de l'IA. Cela inclut : l'interdiction de certaines pratiques nuisibles (Art. 5) ; des exigences strictes pour les IA "à haut risque" (dans des secteurs critiques) ; des obligations de transparence (étiquetage, divulgation) ; la création d'une base de données européenne et de mécanismes de surveillance. Elle régule aussi les modèles d'IA à usage général puissants (ex. modèles de langage), qui doivent être testés et surveillés.

2. Qui doit se conformer à la loi ?

Elle s'applique à de nombreux acteurs. Les fournisseurs d'IA (ceux qui développent et mettent sur le marché) sont concernés, qu'ils soient établis dans l'UE ou non (si la sortie de l'IA est utilisée dans l'UE). Les utilisateurs (ceux qui déploient un système d'IA sous leur contrôle), importateurs, distributeurs et fabricants intégrant l'IA dans des produits sont également concernés. Les entités non européennes ciblant le marché européen doivent aussi se conformer. Exceptions : usage militaire, domestique personnel, et R&D pure non commercialisée.

3. Qu'est-ce qu'une IA "à haut risque" ?

Ce sont des systèmes pouvant nuire fortement à la santé, à la sécurité ou aux droits fondamentaux. Cela inclut l'IA utilisée dans les infrastructures critiques, les dispositifs médicaux, le recrutement, l'éducation, les services publics essentiels (ex. aides sociales), la police, le contrôle aux frontières et les processus démocratiques ou juridiques. Ces systèmes doivent répondre à des exigences strictes : tests, documentation, évaluation de conformité.

4. Quelles pratiques d'IA sont interdites ?

L'article 5 interdit :

  • L'IA manipulatrice ou subliminale qui influence le comportement
  • Le scoring social injuste
  • La prédiction policière basée sur le profilage
  • La catégorisation biométrique révélant des caractéristiques sensibles
  • La reconnaissance des émotions dans les écoles/lieux de travail (sauf exceptions)
  • La collecte faciale non ciblée pour créer des bases de données

La reconnaissance faciale en temps réel par la police est aussi interdite sauf cas strictement définis.

5. Que doivent faire les entreprises pour se conformer ?

Les fournisseurs d'IA à haut risque doivent :

  • Mettre en place un système de gestion des risques et de qualité
  • Maintenir une documentation technique et des journaux d'activité
  • Réaliser une évaluation de conformité avant la mise sur le marché
  • Publier une Déclaration UE de Conformité et apposer le marquage CE
  • Fournir des instructions et avertissements détaillés aux utilisateurs

Ils doivent aussi surveiller les performances et signaler les incidents graves.

6. Quel est l'impact pour les entreprises et développeurs ?

Les entreprises devront supporter des charges accrues pour l'IA à haut risque (documentation, tests, refonte). Mais la loi harmonise les règles à l'échelle de l'UE, remplaçant les réglementations nationales fragmentées. L'innovation est soutenue via des bacs à sable réglementaires et des exemptions pour les PME. Les fournisseurs non européens ciblant l'UE doivent aussi s'y conformer.

7. Comment la loi est-elle appliquée et quelles sont les sanctions ?

Les autorités nationales surveilleront la mise en œuvre. Sanctions possibles :

  • Jusqu'à 35 millions d'euros ou 7% du chiffre d'affaires mondial pour des pratiques interdites
  • Jusqu'à 15 millions ou 3% pour non-respect des obligations de haut risque
  • Jusqu'à 7,5 millions ou 1% pour fausse déclaration

Les autorités peuvent inspecter, demander des documents ou imposer des corrections.

8. Quelles sont les exigences en matière de transparence ?

Principales obligations :

  • Informer les utilisateurs lors d'une interaction avec une IA
  • Étiqueter les contenus synthétiques et deepfakes
  • Divulguer l'utilisation de la reconnaissance émotionnelle et de la catégorisation biométrique
  • Marquer tout contenu généré par IA comme tel

Ces règles permettent aux utilisateurs d'identifier l'IA et de comprendre les décisions automatisées.

9. La loi freine-t-elle l'innovation ou nuit-elle aux utilisateurs ?

La loi vise à équilibrer innovation et sécurité. Elle cible les risques majeurs tout en laissant la majorité des IA circuler librement. Les règles claires et les espaces d'expérimentation peuvent même renforcer la confiance et encourager une IA sûre.

10. Quand la loi entre-t-elle en vigueur ?

Elle a été publiée en juin 2024 et est entrée en vigueur 20 jours plus tard. La plupart des dispositions s'appliqueront à partir du 2 août 2026. Certaines (comme les interdictions) sont en vigueur depuis le 2 février 2025 et d'autres entreront en vigueur progressivement. Les entreprises doivent anticiper leur conformité.

AI Act Logo

Nous suivons et interprétons chaque développement lié à la loi sur l’intelligence artificielle de l’UE en temps réel.