AI Act LogoLoi sur l'intelligence artificielle

Récital 111

Il convient d'établir une méthode pour classer les modèles d'IA à usage général dans la catégorie des modèles d'IA à usage général présentant des risques systémiques. Étant donné que les risques systémiques résultent de capacités particulièrement élevées, un modèle d'IA à usage général devrait être considéré comme présentant des risques systémiques s'il a des capacités à fort impact, évaluées sur la base d'outils techniques et de méthodologies appropriés, ou un impact significatif sur le marché intérieur en raison de sa portée. Par capacités à fort impact dans les modèles d'IA à usage général, on entend des capacités qui égalent ou dépassent les capacités enregistrées dans les modèles d'IA à usage général les plus avancés. L'éventail complet des capacités d'un modèle pourrait être mieux compris après sa mise sur le marché ou lorsque les déployeurs interagissent avec le modèle. Selon l'état de la technique au moment de l'entrée en vigueur du présent règlement, la quantité cumulée de calculs utilisée pour l'apprentissage du modèle d'IA polyvalent, mesurée en opérations à virgule flottante, est l'une des approximations pertinentes des capacités du modèle. La quantité cumulée de calcul utilisée pour l'entraînement comprend le calcul utilisé dans le cadre des activités et des méthodes destinées à améliorer les capacités du modèle avant son déploiement, telles que le pré-entraînement, la génération de données synthétiques et la mise au point. Par conséquent, il convient de fixer un seuil initial d'opérations en virgule flottante qui, s'il est atteint par un modèle d'IA à usage général, permet de présumer qu'il s'agit d'un modèle d'IA à usage général présentant des risques systémiques. Ce seuil devrait être ajusté au fil du temps pour refléter les changements technologiques et industriels, tels que les améliorations algorithmiques ou l'efficacité accrue du matériel, et devrait être complété par des critères de référence et des indicateurs de la capacité du modèle. Pour ce faire, le Bureau de l'IA devrait s'associer à la communauté scientifique, à l'industrie, à la société civile et à d'autres experts. Les seuils, ainsi que les outils et les critères d'évaluation des capacités à fort impact, devraient être de bons indicateurs de la généralité, des capacités et du risque systémique associé des modèles d'IA à usage général, et pourraient prendre en compte la manière dont le modèle sera mis sur le marché ou le nombre d'utilisateurs qu'il pourrait affecter. Pour compléter ce système, la Commission devrait avoir la possibilité de prendre des décisions individuelles désignant un modèle d'IA à usage général comme un modèle d'IA à usage général présentant un risque systémique s'il s'avère que ce modèle a des capacités ou un impact équivalents à ceux pris en compte par le seuil fixé. Cette décision devrait être prise sur la base d'une évaluation globale des critères de désignation d'un modèle d'IA à usage général présentant un risque systémique énoncés dans une annexe du présent règlement, tels que la qualité ou la taille de l'ensemble de données d'apprentissage, le nombre d'entreprises et d'utilisateurs finaux, ses modalités d'entrée et de sortie, son niveau d'autonomie et d'évolutivité, ou les outils auxquels il a accès. Sur demande motivée d'un fournisseur dont le modèle a été désigné comme un modèle d'IA à usage général présentant un risque systémique, la Commission devrait prendre en compte cette demande et pourrait décider de réévaluer si le modèle d'IA à usage général peut encore être considéré comme présentant des risques systémiques.

Le présent considérant concerne

Article 51 : Classification des modèles d'IA à usage général en modèles d'IA à usage général présentant un risque systémique

Annexe XIII : Critères de désignation des modèles d'IA à usage général présentant un risque systémique visés à l'article 51

AI Act Logo

Nous suivons et interprétons chaque développement lié à la loi sur l’intelligence artificielle de l’UE en temps réel.