Récital 133
Divers systèmes d'IA peuvent générer de grandes quantités de contenus synthétiques que les humains ont de plus en plus de mal à distinguer des contenus authentiques générés par l'homme. La grande disponibilité et les capacités croissantes de ces systèmes ont un impact significatif sur l'intégrité et la confiance dans l'écosystème de l'information, soulevant de nouveaux risques de désinformation et de manipulation à grande échelle, de fraude, d'usurpation d'identité et de tromperie du consommateur. Compte tenu de ces incidences, de la rapidité de l'évolution technologique et de la nécessité de disposer de nouvelles méthodes et techniques pour retracer l'origine des informations, il convient d'exiger des fournisseurs de ces systèmes qu'ils intègrent des solutions techniques permettant de marquer les données dans un format lisible par machine et de détecter que le résultat a été généré ou manipulé par un système d'intelligence artificielle et non par un être humain. Ces techniques et méthodes devraient être suffisamment fiables, interopérables, efficaces et robustes, dans la mesure où cela est techniquement possible, en tenant compte des techniques disponibles ou d'une combinaison de ces techniques, telles que les filigranes, les identifications de métadonnées, les méthodes cryptographiques pour prouver la provenance et l'authenticité du contenu, les méthodes de journalisation, les empreintes digitales ou d'autres techniques, selon le cas. Lorsqu'ils mettent en œuvre cette obligation, les fournisseurs devraient également tenir compte des spécificités et des limites des différents types de contenu, ainsi que de l'évolution des technologies et du marché dans ce domaine, telle qu'elle ressort de l'état de la technique généralement reconnu. Ces techniques et méthodes peuvent être mises en œuvre au niveau du système d'IA ou au niveau du modèle d'IA, y compris les modèles d'IA à usage général générant du contenu, ce qui facilite le respect de cette obligation par le fournisseur en aval du système d'IA. Pour rester proportionné, il convient d'envisager que cette obligation de marquage ne couvre pas les systèmes d'IA remplissant principalement une fonction d'assistance pour l'édition standard ou les systèmes d'IA ne modifiant pas substantiellement les données d'entrée fournies par le déployeur ou la sémantique de ces données.