Récital 44
La base scientifique des systèmes d'IA visant à identifier ou à déduire les émotions suscite de vives inquiétudes, d'autant plus que l'expression des émotions varie considérablement d'une culture à l'autre et d'une situation à l'autre, voire au sein d'un même individu. Parmi les principales lacunes de ces systèmes figurent leur fiabilité limitée, leur manque de spécificité et leur capacité limitée de généralisation. Par conséquent, les systèmes d'IA qui identifient ou déduisent les émotions ou les intentions des personnes physiques sur la base de leurs données biométriques peuvent conduire à des résultats discriminatoires et porter atteinte aux droits et libertés des personnes concernées. Compte tenu du déséquilibre des pouvoirs dans le contexte du travail ou de l'éducation, combiné à la nature intrusive de ces systèmes, ces derniers pourraient conduire à un traitement préjudiciable ou défavorable de certaines personnes physiques ou de groupes entiers de celles-ci. Par conséquent, il convient d'interdire la mise sur le marché, la mise en service ou l'utilisation de systèmes d'IA destinés à être utilisés pour détecter l'état émotionnel des personnes dans des situations liées au lieu de travail et à l'éducation. Cette interdiction ne devrait pas s'appliquer aux systèmes d'IA mis sur le marché pour des raisons strictement médicales ou de sécurité, tels que les systèmes destinés à un usage thérapeutique.
