L’intelligence artificielle en droit pénal et son utilisation par les autorités policières et judiciaires dans les affaires pénales
La commission des libertés civiles, de la justice et des affaires intérieures a adopté un rapport dinitiative de Petar VITANOV (S&D, BG) sur lintelligence artificielle (IA) en droit pénal et son utilisation par les autorités policières et judiciaires dans les affaires pénales.
LIA comporte un certain nombre de risques potentiels, tels que lopacité de la prise de décision, différents types de discrimination, lintrusion dans notre vie privée, les défis en matière de protection des données à caractère personnel, de la dignité humaine et de la liberté dexpression et dinformation. Ces risques sont aggravés dans le secteur de la répression et de la justice pénale, dans la mesure où ils peuvent porter atteinte à la présomption dinnocence, aux droits fondamentaux à la liberté et à la sûreté de la personne et au droit à un recours effectif et à un procès équitable.
Le présent rapport traite les questions soulevées par lutilisation de lIA dans le droit pénal et son utilisation par les autorités policières et judiciaires en matière pénale. Tout en reconnaissant les possibilités et les avantages potentiels que lIA peut apporter, il met également en évidence les risques et les conséquences importants quelle peut entraîner.
Respect des droits fondamentaux
Étant donné que le traitement de grandes quantités de données est au cur de lIA, les députés estiment que le cadre juridique de lUnion en matière de protection des données et de la vie privée doit être pleinement respecté et quil devrait constituer un fondement pour toute future réglementation en matière dIA aux fins dune utilisation par les services répressifs et judiciaires. Toute utilisation de lIA incompatible avec les droits fondamentaux devrait être interdite. De plus, lutilisation des applications dIA devrait être classée comme à haut risque lorsquelle est susceptible davoir une incidence significative sur la vie des personnes.
Le rapport réaffirme que toutes les solutions dIA à des fins répressives et judiciaires devraient respecter les principes de non-discrimination, de liberté de circulation, de présomption dinnocence et de droits de la défense, y compris le droit au silence, de liberté dexpression et dinformation, de liberté de réunion et dassociation, dégalité devant la loi, dégalité des armes et de droit à un recours effectif et à un procès équitable, conformément à la charte et à la convention européenne des droits de lhomme.
Tous les outils dIA développés ou utilisés par les services répressifs ou judiciaires devraient, au minimum, être sûrs, solides, sécurisés et adaptés à lusage prévu, respecter les principes déquité, de minimisation des données, de responsabilité, de transparence, de non-discrimination et dexplicabilité. En outre, leur développement, déploiement et utilisation devraient être soumis à une évaluation des risques et à un contrôle strict de la nécessité et de la proportionnalité, les garanties devant être proportionnées aux risques repérés.
Surveillance et profilage de masse
Certaines technologies didentification fondées sur des algorithmes qui sont utilisées actuellement commettent de nombreuses erreurs didentification et de catégorisation et portent donc préjudice aux personnes racialisées, aux personnes appartenant à certaines communautés ethniques, aux personnes LGBTI, aux enfants et aux personnes âgées, ainsi quaux femmes.
Les députés estiment que les garanties contre lutilisation abusive des technologies dIA par les autorités répressives et judiciaires devraient être réglementées de manière uniforme dans toute lUnion.
Le rapport souligne lobligation légale de prévenir la surveillance de masse au moyen de technologies dIA et dinterdire lutilisation dapplications qui pourraient y conduire. Il demande daccentuer les efforts pour éviter les discriminations automatisées et les biais dautomatisation.
Risques liés aux fuites de données
Le rapport souligne que les aspects liés à la sécurité et à la sûreté des systèmes dIA utilisés par les services répressifs et judiciaires doivent être soigneusement examinés et suffisamment solides et résilients pour prévenir les conséquences dattaques malveillantes contre les systèmes dIA. Il met laccent sur limportance de la sécurité dès la conception, ainsi que dune surveillance humaine spécifique avant lutilisation de certaines applications critiques, et demande que les autorités répressives et judiciaires nutilisent que les applications dIA qui respectent le principe de la protection de la vie privée et des données dès la conception de manière à éviter tout détournement dusage.
Les députés appellent au respect du principe de précaution dans toutes les applications dIA dans le cadre répressif et soulignent que dans les cadres judiciaires et répressifs, les décisions produisant des effets juridiques ou similaires devraient toujours être prises par un être humain, qui peut être tenu responsable des décisions prises.
Analyses dimpact obligatoires
Le rapport préconise lexplicabilité, la transparence, la traçabilité et la vérification des algorithmes, en tant quéléments indispensables de la surveillance, afin de garantir que le développement, le déploiement et lutilisation des systèmes dIA pour les services judiciaires et répressifs respectent les droits fondamentaux et bénéficient de la confiance des citoyens.
Les députés demandent quune étude dimpact obligatoire sur les droits fondamentaux soit réalisée avant la mise en uvre ou le déploiement de tout système dIA à des fins répressives ou judiciaires, afin dévaluer tout risque potentiel pour les droits fondamentaux. Ces analyses dimpact devraient être menées avec la participation active de la société civile. Elles devraient définir clairement les garanties nécessaires pour faire face aux risques décelés et être rendues publiques, dans toute la mesure du possible, avant le déploiement de tout système dIA.
Le rapport demande quune autorité indépendante effectue un audit périodique et obligatoire de tous les systèmes dIA utilisés par les services répressifs et judiciaires lorsque ces systèmes sont susceptibles davoir une incidence significative sur la vie des personnes. Il souligne également la nécessité dassurer une formation spécialisée sur les dispositions éthiques, les dangers potentiels, les limites et la bonne utilisation des technologies dIA, en particulier pour le personnel policier et judiciaire.
Reconnaissance faciale
Les députés demandent un moratoire sur le déploiement des systèmes de reconnaissance faciale à des fins répressives destinés à lidentification, à moins quils ne soient utilisés quaux fins de lidentification des victimes de la criminalité, jusquà ce que les normes techniques puissent être considérées comme pleinement respectueuses des droits fondamentaux.