L’intelligence artificielle en droit pénal et son utilisation par les autorités policières et judiciaires dans les affaires pénales
Le Parlement européen a adopté par 377 voix pour, 248 contre et 62 abstentions, une résolution sur lintelligence artificielle (IA) en droit pénal et son utilisation par les autorités policières et judiciaires dans les affaires pénales.
La résolution traite les questions soulevées par lutilisation de lIA dans le droit pénal et son utilisation par les autorités policières et judiciaires en matière pénale. Tout en reconnaissant les possibilités et les avantages potentiels que lIA peut apporter, elle met en évidence les risques quelle peut entraîner pour la protection des droits fondamentaux des personnes.
Respect des droits fondamentaux
Étant donné que le traitement de grandes quantités de données est au cur de lIA, les députés estiment que le cadre juridique de lUnion en matière de protection des données et de la vie privée doit être pleinement respecté et quil devrait constituer un fondement pour toute future réglementation en matière dIA aux fins dune utilisation par les services répressifs et judiciaires. Toute utilisation de lIA incompatible avec les droits fondamentaux devrait être interdite. De plus, lutilisation des applications dIA devrait être classée comme à haut risque lorsquelle est susceptible davoir une incidence significative sur la vie des personnes.
Le Parlement a réaffirmé que toutes les solutions dIA à des fins répressives et judiciaires devraient respecter les principes de non-discrimination, de liberté de circulation, de présomption dinnocence et de droits de la défense, y compris le droit au silence, de liberté dexpression et dinformation, de liberté de réunion et dassociation, dégalité devant la loi, dégalité des armes et de droit à un recours effectif et à un procès équitable, conformément à la charte et à la convention européenne des droits de lhomme.
Risques de discrimination
Certaines technologies didentification fondées sur des algorithmes qui sont utilisées actuellement commettent de nombreuses erreurs didentification et de catégorisation et portent donc préjudice aux personnes racialisées, aux personnes appartenant à certaines communautés ethniques, aux personnes LGBTI, aux enfants et aux personnes âgées, ainsi quaux femmes.
Le Parlement a préconisé lexplicabilité, la transparence, la traçabilité et la vérification des algorithmes afin de garantir que lutilisation des systèmes dIA pour les services judiciaires et répressifs respecte les droits fondamentaux ainsi que pour garantir que les résultats produits par les algorithmes dIA puissent être intelligibles pour les utilisateurs et les personnes soumises à ces systèmes.
Les députés ont demandé daccentuer les efforts pour éviter les discriminations automatisées et les biais dautomatisation. Ils ont plaidé pour que les garanties contre lutilisation abusive des technologies dIA par les autorités répressives et judiciaires soient réglementées de manière uniforme dans toute lUnion.
Analyses dimpact obligatoires
Les députés ont demandé quune étude dimpact obligatoire sur les droits fondamentaux soit réalisée avant la mise en uvre de tout système dIA à des fins répressives ou judiciaires afin dévaluer tout risque potentiel pour les droits fondamentaux. Ces analyses dimpact devraient être menées avec la participation active de la société civile. Elles devraient définir clairement les garanties nécessaires pour faire face aux risques décelés et être rendues publiques avant le déploiement de tout système dIA.
Le Parlement a demandé quune autorité indépendante effectue un audit périodique et obligatoire de tous les systèmes dIA utilisés par les services répressifs et judiciaires lorsque ces systèmes sont susceptibles davoir une incidence significative sur la vie des personnes. Il a également souligné la nécessité dassurer une formation spécialisée sur les dispositions éthiques, les dangers potentiels, les limites et la bonne utilisation des technologies dIA, en particulier pour le personnel policier et judiciaire.
Garantir une intervention humaine
Les députés ont appelé au respect du principe de précaution dans toutes les applications dIA dans le cadre répressif. Dans les cadres judiciaires et répressifs, les décisions produisant des effets juridiques ou similaires devraient toujours être prises par un être humain pouvant être tenu responsable des décisions prises. Les personnes soumises à des systèmes alimentés par lIA devraient disposer de voies de recours.
Surveillance et profilage de masse
Le Parlement a demandé linterdiction permanente de lutilisation de lanalyse et de la reconnaissance automatisées, dans les espaces accessibles au public, de caractéristiques humaines telles que la démarche, les empreintes digitales, lADN, la voix et dautres signaux biométriques et comportementaux. Il a également demandé d'interdire l'utilisation de bases de données privées de reconnaissance faciale (comme le système Clearview AI).
Les députés ont demandé un moratoire sur le déploiement des systèmes de reconnaissance faciale à des fins répressives destinés à lidentification, à moins quils ne soient utilisés quaux fins de lidentification des victimes de la criminalité, jusquà ce que les normes techniques puissent être considérées comme pleinement respectueuses des droits fondamentaux.
Par ailleurs, les députés se sont montrés favorables à une interdiction de la notation à grande échelle des individus au moyen de lIA.
Enfin, le Parlement a manifesté son inquiétude quant aux projets de recherche financés dans le cadre dHorizon 2020 qui déploient lintelligence artificielle aux frontières extérieures, tels que le projet iBorderCtrl, un «système intelligent de détection de mensonges» pour lentrée des voyageurs dans lUE. Il a invité la Commission à mettre en uvre, au besoin par le biais de procédures dinfraction, linterdiction de tout traitement des données biométriques à des fins répressives conduisant à une surveillance de masse dans les espaces accessibles au public.