L’intelligence artificielle en droit pénal et son utilisation par les autorités policières et judiciaires dans les affaires pénales

2020/2016(INI)

Le Parlement européen a adopté par 377 voix pour, 248 contre et 62 abstentions, une résolution sur l’intelligence artificielle (IA) en droit pénal et son utilisation par les autorités policières et judiciaires dans les affaires pénales.

La résolution traite les questions soulevées par l’utilisation de l’IA dans le droit pénal et son utilisation par les autorités policières et judiciaires en matière pénale. Tout en reconnaissant les possibilités et les avantages potentiels que l’IA peut apporter, elle met en évidence les risques qu’elle peut entraîner pour la protection des droits fondamentaux des personnes.

Respect des droits fondamentaux

Étant donné que le traitement de grandes quantités de données est au cœur de l’IA, les députés estiment que le cadre juridique de l’Union en matière de protection des données et de la vie privée doit être pleinement respecté et qu’il devrait constituer un fondement pour toute future réglementation en matière d’IA aux fins d’une utilisation par les services répressifs et judiciaires. Toute utilisation de l’IA incompatible avec les droits fondamentaux devrait être interdite. De plus, l’utilisation des applications d’IA devrait être classée comme à haut risque lorsqu’elle est susceptible d’avoir une incidence significative sur la vie des personnes.

Le Parlement a réaffirmé que toutes les solutions d’IA à des fins répressives et judiciaires devraient respecter les principes de non-discrimination, de liberté de circulation, de présomption d’innocence et de droits de la défense, y compris le droit au silence, de liberté d’expression et d’information, de liberté de réunion et d’association, d’égalité devant la loi, d’égalité des armes et de droit à un recours effectif et à un procès équitable, conformément à la charte et à la convention européenne des droits de l’homme.

Risques de discrimination

Certaines technologies d’identification fondées sur des algorithmes qui sont utilisées actuellement commettent de nombreuses erreurs d’identification et de catégorisation et portent donc préjudice aux personnes racialisées, aux personnes appartenant à certaines communautés ethniques, aux personnes LGBTI, aux enfants et aux personnes âgées, ainsi qu’aux femmes.

Le Parlement a préconisé l’explicabilité, la transparence, la traçabilité et la vérification des algorithmes afin de garantir que l’utilisation des systèmes d’IA pour les services judiciaires et répressifs respecte les droits fondamentaux ainsi que pour garantir que les résultats produits par les algorithmes d’IA puissent être  intelligibles pour les utilisateurs et les personnes soumises à ces systèmes.

Les députés ont demandé d’accentuer les efforts pour éviter les discriminations automatisées et les biais d’automatisation. Ils ont plaidé pour que les garanties contre l’utilisation abusive des technologies d’IA par les autorités répressives et judiciaires soient réglementées de manière uniforme dans toute l’Union.

Analyses d’impact obligatoires

Les députés ont demandé qu’une étude d’impact obligatoire sur les droits fondamentaux soit réalisée avant la mise en œuvre de tout système d’IA à des fins répressives ou judiciaires afin d’évaluer tout risque potentiel pour les droits fondamentaux. Ces analyses d’impact devraient être menées avec la participation active de la société civile. Elles devraient définir clairement les garanties nécessaires pour faire face aux risques décelés et être rendues publiques avant le déploiement de tout système d’IA.

Le Parlement a demandé qu’une autorité indépendante effectue un audit périodique et obligatoire de tous les systèmes d’IA utilisés par les services répressifs et judiciaires lorsque ces systèmes sont susceptibles d’avoir une incidence significative sur la vie des personnes. Il a également souligné la nécessité d’assurer une formation spécialisée sur les dispositions éthiques, les dangers potentiels, les limites et la bonne utilisation des technologies d’IA, en particulier pour le personnel policier et judiciaire.

Garantir une intervention humaine

Les députés ont appelé au respect du principe de précaution dans toutes les applications d’IA dans le cadre répressif. Dans les cadres judiciaires et répressifs, les décisions produisant des effets juridiques ou similaires devraient toujours être prises par un être humain pouvant être tenu responsable des décisions prises. Les personnes soumises à des systèmes alimentés par l’IA devraient disposer de voies de recours.

Surveillance et profilage de masse

Le Parlement a demandé l’interdiction permanente de l’utilisation de l’analyse et de la reconnaissance automatisées, dans les espaces accessibles au public, de caractéristiques humaines telles que la démarche, les empreintes digitales, l’ADN, la voix et d’autres signaux biométriques et comportementaux. Il a également demandé d'interdire l'utilisation de bases de données privées de reconnaissance faciale (comme le système Clearview AI).

Les députés ont demandé un moratoire sur le déploiement des systèmes de reconnaissance faciale à des fins répressives destinés à l’identification, à moins qu’ils ne soient utilisés qu’aux fins de l’identification des victimes de la criminalité, jusqu’à ce que les normes techniques puissent être considérées comme pleinement respectueuses des droits fondamentaux.

Par ailleurs, les députés se sont montrés favorables à une interdiction de la notation à grande échelle des individus au moyen de l’IA.

Enfin, le Parlement a manifesté son inquiétude quant aux projets de recherche financés dans le cadre d’Horizon 2020 qui déploient l’intelligence artificielle aux frontières extérieures, tels que le projet iBorderCtrl, un «système intelligent de détection de mensonges» pour l’entrée des voyageurs dans l’UE. Il a invité la Commission à mettre en œuvre, au besoin par le biais de procédures d’infraction, l’interdiction de tout traitement des données biométriques à des fins répressives conduisant à une surveillance de masse dans les espaces accessibles au public.