Le Royaume-Uni développe un programme de « prédiction des meurtres » fonctionnant à l’aide de l’intelligence artificielle (IA). L’objectif? Identifier les meurtriers potentiels grâce à des algorithmes avant qu’ils ne passent à l’acte. Cette évolution pourrait être l’avenir de la lutte contre la criminalité, mais représente aussi un danger.
Le Royaume-Uni utiliserait l’intelligence artificielle afin d’identifier les personnes présentant le plus grand risque de commettre des actes violents graves. Ce programme a été mis au jour par l’organisation Statewatch, qui s’est appuyée sur des documents obtenus grâce au Freedom of Information Act, l’équivalent britannique de la loi sur la transparence suisse.
Initialement baptisé « projet de prédiction des homicides », le programme a été rebaptisé « partage de données pour améliorer l’évaluation des risques », rapporte le quotidien britannique Guardian. Concrètement, il s’agit de prévenir des meurtres et autres crimes violents à partir du passé. Les autorités britanniques soulignent cependant que, pour l’instant, le programme n’est utilisé qu’à des fins de recherche.
L’avenir de la lutte contre la criminalité?
Seules les données de personnes ayant au moins une condamnation pénale sont utilisées, assure Londres. Le programme « a été conçu à partir de données existantes détenues par les services pénitentiaires et de probation, ainsi que par les forces de police, concernant des délinquants condamnés », précise le ministère britannique de la Justice cité par le Guardian. Cela inclut, par exemple, des informations sur le sexe, l’appartenance ethnique ou la santé mentale.
De son côté, Statewatch affirme que, selon ses investigations, des données de personnes n’ayant pas été condamnées pour un délit seraient également utilisées. Des individus ayant commis des automutilations ou ayant été victimes de violences domestiques, entre autres, seraient aussi concernés, selon cette organisation. Les autorités contestent ces affirmations.
L’intelligence artificielle est déjà très utilisée dans le domaine de la lutte contre la criminalité, affirme Guido Berger, journaliste spécialisé dans les technologies numériques chez SRF. Des systèmes alimentés par des algorithmes sont disponibles sur le marché. Les autorités veulent éviter qu’on leur reproche d’avoir eu les moyens d’empêcher un crime, mais de ne rien avoir fait, relève Guido Berger.
Contenu externe
Ce contenu externe ne peut pas être affiché car il est susceptible de collecter des données personnelles. Pour voir ce contenu vous devez autoriser la catégorie Services Tiers.
Accepter Plus d’info
Un projet « glaçant et dystopique »
Statewatch se montre extrêmement critique vis-à-vis de ce projet qualifié de « glaçant et dystopique ». Selon cette association, un tel modèle basé sur des données provenant d’autorités « institutionnellement racistes » va inévitablement conduire à « des biais à l’encontre des communautés racisées et à faibles revenus ».
Pour Guido Berger, le risque de renforcer des discriminations existe et est inhérent aux systèmes d’intelligence artificielle. Par exemple, si certaines personnes sont aujourd’hui contrôlées de manière excessive par la police, elles apparaissent plus fréquemment dans les données. Une IA entraînée sur de tels schémas va reproduire la même chose et il sera ensuite difficile d’adapter le modèle.
Contenu externe
Ce contenu externe ne peut pas être affiché car il est susceptible de collecter des données personnelles. Pour voir ce contenu vous devez autoriser la catégorie Services Tiers.
Accepter Plus d’info
Quid de la Suisse?
En Suisse, certaines villes et certains cantons utilisent depuis plusieurs années des logiciels destinés à prévenir des crimes comme les cambriolages ou la violence domestique. Jusqu’à présent, les résultats de ces solutions algorithmiques sont mitigés, note Guido Berger. Et pourtant, on dispose d’une masse de données relativement importante pour les cambriolages. Pour les crimes violents, celle-ci est beaucoup plus réduite.
Contenu externe
Ce contenu externe ne peut pas être affiché car il est susceptible de collecter des données personnelles. Pour voir ce contenu vous devez autoriser la catégorie Services Tiers.
Accepter Plus d’info
Texte de SRF adapté en français par Didier Kottelat