Prédire un crime avant qu’il ne se produise : et si la fiction devenait réalité ?

Peut-on deviner un passage à l’acte avant qu’il n’ait lieu, sans basculer dans une société de suspicion ?
Il y a des idées qu’on pensait réservées aux films de science-fiction. Arrêter un futur meurtrier avant même qu’il n’ait levé la main sur sa victime ? Cela paraît impossible. Et pourtant, c’est exactement ce que tente aujourd’hui le Royaume-Uni avec un programme d’intelligence artificielle à la fois fascinant et dérangeant.
Le projet qui veut deviner l’imprévisible
Tout commence avec un nom : homicide prediction project. Peu rassurant, non ? Face aux critiques, le gouvernement britannique l’a vite rebaptisé sharing data to improve risk assessment. Plus vague, plus lisse. Mais derrière ce changement de façade, l’objectif reste le même : utiliser des algorithmes pour identifier les personnes qui pourraient, un jour, commettre un meurtre.
Ce programme repose sur une base de données immense, issue de la police, du service de probation, et même de fichiers médicaux. Il croise des informations comme le sexe, l’âge, l’origine ethnique, les antécédents judiciaires, mais aussi des éléments beaucoup plus sensibles : troubles mentaux, tentatives de suicide, situations de handicap, addictions. L’algorithme passe au crible tous ces critères pour établir un niveau de risque. Une sorte de portrait-robot du futur coupable.
Des intentions sécuritaires, mais à quel prix ?
À en croire le ministère britannique de la Justice, il s’agit simplement de recherche. Pas de contrôle policier, pas d’arrestations préventives, seulement une expérimentation scientifique. Le but serait d’améliorer les outils déjà utilisés pour évaluer les risques chez les personnes en probation, ces individus qui ont purgé une peine mais restent suivis par la justice.
Mais pour certains observateurs, cette promesse a des allures de faux-semblant. Car l’algorithme ne s’intéresserait pas uniquement à des personnes déjà condamnées. L’ONG Statewatch, à l’origine de la révélation, affirme que le système inclut également des données concernant des victimes, des malades, des personnes vulnérables, bref, des individus n’ayant jamais franchi la ligne rouge du crime.
Pour Sofia Lyall, chercheuse de l’ONG citée par The Guardian, ce système pourrait bien « renforcer les discriminations » et cibler injustement les minorités ou les personnes défavorisées, simplement parce que leurs profils présentent statistiquement plus de « signes à risque ». Des inquiétudes qui rappellent que l’intelligence artificielle n’est pas toujours impartiale : elle répète les biais de la société qui la nourrit.
Le spectre de la science-fiction plane
Difficile de ne pas penser à Minority Report, ce film culte de Steven Spielberg inspiré d’un récit de Philip K. Dick. On y suivait un monde où la police arrête les criminels avant qu’ils ne passent à l’acte, grâce à des voyants doués de précognition. À une différence près : ici, les precogs ont été remplacés par des serveurs et des algorithmes.
Ce parallèle n’a rien d’anecdotique. Car derrière la prouesse technique, c’est toute une vision de la justice qui bascule. Une justice qui ne punit plus un acte, mais un potentiel. Une société qui traque l’intention plutôt que le geste. Une frontière ténue entre prévention et surveillance, entre protection et suspicion généralisée.
Pour l’instant, ce projet britannique reste dans les laboratoires. Aucun déploiement sur le terrain, aucune application directe. Mais les spécialistes de l’éthique numérique gardent un œil attentif. Car on sait combien les projets « expérimentaux » peuvent rapidement glisser vers des usages concrets, surtout quand ils prétendent sauver des vies.
L’enjeu est colossal : peut-on prédire un crime sans perdre notre libre arbitre ? Peut-on deviner un passage à l’acte avant qu’il n’ait lieu, sans basculer dans une société de suspicion ?





