La justice prédictive ... l'ère des PreCogn arrive.

La justice prédictive … l’ère des PreCogn arrive.

Ce type d’annonce est toujours impressionnante, personnellement, elles me font peur.

Comment ne pas imaginer rapidement toutes sortes de décisions éminemment impactantes laissées à la libre appréciation de machines apprenantes et insensibles ?

La prédectivité, c’est quoi ?

On peut se souvenir des “precog” de Minority Report pour se faire une idée assez juste. Ces entités, humaines et jumelles accompagnées de leur maman étaient en capacité de prévoir en fonction de l’intégralité des comportements, histoire de vie, psychologie, émotions d’un individu ce qu’il/elle ferait dans une situation précise.

Elles avaient donc pour mission de tout collecter, d’analyser et de prévoir pour une élite policière les lieux, personnes et actes criminelles qui allaient se dérouler et qu’ils devaient donc pouvoir empêcher.

Comment faisaient-elles, nul ne le sait … et le suspense du film repose sur l’obligation de retrouver dans la mémoire d’une de ces entité, l’endroit exact ou une donnée enregistrée a été modifiée, entraînant une prévision erronée et donc une arrestation préventive non justifiée.

Je vous invite à revoir le film pour évaluer le combat pour retrouver cette donnée 🙂

Revenons à la réalité …

Les outils d’aide à la décision permettent aujourd’hui de regrouper immensément plus de données pour décider et ça c’est plutôt bien.

En matière de justice, le magistrat est le garant de la compréhension de l’éco-système pour émettre un jugement et une sanction a partir d’un fait délictuel et/ou criminel.

Ceci explique pourquoi à constat factuel égal, le jugement et les sanctions peuvent être différentes et ça c’est essentiel.

Permettre à ces magistrats d’accéder à une documentation beaucoup plus fine, profonde tant des jugements, sanctions donnés sur des faits similaires en pouvant même en mesurer les résultats sur les personnes concernées (quel type de sanction a éviter de la récidive, a permis de la réinsertion, quel type d’application de la peine a été la plus efficace etc) que d’accéder aux profils psychologique, psychiatriques, aux notes des acteurs (policiers, gendarmes mais aussi avocats) semblent très bien. Cela permettra une rapide construction d’un éco-système plus large, plus fiable et qui s’inscrit dans une évolution pour mieux décider, juger et sanctionner.

Mais, car il y a toujours un mais, nous entrons dans l’air de l’intelligence artificielle et des machines apprenantes qui sélectionnent, en fonction de ce qu’elles apprennent, les données qui leurs semblent pertinentes à nous soumettre pour nous aider à décider.

La loi dite “Lemaire” oblige à expliquer les algorithmes qui nourrissent ces processus de sélection et d’en identifier clairement les critères.

Le GDPR obligera à partir de mai 2018 a pouvoir en cas d’automatisation de décision concernant une personne à pouvoir permettre un recours de cette décision auprès d’un humain qualifié pour réviser le process de décision, le valider ou l’invalider en fonction de son analyse et de son expérience.

Et là, j’ai à nouveau un peu peur car pour permettre aux machines d’apprendre, on les entraîne en leur donnant de la nourriture sous forme de données, de liens entre ses données, d’options de réponses en fonction de ces liens et tourne tourne les itérations pour les rendre de plus en plus intelligentes.

Mais tout comme les “precog”, personne ne sait comment les machines apprennent 🙂

Article d’origine sur Medium.com