dataforethic-solutions-intelligentes-detecter-prevenir-violence-harcelement-favicon

Justice prédictive : un fantasme, un cauchemar ou une réalité ? 

En parlant de justice prédictive, nous avons tous en tête le film Minority Report (Steven Spielberg, 2002) dans lequel des précogs révèlent les futurs criminels,
dataforethic-justice-predictive
En parlant de justice prédictive, nous avons tous en tête le film Minority Report (Steven Spielberg, 2002) dans lequel des précogs révèlent les futurs criminels, leurs futurs crimes ainsi que l’heure et la localisation, ce qui permet à la police de les appréhender avant même que le crime ne soit commis. Tout l’enjeu du film réside dans le fait qu’il peut y avoir une erreur et que la technologie peut être manipulée.
L’Intelligence Artificielle est déjà présente dans le domaine judiciaire bien que ce dernier soit très en retard au niveau technologique (par manque de moyens, mais également car le milieu y a longtemps été réfractaire). Néanmoins, l’I.A s’installe prudemment dans tous les domaines et la justice ne fait pas exception. Il est donc nécessaire de discuter et d’installer cette nouvelle technologie dans des cadres judiciaires.
  • L’I.A peut rationaliser la décision de justice en réduisant les aléas judiciaires. Elle unifierait ainsi les décisions en donnant une solution 1 à un problème A. Néanmoins, la subjectivité du juge est une caractéristique essentielle, car il prend en compte la situation dans son ensemble : le mobile, les circonstances atténuantes, etc.  
  • L’I.A peut également être une aide à la décision – comme elle l’est déjà dans de nombreux domaines. Elle permettrait ainsi de donner au juge une réponse parfaitement adaptée à la situation rencontrée (contrairement à la rationalisation de la décision de justice). Le résultat d’un jugement serait toujours unique et les raisons objectives et justifiées. 
  • L’I.A pourrait accélérer le traitement quantitatif des dossiers. Elle peut traiter un plus grand nombre de dossiers en moins de temps et pourrait ainsi prendre en charge les « cas de masse », c’est-à-dire les dossiers ne présentant pas de situations particulières. 
La justice prédictive n’est en réalité qu’un fantasme : l’expertise, l’esprit analytique et l’humanité des juges ne pourront jamais être mathématiquement modélisables (bien que des chercheurs tentent cette modélisation). En voulant rationaliser et donc effacer les inégalités possibles, l’I.A ne ferait que renforcer les inégalités. Elle ne peut pas s’adapter aux situations imprévues et, malheureusement, comme elle est nourrie des données déjà existantes de la justice, des biais ont déjà été pointés du doigt (notamment aux Etats-Unis où le risque de récidive des Afro-Américains étaient surévalués par l’I.A).
L’I.A dans le domaine judiciaire est pour le moment utilisée pour effectuer des tâches extrêmement spécifiques et qui ne comportent aucun jugement : révision de contrats ou de clauses, vérification des politiques de conformité (pour éviter la corruption et les contrefaçons), outil de recherches de jurisprudence, aide à la recherche, veille juridique, etc.
Nous sommes donc encore loin de l’univers de Minority Report et il est probable que les juges ne seront jamais remplacés par des robots. Néanmoins, les chercheurs continuent de penser l’Intelligence Artificielle appliquée au droit afin de s’assurer qu’elle ne soit pas utilisée pour aller à l’encontre de l’indépendance de la justice ou qu’aucun biais n’intervienne dans son utilisation. La justice est aveugle, l’Intelligence Artificielle qui l’accompagne doit l’être également.
Partager:
Articles associés
dataforethic-consequences-cyberharcelement

Les conséquences du cyberharcèlement 

Les nouvelles technologies et les réseaux sociaux ont fait émerger de nouvelles formes de violence. Si ces dernières touchent tout le monde, les jeunes et les adolescents sont les plus