L’intelligence artificielle, nouveau fantasme d’objectivité pour la justice

Par François Fluhr, France Télévisions, MediaLab

Institution centrale de nos sociétés, la justice comporte une dimension profondément humaine : elle est à la fois complexe, imparfaite et mouvante, faite d’émotions au moins autant que de raison. Et pourtant, elle sera aussi impactée par l’intelligence artificielle. Mais pas à n’importe quelles conditions : pour Georgie Courtois, avocat associé chez De Gaulle Fleurance & Associés - responsable de la thématique juridique chez Hub France IA et Jacques Levy-Vehel, mathématicien et fondateur de CaseLaw Analytics, l’IA n’est pas prête de remplacer l’humain, et son utilisation doit faire l’objet d’une vigilance particulière pour rester bénéfique.

L’IA comme assistant et non comme remplaçant

 On assiste depuis quelque temps à une montée en puissance des legal-tech, ces sociétés et ces startups qui proposent des services juridiques aussi bien aux juristes qu’aux magistrats afin de les assister dans leurs prises de décisions. Par exemple, Jacques Levy-Vehel a développé un outil permettant d’analyser automatiquement et au cas par cas les affaires à juger et leurs issues potentielles devant un tribunal.

« Si tout le monde dispose d’une anticipation raisonnable des possibilités, les gens vont éviter d’aller au tribunal et s’arranger par des procédures alternatives de règlement des litiges. »

Pour autant, il n’est pas question pour nos deux spécialistes de remplacer les professionnels de la justice par des robots mais bien de leur fournir une aide à la prise de décision ou la possibilité d’automatiser des tâches rébarbatives.

Georgie Courtois met ainsi en garde :

« Il y a un mythe autour de l'IA, elle est parfois pensée comme extrêmement intelligente, à même de supplanter les êtres humains et de remplacer les avocats ou les juges. Je n'y crois pas. En tout cas, pas à ce stade. »

 Faire apprendre la machine

C’est pour cette raison que Jacques Levy-Vehel a mis en place une méthodologie qui fait la part belle à l’humain :

« Notre credo, c’est précisément de remettre de l’humain dans l’intelligence artificielle, parce que notre point de départ c’est de prendre en compte le fait qu’une décision de justice comporte une part d’aléa humain. »

 Pour mettre sur pied une IA capable de reproduire la logique humaine, CaseLaw Analytics définit les critères que les juges vont utiliser pour prendre leurs décisions – ils seront parfois explicites, car mentionnés dans les textes de loi, mais peuvent aussi être implicites. Ils nécessitent alors d’adopter une approche quasi-sociologique qui consiste à s’entretenir avec un grand nombre de magistrats et d’avocats spécialistes du domaine pour établir l’ensemble des critères intervenant dans la prise de décision.

Il s’agit d’un travail exigeant, comme le souligne Georgie Courtois :

« Ces IA ne sont pas des logiciels que vous branchez et qui vous sortent des résultats miraculeux. Une IA se configure, se travaille, il faut la faire évoluer, il faut l'adapter en fonction de situations précises. »

Comme il n’existe pas qu’une seule « bonne réponse » possible, CaseLaw Analytics n’ambitionne pas de produire un seul jugement, mais une palette des décisions possibles :

« J’entraîne dans ma machine 100 juges virtuels. Ces 100 juges vont chacun prendre une décision et l’ensemble de ces 100 jugements ne reflètent ni plus ni moins que les décisions qui seraient prises à la cour d'appel de Paris à tel moment, sur tel dossier. »

 Risque d’une justice prédictive biaisée et opaque

 Ces deux spécialistes appellent à la prudence et mettent en garde contre les risques potentiels de dérive que l’utilisation de l’IA induit.

« On a tendance à croire que l'on regroupe des données, qu'il y a un traitement qui en est fait et que son résultat à valeur d’objectivité : mais l'IA n'a pas la science infuse », explique Georgie Courtois.

 Si on adopte une vision de l'IA qui consiste à analyser toutes les décisions de jurisprudence passées pour orienter les magistrats dans leurs décisions, on risque de voir apparaître un système prescriptif conformiste. Jacques Levy-Vehel incrimine notamment les nombreux outils qui promettent de calculer automatiquement des peines moyennes à partir de l’analyse de décisions passées : 

« Ce serait comme si pour essayer de prédire le temps qu’il fera demain, on se fondait sur le temps qu’il faisait ce même jour du mois, mais les années passées. »

 Le risque majeur des IA judiciaires serait ainsi de dépasser le cadre d’une justice prédictive pour aboutir à une justice prescriptive où la machine formulerait un jugement unique. Georgie Courtois explique qu’en ne traitant que la jurisprudence passée, « on risque de restreindre les possibilités de changement de jurisprudence, d'analyses différenciées, on risque d’écarter certains éléments décisifs ». Autant d’effets pernicieux qui risqueraient de figer la justice et de créer une fracture avec l'évolution naturelle de nos sociétés.

Ultime risque : celui des biais inhérents à l’utilisation de cette technologie. L’algorithme développé par l’entreprise Northpointe, utilisé aux États-Unis pour déterminer le montant des cautions et la durée des peines, a montré des biais raciaux, en classant notamment 42% des individus non-récidivistes noirs comme « à risque » contre seulement 22% des Blancs.

C’est la raison pour laquelle Georgie Courtois insiste sur le caractère essentiel de la transparence des algorithmes et des jeux de données :

« Si jamais vous mettez en place des outils qui sont susceptibles d'avoir une influence sur les décisions de justice, il faudra être capable de montrer pourquoi l'IA a préconisé telle ou telle orientation. La justice doit être comprise, c'est la raison pour laquelle les magistrats doivent motiver leurs décisions pour qu'elles soient valables. Il en va de même pour l’IA. »

Le mythe d’une IA « forte »

Alors que nous déléguons de plus en plus de tâches aux IA, la question de leur responsabilité commence à être posée. Certains voudraient leur attribuer une personnalité juridique, tandis que d’autres s’y refusent catégoriquement, à l’image de ces 220 experts en IA qui ont manifesté leur inquiétude à ce sujet dans une lettre ouverte à la Commission européenne.

Les deux spécialistes que nous avons interrogés partagent cette inquiétude. Une erreur de raisonnement serait à l'origine de cette initiative qui relève pour eux de la science-fiction :

« Dans ce débat, on présuppose que l’IA dispose d'une intelligence suffisamment importante pour pouvoir être consciente de ses choix, de son propre intérêt et être autonome. C'est ce qu'on appelle ‘ l'IA forte’  » explique Georgie Courtois.

Or nous ne sommes pas capables aujourd'hui de donner naissance à cette IA forte pour la simple raison que nous ne sommes pas encore parvenus à expliquer ce qu'est la conscience : « Nous ne savons pas comment notre système cérébral fonctionne dans sa globalité. Pour reproduire un système, encore faut-il comprendre parfaitement comment celui-ci fonctionne. »

Pour cette même raison, une IA ne saurait rendre la justice avec équité car elle ne peut avoir conscience de ce qu'est l'équité. Elle peut être programmée pour « agir » selon ce que ses programmeurs considèrent comme équitable, mais derrière il y aura toujours l’humain car l'IA ne se pose aucune question et ne fait qu’exécuter à partir d’une logique prédéterminée.

Ainsi, les travers de l'IA sont en définitive bien souvent les travers des hommes qui sont derrière elle. Et si nous sommes prêts à accepter des erreurs de la part des nôtres, il n’en va pas de même pour les machines, qui pourtant en commettent aussi. On ne peut pas encore dire d’une machine qu’elle prend des décisions à proprement parler. Et quand bien même, il n’existe pas un seul et unique bon jugement, on ne pourra donc jamais dire d’une machine qu’elle a pris la bonne décision. C’est la raison pour laquelle si on accepte aujourd’hui d’être jugé par un humain, bien qu’il puisse se tromper, accepter d’être jugé par une machine reste une autre affaire.