Pourquoi installer des « juges robots » dans les salles d’audience est une très mauvaise idée
Pourquoi installer des « juges robots » dans les salles d’audience est une très mauvaise idée

IA : pourquoi installer des « juges robots » dans les salles d'audience est une très mauvaise idée
Crédit : corgarashu / Shutterstock

Les visions du futur de la science-fiction incluent de nombreuses versions de l'intelligence artificielle (IA), mais relativement peu d'exemples où le logiciel remplace les juges humains. Pour une fois, le monde réel semble changer d'une manière qui n'est pas prédite dans les histoires.

En février, un juge colombien demandé conseil à ChatGPT sur la façon de trancher un cas d'assurance. Autour du même moment, un juge pakistanais a utilisé ChatGPT confirmer ses décisions dans deux affaires distinctes. Il y a aussi des rapports de juges en Inde et en Bolivie demander conseil à ChatGPT.

Ce sont des expériences non officielles, mais certains efforts systématiques de réforme impliquent l'IA. En Chine, les juges sont conseillé et assisté par l'IAet cette évolution devrait se poursuivre. Dans un récent discoursle maître des rôles, Sir Geoffrey Vos - le deuxième juge le plus ancien d'Angleterre et du Pays de Galles - a suggéré que, à mesure que le système juridique de cette juridiction est numérisé, l'IA pourrait être utilisée pour trancher certains "conflits personnels moins intenses", tels que affaires commerciales.

L'IA n'est pas vraiment intelligente

Cela peut sembler être une bonne idée à première vue. La loi est censée être appliquée de manière impartiale et objective, "sans crainte ni faveur". Certains disent, quel meilleur moyen d'y parvenir que d'utiliser un programme informatique? AI n'a pas besoin de pause déjeuner, ne peut pas être soudoyée et ne veut pas d'augmentation de salaire. La justice de l'IA peut être appliquée plus rapidement et plus efficacement. Verrons-nous donc des « juges robots » dans les salles d'audience à l'avenir ?

Il y a quatre raisons principales pour lesquelles cela pourrait ne pas être une bonne idée. La première est que, dans la pratique, l'IA agit généralement comme un système expert ou en tant que apprentissage automatique système. Les systèmes experts impliquent l'encodage de règles dans un modèle de décisions et de leurs conséquences, appelé arbre de décision, dans un logiciel. Celles-ci ont connu leur apogée en droit dans les années 1980. Cependant, ils ont finalement s'est avéré incapable de fournir de bons résultats sur une grande Scale.

L'apprentissage automatique est une forme d'IA qui s'améliore avec le temps. C'est souvent assez puissant, mais pas plus qu'une supposition très éclairée. Une force est que il peut trouver des corrélations et des modèles dans des données que nous n'avons pas la capacité de calculer. Cependant, l'une de ses faiblesses est qu'il échoue de manière différente de la façon dont les gens le font, aboutissant à des conclusions manifestement incorrectes.

Dans un exemple notable, une IA a été amenée à reconnaître une tortue comme une arme à feu. La reconnaissance faciale pose souvent des problèmes pour identifier correctement les femmes, les enfants et les personnes à la peau foncée. Il est donc possible que l'IA puisse également placer par erreur quelqu'un sur une scène de crime qui n'était pas là. Il serait difficile d'avoir confiance dans un système juridique qui produit des résultats clairement incorrects mais aussi très difficiles à contrôler, car le raisonnement derrière l'apprentissage automatique n'est pas transparent. Il a dépassé notre capacité à comprendre son fonctionnement interne, un phénomène connu sous le nom de « problème de la boîte noire ».

Lorsque l'IA est utilisée dans des procédures judiciaires et qu'elle échoue, les conséquences peuvent être graves. Les grands modèles de langage, la technologie sous-jacente aux chatbots IA tels que ChatGPT, sont connus pour écrire du texte complètement faux. C'est ce qu'on appelle une hallucination de l'IA, même si cela implique que le logiciel réfléchit plutôt que de déterminer statistiquement ce que devrait être le mot suivant dans sa sortie.

Cette année, il est apparu qu'un avocat de New York avait utilisé ChatGPT pour rédiger des observations devant un tribunal, pour découvrir qu'il citait des cas qui n'existent pas. Cela indique que ces types d'outils ne sont pas encore capables de remplacer les avocats et, en fait, ne le seront peut-être jamais.

Biais historiques

Deuxièmement, les systèmes d'apprentissage automatique s'appuient sur des données historiques. Dans le crime et la loi, ceux-ci seront souvent contenir des préjugés et des préjugés. Communautés marginalisées comportera souvent plus dans les dossiers d'arrestations et de condamnations, de sorte qu'un système d'IA pourrait tirer la conclusion injustifiée que les personnes issues de milieux particuliers sont plus susceptibles d'être coupables.

Un exemple frappant de cela est le système Compas, un algorithme d'IA utilisé par les juges américains pour prendre des décisions sur l'octroi d'une caution et la condamnation. Une enquête a affirmé que il a généré des "faux positifs" pour les personnes de couleur et les "faux négatifs" pour les blancs. En d'autres termes, cela suggérait que les personnes de couleur récidivent alors qu'elles ne le faisaient pas, et suggéraient que les Blancs ne récidivent pas lorsqu'ils le faisaient. Cependant, le développeur du système conteste ces affirmations.

Troisièmement, il n'est pas certain que les règles juridiques puissent être converties de manière fiable en règles logicielles. Les individus interpréteront la même règle de différentes manières. Lorsque 52 programmeurs ont été chargés d'automatiser l'application des limites de vitesse, les programmes qu'ils a écrit émis des nombres de billets très différents pour les mêmes données d'échantillon.

Les juges individuels peuvent avoir des interprétations différentes de la loi, mais ils le font en public et sont susceptibles d'être renversés en appel. Cela devrait réduire la quantité de variation des jugements au fil du temps, du moins en théorie. Mais si un programmeur est trop strict ou trop indulgent dans sa mise en œuvre d'une règle, cela peut être très difficile à découvrir et à corriger.

Les systèmes gouvernementaux automatisés échouent à une échelle et à une vitesse dont il est très difficile de se remettre. Le gouvernement néerlandais a utilisé un système automatisé (SyRI) pour détecter la fraude aux prestationsqui a accusé à tort de nombreuses familles, détruisant ainsi des vies.

Le programme australien "Online Compliance Intervention" est utilisé pour évaluer automatiquement les dettes des bénéficiaires de prestations sociales. Il est communément appelé "Robodette". Le régime a dépassé ses limites, affectant négativement des centaines de milliers de personnes et a été le l'objet d'une commission royale en Australie. (Les commissions royales sont des enquêtes sur des questions d'importance publique en Australie.)

Enfin, juger est pas tout ce que font les juges. Ils ont de nombreux autres rôles dans le système juridique, tels que la gestion d'une salle d'audience, d'une charge de travail et d'une équipe de personnel, et ceux-ci seraient encore plus difficiles à remplacer par des logiciels.

Fourni par La Conversation

Cet article est republié de La conversation sous licence Creative Commons. Lis le article original.La conversation

Citation: AI: Pourquoi installer des 'robots juges' dans les salles d'audience est une très mauvaise idée (2023, 13 juillet) récupéré le 16 juillet 2023 sur

Ce document est soumis au droit d'auteur. En dehors de toute utilisation loyale à des fins d'étude ou de recherche privée, aucune partie ne peut être reproduite sans l'autorisation écrite. Le contenu est fourni seulement pour information.




Source

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Scroll to Top