Comment l'IA devrait-elle être utilisée dans le système judiciaire ?

L'intelligence artificielle promet d'aider les juges à prendre des décisions. En réalité, elle rend leurs décisions et leurs tâches plus complexes, affirme Ayisha Piotti.
Les systèmes alimentés par l'IA sont déjà utilisés par les avocates et avocats aujourd'hui. (Visualisations : Adobe Stock)

L'intelligence artificielle (IA) transforme notre société. Au-delà des systèmes actuellement très médiatisés tels que ChatGPT ou DALL-E, qui peuvent générer des images, la technologie a également trouvé sa place dans le travail quotidien des avocats et avocates et même des juges. Pour l'instant, ces applications n'en sont qu'à leurs débuts, mais l'IA a le potentiel de changer notre système judiciaire. Cependant, tout en promettant des avantages considérables, elle soulève également de nouvelles questions éthiques et juridiques. Plus important encore, elle modifiera les rôles et les compétences requises des avocats et avocates et des juges.

En utilisant l'IA, les cabinets d'avocates et avocats et les tribunaux pourront travailler plus efficacement et automatiser les tâches répétitives. Espérons que cela permettra de réduire l'arriéré judiciaire notoire dont souffrent les tribunaux aujourd'hui. Les systèmes alimentés par l'IA sont déjà utilisés par les avocats et avocates, par exemple pour analyser de grandes quantités de données et de contrats. Aux États-Unis, certains tribunaux utilisent des systèmes d'IA pour faciliter les décisions de condamnation ou prédire le risque de récidive d'un délinquant ou d'une délinquante.

Cependant, il y a des écueils : les algorithmes d'IA actuels ne sont souvent pas assez transparents pour répondre aux exigences élevées en matière de responsabilité dans le système judiciaire. Les critiques craignent également que les systèmes d'IA ne perpétuent les préjugés et la discrimination. En effet, la fiabilité de l'IA dépend de la qualité des données utilisées. Si les systèmes d'aide à l'IA sont formés à partir de données biaisées, cela peut conduire à des résultats injustes.

Pour minimiser ces conséquences involontaires, il est impératif de tester rigoureusement les systèmes d'IA avant de les déployer. De nouvelles lignes directrices réglementaires sont également nécessaires. L'UE classe à juste titre l'utilisation de l'IA dans le système judiciaire comme une application à haut risque et la réglementera strictement - en termes de transparence, de surveillance et de cybersécurité, entre autres - dans la loi sur l'IA actuellement en cours de discussion.

Pour moi, le système judiciaire fait partie des domaines sensibles et critiques de notre vie où les systèmes d'IA ne doivent pas remplacer complètement les êtres humains. Pour garantir la responsabilité, nous devons garder les êtres humains dans le cycle ; je suis convaincue que les êtres humains sont nécessaires en tant que gardiens et gardiennes de l'IA. À l'avenir, les juges ne devront pas seulement rendre des jugements, mais aussi décider de la manière dont l'IA sera utilisée dans leur travail. Ils et elles devront connaître les avantages et les inconvénients de l'IA, garder un œil sur les compromis associés et les équilibrer dans des décisions conscientes.

L'un de ces compromis, par exemple, est celui entre la rapidité et la minutie. L'IA est incontestablement rapide, et certain·es juristes affirment que «justice différée est justice refusée». Une décision imparfaite rendue aujourd'hui peut donc être préférable à une décision parfaite qui n'aurait pas été rendue du tout.

«Nous devons garder les êtres humains dans le cycle.»      Ayisha Piotti

Un autre compromis est celui entre la rapidité et la certitude. Aujourd'hui, il n'existe toujours pas de normes régissant l'utilisation de l'IA dans le système judiciaire, sa validité et sa fiabilité. Les juges doivent faire preuve de discernement lorsqu'elles et ils autorisent l'IA à les aider dans leur travail.

Souvent développés commercialement

Un troisième dilemme découle du fait qu'aujourd'hui, l'IA est souvent développée à des fins commerciales plutôt que comme une technologie à code source ouvert. Je pense que les entreprises en développement ont un intérêt légitime à protéger leurs secrets commerciaux, mais cela va à l'encontre de notre insistance à ce que les décisions juridiques soient transparentes et responsables. Si nous voulons doter le système judiciaire d'analyses probabilistes des correspondances ADN et d'aides à la décision en matière de détermination de la peine, nous devrons dans de nombreux cas faire des compromis sur la transparence.

L'IA a le potentiel de rendre le système judiciaire plus efficace, plus rapide et qualitativement meilleur, mais cela implique d'équilibrer les compromis et de faire des concessions. Comme dans le cas des juges, l'utilisation des technologies de l'IA dans de nombreux autres aspects de notre vie implique un besoin urgent de doter les «êtres humains dans le cycle» d'un haut degré d'expertise spécifique à l'IA et de la confiance en soi nécessaire pour prendre ces décisions difficiles. En tant que société, le moment est venu de définir collectivement ces compromis et de renforcer cette capacité.

A propos de l'autrice

Ayisha Piotti est directrice de la politique en matière d'IA au Center for Law and Economics de l'ETH Zurich.