L'intelligence artificielle s'invite depuis quelques mois dans les débats, et pour cause : elle est révolutionnaire, car elle est aujourd'hui capable de simuler des décisions de justice. C'est ce qui s'appelle la justice prédictive. Pour y parvenir, des algorithmes permettent d'analyser une très importante quantité de données, qui sont croisées pour apporter des réponses juridiques. L'objectif affiché est simple : désengorger les tribunaux et soulager les magistrats débordés par un nombre d'affaires en constante augmentation, alors que le nombre de juges est insuffisant.
D'autres vont même jusqu'à dire que la justice artificielle permet de répondre aux inégalités liées à la nature humaine. Bref, la justice artificielle séduit, et il est vrai que par certains aspects on pourrait la considérer comme une avancée. Mais attention : aucune décision de justice impliquant une appréciation sur le comportement ou la personnalité ne peut avoir pour seul fondement un traitement automatisé des données à caractère personnel destiné à évaluer certains aspects de la personnalité d'un individu.
Cela peut être envisagé lorsque les enjeux sont minimes, dans certaines affaires civiles ou commerciales, mais en aucun cas le traitement automatisé de données ne peut être généralisé en matière familiale ou pénale, car dans ces domaines les affaires sont étroitement liées aux personnes et à l'étude de leur comportement.
Les risques liés à l'intelligence artificielle sont réels. C'est d'ailleurs ce qu'a révélé une étude de l'Institut des ingénieurs en électricité et électronique, concernant notamment le traitement des données personnelles ou le possible isolement des magistrats qui, pour remédier à une charge de travail trop importante, pourraient s'appuyer de façon excessive sur cette technologie, au point qu'elle pourrait prendre la place des juges eux-mêmes, ce qui – vous en conviendrez – n'est pas souhaitable.