Par décret du 27 mars 20201, le gouvernement a en pleine crise sanitaire, autorisé la mise en place d’un traitement automatisé de données « DataJust ».
L’objectif est de développer un outil permettant d’établir un barème indicatif permettant d’évaluer financièrement les préjudices corporels, sur la base des décisions judiciaires rendues.
Ce projet décrit par la CNIL comme « un outil d’aide à la décision » n’est pas nouveau : évoqué dans le cadre du projet de réforme du droit de la responsabilité du 13 mars 20172, le projet « DataJust » est ensuite mentionné lors de la Vendôme Tech2 relative à la transformation numérique de la justice3 en 2018 puis, c’est au tour de la CNIL en janvier 2020 d’émettre un avis favorable au projet de décret qui lui était présenté4.
Concrètement, l’outil devrait sur la base d’un algorithme permettre de :
Pour la constitution de cet algorithme il est prévu que pourront être collectées et traitées les données à caractère personnel suivantes :
Ces données seront extraites des décisions de justice rendues en appel en matière d’indemnisation des préjudices corporels entre le 1er janvier 2017 et le 31 décembre 2019 et pourront être conservées jusqu’à mars 2022.
Seuls les agents du ministère de la justice et les agents de bureau de droit des obligations individuellement désignés par l’autorité compétente auront accès à ces informations personnelles lors de leur traitement.
En pratique, la mise en place de DataJust soulève de nombreuses interrogations et de vives critiques.
Tout d’abord, le décret ne prévoit pas de rendre accessible et compréhensible les méthodologies du traitement DataJust, en contradiction avec la Charte éthique d’utilisation de l’intelligence artificielle dans les systèmes judiciaires et leur environnement du Conseil de l’Europe5.
Si cette Charte n’a pas de valeur normative, elle constitue cependant une référence dans le domaine de l’IA dans les systèmes judiciaires.
Elle précise qu’il est impératif que les parties à un procès puissent avoir accès à « un certain nombre d’informations quantitatives (nombre de décisions traitées pour obtenir le barème par exemple) et qualitatives (origine des décisions, représentativité des échantillons sélectionnés, distribution des décisions entre différents critères comme le contexte économique et social) afin de saisir le sens des échelles construites, d’en mesurer les éventuelles limites et de pouvoir en débattre devant un juge ».
Dans un avis du 9 janvier 2020, la CNIL a souligné la nécessité de rendre transparente la méthodologie mise en place par le gouvernement. À ce titre, elle demande au ministère de la justice que lui soit notamment communiqué, dans un délai d’un an suivant la fin de la phase de développement, une description détaillée des algorithmes, des méthodes mises en œuvre, des biais de l’algorithme identifiés et des correctifs envisagés/appliqués etc.
Ensuite, le décret limite les droits d’information et d’opposition pourtant garantis par le RGPD6.
La CNIL a toutefois estimé dans son avis que cette limitation était valablement justifiée par les « efforts disproportionnés » que représenterait la fourniture de ces informations et par l’objectif d’intérêt public général d’accessibilité du droit. Elle souligne que le ministère a pris l’engagement de délivrer une information spécifique aux mineurs et envisage de donner des instructions aux greffes des tribunaux afin de délivrer une information générale aux justiciables.
Enfin, ce décret, pris sans consultation des professionnels de la justice, inquiète.
Il risque notamment de créer un référentiel d’indemnisation des préjudices corporels, ne prenant pas en compte les spécificités de chaque situation. Il pourrait être opposé aux victimes, afin de limiter le montant des indemnités proposées amiablement tout en les dissuadant de demander en justice réparation de leur préjudice.
C’est dans ce contexte que le Conseil national des Barreaux a indiqué le 31 mars à la Garde des sceaux vouloir « attaquer ce décret devant le Conseil d’État »7.