Téléchargez gratuitement notre eBook "Pour une stratégie d'entreprise éco-responsable"
télécharger
French
French
Actualité
6/4/20

Le décret « DataJust » du 27 mars 2020 : L’IA et la justice

Par décret du 27 mars 20201, le gouvernement a en pleine crise sanitaire, autorisé la mise en place d’un traitement automatisé de données « DataJust ».

L’objectif est de développer un outil permettant d’établir un barème indicatif permettant d’évaluer financièrement les préjudices corporels, sur la base des décisions judiciaires rendues.

Ce projet décrit par la CNIL comme « un outil d’aide à la décision » n’est pas nouveau : évoqué dans le cadre du projet de réforme du droit de la responsabilité du 13 mars 20172, le projet « DataJust » est ensuite mentionné lors de la Vendôme Tech2 relative à la transformation numérique de la justice3 en 2018 puis, c’est au tour de la CNIL en janvier 2020 d’émettre un avis favorable au projet de décret qui lui était présenté4.

Concrètement, l’outil devrait sur la base d’un algorithme permettre de :

  • Réaliser des évaluations des politiques publiques en matière de responsabilité civile et administrative
  • Élaborer un référentiel indicatif d’indemnisation des préjudices corporels pour les professionnels et particuliers
  • Informer les parties (victimes, assureurs) afin de favoriser un règlement amiable des litiges
  • Informer et documenter les juges appelés à statuer sur les demandes d’indemnisation des préjudices corporels.

Pour la constitution de cet algorithme il est prévu que pourront être collectées et traitées les données à caractère personnel suivantes :

  • les noms et prénoms des personnes mentionnées dans les décisions de justice autres que les parties, leur date de naissance, genre, lien de parenté avec la victime, lieu de résidence
  • les données et informations relatives aux préjudices subis
  • les données relatives à la vie professionnelle, à la situation financière et aux perspectives d’évolutions de la situation de la victime et de la personne tenue à réparation,
  • les avis des médecins et des experts ayant examiné la victime
  • les données relatives à des infractions pénales et aux fautes civiles.

Ces données seront extraites des décisions de justice rendues en appel en matière d’indemnisation des préjudices corporels entre le 1er janvier 2017 et le 31 décembre 2019 et pourront être conservées jusqu’à mars 2022.

Seuls les agents du ministère de la justice et les agents de bureau de droit des obligations individuellement désignés par l’autorité compétente auront accès à ces informations personnelles lors de leur traitement.

En pratique, la mise en place de  DataJust soulève de nombreuses interrogations et de vives critiques.

Tout d’abord, le décret ne prévoit pas de rendre accessible et compréhensible les méthodologies du traitement DataJust, en contradiction avec la Charte éthique d’utilisation de l’intelligence artificielle dans les systèmes judiciaires et leur environnement du Conseil de l’Europe5.

Si cette Charte n’a pas de valeur normative, elle constitue cependant une référence dans le domaine de l’IA dans les systèmes judiciaires.

Elle précise qu’il est impératif que les parties à un procès puissent avoir accès à « un certain nombre d’informations quantitatives (nombre de décisions traitées pour obtenir le barème par exemple) et qualitatives (origine des décisions, représentativité des échantillons sélectionnés, distribution des décisions entre différents critères comme le contexte économique et social) afin de saisir le sens des échelles construites, d’en mesurer les éventuelles limites et de pouvoir en débattre devant un juge ».

Dans un avis du 9 janvier 2020, la CNIL a souligné la nécessité de rendre transparente la méthodologie mise en place par le gouvernement. À ce titre, elle demande au ministère de la justice que lui soit notamment communiqué, dans un délai d’un an suivant la fin de la phase de développement, une description détaillée des algorithmes, des méthodes mises en œuvre, des biais de l’algorithme identifiés et des correctifs envisagés/appliqués etc.

Ensuite, le décret limite les droits d’information et d’opposition pourtant garantis par le RGPD6.

La CNIL a toutefois estimé dans son avis que cette limitation était valablement justifiée par les « efforts disproportionnés » que représenterait la fourniture de ces informations et par l’objectif d’intérêt public général d’accessibilité du droit. Elle souligne que le ministère a pris l’engagement de délivrer une information spécifique aux mineurs et envisage de donner des instructions aux greffes des tribunaux afin de délivrer une information générale aux justiciables.

Enfin, ce décret, pris sans consultation des professionnels de la justice, inquiète.

Il risque notamment de créer un référentiel d’indemnisation des préjudices corporels, ne prenant pas en compte les spécificités de chaque situation. Il pourrait être opposé aux victimes, afin de limiter le montant des indemnités proposées amiablement tout en les dissuadant de demander en justice réparation de leur préjudice.

C’est dans ce contexte que le Conseil national des Barreaux a indiqué le 31 mars à la Garde des sceaux vouloir « attaquer ce décret devant le Conseil d’État »7.

Jean-Daniel BOUHÉNIC / Lucile Martin de Montchalin
Image par Garik Barseghyan de Pixabay
Découvrez le Livre Blanc : "Intelligence artificielle : quels enjeux juridiques"
Télécharger
Intelligence Artificielle : quels enjeux juridiques ?

Abonnez vous à notre Newsletter

Recevez chaque mois la lettre du DDG Lab sur l’actualité juridique du moment : retrouvez nos dernières brèves, vidéos, webinars et dossiers spéciaux.
je m'abonne
DDG utilise des cookies dans le but de vous proposer des services fonctionnels, dans le respect de notre politique de confidentialité et notre gestion des cookies (en savoir plus). Si vous acceptez les cookies, cliquer ici.