Question écrite n° 11629 de Mme Brigitte Lherbier (Nord – Les Républicains)
publiée dans le JO Sénat du 18/07/2019 – page 3812
Mme Brigitte Lherbier attire l’attention de Mme la garde des sceaux, ministre de la justice, sur la place accordée aux algorithmes dans le secteur juridique, notamment sur la fonction « prédictive » de ces outils.
Alors que certains pays de l’organisation de coopération et de développement économiques (OCDE), comme la Finlande ou les États-Unis ont de plus en plus recours à des algorithmes dans leurs systèmes de justice, avec par exemple le logiciel américain compas qui mesure le risque de récidive des prévenus, mais s’est révélé peu précis et peu efficace ; il est fondamental pour la France que les professionnels du secteur mais aussi l’État, se saisissent du sujet de l’intelligence artificielle (IA) dans la justice et définissent les usages qu’ils veulent en faire, afin d’éviter l’avènement d’une justice expéditive et déshumanisée.
Les outils d’IA sont appelés à tort « justice prédictive. » En réalité, ce sont des statistiques sur des décisions de justice qui peuvent faciliter la compréhension des professionnels du droit pour orienter une stratégie : l’IA ne représente qu’une aide complétant l’intelligence humaine dans le processus de décision.
Comme le rappelait le précédent vice-président du Conseil d’État, si les algorithmes dans le droit sont bien « une opportunité », il convient de s’en saisir « en sachant faire preuve d’une grande vigilance sur l’intangibilité d’une justice indépendante, impartiale, transparente, humaine et équilibrée » afin de garantir à tous les citoyens un égal accès à la force du droit. La révolution de l’IA, loin d’être une menace, est une formidable opportunité pour le monde juridique et pour l’État d’assurer un fonctionnement de la justice plus efficient, et de positionner la France comme un champion de l’IA éthique dans le droit.
Le secteur juridique privé en France gagnerait à établir des bonnes pratiques et à respecter une certaine déontologie en matière de transparence des outils : à titre d’exemple, en France, des éditeurs juridiques privés ont déjà créé des algorithmes sans boîtes noires.
Elle lui demande donc de clarifier la position du Gouvernement sur le développement de l’IA dans le secteur du droit et de la justice, et sur la possibilité de travailler avec les legaltech à la mise en place d’une certification qui permettrait le déploiement raisonné et éthique de ces solutions d’IA. La France a une opportunité pour être pionnière dans la justice algorithmique, au service des justiciables.
Réponse du Ministère de la justice
publiée dans le JO Sénat du 12/12/2019 – page 6152
Les nouvelles technologies de l’information et de la communication contribuent à dessiner un nouvel environnement judiciaire permettant ainsi, entre autres, la dématérialisation de l’accès au droit et à la justice, la création de plateformes de résolutions à l’amiable des litiges ou encore l’accès à de nouvelles modalités de saisine des juridictions, notamment civiles. Parmi ces évolutions, les outils algorithmiques dits « d’intelligence artificielle » se proposent notamment de contribuer à réduire l’aléa judiciaire par l’analyse statistique du risque judiciaire encouru par le justiciable. Touchant au cœur de l’action du magistrat, ces outils pourraient modifier en profondeur la pratique du droit : ils suscitent donc d’importants débats. Parmi les deux cents entreprises répertoriées en 2018 comme Legaltech seules 3 % des start-ups « legaltech » feraient du développement d’un algorithme d’intelligence artificielle leur cœur de métier. Ces nouveaux acteurs cherchent à faire évoluer les pratiques du droit. Il importe d’évaluer avec objectivité la réalité de ces évolutions. Plusieurs cas d’usage et d’expérimentations, en France comme dans d’autres pays, justifient une première analyse nuancée des algorithmes de prédiction de l’aléa juridique. En France, l’expérimentation d’un logiciel aux visées prédictives dans le ressort des cours d’appel de Douai et Rennes au printemps 2017 a été conclue par le constat partagé entre magistrats et avocats d’une inadéquation par rapport aux besoins exprimés. Au Royaume-Uni, l’expérimentation HART, conduite en 2016 par des chercheurs de l’université de Londres, et qui avait comme objectif de reproduire les processus de décision du juge européen, n’est pas parvenue à descendre en dessous des 20 % de réponses erronées, ce qui est un taux trop important pour un outil d’aide à la décision. Il appartient à la puissance publique de fixer le cadre et d’orienter le justiciable dans cet univers en pleine mutation. À ce titre, la principale garantie contre une justice intégralement algorithmique tient à l’article 47 de la loi n° 78-17 du 6 janvier 1978 relative à l’informatique, aux fichiers et aux libertés, qui dispose qu’« aucune décision de justice impliquant une appréciation sur le comportement d’une personne ne peut avoir pour fondement un traitement automatisé de données à caractère personnel destiné à évaluer certains aspects de la personnalité de cette personne. (…) ». La loi n° 2016-1321 du 7 octobre 2016 dite « République numérique » impose la transparence des algorithmes publics, offrant ainsi une garantie supplémentaire contre un éventuel phénomène de « boîte noire » en matière d’usages judiciaires de l’intelligence artificielle. En outre, la loi de programmation 2018-2022 et de réforme pour la justice prévoit : que la réutilisation de données de magistrats ou de greffiers « ayant pour objet ou pour effet d’évaluer, d’analyser, de comparer ou de prédire leurs pratiques professionnelles réelles ou supposées » est un délit (article 33) ; une certification facultative des plateformes en ligne de résolution amiable des litiges, y compris celles dont le service en ligne est proposé à l’aide d’un traitement algorithmique ou automatisé de données à caractère personnel. Il s’agit d’accompagner le développement des legaltech tout en sécurisant le cadre juridique et instaurant un climat de confiance pour le justiciable qui recourt à ces outils numériques. La certification sera accordée dès lors que les plateformes respectent les règles de protection des données à caractère personnel et les exigences d’indépendance et d’impartialité. La certification ne pourra pas être accordée à des plateformes qui auraient pour seul fondement un traitement algorithmique ou automatisé de données. Cette accréditation a été pensée non comme une obligation mais comme une faculté et doit aider au développement de ces entreprises innovantes tout informant pleinement le justiciable. Parallèlement, le plan de transformation numérique du ministère de la justice doit permettre de mettre en œuvre les dispositions de la loi de programmation 2018-2022 et de réforme pour la justice sur l’open data des décisions de justice.
Source: JO Sénat du 12/12/2019 – page 6152