Par albert.caston le 12/05/20

ROPOSITION DE RÉSOLUTION visant à encadrer la justice prédictive et empêcher que l’intelligence artificielle prenne les décisions de justice en lieu et place des juges,

 
N° 2912
_____
ASSEMBLÉE  NATIONALE
CONSTITUTION DU 4 OCTOBRE 1958
QUINZIÈME LÉGISLATURE
Enregistré à la Présidence de l’Assemblée nationale le 11 mai 2020
 
PROPOSITION DE RÉSOLUTION visant à encadrer la justice prédictive et empêcher que l’intelligence artificielle prenne les décisions de justice en lieu et place des juges,
 
 
présentée par Mesdames et Messieurs
Patrick HETZEL, Nathalie BASSIRE, Thibault BAZIN, Valérie BEAUVAIS, Émilie BONNIVARD, Ian BOUCARD, Xavier BRETON, Bernard BROCHAND, Fabrice BRUN, Josiane CORNELOUP, MarieChristine DALLOZ, JeanPierre DOOR, Daniel FASQUELLE, Nicolas FORISSIER, Annie GENEVARD, Philippe GOSSELIN, Michel HERBILLON, Brigitte KUSTER, Valérie LACROUTE, Marc LE FUR, Constance LE GRIP, Geneviève LEVY, David LORION, JeanLouis MASSON, Gérard MENUEL, Frédérique MEUNIER, Guillaume PELTIER, Bernard PERRUT, Bérengère POLETTI, Frédéric REISS, Bernard REYNÈS, Vincent ROLLAND, Raphaël SCHELLENBERGER, JeanMarie SERMIER, Éric STRAUMANN, JeanCharles TAUGOURDEAU, JeanLouis THIÉRIOT, Isabelle VALENTIN, Patrice VERCHÈRE, Arnaud VIALA, JeanPierre VIGIER, Stéphane VIRY,
députés.

 

 1 
EXPOSÉ DES MOTIFS
Mesdames, Messieurs,
Alors que la France entière est confinée pour éviter la propagation du covid‑19, la Chancellerie a publié au journal officiel le dimanche 29 mars un décret (n° 2020‑356) portant création d’un traitement automatisé de données à caractère personnel dénommé DataJust.
Ce décret prévoit, pour une durée de deux ans, le développement d’un algorithme destiné à permettre « lévaluation rétrospective et prospective des politiques publiques en matière de responsabilité civile et administrative, lélaboration dun référentiel indicatif dindemnisation des préjudices corporels, linformation des parties et laide à lévaluation du montant de lindemnisation à laquelle les victimes peuvent prétendre afin de favoriser un règlement amiable des litiges ». 
Sur le site d’Etalab, l’équipe chargée du projet indique qu’avec Datajust, les victimes « pourraient comparer en pleine connaissance de cause les offres dindemnisation des assureurs et les montants quelles pourraient obtenir devant les tribunaux ; les avocats disposeraient dinformations fiables leur permettant de conseiller leurs clients ; les magistrats auraient un outil daide au chiffrage des préjudices grâce à un accès facilité à des jurisprudences finement ciblées ».
Bien que présenté par la Chancellerie comme un « outil de qualité », ce projet est controversé.
Car il pose de nombreuses questions.
Va‑t‑on arriver à la disparition progressive des avocats ?
Avance‑t‑on vers une société de « juges‑robots » ?
Peut‑on laisser aux algorithmes le pouvoir de juger ?
La machine est‑elle en voie de remplacer le juge ?
Est‑ce la fin programmée des décisions individualisées ?
Va‑t‑on vers l’automatisation de la justice ?
Lorsque les avocats y recourent pour préparer leur défense ou mettre en place les bases d’une négociation, comment s’assurer que le socle jurisprudentiel sur lequel s’appuient les résultats est fiable et exhaustive ?
Quelle garantie a‑t‑on que le raisonnement qui a conduit à la prédiction judiciaire est incontestable ?
Si la justice prédictive repose sur le postulat que peut être anticipé le résultat d’une procédure grâce à la puissance de calcul de solutions informatisées agrégeant des milliers des décision de tribunaux et cours combinées avec les paramètres spécifiques d’une affaire, arrivera‑t‑on à des jugements prédéterminés en fonction du lieu ?
Peut‑on préserver l’anonymat des personnes citées dans un jugement tout en diffusant l’essentiel du contenu d’un jugement anonymisé ?
Ne court‑on pas le risque d’une réidentification des personnes simplement en croisant ces données avec d’autres sources ?
Est‑ce que toute vie « judiciaire » civile ou pénale, tout auteur ou toute victime, doit être sur la place publique d’Internet ?
Comment s’assurer que les données dérivant des décisions juridictionnelles proviennent de sources certifiées et ne puissent pas être altérées jusqu’à leur utilisation effective par l’algorithme ?
Comment prévoir l’instauration d’un barème en matière de réparation des préjudices corporels et de création d’un fichier comportant des données personnelles hors le cadre du règlement général sur la protection des données (RGPD) ?
Comment encadrer les sociétés qui contribuent à la réalisation d’une fonction régalienne qu’est la justice ?
Comment maîtriser la transparence de la méthodologie utilisée ?
Comment éviter une commercialisation des données ?
Comment mettre en place une éthique pour les « fabricants » d’algorithmes ? Est‑il prévu une autorité de régulation des algorithmes ?
Face à toutes ces interrogations, il est urgent de rappeler que linterprétation de la règle et du droit doit rester une prérogative strictement humaine.
Le Conseil national des barreaux a déposé un recours devant le Conseil d’État.
La présidente de la conférence des bâtonniers a exprimé son mécontentement de ne pas avoir été consultée sur ce décret, publié en plein état d’urgence sanitaire.
Au vu de toutes ces interrogations, nous vous demandons, Mesdames, Messieurs, de bien vouloir adopter la proposition de résolution suivante.
 
 
 
PROPOSITION DE RÉSOLUTION
Article unique
L’Assemblée nationale,
Vu l’article 34‑1 de la Constitution,
Vu l’article 136 du Règlement de l’Assemblée nationale,
Considérant l’importance d’une justice individualisée ;
Considérant qu’un algorithme ne peut remplacer magistrats et juges dans les affaires de responsabilité civile ;
Considérant les risques de réidentification par croisement des données ;
Invite le Gouvernement à retirer ce décret aucunement prioritaire en ce temps de pandémie.

 

 
Par albert.caston le 17/01/20

 

 
Etude G. Drouot, D. 2020, p. 35.
 
Par albert.caston le 07/01/20
 
15ème législature


Question N° 21789
de M. Jean-Michel Mis (La République en Marche - Loire )
Question écrite


Ministère interrogé > Justice
Ministère attributaire > Justice

 

Rubrique > justice
Titre > Place des algorithmes dans le secteur juridique


Question publiée au JO le : 23/07/2019 page : 6828
Réponse publiée au JO le : 07/01/2020 page : 91


Texte de la question

M. Jean-Michel Mis attire l'attention de Mme la garde des sceaux, ministre de la justice, sur la question de la place accordée aux algorithmes dans le secteur juridique et sur la nécessité de travailler dès maintenant à la construction d'un cadre à la fois responsabilisant et porteur pour les acteurs français de la justice « algorithmique ». Alors que certains pays de l'OCDE, comme la Finlande ou les États-Unis ont recours à des algorithmes dans leurs systèmes de justice, il est aujourd'hui indispensable que la France se saisisse de ce sujet afin d'en définir les usages et d'en contrôler les dérives, afin d'éviter l'avènement d'une justice expéditive et déshumanisée. En effet, si la loi programmation 2019-2022 et de réforme de la justice, adoptée définitivement le 18 février 2019, fait entrer la justice française dans une nouvelle ère, celle du numérique, elle a pour autant omis la question du rôle que pourrait jouer les algorithmes dans le secteur juridique, alors même que se développent dans le pays de nombreuses legaltech. Comme le rappelait l'ancien vice-président du Conseil d'État, M. Jean-Marc Sauvé, si les algorithmes dans le droit sont bien « une opportunité », il convient de s'en saisir « en sachant faire preuve d'une grande vigilance sur l'intangibilité d'une justice indépendante, impartiale, transparente, humaine et équilibrée » afin de garantir à tous les citoyens un égal accès à la force du droit. Ces outils sont en fait des statistiques sur des décisions de justice qui peuvent faciliter la compréhension des professionnels du droit, orienter une stratégie. Ils ne sont et ne doivent rester qu'une aide en complément de l'intelligence humaine dans le processus de décision. Cette révolution pourrait, en outre, être une formidable opportunité pour le monde juridique, mais aussi pour l'État qui trouverait là un moyen d'assurer un fonctionnement de la justice plus efficient. Elle serait aussi et surtout une opportunité de positionner la France comme un leader dans ce domaine, de lui permettre d'imposer sa vision pour une utilisation éthique de ces outils. Il lui demande donc quelles mesures compte prendre le Gouvernement pour construire un cadre à la fois responsabilisant et porteur pour les acteurs français de la justice « algorithmique ».

Texte de la réponse

Les nouvelles technologies de l'information et de la communication contribuent à dessiner un nouvel environnement judiciaire permettant, entre autres, la dématérialisation de l'accès au droit et à la justice, la création de plateformes de résolutions à l'amiable des litiges ou encore l'accès à de nouvelles modalités de saisine des juridictions, notamment civiles. Parmi ces évolutions, les outils algorithmiques dits « d'intelligence artificielle » se proposent notamment de contribuer à réduire l'aléa judiciaire par l'analyse statistique du risque judiciaire encouru par le justiciable. Touchant au cœur de l'action du magistrat, ces outils pourraient modifier en profondeur la pratique du droit : ils suscitent donc d'importants débats. Parmi les deux cents entreprises répertoriées en 2018 comme Legaltech, seules 3 % des start-ups « legaltech » feraient du développement d'un algorithme d'intelligence artificielle leur cœur de métier. Ces nouveaux acteurs cherchent à faire évoluer les pratiques du droit. Il importe d'évaluer avec objectivité la réalité de ces évolutions. Plusieurs cas d'usage et d'expérimentations, en France comme dans d'autres pays, justifient une première analyse nuancée des algorithmes de prédiction de l'aléa juridique. En France, l'expérimentation d'un logiciel aux visées prédictives dans le ressort des cours d'appel de Douai et Rennes au printemps 2017 a été conclue par le constat partagé entre magistrats et avocats d'une inadéquation par rapport aux besoins exprimés. Au Royaume-Uni, l'expérimentation HART, conduite en 2016 par des chercheurs de l'université de Londres, et qui avait comme objectif de reproduire les processus de décision du juge européen, n'est pas parvenue à descendre en dessous des 20 % de réponses erronées, ce qui est un taux trop important pour un outil d'aide à la décision. Il appartient à la puissance publique de fixer le cadre et d'orienter le justiciable dans cet univers en pleine mutation. A ce titre, la principale garantie contre une justice intégralement algorithmique tient à l'article 47 de la loi n° 78-17 du 6 janvier 1978 relative à l'informatique, aux fichiers et aux libertés, qui dispose qu'« aucune décision de justice impliquant une appréciation sur le comportement d'une personne ne peut avoir pour fondement un traitement automatisé de données à caractère personnel destiné à évaluer certains aspects de la personnalité de cette personne. (…) ». La loi n° 2016-1321 du 7 octobre 2016 dite « République numérique » impose la transparence des algorithmes publics, offrant ainsi une garantie supplémentaire contre un éventuel phénomène de « boîte noire » en matière d'usages judiciaires de l'intelligence artificielle. En outre, la loi de programmation 2018-2022 et de réforme pour la justice prévoit que la réutilisation de données de magistrats ou de greffiers « ayant pour objet ou pour effet d'évaluer, d'analyser, de comparer ou de prédire leurs pratiques professionnelles réelles ou supposées » est un délit (article 33). La certification facultative des plateformes en ligne de résolution amiable des litiges, y compris celles dont le service en ligne est proposé à l'aide d'un traitement algorithmique ou automatisé de données à caractère personnel, constitue une étape supplémentaire dans la construction du cadre juridique en la matière. Il s'agit d'accompagner le développement des legaltech tout en sécurisant le cadre juridique et instaurant un climat de confiance pour le justiciable qui recourt à ces outils numériques. La certification sera accordée dès lors que les plateformes respectent les règles de protection des données à caractère personnel et les exigences d'indépendance et d'impartialité. La certification ne pourra pas être accordée à des plateformes qui auraient pour seul fondement un traitement algorithmique ou automatisé de données. Cette accréditation a été pensée non comme une obligation mais comme une faculté et doit aider au développement de ces entreprises innovantes tout en informant pleinement le justiciable. Parallèlement, le plan de transformation numérique du ministère de la justice doit permettre de mettre en œuvre les dispositions de la loi de programmation 2018-2022 et de réforme pour la justice sur l'open data des décisions de justice. Les données qui seront libérées dans ce cadre permettront ainsi de sécuriser l'entraînement des algorithmes en mettant à disposition des données complètes et non biaisées, aspect essentiel de la construction de solutions algorithmiques fiables. Dans la ligne des engagements souhaités par le président de la République quant au positionnement de la France comme actrice majeure de l'intelligence artificielle, le ministère de la justice soutient plusieurs projets aux fins d'expérimentation de l'intelligence artificielle appliquée à la matière judiciaire, en partenariat avec la mission Etalab : les projets DataJust et OpenJustice. En outre, le ministère participe à l'élaboration d'outils internationaux permettant d'inscrire la France dans une perspective européenne en la matière. Ainsi, la charte éthique européenne sur l'utilisation de l'IA dans les systèmes judiciaires a été adoptée lors de la 31ème réunion plénière de la Commission européenne pour l'efficacité de la justice. Elle dégage notamment cinq grands « principes » de l'intelligence artificielle vertueuse, que sont le principe de respect des droits fondamentaux, le principe de non-discrimination, le principe de qualité et de sécurité, le principe de transparence, de neutralité et d'intégrité intellectuelle, ainsi que le principe de maîtrise par l'utilisateur. Le ministère de la justice suit également les travaux de la Commission ainsi que ceux qui seront entrepris dans le cadre du comité ad hoc sur l'intelligence artificielle crée par le Conseil de l'Europe.


 

 
 
Par albert.caston le 03/12/19
 
Note Landel, bull. EL déc. 2019-janv. 2020, p. 12.

Cour de cassation
chambre civile 2
Audience publique du jeudi 24 octobre 2019
N° de pourvoi: 18-20.818

Non publié au bulletin Cassation partielle

M. Pireyre (président), président
Me Le Prado, SCP Garreau, Bauer-Violas et Feschotte-Desbois, avocat(s)

 



 

Texte intégral


REPUBLIQUE FRANCAISE

AU NOM DU PEUPLE FRANCAIS



LA COUR DE CASSATION, DEUXIÈME CHAMBRE CIVILE, a rendu l'arrêt suivant :

Attendu, selon l'arrêt attaqué, que le 24 mai 2005, le diagnostic de cancer du lobe pulmonaire inférieur gauche a été posé chez W... D... ; que la caisse primaire d'assurance maladie de Charente Maritime, a pris en charge cette pathologie au titre du tableau n° 30 bis des maladies professionnelles par décision du 31 juillet 2006 ; qu'une rente lui a alors été versée à ce titre, à compter du 1er décembre 2008, sur la base d'un taux d'incapacité de 100% ; que W... D... a saisi le Fonds d'indemnisation des victimes de l'amiante (FIVA) d'une demande d'indemnisation des préjudices subis du fait de sa pathologie ; que, le 27 mars 2007, W... D... a accepté l'offre du FIVA portant sur les préjudices moral, physique, esthétique et d'agrément ; que le 13 juillet 2010, le FIVA lui a adressé une décision de rejet s'agissant du préjudice lié à son incapacité fonctionnelle, préjudice déjà entièrement pris en charge par l'organisme social, laquelle n'a pas été contestée ; que W... D... est décédé le [...] ; que ses ayants droit ont saisi le FIVA d'une demande d'indemnisation des préjudices subis par leur auteur du fait de l'aggravation de son état de santé ainsi que de leurs propres préjudices résultant de son décès ; que le [...] , le FIVA leur a notifié une offre d'indemnisation ; que le 30 septembre 2016, Mme L... C... veuve D..., MM. M... et O... D..., Mme Q... D... épouse U..., agissant à titre personnel et en sa qualité de représentante légale de sa fille mineure V... U..., ainsi que M. K... U..., agissant à titre personnel et en qualité de représentant légal de sa fille mineure V... U... (les consorts D...), ont saisi une cour d'appel pour contester cette offre ;

Sur le premier moyen pris en sa deuxième branche :

Vu l'article 53, IV, de la loi n° 2000-1257 du 23 décembre 2000 et le principe de la réparation intégrale sans perte ni profit pour la victime ;

Attendu que, pour limiter l'indemnisation des consorts D... au titre de l'action successorale à la somme de 1 500 euros en réparation du préjudice esthétique, l'arrêt énonce que c'est de façon justifiée que le FIVA oppose le fait que l'indemnisation acceptée en 2007 avait été accordée sur la base d'un taux d'incapacité de 100% définitif, incluant l'intégralité des souffrances endurées et restant à endurer, dans le cadre de l'évolution malheureusement logique et inévitable de la maladie cancéreuse ; que ce taux de 100% ayant vocation par définition à indemniser les préjudices subis et à venir et a été accepté tel quel ;

Qu'en statuant ainsi, alors qu'une précédente indemnisation sur la base d'un taux d'incapacité de 100% ne fait pas obstacle à la réparation d'une aggravation des préjudices et qu'il lui appartenait de rechercher si la victime n'avait pas subi une aggravation de ses préjudices, distincte de leur évolution prévisible, entre la date de l'acceptation de l'offre du FIVA et le décès, la cour d'appel a violé le texte et le principe susvisés ;

Et sur le second moyen pris en sa seconde branche :

Vu l'article 53, I, de la loi n° 2000-1257 du 23 décembre 2000 et le principe de la réparation intégrale sans perte ni profit pour la victime ;

Attendu que pour fixer le montant du préjudice d'affection et d'accompagnement des consorts D... à la somme proposée par le FIVA, l'arrêt énonce que la somme allouée n'est pas négligeable ; qu'elle s'inscrit certes dans un barème mais que ce mécanisme permet d'assurer que la solidarité nationale soit mobilisée de façon raisonnable et harmonisée pour l'ensemble des victimes ;

Qu'en se déterminant ainsi, par voie de référence à un barème, sans rechercher si, en l'espèce, la somme qu'elle allouait aux consorts D... assurait la réparation intégrale de leur préjudice d'affection et d'accompagnement, la cour d'appel n'a pas donné de base légale à sa décision ;

PAR CES MOTIFS et sans qu'il y ait lieu de statuer sur les autres griefs du pourvoi :

CASSE ET ANNULE, sauf en ce qu'il déboute le FIVA de sa demande tendant au rejet des débats des pièces adverses numérotées de 29 à 35 et alloue à Mme L... D... la somme de 5 186 euros au titre des frais funéraires et d'accompagnement psychologique avec intérêts au taux légal, l'arrêt rendu le 5 juin 2018, entre les parties, par la cour d'appel de Poitiers ; remet, en conséquence, sur ces points, la cause et les parties dans l'état où elles se trouvaient avant ledit arrêt et, pour être fait droit, les renvoie devant la cour d'appel de Limoges ;

Condamne le Fonds d'indemnisation des victimes de l'amiante aux dépens ;

Vu l'article 700 du code de procédure civile, rejette sa demande ; le condamne à payer à Mme L... C... veuve D..., MM. M... et O... D..., Mme Q... D... épouse U..., agissant à titre personnel et en sa qualité de représentante légale de sa fille mineure V... U..., ainsi que M. K... U..., agissant à titre personnel et en qualité de représentant légal de sa fille mineure V... U..., la somme globale de 3 000 euros ;

 
Par albert.caston le 29/10/19

 

 
Actes du Séminaire e-juris Septembre 2018 - Février 2019, SJ G 2019, supplément au n° 44-45.
 
Par albert.caston le 27/09/19
 
Chronique, M. Vericel, D. 2019, p. 1772.
 
Par albert.caston le 07/04/18

Réflexions sur la justice prédictive

 
Etude Guéranger, GP 2018, n° 13, p.15.
 
Par albert.caston le 26/03/18

D'où jugez-vous ? Un paradoxe entre justice prédictive et réforme de la motivation des décisions

 
Libres propos, Augagneur, SJ G 2018, p. 582.
 

Par albert.caston le 23/03/18

L'open data des décisions de justice... Et maintenant ?

 
Alerte Croize, Procédures 2018-3, p. 3.
 

Par albert.caston le 23/03/18

Les chantiers de la justice : de Word Perfect au monde parfait ?

 
Repère Cadiet, Procédures 2018-3, p.1.