Préjudice corporel et intelligence artificielle : avenir de l’évaluation médicale ?

Préjudice corporel et intelligence artificielle : avenir de l’évaluation médicale ?

 

L’évaluation du préjudice corporel est une opération aussi délicate que décisive. Elle repose traditionnellement sur l’expertise médicale humaine, guidée par la nomenclature Dintilhac et des barèmes indicatifs. Pourtant, à l’heure où l’intelligence artificielle (IA) s’immisce dans de nombreux domaines de la santé et du droit, une question s’impose : l’IA est-elle en passe de transformer, voire d’améliorer, l’évaluation du dommage corporel ? Entre espoir d’objectivité, défis éthiques et risques d’automatisation excessive, l’avenir semble partagé entre innovation et prudence.

Une évaluation médicale encore trop hétérogène

Actuellement, l’évaluation d’un préjudice corporel repose sur des critères médicaux (atteintes fonctionnelles, douleurs, séquelles, etc.) mais aussi sur une part d’appréciation subjective du médecin expert. Deux experts peuvent parfois aboutir à des conclusions différentes pour un même patient. Cette hétérogénéité engendre des risques d’inégalités dans l’indemnisation, notamment en fonction du tribunal saisi, de la spécialité de l’expert ou de la méthodologie appliquée.

C’est dans ce contexte que l’IA, avec ses capacités d’analyse massive de données et de détection de régularités, apparaît comme un outil prometteur pour uniformiser, rationaliser, voire fiabiliser cette évaluation.

L’apport potentiel de l’intelligence artificielle

L’IA peut intervenir à plusieurs niveaux de l’évaluation du dommage corporel :

  • Analyse de dossiers médicaux : grâce au traitement automatique du langage, des algorithmes peuvent extraire les informations cliniques pertinentes à partir de dossiers complexes.
  • Assistance au diagnostic et à l’évaluation fonctionnelle : certains outils d’IA sont capables de prédire l’évolution des séquelles, de modéliser la perte de capacité, voire de suggérer une quantification du déficit fonctionnel permanent (DFP).
  • Comparaison avec des cas similaires : en s’appuyant sur des bases de données de jurisprudence ou de décisions d’expertise, l’IA peut proposer des évaluations comparatives, contribuant à une meilleure égalité de traitement.

De tels outils pourraient assister les experts, sans les remplacer, en leur fournissant une aide à la décision fondée sur des données objectives, historiques et statistiquement fondées.

Des limites techniques, éthiques et juridiques

Toutefois, l’introduction de l’IA dans un domaine aussi sensible soulève de nombreuses interrogations. La première est celle de l’opacité : les algorithmes, notamment ceux dits « boîte noire », ne permettent pas toujours de justifier la logique ayant conduit à une recommandation. Or, la réparation du dommage corporel est un droit fondamental qui exige transparence et contradiction.

Ensuite, le risque de déshumanisation est réel. Le préjudice corporel ne se réduit pas à des chiffres : il englobe la douleur, la souffrance morale, la perte d’autonomie ou encore le préjudice d’agrément. Autant d’éléments difficilement quantifiables, qui exigent une écoute et une sensibilité humaine que l’IA ne saurait remplacer.

La Cour de de justice de l’Union européenne a considéré au sujet du traitement des données des passagers que : « les autorités compétentes ne peuvent prendre, en vertu de l’article 7, paragraphe 6, première phrase, de la directive PNR, aucune décision produisant des effets juridiques préjudiciables à une personne ou l’affectant de manière significative sur la seule base du traitement automatisé de données PNR, ce qui implique, dans le cadre de l’évaluation préalable, qu’elles doivent prendre en compte et, le cas échéant, faire prévaloir le résultat du réexamen individuel opéré par des moyens non automatisés par l’UIP sur celui obtenu par les traitements automatisés. » CJUE, n° C-817/19, Arrêt de la Cour, Ligue des droits humains contre Conseil des ministres, 21 juin 2022

Enfin, se pose la question de la responsabilité : qui serait responsable en cas d’erreur d’évaluation liée à un outil algorithmique ? L’expert ? Le concepteur du logiciel ? Le juge ? Le flou juridique actuel impose une vigilance particulière.

Le rapport Villani (2018) sur l’intelligence artificielle en France souligne que l’IA doit rester « sous le contrôle de l’homme » dans toutes ses applications critiques, notamment dans les domaines juridiques et médicaux.

Vers une intelligence artificielle « augmentée » et encadrée

Plutôt que de remplacer l’expert, l’IA pourrait l’assister de manière éthique et encadrée. L’objectif serait de concevoir une « intelligence augmentée », c’est-à-dire un outil d’aide à la décision, contrôlé par le médecin, validé par les autorités sanitaires et soumis au contradictoire judiciaire.

Des expérimentations existent déjà, notamment dans les compagnies d’assurance et certains cabinets d’expertise médicale, mais elles restent marginales et souvent confidentielles. Il devient donc crucial de développer une réglementation claire, qui encadre l’usage de ces technologies tout en garantissant les droits des victimes.