Quand le droit rencontre l'intelligence artificielle : analyse des changements juridiques en cas d'adoption de la proposition de directive européenne 2022/0303 (COD) sur l'adaptation des règles de responsabilité extracontractuelle à l'IA

L’intelligence artificielle, au cœur des débats sociaux, économiques et juridiques récents, connait un développement rapide dans divers secteurs[1]. Ses avantages sont évidents : optimisation des services, augmentation de la production et de sa qualité, précision accrue des procédés, amélioration de la qualité de l’information par la vérification des données, prévention de la désinformation et promotion de l’égalité dans l’accès aux opportunités. 

Cependant, cette technologie prometteuse ne vient pas sans risques : les atteintes à la vie privée (notamment la protection des données à caractère personnel), les discriminations (par la reproduction de biais, exacerbées par la désanonymisation ou math-washing), la création de deepfakes et manipulation de l’opinion publique, les distorsions de la libre concurrence dues à l’accumulation ou à la mauvaise utilisation de données, ainsi que les risques pour la sécurité et l’intégrité physique, lorsque l’intelligence artificielle est intégrée dans une machine à contact avec l’humain et exposée à des défaillances ou des piratages.

C’est ainsi qu’un cadre juridique clair régissant la responsabilité en cas de dommage causé par un Système d’intelligence artificielle devient un enjeu capital. Pourtant, il n’existe aucune norme de responsabilité civile extracontractuelle ad hoc et les systèmes nationaux, en leur état actuel, rencontrent des difficultés majeures dans leur adaptation à cette technologie. Les exemples de l’Italie et de la France témoignent d’impasses similaires dans l’application des règles générales de responsabilité civile face à la protection des victimes de dommages causés par l’utilisation des systèmes d’intelligence artificielle et face à la promotion du développement fiable de la technologie.

L'Union européenne établit actuellement le premier cadre juridique pour l'intelligence artificielle avec deux propositions : d’une part, un Règlement, dit “AI act” (COM (2021)0206), portant sur l’utilisation de la nouvelle technologie et approuvé par le Parlement Européen le 14 juin 2023, et, d’autre part, une Directive sur l'adaptation des règles de responsabilité civile extracontractuelle (COM (2022)496 final 2022/0303 COD), toujours en discussion.

Cette proposition de directive européenne, relative à la responsabilité civile extracontractuelle dans le domaine de l'intelligence artificielle, invite à s’interroger sur sa nécessité dans le panorama juridique international.

Afin d’évaluer la nécessité de l’intervention européenne, il est crucial d’analyser les règles préexistantes dans les États membres et leur capacité à répondre aux défis posés par l’intelligence artificielle (I). Les propositions européennes semblent résoudre certains problèmes rencontrés par les législations nationales, mais des questions d’harmonisation demeurent en suspens (II).

 

I. Les insuffisances des droits italien et français actuels pour protéger efficacement les victimes et garantir un développement fiable des systèmes d’intelligence artificielle

 

Les règles de responsabilité civile extracontractuelle sont essentielles à deux niveaux : d’une part, elles protègent les droits des victimes en assurant la réparation et la prévention des dommages, car encouragent l’adoption de mesures adéquates par les responsables ; d’autre part, elles contribuent au développement technologique en offrant une prévisibilité quant aux risques juridiques auxquels les acteurs économiques et scientifiques s’exposent.

Dans cette perspective, l’application des règles existantes françaises ou italiennes pourrait ne pas être satisfaisante[2]. En effet, les caractéristiques inhérentes aux systèmes d’intelligence artificielle compliquent l’identification d’un auteur humain du dommage, entravant ainsi l’application de la responsabilité pour faute et celle pour le fait des choses (A). Cela limite les instruments disponibles, qui sont, par ailleurs, critiqués par l’Union Européenne pour leur inadéquation aux autres objectifs (B).

 

A. Les difficultés des régimes nationaux actuels face au fonctionnement de l’intelligence artificielle

 

Face à un dommage non ex contractu, le juriste se tourne vers les règles régissant la faute personnelle et celles de la responsabilité indirecte, pour un fait d’autrui, ou objective, pour le fait des choses que l’humain a sous garde. Ces constructions sont présentes à la fois dans le régime juridique italien, articles 2043, 2047, 2048, 2049, 2050, 2051 et 2052 du Codice Civile[3]  et dans celui français, articles 1240, 1242 et 1243 du Code Civil[4].  

Dans les deux États, ces régimes de responsabilité présentent des limites face aux systèmes d’intelligence artificielle.

D’abord, elles exigent de retracer la faute de l’humain (dans la responsabilité pour faute) ou de prouver le lien entre le sujet appelé à répondre du dommage et autrui ou la chose à l’origine du dommage (dans la responsabilité sans faute).

S’agissant de la responsabilité pour faute personnelle, le fait d’exiger de la victime la preuve de la faute de l’humain derrière le dommage causé par l’utilisation d’un système d’intelligence artificielle équivaut à une preuve diabolique.

En effet, ces systèmes intègrent désormais des capacités d’apprentissage autonomes - du machine-learning au deep-learning-, élaborent leurs propres constatations à partir des données auxquelles ils ont accès (parfois même le big data ou l’open data) et, dans certains cas, sont capables de s’automodifier grâce à l’élaboration des données (self-adapting)[5]. Ces caractéristiques compliquent l’attribution de la responsabilité des faits -actifs ou omissifs- de l’intelligence artificielle à l'homme, en raison de leur émancipation, conduisant à une décision de rejet de la demande de réparation de la victime pour inexistence de faute.

De même, la responsabilité sans faute suscite des difficultés : les concepts de garde et « custodia » sont classiquement définis comme le pouvoir de contrôle et d’intervention sur la res pour empêcher de nuire à autrui[6]. Cependant, compte tenu des caractéristiques de l’intelligence artificielle, personne ne pourrait avoir à l’égard du système d’intelligence artificielle la maitrise requise pour justifier le lien entre le fait du système et l’humain, ni l’utilisateur ni le fournisseur ni le programmateur.

En dernier lieu, il sera presque impossible pour la victime d’apporter la preuve du lien de causalité, en raison de l’effet dit de « boite noire ». La complexité technique de l’intelligence peut rendre impossible de retracer les étapes de son raisonnement et vérifier quelle donnée ou quel code sont à l’origine du dommage[7].

 

B. Les solutions envisageables, entre règles nationales et apport d’une intervention européenne

 

Face aux caractéristiques propres de l’intelligence artificielle, le seul instrument de jure condito applicable selon le système italien est l’article 2050 du Codice Civile. Il s’agit de considérer l’intelligence artificielle comme une « activité dangereuse » et d’engager, en conséquence, la responsabilité du programmateur ou fournisseur du seul fait qu’il se livre à un tel risque et que dans ce cadre un dommage se produit. L’application de la notion d’« activité dangereuse » à l’intelligence artificielle parait cohérente, car elle est capable de causer des préjudices par une conduite potentiellement imprévisible, puisque liée au phénomène de l'auto-apprentissage par interaction avec son environnement[8].

Le législateur français, à l’inverse, n’a pas adopté une telle vision de la responsabilité pour risque et a préféré détailler le concept dans la responsabilité du fait des choses. Le système distingue entre choses inanimées à l’article 1242 du Code civil et choses animées - les animaux - à l’article 1243. C’est ce dernier article qui pourrait, dans certaines situations, être le seul à s’adapter aux caractéristiques de l’intelligence artificielle. En effet, la responsabilité du fait des animaux admet que le comportement de l’animal ne soit pas strictement conditionné par l’humain et possède un « dynamisme propre », de la même manière que l’intelligence artificielle. Cependant, il n’est pas envisageable d’opérer sic et simpliciter une telle analogie sans intervention du législateur.

Concernant la responsabilité sans faute, l'Union européenne émet des critiques, car son application rendrait le développement de cette technologie extrêmement onéreux. En effet, la solution par la responsabilité objective soulève un aspect épineux : une responsabilité aussi stricte admet comme seule preuve libératoire pour l’auteur du dommage la force majeure, définie par son irrésistibilité et extériorité, ou le cas fortuit, caractérisé par son imprévisibilité, son exceptionnalité, sa soudaineté[9]. Alors, les acteurs économiques et technologiques seraient exonérés exclusivement dans des situations dues au hasard et devraient répondre des dommages causés par l’intelligence artificielle malgré l’incapacité d’anticiper les conséquences juridiques de son emploi[10].

Malgré la critique, l’UE reconnait la nécessité d’assurer une protection efficace aux victimes de dommages survenus lors de l’utilisation d’un Système d’intelligence artificielle et admet qu’une telle protection ne peut s’appuyer sur la capacité de la victime d’apporter la preuve demandée traditionnellement[11].

C’est ainsi que l’UE déclare, d’une part, le besoin d’une pondération entre les intérêts des victimes et des acteurs technologiques et, d’autre part, qu’un tel équilibre doit être trouvé à un niveau supranational. En effet, les juridictions nationales peuvent - dans certains cas - adapter les règles nationales aux spécificités de l’intelligence artificielle mais ceci conduirait à une incertitude et fragmentation juridique évidente parmi les États membres, qui entraverait toute activité économique et, surtout, celle des entreprises dont l’activité est transfrontière[12].

 

II. L’effort européen pour surmonter les impasses : une intervention supranationale innovante mais inachevée

 

Afin d’atteindre le double objectif d’assurer une protection efficace des victimes et favoriser un développement fiable de l’intelligence artificielle, l’UE introduit des instruments juridiques pondérés : une responsabilité pour faute et une simplification probatoire (A). Malgré les solutions trouvées, la règlementation européenne laisse des questions ouvertes, notamment en termes d’harmonisation (B).

 

A. Les premières pierres de la législation européenne : la faute accompagnée d’une simplification probatoire

 

Pour surmonter l’impasse de la responsabilité objective, l’UE propose comme fondement de la responsabilité la faute, de type négligence[13], coordonnée à un système de présomptions pour faciliter la preuve. La négligence est encourue chaque fois qu’un être humain ait manqué à une obligation prévue par le droit national ou le droit européen, par exemple l’obligation de surveiller le système, de le mettre à jour ou de prendre des mesures préventives (également prévues dans le Règlement COM (2021)0206[14]).

Afin d’éviter toute responsabilité excessivement lourde, la directive précise que cette faute doit être liée au dommage survenu. C’est-à-dire que le comportement fautif existe seulement si une obligation spécifiquement destinée à prévenir le dommage en question est méconnue. De plus, il doit être « raisonnablement probable » que le comportement négligent ait influencé la décision de l’intelligence artificielle.

Les régimes nationaux connaissent déjà cette nuance de faute[15] mais ils se heurtent à la difficulté d’apporter la preuve non seulement du comportement défaillant de l’humain, mais aussi du lien de causalité entre celui-ci et le dommage. La preuve du lien de causalité représente précisément le punctum dolens de l'action en réparation, car très difficile à démontrer par la victime à cause de l’effet « boite noire ».

C’est ainsi que la directive recourt à l’instrument de la présomption - à son article 4 - au niveau du lien de causalité entre la négligence de l’humain et le fait de l’intelligence artificielle. Selon ce schéma normatif, la victime doit démontrer le comportement fautif (par rapport à l’obligation due), le dommage survenu et, enfin, le lien entre le fait de l’intelligence artificielle, sa décision ou son output, et la survenance du dommage[16]. Il s’agit d’une approche différente de celle de la responsabilité pour activité dangereuse (2050 Codice Civile italien), car il ne suffit pas qu'un dommage survienne dans le cadre de l'utilisation de l'intelligence artificielle pour que l'humain en soit responsable, mais il faut démontrer un lien de causalité directe entre l'action ou l'inaction de l'intelligence artificielle et le dommage. La présomption couvre spécifiquement la partie de la chaîne de causalité qui échapperait aux victimes : le lien entre l’action de l'humain responsable (la programmation ou l’information donnée, par exemple) et la décision d'une technologie aussi innovante.

Les présomptions, en plus, sont réfragables (art.4 par.7) et leur application reste subsidiaire et adaptée selon les nécessités : pour les systèmes « à haut risque », les présomptions seront écartées si le défendeur démontre que la victime dispose des éléments pour prouver directement le lien de causalité (art. 4 par.4) ; alors que, dans les systèmes à risque non élevé, le juge est d’abord appelé à évaluer activement la difficulté de fournir la preuve directe avant d’appliquer ces présomptions (art.4 par.5).

En dernier lieu, dans le but de faciliter la charge de la preuve, la directive prévoit -à l’article 3- le recours à la divulgation, à savoir l’obligation de révéler les éléments concernant le fonctionnement des systèmes en cause. Cette obligation parait un instrument d’équilibre entre la protection de la victime et l’intérêt du responsable, étant limitée aux seuls éléments de preuve nécessaires à l’action, afin de protéger les secrets d’affaires ou les informations confidentielles inutiles à l’objet de la décision[17].

 

B. Les outils européens : équilibre précaire entre innovation et insuffisance

 

Les nouvelles règles européennes semblent résoudre l’inégalité entre victimes des systèmes d’intelligence artificielle et victimes de dommages produits en dehors de l’utilisation de tels systèmes. Cependant, il semble opportun de noter que ces solutions existent déjà dans les deux États, en Italie et France : la divulgation est prévue à la fois à l’article 145 du Code de Procédure Civile français et à l’article 210 du Codice di Procedura Civile italien[18], tandis que le régime de présomptions est prévu à l’article 1382 du Code Civil français et à l’article 2729 du Codice Civile et 116 du Codice di Procedura Civile. Cependant, il est préférable d’établir la présomption par une norme fixe (ainsi la Directive européenne) plutôt qu’opter pour la présomption judiciaire, qui conduirait à une imprévisibilité juridique.

Si les règles européennes cherchent à déterminer un équilibre entre les intérêts en jeu, la directive néglige l'introduction de critères harmonisés d’établissement de la négligence et du dommage indemnisable, qui restent soumis au droit national. Ceci résulte de l’effort d’équilibre entre la règlementation européenne et celle nationale, mais qui pourrait laisser place à une forte fragmentation entre victimes des systèmes d’intelligence artificielle dans différents Pays.

S’agissant de l’établissement de la négligence, la France et l’Italie présentent des systèmes convergents : le standard est celui du standard raisonnable[19]. Cependant, au regard de la prescription, les deux États divergent dans le dies a quo de l’action civile, qui est de 5 ans à compter du jour de survenance de l’évènement en Italie et à compter de la connaissance du dommage par la victime en France.

Par ailleurs, les différences majeures entre la France et l’Italie consistent dans la définition du dommage réparable : alors que l’article 2043 du Codice Civile parle de « danno ingiusto » (dommage injuste) et, donc, permet la distinction entre l’évènement préjudiciable (danno-evento) et la lésion concrète d’un bien protégé (danno-conseguenza), dans la mesure où les deux sont contra jus, en France cette dualité n'existe pas, puisque l'article 1240 du Code civil parle exclusivement de « dommage ». L'absence de la catégorie spécifique des « préjudices » conduit la France à reconnaître un vaste panorama de situations comme indemnisables. L'exemple le plus évident de la divergence entre les conceptions normatives du dommage réparable dans les deux États fut illustré par l’arrêt français Perruche de la Cour de Cassation Ass. Pien. 17 novembre 2000 et l'arrêt italien de la Corte di Cassazione, Sezioni Unite, 22 décembre 2015, n. 25767[20].

Il convient également de noter que la directive n'aborde pas la question des causes concomitantes et semble avoir abandonné plusieurs propositions faites par le Parlement Européen en date du 20 octobre 2020, qui préconisaient à la fois un responsable de référence, l'opérateur[21], des plateaux d'indemnisation pour garantir aux opérateurs la prévisibilité des dettes de réparation et une assurance obligatoire pour les systèmes à haut risque[22].

La directive représente certainement un premier cadre juridique considérable, avec le mérite d’encourager la communauté internationale à intervenir sur la question. Pourtant, elle est lointaine de l’objectif souvent déclaré d'harmoniser la matière, qui justifiait spécifiquement l'intervention européenne[23]. Laisser à la législation nationale les définitions du dommage indemnisable et de la négligence ne peut que conduire à des résultats divergents dans les différentes décisions nationales.

 


[1] Notamment dans la sécurité, santé, éducation, transports, énergie, gestion des déchets, agriculture, économie verte et circulaire, tourisme, système bancaire…

[2] Il faut noter que ces règles, italiennes et françaises, seront applicables dans les dommages nationaux mais également, sous certaines conditions, dans les hypothèses de dommages présentant des éléments internationaux, selon les dispositions du règlement européen (CE) n° 864/2007 du 11 juillet 2007

[3] La responsabilité pour faute à l’article 2043, la responsabilité du fait d’autrui, prévue dans les articles 2047 (les incapables), 2048 (les surveillants, parents/tuteurs, les précepteurs/enseignants et 2049 (les maîtres et les commettants) et la responsabilité du fait des choses aux articles 2051 (choses inanimées) et 2052 (animaux) du Code civil

[4] La responsabilité pour faute à l’article 1240, la responsabilité du fait d’autrui, prévue par l’art 1242 et la responsabilité du fait des choses aux articles 1242 al. 1 et 1243 du Code civil

[5] On parle de Réseau Neuronal, qui consiste dans la possibilité pour l'IA d'exploiter les techniques d'apprentissage (supervised, unsupervised, reinforcement learning) pour “apprendre” une tâche donnée, sans avoir besoin d'un véritable programme pour pouvoir l'exécuter : Dario Floreano, Claudio Mattiussi, Manuale Sulle Reti Neurali Bologna: Il mulino, 2002; Warren S. McCulloch and Walter Pitts, “A Logical Calculus of the Ideas Immanent in Nervous Activity”, The Bulletin of Mathematical Biophysics 5, no. 4 (1943) ; Stephen I. Gallant, Neural Network Learning and Expert Systems (Cambridge, MA : MIT Press, 1995 ; Riguzzi, Fabrizio, “Introduzione all'Intelligenza Artificiale”, Terre di Confine 2 (1/2006), 19 e ss.

[6]. Cassazione civile, Sez. III, sentenza n. 4196 del 13 maggio 1997 et arrêt Franck : Ch. réunies 2 déc. 1941, DC 1942. 25, note G. Ripert; S. 1941. 1. 217, note H. Mazeaud; JCP 1942. II. 1766, note J. Mihura

[7] Voir Résolution du Parlement européen du 20 octobre 2020 contenant des recommandations à la Commission sur un régime de responsabilité civile pour l'intelligence artificielle (2020/2014(INL)

[8] La Corte di Cassazione italienne, en effet, admet l’existence d’activités dangereuses typiques et d’activités dangereuses atypiques : CASS., Sez. III, 29.07.2015, n. 16052 : « sont considérées comme des activités dangereuses non seulement celles qualifiées comme telles par la loi (…), mais aussi celles qui, par leur nature ou par les caractéristiques des moyens utilisés, comportent, en raison de leur forte potentialité offensive, une possibilité importante de survenue d'un dommage ». Ainsi, la Corte di Cassazione (CASS., Sez. III, 19.07.2018, n. 19180) appelle à une évaluation « au cas par cas », puisque certaines activités qui ne sont pas en soi dangereuses pourraient rentrer dans l’application du 2050 Codice Civile par « la manière » ou « les moyens » avec lesquels elles sont exercés.

[9] Antonio Scalera, “Caso fortuito: la Cassazione rimette le cose a posto”, Corriere Giuridico, (2,2019)

[10] Exposé des motifs 2022/0303 (COD)

[11] Exposé des motifs 2022/0303 (COD)

[12] Exposé des motifs 2022/0303 (COD)

[13] La directive définit la faute comme un “comportement humain actif ou une omission non conforme à une obligation de diligence, établie par le droit de l'Union ou le droit national, directement destiné à protéger contre les dommages survenus.” (considérant 22 de la directive).

[14] La faute peut être constatée également par le non-respect des règles de l'Union régissant spécifiquement les systèmes d'IA à haut risque [loi sur l'IA Titre III]

[15]  A la fois dans le Code Civil français, à l’article 1241, et italien, à l’article 1176

[16] Exposé des motifs 2022/0303 (COD)

[17] La directive fait également référence à la protection des secrets commerciaux au sens de la directive européenne 2016/943 (directive dite « trade secret »)

[18] Article 145 du code de procédure civile français : « s'il existe un motif légitime de conserver ou d'établir avant tout procès la preuve de faits dont pourrait dépendre la solution d'un litige, les mesures d'instruction légalement admissibles peuvent être ordonnées à la demande de tout intéressé, sur requête ou en référé »

[19] Il est intéressant de noter la dernière révision linguistique en France, qui a supprimé le standard du « bon père de famille » qui encore demeure dans le Codice Civile italien à l’article 1176 « buon padre di famiglia », pour lui substituer celui de la personne raisonnable.

[20] Dans ce précédent français, certains médecins ont été condamnés à indemniser les dommages non patrimoniaux subis par un nouveau-né car les parents n'avaient pas été informés de ses malformations congénitales durant la grossesse, ce qui, selon la Cour de cassation, semble conforme aux principes généraux du droit français de la responsabilité civile, qui n'exige pas que le préjudice soit injuste. À l'inverse, la Corte di cassazione italienne a rejeté les demandes en réparation pour dommages de naissance non désirée en précisant qu'aucun droit à naître en bonne santé n'est reconnu par le droit national et que, par conséquent, le dommage d’une naissance indésirable ne peut être qualifié d'injuste au sens de l'article 2043 du Code civil.

[21] A l’article 3 de la Résolution 20 octobre 2020, il est identifié à partir d'un parallèle avec le propriétaire d'une voiture (considérant 10) ; en outre, était prévue la distinction entre l'opérateur frontal et l'opérateur d'amont et l’hypothèse d’intervention de plusieurs opérateurs, avec une responsabilité solidaire à son article 12

[22] Il est important de noter que la Commission réserve, à l'article 5 de la directive, la possibilité de réévaluer certaines des solutions proposées par le Parlement, mais seulement après une période d'essai démontrant l'inefficacité des règles posées.

[23] Voir l’exposé des motifs de la directive sur la subsidiarité: « la présente proposition vise à résoudre des problèmes, en particulier l’insécurité juridique et la fragmentation juridique, qui entravent le développement du marché intérieur et constituent donc des obstacles importants au commerce transfrontière de produits et services dotés d’IA, conformément à l’article 114 TFUE » 

 

BIBLIOGRAPHIE :

  • Directive du Parlement Européen et du Conseil relative à l'adaptation des règles en matière de responsabilité civile extracontractuelle au domaine de l'intelligence artificielle 2022/0303 (COD)
  • Comparative Law Study on Civil Liability for Artificial Intelligence, European CommissionDirectorate-General for Justice and Consumers Directorate A, Civil and Commercial justice Unit A2 — Contract Law, Brussels, November 2020
  • Proposition de Règlement sur l’intelligence artificielle de la Commission européenne du 21 avril 2021, COM (2021) 206 final
  • Résolution du Parlement européen du 20 octobre 2020 contenant des recommandations à la Commission sur un régime de responsabilité civile pour l'IA
  • François Chénedé, Philippe Simler, Yves Lequette, François Terré – Droit civil, Les obligations, Précis Dalloz ; Dalloz N° 13 - Septembre 2022
  • A. Torrente, P. Schlesinger, Milano – Manuale di diritto privato; Giuffrè, 2023
  • Jacquemin Hervé, De Streel Alexandre – L'intelligence artificielle et le droit, Chapitre 2. La responsabilité extracontractuelle du fait des robots ou des applications d'intelligence artificielle ; Larcier, Strada Lex Europe, "Collection du CRIDS", 2017
  • Céline Mangematin – L'entreprise et l'intelligence artificielle - Les réponses du droit, Droit de la responsabilité́ civile et l'intelligence artificielle, p. 447-468; Presses de l’Université́ Toulouse Capitole 2022