Une intelligence artificielle peut-elle être responsable ?

Le recours à l’intelligence artificielle joue un rôle de plus en plus important dans notre société actuelle. Il suffit de lire les journaux pour s’en faire une idée : « Une voiture Uber autopilotée a récemment heurté un piéton en Arizona. La femme est ensuite décédée à l'hôpital[1] », « un robot chirurgical dans un hôpital de Philadelphie a mal fonctionné pendant une opération de la prostate, blessant gravement le patient [2] »,  « Février 2015, une femme sud-coréenne dormait à même le sol lorsque son aspirateur robot a "mangé" ses cheveux, l'obligeant à appeler les secours[3] ».

Les exemples cités ci-dessous démontrent que des accidents peuvent survenir malgré l’optimisation des règles de sécurité nationale et supranationale pour l’intelligence artificielle. C’est pourquoi la question de la responsabilité des robots est au cœur de beaucoup de débats, tant bien au niveau national qu’au niveau européen.

D’un point de vue général, plusieurs personnes peuvent être responsables pour les actes du produit d’IA, allant du développeur du logiciel, au propriétaire du produit en passant par le producteur du matériel ou encore son utilisateur[4]. Dans ce contexte, la question de savoir si les victimes peuvent obtenir réparation pour les dommages causés par les systèmes d’IA en vertu du droit belge de la responsabilité civile sera examinée pour ensuite s’intéresser aux propositions européennes.

Responsabilité pour faute

L’article 1382 du Code civil pose les conditions de la responsabilité civile : il faut une faute, un dommage et un lien causal. La faute doit trouver son origine dans le fait de l’homme[5] et doit résulter de la violation d’une norme de conduite préexistante ou bien émaner de l’obligation générale de prudence. De plus, la faute doit avoir été commise consciemment : la personne doit avoir la capacité d’apprécier la conséquence de ses actes. Or, les produits d’intelligence artificielle, bien qu’ayant une certaine autonomie, ne peuvent être confondus avec la conscience de l’être humain, les décisions prises par l’IA dépendent de la programmation du robot, issue de formules algorithmiques prédéfinies[6].

Si la responsabilité personnelle du robot semble impossible à engager, la personne physique qui a fait un usage fautif de ce dernier peut être liée au dommage causé. Si cette personne utilise le robot avec l’intention de commettre une faute, sa responsabilité sur base de l’article 1382 sera incontestable. Cependant, dans la majorité des cas, l’utilisateur du robot l’exploitera à des fins licites. Dans l’hypothèse où un dommage se produit, l’origine de ce dommage pourra résulter d’un défaut de prévoyance. La responsabilité de l’utilisateur ne pourra être engagée qu’à condition qu’il y ait un manquement général au devoir de prudence. Cependant, pour que le défaut de prévoyance soit appliqué, il faut démontrer que le dommage était prévisible, or, par définition, le comportement de produits d’intelligence artificielle est imprévisible. Dès lors, l’article 1382 sur la responsabilité ne peut trouver à s’appliquer dans de telles situations.

Responsabilité du fait des choses :

L’article 1384 §1, dont l’origine date du début du XXe siècle avec la révolution industrielle et le développement du machinisme, trouve à s’appliquer à toute chose corporelle. Le mécanisme issu de l’article 1384 est un système de responsabilité sans faute dans le chef du gardien de la chose. La responsabilité du gardien sera engagée même si aucune faute ne peut être prouvée dans son chef. La Cour de cassation a défini à plusieurs reprises le gardien comme « la personne qui use de cette chose pour son propre compte ou qui en jouit ou la conserve avec pouvoir de surveillance, de direction et de contrôle »[7]. De plus, le vice peut être défini comme la caractéristique anormale de la chose qui la rend susceptible de causer un préjudice. Aussi, il doit être démontré que le dysfonctionnement du produit d’IA est causé par une caractéristique anormale de celui-ci, or, ceci peut paraitre difficile à prouver. S’il est prouvé que le dommage résulte d’un vice du produit d’intelligence artificielle, la responsabilité de son gardien sera engagée.

Il est intéressant de mentionner qu’au début du 20e siècle, ce régime ne s’appliquait qu’aux choses inanimées. C’est au fur et à mesure des années que la jurisprudence a abandonné cette idée. C’est ainsi qu’en 2005, la Cour d’appel de Liège[8] a admis la responsabilité du gardien d’un dispositif de barrière électrique automatique qui a endommagé une voiture car l’œil électronique de la barrière n’avait pas détecté le capot du véhicule. Pareillement, une porte automatique qui s’était refermée sur un client avait été jugé comme constituant le fait d’une chose vicieuse au sens de l’article 1384[9]. Le régime de la responsabilité du fait des choses vicieuses peut, dès lors, trouver à s’appliquer aux produits d’intelligence artificielle. La responsabilité de son gardien pourra être engagée si un vice peut être démontré.

Loi relative à la responsabilité du fait des produits défectueux :

Cette loi du 25 février 1991 transpose la directive 85/374/CEE de 1985 en matière de responsabilité du fait des produits défectueux. Le producteur, en cas de dommage causé par un défaut de son produit, se verra reconnu comme responsable même si aucune faute dans son chef ne peut être avancée. Mais les produits de l’IA font-ils partie du champ matériel de cette loi ? Le ministre de la justice a répondu dans l’affirmative, en avançant que cette loi s’applique aux logiciels.   

Il est aussi important de mentionner que la responsabilité de tous les participants à la production du produit défectueux pouvait être engagée. Il y a aussi une responsabilité subsidiaire pour les fournisseurs de produits lorsque les producteurs ne peuvent être identifiés. De plus, un produit sera réputé défectueux lorsqu’il n’offre pas la sécurité à laquelle on peut légitimement s’attendre.

Future directive en droit européen ?

Actuellement, il n’existe pas de régime spécifique de responsabilité lié à l’intelligence artificielle dans l’Union européenne. Les États membres appliquent leur droit national de responsabilité civile. Dans ce cadre, la Commission a adopté, le 28 septembre 2022, deux propositions de directives visant à adapter les règles de responsabilité à la réalité actuelle de l’intelligence artificielle. La Commission a été claire à ce sujet, le citoyen européen doit avoir le même niveau de protection et de réparation que dans les cas n’impliquant pas l’IA. Cette proposition, dans un premier temps, permettra d’harmoniser les règles nationales relatives à la responsabilité applicable à l’IA offrant ainsi aux victimes de dommages la possibilité d’obtenir plus facilement réparation.

Cette directive modernisera les règles actuelles qui se basent sur la responsabilité objective des fabricants pour la réparation de dommages causés par des produits dangereux. De plus, elle établira des règles uniformes concernant l’accès à l’information ainsi que l’allègement de la charge de la preuve lorsqu’il s’agira de prouver que les dommages ont été causés par des systèmes d’IA. En effet, la présomption de causalité sera appliquée lorsqu’il faudra prouver que le préjudice a été causé par une faute. Finalement, les victimes pourront aussi s’adresser aux entreprises et fournisseurs afin de collecter des éléments de preuve, lorsque ces derniers ont recours à de l’intelligence artificielle considérée à haut risque[10].

Ecrit par Valentine Maisse

[1] S. LEVIN and J. CARRIE., ‘Self-driving Uber kills Arizona woman in first fatal crash involving pedestrian’, The Guardian, 19 March 2018.

[2] Mracek v. Bryn Mawr Hospital, 363 Fed. Appx. 925 (3d Cir. 2010) as reported in T.N. White and S.D. Baum, ‘Liability for Present and Future Robotics Technology’, in P. Lin et al. (ed.) Robot Ethics 2.0: From Autonomous Cars to Artificial Intelligence (New York: Oxford University Press, 2017), pp. 66–79.

[3] J. McCURRY., ‘South Korean woman’s hair ‘eaten’ by robot vacuum cleaner as she slept’, The Guardian, 9 February 2015.

[4] J. DE BRUYNE., E. VAN GOOL., and T. GILS., « Chapter 14. - Tort Law and Damage Caused by AI Systems » in Artificial Intelligence and the Law, 1e edition, Bruxelles, Intersentia, 2021, p. 359.

[5] Cass., 10 avril 1970, Pas., 1970, p. 682.

[6] H. JACQUEMIN et J.-B. HUBIN., « Chapitre 2. - La responsabilité extracontractuelle du fait des robots ou des applications d’intelligence artificielle » L'intelligence artificielle et le droit, 1e édition, Bruxelles, Larcier, 2017, p. 112-141.

[7] Cass., 25 mars 1943, Pas., 1943, p. 110 ; Cass., 26 juin 1980, Pas., 1980, I, p. 1338 ; Cass., 18 décembre 2008, Pas., 2008, p. 3031 ; Cass., 13 septembre 2012, Pas., 2012, p. 1647 ; Cass., 18 octobre 2013, Pas., 2013, p. 1993.

[8] Liège, 10 novembre 2005, J.L.M.B., 2006, p. 1324.

[9] Cass., 25 avril 2005, Pas., 2005, p. 924.

[10] Commission européenne, Proposition de Directive du Parlement Européen et du Conseil, relative à l’adaptation des règles en matière de responsabilité civile extracontractuelle au domaine de l’intelligence artificielle, COM (2022) 496, Bruxelles, 28 septembre 2022. 

Sophie Everarts de Velp

Sophie Everarts de Velp est juriste (LL.M.), spécialisée en propriété intellectuelle, droit des nouvelles technologies, vie privée et e-commerce.

https://www.sedv-legal.com
Précédent
Précédent

AdTech: Pépite de la publicité ou générateur de violations du RGPD?

Suivant
Suivant

Les NFTs et les droits d’auteur. Compatibles?