Droit, entreprise et citoyen
Publié le 16 avril 2019 | Par Ivan Tchotourian
Les robots et le droit – 2e partie
Dans mon prédédent billet, j’amorçais une réflexion sur le défi que représente l’apparition des robots pour la pratique du droit. J’y indiquais notamment qu’à la base, définir ce qu’est un robot est relativement complexe. Mais en quoi les mauvaises décisions et les défaillances technologiques de ces machines intelligentes soulèvent-elles un vrai problème juridique1?
La responsabilité des robots aux yeux de la loi
À l’heure actuelle, un robot n’est pas responsable de ses ratés. En revanche, la montée de l’apprentissage automatique (technologie d’intelligence artificielle (IA) qui permet à la machine sur la base de données et d’expériences passées de résoudre des problèmes et de prendre des décisions stratégiques sans avoir été programmée explicitement à cet effet) risque de rendre ces ratés plus fréquents. En 2017, dans le cadre d’une résolution du Parlement européen, l’Union européenne rappelait que «[…] dans l’hypothèse où un robot [peut] prendre des décisions de manière autonome, les règles habituelles ne [suffisent] pas à établir la responsabilité juridique pour dommages causés par un robot, puisqu’elles ne [permettent] pas de déterminer quelle est la partie responsable pour le versement des dommages et intérêts ni d’exiger de cette partie qu’elle répare les dégâts causés2.»
Ainsi, un robot a-t-il des responsabilités? Les juristes ne se désintéressent pas de ce sujet, au contraire. L’application des différents régimes de responsabilité extracontractuelle (responsabilité du fait personnel, responsabilité du fait d’autrui, responsabilité du fait des choses, responsabilité du fait des esclaves…) et la création d’un nouveau régime de responsabilité3 font l’objet de vives discussions4 de la part des spécialistes du droit. La variété dans les échanges est telle qu’une partie d’entre eux va jusqu’à vouloir attribuer une personnalité morale aux robots (souvent en s’appuyant sur une comparaison avec des sociétés par actions).
Dans un article publié récemment, Me Hubert De Vauplane (expert juridique reconnu des «FinTech») s’interroge sur un possible élargissement de la notion de personne comme sujet de droit pour y inclure les robots. «Si l’on considère que la personnalité juridique n’est qu’une fiction, tout devient possible5», écrit-il. D’ailleurs, le courant en faveur de l’attribution d’une personnalité au robot prend de l’ampleur, soutenu par des activités de communication publique active. En 2017, le Parlement européen a lui-même envisagé «[…] la création, à terme, d’une personnalité juridique spécifique aux robots, pour qu’au moins les robots autonomes les plus sophistiqués puissent être considérés comme des personnes électroniques responsables, tenus de réparer tout dommage causé à un tiers6.» Toutefois, la tendance la plus récente au sein de l’Union européenne est aujourd’hui en faveur de la non-consécration de la reconnaissance d’une personnalité juridique au robot. La cause est désormais liée à l’Acte législatif sur la cybersécurité, qui allie cette dernière à l’intelligence artificielle. Or, en ce domaine, c’est la responsabilité de la personne humaine qui est au cœur du dispositif.
Mais attention! Aussi séduisant qu’il puisse sembler pour certains, le rapprochement entre personne physique et robot n’est pas sans susciter des réserves dans la communauté juridique7. En voici quelques-unes:
• Cette assimilation serait en réalité en faveur d’une quasi-personnalité juridique (un statut proche de celui de mandataire)8. Il suffirait de reconnaître aux robots un statut d’agents qui les rendrait responsables à la hauteur de leurs capacités.
• Un risque d’instrumentalisation de la responsabilité des robots serait présent puisqu’en responsabilisant les robots, leurs concepteurs pourraient bénéficier d’une impunité.
• Il y aurait une assimilation critiquable entre intelligence et capacité d’analyse statistique qui fait de l’intelligence le fondement de la responsabilité9.
• Considérer les robots comme des personnes physiques risquerait de créer une confusion entre les produits d’IA (caractérisés par une autonomie de nature technique qui dépend de la programmation du robot) et la conscience de l’être humain10.
Finalement, Neil M. Richards et William D. Smart appellent à la prudence en matière de reconnaissance d’une personnalité aux robots: il est dangereux, disent-ils, de projeter des caractéristiques humaines aux robots quand vient le temps d’inventer une loi les concernant. Les robots sont des outils et le demeureront encore pour nombre d’années à venir11. De même, l’avocat Jean-Baptiste Hubin souligne que le concept de faute (élément moteur de la responsabilité du fait personnel) est intimement lié à l’activité humaine12.
Un monde à bâtir
L’IA est un vaste territoire à explorer pour les gens de science. L’encadrement de ce territoire se trouve aussi au stade de l’exploration pour les juristes. En conséquence, ceux-ci devront repenser des bases de leur domaine de pratique acquises de longue date. Les relations qui se construisent entre les mondes de la robotique et du droit sont un exemple de la nécessité de faire évoluer les règles… mais aussi de la difficulté à tracer les chemins à suivre.
Chose certaine, il y a eu un monde avant l’arrivée de l’IA et il y a maintenant un monde après son arrivée. Et une chose est sûre: il n’y aura pas de retour en arrière! Décortiquer les enjeux sociétaux de l’IA au regard du droit constitue un défi des plus stimulants. Cette tâche fait appel à des questions qui touchent à l’être humain dans son existence et dans sa légitimité même.
1 Valérie Depadt, «La responsabilité: le point de vue de juriste», dans V. Depadt et D. Guével (dir.), Lex Robotica. Le droit à l’épreuve de la robotique, Paris, LGDJ, p. 115, à la p. 116. ↩
2 Résolution du Parlement européen du 16 février 2017 contenant des recommandations à la Commission concernant des règles de droit civil sur la robotique, 2015/2103(INL), au considérant AF. ↩
3 F. Patrick Hubbard, « »Sophisticated Robots ». Balancing Liability, Regulation, and Innovation», Florida Law Review, 2014, vol. 66, no 5, p. 1803, aux p. 1865 et s. ↩
4 Nicolas Vermeys, «La responsabilité civile du fait des agents autonomes», Les Cahiers de propriété intellectuelle, 2018, vol. 30, no 3, p. 851, aux p. 870 et s.; H. Jacquemin et J.-B. Hubin, «Chapitre 2. La responsabilité extracontractuelle du fait des robots ou des applications d’intelligence artificielle», dans H. Jacquemin et A. De Streel (dir.), L’intelligence artificielle et le droit, Bruxelles, Larcier, 2017, p. 112; Ugo Pagallo, «LegalAIze. Tackling the Normative Challenges of Artificial Intelligence and Robotics Through the Secondary Rules of Law», dans M. Corrales, M. Fenwick et N. Forgó (dir.), New Technology, Big Data and the Law, Singapore, Spinger Singapore, 2017, p. 281. ↩
5 Hubert De Vauplane, «La personnalité juridique des robots», Revue Banque, 2017, no 807; Erica Palmerini, «Titre 2. Towards a Robotics Law at the EU level?», dans H. Jacquemin et A. De Streel (dir.), L’intelligence artificielle et le droit, Bruxelles, Larcier, 2017, p. 47; et plus ancien: Benjamin Allgrove, «Legal Personality for Artificial Intellects: Pragmatic Solution or Science Fiction?», document de travail, SSRN, 2004. ↩
6 Dans sa stratégie Artificial Intelligence for Europe du 25 avril 2018, la Commission européenne n’envisage plus cette solution. ↩
7 Ugo Pagallo, LegalAIze. Tackling the Normative Challenges of Artificial Intelligence and Robotics Through the Secondary Rules of Law, New York, Springer, 2017; Nathalie Nevejans, Règles européennes de droit civil en robotique, étude commandée par la Commission des affaires juridiques du Parlement européen, 2016. ↩
8 Nicolas Vermeys, «La responsabilité civile du fait des agents autonomes», Les Cahiers de propriété intellectuelle, 2018, vol. 30, no 3, p. 851, à la p. 866; Mireille Hidebrandt, «From Galatea 2.2 to Watson – And Back?», dans M. Hidebrandt et J. Gaakeer (dir.), Human Law and Computer Law. Comparative Perspectives, New York, Springer, 2013, p. 23, à la p. 41. ↩
9 Nicolas Vermeys, «La responsabilité civile du fait des agents autonomes», Les Cahiers de propriété intellectuelle, 2018, vol. 30, no 3, p. 851, à la p. 869. ↩
10 H. Jacquemin et J.-B. Hubin, «Chapitre 2. La responsabilité extracontractuelle du fait des robots ou des applications d’intelligence artificielle», dans H. Jacquemin et A. De Streel (dir.), L’intelligence artificielle et le droit, Bruxelles, Larcier, 2017, p. 112, à la p. 116. ↩
11 «[Robots] are sophisticated tools that use complex software, to be sure, but no different in essence than a hammer, a power drill, a word processor, a web browser, or the braking system in your car. As the autonomy of the system increases, it becomes harder and harder to form the connection between the inputs (your commands) and the outputs (the robot’s behavior), but it exists and is deterministic.» Neil M. Richards et William D. Smart, «How Should the Law Think About Robots?», dans R. Calo, A. M. Froomkin et I. Kerr (dir.), Robot Law, Cheltenham, Edward Elgar Pub, 2016, p. 3, à la p. 18. ↩
12 H. Jacquemin et J.-B. Hubin, «Chapitre 2. La responsabilité extracontractuelle du fait des robots ou des applications d’intelligence artificielle», dans H. Jacquemin et A. De Streel (dir.), L’intelligence artificielle et le droit, Bruxelles, Larcier, 2017, p. 112, aux p. 139 et s. ↩
Publié le 2 mai 2019 | Par Ivan Tchotourian
Publié le 25 avril 2019 | Par Denis Laurendeau
Félicitations pour cette analyse très éclairante. Un sujet à suivre de près pour plusieurs années encore.
Denis Laurendeau
Note : Les commentaires doivent être apportés dans le respect d'autrui et rester en lien avec le sujet traité. Les administrateurs du site de Contact agissent comme modérateurs et la publication des commentaires reste à leur discrétion.
commentez ce billet