Centre Européen de recherche sur le Risque, le Droit des Accidents Collectifs et des Catastrophes (UR n°3992)

Non classé

LES LOIS DE LA ROBOTIQUE D’ASIMOV ET LE DROIT, M-F. Steinlé-Feuerbach

Marie-France Steinlé-Feuerbach

Professeur émérite en Droit privé et Sciences criminelles à l’Université de Haute-Alsace
Directeur honoraire du CERDACC

 

Compte-rendu de la conférence organisée par le Centre d’études internationales de la propriété intellectuelle (CEIPI), Université de Strasbourg, 26 avril 2019.

Nos collègues du CEIPI ont eu l’excellente idée d’aborder le droit de la robotique aux travers des oeuvres d’Isaac Asimov, célèbre auteur américano-russe de science fiction, en étudiant les lois de la robotique qu’il avait posées au siècle dernier. Ces lois sont un réel sujet de réflexion de questionnement et d’inspiration dans le contexte actuel du développement de l’intelligence artificielle et un constat troublant est fait : le droit rejoint la fiction.

Les trois Lois de la robotique formulée par Asimov (Cercle vicieux – Runaround, 1942) sont les suivantes :

Première Loi : Un robot ne peut nuire à un être humain ni, restant passif, laisser cet être humain exposé au danger.

Deuxième Loi : Un robot doit obéir aux ordres que lui donne un être humain, sauf si de tels ordres entrent en conflit avec la Première Loi.

Troisième Loi : Un robot doit protéger sa propre existence tant que cette protection n’entre pas en conflit avec la Première ou la Deuxième Loi.

 Ultérieurement (FondationFoundation and Earth, 1986), Asimov a ajouté une quatrième loi intitulée Loi Zéro : Un robot ne peut nuire à l’humanité ni laisser sans assistance l’humanité en danger.

Après les propos introductifs de Franck Macrez, Maître de conférences au CEIPI et directeur scientifique de la conférence, qui se déclare heureux d’accueillir une « Dream Team » d’intervenants. Madame Jeanne-Marie Tufféry-Andrieu, Doyen de la Faculté de droit de l’Université de Strasbourg, constate que les technologies s’invitent chez les juristes et que l’on voit arriver la robot-éthique. La conférence se déroule sous la présidence de Laurence Dreyfuss-Bechmann, Avocate au barreau de Strasbourg, cabinet Fidal, mettant en évidence l’intérêt du sujet pour les praticiens.

« Les lois de la robotique, modèle pour le système juridique ? » Telle est la question posée par Franck Macrez lequel évoque le rapport entre les trois lois d’Asimov et le droit. Le terme « robot » vient du slave « corvée » et du russe « esclave ». Asimov voulait raconter des histoires de robots gentils. Son modèle semble crédible car dans l’univers de l’auteur les lois sont inviolables. Le Parlement européen a fait référence aux lois d’Asimov dans sa Résolution du 12 février 2019 sur une politique industrielle européenne globale sur l’intelligence artificielle et la robotique (Principes généraux : considérant qu’il y a lieu de considérer les lois d’Asimov comme s’appliquant aux concepteurs, aux fabricants et aux opérateurs de robots, y compris de robots dotés d’autonomie et de capacités d’auto-apprentissage, étant donné que lesdites lois ne peuvent être traduites en langage de programmation). Ce sont des lois hiérarchisées, le modèle est toutefois imparfait. Un rapport du Conseil d’Etat propose la création d’un bouton Asimov, dispositif qui permettrait de geler ou d’annihiler les robots (V.  égal. Claude de Ganay et Dominique Gillot, Pour une intelligence artificielle maîtrisée, utile et démystifiée, Rapport au nom de l’Office parlementaire d’évaluation des choix scientifiques et technologiques, 15 mars 2017, qui évoque à plusieurs reprises le fameux bouton).

Mais ces Lois s’adressent aux robots et non aux hommes et l’univers d’Asimov ne connaît pas les hackers. Elles restent cependant un modèle utile, un bon outil pédagogique, il y a également un élément affectif car on aime ces histoires de robot, mais d’un point de vue normatif, il s’agit surtout d’une forme de questionnement.

La première Loi est étudiée par Nathalie Nevejans, Maître de conférences en droit privé à l’université d’Artois et auteur du « Traité de droit et d’éthique de la robotique civile » (LEH éditions, 2017) sous l’intitulé « Le robot est-il responsable ? ». L’idée d’Asimov était de concevoir des histoires pour dépasser le complexe de Frankenstein. En Occident, les gens ont peur du robot alors qu’il est perçu positivement au Japon. L’intervenante commence par une analyse textuelle de la première Loi, laquelle comprend deux idées : la protection de l’humain par l’action et celle de cette protection par abstention. On retrouve d’ailleurs les mêmes idées en droit de la responsabilité civile et de la responsabilité pénale.

Nathalie Nevejans répond aux sollicitations

Les Lois, fortement imprégnées de culture occidentale, sont aussi d’inspiration chrétienne : il faut aimer son prochain. Ainsi, dans Cercle vicieux, le robot est bloqué face à un conflit entre la Loi 2 et la Loi 3, il choisit de suivre la Loi 1 et se sacrifie comme Jésus Christ. Dans Conflit évitable (The evitable conflit, 1950) l’auteur dépasse le cadre des robots pour appliquer les mêmes règles aux machines. La Machine dirige le Monde, mais l’homme ne le sait pas ; l’atteinte est tant physique que psychologique. La Loi doit être appliquée indépendamment de la valeur individuelle de l’humain. L’article premier de la Loi connaît une exception : le robot peut porter atteinte à un humain, même le tuer, pour éviter un péril plus grand – mais alors le robot deviendrait fou.

De multiples questions se posent pour les véhicules autonomes (sur ce point, V. Les véhicules autonomes, ss. la dir. d’Eric Desfougères, Riseo 2018-1 : http://www.riseo.cerdacc.uha.fr/) : qui va intégrer les règles de protection, le concepteur, l’utilisateur, ou encore, selon une autre opinion, la société et donc le législateur ? Qui est responsable des sécurités ? C’est l’humain. Il existe déjà des textes qui imposent la mise en place des dispositifs de sécurité comme la directive « Machines » (Directive 2006/42/CE du Parlement européen et du Conseil du 17 mai 2006 relative aux machines). Il existe également des choix éthiques – sacrifier le passager ou le passant – et une des pistes est qu’il convient de sauver le plus de personnes possibles, mais cela dépend des cultures.

Selon Asimov c’est l’humain qui est responsable, l’intervenante précise clairement qu’elle est opposée à la création d’une personnalité juridique des robots contrairement à l’opinion de la députée européenne luxembourgeoise Mady Delvaux (Projet de rapport contenant des recommandations à la Commission concernant des règles de droit civil sur la robotique, 2015/2103(INL) 31 mai 2016). Ce dernier point fera l’objet de discussions animées tant lors des débats qu’à la pause.

L’étude de la Loi n° 2, « Le robot obéissant », revient à Ugo Bellagamba, écrivain et Maître de conférences en Histoire du droit et des institutions à l’Université de Nice. Il a voué dans sa jeunesse un culte à Asimov et n’imaginait pas alors avoir l’opportunité d’en parler. Il expose le passage de l’obéissance sans discernement à l’obéissance avec jugement, celle du robot social. Les robots de compagnie existent déjà, comment notre société va-t-elle accueillir des robots sociaux ?

Le legs d’Asimov constitue à cet égard un kit de réflexions. Le robot de base est un outil extérieur au corps social, il travaille dans les colonies de l’espace et obéit très facilement à une commande classique de l’humain. C’est tout simplement l’encadrement juridique de l’esclavage, le Code noir dans sa version de 1685 réglementant l’obéissance de l’esclave. Celui-ci ne fait que travailler aux champs, il est en dehors du corps social, il devient une chose comme l’est le robot au départ. Les trois Lois de la robotique ne sont pas juridiques mais logiques, on voit bien qu’elles ne sont pas hiérarchisées, elles doivent être respectées en même temps, ce sont trois aspects d’une norme de comportement.

Le robot capable de discernement arrive plus tard dans l’oeuvre d’Asimov (Pour que tu t’y intéresses – That Thou Art Mindful of Him!, 1974). Se pose la question de l’obéissance des robots confrontés à des ordres contradictoires. Il faut que le robot soit capable d’effectuer une opération de jugement, il va devoir évaluer la situation. Il s’agit là d’une obéissance raisonnée, il convient de distinguer la lettre et l’esprit de la loi. Obéir à un système juridique implique de questionner le rapport moral entre la liberté individuelle et la société. La Loi la plus difficile est celle de l’obéissance qui amène à la citoyenneté. Dans L’Homme bicentenaire (The Bicentennial Man, 1976), le robot passe du tas de ferrailles à l’être humain. Andrew crée des oeuvres d’art et gagne de l’argent, il se fait une place dans la société et conquiert le droit à la liberté en justice devant un juge humain. Les concepts d’obéissance et de liberté ne sont pas antagonistes si on introduit la notion de choix. Ugo Bellagamba fait référence à Rousseau : obéir c’est être libre.

Si les robots entrent dans la société il faudra se poser la question des algorithmes de décision ; ainsi, une voiture devra être capable de décision sachant qu’il y aura nécessairement un résultat imparfait.

Jean-Marc Deltorn, Docteur en physique théorique, doctorant au CEIPI et responsable de l’Intelligence artificielle à l’Office européen des brevets, veut nous ramener à la réalité avec la troisième Loi lors de son intervention sur « Le robot, entité autonome ? ». A cet effet, il commence par une image du robot dans les années 40. Dans les années 50, les voitures autonomes étaient présentes dans les BD. Aujourd’hui, le véhicule est capable en quelques secondes d’interpréter des images (cycliste, voiture de police…). Des algorithmes produisent de la musique, avec un questionnement sur les droits d’auteur. On délègue à la machine des tâches réalisées auparavant par les humains.

La définition européenne du robot autonome vise sa capacité d’acquisition d’autonomie grâce aux capteurs. En pratique, il y a une sectorisation de la définition selon le robot comme pour les six niveaux du véhicule autonome. Il y a une gradation des différents niveaux d’autonomie. Actuellement on discute des armes autonomes. Il existe une variété des normes des autonomies dont les niveaux dépendent du contexte, allant de la simplicité à la complexité. Il faut intégrer tout cela dans la machine, faire un parallèle avec le comportement humain.

Jusqu’à récemment les experts imposaient des règles à la machine mais ces règles avaient des limites ; actuellement, on laisse la machine édicter elle-même ses règles. On transcrit en algorithmes des modèles neurologiques et si la machine commet une erreur, on corrige l’algorithme. L’autonomie de Waymo est supérieure à celle de Roomba mais on ne sait pas identifier le passage à l’autonomie. Cette dernière est relative car derrière la machine il y a l’humain, c’est lui qui définit les tâches à accomplir, intervient au niveau des données d’entraînement. Comment intégrer la règle ? On assigne la responsabilité à l’humain et on voit apparaître des différences selon les cultures quant aux choix. Nous sommes tous des parties prenantes de l’autonomie du robot !

Anthony Vallat, Professeur de sociologie à l’Ecole supérieure de santé de Lausanne et auteur de « Utopie et raison dans le cycle de Fondation d’Isaac Asimov » (ActuSF, 2014) aborde le sujet  du « Robot, gardien de l’humanité ? ». Par l’utopie on arrive à la construction de la Loi Zéro. Dans Seconde Fondation (Second Foundation, 1953) le contrôle de la société a été abandonné au hasard, dans Fondation foudroyée (Foundation’s Edge, 1982), Asimov propose l’utopie de la planète Gaïa où tout le monde est capable de communiquer avec tout le monde. Il faut faire le choix entre rester sur la planète ou bien s’étendre sur toute la galaxie. Au final, on découvre que Gaïa est dirigée par des robots. La fameuse Loi Zéro permet de résister à un ordre qui détruirait l’humanité. Mais l’humanité n’est-elle qu’une idée ? C’est le dialogue qui permet de survivre, c’est par le langage que l’action progresse.

Comment passer de la Loi 1 à la Loi 0 ? Il a fallu trouver une pratique afin qu’il y ait le moins de dommages humains possible en respectant les trois règles.

Finalement, les humains ordinaires ne sont pas des robots car ils ont un espace dans la tête et que s’ils ne prennent pas la bonne décision ils ne meurent pas pour autant. C’est cet espace de liberté qui semble bien nous distinguer des robots.

En « Propos conclusifs : l’oeil du praticien », Gilles Vercken, Avocat aux barreaux de Paris et Strasbourg, Cabinet Vercken et Gaullier, spécialiste du droit d’auteur propose de donner quelques indications de praticien. Sur les lois de la robotique, il imagine un client venu lui demander de respecter les Lois d’Asimov pour la rédaction d’un contrat. La première question est de savoir à qui s’adressent ces règles : c’est au robot qu’elles s’adressent. Mais qu’est juridiquement un robot ? Maître Vercken s’oppose également à la personnalité juridique du robot en constatant que chaque fois qu’apparaît un nouveau champ, il y a une exagération de l’importance du sujet. Sur les règles elles-mêmes, la première renvoie à l’article 1240 du code civil, la deuxième n’a pas vraiment de sens car le robot, défini comme un objet, doit obéir sauf si les ordres sont incompatibles et on revient alors à la première Loi.

Le praticien éprouverait de grandes difficultés à appliquer les Lois, la plus grande de ces difficultés étant de savoir qui fait quoi et qui est responsable dans une chaîne de décisions (ce qui, selon le rédacteur de ce compte-rendu, pourrait justement être solutionné par l’attribution d’une personnalité juridique dotée d’un organe, à l’instar des personnes morales… la discussion est ouverte). Une question majeure est celle de la charge de la preuve du fait à l’origine du dommage. En cas de contentieux, le plus gros problème serait celui de la preuve du fait dommageable, d’où des expertises avec des coûts importants.

Cette conférence a connu un franc succès, mesuré non seulement par le nombre de personnes présentes dans l’amphithéâtre mais également par les questions lors des débats.