WEBVTT Kind: captions Language: fr 00:00:00.000 --> 00:00:07.000 Transcription: Elisabeth Buffard Relecteur: Hélène Vernet 00:00:12.125 --> 00:00:15.771 Le progrès disait Prévert, est « trop robot pour être vrai. » 00:00:15.977 --> 00:00:19.956 Voilà, sans doute, le genre de pensées qui a pu traverser l'esprit de certains 00:00:19.979 --> 00:00:23.329 à l'annonce du premier accident responsable de la Google Car. 00:00:23.841 --> 00:00:27.099 La Google Car, vous savez, c'est cette voiture autonome, 00:00:27.120 --> 00:00:29.117 soit un robot sur quatre roues, 00:00:29.137 --> 00:00:32.511 dont les constructeurs nous rappellent, avec une certaine insistance, 00:00:32.536 --> 00:00:34.838 qu'à la différence d'un automobiliste humain, 00:00:34.848 --> 00:00:38.351 un robot, ça ne se met jamais en colère, ça ne boit pas, 00:00:38.371 --> 00:00:41.222 ça ne quitte pas la route des yeux pour expliquer aux enfants 00:00:41.232 --> 00:00:44.233 qu'on ne joue pas à « coucou-caché » avec papa, 00:00:44.249 --> 00:00:46.920 et ça n'envoie pas de textos aux proches pour dire : 00:00:46.940 --> 00:00:50.270 « Je ne peux pas te répondre, je suis en train de conduire. » 00:00:52.052 --> 00:00:54.212 Pourtant d'autres accidents ont eu lieu, 00:00:54.232 --> 00:00:57.751 dont l'un mortel, causé par la voiture d'un autre constructeur, 00:00:57.761 --> 00:01:00.276 dont les capteurs n'avaient pas su identifier 00:01:00.296 --> 00:01:03.017 un camion blanc sur une route ensoleillée. 00:01:03.657 --> 00:01:06.066 Je m'appelle Cédric Coulon, je suis juriste, 00:01:06.086 --> 00:01:08.349 et je m'intéresse depuis ces mêmes accidents 00:01:08.369 --> 00:01:11.048 à la responsabilité du fait des robots, 00:01:11.068 --> 00:01:15.078 soit la question de savoir qui demain répondra 00:01:15.098 --> 00:01:17.868 des dommages causés par les choses intelligentes. 00:01:18.369 --> 00:01:21.371 Je dis « demain » parce que la question est loin d'être tranchée 00:01:21.391 --> 00:01:23.651 et ce, même dans les cas les plus simples. 00:01:23.681 --> 00:01:25.505 Je vais prendre un exemple d'accident, 00:01:25.525 --> 00:01:29.370 qui avait été recensé par Google, mais celui-là avait été sans gravité. 00:01:29.978 --> 00:01:32.204 Précisions déjà qu'en fait de voiture autonome, 00:01:32.214 --> 00:01:34.674 il s'agit surtout de voitures semi-autonomes 00:01:34.684 --> 00:01:38.062 auxquelles on n'a pas été jusqu'à retirer le volant et les pédales, 00:01:38.082 --> 00:01:41.179 même si des prototypes de ce genre existent déjà. 00:01:41.384 --> 00:01:45.287 Ici, le conducteur arrivait à une intersection 00:01:45.329 --> 00:01:48.984 et craignant que la voiture ne freine pas suffisamment tôt 00:01:48.994 --> 00:01:50.814 ou qu'elle ne freine pas du tout, 00:01:50.824 --> 00:01:53.689 il décide d'appuyer sur la pédale de frein. 00:01:54.642 --> 00:01:58.342 Ceci étant, l'action combinée du conducteur à celle du véhicule, 00:01:58.352 --> 00:02:01.523 qui, bien entendu, avait négocié l'intersection, 00:02:01.542 --> 00:02:03.833 a conduit la voiture à s'arrêter brutalement 00:02:03.853 --> 00:02:08.148 et à se faire emboutir à l'arrière par l'automobiliste qui la suivait. 00:02:08.994 --> 00:02:12.792 Dans ce cas-là, la réaction du constructeur est toute trouvée : 00:02:12.838 --> 00:02:14.729 c'est la faute du conducteur. 00:02:14.739 --> 00:02:17.593 Il est fautif de ne pas avoir cru 00:02:17.615 --> 00:02:21.845 un robot capable de veiller à sa propre sécurité. 00:02:22.337 --> 00:02:25.191 Sauf qu'en droit, ça n'est pas aussi simple que ça. 00:02:25.241 --> 00:02:27.966 Il y a bien une règle récente 00:02:27.986 --> 00:02:32.376 qui autorise l'introduction des machines autonomes sur nos routes, 00:02:32.396 --> 00:02:35.382 mais à la condition, nous dit le texte, 00:02:35.408 --> 00:02:39.338 que le conducteur en ait le contrôle permanent. 00:02:39.769 --> 00:02:42.639 Et ce texte dont je vous parle, c'est un traité international 00:02:42.649 --> 00:02:45.739 qui ambitionne d'harmoniser la règlementation routière 00:02:45.749 --> 00:02:48.950 entre pas moins de 84 pays. 00:02:49.218 --> 00:02:53.291 Alors vous saisissez l'écueil que soulève la réaction du constructeur. 00:02:53.527 --> 00:02:57.257 Comment est-ce qu'on peut tenir le conducteur pour fautif 00:02:57.277 --> 00:03:03.479 alors que légalement, il est censé avoir le contrôle permanent de la voiture ? 00:03:04.466 --> 00:03:08.882 Cet exemple préfigure, à mon avis, la réalité de demain. 00:03:09.259 --> 00:03:15.257 La réalité de demain, c'est que plus on autonomisera les choses, 00:03:15.282 --> 00:03:19.450 plus il sera difficile de trouver un responsable 00:03:19.470 --> 00:03:22.721 derrière des dommages qu'elles viendraient à causer. 00:03:23.045 --> 00:03:27.069 Ça vaut pour les voitures autonomes, mais aussi pour les robots humanoïdes, 00:03:27.089 --> 00:03:30.144 vous savez, ceux qui attendent patiemment de quitter les ateliers 00:03:30.164 --> 00:03:32.377 où ils restent aujourd'hui largement cantonnés, 00:03:32.387 --> 00:03:36.921 mais qui sont déjà en passe de mériter leurs galons de robots compagnons, 00:03:36.931 --> 00:03:41.483 de robots auxiliaires de vie, de robots sexuels - il en existe déjà... 00:03:42.766 --> 00:03:47.766 Le problème, c'est que pour l'instant, ni le droit français, ni le droit européen 00:03:47.776 --> 00:03:50.418 ne font la différence entre ça, 00:03:52.022 --> 00:03:53.815 et ça, 00:03:54.766 --> 00:03:57.157 ou encore entre ça, 00:03:58.591 --> 00:04:00.325 et ça. 00:04:01.919 --> 00:04:04.516 Il n'y a rien, pas un critère juridique, 00:04:04.526 --> 00:04:08.556 qui permettre de distinguer le robot du tout-venant des machines, 00:04:08.586 --> 00:04:10.960 alors même qu'on commence tout juste à s'éveiller 00:04:10.970 --> 00:04:16.963 aux difficultés qui surgissent lorsqu'on prétend doter des machines, 00:04:16.993 --> 00:04:19.670 pas seulement de la faculté de se mouvoir par elles-mêmes 00:04:19.700 --> 00:04:23.223 comme d'autres robots aspirateurs ou tondeuses pas bien méchants, 00:04:23.243 --> 00:04:26.693 mais surtout de facultés cognitives, 00:04:26.713 --> 00:04:32.961 c'est-à-dire des facultés d'apprendre, d'analyser, de prendre des décisions. 00:04:33.202 --> 00:04:37.322 C'est l'exemple type qui nourrit les fantasmes de ceux qui s'inquiètent 00:04:37.332 --> 00:04:41.128 de ce qu'on délègue demain tout pouvoir de décision à des voitures. 00:04:41.646 --> 00:04:43.216 En cas d'accident inévitable, 00:04:43.236 --> 00:04:47.392 est-ce que l'algorithme qui commande les décisions du véhicule 00:04:47.412 --> 00:04:51.417 calculera froidement les chances que survive l'enfant passager, 00:04:51.427 --> 00:04:53.820 plutôt que ses parents assis aux places avant. 00:04:54.820 --> 00:04:59.950 À terme, la voiture autonome pourrait devenir l'agent moral des automobilistes 00:04:59.960 --> 00:05:04.603 dans des conditions que la technologie, mais aussi le droit, 00:05:04.623 --> 00:05:06.791 devront s'efforcer de définir. 00:05:07.175 --> 00:05:10.007 Alors, je ne suis pas en train de vous dire 00:05:10.037 --> 00:05:12.735 que c'est le droit qui fait avancer la technologie. 00:05:13.072 --> 00:05:16.226 En revanche, il est certain que sans le droit, on n'y arrivera pas. 00:05:16.236 --> 00:05:20.565 Sans le droit, la technologie ne trouvera aucune légitimité. 00:05:21.026 --> 00:05:26.468 Et cette légitimité passe nécessairement par l'invention de solutions nouvelles 00:05:26.489 --> 00:05:31.891 pour appréhender les risques liés au développement de la robotique cognitive. 00:05:32.601 --> 00:05:36.567 Pour l'heure, aucunes des règles actuelles ne semblent adaptées. 00:05:37.046 --> 00:05:41.016 Il y en a une bien connue qui veut que le fabricant soit responsable 00:05:41.046 --> 00:05:45.565 des dommages causés par les défauts des produits qu'il commercialise. 00:05:45.745 --> 00:05:50.062 Voilà une règle si naturelle qu'elle est simple à justifier, 00:05:50.072 --> 00:05:53.768 et pourtant, là encore, c'est l'autonomie cognitive 00:05:53.798 --> 00:05:57.345 qui risque d'en faire apparaitre les limites. 00:05:57.770 --> 00:06:00.350 Prenons l'exemple des robots auxiliaires de vie. 00:06:01.030 --> 00:06:05.689 Il en existe plusieurs ; certains sont doués pour transporter leur maître 00:06:05.709 --> 00:06:08.267 d'une pièce à l'autre de son appartement, 00:06:08.287 --> 00:06:11.289 d'autres pour effectuer des tâches ménagères assez simples, 00:06:11.309 --> 00:06:14.357 mais ils vont apprendre des tas de choses dans les années à venir 00:06:14.367 --> 00:06:16.197 au gré de leurs nouvelles versions. 00:06:16.217 --> 00:06:19.465 Supposons maintenant que l'un de ces robots 00:06:19.475 --> 00:06:22.871 cause un dommage à son utilisateur. 00:06:23.654 --> 00:06:28.629 Il y a la règle suivant laquelle le fabriquant est responsable 00:06:28.659 --> 00:06:33.033 des dommages causés par les défauts des produits qu'il met en circulation. 00:06:33.824 --> 00:06:36.342 Le problème est que, précisément, il n'est responsable 00:06:36.362 --> 00:06:40.785 que pour autant ce défaut existait au moment de cette mise en circulation. 00:06:42.113 --> 00:06:48.593 Or, à considérer des choses évolutives, qui s'adaptent et changent, 00:06:48.623 --> 00:06:52.862 on aura conclu rapidement que le dommage causé aujourd'hui, 00:06:52.882 --> 00:06:58.147 l'a été par une chose différente de celle mise en circulation précédemment, 00:06:58.155 --> 00:07:00.382 quelques semaines ou quelques mois plus tôt, 00:07:00.390 --> 00:07:03.385 puisque le robot a évolué entre temps. 00:07:03.681 --> 00:07:06.069 Et voilà la porte grande ouverte 00:07:06.088 --> 00:07:09.543 aux constructeurs qui souhaiteront échapper à leurs responsabilités. 00:07:10.063 --> 00:07:13.286 À vrai dire, les juristes n'ont pas fini de s'arracher les cheveux. 00:07:13.326 --> 00:07:17.493 Que se passera-t-il, par exemple, en cas de revente du robot ? 00:07:18.288 --> 00:07:21.722 De la même manière que certains d'entre nous, moi le premier, 00:07:21.752 --> 00:07:24.566 ont pu pester un jour, contre la façon 00:07:24.586 --> 00:07:30.477 dont l'ancien propriétaire d'une voiture malmenait son boitier de vitesse, 00:07:30.860 --> 00:07:33.849 on en viendra peut-être demain à pester contre la façon 00:07:33.873 --> 00:07:37.042 dont l'ancien propriétaire d'un robot en faisait usage, et au fond, 00:07:37.072 --> 00:07:39.132 de la mauvaise éducation qu'il lui donnait, 00:07:39.142 --> 00:07:42.330 exactement comme on nous reprocherait de mal éduquer nos enfants. 00:07:42.360 --> 00:07:45.240 Bref, on ne saura jamais vraiment sur quoi on tombe, 00:07:45.250 --> 00:07:48.584 alors faites bien attention à qui pourrait un jour sonner à votre porte 00:07:48.614 --> 00:07:51.110 pour proposer ses services. 00:07:51.172 --> 00:07:52.992 (Rires) 00:07:53.500 --> 00:07:55.343 Quoi qu'il en soit, 00:07:55.823 --> 00:07:58.743 permettre à un robot de s'adapter à son usager, 00:07:58.773 --> 00:08:03.583 c'est déjà admettre que celui-ci exerce une influence sur son comportement. 00:08:03.823 --> 00:08:06.453 Alors pourquoi ne pas se tourner plutôt vers cet usager 00:08:06.473 --> 00:08:09.849 en convoquant le fondement traditionnel de la responsabilité civile, 00:08:09.859 --> 00:08:11.593 qui est le critère de garde. 00:08:11.601 --> 00:08:15.263 Ce critère est aussi ancien que le Code Civil - 1804 - 00:08:15.283 --> 00:08:20.758 qui énonce toujours que le maître est responsable de son animal 00:08:20.788 --> 00:08:23.579 car il doit le contrôler, le surveiller, le garder. 00:08:23.839 --> 00:08:28.063 À la faveur de la révolution industrielle, à la fin du XIXe siècle, 00:08:28.073 --> 00:08:31.447 ce critère de garde s'est élargi à toutes sortes de machines. 00:08:31.577 --> 00:08:36.949 Aujourd'hui, c'est tout pouvoir d'usage, de contrôle et de direction 00:08:36.969 --> 00:08:38.918 qu'une personne détient sur une chose. 00:08:39.058 --> 00:08:42.458 Donc oui, on pourrait être tenté de raisonner par analogie 00:08:42.488 --> 00:08:45.630 et comparer notre robot à un animal. 00:08:46.035 --> 00:08:52.294 Sauf que cette solution contredit l'usage et l'essence même du robot, 00:08:52.324 --> 00:08:55.826 qui est précisément de se débrouiller tout seul en satisfaisant au mieux 00:08:55.836 --> 00:08:58.309 les intérêts de son utilisateur. 00:08:59.069 --> 00:09:02.657 Le parallèle peut être fait avec les drones de loisirs. 00:09:03.153 --> 00:09:05.068 Une loi récente, qui date de 2016, 00:09:05.078 --> 00:09:07.978 fait désormais obligation au propriétaire de tels drones 00:09:07.988 --> 00:09:10.651 de suivre une formation obligatoire, 00:09:10.673 --> 00:09:14.054 notamment pour se familiariser avec les règles applicables 00:09:14.090 --> 00:09:18.347 en matière de survol de zones peuplées. 00:09:18.916 --> 00:09:22.610 Mais la raison d'être de cette formation obligatoire, 00:09:23.459 --> 00:09:26.266 c'est que précisément, il ne s'agit pas d'un robot 00:09:26.296 --> 00:09:29.826 mais de choses qui sont télépilotées par l'homme. 00:09:29.926 --> 00:09:35.257 À l'inverse, si on reprend l'exemple de nos robots auxiliaires de vie, 00:09:35.264 --> 00:09:37.894 l'argument qui présidera 00:09:37.904 --> 00:09:42.182 à la commercialisation et au succès de telles machines, 00:09:42.213 --> 00:09:45.951 tient au fait que l'usager n'aura plus qu'à se soucier 00:09:45.961 --> 00:09:48.733 des ordres qu'il pourra leur donner, et plus du tout 00:09:48.743 --> 00:09:52.898 de la façon dont elles s'y prennent pour les exécuter. 00:09:53.032 --> 00:09:56.375 Et finalement, ce qu'on appelle le « droit de la consommation », 00:09:56.385 --> 00:09:58.954 dont la finalité est de protéger les consommateurs, 00:09:58.984 --> 00:10:00.494 notamment en les informant, 00:10:00.514 --> 00:10:05.044 eh bien ce droit devra peut-être composer avec un paradoxe inquiétant, 00:10:05.064 --> 00:10:10.079 puisque plus on autonomisera les choses, plus elles seront complexes, 00:10:10.120 --> 00:10:12.136 mais moins on aura besoin de les comprendre 00:10:12.146 --> 00:10:17.100 à la différence de notre pilote de drones qu'on cherche à responsabiliser davantage. 00:10:19.327 --> 00:10:24.635 Alors, vous saisissez surtout à quel point le critère de garde est ici inadapté. 00:10:24.665 --> 00:10:28.521 Ce n'est plus tant l'homme qui garde la machine, 00:10:28.551 --> 00:10:30.510 mais la machine qui garde l'homme, 00:10:30.530 --> 00:10:34.190 en satisfaisant à des besoins qu'il n'est plus capable de satisfaire lui-même, 00:10:34.210 --> 00:10:36.699 voire en faisant preuve sur lui d'autorité 00:10:36.719 --> 00:10:39.489 quand il s'agira, par exemple, de lui refuser un médicament 00:10:39.499 --> 00:10:42.061 qu'il a déjà pris dans la journée. 00:10:42.676 --> 00:10:44.397 Alors résumons. 00:10:44.439 --> 00:10:48.802 Il y a d'un côté, la responsabilité du constructeur qui parait naturelle 00:10:48.812 --> 00:10:50.853 mais qu'on aura plus de mal à justifier 00:10:50.873 --> 00:10:55.401 au fur et à mesure que les choses s'autonomiseront et révéleront des défauts 00:10:55.426 --> 00:10:58.750 qui n'existaient pas au moment de leur mise en circulation. 00:10:59.050 --> 00:11:01.798 Et de l'autre, il y a la responsabilité de l'usager, 00:11:01.808 --> 00:11:04.198 tout aussi critiquable dans la mesure où, a priori, 00:11:04.218 --> 00:11:06.995 ce n'est pas à lui de comprendre et de contrôler une chose 00:11:07.005 --> 00:11:09.730 qui est censée se débrouiller toute seule. 00:11:10.305 --> 00:11:14.339 Il resterait bien une troisième voie à laquelle certains ont pu penser, 00:11:14.349 --> 00:11:16.844 c'est la responsabilité du robot, évidemment. 00:11:16.864 --> 00:11:21.524 Elle présuppose qu'on cède au mythe du robot-personne, 00:11:21.554 --> 00:11:24.287 c'est-à-dire qu'on l'affuble d'une personnalité juridique 00:11:24.307 --> 00:11:28.692 comme vous et moi, ou comme une entreprise 00:11:28.712 --> 00:11:31.622 qu'on inscrit au Registre du Commerce et des Sociétés 00:11:31.642 --> 00:11:33.421 et à qui on affecte un capital. 00:11:33.441 --> 00:11:36.297 Eh bien, c'est exactement sur cette voie-là que s'est engagé, 00:11:36.317 --> 00:11:40.027 il y a déjà plusieurs années, l'état du Nevada aux Etats-Unis, 00:11:40.037 --> 00:11:43.366 en répertoriant systématiquement ces voitures autonomes 00:11:43.376 --> 00:11:48.496 sur un fichier dédié, et en leur affectant un capital 00:11:48.516 --> 00:11:52.728 qui pourrait servir d'assurance en cas d'accident. 00:11:53.465 --> 00:11:56.779 À mon avis, on n'a pas besoin de s’embarrasser avec une telle solution 00:11:56.799 --> 00:11:59.321 lorsqu'il suffira de reporter le poids de l'assurance 00:11:59.351 --> 00:12:01.790 sur les épaules du constructeur ou de l'usager ; 00:12:01.800 --> 00:12:06.711 ça ne coûtera presque plus rien puisqu'il n'y aura pratiquement plus d'accidents. 00:12:07.370 --> 00:12:11.740 Mais surtout, cette solution me parait terriblement dangereuse. 00:12:11.760 --> 00:12:14.234 parce qu'au fond, la personnalité juridique, 00:12:14.264 --> 00:12:18.622 c'est l'aptitude à être titulaire de droits, 00:12:18.631 --> 00:12:21.538 l'aptitude à être titulaire de prérogatives juridiques. 00:12:21.798 --> 00:12:24.145 Est-ce qu'on en viendra demain à considérer 00:12:24.165 --> 00:12:29.281 que notre robot mérite d'être protégé dans son intégrité physique, 00:12:29.292 --> 00:12:33.635 dans sa vie privée, dans les œuvres d'art qu'il pourrait créer ? 00:12:34.241 --> 00:12:35.975 Personnellement, je ne l'espère pas, 00:12:35.985 --> 00:12:38.979 et en tout cas, cet avenir-là me semble très improbable. 00:12:39.005 --> 00:12:40.795 Imaginez ... 00:12:41.425 --> 00:12:43.833 En droit français, on a mis plus de deux siècles 00:12:43.853 --> 00:12:47.599 à admettre que les animaux n'étaient pas des choses, 00:12:47.619 --> 00:12:49.897 mais des êtres vivants doués de sensibilité 00:12:49.907 --> 00:12:52.704 sans pour autant en faire des personnes. 00:12:52.724 --> 00:12:56.674 Combien de temps faudra-t-il avant qu'on admette que des machines - 00:12:56.684 --> 00:13:01.389 soit des êtres non vivants - méritent une telle personnalité ? 00:13:01.998 --> 00:13:04.487 Vous l'avez compris, je ne suis pas du tout favorable 00:13:04.507 --> 00:13:06.627 à ce qu'on reconnaisse des droits aux robots. 00:13:06.647 --> 00:13:09.258 En revanche, je le suis bien davantage 00:13:09.278 --> 00:13:13.678 à l'émergence et au développement d'un « Droit des robots », 00:13:13.698 --> 00:13:16.729 un Droit des robots placé sous le signe de la prudence, 00:13:16.739 --> 00:13:19.389 voire de la défiance vis-à-vis de ces choses, 00:13:19.394 --> 00:13:21.034 dont les capacités extraordinaires 00:13:21.044 --> 00:13:24.412 les portent à disputer à l'homme son autorité. 00:13:24.910 --> 00:13:27.308 Ce Droit des robots, je le définirai 00:13:27.318 --> 00:13:31.537 comme l'ensemble des règles destinées à organiser 00:13:31.557 --> 00:13:36.109 l'introduction des machines autonomes dans la vie sociale. 00:13:36.566 --> 00:13:39.133 Je vous ai parlé du Droit de la responsabilité civile ; 00:13:39.163 --> 00:13:42.827 j'aurais pu vous parler d'autres matières comme le Droit des incapacités. 00:13:43.050 --> 00:13:46.283 Faudra-t-il que demain, le juge des tutelles se prononce 00:13:46.303 --> 00:13:50.989 sur l'opportunité de dépêcher un robot auxiliaire de vie 00:13:51.014 --> 00:13:53.051 au chevet d'une personne dépendante, 00:13:53.061 --> 00:13:56.748 surtout si elle souffre de troubles mentaux, c'est une vraie question. 00:13:57.294 --> 00:14:00.103 Ce Droit des robots n'existe pas encore, 00:14:00.113 --> 00:14:04.155 mais c'est déjà la réalité d'aujourd'hui, 00:14:04.171 --> 00:14:06.144 en tous cas celle de demain. 00:14:06.175 --> 00:14:09.697 Mais pour l'instant, ne craignez rien. 00:14:10.041 --> 00:14:14.651 Si un jour, vous décidez d'acquérir un robot sexuel, 00:14:14.674 --> 00:14:18.164 et que, par une longue soirée d'hiver, 00:14:18.185 --> 00:14:20.153 vous y allez un peu fort, 00:14:20.172 --> 00:14:23.314 parole de juriste, tout ce que vous risquez, 00:14:23.324 --> 00:14:25.124 c'est de faire sauter la garantie. 00:14:25.204 --> 00:14:26.594 Merci. 00:14:26.634 --> 00:14:28.774 (Applaudissements)