|
WEBVTT |
|
Kind: captions |
|
Language: fr |
|
|
|
00:00:00.000 --> 00:00:07.000 |
|
Transcription: Elisabeth Buffard |
|
Relecteur: Hélène Vernet |
|
|
|
00:00:12.125 --> 00:00:15.771 |
|
Le progrès disait Prévert, |
|
est « trop robot pour être vrai. » |
|
|
|
00:00:15.977 --> 00:00:19.956 |
|
Voilà, sans doute, le genre de pensées |
|
qui a pu traverser l'esprit de certains |
|
|
|
00:00:19.979 --> 00:00:23.329 |
|
à l'annonce du premier accident |
|
responsable de la Google Car. |
|
|
|
00:00:23.841 --> 00:00:27.099 |
|
La Google Car, vous savez, |
|
c'est cette voiture autonome, |
|
|
|
00:00:27.120 --> 00:00:29.117 |
|
soit un robot sur quatre roues, |
|
|
|
00:00:29.137 --> 00:00:32.511 |
|
dont les constructeurs nous rappellent, |
|
avec une certaine insistance, |
|
|
|
00:00:32.536 --> 00:00:34.838 |
|
qu'à la différence |
|
d'un automobiliste humain, |
|
|
|
00:00:34.848 --> 00:00:38.351 |
|
un robot, ça ne se met |
|
jamais en colère, ça ne boit pas, |
|
|
|
00:00:38.371 --> 00:00:41.222 |
|
ça ne quitte pas la route des yeux |
|
pour expliquer aux enfants |
|
|
|
00:00:41.232 --> 00:00:44.233 |
|
qu'on ne joue pas |
|
à « coucou-caché » avec papa, |
|
|
|
00:00:44.249 --> 00:00:46.920 |
|
et ça n'envoie pas |
|
de textos aux proches pour dire : |
|
|
|
00:00:46.940 --> 00:00:50.270 |
|
« Je ne peux pas te répondre, |
|
je suis en train de conduire. » |
|
|
|
00:00:52.052 --> 00:00:54.212 |
|
Pourtant d'autres accidents ont eu lieu, |
|
|
|
00:00:54.232 --> 00:00:57.751 |
|
dont l'un mortel, causé par la voiture |
|
d'un autre constructeur, |
|
|
|
00:00:57.761 --> 00:01:00.276 |
|
dont les capteurs |
|
n'avaient pas su identifier |
|
|
|
00:01:00.296 --> 00:01:03.017 |
|
un camion blanc sur une route ensoleillée. |
|
|
|
00:01:03.657 --> 00:01:06.066 |
|
Je m'appelle Cédric Coulon, |
|
je suis juriste, |
|
|
|
00:01:06.086 --> 00:01:08.349 |
|
et je m'intéresse |
|
depuis ces mêmes accidents |
|
|
|
00:01:08.369 --> 00:01:11.048 |
|
à la responsabilité du fait des robots, |
|
|
|
00:01:11.068 --> 00:01:15.078 |
|
soit la question de savoir |
|
qui demain répondra |
|
|
|
00:01:15.098 --> 00:01:17.868 |
|
des dommages causés |
|
par les choses intelligentes. |
|
|
|
00:01:18.369 --> 00:01:21.371 |
|
Je dis « demain » parce que |
|
la question est loin d'être tranchée |
|
|
|
00:01:21.391 --> 00:01:23.651 |
|
et ce, même dans les cas les plus simples. |
|
|
|
00:01:23.681 --> 00:01:25.505 |
|
Je vais prendre un exemple d'accident, |
|
|
|
00:01:25.525 --> 00:01:29.370 |
|
qui avait été recensé par Google, |
|
mais celui-là avait été sans gravité. |
|
|
|
00:01:29.978 --> 00:01:32.204 |
|
Précisions déjà qu'en fait |
|
de voiture autonome, |
|
|
|
00:01:32.214 --> 00:01:34.674 |
|
il s'agit surtout |
|
de voitures semi-autonomes |
|
|
|
00:01:34.684 --> 00:01:38.062 |
|
auxquelles on n'a pas été jusqu'à |
|
retirer le volant et les pédales, |
|
|
|
00:01:38.082 --> 00:01:41.179 |
|
même si des prototypes |
|
de ce genre existent déjà. |
|
|
|
00:01:41.384 --> 00:01:45.287 |
|
Ici, le conducteur arrivait |
|
à une intersection |
|
|
|
00:01:45.329 --> 00:01:48.984 |
|
et craignant que la voiture |
|
ne freine pas suffisamment tôt |
|
|
|
00:01:48.994 --> 00:01:50.814 |
|
ou qu'elle ne freine pas du tout, |
|
|
|
00:01:50.824 --> 00:01:53.689 |
|
il décide d'appuyer |
|
sur la pédale de frein. |
|
|
|
00:01:54.642 --> 00:01:58.342 |
|
Ceci étant, l'action combinée |
|
du conducteur à celle du véhicule, |
|
|
|
00:01:58.352 --> 00:02:01.523 |
|
qui, bien entendu, |
|
avait négocié l'intersection, |
|
|
|
00:02:01.542 --> 00:02:03.833 |
|
a conduit la voiture |
|
à s'arrêter brutalement |
|
|
|
00:02:03.853 --> 00:02:08.148 |
|
et à se faire emboutir à l'arrière |
|
par l'automobiliste qui la suivait. |
|
|
|
00:02:08.994 --> 00:02:12.792 |
|
Dans ce cas-là, la réaction |
|
du constructeur est toute trouvée : |
|
|
|
00:02:12.838 --> 00:02:14.729 |
|
c'est la faute du conducteur. |
|
|
|
00:02:14.739 --> 00:02:17.593 |
|
Il est fautif de ne pas avoir cru |
|
|
|
00:02:17.615 --> 00:02:21.845 |
|
un robot capable de veiller |
|
à sa propre sécurité. |
|
|
|
00:02:22.337 --> 00:02:25.191 |
|
Sauf qu'en droit, |
|
ça n'est pas aussi simple que ça. |
|
|
|
00:02:25.241 --> 00:02:27.966 |
|
Il y a bien une règle récente |
|
|
|
00:02:27.986 --> 00:02:32.376 |
|
qui autorise l'introduction |
|
des machines autonomes sur nos routes, |
|
|
|
00:02:32.396 --> 00:02:35.382 |
|
mais à la condition, nous dit le texte, |
|
|
|
00:02:35.408 --> 00:02:39.338 |
|
que le conducteur |
|
en ait le contrôle permanent. |
|
|
|
00:02:39.769 --> 00:02:42.639 |
|
Et ce texte dont je vous parle, |
|
c'est un traité international |
|
|
|
00:02:42.649 --> 00:02:45.739 |
|
qui ambitionne d'harmoniser |
|
la règlementation routière |
|
|
|
00:02:45.749 --> 00:02:48.950 |
|
entre pas moins de 84 pays. |
|
|
|
00:02:49.218 --> 00:02:53.291 |
|
Alors vous saisissez l'écueil |
|
que soulève la réaction du constructeur. |
|
|
|
00:02:53.527 --> 00:02:57.257 |
|
Comment est-ce qu'on peut tenir |
|
le conducteur pour fautif |
|
|
|
00:02:57.277 --> 00:03:03.479 |
|
alors que légalement, il est censé avoir |
|
le contrôle permanent de la voiture ? |
|
|
|
00:03:04.466 --> 00:03:08.882 |
|
Cet exemple préfigure, à mon avis, |
|
la réalité de demain. |
|
|
|
00:03:09.259 --> 00:03:15.257 |
|
La réalité de demain, c'est que |
|
plus on autonomisera les choses, |
|
|
|
00:03:15.282 --> 00:03:19.450 |
|
plus il sera difficile |
|
de trouver un responsable |
|
|
|
00:03:19.470 --> 00:03:22.721 |
|
derrière des dommages |
|
qu'elles viendraient à causer. |
|
|
|
00:03:23.045 --> 00:03:27.069 |
|
Ça vaut pour les voitures autonomes, |
|
mais aussi pour les robots humanoïdes, |
|
|
|
00:03:27.089 --> 00:03:30.144 |
|
vous savez, ceux qui attendent |
|
patiemment de quitter les ateliers |
|
|
|
00:03:30.164 --> 00:03:32.377 |
|
où ils restent aujourd'hui |
|
largement cantonnés, |
|
|
|
00:03:32.387 --> 00:03:36.921 |
|
mais qui sont déjà en passe de mériter |
|
leurs galons de robots compagnons, |
|
|
|
00:03:36.931 --> 00:03:41.483 |
|
de robots auxiliaires de vie, |
|
de robots sexuels - il en existe déjà... |
|
|
|
00:03:42.766 --> 00:03:47.766 |
|
Le problème, c'est que pour l'instant, |
|
ni le droit français, ni le droit européen |
|
|
|
00:03:47.776 --> 00:03:50.418 |
|
ne font la différence entre ça, |
|
|
|
00:03:52.022 --> 00:03:53.815 |
|
et ça, |
|
|
|
00:03:54.766 --> 00:03:57.157 |
|
ou encore entre ça, |
|
|
|
00:03:58.591 --> 00:04:00.325 |
|
et ça. |
|
|
|
00:04:01.919 --> 00:04:04.516 |
|
Il n'y a rien, pas un critère juridique, |
|
|
|
00:04:04.526 --> 00:04:08.556 |
|
qui permettre de distinguer |
|
le robot du tout-venant des machines, |
|
|
|
00:04:08.586 --> 00:04:10.960 |
|
alors même qu'on commence |
|
tout juste à s'éveiller |
|
|
|
00:04:10.970 --> 00:04:16.963 |
|
aux difficultés qui surgissent |
|
lorsqu'on prétend doter des machines, |
|
|
|
00:04:16.993 --> 00:04:19.670 |
|
pas seulement de la faculté |
|
de se mouvoir par elles-mêmes |
|
|
|
00:04:19.700 --> 00:04:23.223 |
|
comme d'autres robots aspirateurs |
|
ou tondeuses pas bien méchants, |
|
|
|
00:04:23.243 --> 00:04:26.693 |
|
mais surtout de facultés cognitives, |
|
|
|
00:04:26.713 --> 00:04:32.961 |
|
c'est-à-dire des facultés d'apprendre, |
|
d'analyser, de prendre des décisions. |
|
|
|
00:04:33.202 --> 00:04:37.322 |
|
C'est l'exemple type qui nourrit |
|
les fantasmes de ceux qui s'inquiètent |
|
|
|
00:04:37.332 --> 00:04:41.128 |
|
de ce qu'on délègue demain |
|
tout pouvoir de décision à des voitures. |
|
|
|
00:04:41.646 --> 00:04:43.216 |
|
En cas d'accident inévitable, |
|
|
|
00:04:43.236 --> 00:04:47.392 |
|
est-ce que l'algorithme |
|
qui commande les décisions du véhicule |
|
|
|
00:04:47.412 --> 00:04:51.417 |
|
calculera froidement les chances |
|
que survive l'enfant passager, |
|
|
|
00:04:51.427 --> 00:04:53.820 |
|
plutôt que ses parents |
|
assis aux places avant. |
|
|
|
00:04:54.820 --> 00:04:59.950 |
|
À terme, la voiture autonome pourrait |
|
devenir l'agent moral des automobilistes |
|
|
|
00:04:59.960 --> 00:05:04.603 |
|
dans des conditions que |
|
la technologie, mais aussi le droit, |
|
|
|
00:05:04.623 --> 00:05:06.791 |
|
devront s'efforcer de définir. |
|
|
|
00:05:07.175 --> 00:05:10.007 |
|
Alors, je ne suis pas |
|
en train de vous dire |
|
|
|
00:05:10.037 --> 00:05:12.735 |
|
que c'est le droit |
|
qui fait avancer la technologie. |
|
|
|
00:05:13.072 --> 00:05:16.226 |
|
En revanche, il est certain que |
|
sans le droit, on n'y arrivera pas. |
|
|
|
00:05:16.236 --> 00:05:20.565 |
|
Sans le droit, la technologie |
|
ne trouvera aucune légitimité. |
|
|
|
00:05:21.026 --> 00:05:26.468 |
|
Et cette légitimité passe nécessairement |
|
par l'invention de solutions nouvelles |
|
|
|
00:05:26.489 --> 00:05:31.891 |
|
pour appréhender les risques liés au |
|
développement de la robotique cognitive. |
|
|
|
00:05:32.601 --> 00:05:36.567 |
|
Pour l'heure, aucunes des règles |
|
actuelles ne semblent adaptées. |
|
|
|
00:05:37.046 --> 00:05:41.016 |
|
Il y en a une bien connue qui veut |
|
que le fabricant soit responsable |
|
|
|
00:05:41.046 --> 00:05:45.565 |
|
des dommages causés par les défauts |
|
des produits qu'il commercialise. |
|
|
|
00:05:45.745 --> 00:05:50.062 |
|
Voilà une règle si naturelle |
|
qu'elle est simple à justifier, |
|
|
|
00:05:50.072 --> 00:05:53.768 |
|
et pourtant, là encore, |
|
c'est l'autonomie cognitive |
|
|
|
00:05:53.798 --> 00:05:57.345 |
|
qui risque d'en faire |
|
apparaitre les limites. |
|
|
|
00:05:57.770 --> 00:06:00.350 |
|
Prenons l'exemple |
|
des robots auxiliaires de vie. |
|
|
|
00:06:01.030 --> 00:06:05.689 |
|
Il en existe plusieurs |
|
doués pour transporter leur maître |
|
|
|
00:06:05.709 --> 00:06:08.267 |
|
d'une pièce à l'autre de son appartement, |
|
|
|
00:06:08.287 --> 00:06:11.289 |
|
d'autres pour effectuer des tâches |
|
ménagères assez simples, |
|
|
|
00:06:11.309 --> 00:06:14.357 |
|
mais ils vont apprendre des tas |
|
de choses dans les années à venir |
|
|
|
00:06:14.367 --> 00:06:16.197 |
|
au gré de leurs nouvelles versions. |
|
|
|
00:06:16.217 --> 00:06:19.465 |
|
Supposons maintenant |
|
que l'un de ces robots |
|
|
|
00:06:19.475 --> 00:06:22.871 |
|
cause un dommage à son utilisateur. |
|
|
|
00:06:23.654 --> 00:06:28.629 |
|
Il y a la règle suivant laquelle |
|
le fabriquant est responsable |
|
|
|
00:06:28.659 --> 00:06:33.033 |
|
des dommages causés par les défauts |
|
des produits qu'il met en circulation. |
|
|
|
00:06:33.824 --> 00:06:36.342 |
|
Le problème est que, précisément, |
|
il n'est responsable |
|
|
|
00:06:36.362 --> 00:06:40.785 |
|
que pour autant ce défaut existait |
|
au moment de cette mise en circulation. |
|
|
|
00:06:42.113 --> 00:06:48.593 |
|
Or, à considérer des choses évolutives, |
|
qui s'adaptent et changent, |
|
|
|
00:06:48.623 --> 00:06:52.862 |
|
on aura conclu rapidement |
|
que le dommage causé aujourd'hui, |
|
|
|
00:06:52.882 --> 00:06:58.147 |
|
l'a été par une chose différente |
|
de celle mise en circulation précédemment, |
|
|
|
00:06:58.155 --> 00:07:00.382 |
|
quelques semaines |
|
ou quelques mois plus tôt, |
|
|
|
00:07:00.390 --> 00:07:03.385 |
|
puisque le robot a évolué entre temps. |
|
|
|
00:07:03.681 --> 00:07:06.069 |
|
Et voilà la porte grande ouverte |
|
|
|
00:07:06.088 --> 00:07:09.543 |
|
aux constructeurs qui souhaiteront |
|
échapper à leurs responsabilités. |
|
|
|
00:07:10.063 --> 00:07:13.286 |
|
À vrai dire, les juristes n'ont pas fini |
|
de s'arracher les cheveux. |
|
|
|
00:07:13.326 --> 00:07:17.493 |
|
Que se passera-t-il, par exemple, |
|
en cas de revente du robot ? |
|
|
|
00:07:18.288 --> 00:07:21.722 |
|
De la même manière que certains |
|
d'entre nous, moi le premier, |
|
|
|
00:07:21.752 --> 00:07:24.566 |
|
ont pu pester un jour, contre la façon |
|
|
|
00:07:24.586 --> 00:07:30.477 |
|
dont l'ancien propriétaire d'une voiture |
|
malmenait son boitier de vitesse, |
|
|
|
00:07:30.860 --> 00:07:33.849 |
|
on en viendra peut-être |
|
demain à pester contre la façon |
|
|
|
00:07:33.873 --> 00:07:37.042 |
|
dont l'ancien propriétaire d'un robot |
|
en faisait usage, et au fond, |
|
|
|
00:07:37.072 --> 00:07:39.132 |
|
de la mauvaise éducation |
|
qu'il lui donnait, |
|
|
|
00:07:39.142 --> 00:07:42.330 |
|
exactement comme on nous reprocherait |
|
de mal éduquer nos enfants. |
|
|
|
00:07:42.360 --> 00:07:45.240 |
|
Bref, on ne saura jamais |
|
vraiment sur quoi on tombe, |
|
|
|
00:07:45.250 --> 00:07:48.584 |
|
alors faites bien attention à qui pourrait |
|
un jour sonner à votre porte |
|
|
|
00:07:48.614 --> 00:07:51.110 |
|
pour proposer ses services. |
|
|
|
00:07:51.172 --> 00:07:52.992 |
|
(Rires) |
|
|
|
00:07:53.500 --> 00:07:55.343 |
|
Quoi qu'il en soit, |
|
|
|
00:07:55.823 --> 00:07:58.743 |
|
permettre à un robot |
|
de s'adapter à son usager, |
|
|
|
00:07:58.773 --> 00:08:03.583 |
|
c'est déjà admettre que celui-ci exerce |
|
une influence sur son comportement. |
|
|
|
00:08:03.823 --> 00:08:06.453 |
|
Alors pourquoi ne pas se tourner |
|
plutôt vers cet usager |
|
|
|
00:08:06.473 --> 00:08:09.849 |
|
en convoquant le fondement traditionnel |
|
de la responsabilité civile, |
|
|
|
00:08:09.859 --> 00:08:11.593 |
|
qui est le critère de garde. |
|
|
|
00:08:11.601 --> 00:08:15.263 |
|
Ce critère est aussi ancien |
|
que le Code Civil - 1804 - |
|
|
|
00:08:15.283 --> 00:08:20.758 |
|
qui énonce toujours que le maître |
|
est responsable de son animal |
|
|
|
00:08:20.788 --> 00:08:23.579 |
|
car il doit le contrôler, |
|
le surveiller, le garder. |
|
|
|
00:08:23.839 --> 00:08:28.063 |
|
À la faveur de la révolution |
|
industrielle, à la fin du XIXe siècle, |
|
|
|
00:08:28.073 --> 00:08:31.447 |
|
ce critère de garde s'est élargi |
|
à toutes sortes de machines. |
|
|
|
00:08:31.577 --> 00:08:36.949 |
|
Aujourd'hui, c'est tout pouvoir d'usage, |
|
de contrôle et de direction |
|
|
|
00:08:36.969 --> 00:08:38.918 |
|
qu'une personne détient sur une chose. |
|
|
|
00:08:39.058 --> 00:08:42.458 |
|
Donc oui, on pourrait être tenté |
|
de raisonner par analogie |
|
|
|
00:08:42.488 --> 00:08:45.630 |
|
et comparer notre robot à un animal. |
|
|
|
00:08:46.035 --> 00:08:52.294 |
|
Sauf que cette solution contredit l'usage |
|
et l'essence même du robot, |
|
|
|
00:08:52.324 --> 00:08:55.826 |
|
qui est précisément de se débrouiller |
|
tout seul en satisfaisant au mieux |
|
|
|
00:08:55.836 --> 00:08:58.309 |
|
les intérêts de son utilisateur. |
|
|
|
00:08:59.069 --> 00:09:02.657 |
|
Le parallèle peut être fait |
|
avec les drones de loisirs. |
|
|
|
00:09:03.153 --> 00:09:05.068 |
|
Une loi récente, qui date de 2016, |
|
|
|
00:09:05.078 --> 00:09:07.978 |
|
fait désormais obligation |
|
au propriétaire de tels drones |
|
|
|
00:09:07.988 --> 00:09:10.651 |
|
de suivre une formation obligatoire, |
|
|
|
00:09:10.673 --> 00:09:14.054 |
|
notamment pour se familiariser |
|
avec les règles applicables |
|
|
|
00:09:14.090 --> 00:09:18.347 |
|
en matière de survol de zones peuplées. |
|
|
|
00:09:18.916 --> 00:09:22.610 |
|
Mais la raison d'être |
|
de cette formation obligatoire, |
|
|
|
00:09:23.459 --> 00:09:26.266 |
|
c'est que précisément, |
|
il ne s'agit pas d'un robot |
|
|
|
00:09:26.296 --> 00:09:29.826 |
|
mais de choses qui sont |
|
télépilotées par l'homme. |
|
|
|
00:09:29.926 --> 00:09:35.257 |
|
À l'inverse, si on reprend l'exemple |
|
de nos robots auxiliaires de vie, |
|
|
|
00:09:35.264 --> 00:09:37.894 |
|
l'argument qui présidera |
|
|
|
00:09:37.904 --> 00:09:42.182 |
|
à la commercialisation |
|
et au succès de telles machines, |
|
|
|
00:09:42.213 --> 00:09:45.951 |
|
tient au fait que l'usager |
|
n'aura plus qu'à se soucier |
|
|
|
00:09:45.961 --> 00:09:48.733 |
|
des ordres qu'il pourra |
|
leur donner, et plus du tout |
|
|
|
00:09:48.743 --> 00:09:52.898 |
|
de la façon dont elles |
|
s'y prennent pour les exécuter. |
|
|
|
00:09:53.032 --> 00:09:56.375 |
|
Et finalement, ce qu'on appelle |
|
le « droit de la consommation », |
|
|
|
00:09:56.385 --> 00:09:58.954 |
|
dont la finalité est de |
|
protéger les consommateurs, |
|
|
|
00:09:58.984 --> 00:10:00.494 |
|
notamment en les informant, |
|
|
|
00:10:00.514 --> 00:10:05.044 |
|
eh bien ce droit devra peut-être |
|
composer avec un paradoxe inquiétant, |
|
|
|
00:10:05.064 --> 00:10:10.079 |
|
puisque plus on autonomisera |
|
les choses, plus elles seront complexes, |
|
|
|
00:10:10.120 --> 00:10:12.136 |
|
mais moins on aura besoin |
|
de les comprendre |
|
|
|
00:10:12.146 --> 00:10:17.100 |
|
à la différence de notre pilote de drones |
|
qu'on cherche à responsabiliser davantage. |
|
|
|
00:10:19.327 --> 00:10:24.635 |
|
Alors, vous saisissez surtout à quel point |
|
le critère de garde est ici inadapté. |
|
|
|
00:10:24.665 --> 00:10:28.521 |
|
Ce n'est plus tant |
|
l'homme qui garde la machine, |
|
|
|
00:10:28.551 --> 00:10:30.510 |
|
mais la machine qui garde l'homme, |
|
|
|
00:10:30.530 --> 00:10:34.190 |
|
en satisfaisant à des besoins qu'il n'est |
|
plus capable de satisfaire lui-même, |
|
|
|
00:10:34.210 --> 00:10:36.699 |
|
voire en faisant preuve sur lui d'autorité |
|
|
|
00:10:36.719 --> 00:10:39.489 |
|
quand il s'agira, par exemple, |
|
de lui refuser un médicament |
|
|
|
00:10:39.499 --> 00:10:42.061 |
|
qu'il a déjà pris dans la journée. |
|
|
|
00:10:42.676 --> 00:10:44.397 |
|
Alors résumons. |
|
|
|
00:10:44.439 --> 00:10:48.802 |
|
Il y a d'un côté, la responsabilité |
|
du constructeur qui parait naturelle |
|
|
|
00:10:48.812 --> 00:10:50.853 |
|
mais qu'on aura plus de mal à justifier |
|
|
|
00:10:50.873 --> 00:10:55.401 |
|
au fur et à mesure que les choses |
|
s'autonomiseront et révéleront des défauts |
|
|
|
00:10:55.426 --> 00:10:58.750 |
|
qui n'existaient pas au moment |
|
de leur mise en circulation. |
|
|
|
00:10:59.050 --> 00:11:01.798 |
|
Et de l'autre, il y a |
|
la responsabilité de l'usager, |
|
|
|
00:11:01.808 --> 00:11:04.198 |
|
tout aussi critiquable |
|
dans la mesure où, a priori, |
|
|
|
00:11:04.218 --> 00:11:06.995 |
|
ce n'est pas à lui de comprendre |
|
et de contrôler une chose |
|
|
|
00:11:07.005 --> 00:11:09.730 |
|
qui est censée se débrouiller toute seule. |
|
|
|
00:11:10.305 --> 00:11:14.339 |
|
Il resterait bien une troisième voie |
|
à laquelle certains ont pu penser, |
|
|
|
00:11:14.349 --> 00:11:16.844 |
|
c'est la responsabilité |
|
du robot, évidemment. |
|
|
|
00:11:16.864 --> 00:11:21.524 |
|
Elle présuppose qu'on cède |
|
au mythe du robot-personne, |
|
|
|
00:11:21.554 --> 00:11:24.287 |
|
c'est-à-dire qu'on l'affuble |
|
d'une personnalité juridique |
|
|
|
00:11:24.307 --> 00:11:28.692 |
|
comme vous et moi, |
|
ou comme une entreprise |
|
|
|
00:11:28.712 --> 00:11:31.622 |
|
qu'on inscrit au Registre |
|
du Commerce et des Sociétés |
|
|
|
00:11:31.642 --> 00:11:33.421 |
|
et à qui on affecte un capital. |
|
|
|
00:11:33.441 --> 00:11:36.297 |
|
Eh bien, c'est exactement |
|
sur cette voie-là que s'est engagé, |
|
|
|
00:11:36.317 --> 00:11:40.027 |
|
il y a déjà plusieurs années, |
|
l'état du Nevada aux Etats-Unis, |
|
|
|
00:11:40.037 --> 00:11:43.366 |
|
en répertoriant systématiquement |
|
ces voitures autonomes |
|
|
|
00:11:43.376 --> 00:11:48.496 |
|
sur un fichier dédié, |
|
et en leur affectant un capital |
|
|
|
00:11:48.516 --> 00:11:52.728 |
|
qui pourrait servir |
|
d'assurance en cas d'accident. |
|
|
|
00:11:53.465 --> 00:11:56.779 |
|
À mon avis, on n'a pas besoin |
|
de s’embarrasser avec une telle solution |
|
|
|
00:11:56.799 --> 00:11:59.321 |
|
lorsqu'il suffira de reporter |
|
le poids de l'assurance |
|
|
|
00:11:59.351 --> 00:12:01.790 |
|
sur les épaules du constructeur |
|
ou de l'usager |
|
|
|
00:12:01.800 --> 00:12:06.711 |
|
ça ne coûtera presque plus rien puisqu'il |
|
n'y aura pratiquement plus d'accidents. |
|
|
|
00:12:07.370 --> 00:12:11.740 |
|
Mais surtout, cette solution |
|
me parait terriblement dangereuse. |
|
|
|
00:12:11.760 --> 00:12:14.234 |
|
parce qu'au fond, |
|
la personnalité juridique, |
|
|
|
00:12:14.264 --> 00:12:18.622 |
|
c'est l'aptitude |
|
à être titulaire de droits, |
|
|
|
00:12:18.631 --> 00:12:21.538 |
|
l'aptitude à être titulaire |
|
de prérogatives juridiques. |
|
|
|
00:12:21.798 --> 00:12:24.145 |
|
Est-ce qu'on en viendra |
|
demain à considérer |
|
|
|
00:12:24.165 --> 00:12:29.281 |
|
que notre robot mérite d'être protégé |
|
dans son intégrité physique, |
|
|
|
00:12:29.292 --> 00:12:33.635 |
|
dans sa vie privée, dans |
|
les œuvres d'art qu'il pourrait créer ? |
|
|
|
00:12:34.241 --> 00:12:35.975 |
|
Personnellement, je ne l'espère pas, |
|
|
|
00:12:35.985 --> 00:12:38.979 |
|
et en tout cas, cet avenir-là |
|
me semble très improbable. |
|
|
|
00:12:39.005 --> 00:12:40.795 |
|
Imaginez ... |
|
|
|
00:12:41.425 --> 00:12:43.833 |
|
En droit français, |
|
on a mis plus de deux siècles |
|
|
|
00:12:43.853 --> 00:12:47.599 |
|
à admettre que les animaux |
|
n'étaient pas des choses, |
|
|
|
00:12:47.619 --> 00:12:49.897 |
|
mais des êtres vivants |
|
doués de sensibilité |
|
|
|
00:12:49.907 --> 00:12:52.704 |
|
sans pour autant en faire des personnes. |
|
|
|
00:12:52.724 --> 00:12:56.674 |
|
Combien de temps faudra-t-il avant |
|
qu'on admette que des machines - |
|
|
|
00:12:56.684 --> 00:13:01.389 |
|
soit des êtres non vivants - |
|
méritent une telle personnalité ? |
|
|
|
00:13:01.998 --> 00:13:04.487 |
|
Vous l'avez compris, |
|
je ne suis pas du tout favorable |
|
|
|
00:13:04.507 --> 00:13:06.627 |
|
à ce qu'on reconnaisse |
|
des droits aux robots. |
|
|
|
00:13:06.647 --> 00:13:09.258 |
|
En revanche, je le suis bien davantage |
|
|
|
00:13:09.278 --> 00:13:13.678 |
|
à l'émergence et au développement |
|
d'un « Droit des robots », |
|
|
|
00:13:13.698 --> 00:13:16.729 |
|
un Droit des robots placé |
|
sous le signe de la prudence, |
|
|
|
00:13:16.739 --> 00:13:19.389 |
|
voire de la défiance |
|
vis-à-vis de ces choses, |
|
|
|
00:13:19.394 --> 00:13:21.034 |
|
dont les capacités extraordinaires |
|
|
|
00:13:21.044 --> 00:13:24.412 |
|
les portent à disputer |
|
à l'homme son autorité. |
|
|
|
00:13:24.910 --> 00:13:27.308 |
|
Ce Droit des robots, je le définirai |
|
|
|
00:13:27.318 --> 00:13:31.537 |
|
comme l'ensemble des règles |
|
destinées à organiser |
|
|
|
00:13:31.557 --> 00:13:36.109 |
|
l'introduction des machines |
|
autonomes dans la vie sociale. |
|
|
|
00:13:36.566 --> 00:13:39.133 |
|
Je vous ai parlé du Droit |
|
de la responsabilité civile |
|
|
|
00:13:39.163 --> 00:13:42.827 |
|
j'aurais pu vous parler d'autres matières |
|
comme le Droit des incapacités. |
|
|
|
00:13:43.050 --> 00:13:46.283 |
|
Faudra-t-il que demain, |
|
le juge des tutelles se prononce |
|
|
|
00:13:46.303 --> 00:13:50.989 |
|
sur l'opportunité de dépêcher |
|
un robot auxiliaire de vie |
|
|
|
00:13:51.014 --> 00:13:53.051 |
|
au chevet d'une personne dépendante, |
|
|
|
00:13:53.061 --> 00:13:56.748 |
|
surtout si elle souffre de troubles |
|
mentaux, c'est une vraie question. |
|
|
|
00:13:57.294 --> 00:14:00.103 |
|
Ce Droit des robots n'existe pas encore, |
|
|
|
00:14:00.113 --> 00:14:04.155 |
|
mais c'est déjà la réalité d'aujourd'hui, |
|
|
|
00:14:04.171 --> 00:14:06.144 |
|
en tous cas celle de demain. |
|
|
|
00:14:06.175 --> 00:14:09.697 |
|
Mais pour l'instant, ne craignez rien. |
|
|
|
00:14:10.041 --> 00:14:14.651 |
|
Si un jour, vous décidez |
|
d'acquérir un robot sexuel, |
|
|
|
00:14:14.674 --> 00:14:18.164 |
|
et que, par une longue soirée d'hiver, |
|
|
|
00:14:18.185 --> 00:14:20.153 |
|
vous y allez un peu fort, |
|
|
|
00:14:20.172 --> 00:14:23.314 |
|
parole de juriste, |
|
tout ce que vous risquez, |
|
|
|
00:14:23.324 --> 00:14:25.124 |
|
c'est de faire sauter la garantie. |
|
|
|
00:14:25.204 --> 00:14:26.594 |
|
Merci. |
|
|
|
00:14:26.634 --> 00:14:28.774 |
|
(Applaudissements) |
|
|
|
|