|
WEBVTT |
|
Kind: captions |
|
Language: fr |
|
|
|
00:00:00.000 --> 00:00:07.000 |
|
Traducteur: Mohand Habchi |
|
Relecteur: Elisabeth Buffard |
|
|
|
00:00:08.258 --> 00:00:10.758 |
|
Bonjour Mesdames, Messieurs. |
|
|
|
00:00:10.758 --> 00:00:13.773 |
|
Un bonheur de voyager avec vous |
|
|
|
00:00:13.773 --> 00:00:18.512 |
|
dans le monde des robots |
|
en milieu humain. |
|
|
|
00:00:18.512 --> 00:00:21.511 |
|
Les robots sortent des laboratoires, |
|
|
|
00:00:21.511 --> 00:00:28.263 |
|
et envahissent les hôpitaux, |
|
les entreprises, les usines, |
|
|
|
00:00:28.263 --> 00:00:30.533 |
|
et même vos domiciles. |
|
|
|
00:00:31.253 --> 00:00:35.289 |
|
Ces robots vivent dans le monde 4.0. |
|
|
|
00:00:35.289 --> 00:00:39.020 |
|
Le 3.0 vous connaissez déjà, |
|
c'est l'Internet des objets. |
|
|
|
00:00:39.020 --> 00:00:42.243 |
|
Le 2.0, vous y êtes, |
|
c'est les réseaux sociaux. |
|
|
|
00:00:42.243 --> 00:00:46.758 |
|
Le 1.0 est presque dépassé, |
|
c'est les sites web. |
|
|
|
00:00:46.758 --> 00:00:53.515 |
|
Ces robots, robots conducteurs, |
|
robots médecins, robots compagnons, |
|
|
|
00:00:53.515 --> 00:00:56.781 |
|
je vous propose un voyage avec eux. |
|
|
|
00:00:57.701 --> 00:01:03.251 |
|
Première étape, partons |
|
avec les robots conducteurs. |
|
|
|
00:01:03.251 --> 00:01:08.776 |
|
Les constructeurs automobiles lancent |
|
sur les routes des voitures autonomes, |
|
|
|
00:01:08.776 --> 00:01:11.759 |
|
véritables robots à quatre roues, |
|
|
|
00:01:11.759 --> 00:01:16.234 |
|
sans aucun cadre juridique |
|
très particulier. |
|
|
|
00:01:16.234 --> 00:01:21.756 |
|
Et pourtant, quel impact me direz-vous ? |
|
|
|
00:01:21.756 --> 00:01:25.255 |
|
Imaginez une cour d'assises. |
|
|
|
00:01:25.255 --> 00:01:30.510 |
|
Vous êtes le jury, un jury tétanisé |
|
par les enjeux technologiques. |
|
|
|
00:01:30.510 --> 00:01:33.267 |
|
A la barre, l'officier |
|
de police judiciaire |
|
|
|
00:01:33.267 --> 00:01:35.967 |
|
présente les lieux du drame. |
|
|
|
00:01:35.967 --> 00:01:40.501 |
|
Une voiture A sur un tronçon de 10 km |
|
|
|
00:01:40.501 --> 00:01:43.001 |
|
encastré dans la montagne, |
|
|
|
00:01:43.001 --> 00:01:45.253 |
|
deux voies séparées |
|
par une ligne blanche, |
|
|
|
00:01:45.253 --> 00:01:47.768 |
|
la voiture A descend normalement, |
|
|
|
00:01:47.768 --> 00:01:51.535 |
|
dans l’habitacle, une seule |
|
personne, le conducteur. |
|
|
|
00:01:52.505 --> 00:01:58.248 |
|
Alors, arrive au kilomètre 7, |
|
une voiture à toute vitesse, |
|
|
|
00:01:58.248 --> 00:02:03.150 |
|
alors que remonte une autre voiture, |
|
une voiture C, sans conducteur, |
|
|
|
00:02:03.150 --> 00:02:04.500 |
|
dans l’habitacle, personne, |
|
|
|
00:02:04.500 --> 00:02:09.247 |
|
les deux voitures sont face à face, |
|
la collision est inévitable, |
|
|
|
00:02:09.247 --> 00:02:13.269 |
|
et pourtant, la voiture C va se déporter, |
|
|
|
00:02:13.269 --> 00:02:16.773 |
|
fracasser la voiture A |
|
avec une violence inouïe, |
|
|
|
00:02:16.773 --> 00:02:20.228 |
|
le conducteur n'a aucune chance. |
|
|
|
00:02:22.738 --> 00:02:26.760 |
|
L'enquête va montrer |
|
que l'ordinateur de bord, |
|
|
|
00:02:26.760 --> 00:02:32.490 |
|
a d'un clic de roue |
|
organisé la rencontre mortelle. |
|
|
|
00:02:32.490 --> 00:02:37.486 |
|
La caméra avant a vu |
|
quatre personnes dans la voiture B, |
|
|
|
00:02:37.486 --> 00:02:39.251 |
|
une personne dans la voiture A, |
|
|
|
00:02:39.251 --> 00:02:42.264 |
|
alors l'algorithme, celui |
|
qui existe aujourd'hui, |
|
|
|
00:02:42.264 --> 00:02:46.750 |
|
l'algorithme, concentré |
|
d’intelligence artificielle, |
|
|
|
00:02:46.750 --> 00:02:52.256 |
|
confondant jeu d'échecs |
|
et circulation routière, |
|
|
|
00:02:52.256 --> 00:02:57.497 |
|
décida de sacrifier la voiture humaine A. |
|
|
|
00:02:57.497 --> 00:03:01.281 |
|
Chaque juré dans sa tête |
|
pense quatre contre un. |
|
|
|
00:03:02.481 --> 00:03:08.264 |
|
Et dans ce silence mathématique, |
|
le président reprend la parole, |
|
|
|
00:03:08.264 --> 00:03:11.518 |
|
pose la question, |
|
et qui est responsable ? |
|
|
|
00:03:11.518 --> 00:03:12.543 |
|
Qui est responsable ? |
|
|
|
00:03:12.543 --> 00:03:16.520 |
|
La mère qui a ordonné à la voiture |
|
d'aller chercher les enfants ? |
|
|
|
00:03:16.520 --> 00:03:17.772 |
|
Le père peut-être, |
|
|
|
00:03:17.772 --> 00:03:22.248 |
|
le père qui est propriétaire, mais qui |
|
était absent au moment des faits ? |
|
|
|
00:03:22.248 --> 00:03:26.496 |
|
Le vendeur d'une voiture aussi singulière, |
|
qui porte une marque, vous la connaissez ? |
|
|
|
00:03:27.476 --> 00:03:32.252 |
|
Ou alors, le concepteur de l'algorithme. |
|
|
|
00:03:32.252 --> 00:03:34.514 |
|
Concentré d’intelligence artificielle. |
|
|
|
00:03:34.514 --> 00:03:38.530 |
|
Pour aider le jury à décider, |
|
|
|
00:03:38.530 --> 00:03:42.491 |
|
il appelle l'expert judiciaire |
|
en robotique pour nous éclairer. |
|
|
|
00:03:42.491 --> 00:03:44.763 |
|
Cet expert commence par : |
|
|
|
00:03:44.763 --> 00:03:50.514 |
|
« Cette situation dramatique |
|
ne peut pas exister dans le monde 4.0, |
|
|
|
00:03:50.514 --> 00:03:51.764 |
|
le monde des robots, |
|
|
|
00:03:51.764 --> 00:03:56.012 |
|
parce que les hommes sont trop lents |
|
dans leurs capacités fonctionnelles, |
|
|
|
00:03:56.012 --> 00:03:58.258 |
|
ils n'auraient pas eu |
|
la possibilité de voir |
|
|
|
00:03:58.258 --> 00:04:03.259 |
|
quatre personnes, une personne, |
|
et d'arbitrer en temps quasi réel. » |
|
|
|
00:04:03.259 --> 00:04:09.502 |
|
La révolution robotique d'aujourd'hui |
|
est la combinaison de deux technologies. |
|
|
|
00:04:09.502 --> 00:04:14.001 |
|
La première, les capteurs |
|
hyper performants, supérieurs à l'homme. |
|
|
|
00:04:14.001 --> 00:04:18.239 |
|
La deuxième technologie, |
|
l’intelligence artificielle embarquée. |
|
|
|
00:04:18.239 --> 00:04:20.259 |
|
Ces nouveaux capteurs |
|
permettent aux robots |
|
|
|
00:04:20.259 --> 00:04:23.259 |
|
de prendre la mesure |
|
de leur environnement. |
|
|
|
00:04:23.259 --> 00:04:26.036 |
|
Les informations acquises par les capteurs |
|
|
|
00:04:26.036 --> 00:04:31.516 |
|
sont transmises à la plateforme |
|
d’intelligence artificielle en temps réel. |
|
|
|
00:04:31.516 --> 00:04:35.760 |
|
Alors, après les espoirs des années 80, |
|
|
|
00:04:35.760 --> 00:04:39.524 |
|
et les désillusions |
|
des années 90, j'y étais, |
|
|
|
00:04:39.524 --> 00:04:43.735 |
|
aujourd'hui, l’intelligence artificielle |
|
permet de doter les robots |
|
|
|
00:04:43.735 --> 00:04:49.541 |
|
d'une pensée primitive |
|
sans aucun cadre juridique. |
|
|
|
00:04:51.251 --> 00:04:56.493 |
|
L'avocat de la partie civile, et l'avocat |
|
général soutiennent la même thèse. |
|
|
|
00:04:56.493 --> 00:05:02.513 |
|
Le coupable est celui |
|
qui a écrit le clic mortel. |
|
|
|
00:05:03.473 --> 00:05:08.486 |
|
Le meurtrier est celui |
|
qui a codé l'algorithme. |
|
|
|
00:05:08.486 --> 00:05:12.788 |
|
Il a programmé une peine de mort privée, |
|
|
|
00:05:14.248 --> 00:05:19.253 |
|
alors que dans ce cadre-là, |
|
|
|
00:05:19.253 --> 00:05:22.743 |
|
il n'y avait pas d'autre solution, |
|
|
|
00:05:22.743 --> 00:05:27.795 |
|
que peut-être l'intimité |
|
du rédacteur du code. |
|
|
|
00:05:28.725 --> 00:05:33.985 |
|
Mais alors, l'avocat de la défense |
|
prend la parole, |
|
|
|
00:05:33.985 --> 00:05:36.495 |
|
et dit : « Non, non coupable. » |
|
|
|
00:05:36.495 --> 00:05:41.237 |
|
Et sachant que bien évidemment |
|
une telle position était agressive, |
|
|
|
00:05:41.237 --> 00:05:44.789 |
|
il se tourne vers le banc des accusés, |
|
|
|
00:05:46.499 --> 00:05:50.498 |
|
et il leur dit : |
|
« Vous n'êtes pas coupable. » |
|
|
|
00:05:50.498 --> 00:05:54.723 |
|
Et puis il se tourne |
|
vers la partie civile, |
|
|
|
00:05:54.723 --> 00:05:59.762 |
|
il ajoute: « Madame, |
|
je respecte votre chagrin, |
|
|
|
00:05:59.762 --> 00:06:03.759 |
|
mais l'écriture du code informatique |
|
n'est pas l'écriture de la loi. |
|
|
|
00:06:03.759 --> 00:06:08.766 |
|
En l'absence d'un texte particulier |
|
visant cette situation, |
|
|
|
00:06:08.766 --> 00:06:13.525 |
|
ils sont innocents, c'est un accident. » |
|
|
|
00:06:13.525 --> 00:06:16.749 |
|
Verdict : acquittement. |
|
|
|
00:06:16.749 --> 00:06:19.749 |
|
C'est un futur procès, |
|
|
|
00:06:19.749 --> 00:06:24.759 |
|
qui au-delà du caractère |
|
anxiogène de la robotique, |
|
|
|
00:06:24.759 --> 00:06:29.519 |
|
dissimule le statut juridique |
|
des algorithmes. |
|
|
|
00:06:30.494 --> 00:06:35.254 |
|
Personne ne contrôle |
|
la voiture C autonome, |
|
|
|
00:06:35.254 --> 00:06:37.984 |
|
comme personne aujourd'hui ne contrôle, |
|
|
|
00:06:37.984 --> 00:06:42.514 |
|
n'est le gardien de la Google Car |
|
qui circule sur les routes américaines |
|
|
|
00:06:42.514 --> 00:06:45.250 |
|
en toute liberté. |
|
|
|
00:06:46.500 --> 00:06:50.500 |
|
Au terme de cette étape, je vous propose |
|
d'aller avec les robots médecins, |
|
|
|
00:06:50.500 --> 00:06:53.510 |
|
ce sera peut-être moins dramatique. |
|
|
|
00:06:53.510 --> 00:06:54.770 |
|
Vous pouvez rêver. |
|
|
|
00:06:54.770 --> 00:06:57.280 |
|
(Rires) |
|
|
|
00:06:59.500 --> 00:07:02.740 |
|
Les robots pullulent dans les hôpitaux. |
|
|
|
00:07:02.740 --> 00:07:06.780 |
|
Des laboratoires d'analyses médicales, |
|
à la plateforme chirurgicale, |
|
|
|
00:07:06.780 --> 00:07:08.500 |
|
ils sont partout. |
|
|
|
00:07:08.500 --> 00:07:11.770 |
|
Les robots actifs commencent |
|
à remplacer les robots passifs, |
|
|
|
00:07:11.770 --> 00:07:14.750 |
|
ceux qui sont télé-opérés. |
|
|
|
00:07:14.750 --> 00:07:21.280 |
|
Les robots aujourd'hui actifs opèrent |
|
de bout en bout certaines pathologies. |
|
|
|
00:07:22.220 --> 00:07:28.520 |
|
Le chirurgien est relégué aux phases |
|
de préparation et de supervision. |
|
|
|
00:07:29.940 --> 00:07:35.264 |
|
Observez : un hôpital, |
|
service des urgences, |
|
|
|
00:07:35.264 --> 00:07:40.790 |
|
une femme, elle entre |
|
pour un diagnostic du cancer. |
|
|
|
00:07:42.237 --> 00:07:44.497 |
|
A l’accueil, on l'écoute. |
|
|
|
00:07:44.497 --> 00:07:49.507 |
|
L'infirmière de dispatching lui propose : |
|
|
|
00:07:49.507 --> 00:07:53.777 |
|
« Voulez-vous un rendez-vous |
|
avec un médecin ou un robot ? » |
|
|
|
00:07:53.777 --> 00:07:57.967 |
|
Énervée, elle répond : « Un humain ! » |
|
|
|
00:07:57.967 --> 00:08:02.517 |
|
« Couloir 2, madame, porte 7. » |
|
|
|
00:08:03.739 --> 00:08:07.269 |
|
Mauvais choix, très mauvais choix. |
|
|
|
00:08:07.269 --> 00:08:10.493 |
|
Couloir 1, Watson consulte. |
|
|
|
00:08:10.493 --> 00:08:12.103 |
|
Watson c'est l'avatar d'IBM, |
|
|
|
00:08:12.103 --> 00:08:18.493 |
|
le champion qui a battu |
|
les meilleurs au jeu Jeopardy, |
|
|
|
00:08:18.493 --> 00:08:21.752 |
|
et qui aujourd'hui est capable |
|
de diagnostics supérieurs, |
|
|
|
00:08:21.752 --> 00:08:26.482 |
|
dans certains domaines, |
|
à des grands professeurs. |
|
|
|
00:08:26.482 --> 00:08:30.482 |
|
La supériorité de Watson, |
|
robot très particulier, |
|
|
|
00:08:30.482 --> 00:08:33.511 |
|
est incapable d'entrer |
|
dans le droit médical. |
|
|
|
00:08:33.511 --> 00:08:36.032 |
|
Alors, je suis d'accord avec vous, |
|
|
|
00:08:36.032 --> 00:08:40.250 |
|
l'erreur humaine n'est pas |
|
équivalente à l'erreur robot, |
|
|
|
00:08:40.250 --> 00:08:41.264 |
|
ça n'a pas de sens, |
|
|
|
00:08:41.264 --> 00:08:43.533 |
|
mais soumettre les robots |
|
aux droits des objets, |
|
|
|
00:08:43.533 --> 00:08:45.282 |
|
c'est aussi un non sens. |
|
|
|
00:08:45.282 --> 00:08:47.512 |
|
Comment admettre que l'erreur robot, |
|
|
|
00:08:47.512 --> 00:08:50.515 |
|
d'un robot qui est supérieur |
|
à ses collègues médecins, |
|
|
|
00:08:50.515 --> 00:08:54.245 |
|
puisse être traitée |
|
par un défaut d'une machine. |
|
|
|
00:08:54.245 --> 00:08:57.745 |
|
J'arrive au terme de ce second voyage, |
|
|
|
00:08:57.745 --> 00:09:00.495 |
|
et pour cette nouvelle |
|
espèce d'être artificiel, |
|
|
|
00:09:00.495 --> 00:09:03.975 |
|
il faudra nécessairement |
|
réguler la liberté des robots, |
|
|
|
00:09:03.975 --> 00:09:07.265 |
|
comme on a régulé |
|
la liberté des hommes. |
|
|
|
00:09:07.265 --> 00:09:11.235 |
|
Les personnes physiques ont |
|
une personnalité juridique : |
|
|
|
00:09:11.235 --> 00:09:15.265 |
|
droit de propriété, droit à l'identité, |
|
droit à la personnalité. |
|
|
|
00:09:15.265 --> 00:09:17.735 |
|
Les personnes morales, |
|
telles que les entreprises, |
|
|
|
00:09:17.735 --> 00:09:19.515 |
|
ont une personnalité juridique, |
|
|
|
00:09:19.515 --> 00:09:21.755 |
|
certes, avec des adaptations nécessaires. |
|
|
|
00:09:21.755 --> 00:09:26.775 |
|
La réclusion criminelle à perpétuité, |
|
eh bien, c'est la fermeture de la société. |
|
|
|
00:09:26.775 --> 00:09:30.775 |
|
Alors, dans ce cadre-là, |
|
personne physique, |
|
|
|
00:09:30.775 --> 00:09:33.995 |
|
personnalité juridique générale, |
|
personne morale, |
|
|
|
00:09:33.995 --> 00:09:36.485 |
|
personnalité juridique particulière, |
|
|
|
00:09:36.485 --> 00:09:37.495 |
|
personne robot, |
|
|
|
00:09:37.495 --> 00:09:41.745 |
|
lançons le terme |
|
"personnalité juridique singulière". |
|
|
|
00:09:43.215 --> 00:09:46.259 |
|
Dans ce monde 4.0 des robots, |
|
|
|
00:09:46.259 --> 00:09:50.240 |
|
les robots sont sujets |
|
et non pas objets de droit. |
|
|
|
00:09:50.240 --> 00:09:51.760 |
|
Dernier élément de ce parcours. |
|
|
|
00:09:51.760 --> 00:09:56.280 |
|
Examinons la personnalité juridique |
|
à travers ces singularités que sont |
|
|
|
00:09:56.280 --> 00:10:00.250 |
|
la responsabilité, |
|
la traçabilité, et la dignité, |
|
|
|
00:10:00.250 --> 00:10:01.620 |
|
l'enjeu c'est la dignité, |
|
|
|
00:10:01.620 --> 00:10:03.251 |
|
la responsabilité c'est simple, |
|
|
|
00:10:03.251 --> 00:10:07.738 |
|
en cascade, le robot responsable, |
|
c'est normal, il est libre. |
|
|
|
00:10:07.738 --> 00:10:11.258 |
|
Ensuite, la plateforme, |
|
le responsable, celui qui la fournit, |
|
|
|
00:10:11.258 --> 00:10:15.258 |
|
c'est elle qui a permis |
|
le socle de cette liberté en deuxième. |
|
|
|
00:10:15.258 --> 00:10:17.508 |
|
L'utilisateur, parce que |
|
c'est lui qui a défini |
|
|
|
00:10:17.508 --> 00:10:20.508 |
|
les conditions d'utilisation |
|
et d'apprentissage. |
|
|
|
00:10:20.508 --> 00:10:23.718 |
|
Oui, les robots pensent quelque part. |
|
|
|
00:10:23.718 --> 00:10:26.268 |
|
Et puis le système classique. |
|
|
|
00:10:26.268 --> 00:10:28.758 |
|
La traçabilité des hommes |
|
c'est impossible, |
|
|
|
00:10:28.758 --> 00:10:32.218 |
|
on est libre, et on a pas le droit |
|
de suivre ni notre identité, |
|
|
|
00:10:32.218 --> 00:10:34.508 |
|
ni nos activités sauf cas particulier. |
|
|
|
00:10:34.508 --> 00:10:36.768 |
|
Pour les robots, ça doit être différent. |
|
|
|
00:10:36.768 --> 00:10:41.258 |
|
Bien évidemment. Les robots |
|
doivent décliner leur identité. |
|
|
|
00:10:41.258 --> 00:10:44.448 |
|
Les robots, c'est un nouveau genre. |
|
|
|
00:10:45.248 --> 00:10:50.228 |
|
Homme, un, deux, femme, |
|
trois, robot. |
|
|
|
00:10:51.198 --> 00:10:56.498 |
|
Alors, c'est sur le terrain de la dignité |
|
que se fait la différence. |
|
|
|
00:10:56.498 --> 00:10:59.488 |
|
La dignité des robots. |
|
|
|
00:10:59.488 --> 00:11:01.528 |
|
Oui, c'est important |
|
la dignité des robots, |
|
|
|
00:11:01.528 --> 00:11:06.758 |
|
regardez, c'est une petite poupée, |
|
elle parle, elle dialogue avec une enfant, |
|
|
|
00:11:06.758 --> 00:11:09.978 |
|
et toutes ces données |
|
sont envoyées aux États-Unis, |
|
|
|
00:11:09.978 --> 00:11:12.268 |
|
pour pouvoir être appréciées, |
|
|
|
00:11:12.268 --> 00:11:15.258 |
|
cette intimité revient |
|
par des réponses affinées, |
|
|
|
00:11:15.258 --> 00:11:18.748 |
|
mais aussi un encerclement informationnel. |
|
|
|
00:11:18.748 --> 00:11:24.278 |
|
L'enfant va être guidé dans ses désirs |
|
à travers ses réponses, |
|
|
|
00:11:24.278 --> 00:11:26.058 |
|
et la politique marketing. |
|
|
|
00:11:26.058 --> 00:11:27.478 |
|
Voilà où nous en sommes. |
|
|
|
00:11:27.478 --> 00:11:30.768 |
|
Nao, un autre robot. |
|
|
|
00:11:30.768 --> 00:11:34.514 |
|
Il y a tant d'intimité |
|
dans un enfant autiste |
|
|
|
00:11:34.514 --> 00:11:35.650 |
|
qui revient à la vie, |
|
|
|
00:11:35.650 --> 00:11:40.240 |
|
ou une personne âgée qui reprend |
|
le goût de rire en dialoguant avec Nao. |
|
|
|
00:11:40.240 --> 00:11:44.530 |
|
Nao a été pensé design by éthique. |
|
|
|
00:11:44.530 --> 00:11:48.750 |
|
On peut espérer, |
|
et au terme de ce voyage, |
|
|
|
00:11:48.750 --> 00:11:55.750 |
|
l'année 2015 marque l’avènement |
|
d'un nouveau monde peuplé de robots. |
|
|
|
00:11:56.520 --> 00:12:00.758 |
|
Je propose de leur reconnaître |
|
la personnalité juridique, |
|
|
|
00:12:00.758 --> 00:12:04.742 |
|
conjuguant vie robotique et vie humaine, |
|
|
|
00:12:04.742 --> 00:12:09.762 |
|
où responsabilité, traçabilité, |
|
et dignité du robot, |
|
|
|
00:12:09.762 --> 00:12:13.752 |
|
formeront le socle du droit des robots. |
|
|
|
00:12:13.752 --> 00:12:20.232 |
|
Créons-le ensemble, c'est ça |
|
la nouvelle vie avec les robots. |
|
|
|
00:12:20.232 --> 00:12:24.266 |
|
(Applaudissements) |
|
|
|
|