multilingual-TEDX-fr / data /train /vtt /3qkjEeV3Sno.fr.vtt
BrunoHays's picture
Upload folder using huggingface_hub
e6ce93e
raw
history blame
15 kB
WEBVTT
Kind: captions
Language: fr
00:00:00.000 --> 00:00:07.000
Traducteur: Mohand Habchi
Relecteur: Elisabeth Buffard
00:00:08.258 --> 00:00:10.758
Bonjour Mesdames, Messieurs.
00:00:10.758 --> 00:00:13.773
Un bonheur de voyager avec vous
00:00:13.773 --> 00:00:18.512
dans le monde des robots
en milieu humain.
00:00:18.512 --> 00:00:21.511
Les robots sortent des laboratoires,
00:00:21.511 --> 00:00:28.263
et envahissent les hôpitaux,
les entreprises, les usines,
00:00:28.263 --> 00:00:30.533
et même vos domiciles.
00:00:31.253 --> 00:00:35.289
Ces robots vivent dans le monde 4.0.
00:00:35.289 --> 00:00:39.020
Le 3.0 vous connaissez déjà,
c'est l'Internet des objets.
00:00:39.020 --> 00:00:42.243
Le 2.0, vous y êtes,
c'est les réseaux sociaux.
00:00:42.243 --> 00:00:46.758
Le 1.0 est presque dépassé,
c'est les sites web.
00:00:46.758 --> 00:00:53.515
Ces robots, robots conducteurs,
robots médecins, robots compagnons,
00:00:53.515 --> 00:00:56.781
je vous propose un voyage avec eux.
00:00:57.701 --> 00:01:03.251
Première étape, partons
avec les robots conducteurs.
00:01:03.251 --> 00:01:08.776
Les constructeurs automobiles lancent
sur les routes des voitures autonomes,
00:01:08.776 --> 00:01:11.759
véritables robots à quatre roues,
00:01:11.759 --> 00:01:16.234
sans aucun cadre juridique
très particulier.
00:01:16.234 --> 00:01:21.756
Et pourtant, quel impact me direz-vous ?
00:01:21.756 --> 00:01:25.255
Imaginez une cour d'assises.
00:01:25.255 --> 00:01:30.510
Vous êtes le jury, un jury tétanisé
par les enjeux technologiques.
00:01:30.510 --> 00:01:33.267
A la barre, l'officier
de police judiciaire
00:01:33.267 --> 00:01:35.967
présente les lieux du drame.
00:01:35.967 --> 00:01:40.501
Une voiture A sur un tronçon de 10 km
00:01:40.501 --> 00:01:43.001
encastré dans la montagne,
00:01:43.001 --> 00:01:45.253
deux voies séparées
par une ligne blanche,
00:01:45.253 --> 00:01:47.768
la voiture A descend normalement,
00:01:47.768 --> 00:01:51.535
dans l’habitacle, une seule
personne, le conducteur.
00:01:52.505 --> 00:01:58.248
Alors, arrive au kilomètre 7,
une voiture à toute vitesse,
00:01:58.248 --> 00:02:03.150
alors que remonte une autre voiture,
une voiture C, sans conducteur,
00:02:03.150 --> 00:02:04.500
dans l’habitacle, personne,
00:02:04.500 --> 00:02:09.247
les deux voitures sont face à face,
la collision est inévitable,
00:02:09.247 --> 00:02:13.269
et pourtant, la voiture C va se déporter,
00:02:13.269 --> 00:02:16.773
fracasser la voiture A
avec une violence inouïe,
00:02:16.773 --> 00:02:20.228
le conducteur n'a aucune chance.
00:02:22.738 --> 00:02:26.760
L'enquête va montrer
que l'ordinateur de bord,
00:02:26.760 --> 00:02:32.490
a d'un clic de roue
organisé la rencontre mortelle.
00:02:32.490 --> 00:02:37.486
La caméra avant a vu
quatre personnes dans la voiture B,
00:02:37.486 --> 00:02:39.251
une personne dans la voiture A,
00:02:39.251 --> 00:02:42.264
alors l'algorithme, celui
qui existe aujourd'hui,
00:02:42.264 --> 00:02:46.750
l'algorithme, concentré
d’intelligence artificielle,
00:02:46.750 --> 00:02:52.256
confondant jeu d'échecs
et circulation routière,
00:02:52.256 --> 00:02:57.497
décida de sacrifier la voiture humaine A.
00:02:57.497 --> 00:03:01.281
Chaque juré dans sa tête
pense quatre contre un.
00:03:02.481 --> 00:03:08.264
Et dans ce silence mathématique,
le président reprend la parole,
00:03:08.264 --> 00:03:11.518
pose la question,
et qui est responsable ?
00:03:11.518 --> 00:03:12.543
Qui est responsable ?
00:03:12.543 --> 00:03:16.520
La mère qui a ordonné à la voiture
d'aller chercher les enfants ?
00:03:16.520 --> 00:03:17.772
Le père peut-être,
00:03:17.772 --> 00:03:22.248
le père qui est propriétaire, mais qui
était absent au moment des faits ?
00:03:22.248 --> 00:03:26.496
Le vendeur d'une voiture aussi singulière,
qui porte une marque, vous la connaissez ?
00:03:27.476 --> 00:03:32.252
Ou alors, le concepteur de l'algorithme.
00:03:32.252 --> 00:03:34.514
Concentré d’intelligence artificielle.
00:03:34.514 --> 00:03:38.530
Pour aider le jury à décider,
00:03:38.530 --> 00:03:42.491
il appelle l'expert judiciaire
en robotique pour nous éclairer.
00:03:42.491 --> 00:03:44.763
Cet expert commence par :
00:03:44.763 --> 00:03:50.514
« Cette situation dramatique
ne peut pas exister dans le monde 4.0,
00:03:50.514 --> 00:03:51.764
le monde des robots,
00:03:51.764 --> 00:03:56.012
parce que les hommes sont trop lents
dans leurs capacités fonctionnelles,
00:03:56.012 --> 00:03:58.258
ils n'auraient pas eu
la possibilité de voir
00:03:58.258 --> 00:04:03.259
quatre personnes, une personne,
et d'arbitrer en temps quasi réel. »
00:04:03.259 --> 00:04:09.502
La révolution robotique d'aujourd'hui
est la combinaison de deux technologies.
00:04:09.502 --> 00:04:14.001
La première, les capteurs
hyper performants, supérieurs à l'homme.
00:04:14.001 --> 00:04:18.239
La deuxième technologie,
l’intelligence artificielle embarquée.
00:04:18.239 --> 00:04:20.259
Ces nouveaux capteurs
permettent aux robots
00:04:20.259 --> 00:04:23.259
de prendre la mesure
de leur environnement.
00:04:23.259 --> 00:04:26.036
Les informations acquises par les capteurs
00:04:26.036 --> 00:04:31.516
sont transmises à la plateforme
d’intelligence artificielle en temps réel.
00:04:31.516 --> 00:04:35.760
Alors, après les espoirs des années 80,
00:04:35.760 --> 00:04:39.524
et les désillusions
des années 90, j'y étais,
00:04:39.524 --> 00:04:43.735
aujourd'hui, l’intelligence artificielle
permet de doter les robots
00:04:43.735 --> 00:04:49.541
d'une pensée primitive
sans aucun cadre juridique.
00:04:51.251 --> 00:04:56.493
L'avocat de la partie civile, et l'avocat
général soutiennent la même thèse.
00:04:56.493 --> 00:05:02.513
Le coupable est celui
qui a écrit le clic mortel.
00:05:03.473 --> 00:05:08.486
Le meurtrier est celui
qui a codé l'algorithme.
00:05:08.486 --> 00:05:12.788
Il a programmé une peine de mort privée,
00:05:14.248 --> 00:05:19.253
alors que dans ce cadre-là,
00:05:19.253 --> 00:05:22.743
il n'y avait pas d'autre solution,
00:05:22.743 --> 00:05:27.795
que peut-être l'intimité
du rédacteur du code.
00:05:28.725 --> 00:05:33.985
Mais alors, l'avocat de la défense
prend la parole,
00:05:33.985 --> 00:05:36.495
et dit : « Non, non coupable. »
00:05:36.495 --> 00:05:41.237
Et sachant que bien évidemment
une telle position était agressive,
00:05:41.237 --> 00:05:44.789
il se tourne vers le banc des accusés,
00:05:46.499 --> 00:05:50.498
et il leur dit :
« Vous n'êtes pas coupable. »
00:05:50.498 --> 00:05:54.723
Et puis il se tourne
vers la partie civile,
00:05:54.723 --> 00:05:59.762
il ajoute: « Madame,
je respecte votre chagrin,
00:05:59.762 --> 00:06:03.759
mais l'écriture du code informatique
n'est pas l'écriture de la loi.
00:06:03.759 --> 00:06:08.766
En l'absence d'un texte particulier
visant cette situation,
00:06:08.766 --> 00:06:13.525
ils sont innocents, c'est un accident. »
00:06:13.525 --> 00:06:16.749
Verdict : acquittement.
00:06:16.749 --> 00:06:19.749
C'est un futur procès,
00:06:19.749 --> 00:06:24.759
qui au-delà du caractère
anxiogène de la robotique,
00:06:24.759 --> 00:06:29.519
dissimule le statut juridique
des algorithmes.
00:06:30.494 --> 00:06:35.254
Personne ne contrôle
la voiture C autonome,
00:06:35.254 --> 00:06:37.984
comme personne aujourd'hui ne contrôle,
00:06:37.984 --> 00:06:42.514
n'est le gardien de la Google Car
qui circule sur les routes américaines
00:06:42.514 --> 00:06:45.250
en toute liberté.
00:06:46.500 --> 00:06:50.500
Au terme de cette étape, je vous propose
d'aller avec les robots médecins,
00:06:50.500 --> 00:06:53.510
ce sera peut-être moins dramatique.
00:06:53.510 --> 00:06:54.770
Vous pouvez rêver.
00:06:54.770 --> 00:06:57.280
(Rires)
00:06:59.500 --> 00:07:02.740
Les robots pullulent dans les hôpitaux.
00:07:02.740 --> 00:07:06.780
Des laboratoires d'analyses médicales,
à la plateforme chirurgicale,
00:07:06.780 --> 00:07:08.500
ils sont partout.
00:07:08.500 --> 00:07:11.770
Les robots actifs commencent
à remplacer les robots passifs,
00:07:11.770 --> 00:07:14.750
ceux qui sont télé-opérés.
00:07:14.750 --> 00:07:21.280
Les robots aujourd'hui actifs opèrent
de bout en bout certaines pathologies.
00:07:22.220 --> 00:07:28.520
Le chirurgien est relégué aux phases
de préparation et de supervision.
00:07:29.940 --> 00:07:35.264
Observez : un hôpital,
service des urgences,
00:07:35.264 --> 00:07:40.790
une femme, elle entre
pour un diagnostic du cancer.
00:07:42.237 --> 00:07:44.497
A l’accueil, on l'écoute.
00:07:44.497 --> 00:07:49.507
L'infirmière de dispatching lui propose :
00:07:49.507 --> 00:07:53.777
« Voulez-vous un rendez-vous
avec un médecin ou un robot ? »
00:07:53.777 --> 00:07:57.967
Énervée, elle répond : « Un humain ! »
00:07:57.967 --> 00:08:02.517
« Couloir 2, madame, porte 7. »
00:08:03.739 --> 00:08:07.269
Mauvais choix, très mauvais choix.
00:08:07.269 --> 00:08:10.493
Couloir 1, Watson consulte.
00:08:10.493 --> 00:08:12.103
Watson c'est l'avatar d'IBM,
00:08:12.103 --> 00:08:18.493
le champion qui a battu
les meilleurs au jeu Jeopardy,
00:08:18.493 --> 00:08:21.752
et qui aujourd'hui est capable
de diagnostics supérieurs,
00:08:21.752 --> 00:08:26.482
dans certains domaines,
à des grands professeurs.
00:08:26.482 --> 00:08:30.482
La supériorité de Watson,
robot très particulier,
00:08:30.482 --> 00:08:33.511
est incapable d'entrer
dans le droit médical.
00:08:33.511 --> 00:08:36.032
Alors, je suis d'accord avec vous,
00:08:36.032 --> 00:08:40.250
l'erreur humaine n'est pas
équivalente à l'erreur robot,
00:08:40.250 --> 00:08:41.264
ça n'a pas de sens,
00:08:41.264 --> 00:08:43.533
mais soumettre les robots
aux droits des objets,
00:08:43.533 --> 00:08:45.282
c'est aussi un non sens.
00:08:45.282 --> 00:08:47.512
Comment admettre que l'erreur robot,
00:08:47.512 --> 00:08:50.515
d'un robot qui est supérieur
à ses collègues médecins,
00:08:50.515 --> 00:08:54.245
puisse être traitée
par un défaut d'une machine.
00:08:54.245 --> 00:08:57.745
J'arrive au terme de ce second voyage,
00:08:57.745 --> 00:09:00.495
et pour cette nouvelle
espèce d'être artificiel,
00:09:00.495 --> 00:09:03.975
il faudra nécessairement
réguler la liberté des robots,
00:09:03.975 --> 00:09:07.265
comme on a régulé
la liberté des hommes.
00:09:07.265 --> 00:09:11.235
Les personnes physiques ont
une personnalité juridique :
00:09:11.235 --> 00:09:15.265
droit de propriété, droit à l'identité,
droit à la personnalité.
00:09:15.265 --> 00:09:17.735
Les personnes morales,
telles que les entreprises,
00:09:17.735 --> 00:09:19.515
ont une personnalité juridique,
00:09:19.515 --> 00:09:21.755
certes, avec des adaptations nécessaires.
00:09:21.755 --> 00:09:26.775
La réclusion criminelle à perpétuité,
eh bien, c'est la fermeture de la société.
00:09:26.775 --> 00:09:30.775
Alors, dans ce cadre-là,
personne physique,
00:09:30.775 --> 00:09:33.995
personnalité juridique générale,
personne morale,
00:09:33.995 --> 00:09:36.485
personnalité juridique particulière,
00:09:36.485 --> 00:09:37.495
personne robot,
00:09:37.495 --> 00:09:41.745
lançons le terme
"personnalité juridique singulière".
00:09:43.215 --> 00:09:46.259
Dans ce monde 4.0 des robots,
00:09:46.259 --> 00:09:50.240
les robots sont sujets
et non pas objets de droit.
00:09:50.240 --> 00:09:51.760
Dernier élément de ce parcours.
00:09:51.760 --> 00:09:56.280
Examinons la personnalité juridique
à travers ces singularités que sont
00:09:56.280 --> 00:10:00.250
la responsabilité,
la traçabilité, et la dignité,
00:10:00.250 --> 00:10:01.620
l'enjeu c'est la dignité,
00:10:01.620 --> 00:10:03.251
la responsabilité c'est simple,
00:10:03.251 --> 00:10:07.738
en cascade, le robot responsable,
c'est normal, il est libre.
00:10:07.738 --> 00:10:11.258
Ensuite, la plateforme,
le responsable, celui qui la fournit,
00:10:11.258 --> 00:10:15.258
c'est elle qui a permis
le socle de cette liberté en deuxième.
00:10:15.258 --> 00:10:17.508
L'utilisateur, parce que
c'est lui qui a défini
00:10:17.508 --> 00:10:20.508
les conditions d'utilisation
et d'apprentissage.
00:10:20.508 --> 00:10:23.718
Oui, les robots pensent quelque part.
00:10:23.718 --> 00:10:26.268
Et puis le système classique.
00:10:26.268 --> 00:10:28.758
La traçabilité des hommes
c'est impossible,
00:10:28.758 --> 00:10:32.218
on est libre, et on a pas le droit
de suivre ni notre identité,
00:10:32.218 --> 00:10:34.508
ni nos activités sauf cas particulier.
00:10:34.508 --> 00:10:36.768
Pour les robots, ça doit être différent.
00:10:36.768 --> 00:10:41.258
Bien évidemment. Les robots
doivent décliner leur identité.
00:10:41.258 --> 00:10:44.448
Les robots, c'est un nouveau genre.
00:10:45.248 --> 00:10:50.228
Homme, un, deux, femme,
trois, robot.
00:10:51.198 --> 00:10:56.498
Alors, c'est sur le terrain de la dignité
que se fait la différence.
00:10:56.498 --> 00:10:59.488
La dignité des robots.
00:10:59.488 --> 00:11:01.528
Oui, c'est important
la dignité des robots,
00:11:01.528 --> 00:11:06.758
regardez, c'est une petite poupée,
elle parle, elle dialogue avec une enfant,
00:11:06.758 --> 00:11:09.978
et toutes ces données
sont envoyées aux États-Unis,
00:11:09.978 --> 00:11:12.268
pour pouvoir être appréciées,
00:11:12.268 --> 00:11:15.258
cette intimité revient
par des réponses affinées,
00:11:15.258 --> 00:11:18.748
mais aussi un encerclement informationnel.
00:11:18.748 --> 00:11:24.278
L'enfant va être guidé dans ses désirs
à travers ses réponses,
00:11:24.278 --> 00:11:26.058
et la politique marketing.
00:11:26.058 --> 00:11:27.478
Voilà où nous en sommes.
00:11:27.478 --> 00:11:30.768
Nao, un autre robot.
00:11:30.768 --> 00:11:34.514
Il y a tant d'intimité
dans un enfant autiste
00:11:34.514 --> 00:11:35.650
qui revient à la vie,
00:11:35.650 --> 00:11:40.240
ou une personne âgée qui reprend
le goût de rire en dialoguant avec Nao.
00:11:40.240 --> 00:11:44.530
Nao a été pensé design by éthique.
00:11:44.530 --> 00:11:48.750
On peut espérer,
et au terme de ce voyage,
00:11:48.750 --> 00:11:55.750
l'année 2015 marque l’avènement
d'un nouveau monde peuplé de robots.
00:11:56.520 --> 00:12:00.758
Je propose de leur reconnaître
la personnalité juridique,
00:12:00.758 --> 00:12:04.742
conjuguant vie robotique et vie humaine,
00:12:04.742 --> 00:12:09.762
où responsabilité, traçabilité,
et dignité du robot,
00:12:09.762 --> 00:12:13.752
formeront le socle du droit des robots.
00:12:13.752 --> 00:12:20.232
Créons-le ensemble, c'est ça
la nouvelle vie avec les robots.
00:12:20.232 --> 00:12:24.266
(Applaudissements)