multilingual-TEDX-fr / data /train /vtt /3_7sba9gLfw.fr.vtt
BrunoHays's picture
Upload folder using huggingface_hub
e6ce93e
raw
history blame
No virus
20.9 kB
WEBVTT
Kind: captions
Language: fr
00:00:00.000 --> 00:00:07.000
Transcription: Elisabeth Buffard
Relecteur: Hélène Vernet
00:00:12.125 --> 00:00:15.771
Le progrès disait Prévert,
est « trop robot pour être vrai. »
00:00:15.977 --> 00:00:19.956
Voilà, sans doute, le genre de pensées
qui a pu traverser l'esprit de certains
00:00:19.979 --> 00:00:23.329
à l'annonce du premier accident
responsable de la Google Car.
00:00:23.841 --> 00:00:27.099
La Google Car, vous savez,
c'est cette voiture autonome,
00:00:27.120 --> 00:00:29.117
soit un robot sur quatre roues,
00:00:29.137 --> 00:00:32.511
dont les constructeurs nous rappellent,
avec une certaine insistance,
00:00:32.536 --> 00:00:34.838
qu'à la différence
d'un automobiliste humain,
00:00:34.848 --> 00:00:38.351
un robot, ça ne se met
jamais en colère, ça ne boit pas,
00:00:38.371 --> 00:00:41.222
ça ne quitte pas la route des yeux
pour expliquer aux enfants
00:00:41.232 --> 00:00:44.233
qu'on ne joue pas
à « coucou-caché » avec papa,
00:00:44.249 --> 00:00:46.920
et ça n'envoie pas
de textos aux proches pour dire :
00:00:46.940 --> 00:00:50.270
« Je ne peux pas te répondre,
je suis en train de conduire. »
00:00:52.052 --> 00:00:54.212
Pourtant d'autres accidents ont eu lieu,
00:00:54.232 --> 00:00:57.751
dont l'un mortel, causé par la voiture
d'un autre constructeur,
00:00:57.761 --> 00:01:00.276
dont les capteurs
n'avaient pas su identifier
00:01:00.296 --> 00:01:03.017
un camion blanc sur une route ensoleillée.
00:01:03.657 --> 00:01:06.066
Je m'appelle Cédric Coulon,
je suis juriste,
00:01:06.086 --> 00:01:08.349
et je m'intéresse
depuis ces mêmes accidents
00:01:08.369 --> 00:01:11.048
à la responsabilité du fait des robots,
00:01:11.068 --> 00:01:15.078
soit la question de savoir
qui demain répondra
00:01:15.098 --> 00:01:17.868
des dommages causés
par les choses intelligentes.
00:01:18.369 --> 00:01:21.371
Je dis « demain » parce que
la question est loin d'être tranchée
00:01:21.391 --> 00:01:23.651
et ce, même dans les cas les plus simples.
00:01:23.681 --> 00:01:25.505
Je vais prendre un exemple d'accident,
00:01:25.525 --> 00:01:29.370
qui avait été recensé par Google,
mais celui-là avait été sans gravité.
00:01:29.978 --> 00:01:32.204
Précisions déjà qu'en fait
de voiture autonome,
00:01:32.214 --> 00:01:34.674
il s'agit surtout
de voitures semi-autonomes
00:01:34.684 --> 00:01:38.062
auxquelles on n'a pas été jusqu'à
retirer le volant et les pédales,
00:01:38.082 --> 00:01:41.179
même si des prototypes
de ce genre existent déjà.
00:01:41.384 --> 00:01:45.287
Ici, le conducteur arrivait
à une intersection
00:01:45.329 --> 00:01:48.984
et craignant que la voiture
ne freine pas suffisamment tôt
00:01:48.994 --> 00:01:50.814
ou qu'elle ne freine pas du tout,
00:01:50.824 --> 00:01:53.689
il décide d'appuyer
sur la pédale de frein.
00:01:54.642 --> 00:01:58.342
Ceci étant, l'action combinée
du conducteur à celle du véhicule,
00:01:58.352 --> 00:02:01.523
qui, bien entendu,
avait négocié l'intersection,
00:02:01.542 --> 00:02:03.833
a conduit la voiture
à s'arrêter brutalement
00:02:03.853 --> 00:02:08.148
et à se faire emboutir à l'arrière
par l'automobiliste qui la suivait.
00:02:08.994 --> 00:02:12.792
Dans ce cas-là, la réaction
du constructeur est toute trouvée :
00:02:12.838 --> 00:02:14.729
c'est la faute du conducteur.
00:02:14.739 --> 00:02:17.593
Il est fautif de ne pas avoir cru
00:02:17.615 --> 00:02:21.845
un robot capable de veiller
à sa propre sécurité.
00:02:22.337 --> 00:02:25.191
Sauf qu'en droit,
ça n'est pas aussi simple que ça.
00:02:25.241 --> 00:02:27.966
Il y a bien une règle récente
00:02:27.986 --> 00:02:32.376
qui autorise l'introduction
des machines autonomes sur nos routes,
00:02:32.396 --> 00:02:35.382
mais à la condition, nous dit le texte,
00:02:35.408 --> 00:02:39.338
que le conducteur
en ait le contrôle permanent.
00:02:39.769 --> 00:02:42.639
Et ce texte dont je vous parle,
c'est un traité international
00:02:42.649 --> 00:02:45.739
qui ambitionne d'harmoniser
la règlementation routière
00:02:45.749 --> 00:02:48.950
entre pas moins de 84 pays.
00:02:49.218 --> 00:02:53.291
Alors vous saisissez l'écueil
que soulève la réaction du constructeur.
00:02:53.527 --> 00:02:57.257
Comment est-ce qu'on peut tenir
le conducteur pour fautif
00:02:57.277 --> 00:03:03.479
alors que légalement, il est censé avoir
le contrôle permanent de la voiture ?
00:03:04.466 --> 00:03:08.882
Cet exemple préfigure, à mon avis,
la réalité de demain.
00:03:09.259 --> 00:03:15.257
La réalité de demain, c'est que
plus on autonomisera les choses,
00:03:15.282 --> 00:03:19.450
plus il sera difficile
de trouver un responsable
00:03:19.470 --> 00:03:22.721
derrière des dommages
qu'elles viendraient à causer.
00:03:23.045 --> 00:03:27.069
Ça vaut pour les voitures autonomes,
mais aussi pour les robots humanoïdes,
00:03:27.089 --> 00:03:30.144
vous savez, ceux qui attendent
patiemment de quitter les ateliers
00:03:30.164 --> 00:03:32.377
où ils restent aujourd'hui
largement cantonnés,
00:03:32.387 --> 00:03:36.921
mais qui sont déjà en passe de mériter
leurs galons de robots compagnons,
00:03:36.931 --> 00:03:41.483
de robots auxiliaires de vie,
de robots sexuels - il en existe déjà...
00:03:42.766 --> 00:03:47.766
Le problème, c'est que pour l'instant,
ni le droit français, ni le droit européen
00:03:47.776 --> 00:03:50.418
ne font la différence entre ça,
00:03:52.022 --> 00:03:53.815
et ça,
00:03:54.766 --> 00:03:57.157
ou encore entre ça,
00:03:58.591 --> 00:04:00.325
et ça.
00:04:01.919 --> 00:04:04.516
Il n'y a rien, pas un critère juridique,
00:04:04.526 --> 00:04:08.556
qui permettre de distinguer
le robot du tout-venant des machines,
00:04:08.586 --> 00:04:10.960
alors même qu'on commence
tout juste à s'éveiller
00:04:10.970 --> 00:04:16.963
aux difficultés qui surgissent
lorsqu'on prétend doter des machines,
00:04:16.993 --> 00:04:19.670
pas seulement de la faculté
de se mouvoir par elles-mêmes
00:04:19.700 --> 00:04:23.223
comme d'autres robots aspirateurs
ou tondeuses pas bien méchants,
00:04:23.243 --> 00:04:26.693
mais surtout de facultés cognitives,
00:04:26.713 --> 00:04:32.961
c'est-à-dire des facultés d'apprendre,
d'analyser, de prendre des décisions.
00:04:33.202 --> 00:04:37.322
C'est l'exemple type qui nourrit
les fantasmes de ceux qui s'inquiètent
00:04:37.332 --> 00:04:41.128
de ce qu'on délègue demain
tout pouvoir de décision à des voitures.
00:04:41.646 --> 00:04:43.216
En cas d'accident inévitable,
00:04:43.236 --> 00:04:47.392
est-ce que l'algorithme
qui commande les décisions du véhicule
00:04:47.412 --> 00:04:51.417
calculera froidement les chances
que survive l'enfant passager,
00:04:51.427 --> 00:04:53.820
plutôt que ses parents
assis aux places avant.
00:04:54.820 --> 00:04:59.950
À terme, la voiture autonome pourrait
devenir l'agent moral des automobilistes
00:04:59.960 --> 00:05:04.603
dans des conditions que
la technologie, mais aussi le droit,
00:05:04.623 --> 00:05:06.791
devront s'efforcer de définir.
00:05:07.175 --> 00:05:10.007
Alors, je ne suis pas
en train de vous dire
00:05:10.037 --> 00:05:12.735
que c'est le droit
qui fait avancer la technologie.
00:05:13.072 --> 00:05:16.226
En revanche, il est certain que
sans le droit, on n'y arrivera pas.
00:05:16.236 --> 00:05:20.565
Sans le droit, la technologie
ne trouvera aucune légitimité.
00:05:21.026 --> 00:05:26.468
Et cette légitimité passe nécessairement
par l'invention de solutions nouvelles
00:05:26.489 --> 00:05:31.891
pour appréhender les risques liés au
développement de la robotique cognitive.
00:05:32.601 --> 00:05:36.567
Pour l'heure, aucunes des règles
actuelles ne semblent adaptées.
00:05:37.046 --> 00:05:41.016
Il y en a une bien connue qui veut
que le fabricant soit responsable
00:05:41.046 --> 00:05:45.565
des dommages causés par les défauts
des produits qu'il commercialise.
00:05:45.745 --> 00:05:50.062
Voilà une règle si naturelle
qu'elle est simple à justifier,
00:05:50.072 --> 00:05:53.768
et pourtant, là encore,
c'est l'autonomie cognitive
00:05:53.798 --> 00:05:57.345
qui risque d'en faire
apparaitre les limites.
00:05:57.770 --> 00:06:00.350
Prenons l'exemple
des robots auxiliaires de vie.
00:06:01.030 --> 00:06:05.689
Il en existe plusieurs ; certains sont
doués pour transporter leur maître
00:06:05.709 --> 00:06:08.267
d'une pièce à l'autre de son appartement,
00:06:08.287 --> 00:06:11.289
d'autres pour effectuer des tâches
ménagères assez simples,
00:06:11.309 --> 00:06:14.357
mais ils vont apprendre des tas
de choses dans les années à venir
00:06:14.367 --> 00:06:16.197
au gré de leurs nouvelles versions.
00:06:16.217 --> 00:06:19.465
Supposons maintenant
que l'un de ces robots
00:06:19.475 --> 00:06:22.871
cause un dommage à son utilisateur.
00:06:23.654 --> 00:06:28.629
Il y a la règle suivant laquelle
le fabriquant est responsable
00:06:28.659 --> 00:06:33.033
des dommages causés par les défauts
des produits qu'il met en circulation.
00:06:33.824 --> 00:06:36.342
Le problème est que, précisément,
il n'est responsable
00:06:36.362 --> 00:06:40.785
que pour autant ce défaut existait
au moment de cette mise en circulation.
00:06:42.113 --> 00:06:48.593
Or, à considérer des choses évolutives,
qui s'adaptent et changent,
00:06:48.623 --> 00:06:52.862
on aura conclu rapidement
que le dommage causé aujourd'hui,
00:06:52.882 --> 00:06:58.147
l'a été par une chose différente
de celle mise en circulation précédemment,
00:06:58.155 --> 00:07:00.382
quelques semaines
ou quelques mois plus tôt,
00:07:00.390 --> 00:07:03.385
puisque le robot a évolué entre temps.
00:07:03.681 --> 00:07:06.069
Et voilà la porte grande ouverte
00:07:06.088 --> 00:07:09.543
aux constructeurs qui souhaiteront
échapper à leurs responsabilités.
00:07:10.063 --> 00:07:13.286
À vrai dire, les juristes n'ont pas fini
de s'arracher les cheveux.
00:07:13.326 --> 00:07:17.493
Que se passera-t-il, par exemple,
en cas de revente du robot ?
00:07:18.288 --> 00:07:21.722
De la même manière que certains
d'entre nous, moi le premier,
00:07:21.752 --> 00:07:24.566
ont pu pester un jour, contre la façon
00:07:24.586 --> 00:07:30.477
dont l'ancien propriétaire d'une voiture
malmenait son boitier de vitesse,
00:07:30.860 --> 00:07:33.849
on en viendra peut-être
demain à pester contre la façon
00:07:33.873 --> 00:07:37.042
dont l'ancien propriétaire d'un robot
en faisait usage, et au fond,
00:07:37.072 --> 00:07:39.132
de la mauvaise éducation
qu'il lui donnait,
00:07:39.142 --> 00:07:42.330
exactement comme on nous reprocherait
de mal éduquer nos enfants.
00:07:42.360 --> 00:07:45.240
Bref, on ne saura jamais
vraiment sur quoi on tombe,
00:07:45.250 --> 00:07:48.584
alors faites bien attention à qui pourrait
un jour sonner à votre porte
00:07:48.614 --> 00:07:51.110
pour proposer ses services.
00:07:51.172 --> 00:07:52.992
(Rires)
00:07:53.500 --> 00:07:55.343
Quoi qu'il en soit,
00:07:55.823 --> 00:07:58.743
permettre à un robot
de s'adapter à son usager,
00:07:58.773 --> 00:08:03.583
c'est déjà admettre que celui-ci exerce
une influence sur son comportement.
00:08:03.823 --> 00:08:06.453
Alors pourquoi ne pas se tourner
plutôt vers cet usager
00:08:06.473 --> 00:08:09.849
en convoquant le fondement traditionnel
de la responsabilité civile,
00:08:09.859 --> 00:08:11.593
qui est le critère de garde.
00:08:11.601 --> 00:08:15.263
Ce critère est aussi ancien
que le Code Civil - 1804 -
00:08:15.283 --> 00:08:20.758
qui énonce toujours que le maître
est responsable de son animal
00:08:20.788 --> 00:08:23.579
car il doit le contrôler,
le surveiller, le garder.
00:08:23.839 --> 00:08:28.063
À la faveur de la révolution
industrielle, à la fin du XIXe siècle,
00:08:28.073 --> 00:08:31.447
ce critère de garde s'est élargi
à toutes sortes de machines.
00:08:31.577 --> 00:08:36.949
Aujourd'hui, c'est tout pouvoir d'usage,
de contrôle et de direction
00:08:36.969 --> 00:08:38.918
qu'une personne détient sur une chose.
00:08:39.058 --> 00:08:42.458
Donc oui, on pourrait être tenté
de raisonner par analogie
00:08:42.488 --> 00:08:45.630
et comparer notre robot à un animal.
00:08:46.035 --> 00:08:52.294
Sauf que cette solution contredit l'usage
et l'essence même du robot,
00:08:52.324 --> 00:08:55.826
qui est précisément de se débrouiller
tout seul en satisfaisant au mieux
00:08:55.836 --> 00:08:58.309
les intérêts de son utilisateur.
00:08:59.069 --> 00:09:02.657
Le parallèle peut être fait
avec les drones de loisirs.
00:09:03.153 --> 00:09:05.068
Une loi récente, qui date de 2016,
00:09:05.078 --> 00:09:07.978
fait désormais obligation
au propriétaire de tels drones
00:09:07.988 --> 00:09:10.651
de suivre une formation obligatoire,
00:09:10.673 --> 00:09:14.054
notamment pour se familiariser
avec les règles applicables
00:09:14.090 --> 00:09:18.347
en matière de survol de zones peuplées.
00:09:18.916 --> 00:09:22.610
Mais la raison d'être
de cette formation obligatoire,
00:09:23.459 --> 00:09:26.266
c'est que précisément,
il ne s'agit pas d'un robot
00:09:26.296 --> 00:09:29.826
mais de choses qui sont
télépilotées par l'homme.
00:09:29.926 --> 00:09:35.257
À l'inverse, si on reprend l'exemple
de nos robots auxiliaires de vie,
00:09:35.264 --> 00:09:37.894
l'argument qui présidera
00:09:37.904 --> 00:09:42.182
à la commercialisation
et au succès de telles machines,
00:09:42.213 --> 00:09:45.951
tient au fait que l'usager
n'aura plus qu'à se soucier
00:09:45.961 --> 00:09:48.733
des ordres qu'il pourra
leur donner, et plus du tout
00:09:48.743 --> 00:09:52.898
de la façon dont elles
s'y prennent pour les exécuter.
00:09:53.032 --> 00:09:56.375
Et finalement, ce qu'on appelle
le « droit de la consommation »,
00:09:56.385 --> 00:09:58.954
dont la finalité est de
protéger les consommateurs,
00:09:58.984 --> 00:10:00.494
notamment en les informant,
00:10:00.514 --> 00:10:05.044
eh bien ce droit devra peut-être
composer avec un paradoxe inquiétant,
00:10:05.064 --> 00:10:10.079
puisque plus on autonomisera
les choses, plus elles seront complexes,
00:10:10.120 --> 00:10:12.136
mais moins on aura besoin
de les comprendre
00:10:12.146 --> 00:10:17.100
à la différence de notre pilote de drones
qu'on cherche à responsabiliser davantage.
00:10:19.327 --> 00:10:24.635
Alors, vous saisissez surtout à quel point
le critère de garde est ici inadapté.
00:10:24.665 --> 00:10:28.521
Ce n'est plus tant
l'homme qui garde la machine,
00:10:28.551 --> 00:10:30.510
mais la machine qui garde l'homme,
00:10:30.530 --> 00:10:34.190
en satisfaisant à des besoins qu'il n'est
plus capable de satisfaire lui-même,
00:10:34.210 --> 00:10:36.699
voire en faisant preuve sur lui d'autorité
00:10:36.719 --> 00:10:39.489
quand il s'agira, par exemple,
de lui refuser un médicament
00:10:39.499 --> 00:10:42.061
qu'il a déjà pris dans la journée.
00:10:42.676 --> 00:10:44.397
Alors résumons.
00:10:44.439 --> 00:10:48.802
Il y a d'un côté, la responsabilité
du constructeur qui parait naturelle
00:10:48.812 --> 00:10:50.853
mais qu'on aura plus de mal à justifier
00:10:50.873 --> 00:10:55.401
au fur et à mesure que les choses
s'autonomiseront et révéleront des défauts
00:10:55.426 --> 00:10:58.750
qui n'existaient pas au moment
de leur mise en circulation.
00:10:59.050 --> 00:11:01.798
Et de l'autre, il y a
la responsabilité de l'usager,
00:11:01.808 --> 00:11:04.198
tout aussi critiquable
dans la mesure où, a priori,
00:11:04.218 --> 00:11:06.995
ce n'est pas à lui de comprendre
et de contrôler une chose
00:11:07.005 --> 00:11:09.730
qui est censée se débrouiller toute seule.
00:11:10.305 --> 00:11:14.339
Il resterait bien une troisième voie
à laquelle certains ont pu penser,
00:11:14.349 --> 00:11:16.844
c'est la responsabilité
du robot, évidemment.
00:11:16.864 --> 00:11:21.524
Elle présuppose qu'on cède
au mythe du robot-personne,
00:11:21.554 --> 00:11:24.287
c'est-à-dire qu'on l'affuble
d'une personnalité juridique
00:11:24.307 --> 00:11:28.692
comme vous et moi,
ou comme une entreprise
00:11:28.712 --> 00:11:31.622
qu'on inscrit au Registre
du Commerce et des Sociétés
00:11:31.642 --> 00:11:33.421
et à qui on affecte un capital.
00:11:33.441 --> 00:11:36.297
Eh bien, c'est exactement
sur cette voie-là que s'est engagé,
00:11:36.317 --> 00:11:40.027
il y a déjà plusieurs années,
l'état du Nevada aux Etats-Unis,
00:11:40.037 --> 00:11:43.366
en répertoriant systématiquement
ces voitures autonomes
00:11:43.376 --> 00:11:48.496
sur un fichier dédié,
et en leur affectant un capital
00:11:48.516 --> 00:11:52.728
qui pourrait servir
d'assurance en cas d'accident.
00:11:53.465 --> 00:11:56.779
À mon avis, on n'a pas besoin
de s’embarrasser avec une telle solution
00:11:56.799 --> 00:11:59.321
lorsqu'il suffira de reporter
le poids de l'assurance
00:11:59.351 --> 00:12:01.790
sur les épaules du constructeur
ou de l'usager ;
00:12:01.800 --> 00:12:06.711
ça ne coûtera presque plus rien puisqu'il
n'y aura pratiquement plus d'accidents.
00:12:07.370 --> 00:12:11.740
Mais surtout, cette solution
me parait terriblement dangereuse.
00:12:11.760 --> 00:12:14.234
parce qu'au fond,
la personnalité juridique,
00:12:14.264 --> 00:12:18.622
c'est l'aptitude
à être titulaire de droits,
00:12:18.631 --> 00:12:21.538
l'aptitude à être titulaire
de prérogatives juridiques.
00:12:21.798 --> 00:12:24.145
Est-ce qu'on en viendra
demain à considérer
00:12:24.165 --> 00:12:29.281
que notre robot mérite d'être protégé
dans son intégrité physique,
00:12:29.292 --> 00:12:33.635
dans sa vie privée, dans
les œuvres d'art qu'il pourrait créer ?
00:12:34.241 --> 00:12:35.975
Personnellement, je ne l'espère pas,
00:12:35.985 --> 00:12:38.979
et en tout cas, cet avenir-là
me semble très improbable.
00:12:39.005 --> 00:12:40.795
Imaginez ...
00:12:41.425 --> 00:12:43.833
En droit français,
on a mis plus de deux siècles
00:12:43.853 --> 00:12:47.599
à admettre que les animaux
n'étaient pas des choses,
00:12:47.619 --> 00:12:49.897
mais des êtres vivants
doués de sensibilité
00:12:49.907 --> 00:12:52.704
sans pour autant en faire des personnes.
00:12:52.724 --> 00:12:56.674
Combien de temps faudra-t-il avant
qu'on admette que des machines -
00:12:56.684 --> 00:13:01.389
soit des êtres non vivants -
méritent une telle personnalité ?
00:13:01.998 --> 00:13:04.487
Vous l'avez compris,
je ne suis pas du tout favorable
00:13:04.507 --> 00:13:06.627
à ce qu'on reconnaisse
des droits aux robots.
00:13:06.647 --> 00:13:09.258
En revanche, je le suis bien davantage
00:13:09.278 --> 00:13:13.678
à l'émergence et au développement
d'un « Droit des robots »,
00:13:13.698 --> 00:13:16.729
un Droit des robots placé
sous le signe de la prudence,
00:13:16.739 --> 00:13:19.389
voire de la défiance
vis-à-vis de ces choses,
00:13:19.394 --> 00:13:21.034
dont les capacités extraordinaires
00:13:21.044 --> 00:13:24.412
les portent à disputer
à l'homme son autorité.
00:13:24.910 --> 00:13:27.308
Ce Droit des robots, je le définirai
00:13:27.318 --> 00:13:31.537
comme l'ensemble des règles
destinées à organiser
00:13:31.557 --> 00:13:36.109
l'introduction des machines
autonomes dans la vie sociale.
00:13:36.566 --> 00:13:39.133
Je vous ai parlé du Droit
de la responsabilité civile ;
00:13:39.163 --> 00:13:42.827
j'aurais pu vous parler d'autres matières
comme le Droit des incapacités.
00:13:43.050 --> 00:13:46.283
Faudra-t-il que demain,
le juge des tutelles se prononce
00:13:46.303 --> 00:13:50.989
sur l'opportunité de dépêcher
un robot auxiliaire de vie
00:13:51.014 --> 00:13:53.051
au chevet d'une personne dépendante,
00:13:53.061 --> 00:13:56.748
surtout si elle souffre de troubles
mentaux, c'est une vraie question.
00:13:57.294 --> 00:14:00.103
Ce Droit des robots n'existe pas encore,
00:14:00.113 --> 00:14:04.155
mais c'est déjà la réalité d'aujourd'hui,
00:14:04.171 --> 00:14:06.144
en tous cas celle de demain.
00:14:06.175 --> 00:14:09.697
Mais pour l'instant, ne craignez rien.
00:14:10.041 --> 00:14:14.651
Si un jour, vous décidez
d'acquérir un robot sexuel,
00:14:14.674 --> 00:14:18.164
et que, par une longue soirée d'hiver,
00:14:18.185 --> 00:14:20.153
vous y allez un peu fort,
00:14:20.172 --> 00:14:23.314
parole de juriste,
tout ce que vous risquez,
00:14:23.324 --> 00:14:25.124
c'est de faire sauter la garantie.
00:14:25.204 --> 00:14:26.594
Merci.
00:14:26.634 --> 00:14:28.774
(Applaudissements)