|
WEBVTT |
|
Kind: captions |
|
Language: fr |
|
|
|
00:00:00.000 --> 00:00:07.000 |
|
Traducteur: eric vautier |
|
|
|
00:00:07.727 --> 00:00:08.730 |
|
Bonsoir ! |
|
|
|
00:00:08.736 --> 00:00:10.774 |
|
Mon nom est Édouard Tétreau, |
|
|
|
00:00:11.259 --> 00:00:15.795 |
|
et effectivement, mon métier, c'est |
|
de conseiller le pouvoir et l'argent, |
|
|
|
00:00:16.378 --> 00:00:18.880 |
|
c'est de conseiller les puissants, |
|
|
|
00:00:18.886 --> 00:00:22.760 |
|
ceux qui nous gouvernent ou ceux |
|
qui ont vocation à nous gouverner, |
|
|
|
00:00:22.766 --> 00:00:24.872 |
|
ceux qui ont de grandes fortunes |
|
|
|
00:00:24.878 --> 00:00:26.942 |
|
ou ceux qui ont vocation à en construire. |
|
|
|
00:00:28.219 --> 00:00:29.312 |
|
Et en même temps - |
|
|
|
00:00:29.996 --> 00:00:33.211 |
|
ce n'est pas un brevet |
|
de sainteté ou d'intelligence - |
|
|
|
00:00:33.217 --> 00:00:35.900 |
|
et en même temps, |
|
je suis catholique, croyant. |
|
|
|
00:00:36.965 --> 00:00:40.335 |
|
Mon dieu, c'est celui du |
|
sermon sur la montagne. |
|
|
|
00:00:41.385 --> 00:00:45.060 |
|
C'est celui qui, au lieu de devenir |
|
un Übermensch ou une machine, |
|
|
|
00:00:45.066 --> 00:00:48.968 |
|
s'est fait homme et s'est |
|
laissé clouer sur une croix |
|
|
|
00:00:48.974 --> 00:00:50.915 |
|
pour mourir comme un rat mort. |
|
|
|
00:00:51.426 --> 00:00:53.789 |
|
Mon dieu, c'est |
|
celui du lavement des pieds, |
|
|
|
00:00:53.789 --> 00:00:54.569 |
|
celui qui dit |
|
|
|
00:00:54.575 --> 00:00:58.224 |
|
qu'il est bien plus facile à un chameau |
|
de passer par le chas d'une aiguille |
|
|
|
00:00:58.860 --> 00:01:02.429 |
|
qu'à un riche d'entrer |
|
dans le royaume des cieux. |
|
|
|
00:01:03.059 --> 00:01:06.305 |
|
Donc, autant vous dire que pour |
|
exercer mon métier : good luck ! |
|
|
|
00:01:06.311 --> 00:01:07.653 |
|
(Rires) |
|
|
|
00:01:07.805 --> 00:01:12.274 |
|
Comment est-ce que j'essaye de réconcilier |
|
ce paradoxe ou ces deux termes, |
|
|
|
00:01:13.064 --> 00:01:14.905 |
|
ce en quoi je crois |
|
|
|
00:01:14.905 --> 00:01:17.675 |
|
et ce que je fais dans ma vie. |
|
|
|
00:01:18.022 --> 00:01:19.770 |
|
J'ai fait d'une façon très concrète, |
|
|
|
00:01:19.776 --> 00:01:21.278 |
|
hier comme analyste financier |
|
|
|
00:01:21.284 --> 00:01:23.642 |
|
et aujourd'hui comme |
|
conseiller de dirigeants. |
|
|
|
00:01:24.135 --> 00:01:29.447 |
|
C'est que, dès que le monde |
|
de l'argent ou du pouvoir politique |
|
|
|
00:01:29.453 --> 00:01:32.864 |
|
se met à totalement se déconnecter |
|
|
|
00:01:32.870 --> 00:01:35.499 |
|
par rapport au monde des êtres humains, |
|
|
|
00:01:35.505 --> 00:01:38.061 |
|
je dis « Attention », je dis « Stop ». |
|
|
|
00:01:38.852 --> 00:01:41.282 |
|
Ceux qui m'ont suivi dans les marchés, |
|
|
|
00:01:41.913 --> 00:01:45.112 |
|
savent que j'ai eu trois moments |
|
|
|
00:01:45.118 --> 00:01:47.520 |
|
où j'ai annoncé des crises : |
|
|
|
00:01:48.274 --> 00:01:50.760 |
|
la bulle Internet en mars 2000, |
|
|
|
00:01:50.766 --> 00:01:53.671 |
|
« Prenez vos profits |
|
avant un éventuel krach » |
|
|
|
00:01:55.002 --> 00:01:57.845 |
|
un épisode sur le Vivendi |
|
de Jean-Marie Messier, |
|
|
|
00:01:57.851 --> 00:02:00.914 |
|
la plus grande entreprise |
|
de médias du monde, |
|
|
|
00:02:00.920 --> 00:02:04.646 |
|
passée juste à côté |
|
de la cessation de paiement |
|
|
|
00:02:05.440 --> 00:02:08.488 |
|
et puis la crise de 2008 |
|
que j'avais vue en 2006. |
|
|
|
00:02:09.091 --> 00:02:12.400 |
|
J'avais fait un témoignage à la |
|
commission des finances du Sénat, |
|
|
|
00:02:12.406 --> 00:02:16.258 |
|
en disant que cette orgie de dettes |
|
ne pouvait pas durer. |
|
|
|
00:02:17.453 --> 00:02:19.183 |
|
Aujourd'hui, je fais une prédiction. |
|
|
|
00:02:19.183 --> 00:02:22.188 |
|
Non pas la nouvelle crise financière - |
|
évidemment, elle vient, |
|
|
|
00:02:22.838 --> 00:02:26.248 |
|
il y en a à peu près tous |
|
les huit, dix ans aujourd'hui. |
|
|
|
00:02:26.649 --> 00:02:28.836 |
|
Elle vient, elle sera un peu compliquée : |
|
|
|
00:02:28.836 --> 00:02:31.666 |
|
on a créé 9 000 milliards |
|
de dollars à partir de rien - |
|
|
|
00:02:31.666 --> 00:02:34.578 |
|
ce sont les banques centrales |
|
qui ont injecté des liquidités. |
|
|
|
00:02:34.680 --> 00:02:37.391 |
|
Elle viendra probablement |
|
aussi des robots, |
|
|
|
00:02:37.397 --> 00:02:41.491 |
|
puisqu'aujourd'hui 80% des ordres |
|
de bourse sont faits par des algorithmes. |
|
|
|
00:02:41.817 --> 00:02:44.850 |
|
C'est-à-dire que nous avons |
|
sorti les êtres humains |
|
|
|
00:02:44.856 --> 00:02:48.533 |
|
de l'équation de quelque chose |
|
de quand même important : |
|
|
|
00:02:48.539 --> 00:02:49.993 |
|
là où nous allons, |
|
|
|
00:02:49.999 --> 00:02:51.771 |
|
notre épargne, notre richesse. |
|
|
|
00:02:52.421 --> 00:02:56.055 |
|
Elle viendra probablement des États-Unis, |
|
pays d'où je reviens, |
|
|
|
00:02:56.061 --> 00:02:58.931 |
|
où M. Trump vient d'exonérer |
|
|
|
00:02:58.931 --> 00:03:01.865 |
|
des droits de succession, |
|
de l'impôt sur les successions, |
|
|
|
00:03:01.871 --> 00:03:04.461 |
|
les 0,2% des Américains les plus riches. |
|
|
|
00:03:05.054 --> 00:03:08.453 |
|
Et, en même temps, |
|
taxant davantage les étudiants. |
|
|
|
00:03:08.459 --> 00:03:11.382 |
|
Vous avez aujourd'hui |
|
44 millions d'étudiants américains |
|
|
|
00:03:11.388 --> 00:03:14.215 |
|
qui portent une dette |
|
qu'ils ne rembourseront jamais, |
|
|
|
00:03:14.221 --> 00:03:19.665 |
|
une dette de 1 500 milliards de dollars, |
|
plus de 30 000 dollars par étudiant. |
|
|
|
00:03:20.030 --> 00:03:23.699 |
|
Good luck pour ceux qui n'ont pas |
|
les parents qui peuvent suivre derrière. |
|
|
|
00:03:24.026 --> 00:03:28.150 |
|
Non, je veux vous parler |
|
d'une crise bien plus sérieuse. |
|
|
|
00:03:30.800 --> 00:03:34.046 |
|
Je vais emprunter |
|
les mots du Pape François |
|
|
|
00:03:36.006 --> 00:03:40.213 |
|
qui dit que nos économies et nos sociétés, |
|
|
|
00:03:41.201 --> 00:03:42.481 |
|
ou plutôt nous, |
|
|
|
00:03:42.972 --> 00:03:46.112 |
|
nous avons la culture du déchet |
|
et du déchet humain. |
|
|
|
00:03:47.535 --> 00:03:51.441 |
|
« Aujourd’hui tout entre dans le jeu de la |
|
compétitivité et de la loi du plus fort, |
|
|
|
00:03:51.447 --> 00:03:53.308 |
|
où le puissant mange le plus faible. |
|
|
|
00:03:53.314 --> 00:03:55.937 |
|
On considère l’être humain |
|
comme un bien de consommation |
|
|
|
00:03:55.937 --> 00:03:57.937 |
|
qu’on peut utiliser et ensuite jeter. |
|
|
|
00:03:58.679 --> 00:04:01.562 |
|
Il ne s’agit plus seulement |
|
d’exploitation et d’oppression, |
|
|
|
00:04:01.568 --> 00:04:03.187 |
|
mais de quelque chose de nouveau. |
|
|
|
00:04:03.377 --> 00:04:07.337 |
|
Les exclus ne sont pas des exploités, |
|
mais des déchets, des restes. » |
|
|
|
00:04:08.503 --> 00:04:12.620 |
|
Ce qui devient un peu sérieux, c'est que |
|
nous nous sommes pris à jouer ce jeu-là, |
|
|
|
00:04:13.337 --> 00:04:14.781 |
|
et nous le jouons pleinement. |
|
|
|
00:04:15.163 --> 00:04:16.261 |
|
Malheur aux faibles. |
|
|
|
00:04:16.805 --> 00:04:20.171 |
|
Malheur aux faibles dans nos entreprises, |
|
nos sociétés, nos économies. |
|
|
|
00:04:20.177 --> 00:04:21.801 |
|
Il n'y a plus de place pour eux. |
|
|
|
00:04:21.870 --> 00:04:25.421 |
|
Hier, il y avait une place pour celui |
|
qui faisait les choses moins bien. |
|
|
|
00:04:26.052 --> 00:04:28.462 |
|
Aujourd'hui non, ce n'est plus possible. |
|
|
|
00:04:29.092 --> 00:04:32.362 |
|
Et vous le savez - cela est un thème |
|
récurrent de notre soirée - |
|
|
|
00:04:33.972 --> 00:04:35.946 |
|
nous assistons au grand remplacement. |
|
|
|
00:04:36.520 --> 00:04:40.545 |
|
Pas celui de l'intellectuel |
|
d'extrême-droite Renaud Camus, |
|
|
|
00:04:40.551 --> 00:04:44.498 |
|
qui, derrière les murailles |
|
de son château du XIVe siècle, |
|
|
|
00:04:44.504 --> 00:04:48.691 |
|
craint que la race blanche soit |
|
remplacée par le reste du monde. |
|
|
|
00:04:49.146 --> 00:04:53.206 |
|
Non, quelque chose de bien plus immédiat, |
|
de bien plus dangereux : |
|
|
|
00:04:53.206 --> 00:04:56.866 |
|
le grand remplacement |
|
de l'être humain par la machine. |
|
|
|
00:04:57.746 --> 00:05:01.684 |
|
Nous y prêtons le flanc, |
|
nous le préparons, ce grand remplacement. |
|
|
|
00:05:01.690 --> 00:05:02.624 |
|
Pourquoi ? |
|
|
|
00:05:02.793 --> 00:05:04.263 |
|
Parce que nous jouons le jeu, |
|
|
|
00:05:04.269 --> 00:05:07.194 |
|
parce que nous commençons |
|
à nous penser comme des machines. |
|
|
|
00:05:07.372 --> 00:05:10.048 |
|
Des machines avec uniquement des capacités |
|
|
|
00:05:10.054 --> 00:05:12.884 |
|
qu'il va falloir booster pour survivre, |
|
|
|
00:05:12.884 --> 00:05:14.487 |
|
faire survivre nos enfants, |
|
|
|
00:05:14.493 --> 00:05:16.385 |
|
produire, produire mieux |
|
|
|
00:05:16.391 --> 00:05:19.614 |
|
et laisser derrière nous, loin derrière, |
|
|
|
00:05:19.614 --> 00:05:21.035 |
|
ceux qui n'en peuvent plus, |
|
|
|
00:05:21.041 --> 00:05:23.779 |
|
ceux qui n'auront pas |
|
les moyens de la compétition. |
|
|
|
00:05:24.217 --> 00:05:26.344 |
|
Nous le préparons ce grand remplacement |
|
|
|
00:05:26.350 --> 00:05:29.545 |
|
en acceptant la marchandisation |
|
de nos corps et de nos données. |
|
|
|
00:05:30.484 --> 00:05:33.184 |
|
Aujourd'hui, je ne vais pas être grossier, |
|
|
|
00:05:33.190 --> 00:05:35.598 |
|
mais la réalité de notre monde |
|
est celle-là. |
|
|
|
00:05:35.992 --> 00:05:39.404 |
|
Si vous voulez générer de la vie, |
|
|
|
00:05:41.111 --> 00:05:43.319 |
|
les ventres à louer en Inde - |
|
|
|
00:05:43.325 --> 00:05:44.770 |
|
et ça se rapprochera de nous - |
|
|
|
00:05:44.770 --> 00:05:46.730 |
|
c'est quelques centaines de dollars. |
|
|
|
00:05:47.023 --> 00:05:50.001 |
|
Le sperme à la European Sperm Bank, |
|
|
|
00:05:50.007 --> 00:05:52.962 |
|
cela dépend de la qualité |
|
du donneur et de sa nationalité. |
|
|
|
00:05:53.510 --> 00:05:56.044 |
|
Si vous voulez un anonyme, |
|
c'est 300 dollars. |
|
|
|
00:05:56.050 --> 00:05:59.880 |
|
Si vous voulez un Américain avec |
|
tout ce qu'il faut, c'est 640 dollars. |
|
|
|
00:06:01.097 --> 00:06:03.194 |
|
Deliveroo et les autres, |
|
|
|
00:06:03.200 --> 00:06:05.890 |
|
les nouveaux coolies du XXIe siècle, |
|
|
|
00:06:06.446 --> 00:06:10.519 |
|
louent leurs bras, leurs jambes, |
|
pour à peu près cinq euros de l'heure, |
|
|
|
00:06:10.525 --> 00:06:15.360 |
|
pour vous apporter votre repas ce soir. |
|
|
|
00:06:16.278 --> 00:06:19.556 |
|
Est-ce dans ce monde-là |
|
que vous voulez vivre ? |
|
|
|
00:06:19.556 --> 00:06:23.046 |
|
Vous êtes, nous sommes, |
|
en train de le construire. |
|
|
|
00:06:23.667 --> 00:06:26.564 |
|
Face à cela, il y a deux possibilités. |
|
|
|
00:06:26.976 --> 00:06:29.094 |
|
Il y a une, c'est celle |
|
des transhumanistes. |
|
|
|
00:06:29.603 --> 00:06:32.668 |
|
Il y en a de célèbres : |
|
Ray Kurzweil aux États-Unis, |
|
|
|
00:06:32.674 --> 00:06:34.794 |
|
d'autres qui aspirent |
|
à le devenir en France. |
|
|
|
00:06:35.261 --> 00:06:37.690 |
|
Leur parole est très simple : |
|
|
|
00:06:37.969 --> 00:06:39.619 |
|
puisque les machine arrivent, |
|
|
|
00:06:39.969 --> 00:06:41.479 |
|
devenons des machines. |
|
|
|
00:06:41.643 --> 00:06:45.465 |
|
Ne nous laissons pas dépasser |
|
par les algorithmes. |
|
|
|
00:06:45.794 --> 00:06:50.153 |
|
J'étais, il y a peu, avec le président |
|
d'une compagnie d'assurances qui disait : |
|
|
|
00:06:50.159 --> 00:06:52.278 |
|
« Tu sais, c'est compliqué, |
|
les algorithmes. |
|
|
|
00:06:52.284 --> 00:06:53.651 |
|
J'en ai un aujourd'hui |
|
|
|
00:06:53.651 --> 00:06:58.291 |
|
qui peut remplacer toute ma division de |
|
gestion des risques et des dommages. |
|
|
|
00:06:58.547 --> 00:06:59.745 |
|
C'est 4 000 personnes. |
|
|
|
00:07:01.594 --> 00:07:05.288 |
|
Je ferai partir d'abord ceux qui vont |
|
à la retraite ou sont en préretraite, |
|
|
|
00:07:05.288 --> 00:07:07.105 |
|
mais à un moment, il faudra accélérer. |
|
|
|
00:07:07.111 --> 00:07:11.358 |
|
- Mais bien sûr ! Tu vas créer |
|
des jobs en face, des jobs de big data ! |
|
|
|
00:07:12.049 --> 00:07:14.845 |
|
- Oui, oui, une centaine de PhD. » |
|
|
|
00:07:15.595 --> 00:07:18.430 |
|
Vaudrait-il mieux, |
|
dans le monde qui vient, |
|
|
|
00:07:18.436 --> 00:07:20.545 |
|
avoir des PhD pour survivre ? |
|
|
|
00:07:22.055 --> 00:07:24.152 |
|
Bien sûr, il y en a qui vont jouer le jeu, |
|
|
|
00:07:24.158 --> 00:07:30.618 |
|
qui vont y aller, qui vont se greffer |
|
des nano-puces dans leur cerveau. |
|
|
|
00:07:30.997 --> 00:07:32.532 |
|
Ça existe déjà. |
|
|
|
00:07:32.538 --> 00:07:33.803 |
|
Et c'est formidable ! |
|
|
|
00:07:33.864 --> 00:07:37.792 |
|
Un grand blessé qui avait eu un accident |
|
de moto il y a pas très longtemps, |
|
|
|
00:07:37.798 --> 00:07:40.794 |
|
n'arrivait plus à bouger |
|
les bras, les jambes. |
|
|
|
00:07:40.794 --> 00:07:43.389 |
|
En lui greffant des nano-puces |
|
au bon endroit, |
|
|
|
00:07:43.395 --> 00:07:45.484 |
|
on lui a redonné son autonomie. |
|
|
|
00:07:46.047 --> 00:07:48.442 |
|
Les nano-puces pour réparer les vivants ? |
|
|
|
00:07:48.600 --> 00:07:49.440 |
|
Oui ! |
|
|
|
00:07:49.924 --> 00:07:53.862 |
|
Les nano-puces pour |
|
booster son intelligence, |
|
|
|
00:07:53.868 --> 00:07:55.934 |
|
être plus intelligent que la machine ? |
|
|
|
00:07:55.934 --> 00:07:57.554 |
|
Et puis booster quoi d'autre ? |
|
|
|
00:07:57.554 --> 00:07:59.734 |
|
Sa capacité à être plus compétitif ? |
|
|
|
00:08:00.002 --> 00:08:01.412 |
|
Sa capacité à tuer ? |
|
|
|
00:08:02.248 --> 00:08:05.130 |
|
Tuer symboliquement un concurrent |
|
|
|
00:08:05.136 --> 00:08:07.799 |
|
ou tuer pour de vrai un adversaire ? |
|
|
|
00:08:08.354 --> 00:08:10.334 |
|
Sa capacité à booster sa libido ? |
|
|
|
00:08:10.734 --> 00:08:13.784 |
|
Formidable ! Il y en a |
|
quelques-uns, quelques-unes qui diraient : |
|
|
|
00:08:13.790 --> 00:08:15.308 |
|
« Eh ! Oh ! Du calme ! » |
|
|
|
00:08:16.686 --> 00:08:19.209 |
|
Les transhumanistes disent : |
|
|
|
00:08:19.215 --> 00:08:21.987 |
|
« Allons-y, de toute façon, |
|
on n'a pas de choix, |
|
|
|
00:08:23.098 --> 00:08:25.216 |
|
sinon les machines nous dépasseront. » |
|
|
|
00:08:28.439 --> 00:08:30.687 |
|
Je suis heureux |
|
parce que les transhumanistes, |
|
|
|
00:08:30.693 --> 00:08:32.874 |
|
à chacune de leurs déclarations, |
|
|
|
00:08:32.874 --> 00:08:37.068 |
|
ces apôtres de |
|
l'intelligence artificielle |
|
|
|
00:08:37.073 --> 00:08:40.421 |
|
sont des illustrations vivantes |
|
de la bêtise humaine. |
|
|
|
00:08:40.988 --> 00:08:42.077 |
|
Pourquoi ? |
|
|
|
00:08:42.082 --> 00:08:45.807 |
|
Parce que si nous commençons à nous |
|
greffer d'appareils de toutes sortes, |
|
|
|
00:08:45.813 --> 00:08:48.225 |
|
nous resterons toujours des brouillons, |
|
|
|
00:08:48.231 --> 00:08:51.459 |
|
des brouillons un peu lents, des drafts. |
|
|
|
00:08:51.836 --> 00:08:54.788 |
|
Et si vraiment nous nous engageons |
|
dans cette compétition, |
|
|
|
00:08:54.788 --> 00:08:56.464 |
|
non seulement malheur aux faibles, |
|
|
|
00:08:56.470 --> 00:08:58.431 |
|
mais malheur à ceux qui n'auront pas |
|
|
|
00:08:58.437 --> 00:09:01.066 |
|
la technologie qui permettra |
|
de tuer l'autre plus vite. |
|
|
|
00:09:01.510 --> 00:09:03.256 |
|
Donc, ça sera une course à quoi ? |
|
|
|
00:09:03.262 --> 00:09:06.668 |
|
Une accélération de la course |
|
à l'argent, à la puissance ? |
|
|
|
00:09:07.597 --> 00:09:09.911 |
|
Est-ce dans ce monde-là |
|
que vous voulez vivre ? |
|
|
|
00:09:09.911 --> 00:09:12.171 |
|
Et en plus quel calcul imbécile ! |
|
|
|
00:09:12.252 --> 00:09:13.721 |
|
Imbécile ! |
|
|
|
00:09:13.727 --> 00:09:14.850 |
|
Pourquoi ? |
|
|
|
00:09:15.014 --> 00:09:18.666 |
|
Parce qu'une machine déjouera toujours |
|
|
|
00:09:18.672 --> 00:09:19.900 |
|
nos intentions. |
|
|
|
00:09:21.024 --> 00:09:24.382 |
|
Puisque nous allons parier tout sur |
|
nos intelligences et nos capacités, |
|
|
|
00:09:25.286 --> 00:09:26.945 |
|
sur la poursuite de nos intérêts, |
|
|
|
00:09:27.389 --> 00:09:28.905 |
|
elle va lire dans notre jeu, |
|
|
|
00:09:29.397 --> 00:09:30.557 |
|
elle nous déjouera, |
|
|
|
00:09:30.563 --> 00:09:31.956 |
|
elle nous devancera, |
|
|
|
00:09:31.956 --> 00:09:33.116 |
|
elle nous brisera. |
|
|
|
00:09:34.523 --> 00:09:36.603 |
|
Moi, je vous propose une autre voie. |
|
|
|
00:09:37.270 --> 00:09:40.676 |
|
Non seulement pour ce qu'elle est, |
|
|
|
00:09:40.682 --> 00:09:42.444 |
|
mais pour terrasser les machines, |
|
|
|
00:09:43.190 --> 00:09:44.297 |
|
les battre. |
|
|
|
00:09:44.460 --> 00:09:49.123 |
|
Bien sûr, nous allons avoir |
|
des accessoires qui vont nous aider, |
|
|
|
00:09:50.414 --> 00:09:53.231 |
|
mais devenir des machines |
|
pour essayer de les battre ? Non ! |
|
|
|
00:09:53.237 --> 00:09:56.644 |
|
Nous allons les terrasser |
|
en redevenant des êtres humains, |
|
|
|
00:09:57.279 --> 00:10:00.574 |
|
que nous sommes |
|
en train de ne plus devenir |
|
|
|
00:10:00.580 --> 00:10:02.463 |
|
à force de jouer le jeu des machines. |
|
|
|
00:10:03.064 --> 00:10:05.548 |
|
Ça passe par où ? Par trois choses |
|
|
|
00:10:05.554 --> 00:10:08.369 |
|
que nous avons dans le jeu de nos vies, |
|
|
|
00:10:08.369 --> 00:10:10.480 |
|
la compétition mondiale, |
|
|
|
00:10:10.486 --> 00:10:12.375 |
|
que nous avons un peu laissées de côté. |
|
|
|
00:10:12.732 --> 00:10:15.559 |
|
Ces trois choses s'appellent : l'esprit, |
|
|
|
00:10:16.121 --> 00:10:18.134 |
|
l'amour de la vulnérabilité |
|
|
|
00:10:18.904 --> 00:10:19.904 |
|
et la gratuité. |
|
|
|
00:10:20.474 --> 00:10:22.084 |
|
Je commence par l'esprit. |
|
|
|
00:10:25.007 --> 00:10:27.700 |
|
Les transhumanistes n'ont pas lu Cyrano. |
|
|
|
00:10:27.706 --> 00:10:29.751 |
|
« Mais d'esprit, ô le plus lamentable des êtres, |
|
|
|
00:10:29.751 --> 00:10:32.671 |
|
Vous n'en eûtes jamais un atome, et de lettres, |
|
|
|
00:10:32.671 --> 00:10:35.451 |
|
Vous n'avez que les trois qui forment le mot : sot ! » |
|
|
|
00:10:36.777 --> 00:10:38.723 |
|
L'esprit, c'est d'abord ça. |
|
|
|
00:10:38.729 --> 00:10:39.751 |
|
C'est l'humour. |
|
|
|
00:10:40.134 --> 00:10:42.969 |
|
Les transhumanistes ont si peu d'humour. |
|
|
|
00:10:42.975 --> 00:10:44.331 |
|
C'est normal : |
|
|
|
00:10:44.331 --> 00:10:46.821 |
|
l'humour, c'est la même racine que humus. |
|
|
|
00:10:46.821 --> 00:10:50.680 |
|
Être un petit peu humble, humus, humilité, |
|
|
|
00:10:50.686 --> 00:10:52.561 |
|
avoir les pieds sur terre, |
|
|
|
00:10:52.567 --> 00:10:53.841 |
|
connaître ses limites. |
|
|
|
00:10:54.777 --> 00:10:57.097 |
|
Humour, humus, humilité, humain. |
|
|
|
00:10:59.007 --> 00:11:00.677 |
|
L'esprit, qu'est-ce que c'est ? |
|
|
|
00:11:01.079 --> 00:11:03.378 |
|
C'est bien supérieur à l'intelligence. |
|
|
|
00:11:03.384 --> 00:11:05.751 |
|
L'intelligence n'est qu'une faculté, |
|
|
|
00:11:05.757 --> 00:11:07.469 |
|
au sens littéral du terme. |
|
|
|
00:11:07.475 --> 00:11:10.404 |
|
C'est une faculté, |
|
une faculté de comprendre, |
|
|
|
00:11:10.410 --> 00:11:13.962 |
|
une faculté de saisir, |
|
une faculté de décider. |
|
|
|
00:11:14.465 --> 00:11:15.883 |
|
Mais ce n'est que cela. |
|
|
|
00:11:18.129 --> 00:11:21.894 |
|
L'esprit - spirare, en latin - |
|
l'esprit, c'est le souffle. |
|
|
|
00:11:22.766 --> 00:11:24.201 |
|
C'est ce qui vient avant. |
|
|
|
00:11:25.183 --> 00:11:26.852 |
|
Nous sommes animés, |
|
|
|
00:11:27.598 --> 00:11:29.144 |
|
pas par une intelligence, |
|
|
|
00:11:29.400 --> 00:11:31.914 |
|
nous sommes animés |
|
quand une rencontre se fait, |
|
|
|
00:11:32.584 --> 00:11:35.463 |
|
quand nous décidons quelque chose, |
|
|
|
00:11:35.463 --> 00:11:37.441 |
|
et pas uniquement, Dieu merci, |
|
|
|
00:11:37.711 --> 00:11:39.353 |
|
la poursuite de nos intérêts. |
|
|
|
00:11:39.783 --> 00:11:42.739 |
|
Nous sommes animés de |
|
quelque chose qui nous précède, |
|
|
|
00:11:42.745 --> 00:11:45.413 |
|
de quelque chose qui nous inspire, |
|
|
|
00:11:46.215 --> 00:11:48.635 |
|
de quelque chose qui |
|
nous permet de respirer. |
|
|
|
00:11:49.221 --> 00:11:51.263 |
|
Ce n'est pas l'intelligence, ça, |
|
|
|
00:11:51.269 --> 00:11:52.718 |
|
c'est autre chose. |
|
|
|
00:11:52.718 --> 00:11:54.147 |
|
L'esprit d'abord. |
|
|
|
00:11:54.153 --> 00:11:57.823 |
|
Accepter qu'il y ait quelque chose |
|
avant une faculté de faire. |
|
|
|
00:11:58.456 --> 00:12:02.382 |
|
Ensuite, aimez votre vulnérabilité. |
|
|
|
00:12:03.012 --> 00:12:04.647 |
|
Je vais faire un sondage : |
|
|
|
00:12:05.401 --> 00:12:08.266 |
|
quelqu'un dans cette salle |
|
|
|
00:12:09.068 --> 00:12:11.205 |
|
a déjà voulu aimer |
|
|
|
00:12:11.895 --> 00:12:13.965 |
|
une personne invulnérable ? |
|
|
|
00:12:14.262 --> 00:12:17.121 |
|
« Ah ! Ce que j'aime en toi, |
|
c'est ton invulnérabilité ! » |
|
|
|
00:12:17.127 --> 00:12:18.462 |
|
(Rires) |
|
|
|
00:12:18.468 --> 00:12:20.044 |
|
« Tu es intouchable ! |
|
|
|
00:12:20.285 --> 00:12:24.429 |
|
Je ne peux pas te rendre vulnérable, ni |
|
te blesser ! Je ne peux pas t'atteindre ! |
|
|
|
00:12:25.333 --> 00:12:27.095 |
|
Mais non, enfin ! |
|
|
|
00:12:27.101 --> 00:12:30.654 |
|
Vous imaginez Mozart, Van Gogh, Malraux, |
|
|
|
00:12:31.634 --> 00:12:35.062 |
|
auraient-ils pu produire |
|
le moindre son, le moindre dessin, |
|
|
|
00:12:35.068 --> 00:12:37.221 |
|
la moindre ligne d'écriture, |
|
|
|
00:12:37.618 --> 00:12:40.180 |
|
s'ils n'avaient pas eu |
|
conscience de leur finitude ? |
|
|
|
00:12:41.292 --> 00:12:44.045 |
|
Est-ce qu'on peut dire |
|
à quelqu'un « Je t'aime », |
|
|
|
00:12:44.045 --> 00:12:46.355 |
|
si on se dit qu'on a |
|
tout le temps pour cela ? |
|
|
|
00:12:47.807 --> 00:12:50.069 |
|
Si on se dit : |
|
|
|
00:12:50.069 --> 00:12:53.147 |
|
« Mon projet, c'est de finir |
|
dans la solitude de ma machine, |
|
|
|
00:12:53.153 --> 00:12:54.467 |
|
de mes pilules, |
|
|
|
00:12:54.473 --> 00:12:56.735 |
|
de mon être augmenté |
|
qui va dominer les autres, |
|
|
|
00:12:56.741 --> 00:12:59.709 |
|
qui va dire : « Regarde |
|
comme je suis invulnérable ! Viens ! » |
|
|
|
00:13:01.550 --> 00:13:02.560 |
|
(Soupir) |
|
|
|
00:13:02.566 --> 00:13:03.953 |
|
Good luck ! |
|
|
|
00:13:03.953 --> 00:13:05.183 |
|
(Rires) |
|
|
|
00:13:05.328 --> 00:13:07.233 |
|
Aimez votre vulnérabilité ! |
|
|
|
00:13:10.034 --> 00:13:12.245 |
|
La machine n'est pas vulnérable, |
|
|
|
00:13:12.729 --> 00:13:14.499 |
|
c'est ce qui va la tuer. |
|
|
|
00:13:15.618 --> 00:13:18.374 |
|
Enfin, la gratuité. |
|
|
|
00:13:18.825 --> 00:13:21.246 |
|
(Soupir) |
|
La gratuité, euh... |
|
|
|
00:13:21.975 --> 00:13:23.938 |
|
Ben oui, la gratuité ! |
|
|
|
00:13:25.558 --> 00:13:27.868 |
|
Les machines vont |
|
tout prévoir de nos gestes. |
|
|
|
00:13:28.232 --> 00:13:29.899 |
|
Tout prévoir avec les big data. |
|
|
|
00:13:29.905 --> 00:13:32.875 |
|
Vous avez compris qu'il fallait |
|
les données tout de suite, |
|
|
|
00:13:32.881 --> 00:13:35.028 |
|
et même peut-être faire de l'argent avec. |
|
|
|
00:13:35.304 --> 00:13:37.812 |
|
Elles vont tout prévoir, tout anticiper, |
|
|
|
00:13:37.818 --> 00:13:38.943 |
|
de vos intentions, |
|
|
|
00:13:40.399 --> 00:13:42.815 |
|
mais elles ne prévoiront jamais |
|
|
|
00:13:42.815 --> 00:13:44.967 |
|
ce qui fait que vous allez aller |
|
|
|
00:13:44.973 --> 00:13:46.713 |
|
contre vos intérêts, |
|
|
|
00:13:46.719 --> 00:13:49.166 |
|
ce qui fait que vous allez |
|
vous mettre en risque, |
|
|
|
00:13:49.172 --> 00:13:51.051 |
|
pas pour vous, pour votre carrière, |
|
|
|
00:13:51.743 --> 00:13:53.308 |
|
mais pour quelqu'un d'autre |
|
|
|
00:13:53.592 --> 00:13:57.038 |
|
ce qui fait que vous allez décider |
|
de dire à quelqu'un « Je t'aime », |
|
|
|
00:13:58.134 --> 00:13:59.724 |
|
et lui confier votre vie. |
|
|
|
00:14:00.528 --> 00:14:02.854 |
|
Ce qui fait que vous allez |
|
préférer mourir, vous, |
|
|
|
00:14:04.067 --> 00:14:07.319 |
|
pour que vive la personne que vous aimez. |
|
|
|
00:14:07.919 --> 00:14:10.419 |
|
Celles et ceux qui aiment |
|
dans cette salle, |
|
|
|
00:14:10.425 --> 00:14:13.273 |
|
celles et ceux qui ont la chance |
|
d'avoir des enfants, |
|
|
|
00:14:13.879 --> 00:14:15.809 |
|
savent très bien ce que je veux dire. |
|
|
|
00:14:16.625 --> 00:14:20.731 |
|
La gratuité, c'est le bug absolu |
|
pour les machines. |
|
|
|
00:14:21.180 --> 00:14:23.081 |
|
C'est ce qui va les faire disjoncter. |
|
|
|
00:14:23.355 --> 00:14:26.260 |
|
Je vais un peu plus loin : |
|
je ne crois pas beaucoup à la... |
|
|
|
00:14:26.918 --> 00:14:30.124 |
|
Ne vous y fiez pas : le combat |
|
contre les machines va exister, |
|
|
|
00:14:30.505 --> 00:14:33.070 |
|
va être violent, va être rude. |
|
|
|
00:14:33.577 --> 00:14:36.740 |
|
Regardez ce qui se construit |
|
autour des robots-tueurs. |
|
|
|
00:14:37.045 --> 00:14:40.246 |
|
Je ne crois pas à la solidarité |
|
des machines entre elles. |
|
|
|
00:14:40.740 --> 00:14:43.050 |
|
Je crois à la fraternité humaine. |
|
|
|
00:14:44.105 --> 00:14:48.283 |
|
La fraternité humaine, c'est celle qui |
|
va faire que nous allons les battre, |
|
|
|
00:14:48.478 --> 00:14:51.869 |
|
qui va faire que nous allons nous |
|
mettre en réseau, nous protéger, |
|
|
|
00:14:52.363 --> 00:14:55.349 |
|
parce que nous avons quelque |
|
chose de plus précieux qu'elles, |
|
|
|
00:14:55.355 --> 00:14:57.999 |
|
bien plus précieux qu'une intelligence, |
|
qu'une capacité. |
|
|
|
00:14:58.809 --> 00:15:00.189 |
|
C'est notre esprit, |
|
|
|
00:15:01.189 --> 00:15:02.737 |
|
notre vulnérabilité |
|
|
|
00:15:03.204 --> 00:15:08.008 |
|
et notre gratuité, qui est notre capacité |
|
à dire « Je t'aime » sans rien n'attendre. |
|
|
|
00:15:08.141 --> 00:15:08.927 |
|
Merci. |
|
|
|
00:15:08.933 --> 00:15:11.933 |
|
(Applaudissements) |
|
|
|
|