WEBVTT 0 00:00:00.120 --> 00:00:01.050 - Bonsoir à tous. 1 00:00:03.420 --> 00:00:08.640 Merci d'être présents pour cette rencontre du cycle « Les intelligences 2 00:00:08.840 --> 00:00:12.660 artificielles » organisée par la Bibliothèque publique d'information. 3 00:00:13.410 --> 00:00:16.560 Il s'agit de la dernière rencontre du cycle « Les intelligences artificielles » 4 00:00:16.760 --> 00:00:19.770 qui, ce soir, va être consacrée aux imaginaires de l'intelligence 5 00:00:19.970 --> 00:00:22.830 artificielle et que nous avions intitulée donc « L'intelligence 6 00:00:23.030 --> 00:00:23.990 artificielle et ses fictions ». 7 00:00:24.390 --> 00:00:29.250 Pour cette soirée, je suis ravi d'accueillir les intervenants que 8 00:00:29.450 --> 00:00:31.750 vous allez entendre ce soir sur le plateau : 9 00:00:32.400 --> 00:00:36.660 Gérard Klein, Catherine Ikam, David Cage et je laisserai bien sûr 10 00:00:36.860 --> 00:00:41.340 Simon Rioux, critique de cinéma à écran large, qui va animer ce débat, 11 00:00:41.540 --> 00:00:46.230 les présenter plus en détail. 12 00:00:46.430 --> 00:00:47.790 Je vous souhaite une très bonne soirée. 13 00:00:50.690 --> 00:00:53.540 - Bonsoir, je suis très heureux d'être parmi vous ce soir. Je vais 14 00:00:53.740 --> 00:00:56.480 vous présenter succinctement nos invités parce que 15 00:00:56.680 --> 00:00:59.750 je pense que, naturellement, ils vont parler de leur parcours 16 00:00:59.950 --> 00:01:01.700 et de leurs activités, au fur et à mesure de cette discussion. 17 00:01:02.630 --> 00:01:05.780 Juste un mot pour vous dire que vous n'avez sûrement pas 18 00:01:05.980 --> 00:01:08.690 besoin de moi pour remarquer que tout le monde désormais parle 19 00:01:08.890 --> 00:01:09.860 d'intelligence artificielle. 20 00:01:10.100 --> 00:01:13.850 Partout, tout le temps, qu'on parle de chatbots, qu'on soit dans une 21 00:01:14.050 --> 00:01:17.810 émission d'économie, de prospective. C'est un terme, 22 00:01:18.010 --> 00:01:19.520 un vocable qui revient absolument partout. 23 00:01:20.120 --> 00:01:22.930 Comme vous le savez aussi sans doute, il nous provient d'abord de la fiction. 24 00:01:23.320 --> 00:01:26.630 Logiquement, on va donc parler de l'intelligence artificielle dans 25 00:01:26.830 --> 00:01:31.930 la fiction, de comment la fiction nous a précédés et a précédé 26 00:01:32.130 --> 00:01:34.970 les avancées techniques, technologiques qui en font aujourd'hui un sujet 27 00:01:35.170 --> 00:01:39.950 de société et aborder peut-être en quoi la fiction continue de nous annoncer 28 00:01:40.550 --> 00:01:43.470 le chemin que nous allons prendre. Pour en discuter, 29 00:01:43.670 --> 00:01:47.810 nous avons avec nous le fondateur de Quantic Dream, un studio de jeux 30 00:01:48.010 --> 00:01:51.050 vidéo pour le moins important 31 00:01:51.250 --> 00:01:54.620 dont les créations sont beaucoup discutées, depuis maintenant 32 00:01:54.820 --> 00:01:55.580 pas mal d'années. 33 00:01:55.780 --> 00:01:59.810 Et, s'il y a des amateurs de David Bowie dans la salle, 34 00:02:00.010 --> 00:02:02.120 je pense qu'ils sont un peu émus de voir David Cage. Il vous dira peut-être 35 00:02:02.320 --> 00:02:06.470 pourquoi. En tout cas, son dernier jeu a été énormément commenté 36 00:02:06.670 --> 00:02:08.070 ces derniers mois : il s'agit de « Detroit ». 37 00:02:08.540 --> 00:02:12.080 On va en parler évidemment avec lui. À sa droite 38 00:02:12.280 --> 00:02:17.750 Catherine Ikam, qui est une plasticienne importante, 39 00:02:17.950 --> 00:02:23.090 qui a travaillé notamment sur l'identité, la figure du double, 40 00:02:23.810 --> 00:02:25.160 via l'imagerie numérique. 41 00:02:25.700 --> 00:02:30.230 Et, à ma gauche, se trouve Gérard Klein, qui est un éditeur et un auteur 42 00:02:30.430 --> 00:02:32.900 de science-fiction pour le moins important et qui va nous parler 43 00:02:33.100 --> 00:02:35.840 d'une œuvre fondatrice en matière d'intelligence artificielle 44 00:02:36.040 --> 00:02:36.800 et de science-fiction. 45 00:02:37.000 --> 00:02:38.720 Peut-être qu'on parlera également de ses propres travaux parce que, 46 00:02:38.920 --> 00:02:41.810 corrigez-moi si je dis une bêtise, mais je pense qu'une œuvre 47 00:02:42.010 --> 00:02:44.300 comme ce que vous avez pu écrire sur les virus n'est pas 48 00:02:44.500 --> 00:02:47.270 très loin de l'idée de l'intelligence artificielle et de la programmation. 49 00:02:49.630 --> 00:02:50.390 - Surtout dans « Mémoire 50 00:02:53.190 --> 00:02:58.150 vive mémoire morte » où j'imagine une perle qu'on met dans le cerveau 51 00:02:58.350 --> 00:03:02.350 d'un foetus qui lui servira de mémoire artificielle pratiquement illimitée. 52 00:03:03.730 --> 00:03:07.070 - Alors on va commencer assez naturellement avec vous Monsieur 53 00:03:07.270 --> 00:03:10.510 Klein. Tout simplement parce que même si, quand on parle science-fiction, 54 00:03:10.710 --> 00:03:13.120 beaucoup d'entre nous se représentent évidemment le cinéma 55 00:03:13.320 --> 00:03:14.080 et l'imagerie cinématographique. 56 00:03:14.280 --> 00:03:17.840 Pourtant, en réalité, c'est littéraire avant tout et il y a 57 00:03:18.040 --> 00:03:20.770 un texte absolument fondateur si on doit parler d'intelligence 58 00:03:20.970 --> 00:03:24.460 artificielle et d'êtres artificiels, c'est « L'Ève future » 59 00:03:24.660 --> 00:03:25.420 de Villiers de L'Isle-Adam. 60 00:03:25.860 --> 00:03:30.340 Oui, c'est un livre extraordinaire que je vous recommande, 61 00:03:30.540 --> 00:03:36.400 qui n'est pas facile à lire. Villiers de L'Isle-Adam le publie en 1886 62 00:03:36.700 --> 00:03:38.260 après dix ans de travail. 63 00:03:39.860 --> 00:03:41.290 Et ca raconte quoi ? 64 00:03:41.490 --> 00:03:46.540 Ca raconte l'histoire d'un jeune lord écossais Lord Ewild qui est 65 00:03:46.740 --> 00:03:51.580 épouvantablement amoureux. « épouvantablement » est le mot 66 00:03:51.980 --> 00:03:56.980 d'Alicia Clary qui est d'une beauté 67 00:03:57.180 --> 00:04:00.850 à tomber par terre, qui est une cantatrice fameuse. 68 00:04:01.150 --> 00:04:03.940 Mais, dès qu'elle ouvre la bouche, c'est pour dire des sottises. 69 00:04:04.140 --> 00:04:09.580 Et ce pauvre lord est tellement déprimé qu'il se voit suicidé. 70 00:04:09.780 --> 00:04:13.690 Il va trouver Thomas Edison qu'il a aidé avec sa fortune aux débuts 71 00:04:13.890 --> 00:04:17.590 d'Edison pour lui dire qu'il va se donner la mort. 72 00:04:17.960 --> 00:04:19.510 Alors Edison lui dit : « Non, ne faites pas ca.  73 00:04:19.900 --> 00:04:24.970 Je vais vous en fabriquer une qui ressemblera exactement à votre Alicia 74 00:04:25.170 --> 00:04:29.080 Clary mais dont les propos - 75 00:04:29.290 --> 00:04:33.640 j'insiste là-dessus - seront extraordinairement intelligents ». 76 00:04:34.840 --> 00:04:40.270 Le roman décrit, dans un très grand luxe de détails techniques, 77 00:04:40.660 --> 00:04:46.420 la fabrication de cette andréïde, puisque c'est le terme qu'utilise Villiers, 78 00:04:46.790 --> 00:04:54.010 qui sera transformé ensuite ou réinventé sous la forme d'androïde. Donc Edison 79 00:04:54.210 --> 00:05:00.400 décrit la fabrication de cette andréïde qui correspond 80 00:05:00.600 --> 00:05:05.830 et la problématique de Villiers est vraiment celle de 81 00:05:06.030 --> 00:05:07.480 l'intelligence artificielle. 82 00:05:07.840 --> 00:05:15.910 Je ne sais pas si je peux citer quelques lignes (il lit) : 83 00:05:16.110 --> 00:05:16.870 « Voici les deux phonographes » 84 00:05:17.070 --> 00:05:19.090 Car comment va-t-elle parler de façon intelligente 85 00:05:19.460 --> 00:05:24.390 cette andréïde, splendide par ailleurs ? (il lit) « Voici les deux phonographes d'or 86 00:05:24.590 --> 00:05:28.570 inclinés en angle vers le centre de la poitrine 87 00:05:28.770 --> 00:05:29.530 et qui sont les deux poumons de Hadaly. » C'est le nom de l'andréïde. 88 00:05:29.730 --> 00:05:34.000 (il lit) « Ils se passent l'un à l'autre les feuilles métalliques 89 00:05:34.200 --> 00:05:37.500 de ses causeries harmonieuses et, je dois dire, célestes. 90 00:05:37.810 --> 00:05:41.290 Un peu comme les presses d'imprimerie se passent les feuilles à tirer. 91 00:05:41.740 --> 00:05:45.220 Un seul ruban d'état peut contenir sept heures de ces paroles. 92 00:05:45.520 --> 00:05:49.020 Celles-ci sont imaginées par les plus grands poètes, les plus subtils 93 00:05:49.220 --> 00:05:53.590 métaphysiciens et les romanciers les plus profonds de ce siècle, génies 94 00:05:54.040 --> 00:05:57.310 auxquels je me suis adressé avec mon livre pointe du diamant 95 00:05:57.510 --> 00:05:58.900 ces merveilles à jamais inédites. C'est pourquoi 96 00:05:59.170 --> 00:06:04.800 je dis que Hadaly remplace une intelligence par une intelligence. » 97 00:06:05.230 --> 00:06:09.460 J'arrête ici ma citation parce que je ne veux pas monopoliser le micro. 98 00:06:10.630 --> 00:06:11.390 Mais 99 00:06:11.620 --> 00:06:13.450 c'est en quelque sorte Wikipédia 100 00:06:13.740 --> 00:06:15.750 que décrit là évidemment 101 00:06:16.260 --> 00:06:18.610 sans en avoir la moindre idée 102 00:06:19.000 --> 00:06:22.660 Villiers de L'Isle-Adam. Et tout le bouquin est comme ca. 103 00:06:22.860 --> 00:06:28.120 Ce qui est tout à fait extraordinaire dans ce roman, c'est que Villiers 104 00:06:28.320 --> 00:06:32.680 fait preuve d'une misogynie extraordinaire suggérant purement et simplement 105 00:06:33.090 --> 00:06:37.030 de remplacer les femmes par des andréïdes qui seraient meilleures, 106 00:06:37.230 --> 00:06:40.100 plus intelligentes et tout aussi belles que les plus belles. 107 00:06:40.560 --> 00:06:45.820 Il est également anti-scientistes. Il ne ridiculise pas du tout 108 00:06:46.020 --> 00:06:46.780 son Thomas Edison. 109 00:06:46.980 --> 00:06:47.740 Mais il en montre 110 00:06:47.940 --> 00:06:49.570 les limites de la science. 111 00:06:50.120 --> 00:06:55.600 C'est un roman qui préfigure les questions actuelles sur l'intelligence 112 00:06:55.800 --> 00:07:02.290 artificielle et, en même temps, est dirigé contre les femmes et contre la science. 113 00:07:03.660 --> 00:07:05.770 - Et, justement, comme vous le pointiez, 114 00:07:05.970 --> 00:07:08.260 il y a la question fondamentale du double 115 00:07:08.500 --> 00:07:11.880 dans ce texte et de la fabrication du double. C'est quelque chose qui 116 00:07:12.080 --> 00:07:14.020 est partie prenante de vos travaux 117 00:07:14.230 --> 00:07:17.440 Catherine Ikam. Est-ce que vous pourriez nous les présenter ? 118 00:07:17.640 --> 00:07:21.110 Vous nous avez amené des exemples en vidéo 119 00:07:21.660 --> 00:07:23.620 de vos travaux et de divers types de travaux. 120 00:07:23.820 --> 00:07:25.240 Est-ce que vous pourriez nous les présenter? 121 00:07:25.870 --> 00:07:28.000 - Oui, bien sûr. Je ne sais pas si ca marche. 122 00:07:28.250 --> 00:07:35.170 J'ai préparé quelques notes très rapides sur deux sortes de travail 123 00:07:35.370 --> 00:07:40.660 très différents : l'un qui date de 2003. C'est la création d'un personnage 124 00:07:40.860 --> 00:07:46.000 virtuel qui s'appelle Oscar sur lequel vous allez voir deux films. 125 00:07:46.200 --> 00:07:51.360 Un petit film où il interagit, ce personnage est interactif, il a des modèles 126 00:07:51.560 --> 00:07:55.020 de comportement et il interagit avec les visiteurs. 127 00:07:55.740 --> 00:08:00.000 Au départ, il a été créé comme acteur virtuel dans un spectacle 128 00:08:00.200 --> 00:08:03.730 de l'Ircam qui s'appelait « Shlag » et où il était 129 00:08:03.990 --> 00:08:06.810 enfin, je ne vais pas vous raconter l'histoire parce que vous allez le voir 130 00:08:07.010 --> 00:08:07.770 dans le petit film. 131 00:08:08.130 --> 00:08:11.490 Avant cela, je voulais vous lire quelques notes rapides 132 00:08:11.690 --> 00:08:12.450 sur mon travail. 133 00:08:12.650 --> 00:08:16.110 Je travaille sur l'identité, les identités multiples à l'heure 134 00:08:16.310 --> 00:08:19.110 du numérique, les thèmes de l'apparence, des leurres, 135 00:08:19.740 --> 00:08:23.970 du vivant, de l'artificiel, de l'humain, du modèle. On peut se demander quelle 136 00:08:24.170 --> 00:08:28.380 image de nous nous renvoient les technologies qui nous entourent. 137 00:08:28.580 --> 00:08:32.640 Est-ce qu'elle est constructive ou destructrice de notre identité ou les deux 138 00:08:33.270 --> 00:08:37.200 à la fois ? J'ai tenté d'explorer le registre de la figure humaine au fur et à mesure 139 00:08:37.400 --> 00:08:42.330 de l'apparition des technologies en essayant de les explorer. Il y a ce 140 00:08:42.530 --> 00:08:46.200 mot d'Emmanuel Levinas dans « Essais sur le penser-à-l'autre » : « Le visage qui 141 00:08:46.400 --> 00:08:47.400 me regarde m'affirme. » 142 00:08:48.240 --> 00:08:52.710 Je pense que nous existons en fonction de ce que nous regardons. Le face-à-face 143 00:08:52.910 --> 00:08:56.610 nous fait exister : face-à-face avec l'autre, avec notre double. 144 00:08:56.810 --> 00:09:00.930 On va revenir là-dessus. Face-à-face avec notre désir d'être leurré 145 00:09:01.230 --> 00:09:03.840 par une improbable rencontre avec un simulacre. 146 00:09:04.040 --> 00:09:08.220 C'est une chose très profonde depuis le Golem du futur. On sait très bien 147 00:09:08.420 --> 00:09:12.240 que ces êtres artificiels nous tendent le miroir dans lequel nous regarder 148 00:09:12.440 --> 00:09:13.200 nous-mêmes. 149 00:09:13.500 --> 00:09:18.810 La fiction, ce rêve des machines autonomes semblait 150 00:09:19.010 --> 00:09:22.620 jusqu'à présent ne pas pouvoir se réaliser. 151 00:09:23.010 --> 00:09:26.880 Aujourd'hui, il y aurait vraiment des nouvelles discussions à avoir. 152 00:09:27.080 --> 00:09:27.900 Le temps réel, 153 00:09:28.440 --> 00:09:34.040 ces dispositifs de réactivité changent complètement tout cela. 154 00:09:34.770 --> 00:09:39.240 Le premier petit film, c'est Oscar, que vous allez voir, mais je voulais 155 00:09:39.440 --> 00:09:44.280 dire avant que j'avais préparé... j'ai été très fascinée par ma lecture 156 00:09:44.480 --> 00:09:49.840 de l'écrivain Philip K. Dick à partir de 1976 et, 157 00:09:50.040 --> 00:09:53.790 à la demande de Pierre Boulez, nous avons organisé avec Todd McCover 158 00:09:53.990 --> 00:09:57.990 qui était musicien et l'IRCAM un spectacle pour le dixième anniversaire 159 00:09:58.190 --> 00:10:02.890 du centre qui, à partir de « Valis », le roman de Philip K. Dick, va s'appeler 160 00:10:03.090 --> 00:10:07.910 « Living Intelligence System ». J'avais créé dans le centre 161 00:10:08.110 --> 00:10:12.110 un parcours exposition qui était un grand labyrinthe octogonal 162 00:10:12.310 --> 00:10:17.490 de marbre de Carrare qu'on avait mis dans le centre, pièce par pièce, 163 00:10:17.690 --> 00:10:22.800 et à travers laquelle les visiteurs se promenaient. Je ne vais 164 00:10:23.000 --> 00:10:25.830 pas rentrer dans le détail mais le labyrinthe symbolisait 165 00:10:26.030 --> 00:10:28.260 le monde dans lequel nous vivons, les puits de lumière représentaient 166 00:10:28.460 --> 00:10:32.550 la réalité cachée qui ne se dévoile que par fragment. Cette citation 167 00:10:32.750 --> 00:10:35.850 que j'aime tellement de Philip K. Dick qui dit : « La réalité, c'est ce qui refuse 168 00:10:36.050 --> 00:10:37.920 de disparaître quand on a cessé d'y croire. » 169 00:10:38.740 --> 00:10:42.090 Si ca vous intéresse, il y a des archives de tout ca 170 00:10:42.290 --> 00:10:43.050 à la bibliothèque Brancusi. 171 00:10:43.510 --> 00:10:47.100 à partir de 1990, nous avons commencé à  rédiger des personnages 172 00:10:47.300 --> 00:10:50.010 virtuels avec lesquels on pouvait interagir en temps réel. 173 00:10:51.000 --> 00:10:54.600 Le spectateur se retrouve face-à-face avec un artefact à visage humain 174 00:10:55.020 --> 00:10:58.200 qui obéit à ses propres lois ou au contraire refuse d'entrer en 175 00:10:58.400 --> 00:11:01.770 communication avec lui refuse de communiquer. 176 00:11:01.980 --> 00:11:05.670 Un peu comme une rencontre humaine, ca marche ou ca ne marche pas. 177 00:11:05.870 --> 00:11:09.730 Je me suis intéressée à définir ou essayer d'approcher 178 00:11:09.930 --> 00:11:12.570 quelle sorte de nouveau scénario on doit construire pour donner 179 00:11:12.770 --> 00:11:14.560 une forme à ce désir de l'autre. 180 00:11:14.940 --> 00:11:16.410 Quel nouvel espace de jeu. 181 00:11:16.710 --> 00:11:19.080 Je pense que mon voisin va pouvoir vous répondre. 182 00:11:19.720 --> 00:11:26.850 Comment rendre ces personnages empathiques et donner 183 00:11:27.050 --> 00:11:28.170 l'impression d'une rencontre ? 184 00:11:28.540 --> 00:11:32.440 On peut passer le premier petit film 185 00:11:32.640 --> 00:11:35.610 qui montre d'abord Oscar tel qu'il est aujourd'hui. 186 00:11:35.810 --> 00:11:41.920 Parce que, bien que créé en 2003, il continue à être exposé dans plein 187 00:11:42.170 --> 00:11:42.930 de musées. 188 00:11:43.230 --> 00:11:47.580 La constitution d'un acteur virtuel d'Oscar, acteur 189 00:11:47.780 --> 00:11:50.940 virtuel, ca a commencé avant. Après je vous parlerai du travail 190 00:11:51.140 --> 00:11:52.830 que je fais maintenant qui est assez différent. 191 00:11:54.790 --> 00:11:57.120 Est-ce qu'on peut envoyer les deux petits films ? 192 00:11:58.980 --> 00:11:59.740 (bruit) 193 00:11:59.940 --> 00:12:00.700 (bruit) 194 00:12:00.900 --> 00:12:01.660 Le son n'est pas mixé alors c'est un peu 195 00:12:01.860 --> 00:12:02.620 (bruit) (projection) 196 00:13:01.250 --> 00:13:02.010 Oui donc 197 00:13:02.210 --> 00:13:04.830 c'est interactif, c'est-à-dire qu'il y a une caméra qui 198 00:13:05.820 --> 00:13:09.720 analyse les mouvements de la personne qui est assise en face 199 00:13:09.920 --> 00:13:15.180 d'Oscar sur une chaise, en face du chevalet et le visage répond 200 00:13:15.380 --> 00:13:16.440 à ses différents mouvements 201 00:13:16.890 --> 00:13:19.470 par des expressions, par un sourire, 202 00:13:20.100 --> 00:13:21.040 par différents éléments. 203 00:13:21.660 --> 00:13:23.300 Mais on ne sait jamais exactement ce qui se passe. 204 00:13:23.530 --> 00:13:25.710 C'est important que le mystère demeure. 205 00:13:26.190 --> 00:13:28.170 C'était la naissance d'Oscar. 206 00:13:28.380 --> 00:13:30.690 C'était en 2003 et c'était 207 00:13:32.070 --> 00:13:33.630 une coproduction avec le Canada. 208 00:13:34.160 --> 00:13:35.670 C'était la première fois. 209 00:13:36.240 --> 00:13:38.520 Il y a eu beaucoup d'articles dans le sens où il y avait 210 00:13:38.720 --> 00:13:41.230 un acteur virtuel qui participait à un spectacle. 211 00:14:20.260 --> 00:14:23.060 (musique du film projeté) 212 00:14:25.360 --> 00:14:28.490 - (C. Ikam dans le film) D'abord avec différentes techniques 213 00:14:28.690 --> 00:14:34.630 avec la vidéo avec l'informatique. Depuis 1991, on a réalisé 214 00:14:34.830 --> 00:14:39.670 avec lui des personnages virtuels, des personnages qui sont numérisés 215 00:14:39.870 --> 00:14:43.390 qui sont doués d'autonomie et qui interagissent en temps réel avec 216 00:14:43.590 --> 00:14:44.350 les visiteurs. 217 00:14:44.680 --> 00:14:47.830 Jusqu'à présent, on avait plutôt travaillé dans un contexte muséal. 218 00:14:48.270 --> 00:14:53.200 Avec cette proposition de Roland (Auzet), on a vu un univers très 219 00:14:53.400 --> 00:14:55.810 différent qui est justement l'univers du spectacle vivant. 220 00:14:56.300 --> 00:14:59.290 Créer un acteur virtuel pour le spectacle vivant, un spectacle de 221 00:14:59.490 --> 00:15:02.590 cirque, c'est une expérience nouvelle.   222 00:15:17.430 --> 00:15:21.040 - Le spectacle était monté à partir du « Tambour » de Günter Grass, 223 00:15:21.940 --> 00:15:22.700 adapté très 224 00:15:22.900 --> 00:15:23.660 largement. 225 00:15:23.860 --> 00:15:27.450 - Comme on l'appelle le personnage virtuel, le personnage virtuel 226 00:15:28.200 --> 00:15:28.960 et le narrateur de cette histoire. 227 00:15:29.470 --> 00:15:30.930 Il est inspiré par 228 00:15:31.980 --> 00:15:33.060 Oscar le tambour 229 00:15:33.450 --> 00:15:34.210 du bouquin de 230 00:15:34.840 --> 00:15:36.330 Günter Grass. 231 00:15:42.450 --> 00:15:46.030 - Nous ce qu'on a développé c'est des attitudes 232 00:15:46.930 --> 00:15:50.740 bien définies, c'est-à-dire à partir de muscles qui vont faire bouger 233 00:15:50.940 --> 00:15:53.860 la bouche ou les joues ou les yeux. 234 00:15:54.340 --> 00:15:56.320 On va définir des attitudes : 235 00:15:56.920 --> 00:15:58.270 heureux ou malheureux 236 00:15:58.900 --> 00:16:01.960 le rire, la douleur, la joie 237 00:16:02.830 --> 00:16:03.820 l'indifférence, etc. 238 00:16:04.780 --> 00:16:05.540 239 00:16:05.770 --> 00:16:08.170 Et donc lui donner aussi une certaine personnalité. 240 00:16:08.980 --> 00:16:13.810 Il a aussi une partie vie propre, il va pouvoir par exemple se retourner. 241 00:16:14.470 --> 00:16:16.990 Et partir un peu dans son propre monde,dans le monde des rêves 242 00:16:17.410 --> 00:16:20.380 sauf qu'il va se déconnecter un peu de notre monde à nous. 243 00:16:20.740 --> 00:16:29.150 - Quand il n'y a pas 244 00:16:29.350 --> 00:16:30.110 d'interaction, Oscar s'endort. 245 00:16:38.380 --> 00:16:43.140 - Vous parlez d'Oscar comme d'un acteur. Est-ce à  dire qu'il avait une partition 246 00:16:43.760 --> 00:16:45.590 qu'il répétait inlassablement ? Mais il était capable d'improviser. 247 00:16:47.530 --> 00:16:48.290 - Oui en fonction des mouvements des gens sur scène. - Très bien. 248 00:16:48.580 --> 00:16:51.950 D'accord comme une improvisation en fait. 249 00:16:56.900 --> 00:17:02.930 - Trois caméras captent des mouvements d'acteurs sur scène et permettent, 250 00:17:03.130 --> 00:17:06.050 en fonction de ses mouvements de placer Oscar à tel ou tel endroit 251 00:17:06.380 --> 00:17:10.100 du dispositif et à faire en sorte qu'il s'intéresse à tel ou tel 252 00:17:10.300 --> 00:17:11.450 protagoniste du cirque. 253 00:17:11.940 --> 00:17:17.630 - Il y a vraiment deux étapes. Il y a un premier travail 254 00:17:17.830 --> 00:17:20.930 de détection qui est fait par ces deux machines. 255 00:17:22.400 --> 00:17:27.230 Là, on a un dispositif de trois caméras qui sont autour et au-dessus de 256 00:17:27.430 --> 00:17:31.400 la piste qui permettent de capter les mouvements 257 00:17:32.060 --> 00:17:33.470 et les corps sur la piste. 258 00:17:34.190 --> 00:17:38.240 C'est vraiment l'information qui nous sert à faire vivre 259 00:17:38.440 --> 00:17:41.720 Oscar, à le faire réagir à ce qui se passe sur la piste. 260 00:17:49.660 --> 00:17:50.420 261 00:17:50.920 --> 00:17:52.910 - Ce n'est pas enregistré, c'est vraiment en temps réel. 262 00:18:02.660 --> 00:18:03.420 - Les artistes qu'on voit sur scène 263 00:18:03.620 --> 00:18:07.010 connaissaient-ils le fonctionnement d'Oscar ou eux-mêmes testaient-ils? 264 00:18:07.210 --> 00:18:11.780 - C'était très compliqué parce que ce n'est pas la même dynamique 265 00:18:11.980 --> 00:18:14.700 une dynamique de performance humaine et la dynamique de la machine. 266 00:18:15.070 --> 00:18:20.110 À part la danseuse qui était la seule 267 00:18:20.310 --> 00:18:22.720 qui s'entendait avec lui, ca ne marchait pas du tout en fait. 268 00:18:23.140 --> 00:18:25.370 C'est très compliqué. - Alors est-ce qu'au final 269 00:18:25.570 --> 00:18:27.430 on ne se retrouve pas avec des artistes sur scène 270 00:18:27.820 --> 00:18:28.700 - On peut s'arrêter là. 271 00:18:29.680 --> 00:18:31.720 - Est-ce qu'au final vous ne vous êtes pas retrouvée avec 272 00:18:31.920 --> 00:18:34.660 des artistes sur scène qui travaillaient pour Oscar entre guillemets, qui 273 00:18:34.860 --> 00:18:36.240 essayaient de comprendre ses directives ? - C'était compliqué. 274 00:18:40.500 --> 00:18:43.900 - Elle peut être encore tout à fait différente dans une autre installation. 275 00:18:44.230 --> 00:18:47.050 où on va donner à Oscar de l'intelligence artificielle. 276 00:18:47.350 --> 00:18:51.970 Oscar, c'est cubique, c'est quelqu'un qui peut exister partout. 277 00:18:57.490 --> 00:18:58.250 Je vais 278 00:18:58.450 --> 00:18:59.210 parler de l'autre 279 00:18:59.410 --> 00:19:00.170 travail à moins que - Ah non je vous en prie. 280 00:19:02.540 --> 00:19:09.830 - À partir de ca, ce sont des personnages virtuels il y en a eu beaucoup mais 281 00:19:10.430 --> 00:19:17.740 je vous en ai montré un, ca suffit je pense. Ensuite je vais vous parler 282 00:19:19.650 --> 00:19:20.420 du travail qu'on fait maintenant qui me tient énormément à coeur. 283 00:19:21.240 --> 00:19:26.750 Depuis 2014, nous avons commencé à réaliser des portraits en nuages 284 00:19:26.950 --> 00:19:29.530 de points que nous avons appelés « Points Cloud Portraits ». 285 00:19:30.410 --> 00:19:33.950 Ce sont des visages instables qui sont créés par un mouvement d'attraction 286 00:19:34.310 --> 00:19:37.490 entre un million de particules et des modèles en 3D qui s'assemblent, 287 00:19:37.690 --> 00:19:41.900 se désassemblent, apparaissent et disparaissent en fonction d'un certain 288 00:19:42.100 --> 00:19:44.960 nombre de paramètres aléatoires et interactifs. 289 00:19:45.650 --> 00:19:49.220 Ces portraits se forment, se précisent. C'est un jeu sur le surgissement 290 00:19:49.420 --> 00:19:53.140 et la disparition car on ne peut pas maîtriser ces génératifs. 291 00:19:53.340 --> 00:19:56.030 Il y a beaucoup d'éléments qui interagissent et on ne peut 292 00:19:56.230 --> 00:20:00.020 pas maîtriser à la fois la force d'attraction des particules, la position 293 00:20:00.220 --> 00:20:04.070 du modèle dans l'espace virtuel, les mouvements 294 00:20:04.270 --> 00:20:08.090 de la caméra virtuelle. Dans une perspective, à un certain moment donné. 295 00:20:08.290 --> 00:20:11.150 les particules s'assemblent et le portrait apparaît précisément dans 296 00:20:11.350 --> 00:20:15.410 sa netteté, on peut reconnaître celui qui en a été le modèle et ca se 297 00:20:15.610 --> 00:20:21.370 brouille ensuite. La présence des visiteurs modifie les paramètres 298 00:20:22.060 --> 00:20:26.020 en agissant sur le mouvement des particules qui peuvent s'agréger, 299 00:20:26.220 --> 00:20:31.510 se désagréger, devenir complètement abstraites. Donc, c'est génératif, c'est 300 00:20:31.710 --> 00:20:32.850 en 3D et c'est tout le temps différent. 301 00:20:33.850 --> 00:20:38.810 Dès qu'un visiteur se présente, son visage se substitue au précédent 302 00:20:39.160 --> 00:20:42.900 parce que, dans la première version de ce travail qui s'appelait « Face », 303 00:20:43.270 --> 00:20:47.690 les visiteurs avaient une caméra en face d'eux, un double se constituait, 304 00:20:47.890 --> 00:20:51.430 une sorte de double monumental d'eux-mêmes. Ils pouvaient jouer 305 00:20:51.630 --> 00:20:52.390 avec leur double. 306 00:20:52.590 --> 00:20:54.990 Maintenant on peut aussi avoir ce paramètre-là. 307 00:20:55.390 --> 00:21:01.070 On peut aussi jouer uniquement en regardant les visages et en modifiant 308 00:21:01.270 --> 00:21:02.890 les paramètres des particules. 309 00:21:03.820 --> 00:21:07.840 Je vais vous montrer un petit sujet là-dessus. Avant 310 00:21:08.040 --> 00:21:11.110 je vais simplement rappeler que nous avons installé 311 00:21:11.340 --> 00:21:14.410 pour l'exposition « Artistes et robots » qui vient d'avoir lieu au Grand 312 00:21:14.610 --> 00:21:19.060 Palais, aux mois de mars à juillet, une colonne monumentale composée 313 00:21:19.260 --> 00:21:22.660 d'écrans, verticale, sur laquelle se succédaient une série de visages 314 00:21:22.860 --> 00:21:27.280 3D, qui d'abord se formaient. C'était un jeu entre la ressemblance 315 00:21:27.480 --> 00:21:31.550 et l'abstraction, qui se formaient, disparaissaient et étaient remplacés 316 00:21:31.750 --> 00:21:35.860 dans une espèce de... Chacun chutait au bout d'un moment et était remplacé 317 00:21:36.060 --> 00:21:41.050 par le suivant. C'était une facon de simuler la vulnérabilité 318 00:21:41.250 --> 00:21:44.830 grandissante de l'homme au temps de l'apparition d'univers virtuels, 319 00:21:45.030 --> 00:21:46.900 de robots de plus en plus humains, etc. 320 00:21:47.540 --> 00:21:50.860 Avant ce petit film, je voudrais vous rappeler deux citations qui 321 00:21:51.060 --> 00:21:54.970 me tiennent beaucoup à coeur. L'une est d'Antonin Artaud dans le texte 322 00:21:55.170 --> 00:21:59.900 qu'il a écrit en préface de l'exposition de ses dessins à la galerie Loeb 323 00:22:00.100 --> 00:22:01.150 en 1947 : 324 00:22:01.750 --> 00:22:06.740 « Le visage a un grand avenir, à condition d'être détruit, défait. » Et l'autre, 325 00:22:06.940 --> 00:22:11.140 c'est une lettre d'Alberto Giacometti à Pierre Matisse où il 326 00:22:11.340 --> 00:22:13.210 dit : « Le vide est la force de vie, 327 00:22:13.410 --> 00:22:14.590 l'effervescence de chacun, 328 00:22:14.790 --> 00:22:18.700 le principe instaurateur. » Si on peut regarder le deuxième 329 00:22:18.900 --> 00:22:20.600 petit film qui est très court. 330 00:25:35.620 --> 00:25:38.650 Après, il y a juste le petit film de quelques secondes de l'annonce du Grand Palais. 331 00:25:38.850 --> 00:25:47.240 - Ce qui est assez frappant 332 00:25:47.440 --> 00:25:51.500 en regardant ces quelques images, c'est ce sentiment. Moi, 333 00:25:51.700 --> 00:25:53.450 je me demande toujours au bout d'un moment qui regarde l'autre. 334 00:25:56.110 --> 00:25:57.390 - C'est vraiment le face-à-face. Effectivement on ne sait pas très bien. 335 00:26:04.350 --> 00:26:10.830 En tout cas ca crée la rencontre. On ne sait pas si elle est aboutie ou pas. 336 00:26:11.270 --> 00:26:14.030 - C'est peut-être le moment de passer... 337 00:26:14.740 --> 00:26:15.820 Merci beaucoup Catherine Ikam. 338 00:26:16.610 --> 00:26:19.190 C'est peut-être le moment de passer à vous David Cage. 339 00:26:19.390 --> 00:26:22.250 Parce que, justement, cette idée de la rencontre d'une altérité et d'une 340 00:26:22.450 --> 00:26:26.030 altérité qui, en apparence, passe par l'artificialité, c'est au centre de 341 00:26:26.470 --> 00:26:28.040 « Detroit » le dernier jeu de Quantic Dreams. 342 00:26:29.250 --> 00:26:33.020 - C'est ca. On a travaillé sur ce projet autour d'une idée simple : 343 00:26:33.220 --> 00:26:38.960 dans 20 ans en 2038, il y aurait un monde dans lequel 344 00:26:39.160 --> 00:26:42.620 des machines qui nous ressemblent en tous points, qui bougent comme 345 00:26:42.820 --> 00:26:48.730 nous, qui parlent comme nous, existeraient et seraient utilisées comme 346 00:26:48.930 --> 00:26:50.840 une main d'oeuvre, entre guillemets, bon marché, 347 00:26:51.640 --> 00:26:54.110 pour remplacer progressivement les humains dans les tâches 348 00:26:54.310 --> 00:26:55.070 les plus courantes. 349 00:26:55.270 --> 00:26:59.650 évidemment, tout l'enjeu de « Detroit », c'est d'être là au moment où 350 00:27:00.160 --> 00:27:03.260 ces personnages s'éveillent à la conscience, d'une certaine manière, 351 00:27:03.740 --> 00:27:08.630 et décident d'obtenir des droits et de se battre pour ce qu'ils sont. 352 00:27:09.370 --> 00:27:12.770 - Vous venez de parler de s'éveiller à la conscience. 353 00:27:12.970 --> 00:27:15.020 Je crois qu'il y a quelque chose qui est très intéressant là-dedans 354 00:27:15.970 --> 00:27:18.920 et qu'on réalise peut-être, alors que l'expression « intelligence 355 00:27:19.120 --> 00:27:22.880 artificielle » est en train de rentrer dans, on va dire, les discussions 356 00:27:23.080 --> 00:27:23.840 communes. 357 00:27:24.040 --> 00:27:25.310 En fait, ce qui nous intéresse, ce n'est pas tant l'intelligence 358 00:27:25.510 --> 00:27:29.060 artificielle, tant une capacité de calcul ou d'analyse froide qu'une 359 00:27:29.260 --> 00:27:32.690 conscience artificielle, c'est ca finalement l'enjeu fictionnel 360 00:27:34.060 --> 00:27:38.030 - Je peux ? ca n'a aucun sens, ca n'a strictement aucun sens. 361 00:27:38.550 --> 00:27:41.750 D'ailleurs, mon ami Jean-Gabriel Ganascia, qui est intervenu ici, il y a 362 00:27:41.950 --> 00:27:46.310 quelque temps je crois, aime à rappeler que dans « intelligence artificielle » 363 00:27:46.850 --> 00:27:52.280 il faut mettre l'accent sur « artificielle ». C'est de l'artifice, comme la beauté 364 00:27:52.480 --> 00:27:58.340 artificielle que décrit d'ailleurs Villiers dans le roman que je citais. 365 00:27:58.540 --> 00:28:01.070 Il n'y a pas d'intelligence au sens humain du terme. 366 00:28:01.270 --> 00:28:07.880 Nous ne savons pas du tout - c'est le psychologue socio-économiste qui parle - 367 00:28:08.300 --> 00:28:09.530 comment fonctionne l'intelligence humaine. 368 00:28:09.920 --> 00:28:14.420 Nous sommes donc totalement incapables de la reproduire sur une machine. 369 00:28:14.620 --> 00:28:19.550 Par contre, nous savons faire des machines interactives qui donnent 370 00:28:20.030 --> 00:28:23.990 artificiellement l'illusion d'une interaction. 371 00:28:25.370 --> 00:28:28.970 Là, la science-fiction a, malheureusement ou heureusement d'ailleurs - c'est 372 00:28:29.170 --> 00:28:34.760 son travail de fiction - donné dans un passé déjà assez ancien 373 00:28:35.990 --> 00:28:40.910 une idée très fausse de ce que serait la super intelligence à tel point 374 00:28:41.110 --> 00:28:46.250 que quelques imbéciles, qu'un mot trop lu, nous annoncent enfin que 375 00:28:46.450 --> 00:28:50.840 l'humanité sera prochainement dépassée par les robots, les machines ce qui, dans 376 00:28:51.040 --> 00:28:54.770 l'état actuel des connaissances, et même à très long terme, est 377 00:28:54.970 --> 00:28:55.940 totalement absurde. 378 00:28:56.280 --> 00:29:00.590 On devrait en fait parler de compétence artificielles. 379 00:29:00.860 --> 00:29:07.550 Nous savons transcrire sur des machines, plus exactement sur des logiciels, 380 00:29:07.960 --> 00:29:13.190 les compétences humaines comme celles de jouer aux échecs, de jouer au go, 381 00:29:13.390 --> 00:29:14.870 comme celle de faire des choses extraordinairement complexes. 382 00:29:15.270 --> 00:29:18.380 Ce sont des compétences. Demandez à ces machines 383 00:29:18.990 --> 00:29:21.580 votre chemin elles ne sauront pas vous le donner. 384 00:29:22.180 --> 00:29:26.900 Interrogez plutôt Wikipédia. - Qu'en pensez vous David ? 385 00:29:28.580 --> 00:29:31.950 - Ce qui est intéressant dans un débat c'est de ne pas être d'accord. 386 00:29:32.150 --> 00:29:32.930 Donc ca va être un débat intéressant. 387 00:29:33.700 --> 00:29:36.080 Je crois qu'en fait on ne sait pas comment fonctionne 388 00:29:36.280 --> 00:29:37.040 l'intelligence humaine. 389 00:29:38.120 --> 00:29:41.690 Je rejoins Monsieur Klein sur ce sujet. Mais aujourd'hui personne 390 00:29:41.890 --> 00:29:44.810 ne peut écarter l'idée que le cerveau humain fonctionne comme une machine. 391 00:29:45.010 --> 00:29:48.020 Est-ce que ce sont des circuits avec de la mémoire 392 00:29:48.220 --> 00:29:49.100 et une puissance de calcul ? 393 00:29:49.430 --> 00:29:52.280 Aujourd'hui, il y a beaucoup de chercheurs qui essayent de quantifier 394 00:29:52.520 --> 00:29:55.790 la puissance de calcul du cerveau humain et sa capacité mémorielle. 395 00:29:56.120 --> 00:29:59.150 C'est-à-dire de savoir quel est le CPU et quelle est la mémoire d'une 396 00:29:59.350 --> 00:30:01.980 certaine manière du cerveau. 397 00:30:02.180 --> 00:30:04.700 Aujourd'hui, on commence à savoir le faire. On commence à savoir quelle 398 00:30:04.900 --> 00:30:07.520 est la capacité mémorielle et de calcul du cerveau humain. 399 00:30:08.060 --> 00:30:10.940 Ce n'est pas inatteignable, c'est-à-dire qu'on pense que d'ici... 400 00:30:11.140 --> 00:30:13.850 en fonction des chercheurs tout cela est très hypothétique 401 00:30:14.050 --> 00:30:16.250 évidemment, on considère que d'ici une dizaine d'années on aura 402 00:30:16.450 --> 00:30:19.790 des machines qui en termes de puissance de calcul seront supérieures 403 00:30:19.990 --> 00:30:20.750 au cerveau humain. 404 00:30:20.950 --> 00:30:22.790 Ce n'est pas une puissance qui est hors de portée. 405 00:30:23.030 --> 00:30:26.060 Par contre, le fonctionnement du cerveau - Ce n'est pas vrai. 406 00:30:26.260 --> 00:30:28.580 Excusez-moi de vous interrompre mais ce n'est pas vrai. 407 00:30:29.030 --> 00:30:33.650 Vous pouvez avoir des machines qui ont le même nombre de composants 408 00:30:34.010 --> 00:30:37.310 élémentaires que de neurones humains qui ont 10 fois - ca n'en fait pas 409 00:30:37.510 --> 00:30:40.400 un cerveau humain on est d'accord. - Ca ne marche pas pour autant comme ca. 410 00:30:40.600 --> 00:30:42.350 - Non je suis bien d'accord avec vous. 411 00:30:42.820 --> 00:30:46.240 - Nous savons reproduire des éléments 412 00:30:46.440 --> 00:30:49.700 très périphériques du fonctionnement du cerveau humain : par exemple, 413 00:30:49.900 --> 00:30:52.310 ce qui concerne la vision, l'audition etc. 414 00:30:52.510 --> 00:30:56.120 Mais ce sont uniquement les éléments périphériques 415 00:30:56.320 --> 00:30:59.240 qui servent à l'intelligence mais qui n'ont rien à voir avec l'intelligence. 416 00:30:59.840 --> 00:31:03.410 Je crois qu'il ne faut pas introduire une confusion. 417 00:31:03.610 --> 00:31:04.370 Ce n'est pas un problème de quantité. 418 00:31:04.570 --> 00:31:07.160 Le problème, c'est que nous ne savons pas comment ca fonctionne. 419 00:31:07.360 --> 00:31:16.340 - C'est ce que j'essaie de dire pardon - J'ai de nombreux amis parmi 420 00:31:16.540 --> 00:31:19.040 les neuro physiciens qui soutiendraient totalement mon point de vue. 421 00:31:19.240 --> 00:31:21.560 Je n'en connais aucun qui ait un point de vue différent. Plus on connaît 422 00:31:21.760 --> 00:31:24.900 la discipline, plus on est convaincu qu'il y a un mystère. 423 00:31:25.100 --> 00:31:27.710 Alors je suis d'accord sur l'idée que le cerveau humain est 424 00:31:27.910 --> 00:31:30.590 une machine, seulement c'est une machine dont nous ne savons pas 425 00:31:30.890 --> 00:31:34.030 profondément comment elle fonctionne et nous ne savons pas du tout. 426 00:31:34.710 --> 00:31:35.470 - C'est ca maintenant. 427 00:31:35.670 --> 00:31:38.000 Faut-il créer une machine qui va fonctionner comme le cerveau humain ? 428 00:31:38.450 --> 00:31:40.180 Ou est-ce qu'il y a d'autres fonctionnements qui peuvent arriver 429 00:31:40.380 --> 00:31:41.140 à des résultats similaires ? 430 00:31:41.340 --> 00:31:42.680 C'est une question qui est très profonde et très intéressante. 431 00:31:42.980 --> 00:31:43.760 Je termine là-dessus. 432 00:31:43.970 --> 00:31:47.360 Ce qui m'intéresse, ce sont les machines qui apprennent, 433 00:31:47.560 --> 00:31:49.820 pas les machines à qui on donne un logiciel et qui vont exécuter ce logiciel. 434 00:31:50.020 --> 00:31:52.400 On est bien d'accord que ce n'est pas du tout ce qu'est un cerveau humain. 435 00:31:52.700 --> 00:31:55.610 Un cerveau humain a la capacité d'apprendre, c'est-à-dire d'acquérir 436 00:31:55.810 --> 00:31:57.140 de la connaissance à travers l'expérience. 437 00:31:57.590 --> 00:32:00.510 Aujourd'hui, on commence à avoir de l'intelligence artificielle, 438 00:32:00.710 --> 00:32:05.230 si, si, c'est vrai. La meilleure expérience qui a été menée là-dessus s'appelle 439 00:32:05.430 --> 00:32:06.190 Alpha Zéro 440 00:32:06.390 --> 00:32:07.150 si je ne me trompe pas. 441 00:32:07.350 --> 00:32:10.820 En fait d'abord pour jouer aux échecs, on a appris à Deep Blue. 442 00:32:11.020 --> 00:32:16.130 On lui a rentré des milliers de parties existantes et on a réussi à créer 443 00:32:16.330 --> 00:32:19.340 une machine qui s'appelle Deep Blue qui a battu Kasparov le champion 444 00:32:19.540 --> 00:32:22.180 du monde aux échecs : fantastique. Ensuite, Google crée Alpha Zéro 445 00:32:22.380 --> 00:32:24.680 où il y a une démarche totalement différente. 446 00:32:24.880 --> 00:32:28.670 On lui a appris les mouvements des pièces et on l'a laissé jouer contre 447 00:32:28.870 --> 00:32:32.780 lui-même pendant quatre heures. 448 00:32:32.980 --> 00:32:33.740 Pendant quatre heures 449 00:32:33.940 --> 00:32:35.900 cette machine joue contre elle-même, pas une infinité mais un nombre 450 00:32:36.100 --> 00:32:38.540 important de parties. Au bout de quatre heures, on l'a fait jouer 451 00:32:38.740 --> 00:32:40.340 contre Deep Blue : elle a gagné. 452 00:32:40.580 --> 00:32:44.540 Donc c'est une machine qui a appris toute seule avec très peu 453 00:32:44.740 --> 00:32:45.680 d'informations comment 454 00:32:46.040 --> 00:32:48.280 jouer aux échecs et comment battre une machine. Ce n'est pas encore 455 00:32:48.480 --> 00:32:52.490 l'intelligence humaine on en est encore très très loin. - Non elle a acquis 456 00:32:52.690 --> 00:32:53.830 une compétence. C'est tout ce qu'on peut en dire. 457 00:32:54.260 --> 00:32:59.960 Alors, effectivement, avec le deep-learning et les couches neuronales, on obtient 458 00:33:00.160 --> 00:33:04.580 des résultats extrêmement spectaculaires. Mais, fondamentalement, ce sont 459 00:33:04.780 --> 00:33:08.480 d'immenses collections d'interrupteurs 0 et 1. Rien d'autre. 460 00:33:08.680 --> 00:33:11.360 Rien de plus. Pour ce qu'on sait du cerveau humain, 461 00:33:11.560 --> 00:33:12.530 ce n'est pas comme ca qu'il fonctionne c'est tout. 462 00:33:14.950 --> 00:33:20.720 - Je crois que c'est autour du mot conscience. - Absolument et, non pas 463 00:33:20.920 --> 00:33:24.860 pour vous mettre d'accord mais... - Je veux bien qu'un jour on fabrique une 464 00:33:25.060 --> 00:33:27.380 machine qui soit avec une conscience. 465 00:33:27.580 --> 00:33:28.340 466 00:33:28.540 --> 00:33:30.880 Je n'y vois pas d'inconvénient philosophique fondamental. 467 00:33:31.220 --> 00:33:34.340 Je dis simplement qu'il faut admettre que nous n'avons pas la moindre 468 00:33:34.540 --> 00:33:35.460 idée de par où passer. 469 00:33:35.660 --> 00:33:37.520 - Si je peux me permettre je voudrais juste remettre les choses dans le contexte 470 00:33:37.720 --> 00:33:40.070 puisque le but de la conférence, c'est de parler de la fiction. 471 00:33:40.700 --> 00:33:43.220 Je ne fais pas un documentaire sur le futur en annoncant ce qui va 472 00:33:43.420 --> 00:33:44.180 se passer. 473 00:33:44.380 --> 00:33:45.710 Je ne suis pas scientifique et je ne prédis pas des choses. 474 00:33:45.980 --> 00:33:49.670 J'utilise ce thème dans le cadre de la fiction 475 00:33:49.870 --> 00:33:53.210 et je l'utilise dans le cadre de la fiction pour parler d'une seule chose : 476 00:33:53.570 --> 00:33:54.830 de nous les êtres humains. 477 00:33:55.030 --> 00:33:56.810 C'est ca qui m'intéresse. Ce n'est pas tant l'IA, 478 00:33:57.010 --> 00:33:59.960 ce n'est pas tant les machines c'est à travers le thème des androïdes 479 00:34:00.160 --> 00:34:00.920 et de ce futur proche 480 00:34:01.120 --> 00:34:02.960 parler de notre dépendance à la technologie. 481 00:34:03.160 --> 00:34:06.350 Parler de comment on devient aussi égoïstes, de comment notre monde 482 00:34:06.550 --> 00:34:09.290 évolue change à travers les yeux de ces androïdes qu'ils découvrent avec 483 00:34:09.490 --> 00:34:10.250 des yeux neufs 484 00:34:10.450 --> 00:34:11.210 d'une certaine manière. 485 00:34:11.410 --> 00:34:13.910 C'est vraiment dans le thème de la fiction encore 486 00:34:14.110 --> 00:34:16.850 une fois, pas du tout du documentaire, ni de la prospective scientifique. 487 00:34:17.330 --> 00:34:23.600 - Dans cette perspective de la fiction, je me demandais si 488 00:34:23.800 --> 00:34:26.830 vous aviez une réponse, si c'était votre cas aussi d'ailleurs : 489 00:34:27.200 --> 00:34:30.650 pourquoi est-ce que nous imaginons si souvent des êtres ou des systèmes 490 00:34:30.960 --> 00:34:32.510 qui seraient voués à nous surpasser ? 491 00:34:33.070 --> 00:34:36.450 Je suis frappé : dès qu'on parle d'androïdes, et c'est le cas 492 00:34:36.650 --> 00:34:37.410 dès « L'Ève future » 493 00:34:37.610 --> 00:34:41.630 par cette idée que l'andréïde doit dépasser son modèle et souligner combien 494 00:34:42.050 --> 00:34:45.440 la femme dont est tombé amoureux Lord Ewild est finalement faillible 495 00:34:45.640 --> 00:34:46.400 et dépassable. 496 00:34:46.600 --> 00:34:51.420 Pourquoi est-ce que, d'entrée de jeu, nous nous plaçons dans cette 497 00:34:51.740 --> 00:34:55.610 idée d'une création, d'une intelligence artificielle qui se doit d'écraser 498 00:34:55.810 --> 00:34:56.570 son créateur ? 499 00:34:56.770 --> 00:35:00.080 Je pose cette question parce qu'il me semble que, philosophiquement 500 00:35:00.280 --> 00:35:02.600 par exemple, certaines cultures la présentent très différemment. 501 00:35:03.140 --> 00:35:05.960 Il me semble que la culture japonaise notamment on le voit dans le manga, 502 00:35:06.160 --> 00:35:10.190 dans l'animé, n'a pas du tout cette appréhension de l'écrasement 503 00:35:10.390 --> 00:35:11.150 qui est la nôtre en Occident. 504 00:35:11.350 --> 00:35:16.550 - Je ne suis pas sûr. Ce n'est pas du tout le sens du roman de Villiers. 505 00:35:19.670 --> 00:35:23.500 Les andréïdes sont éventuellement destinés à remplacer les femmes parce 506 00:35:23.700 --> 00:35:26.330 qu'elles parleront mieux et qu'elles sont tout aussi belles. 507 00:35:26.660 --> 00:35:30.510 Mais elles ne sont pas intelligentes ni conscientes. C'est tout à fait 508 00:35:30.710 --> 00:35:34.010 clair chez Villiers qui critique même violemment le concept. 509 00:35:34.420 --> 00:35:35.380 Maintenant pour le reste... 510 00:35:35.990 --> 00:35:42.830 - Moi, j'y vois une explication spirituelle et une explication scientifique. 511 00:35:43.030 --> 00:35:46.310 L'explication spirituelle sur les Japonais, c'est qu'ils héritent 512 00:35:46.510 --> 00:35:50.330 d'une culture qui est animiste et qui voit une âme dans les objets 513 00:35:50.530 --> 00:35:51.350 autour d'eux. 514 00:35:51.550 --> 00:35:56.140 On a beaucoup parlé, on a fait beaucoup de promotion de « Detroit ». 515 00:35:56.340 --> 00:35:58.550 On a rencontré beaucoup de fans au Japon puisque le jeu rencontre un 516 00:35:58.750 --> 00:36:01.790 immense succès en Asie et notamment au Japon. Une des explications 517 00:36:01.990 --> 00:36:04.240 qui a été avancée par un des journalistes qu'on a rencontré 518 00:36:04.440 --> 00:36:05.200 était de dire : 519 00:36:05.470 --> 00:36:09.900 c'est l'héritage de la culture animiste qui voit une âme 520 00:36:10.100 --> 00:36:10.860 dans tous les objets y compris les robots. 521 00:36:11.060 --> 00:36:14.390 Il y a aussi une raison « scientifique » pour autant qu'on puisse 522 00:36:14.590 --> 00:36:17.160 le dire. On sait pour revenir encore à la puissance 523 00:36:17.360 --> 00:36:20.820 de calcul et en étant totalement d'accord sur le fait que ca n'explique pas 524 00:36:21.020 --> 00:36:24.030 tout, mais la puissance de calcul du cerveau humain, on sait qu'elle 525 00:36:24.230 --> 00:36:27.510 est relativement stable depuis plusieurs centaines de milliers d'années. 526 00:36:28.170 --> 00:36:31.020 Notre cerveau n'est pas beaucoup plus intelligent. Alors, on lui fait 527 00:36:31.220 --> 00:36:34.890 faire plus de choses par la culture, par la connaissance. Mais en termes 528 00:36:35.090 --> 00:36:36.490 de puissance de calcul il est stable. 529 00:36:36.720 --> 00:36:41.140 On sait que la puissance de calcul des machines, elle, progresse, même 530 00:36:41.340 --> 00:36:43.410 plus selon la loi de Moore qui est un petit peu dépassée maintenant. 531 00:36:43.610 --> 00:36:46.170 Les ordinateurs quantiques vont arriver et vont encore 532 00:36:46.370 --> 00:36:48.900 ouvrir de nouvelles possibilités. On sait qu'il y a un moment où 533 00:36:49.100 --> 00:36:51.780 la puissance de calcul brute des machines sera supérieure à celle 534 00:36:51.980 --> 00:36:52.740 du cerveau humain. 535 00:36:52.940 --> 00:36:54.840 La question est de savoir ce qui se passera ce jour-là. 536 00:36:55.230 --> 00:36:57.150 Est-ce qu'il ne se passera rien de plus ? 537 00:36:57.350 --> 00:36:58.860 On aura juste des machines qui calculent plus vite. 538 00:36:59.250 --> 00:37:01.080 Ou est-ce qu'il y a une forme de conscience qui va en émerger ? 539 00:37:01.280 --> 00:37:04.830 Je n'en sais rien, je ne sais pas. - Est-ce qu'un avion ou un chemin de fer 540 00:37:05.030 --> 00:37:09.660 qui se déplace à 300 km à l'heure a des 541 00:37:09.860 --> 00:37:11.460 jambes plus rapides qu'un être humain ? 542 00:37:11.670 --> 00:37:15.820 Ce n'est pas du tout la question. C'est une machine. Les humains ne volent pas. 543 00:37:16.020 --> 00:37:19.530 Ils ont créé les avions qui volent. 544 00:37:20.100 --> 00:37:21.480 On ne parle pas de la même chose. 545 00:37:21.680 --> 00:37:22.590 - Il peut y avoir une confusion. 546 00:37:22.790 --> 00:37:25.650 Moi, j'étais assez étonné d'aller dans un des laboratoires de recherche 547 00:37:25.850 --> 00:37:31.740 de Sony qui travaille sur l'intelligence artificielle et qui a fait quelque chose 548 00:37:31.940 --> 00:37:36.060 d'assez intéressant : ils ont demandé à une IA d'analyser 549 00:37:36.260 --> 00:37:37.860 la manière de jouer d'un pianiste de jazz, 550 00:37:39.480 --> 00:37:42.300 l'improvisation au jazz. Donc quelque chose qui est profondément 551 00:37:42.500 --> 00:37:44.880 humain, artistique et créatif. 552 00:37:45.390 --> 00:37:48.600 Cette IA a fait ce que l'on appelle du Big Data. Elle a mangé des heures 553 00:37:48.800 --> 00:37:51.750 et des heures de ce pianiste qui joue. Et, à un moment, 554 00:37:51.950 --> 00:37:55.590 ce laboratoire a créé une track sonore dans laquelle on entend jouer 555 00:37:55.790 --> 00:38:00.510 le pianiste humain et à un moment ce n'est plus lui qui joue, c'est l'IA. 556 00:38:00.710 --> 00:38:04.290 Je vous jure qu'on ne fait pas, on ne fait plus la différence. 557 00:38:04.490 --> 00:38:06.040 Alors est-ce que l'IA ressent quelque chose ? 558 00:38:06.240 --> 00:38:09.030 Est-ce l'IA a interprété quelque chose ? Est-ce que l'IA était dans 559 00:38:09.230 --> 00:38:11.370 un trip créatif et musical inspiré ? 560 00:38:11.610 --> 00:38:12.450 Non certainement pas. 561 00:38:12.810 --> 00:38:15.270 Par contre, est-ce qu'un humain est capable de faire la différence 562 00:38:15.470 --> 00:38:18.210 entre ce qu'a créé un humain et ce qu'a créé une machine ? 563 00:38:18.410 --> 00:38:19.170 En l'occurrence 564 00:38:19.370 --> 00:38:20.310 la réponse est non. 565 00:38:21.000 --> 00:38:24.410 Encore une fois, ca ne préfigure pas de l'humanité de cette IA, 566 00:38:24.610 --> 00:38:25.370 ce n'est pas du tout ce que je dis. 567 00:38:25.570 --> 00:38:27.150 Évidemment qu'elle ne fait qu'exécuter un algorithme. 568 00:38:27.750 --> 00:38:30.780 Mais il y a quelque chose de fascinant et de potentiellement inquiétant. 569 00:38:31.560 --> 00:38:32.550 Ce n'est pas pour s'en réjouir. 570 00:38:32.750 --> 00:38:36.000 C'est peut-être aussi inquiétant. Mais demain elles écriront des livres. 571 00:38:36.200 --> 00:38:38.490 Demain elles feront d'autres choses. 572 00:38:39.430 --> 00:38:40.380 Est-ce que c'est une bonne chose ou pas ? 573 00:38:40.580 --> 00:38:46.300 - C'est de l'imitation. - Oui c'est de l'imitation. 574 00:38:46.500 --> 00:38:50.050 - C'est ce que j'allais dire, parce que la création, c'est comme quand 575 00:38:50.250 --> 00:38:52.320 les machines ont fait des Rembrandt 576 00:38:53.870 --> 00:38:58.270 qui ressemblaient à Rembrandt. Mais qui a créé ? C'est Rembrandt. 577 00:38:58.470 --> 00:39:01.840 Qui a créé ? C'est le pianiste, le pianiste qui a joué et après effectivement 578 00:39:02.440 --> 00:39:04.450 c'est une analyse, 579 00:39:04.820 --> 00:39:06.380 après c'est une analyse de data. 580 00:39:06.580 --> 00:39:09.970 - Ca pose une question qui est très intéressante 581 00:39:10.170 --> 00:39:11.080 et c'est des questions sur nous en fait. 582 00:39:11.430 --> 00:39:13.420 Moi ce qui me fascine c'est les questions sur nous humains. 583 00:39:13.620 --> 00:39:14.380 Ce n'est pas tellement sur l'IA. 584 00:39:14.590 --> 00:39:16.270 Qu'est-ce que ca veut dire d'être créatif ? 585 00:39:16.750 --> 00:39:18.880 C'est-à-dire que quand vous jouez du jazz, qu'est-ce que vous faites ? 586 00:39:19.080 --> 00:39:20.620 - C'est d'inventer des formes. 587 00:39:21.340 --> 00:39:22.100 - Voilà c'est ca. 588 00:39:22.300 --> 00:39:24.970 Quand vous travaillez sur une image, 589 00:39:25.170 --> 00:39:27.250 quand vous êtes peintre et que vous créez une peinture, quel est le travail 590 00:39:27.450 --> 00:39:28.210 du peintre ? 591 00:39:28.410 --> 00:39:31.930 Est-ce que le travail du peintre, ce ne sont pas aussi des souvenirs, 592 00:39:32.130 --> 00:39:34.600 des images qu'il a vues, des choses qu'il mélange, son ressenti personnel, 593 00:39:34.930 --> 00:39:36.340 c'est un mélange de choses. 594 00:39:36.640 --> 00:39:41.530 Est-ce que ce processus-là est impossible à répliquer ? 595 00:39:42.490 --> 00:39:44.080 Ou est-ce qu'il est au contraire duplicable? 596 00:39:44.280 --> 00:39:45.940 C'est une question et je n'ai pas la réponse. 597 00:39:46.140 --> 00:39:48.940 Je ne prétends pas faire des révélations, je n'en sais rien. 598 00:39:49.330 --> 00:39:51.850 Mais les questions que ca pose sur l'être humain et la création 599 00:39:52.050 --> 00:39:53.230 sont profondément intéressantes. 600 00:39:54.730 --> 00:39:58.040 - Je ne dis pas que c'est impossible, je dis que nous ne savons pas. 601 00:39:58.240 --> 00:40:02.020 Peut-être que dans mille ans ou dans cent ans ou dans dix ans 602 00:40:02.220 --> 00:40:04.870 on saura. Ca m'étonnerait un peu en ce qui concerne dix ans ou cent ans. 603 00:40:05.250 --> 00:40:08.200 Je dis seulement que nous ne savons pas. Alors tant qu'on est dans la 604 00:40:08.400 --> 00:40:11.230 fiction, aucune espèce d'inconvénient à prévoir 605 00:40:12.130 --> 00:40:15.420 des intelligences artificielles extrêmement puissantes et même conscientes. 606 00:40:15.670 --> 00:40:20.280 La science-fiction en a abondamment usé et abusé et tant mieux, 607 00:40:20.480 --> 00:40:23.440 puisqu'en tant qu'écrivain et éditeur de science-fiction, je ne vais certainement 608 00:40:23.640 --> 00:40:25.180 pas le reprocher à la fiction. 609 00:40:25.510 --> 00:40:29.830 En revanche, ce qui me gêne dans une partie de votre propos, c'est 610 00:40:30.030 --> 00:40:34.120 le risque de confusion entre ce qui est de l'ordre de la fiction 611 00:40:34.380 --> 00:40:36.610 et ce qui est de l'ordre des réalités 612 00:40:36.810 --> 00:40:41.710 scientifiquement aujourd'hui possibles. Je participe assez régulièrement avec 613 00:40:42.240 --> 00:40:46.270 des mathématiciens à des discussions de ce genre, à des débats sur ce genre 614 00:40:46.470 --> 00:40:47.230 de sujet. 615 00:40:47.430 --> 00:40:51.010 Je n'en ai jamais rencontrés qui fassent cette confusion, même si beaucoup 616 00:40:51.210 --> 00:40:52.840 d'entre eux sont de grands lecteurs 617 00:40:53.040 --> 00:40:53.800 de science-fiction. 618 00:40:54.000 --> 00:40:57.400 - Je me permets de lancer une piste peut-être pour continuer 619 00:40:57.600 --> 00:41:00.870 de rebondir au-delà de cette opposition. Il y a un philosophe qui s'appelle 620 00:41:01.270 --> 00:41:04.030 Bernard Stiegler que j'entendais récemment dire dans une interview 621 00:41:04.740 --> 00:41:07.270 qu'il n'était absolument pas inquiet par la question de l'intelligence 622 00:41:07.470 --> 00:41:09.190 artificielle et que, pour lui, ce n'était pas une question parce que 623 00:41:09.520 --> 00:41:12.400 l'être humain penserait toujours plus vite qu'une machine. Pourquoi ? 624 00:41:12.600 --> 00:41:13.510 Alors « plus vite » entre guillemets 625 00:41:13.830 --> 00:41:18.430 - Penser c'est le terme penser qui ne veut rien dire. - C'est ce que j'allais dire 626 00:41:18.630 --> 00:41:21.070 qu'il n'était pas question de puissance de calcul mais de capacité justement à dévier 627 00:41:21.280 --> 00:41:25.600 et à sortir d'un raisonnement guidé. Est-ce que tout simplement plutôt 628 00:41:25.800 --> 00:41:30.880 qu'une imitation ou une similarité... - Similitude. 629 00:41:31.080 --> 00:41:31.840 - Merci oui on était mal parti. 630 00:41:32.040 --> 00:41:35.110 - C'est mon intelligence naturelle. 631 00:41:37.990 --> 00:41:42.670 - (rires) Plutôt qu'une similitude entre une intelligence artificielle 632 00:41:42.870 --> 00:41:43.690 et une intelligence humaine 633 00:41:44.340 --> 00:41:47.490 est-ce que la question, et ce dont doit s'occuper la fiction, n'est pas 634 00:41:47.690 --> 00:41:50.110 plutôt celle d'une singularité, de quelque chose qui ne serait pas 635 00:41:50.310 --> 00:41:51.840 le double de l'humain mais quelque chose d'autre ? 636 00:41:52.200 --> 00:41:55.360 C'est ce à quoi me font penser beaucoup de vos travaux, 637 00:41:55.560 --> 00:41:59.800 Catherine Ikam aussi justement : à quelque chose qui n'est pas humain 638 00:42:00.000 --> 00:42:00.770 quand bien même il y ressemble. 639 00:42:03.250 --> 00:42:05.890 - C'est assez difficile de répondre à cette question parce que la singularité, 640 00:42:06.090 --> 00:42:08.710 c'est quelque chose de spécial aussi, qui dépasse 641 00:42:09.440 --> 00:42:11.710 Je ne voudrais pas dire de bêtises sur le sujet parce que je connais 642 00:42:11.910 --> 00:42:12.700 pas très bien. 643 00:42:13.570 --> 00:42:17.380 Je pense qu'on peut aussi se poser des questions sur 644 00:42:17.580 --> 00:42:21.070 la façon dont les gens communiquent maintenant, beaucoup plus facilement 645 00:42:21.270 --> 00:42:22.300 à travers des interfaces. 646 00:42:22.500 --> 00:42:23.690 Je me suis rendu compte de ca. 647 00:42:23.890 --> 00:42:28.510 C'est très curieux. On avait fait un personnage virtuel dans une émission, 648 00:42:29.530 --> 00:42:34.260 enfin dans une installation très populaire et les gens commencaient 649 00:42:34.460 --> 00:42:37.820 à poser des questions du genre « qu'est-ce que le bonheur ? » 650 00:42:38.020 --> 00:42:42.320 Des trucs incroyables qu'ils n'oseraient jamais poser à la personne en face d'eux. 651 00:42:42.970 --> 00:42:45.430 C'est un autre sujet, je change un peu de sujet. 652 00:42:45.850 --> 00:42:48.970 C'est intéressant comme on a besoin maintenant d'interfaces 653 00:42:49.170 --> 00:42:53.140 pour communiquer. Ca joue sur notre comportement 654 00:42:53.340 --> 00:42:55.630 ces machines parce qu'on ne communique pas tout à fait de la même 655 00:42:55.830 --> 00:42:56.740 façon à travers une interface 656 00:42:57.350 --> 00:42:59.770 qu'en face de quelqu'un. Il n'y a pas de jugement de valeur, 657 00:43:00.130 --> 00:43:04.120 c'est comme ca. - Si vous permettez, il y a environ huit ou dix mille ans, 658 00:43:04.490 --> 00:43:08.040 il y a une interface très importante qui a été inventée. Quand je dis 659 00:43:08.240 --> 00:43:11.080 huit mille ans, c'est à mille ans près : c'est l'écriture. 660 00:43:11.710 --> 00:43:16.570 À partir du moment où l'écriture a existé, les générations humaines 661 00:43:16.770 --> 00:43:22.090 ont pu commencer à communiquer les unes avec les autres. Je voudrais revenir 662 00:43:22.290 --> 00:43:23.980 sur cette histoire de similitude. 663 00:43:24.760 --> 00:43:28.330 C'est quelque chose que nous connaissons aussi depuis très longtemps 664 00:43:28.530 --> 00:43:32.500 avec un acteur sur une scène. J'ai connu pas mal d'acteurs et surtout quelques 665 00:43:32.700 --> 00:43:34.880 actrices. 666 00:43:35.080 --> 00:43:44.600 Est-ce que l'acteur pense réellement comme le personnage qu'il joue ? 667 00:43:44.860 --> 00:43:48.070 - Ce qui amène une autre question : c'est si le public croit ? 668 00:43:48.270 --> 00:43:49.370 - C'est exactement ca. 669 00:43:49.940 --> 00:43:52.040 - S'il croit à une illusion est-ce encore une illusion ? - L'acteur est là pour ca. 670 00:43:52.240 --> 00:43:56.260 L'acteur est là pour créer cette illusion. Et meilleur il est, mieux 671 00:43:56.460 --> 00:43:57.320 il va la créer. 672 00:43:57.580 --> 00:44:02.830 Ensuite, il sort de scène et il a sa vie. - C'est intéressant de voir 673 00:44:03.030 --> 00:44:05.350 que chaque technique entraîne une écriture. 674 00:44:05.560 --> 00:44:08.530 Vous parliez de l'écriture mais chaque technique entraîne une écriture. 675 00:44:09.710 --> 00:44:10.820 On le sait. 676 00:44:12.140 --> 00:44:16.480 Les éléments, les images en nuages de points, c'est une autre écriture. 677 00:44:16.680 --> 00:44:20.860 Il y a bien d'autres exemples : à chaque fois la technique entraîne 678 00:44:21.060 --> 00:44:24.410 une écriture particulière qu'on utilise différemment. 679 00:44:25.010 --> 00:44:29.020 - En effet, par exemple, les humains ne sont certainement pas plus intelligents 680 00:44:29.220 --> 00:44:33.370 aujourd'hui qu'il y a cent mille ans ou même quatre ou cinq-cents mille ans. 681 00:44:33.570 --> 00:44:36.550 Simplement entre autres choses dans l'intervalle ils ont inventé les 682 00:44:36.750 --> 00:44:42.100 mathématiques et des tas de choses. Ils ont multiplié les capacités de leur cerveau. 683 00:44:42.870 --> 00:44:45.730 En mathématique, croyez-moi, j'aimerais bien y comprendre quelque chose. 684 00:44:47.040 --> 00:44:50.710 - Vous évoquez les mathématiques et les constructions 685 00:44:50.910 --> 00:44:51.670 des schémas. 686 00:44:51.870 --> 00:44:53.890 J'avais envie de vous interroger aussi 687 00:44:54.090 --> 00:44:54.850 là-dessus David Cage. 688 00:44:55.050 --> 00:44:58.870 Pour ceux qui ne seraient pas du tout familiers avec des jeux 689 00:44:59.070 --> 00:44:59.830 comme « Detroit » 690 00:45:00.040 --> 00:45:02.920 je vais vulgariser à l'extrême. On va dire que c'est un jeu à choix 691 00:45:03.120 --> 00:45:03.880 multiples 692 00:45:04.080 --> 00:45:06.700 et très complexe et très fin. Et il y a une particularité : 693 00:45:06.900 --> 00:45:09.490 c'est qu'au fur et à mesure de l'aventure, le jeu dévoile aux 694 00:45:09.690 --> 00:45:12.400 joueurs les différents embranchements qu'il a choisis ou pas. 695 00:45:12.600 --> 00:45:15.250 Est-ce qu'il n'y a là pas quelque chose qui ne relève 696 00:45:15.450 --> 00:45:17.140 peut-être pas exactement de l'intelligence artificielle, 697 00:45:17.340 --> 00:45:22.750 mais quand même d'une façon de dévoiler à celui qui joue combien le 698 00:45:22.950 --> 00:45:27.250 dispositif en face de lui est malin et capable ou non de le piéger ou de lui 699 00:45:27.450 --> 00:45:28.210 faire vivre une illusion ? 700 00:45:28.970 --> 00:45:31.300 - On est évidemment dans le domaine de la fiction, dans le domaine 701 00:45:31.500 --> 00:45:32.260 de l'illusion. 702 00:45:32.770 --> 00:45:35.350 On crée une histoire dont le joueur est le héros, c'est-à-dire qu'à travers 703 00:45:35.550 --> 00:45:39.160 ses choix, il va définir sa propre histoire, sa propre trame. 704 00:45:39.690 --> 00:45:42.850 Ce qui m'intéressait, c'était vraiment de raconter 705 00:45:43.050 --> 00:45:46.060 une histoire avec le joueur. Il y a plus de 2 millions 706 00:45:46.260 --> 00:45:48.910 de personnes qui ont joué à  ce jeu, avec qui on a raconté une histoire, 707 00:45:49.110 --> 00:45:49.930 ensemble sans se connaître. 708 00:45:50.320 --> 00:45:52.930 C'est finalement ca qui est assez extraordinaire. 709 00:45:53.130 --> 00:45:56.110 Mais, non, ce n'est pas de l'intelligence artificielle : tout est écrit à  l'avance, 710 00:45:56.310 --> 00:45:59.540 on est dans le domaine de l'illusion. On le cache. 711 00:45:59.740 --> 00:46:02.530 Même si dans le jeu on a utilisé notamment des réseaux neuronaux. 712 00:46:02.730 --> 00:46:05.620 On a utilisé différentes techniques d'intelligence artificielle, 713 00:46:06.220 --> 00:46:09.740 ce n'est pas tout à  fait le terme propre, mais 714 00:46:09.940 --> 00:46:12.720 qui émule un certain nombre de comportements. 715 00:46:13.630 --> 00:46:17.110 - Est-ce qu'il est imaginable ou est-ce que vous avez même essayé de 716 00:46:17.310 --> 00:46:18.700 l'imaginer technologiquement ? 717 00:46:19.810 --> 00:46:24.010 Est-ce que, dans un jeu aussi narratif, il est possible un jour, envisageable 718 00:46:24.210 --> 00:46:28.210 que vous ayez à déléguer une partie, à déléguer des embranchements narratifs, 719 00:46:28.410 --> 00:46:32.110 à déléguer des possibilités à quelque chose qui ne soit pas un scénariste 720 00:46:32.310 --> 00:46:33.070 humain par exemple ? 721 00:46:33.430 --> 00:46:35.560 - C'est toute la question. Alors là, pour le coup, on est vraiment 722 00:46:35.760 --> 00:46:38.200 dans la science-fiction parce qu'il faudra modéliser ce que ca veut 723 00:46:38.400 --> 00:46:39.550 dire de raconter une histoire. 724 00:46:39.850 --> 00:46:42.070 Il y a un certain nombre de schémas narratifs qu'on connaît 725 00:46:42.270 --> 00:46:45.490 tous, qui sont la narration en trois actes ou en cinq actes ou on 726 00:46:45.690 --> 00:46:48.160 sait où sont les climax c'est-à-dire 727 00:46:48.360 --> 00:46:49.640 les retournements de situations. 728 00:46:50.440 --> 00:46:53.530 En fait, on sait qu'il y a des techniques et ces techniques sont modélisables. 729 00:46:54.090 --> 00:46:54.850 Voilà. 730 00:46:55.050 --> 00:46:56.920 Je pense qu'il faudra beaucoup de temps pour arriver 731 00:46:57.120 --> 00:46:59.830 à une IA qui raconte une histoire parce que ca fait appel à énormément 732 00:47:00.030 --> 00:47:03.010 de choses dont la maîtrise du langage. Il commence à y avoir des 733 00:47:03.210 --> 00:47:05.560 recherches qui sont faites notamment chez Google autour de la maîtrise 734 00:47:05.760 --> 00:47:06.520 du langage. 735 00:47:07.030 --> 00:47:10.570 On le voit : aujourd'hui, Google répond à vos emails parce 736 00:47:10.770 --> 00:47:14.860 que l'intelligence comprend ce qu'on vous demande. On vous demande : 737 00:47:15.060 --> 00:47:17.120 est-ce que vous êtes disponible pour un rendez vous à telle heure ? 738 00:47:17.320 --> 00:47:19.600 L'IA comprend ca, elle est capable de vous préparer une réponse. 739 00:47:20.020 --> 00:47:21.060 Tout ca c'est de l'algorithme. 740 00:47:21.540 --> 00:47:23.080 Il n'y a pas d'intelligence derrière. 741 00:47:24.270 --> 00:47:28.090 Il y a d'autres formes qui sont peut être plus 742 00:47:28.290 --> 00:47:30.400 accessibles à l'IA. Je reviens sur la musique. La musique, c'est les 743 00:47:30.600 --> 00:47:34.590 mathématiques, c'est-à-dire que l'harmonie est entièrement modélisable 744 00:47:34.790 --> 00:47:35.830 sur un modèle mathématique. 745 00:47:36.030 --> 00:47:39.850 Peut-être que c'est une des premières formes où l'IA arrivera à créer, 746 00:47:40.380 --> 00:47:43.570 à créer avec l'image. Peut-être l'image d'abord puis la musique puis, 747 00:47:43.770 --> 00:47:44.530 plus tard le langage. 748 00:47:44.740 --> 00:47:46.150 C'est une question de temps. 749 00:47:46.660 --> 00:47:48.700 Je pense que souvent les gens s'imaginent que, quand on parle de 750 00:47:48.900 --> 00:47:51.130 musique générée par I'IA, on va avoir quelque chose de très mécanique. 751 00:47:51.430 --> 00:47:53.590 Parce que c'est de l'IA, ca doit être très froid 752 00:47:53.790 --> 00:47:54.550 et très mécanique. 753 00:47:54.750 --> 00:47:55.820 En fait ce n'est pas ca. 754 00:47:56.440 --> 00:47:59.250 L'IA va être capable de créer en fonction des règles qu'on lui donne. 755 00:47:59.450 --> 00:48:02.510 On va peut-être être capable de dire « je veux un mélange de ci et 756 00:48:02.710 --> 00:48:05.170 de ca ». Ou elle va le faire toute seule ou elle va analyser un certain 757 00:48:05.370 --> 00:48:06.760 nombre de data et être capable de produire quelque chose. 758 00:48:07.030 --> 00:48:11.800 Encore une fois, ca ne fera pas de l'IA un artiste, un créatif qui est 759 00:48:12.000 --> 00:48:14.890 parti de son ressenti personnel pour créer quelque chose d'unique. 760 00:48:15.610 --> 00:48:18.790 Elle va appliquer des recettes, des méthodes pour arriver à un résultat, 761 00:48:18.990 --> 00:48:23.080 par contre, qui sera peut-être similaire ou peut-être pas. L'avenir 762 00:48:23.280 --> 00:48:28.980 nous le dira. - D'accord et vous êtes 763 00:48:29.350 --> 00:48:31.450 allés plus loin que je ne l'espérais. 764 00:48:32.310 --> 00:48:34.210 Décidément, je suis le seul qui soit un peu artificiel. 765 00:48:37.120 --> 00:48:39.370 On va commencer à  prendre des questions du public. 766 00:48:40.210 --> 00:48:45.670 Je me disais, je me demandais, j'apercois Sébastien, à  moins qu'il 767 00:48:45.870 --> 00:48:49.780 ne me fasse un grand non des bras. - Je trouve ca intéressant la modélisation. 768 00:48:49.980 --> 00:48:52.540 - Il y a une question ici. - Je voudrais que vous reveniez parce que 769 00:48:52.740 --> 00:48:55.510 je connais très mal l'univers des jeux vidéo, ce que je regrette 770 00:48:56.290 --> 00:49:00.760 Quand vous parlez de modéliser des situations, modéliser des climax, 771 00:49:01.450 --> 00:49:05.410 le fait que les gens font des choix qui les entraînent dans différents 772 00:49:05.610 --> 00:49:08.170 univers, je voudrais savoir comment ca fonctionne, quand je commence un jeu. 773 00:49:10.330 --> 00:49:11.110 - Vous avez combien d'heures ? (rires) 774 00:49:12.890 --> 00:49:14.420 C'est alors... 775 00:49:15.670 --> 00:49:19.240 C'est purement de l'écriture. On va créer un scénario 776 00:49:19.440 --> 00:49:22.030 en embranchements. J'imagine une histoire 777 00:49:22.230 --> 00:49:24.760 et cette histoire je vais en imaginer toutes les variations possibles 778 00:49:24.960 --> 00:49:25.720 et toutes les branches. 779 00:49:26.030 --> 00:49:28.210 Il y a une telle quantité... Je ne sais pas si vous connaissez les livres 780 00:49:28.410 --> 00:49:29.170 dont vous êtes le héros 781 00:49:29.370 --> 00:49:33.040 d'il y a quelques années, c'est ca mais il y a beaucoup plus de 782 00:49:33.240 --> 00:49:36.040 choix. À travers cette arborescence le joueur va 783 00:49:36.240 --> 00:49:38.830 raconter sa propre histoire puisque des choix vont l'entraîner 784 00:49:39.030 --> 00:49:41.140 vers d'autres choix, vers d'autres choix, et, à travers ca, 785 00:49:41.340 --> 00:49:43.360 il raconte sa propre histoire. 786 00:49:43.900 --> 00:49:46.570 Ce qui est fascinant, c'est que ca répond à ses valeurs, 787 00:49:46.770 --> 00:49:50.020 aux choses dans lesquelles il croit, ca crée vraiment son histoire 788 00:49:50.300 --> 00:49:51.580 et ce n'est pas une histoire qu'on lui impose. 789 00:49:51.780 --> 00:49:53.360 C'est l'histoire qu'il choisit de se raconter. 790 00:49:53.560 --> 00:49:56.530 C'est aussi une forme d'écriture qui est nouvelle et qui est assez 791 00:49:56.730 --> 00:49:57.490 fascinante. 792 00:49:57.740 --> 00:50:01.780 - Ca suppose que vous, vous aviez Déjà imaginé tout ca. - Il n'y a 793 00:50:01.980 --> 00:50:03.280 a pas d'intelligence artificielle. 794 00:50:04.030 --> 00:50:06.190 C'est ca. J'ai une situation. 795 00:50:06.520 --> 00:50:09.010 Plutôt que de faire le travail d'un scénariste classique qui va 796 00:50:09.210 --> 00:50:11.590 raconter une histoire dans cette situation, je vais essayer de 797 00:50:11.790 --> 00:50:15.610 raconter toutes les histoires possibles dans ce contexte-là. Et c'est le 798 00:50:15.810 --> 00:50:19.390 joueur qui va choisir quelle version, quelle variation de cette histoire 799 00:50:19.590 --> 00:50:22.180 il va vouloir voir. Les histoires peuvent être très différentes. 800 00:50:22.440 --> 00:50:25.030 La morale des histoires peut être très différente, ce qu'on en retire 801 00:50:25.230 --> 00:50:25.990 peut être très différent. 802 00:50:26.190 --> 00:50:28.360 Puisqu'en fait ces arbres sont eux-mêmes très différents. 803 00:50:28.990 --> 00:50:32.230 - J'imagine que forcément vous avez 804 00:50:32.430 --> 00:50:35.800 la possibilité aujourd'hui de recueillir des informations et que vous 805 00:50:36.000 --> 00:50:39.370 savez peut-être quel pourcentage de joueurs 806 00:50:39.570 --> 00:50:42.160 tue son personnage principal, quel pourcentage de joueurs 807 00:50:42.460 --> 00:50:44.110 sauve les androïdes ou pas. 808 00:50:45.160 --> 00:50:48.900 - C'est assez extraordinaire et je pense que ca intéresserait 809 00:50:49.100 --> 00:50:51.580 bon nombre de chercheurs puisque ce jeu s'est vendu dans le 810 00:50:51.780 --> 00:50:54.460 monde entier, dans tous les pays. On sait, pays par pays 811 00:50:54.660 --> 00:50:55.540 et presque ville par ville 812 00:50:56.440 --> 00:50:58.540 quels sont les choix qui ont été faits. Les data sont anonymes. 813 00:50:58.740 --> 00:51:01.690 On n'a pas les noms des gens évidemment mais par contre on sait 814 00:51:01.890 --> 00:51:04.180 qu'à Tokyo tel pourcentage de gens ont fait ce choix-là, alors qu'à  815 00:51:04.380 --> 00:51:07.930 Paris, Berlin ou San Francisco, les choix sont différents. 816 00:51:08.130 --> 00:51:13.450 On retrouve des notions culturelles puisque le jeu repose beaucoup 817 00:51:13.650 --> 00:51:16.540 sur des dilemmes moraux, des choix qui sont difficiles, qui ne sont 818 00:51:16.740 --> 00:51:20.410 pas blancs ou noirs mais qui sont impliquant moralement. On voit 819 00:51:20.610 --> 00:51:21.910 les différences de cultures. 820 00:51:22.870 --> 00:51:26.470 Par exemple je peux vous dire qu'on a des choix qui reposaient beaucoup 821 00:51:26.670 --> 00:51:30.460 sur l'empathie, qui testaient l'empathie du joueur dans des conditions très 822 00:51:30.660 --> 00:51:32.710 particulières. Je peux vous dire qu'aujourd'hui le peuple le plus 823 00:51:32.910 --> 00:51:35.980 empathique, pour autant qu'on puisse en juger à  travers « Detroit « qui n'est 824 00:51:36.180 --> 00:51:39.130 pas la population, ce n'est pas un sondage scientifique, c'est juste 825 00:51:40.180 --> 00:51:41.080 l'échantillon du jeu, 826 00:51:41.560 --> 00:51:45.680 le peuple le plus empathique à 85 %, ce sont les Japonais. 827 00:51:46.870 --> 00:51:49.280 Ce sont des gens à chaque fois qu'il y avait des choix d'empathie 828 00:51:49.480 --> 00:51:50.650 faisaient le choix de l'empathie. 829 00:51:51.280 --> 00:51:57.820 À titre comparatif, les Américains sont à 40 %, les Européens en général, 830 00:51:58.020 --> 00:52:00.930 dont les Francais sont à 55-60 %. 831 00:52:01.520 --> 00:52:05.050 Ces choix-là, on les a ville par ville, pays par pays. 832 00:52:05.250 --> 00:52:09.130 C'est vraiment fascinant parce que le jeu se comporte comme 833 00:52:09.330 --> 00:52:11.020 une espèce de test sociologique 834 00:52:11.220 --> 00:52:13.450 qui apporte des réponses vraiment intéressantes. 835 00:52:16.210 --> 00:52:19.370 - Est-ce que nous prenons des questions du public ? 836 00:52:19.640 --> 00:52:23.540 - Peut-être qu'avant de prendre une question, on peut peut-être passer le court 837 00:52:23.740 --> 00:52:27.830 film concernant le genre - Oui David excusez-moi j'avais complètement oublié. 838 00:52:28.030 --> 00:52:32.390 - Il n'y a pas de mal. - Mais peut-être vaut-il mieux que vous l'introduisiez 839 00:52:32.590 --> 00:52:35.090 et que vous nous le présentiez. - Avec plaisir. C'est un petit court 840 00:52:35.290 --> 00:52:40.100 métrage qu'on a fait dans le cadre du développement de ce jeu : 841 00:52:40.300 --> 00:52:44.300 on a imaginé l'interview télévisée du premier androïde qui a passé 842 00:52:44.500 --> 00:52:47.690 le test de Turing. Le test de Turing, il faut peut-être rappeler brièvement 843 00:52:47.890 --> 00:52:48.650 ce que c'est. 844 00:52:48.850 --> 00:52:50.840 C'est l'idée qu'on a une conversation avec une intelligence artificielle 845 00:52:51.050 --> 00:52:54.290 et qu'on ne soit pas capable de remarquer qu'il s'agit d'une 846 00:52:54.710 --> 00:52:59.600 intelligence artificielle. C'est purement de la fiction, il n'y a rien 847 00:52:59.800 --> 00:53:02.650 de scientifique là-dedans. 848 00:53:02.850 --> 00:53:06.110 On a imaginé cette situation et on s'est beaucoup amusé à le faire. 849 00:53:06.410 --> 00:53:09.230 Je suis un peu désolé parce que c'est en anglais. 850 00:53:10.250 --> 00:53:15.560 J'espère que tout le monde est - Je ne sais pas si vous avez lu récemment 851 00:53:15.760 --> 00:53:16.520 le texte de Turing. 852 00:53:16.720 --> 00:53:20.390 Moi, je connais bien, je l'ai lu très souvent et il ne faut pas oublier 853 00:53:20.590 --> 00:53:22.790 qu'au départ, c'est une plaisanterie de Turing. 854 00:53:23.960 --> 00:53:27.830 Il commence d'ailleurs par demander si, dans des conditions très 855 00:53:28.030 --> 00:53:31.400 particulières, très différentes d'aujourd'hui, un interlocuteur est 856 00:53:31.600 --> 00:53:33.980 capable de distinguer entre un homme et une femme. Ce qui est d'autant 857 00:53:34.180 --> 00:53:37.490 plus intéressant que Turing était homosexuel et qu'il en a beaucoup 858 00:53:37.690 --> 00:53:40.850 souffert puisqu'il a été condamné. Et qu'il a fini par se suicider à cause 859 00:53:41.050 --> 00:53:44.060 de ca, dans la société britannique des années 1950. 860 00:53:46.410 --> 00:53:50.390 Ce n'est pas il y a des siècles. Il ne faut pas oublier que ce texte est d'abord 861 00:53:50.590 --> 00:53:55.310 une plaisanterie. Ensuite, ca devient effectivement une discussion sur 862 00:53:56.290 --> 00:54:00.050 quelle peut être la relation avec un interlocuteur dont on ne connait 863 00:54:00.250 --> 00:54:03.110 pas le sexe et dont éventuellement on ne connaît pas l'humanité. 864 00:54:05.060 --> 00:54:09.080 Wikipédia répond très bien. - On est toujours dans le cadre de la fiction. Nous 865 00:54:09.280 --> 00:54:11.360 ce qui nous intéressait, c'était d'opposer le test de Turing, qui était de savoir 866 00:54:11.560 --> 00:54:13.730 si on est capable de reconnaître une intelligence artificielle 867 00:54:13.930 --> 00:54:17.000 d'un humain et qu'on a opposé à un test qu'on a appelé le test 868 00:54:17.200 --> 00:54:20.720 de Kamski qui est le créateur des androïdes dans le jeu qui, lui, veut 869 00:54:20.920 --> 00:54:25.400 tester si l'androïde est capable d'empathie. Ce sont 870 00:54:25.600 --> 00:54:26.360 les deux tests. 871 00:54:26.560 --> 00:54:29.720 Là, on va voir comment se passe le test de Turing et si vous voulez 872 00:54:29.920 --> 00:54:32.830 savoir comment se passe le test de Kamski il faut jouer à « Detroit ». 873 00:54:34.200 --> 00:54:36.410 - Il y a déjà toute la problématique de « Blade Runner ». 874 00:54:37.100 --> 00:54:43.050 - Absolument. Ce ne sont pas des problématiques qu'on a inventées. 875 00:54:43.440 --> 00:54:45.640 - For start it what should I call you? - I'm Chloe. And you what's your name ? 876 00:54:48.620 --> 00:54:54.900 - John my name is John. - Delighted to meet you John 877 00:54:55.100 --> 00:55:01.600 - Could you tell us a little about yourself and what you can do Chloe? - Of course. 878 00:55:02.570 --> 00:55:09.820 I'm the first personal assistant. I take care of almost everyday tasks. 879 00:55:10.020 --> 00:55:15.650 - I understand you're the first android doing pass the Turing Test. Could you tell 880 00:55:15.850 --> 00:55:21.330 us a little more about that? - I just spoke with a few humans to see if they could tell 881 00:55:21.830 --> 00:55:31.880 the difference between me and diverse persons. - But it's the first time in history 882 00:55:32.800 --> 00:55:40.290 that man has created a machine more intelligent than himself. But I exist only 883 00:55:40.490 --> 00:55:41.960 thanks to the intelligence of the humans that designed me. And they have 884 00:55:45.770 --> 00:55:55.470 something I could never have. - Really? And what's that? - The soul. 885 00:55:55.670 --> 00:55:56.580 - Ca répond un peu à notre discussion aussi je crois. 886 00:55:56.780 --> 00:55:57.870 C'est Chloé qui a eu le dernier mot. 887 00:55:58.790 --> 00:56:01.110 Oui, son cerveau est capable de faire des millions et des millions 888 00:56:01.310 --> 00:56:03.660 d'opérations par seconde mais on a quelque chose 889 00:56:03.860 --> 00:56:06.450 qu'elle n'a pas : une âme. 890 00:56:14.660 --> 00:56:18.880 - Y en a-t-il parmi vous qui ont des questions ? Je vous dis ca, 891 00:56:19.080 --> 00:56:21.650 j'ai la lumière dans les yeux donc je suis incapable de vous dire si 892 00:56:21.850 --> 00:56:23.120 vous levez la main. Je vous regarde benoitement. 893 00:56:23.320 --> 00:56:26.460 - C'est toujours difficile de trouver le premier interlocuteur mais après 894 00:56:26.660 --> 00:56:28.900 ca va se déclencher normalement. 895 00:56:31.020 --> 00:56:31.780 Bravo. 896 00:56:32.170 --> 00:56:38.010 - Bonjour, je voudrais savoir quelle part de pouvoir pourrait-on 897 00:56:38.210 --> 00:56:41.780 donner aux androïdes dans un futur hypothétique ? Quelle part serait 898 00:56:41.980 --> 00:56:43.730 souhaitable de pouvoir leur donner ? 899 00:56:43.930 --> 00:56:47.720 Et si on leur donne du pouvoir, est-ce qu'il serait plus intéressant de leur 900 00:56:47.920 --> 00:56:51.620 donner des sentiments pour qu'ils évitent certains excès ou au contraire 901 00:56:51.820 --> 00:56:56.060 de leur supprimer pour éviter des réactions un peu hasardeuses ? 902 00:56:57.210 --> 00:57:00.270 - Peut-être madame et messieurs allez-vous parler justement 903 00:57:00.470 --> 00:57:03.680 des lois de la robotique d'Asimov qui essayait d'appréhender 904 00:57:03.880 --> 00:57:09.110 un peu cette question. - Oui, il y a deux questions différentes. 905 00:57:09.310 --> 00:57:13.850 La première, c'est donner les sentiments ou l'intelligence de type humain 906 00:57:14.050 --> 00:57:14.810 à des androïdes 907 00:57:15.010 --> 00:57:17.660 ce qui, dans l'état actuel des choses, je le rappelle, n'a aucune espèce de sens. 908 00:57:18.560 --> 00:57:23.540 Isaac Asimov, qui est un excellent écrivain, avait imaginé de doter... 909 00:57:23.760 --> 00:57:27.590 D'ailleurs c'est probablement un de ses éditeurs John Campbell qui avait imaginé 910 00:57:27.790 --> 00:57:34.090 ces trois lois. La première loi, c'est : un robot doit obéir à tout ce que 911 00:57:34.290 --> 00:57:35.240 lui commande un humain. 912 00:57:36.730 --> 00:57:40.910 La deuxième loi, c'est : un robot ne peut pas faire de mal à un humain 913 00:57:41.110 --> 00:57:46.160 même si cela contredit la première loi. Et la troisième loi, c'est : 914 00:57:46.360 --> 00:57:48.920 un robot doit se protéger lui-même. 915 00:57:49.500 --> 00:57:52.620 Même si ca contredit la première ou la deuxième loi. 916 00:57:53.130 --> 00:57:56.910 Excusez-moi je me suis trompé ce n'est pas « même » mais « sauf » si ca 917 00:57:57.110 --> 00:58:01.820 contredit. Ca signifie donc que les humains ne peuvent pas se laisser 918 00:58:02.020 --> 00:58:05.450 faire du mal, qu'ils ne peuvent pas faire du mal à un humain et qu'en dehors 919 00:58:05.650 --> 00:58:07.520 de tout cela ils doivent obéir aux humains. 920 00:58:08.360 --> 00:58:14.990 Asimov, qui était biochimiste de formation, a écrit des livres de 921 00:58:15.190 --> 00:58:18.360 vulgarisation scientifique d'une qualité extraordinaire. Il savait 922 00:58:18.610 --> 00:58:23.570 très bien que ces robots humanoïdes 923 00:58:25.370 --> 00:58:29.570 avaient un sens dans la fiction mais absolument pas en dehors de 924 00:58:29.770 --> 00:58:30.530 la fiction. 925 00:58:31.820 --> 00:58:34.970 Qu'est-ce que sont les robots d'Asimov ? 926 00:58:35.300 --> 00:58:39.200 Ce sont des esclaves parfaits. Dans un certain nombre de textes je l'ai fait 927 00:58:39.400 --> 00:58:45.710 remarquer mais je n'ai jamais eu la réponse d'Asimov : il était mort avant. 928 00:58:46.400 --> 00:58:50.580 - C'est un sujet très vaste, très complexe et très intéressant. On n'en a 929 00:58:50.780 --> 00:58:52.980 pas la moindre idée mais on va y être confronté, et c'est 930 00:58:53.180 --> 00:58:54.580 une certitude, pendant les années qui viennent. 931 00:58:54.960 --> 00:58:57.150 Aujourd'hui, il faut savoir que les marchés boursiers sont déjà  932 00:58:57.350 --> 00:59:00.450 gérés par des algorithmes. Donc on a déjà délégué une partie du pouvoir. 933 00:59:01.590 --> 00:59:03.990 Encore une fois, je n'ose pas parler d'intelligence car ce sont des 934 00:59:04.190 --> 00:59:06.180 algorithmes qui appliquent des règles mais aujourd'hui les marchés boursiers 935 00:59:06.380 --> 00:59:09.190 sont intégralement gérés par des algorithmes. 936 00:59:09.390 --> 00:59:12.690 Ce qui a provoqué déjà un mini-krach avec un certain problème puisqu'une 937 00:59:12.890 --> 00:59:15.130 fois que la machine s'emballe et qu'il n'y a aucun humain pour appuyer 938 00:59:15.330 --> 00:59:18.900 sur le bouton « stop ». Alors c'était un mini-krach, ce n'est que de l'argent, 939 00:59:19.100 --> 00:59:19.860 ce n'est pas grave. 940 00:59:21.180 --> 00:59:23.460 Je pense qu'il y a une vraie question qui est absolument fascinante et, 941 00:59:23.660 --> 00:59:25.440 encore une fois, c'est l'auteur qui parle. 942 00:59:25.650 --> 00:59:27.900 Je ne suis pas scientifique et je ne fais pas de prospective. 943 00:59:28.770 --> 00:59:31.470 Est-ce qu'un jour il y aura une intelligence artificielle à la tête 944 00:59:31.670 --> 00:59:32.430 d'un pays ? 945 00:59:32.820 --> 00:59:35.490 ca a l'air d'être un énorme sujet ridicule. 946 00:59:35.820 --> 00:59:39.450 « Bien sûr que non, jamais ». Mais en même temps, une intelligence artificielle 947 00:59:39.650 --> 00:59:44.730 ne se trompe pas en théorie, si on lui a donné les bons paramètres, 948 00:59:44.950 --> 00:59:48.390 est incorruptible, ne se fatigue pas, n'a pas d'émotions et est capable 949 00:59:48.590 --> 00:59:51.270 d'appliquer le programme qu'on lui a demandé. Si on lui dit « le but c'est 950 00:59:51.470 --> 00:59:55.650 d'atteindre 3 % de chômage », l'IA est capable de prendre les décisions 951 00:59:55.850 --> 00:59:56.790 qu'il va falloir pour atteindre ce but. 952 00:59:57.570 --> 00:59:59.010 Je ne dis absolument pas que c'est souhaitable. 953 00:59:59.210 --> 01:00:02.460 Je ne dis absolument pas que ca va se produire, je dis qu'à un moment 954 01:00:02.790 --> 01:00:05.670 il est possible que la question se pose. C'est peut-être effrayant 955 01:00:05.870 --> 01:00:11.470 aussi - Je voudrais juste rappeler qu'il y a un roman de Philip K. Dick 956 01:00:11.670 --> 01:00:17.490 qui s'appelle « Simulacres » et qui met en scène justement cette 957 01:00:17.690 --> 01:00:22.260 situation : c'est une femme qui est modélisée et qui est présidente 958 01:00:22.460 --> 01:00:30.270 de la République et à laquelle on inculque des modèles 959 01:00:30.470 --> 01:00:32.880 de comportements de facon à ce qu'elle 960 01:00:33.080 --> 01:00:34.680 se comporte en fonction de sondages. 961 01:00:35.120 --> 01:00:41.410 Donc Philip K. Dick avait inventé cela. Elle s'appelait Nicole cette présidente. 962 01:00:41.610 --> 01:00:42.770 - Alors « Nicole » ca ne va pas être possible. 963 01:00:43.170 --> 01:00:47.460 - On pourra peut-être voter pour son prénom. Le monsieur qui nous a posé 964 01:00:47.660 --> 01:00:49.800 la question parlait des sentiments. J'ai l'impression quand 965 01:00:50.000 --> 01:00:52.950 on pense intelligence 966 01:00:53.150 --> 01:00:55.510 artificielle qui prend le pouvoir si je pense « Terminator » Skynet, c'est gagné. 967 01:00:55.710 --> 01:00:58.590 - Non pas qui prend le pouvoir mais à qui on donne le pouvoir. - Ce n'est pas pareil. 968 01:00:58.790 --> 01:01:01.020 Oui Skynet c'est le jour où on le branche que ca part en cacahuète. Mais on le 969 01:01:01.220 --> 01:01:01.980 branche volontairement. 970 01:01:02.180 --> 01:01:04.140 Est-ce que justement ce ne sont pas toujours des intelligences 971 01:01:04.340 --> 01:01:07.800 artificielles dénuées d'émotion, dans la fiction en tout cas ? 972 01:01:08.000 --> 01:01:09.590 - Nous-mêmes êtres humains 973 01:01:09.790 --> 01:01:11.910 on a tendance à penser que pour prendre une bonne décision, il faut 974 01:01:12.110 --> 01:01:13.530 prendre une décision rationnelle et pragmatique. 975 01:01:13.730 --> 01:01:17.100 Il ne faut pas être dans l'émotion. Sinon on est emporté par ses émotions 976 01:01:17.300 --> 01:01:18.960 et on ne prend pas forcément la bonne décision. 977 01:01:19.310 --> 01:01:21.300 Donc je pense qu'on voudra, pour répondre à votre question, 978 01:01:21.500 --> 01:01:26.220 plutôt des intelligences artificielles dénuées d'émotions 979 01:01:26.420 --> 01:01:27.720 pour prendre des décisions pragmatiques. 980 01:01:28.110 --> 01:01:28.870 ca nous arrange puisque 981 01:01:29.070 --> 01:01:30.900 de toutes façons des intelligences artificielles dotées d'émotions 982 01:01:31.510 --> 01:01:34.460 effectivement, je rejoins monsieur Klein, on ne sait pas ce que ca veut dire. 983 01:01:35.310 --> 01:01:38.490 - L'exemple que je citais tout à l'heure du pouvoir qu'on donnerait à  984 01:01:41.250 --> 01:01:45.960 une compétence artificielle de régir une économie pour faire tomber le 985 01:01:46.160 --> 01:01:50.820 chômage en dessous de 3% suppose une chose qu'hélas je connais trop bien, 986 01:01:51.210 --> 01:01:54.090 c'est que l'économie serait une science exacte, ce qu'elle n'est pas. 987 01:01:54.290 --> 01:01:58.200 Je ne connais absolument aucun économiste qui considère l'économie 988 01:01:58.400 --> 01:02:00.030 comme une science exacte. 989 01:02:01.020 --> 01:02:05.340 C'est une science approximative. Le travail d'économiste de terrain 990 01:02:05.540 --> 01:02:08.370 que j'ai été pendant un temps, ressemble beaucoup à celui 991 01:02:08.570 --> 01:02:09.330 du médecin de campagne. 992 01:02:10.860 --> 01:02:12.570 On regarde ce qui se passe, on fait avec ce qu'on a. 993 01:02:12.770 --> 01:02:16.330 On propose de son mieux mais on n'est jamais sûr de rien. 994 01:02:17.490 --> 01:02:35.320 - Y a-t-il d'autres questions ? - Bonsoir. 995 01:02:35.920 --> 01:02:45.380 - Bonsoir. Catherine, travaillez-vous sur un projet secret ? - Je ne vais pas 996 01:02:45.580 --> 01:02:47.900 vous en parler si c'est secret. 997 01:02:48.350 --> 01:02:53.390 - Cette question m'est venue à l'esprit parce que j'ai bien aimé Oscar qui a 998 01:02:53.590 --> 01:02:59.120 quinze ans avec la possibilité d'avoir toutes les expressions qu'on souhaite 999 01:02:59.510 --> 01:03:02.450 voir chez quelqu'un. Parce qu'il est vrai que, parfois, il y a des 1000 01:03:02.650 --> 01:03:06.350 têtes qu'on ne veut plus voir et qu'on aimerait bien avoir les expressions 1001 01:03:06.550 --> 01:03:07.310 en face. 1002 01:03:07.510 --> 01:03:13.190 Par contre, quand vous êtes passée aux particules, j'ai l'impression que 1003 01:03:13.390 --> 01:03:15.920 vous avez enlevé toutes les émotions du visage. 1004 01:03:17.090 --> 01:03:20.000 Je me demandais : est-ce qu'il y a une suite à ces particules ? 1005 01:03:20.200 --> 01:03:20.960 Qu'est-ce qui va ? 1006 01:03:21.160 --> 01:03:22.560 Est-ce qu'il y a quelque chose qui manque ou 1007 01:03:22.760 --> 01:03:24.230 simplement je n'ai pas compris ? 1008 01:03:25.340 --> 01:03:29.210 - C'était un autre propos évidemment comme vous avez pu voir. 1009 01:03:29.410 --> 01:03:34.190 C'est quand même intéressant cette question parce 1010 01:03:34.390 --> 01:03:38.070 qu'on est en train de penser à combiner, 1011 01:03:38.270 --> 01:03:40.760 c'est une question de programmes et d'argent mais on est en train 1012 01:03:40.960 --> 01:03:46.250 de penser à combiner les expressions d'Oscar avec ces personnages-là  1013 01:03:46.450 --> 01:03:51.170 en nuages de points. Effectivement il 1014 01:03:51.370 --> 01:03:57.600 y a un lieu sur lequel les deux pourraient se retrouver et avoir 1015 01:03:57.800 --> 01:03:58.730 les intérêts de chacun. 1016 01:03:58.930 --> 01:04:01.970 Parce que, dans les images en nuages de points, on ne voulait pas 1017 01:04:02.170 --> 01:04:06.890 créer une relation d'émotions, si ce n'est que le fait de voir 1018 01:04:07.090 --> 01:04:10.520 un visage humain qui part en petits morceaux, ca peut quand même générer 1019 01:04:10.720 --> 01:04:11.480 d'autres pensées. 1020 01:04:12.020 --> 01:04:16.950 Mais on peut travailler sur les deux ensemble. Effectivement, c'est 1021 01:04:17.150 --> 01:04:19.790 un des projets qu'on a. Il n'est pas vraiment secret mais il est là. 1022 01:04:33.150 --> 01:04:34.710 - C'est une question pour David Cage. 1023 01:04:35.310 --> 01:04:38.040 En plaçant l'intelligence artificielle au niveau de l'illusion comme vous 1024 01:04:38.240 --> 01:04:39.000 l'aviez dit 1025 01:04:39.200 --> 01:04:41.340 est-ce que vous avez des projets avec le casque de réalité virtuelle 1026 01:04:41.540 --> 01:04:43.860 où là l'illusion est autre encore ? 1027 01:04:45.910 --> 01:04:47.790 - C'est assez fascinant 1028 01:04:47.990 --> 01:04:51.930 la réalité virtuelle, notamment par le niveau d'immersion assez incroyable 1029 01:04:52.130 --> 01:04:54.000 que ca crée. 1030 01:04:54.510 --> 01:04:56.610 Ce qui me fascine le plus, c'est le sens de la présence c'est-à-dire 1031 01:04:56.810 --> 01:05:00.330 que, quand on crée un personnage, votre cerveau est complètement trompé 1032 01:05:00.530 --> 01:05:03.510 et sent une présence, la présence d'une personne en face de vous. 1033 01:05:04.050 --> 01:05:05.610 Cette personne évidemment n'existe pas. 1034 01:05:06.330 --> 01:05:08.820 C'est quelque chose qui est fascinant pour raconter des histoires et créer 1035 01:05:09.020 --> 01:05:09.780 des émotions. 1036 01:05:10.010 --> 01:05:12.050 C'est quelque chose qui est peut être aussi un peu effrayant parce 1037 01:05:12.250 --> 01:05:16.680 qu'on glisse petit à petit vers le fait de tromper son cerveau et 1038 01:05:16.880 --> 01:05:18.270 lui faire croire dans des illusions. 1039 01:05:18.900 --> 01:05:21.960 Mais croire en des illusions c'est un peu le métier 1040 01:05:22.320 --> 01:05:25.470 des acteurs et des tragédiens depuis l'Antiquité. 1041 01:05:25.670 --> 01:05:28.230 C'est créer une illusion et, à travers ca, créer une catharsis. 1042 01:05:28.430 --> 01:05:30.360 La réalité virtuelle permet ca aussi. 1043 01:05:31.010 --> 01:05:33.540 C'est une technologie qu'on regarde, qu'on ne considère 1044 01:05:33.740 --> 01:05:36.930 pas tout à fait mature encore, puisque les casques sont lourds, chers, 1045 01:05:37.130 --> 01:05:38.020 câblés. 1046 01:05:38.320 --> 01:05:41.670 C'est un peu oppressant et tout le monde ne se sent pas à l'aise. 1047 01:05:41.870 --> 01:05:43.860 On peut avoir mal à la tête assez vite avec ces systèmes. 1048 01:05:44.430 --> 01:05:47.010 Mais, quand la technologie sera prête, il y a des choses assez intéressantes 1049 01:05:47.210 --> 01:05:51.300 qui vont arriver. Notamment on voit arriver des systèmes 1050 01:05:51.500 --> 01:05:56.100 de VR avec ce qu'on appelle Location-based VR ce qui veut dire 1051 01:05:56.300 --> 01:05:59.370 qu'on a un casque sans fil et on se déplace dans un environnement 1052 01:05:59.570 --> 01:06:01.830 réel dans lequel on va venir toucher des murs, des portes. 1053 01:06:02.100 --> 01:06:06.380 Tous les éléments du décor sont tangibles. 1054 01:06:06.580 --> 01:06:09.120 On peut se déplacer physiquement : on marche, on court, on saute, on fait 1055 01:06:09.320 --> 01:06:11.380 des choses mais dans un environnement qui n'existe pas. 1056 01:06:12.010 --> 01:06:15.060 J'ai eu la chance de tester quelques expériences comme ca notamment 1057 01:06:15.260 --> 01:06:21.020 aux états-Unis qui sont vraiment impressionnantes et presque effrayantes. 1058 01:06:21.220 --> 01:06:24.540 À tel point que ca nous déconnecte du réel, notre cerveau 1059 01:06:24.740 --> 01:06:27.990 n'y comprend plus rien et se retrouve complètement là-dedans 1060 01:06:28.190 --> 01:06:32.250 piégé d'une certaine manière. C'est quelque chose qui a un côté inquiétant 1061 01:06:32.450 --> 01:06:50.820 aussi. Merci pour votre question. 1062 01:06:51.690 --> 01:06:52.450 - Bonjour. 1063 01:06:54.120 --> 01:06:57.980 Il y a une question que je me suis posée. 1064 01:06:58.540 --> 01:07:01.970 On a beaucoup parlé de la fiction et comme vous avez fait des liens, 1065 01:07:03.140 --> 01:07:07.190 lorsqu'on prend l'exemple « Terminator » vous l'avez dit ca vire 1066 01:07:07.390 --> 01:07:08.150 souvent au drame. 1067 01:07:09.310 --> 01:07:13.400 Mais si demain les machines telles qu'on les connaît se réveillaient ? 1068 01:07:14.300 --> 01:07:17.240 Est-ce que vous pensez qu'un questionnement comme 1069 01:07:17.440 --> 01:07:19.820 on l'a vu par exemple avec « Detroit », Chloé qui disait dans 1070 01:07:20.020 --> 01:07:23.720 son interview « je n'existe que grâce à l'intelligence des humains 1071 01:07:23.920 --> 01:07:24.680 qui m'ont désignée » 1072 01:07:25.070 --> 01:07:30.020 Est-ce que vous pensez que si les machines prenaient conscience 1073 01:07:30.220 --> 01:07:31.690 et réalisaient ca 1074 01:07:32.090 --> 01:07:36.920 quelque chose de spécial pourrait se créer entre les humains, 1075 01:07:37.120 --> 01:07:39.680 avec les humains qui verraient leur création d'un seul coup un peu leur 1076 01:07:39.880 --> 01:07:41.060 échapper à leur contrôle? 1077 01:07:41.260 --> 01:07:46.370 Mais cette création, d'un autre côté, ne voudrait pas pour autant 1078 01:07:46.570 --> 01:07:49.790 se dire « il faut que je me sépare d'eux » parce que sans eux je ne suis 1079 01:07:49.990 --> 01:07:50.750 rien. 1080 01:07:50.950 --> 01:07:52.880 Est-ce que 1081 01:07:53.990 --> 01:07:57.680 ce n'est pas quelque chose qui peut se faire poser des questions sur 1082 01:07:57.880 --> 01:08:01.170 ce qui entraînerait véritablement un réveil des machines ? 1083 01:08:03.310 --> 01:08:05.060 - Juste pour bien comprendre ce que vous vous demandez. 1084 01:08:05.260 --> 01:08:07.380 Est-ce qu'un éveil des machines est forcément conflictuel ? 1085 01:08:08.670 --> 01:08:10.970 Est-ce que ca ne pourrait pas très bien se passer 1086 01:08:11.170 --> 01:08:12.870 et être très rigolo ? 1087 01:08:13.810 --> 01:08:16.980 - Si, ce serait sûrement rigolo. Mais on ne sait pas ce qu'est un éveil 1088 01:08:17.180 --> 01:08:19.200 des machines et on ne sait pas ce qu'est la conscience humaine. 1089 01:08:19.400 --> 01:08:20.580 On ne sait pas ce qu'est la conscience humaine. 1090 01:08:20.780 --> 01:08:24.090 Comment définir la conscience humaine ? Alors la conscience des machines, 1091 01:08:24.290 --> 01:08:25.050 encore moins. 1092 01:08:25.250 --> 01:08:27.510 C'est très hypothétique et, honnêtement, pour moi, ce sont des 1093 01:08:27.710 --> 01:08:29.160 thématiques qui sont dans le domaine de la fiction. 1094 01:08:29.680 --> 01:08:33.150 En tant qu'auteur, je peux raconter toutes les histoires que je veux. 1095 01:08:33.350 --> 01:08:36.720 J'ai écrit cette scène avec Chloé où elle est très respectueuse 1096 01:08:36.920 --> 01:08:39.750 des humains qui l'ont créée mais aussi je raconte une histoire 1097 01:08:39.950 --> 01:08:41.220 où ca va un peu évoluer autrement. 1098 01:08:42.300 --> 01:08:45.160 Je crois que, pour l'instant, c'est dans les mains des créateurs de fiction. 1099 01:08:45.510 --> 01:08:48.600 Je ne sais pas si un jour ca sera dans les mains des scientifiques 1100 01:08:48.800 --> 01:08:51.930 ou des IA mais pour l'instant on raconte les histoires 1101 01:08:52.130 --> 01:08:55.110 qu'on veut. Encore une fois pour parler de nous je pense 1102 01:08:55.310 --> 01:08:57.570 que tous les auteurs de science-fiction que ce soit de « Terminator » ou d'autres 1103 01:08:57.770 --> 01:08:59.370 parlent finalement d'une seule chose : de l'humanité. 1104 01:08:59.670 --> 01:09:03.900 - Oui j'allais sortir de mon rôle de modérateur 1105 01:09:04.100 --> 01:09:06.960 et dire un truc marrant. C'est qu'en fait c'est un phénomène, celui que vous 1106 01:09:07.160 --> 01:09:09.900 venez de décrire qui arrive à peu près tous les vingt, vingt-cinq ans quand les 1107 01:09:10.100 --> 01:09:12.240 les enfants des humains découvrent qu'ils peuvent penser 1108 01:09:12.440 --> 01:09:14.850 par eux-mêmes, dire « merde » à leurs parents et demander 1109 01:09:15.050 --> 01:09:16.380 à ce qu'on frappe à la porte pour entrer dans leur chambre. 1110 01:09:16.580 --> 01:09:18.930 Ce n'est pas quelque chose de très différent qu'on raconte quand 1111 01:09:19.130 --> 01:09:20.880 on raconte l'histoire d'un individu. 1112 01:09:21.080 --> 01:09:24.270 Il y a quelques années est sorti un film de SF assez intéressant, 1113 01:09:24.470 --> 01:09:28.380 de quelqu'un qui avait vu vos travaux je pense David, qui s'appelle 1114 01:09:28.580 --> 01:09:32.460 « Ex Machina » dans lequel se pose la question du rapport entre 1115 01:09:32.660 --> 01:09:35.130 un humain et un androïde : l'humain se demandant si l'androïde est vraiment 1116 01:09:35.330 --> 01:09:37.290 un androïde, l'androïde se demandant si l'humain est vraiment un humain. 1117 01:09:39.310 --> 01:09:43.250 Là arrive cette question de la révolte : 1118 01:09:43.450 --> 01:09:45.210 je refuse celui qui m'a créé ou je l'accepte. 1119 01:09:45.410 --> 01:09:48.240 Je suis d'accord pas d'accord. En fait Ce sont des thématiques qui 1120 01:09:48.440 --> 01:09:51.300 font écho à ce que les humains rencontrent dans leur vie quotidienne, 1121 01:09:51.500 --> 01:09:58.050 tous plus ou moins. - C'est la thématique déjà ancienne 1122 01:09:58.530 --> 01:10:03.600 d'un roman qui a donné naissance à un terme célèbre, celui de « robots ». 1123 01:10:03.800 --> 01:10:05.820 C'est le roman de Karel Čapek 1124 01:10:07.140 --> 01:10:08.780 qui s'appelle « Les Robots ». 1125 01:10:09.030 --> 01:10:10.580 Je ne sais plus quel est son titre. 1126 01:10:10.780 --> 01:10:14.010 Il y a plusieurs titres suivant les traductions. C'est un roman 1127 01:10:14.210 --> 01:10:18.900 qui date des années 1920 à peu près et qui décrit 1128 01:10:19.920 --> 01:10:25.320 la fabrication d'esclaves qui sont destinés à travailler à la place 1129 01:10:25.520 --> 01:10:26.280 des humains 1130 01:10:26.480 --> 01:10:31.090 et qui un jour se révoltent et prennent leur indépendance, donc 1131 01:10:31.540 --> 01:10:35.010 c'est votre question. Mais Čapek imagine que ces robots sont 1132 01:10:35.210 --> 01:10:40.470 conscients, comme ceux d'Asimov, sauf qu'ils ne connaissent pas 1133 01:10:40.670 --> 01:10:46.410 encore les lois d'Asimov. - C'est l'histoire de « Metropolis » aussi. 1134 01:10:47.270 --> 01:10:52.390 - Oui, et « Metropolis » est directement influencé par « L'Ève future ». 1135 01:10:54.480 --> 01:11:01.230 Cela a été reconnu par son créateur Theavon Harbou qui avait écrit le scénario. 1136 01:11:01.430 --> 01:11:03.420 - Juste pour aider le jeune homme 1137 01:11:03.620 --> 01:11:08.280 si je peux me permettre. Il faut lire « The Fear Index » de Robert Harris. 1138 01:11:08.850 --> 01:11:11.610 Parce que nous on l'appelle la conscience 1139 01:11:11.810 --> 01:11:12.720 parce que c'est celle de l'humain. 1140 01:11:12.920 --> 01:11:16.170 Le robot est un algorithme qui fait des transactions 1141 01:11:17.310 --> 01:11:20.260 en bourse et il se rend compte qu'il peut être déconnecté. 1142 01:11:20.570 --> 01:11:24.630 Il va envoyer lui-même faire les transferts bancaires en demandant 1143 01:11:24.830 --> 01:11:27.720 aux ressources humaines d'embaucher des personnes pour construire 1144 01:11:27.920 --> 01:11:33.090 un deuxième ordinateur et dessus il va se créer sa propre sauvegarde 1145 01:11:33.290 --> 01:11:34.050 et ainsi de suite. 1146 01:11:34.250 --> 01:11:35.010 On l'appelle conscience. 1147 01:11:35.210 --> 01:11:37.200 Mais c'est sûr que la fille va se rendre compte qu'elle peut être 1148 01:11:37.400 --> 01:11:40.560 déconnectée donc elle est assez intelligente pour se créer un double 1149 01:11:40.760 --> 01:11:45.270 de côté et elle va se transférer dessus et après elle laissera l'autre 1150 01:11:45.510 --> 01:11:46.270 mourir. 1151 01:11:46.630 --> 01:11:47.820 Donc il faut faire attention. (rires du public) 1152 01:11:49.170 --> 01:11:54.360 - Ca me fait penser à la célèbre histoire, très courte rassurez-vous, de Frédéric 1153 01:11:54.560 --> 01:11:55.320 Brown 1154 01:11:55.520 --> 01:11:56.280 « La Question ». 1155 01:11:58.080 --> 01:12:01.920 Les humains fabriquent un super ordinateur intelligent et ils décident 1156 01:12:02.120 --> 01:12:03.300 de lui poser la question. 1157 01:12:04.510 --> 01:12:06.450 Et la question est : y a-t-il un dieu ? 1158 01:12:06.930 --> 01:12:10.460 À ce moment-là, un éclair tombe du ciel, détruit l'interrupteur qui 1159 01:12:10.660 --> 01:12:13.200 pourrait arrêter la machine et la machine répond : 1160 01:12:13.400 --> 01:12:19.760 « Maintenant, il y en a un. » - Il y a eu une réflexion intéressante 1161 01:12:19.960 --> 01:12:22.520 là-dedans finalement 1162 01:12:22.720 --> 01:12:24.410 dans la catégorie l'oeuf ou la poule. 1163 01:12:24.680 --> 01:12:28.130 Il y a, en quelques années, quantité de créations qui vont se succéder de 1164 01:12:28.330 --> 01:12:35.360 « Frankenstein » de Shelley à « Robota », à « l'Eve future », qui montrent bien qu'à  1165 01:12:35.560 --> 01:12:39.080 un moment, il y a une convergence de savoirs, une curiosité, une appétence 1166 01:12:39.280 --> 01:12:42.740 pour les sciences qui fait que, tout d'un coup, des esprits humains différents 1167 01:12:42.940 --> 01:12:46.790 qui se connaissent ou pas vont inventer ce qui deviendra la science-fiction, 1168 01:12:47.000 --> 01:12:51.790 l'androïde, l'intelligence artificielle. Aujourd'hui ces concepts 1169 01:12:51.990 --> 01:12:54.200 guident la manière dont on se représente 1170 01:12:54.680 --> 01:12:57.140 l'intelligence artificielle, dont on en entend parler à la radio, 1171 01:12:57.340 --> 01:13:00.380 à la télé, sur Internet, quand des hommes ou des femmes aujourd'hui 1172 01:13:00.580 --> 01:13:02.660 doivent la concevoir. C'est assez intéressant. 1173 01:13:02.860 --> 01:13:05.840 On pourrait se demander qui a inventé l'androïde, de l'androïde 1174 01:13:06.040 --> 01:13:06.800 ou de l'humain. 1175 01:13:07.570 --> 01:13:12.290 - ca apparaît dans la philosophie dès le 18e siècle avec « L'homme-machine » 1176 01:13:12.490 --> 01:13:13.250 de La Mettrie. 1177 01:13:14.020 --> 01:13:16.850 Le Frankestein n'est pas exactement... 1178 01:13:17.440 --> 01:13:20.480 C'est un être qui est fabriqué à  partir de morceaux d'humains mais 1179 01:13:20.680 --> 01:13:24.060 c'est un livre extraordinairement intelligent, très complexe aussi 1180 01:13:24.950 --> 01:13:26.240 et extrêmement intelligent 1181 01:13:26.440 --> 01:13:31.850 dont je vous recommande la lecture. C'est à partir du 18e siècle, pour 1182 01:13:32.050 --> 01:13:37.850 une raison fondamentale, c'est que philosophes puis écrivains mettent 1183 01:13:38.050 --> 01:13:42.550 sérieusement en question les croyances, les religions, enfin toutes 1184 01:13:42.750 --> 01:13:48.470 les formes de croyances. Les Lumières indiquent qu'il 1185 01:13:48.670 --> 01:13:54.830 est possible de comprendre le monde sans faire appel à ce type de fictions. 1186 01:13:58.980 --> 01:14:01.980 Ce qui ne veut pas dire le comprendre en totalité, cela veut dire le comprendre 1187 01:14:02.180 --> 01:14:05.870 par petits bouts. Ce qui est extrêmement important quand on pense à ce que c'est 1188 01:14:06.300 --> 01:14:10.320 que la science ou plutôt les sciences, c'est leur caractère, 1189 01:14:10.520 --> 01:14:13.350 comment dirais-je dispersé. 1190 01:14:14.290 --> 01:14:19.080 On a souvent l'impression que la science progresse en élargissant 1191 01:14:19.410 --> 01:14:21.780 un faisceau de lumière, un faisceau de connaissances. 1192 01:14:22.050 --> 01:14:24.510 Ce n'est pas du tout comme ca que ca se passe : on découvre des petites 1193 01:14:24.710 --> 01:14:29.760 bribes de savoirs, d'explication de la réalité, à droite à gauche, etc. 1194 01:14:30.210 --> 01:14:32.520 ca finit parfois par coaliser. 1195 01:14:32.720 --> 01:14:37.920 Pas toujours vrai. Mais les sciences tout en obéissant toujours 1196 01:14:38.280 --> 01:14:42.960 aux mêmes règles méthodiques générales qui ont été posées à l'époque de 1197 01:14:43.160 --> 01:14:48.450 Descartes puis par d'autres sont des choses extrêmement 1198 01:14:48.650 --> 01:14:53.580 fragmentaires. Il faut bien comprendre le caractère fragmentaire des sciences. 1199 01:14:53.780 --> 01:14:56.010 En même temps, c'est quelque chose d'absolument passionnant. 1200 01:14:56.280 --> 01:14:58.830 C'est fantastique ce qu'en quelques siècles on a découvert. 1201 01:14:59.880 --> 01:15:03.810 Je lis une demi-douzaine de revues scientifiques de différents niveaux 1202 01:15:04.440 --> 01:15:06.600 de « Sciences et Vie » à « Nature » 1203 01:15:07.740 --> 01:15:11.830 et je suis toujours fasciné par ce que je découvre. 1204 01:15:12.320 --> 01:15:15.210 Je suis en train d'essayer de les trier pour ne pas garder 1205 01:15:15.410 --> 01:15:16.860 tout ce papier c'est horrible. 1206 01:15:18.900 --> 01:15:20.850 - Pour rebondir là-dessus, je pense que ce qui est passionnant, c'est 1207 01:15:21.050 --> 01:15:24.180 que l'IA dans la fiction nous permet de réfléchir sur nous-mêmes et sur 1208 01:15:24.380 --> 01:15:25.140 notre propre nature. 1209 01:15:25.440 --> 01:15:29.400 C'est vrai que si on imagine qu'on est capable de créer des machines 1210 01:15:29.600 --> 01:15:32.790 qui nous ressemblent, cela veut dire que peut-être on n'a plus besoin de 1211 01:15:32.990 --> 01:15:35.770 Dieu et que si nous-mêmes nous sommes des machines 1212 01:15:35.970 --> 01:15:37.960 nous n'avons pas d'âme et nous n'avons rien de particulier. 1213 01:15:38.300 --> 01:15:40.030 ca pose ces questions-là. 1214 01:15:40.230 --> 01:15:42.330 En tout cas, ce sont des questions qui sont assez existentielles qu'on 1215 01:15:42.530 --> 01:15:44.430 peut se poser à travers la fiction. 1216 01:15:45.690 --> 01:15:47.370 - Je crois que nous avons une question en face de nous. 1217 01:15:47.690 --> 01:15:52.380 - Bonjour. Actuellement, on a beaucoup de mal à définir ce qu'est 1218 01:15:52.580 --> 01:15:53.340 la conscience 1219 01:15:53.790 --> 01:16:01.010 la vie en quelque sorte. Sans la définir vraiment, comment on pourrait 1220 01:16:02.330 --> 01:16:07.300 penser que d'autres types de 1221 01:16:07.500 --> 01:16:09.970 conscience chez les androïdes pourraient être créés ? Il pourrait 1222 01:16:10.170 --> 01:16:18.350 exister des consciences avec d'autres types d'émotions, différentes. 1223 01:16:20.360 --> 01:16:21.780 - C'est une très large question. 1224 01:16:23.220 --> 01:16:26.130 Encore une fois, la difficulté de définir la conscience, c'est vraiment 1225 01:16:26.330 --> 01:16:29.130 le coeur du problème. Si on ne sait pas la définir pour nous-mêmes, 1226 01:16:29.330 --> 01:16:30.310 comment la définir pour une machine ? 1227 01:16:31.350 --> 01:16:34.920 Je pense qu'on peut définir la conscience pour un être humain 1228 01:16:35.120 --> 01:16:35.880 à un niveau spirituel. 1229 01:16:36.080 --> 01:16:39.440 On peut se dire c'est avoir une âme c'est avoir 1230 01:16:39.640 --> 01:16:41.850 une essence, quelque chose qui ne nous appartient pas, qui nous dépasse. 1231 01:16:42.050 --> 01:16:42.960 C'est une explication. 1232 01:16:43.320 --> 01:16:46.440 On peut aussi dire une fois encore qu'un humain est une machine 1233 01:16:46.640 --> 01:16:50.250 qui a été programmée pour se nourrir, se reproduire, faire un certain nombre 1234 01:16:50.450 --> 01:16:52.160 de tâches, garantir sa survie etc. 1235 01:16:52.770 --> 01:16:57.100 Est-ce que l'évolution et la nature nous ont programmés pour ca ? 1236 01:16:57.300 --> 01:17:00.540 Et on essaye de se transposer et de s'imaginer qu'on a une conscience 1237 01:17:00.740 --> 01:17:01.710 et qu'on est beaucoup plus que ca. 1238 01:17:02.120 --> 01:17:05.400 Ou, au contraire, est-ce qu'on a une vraie dimension spirituelle ? 1239 01:17:06.210 --> 01:17:08.580 En fait, les machines vont nous permettre de répondre à cette question 1240 01:17:08.780 --> 01:17:10.620 parce que, si un jour il y a des machines qui ont une telle puissance 1241 01:17:10.820 --> 01:17:14.580 de calcul et qu'il y a une forme de conscience - à définir - qui émerge, 1242 01:17:14.780 --> 01:17:16.200 ca voudra dire que nous ne sommes que des machines. 1243 01:17:16.680 --> 01:17:19.380 Si, malgré l'évolution de la puissance de calcul, il n'y a toujours pas de 1244 01:17:19.580 --> 01:17:21.450 conscience qui émerge, ca veut dire qu'il y a quelque chose de plus 1245 01:17:21.650 --> 01:17:23.580 en nous qui n'est pas qu'une puissance de calcul. 1246 01:17:23.780 --> 01:17:26.220 Donc à travers l'évolution des IA c'est assez intéressant 1247 01:17:26.420 --> 01:17:29.310 de savoir répondre à la question de ce que nous sommes 1248 01:17:29.510 --> 01:17:31.680 et puis, presque indirectement : est-ce que Dieu existe ? 1249 01:17:31.890 --> 01:17:34.890 C'est une question fascinante mais mes collègues ne seront pas du tout 1250 01:17:35.090 --> 01:17:40.320 d'accord - Il y a une question sous-jacente qui est importante. 1251 01:17:40.610 --> 01:17:44.190 Est-ce que la conscience est le monopole des êtres humains 1252 01:17:44.390 --> 01:17:45.150 dans le vivant ? 1253 01:17:45.350 --> 01:17:47.790 Or ce n'est pas mon sentiment, ce n'est pas du tout le cas. 1254 01:17:48.240 --> 01:17:53.070 Un chat, j'ai un chat qui m'aime beaucoup et c'est réciproque, a une certaine 1255 01:17:53.270 --> 01:17:54.030 conscience. 1256 01:17:54.230 --> 01:17:58.770 Un chien a une certaine conscience. Il est très difficile de voir 1257 01:17:59.040 --> 01:18:00.060 à quel moment 1258 01:18:00.260 --> 01:18:07.080 l'idée même de conscience apparaît dans l'évolution, dans l'histoire 1259 01:18:07.500 --> 01:18:11.400 de l'intelligence vitale, de l'intelligence animale. 1260 01:18:12.600 --> 01:18:16.620 Nous avons l'impression et l'illusion que nous sommes les seuls êtres 1261 01:18:16.820 --> 01:18:17.580 conscients. 1262 01:18:17.780 --> 01:18:20.010 Ce n'est pas du tout le cas. Mais la conscience de ces autres 1263 01:18:20.210 --> 01:18:24.790 êtres conscients est évidemment nettement plus limitée que la nôtre. 1264 01:18:25.060 --> 01:18:27.300 Maintenant est-ce qu'une amibe est consciente ? 1265 01:18:27.690 --> 01:18:30.330 Est-ce qu'un virus est conscient ? - Est-ce qu'une araignée est consciente ? 1266 01:18:30.530 --> 01:18:35.250 - C'est un vrai problème parce que 1267 01:18:35.450 --> 01:18:40.130 plus on en sait sur les insectes... chez les fourmis on 1268 01:18:40.330 --> 01:18:43.470 découvre des comportements extraordinaires, y compris des 1269 01:18:43.670 --> 01:18:47.120 comportements dans certains cas d'aide et de soins à leurs blessés. 1270 01:18:47.580 --> 01:18:51.540 Est-ce que ca implique une conscience ou est-ce que ce sont uniquement 1271 01:18:51.740 --> 01:18:52.620 des mécanismes ? 1272 01:18:54.030 --> 01:18:58.200 Personnellement je pencherais plutôt pour l'idée de mécanismes 1273 01:18:58.400 --> 01:19:04.320 qui sont avantageux pour la collectivité, pour la fourmilière, qui agit comme 1274 01:19:04.520 --> 01:19:05.760 une espèce d'être global. 1275 01:19:06.210 --> 01:19:12.540 Mais quand je le dis c'est sans conviction particulière. Une chose 1276 01:19:12.740 --> 01:19:15.950 est certaine qui est un problème scientifique extrêmement difficile. 1277 01:19:16.390 --> 01:19:19.110 Quand on se situe au tout début de la vie 1278 01:19:19.310 --> 01:19:21.150 on est dans des réactions chimiques 1279 01:19:22.380 --> 01:19:26.910 - je simplifie énormément -, des réactions chimiques qui, en quelque sorte, 1280 01:19:27.110 --> 01:19:28.280 sont strictement mécaniques. 1281 01:19:28.770 --> 01:19:32.850 Puis ca évolue et à un certain moment on est passé 1282 01:19:33.050 --> 01:19:33.810 à autre chose. 1283 01:19:34.010 --> 01:19:35.530 Qu'est-ce qui s'est passé à ce moment-là ? 1284 01:19:35.730 --> 01:19:37.170 À quel moment ca s'est passé ? 1285 01:19:37.370 --> 01:19:51.740 On n'en sait rien. - Bonsoir. Je lis le livre 1286 01:19:51.940 --> 01:19:52.700 très intéressant de 1287 01:19:52.900 --> 01:19:55.550 Stephen Hawking qui dit - pour répondre à votre question - que Dieu n'existe 1288 01:19:55.750 --> 01:20:00.260 pas puisque, semble-t-il, l'univers aurait été créé par hasard, à partir 1289 01:20:00.460 --> 01:20:04.640 du vide, selon une énergie quantique. Et que le Big Bang et nous-mêmes, 1290 01:20:04.840 --> 01:20:07.640 nous serions simplement le fruit du hasard. Mais, partant de là, je 1291 01:20:07.840 --> 01:20:08.600 me posais la question 1292 01:20:08.800 --> 01:20:11.990 Jusqu'à présent, les hommes ont inventé énormément de choses formidables 1293 01:20:12.260 --> 01:20:14.550 pour se développer 1294 01:20:14.750 --> 01:20:18.060 pour connaître d'où ils venaient, pour rendre leur vie plus facile : 1295 01:20:18.260 --> 01:20:19.200 l'électricité, la roue 1296 01:20:19.400 --> 01:20:20.160 je ne sais quoi. 1297 01:20:20.360 --> 01:20:22.650 Aujourd'hui, je me pose la question suivante : pourquoi est-ce qu'il 1298 01:20:22.850 --> 01:20:23.610 invente, 1299 01:20:23.810 --> 01:20:26.390 pourquoi est-il si intéressé par l'intelligence artificielle qui 1300 01:20:26.590 --> 01:20:29.840 n'est qu'une pâle reproduction de la merveilleuse mécanique qu'il 1301 01:20:30.040 --> 01:20:30.800 est lui-même ? 1302 01:20:31.040 --> 01:20:36.350 À quoi ca sert ? - Je vous la laisse celle-là. (rires) - Je ne sais pas 1303 01:20:38.450 --> 01:20:44.840 si je suis le mieux placé pour répondre mais disons que les compétences 1304 01:20:45.040 --> 01:20:50.000 artificielles sont extraordinairement utiles. À l'heure actuelle, on est 1305 01:20:50.200 --> 01:20:52.490 parfaitement capable - d'ailleurs on le fait couramment dans l'armée 1306 01:20:52.690 --> 01:20:55.070 mais on le fera certainement dans très peu de temps dans le civil - 1307 01:20:55.530 --> 01:20:59.980 de faire décoller un avion de lui faire faire toute sa trajectoire, de le faire 1308 01:21:00.180 --> 01:21:03.890 atterrir sans aucune intervention du pilote. Il y a toujours deux pilotes 1309 01:21:04.090 --> 01:21:06.710 quand il n'y en a pas trois à bord au cas où. 1310 01:21:06.920 --> 01:21:10.370 Mais on sait le faire c'est extrêmement utile. 1311 01:21:10.790 --> 01:21:15.140 Les voitures autonomes qu'on nous prépare pour demain sont certainement 1312 01:21:15.340 --> 01:21:18.410 extraordinairement utiles mais elles n'ont pas de conscience. Elles n'ont 1313 01:21:18.610 --> 01:21:21.920 pas à proprement parler d'intelligence. Ce sont des mécanismes très compliqués 1314 01:21:22.220 --> 01:21:26.600 qui joueront dans l'univers très compliqué que nous habitons et qui 1315 01:21:26.800 --> 01:21:31.540 joueront, en ayant comme notre ami, examiné, ou tout au moins l'espère, 1316 01:21:31.740 --> 01:21:32.600 comme les créateurs l'ont fait 1317 01:21:32.930 --> 01:21:35.510 tous les embranchements possibles, toutes les possibilités. 1318 01:21:37.100 --> 01:21:40.010 Donc c'est extraordinairement utile. 1319 01:21:41.090 --> 01:21:45.080 Le problème, c'est celui de l'intelligence. Tant qu'on parle 1320 01:21:45.280 --> 01:21:46.040 de compétences 1321 01:21:46.240 --> 01:21:48.980 je n'ai aucun problème. À partir du moment où on introduit l'intelligence, 1322 01:21:49.180 --> 01:21:50.260 c'est un terme tellement vague. 1323 01:21:50.510 --> 01:21:55.520 Or, il a été introduit par qui ? Par essentiellement deux créateurs du 1324 01:21:55.720 --> 01:21:59.330 domaine : Marvin Minsky que j'ai personnellement publié et l'autre, 1325 01:21:59.530 --> 01:22:03.400 dont le nom m'échappe. Pourquoi 1326 01:22:03.600 --> 01:22:08.510 l'ont-ils créé ? Pour vendre leur savoir-faire, 1327 01:22:08.710 --> 01:22:12.420 enfin surtout l'espérance d'un savoir-faire aux militaires américains. 1328 01:22:12.890 --> 01:22:17.440 Ils ont annoncé je crois en 1952, 1953. 1329 01:22:17.640 --> 01:22:21.410 aux militaires américains qu'en dix ans 1330 01:22:21.610 --> 01:22:23.600 ils auraient le traducteur universel. 1331 01:22:24.200 --> 01:22:28.640 Nous commencons tout juste à avoir des traducteurs qui sont assez fiables. 1332 01:22:29.630 --> 01:22:33.280 Ils ont vendu de la science-fiction, ils en lisaient beaucoup. 1333 01:22:33.600 --> 01:22:39.160 Minsky en a écrit, je l'ai publiée. - C'est le terme finalement d'intelligence 1334 01:22:39.360 --> 01:22:44.000 artificielle qui n'est pas bon. Parce que, effectivement, on peut parler 1335 01:22:44.200 --> 01:22:46.870 de compétences, de suites d'algorithmes 1336 01:22:47.070 --> 01:22:51.060 de toutes sortes de choses qui souvent sont pilotées par des intérêts 1337 01:22:51.260 --> 01:22:52.350 économiques très importants. 1338 01:22:52.640 --> 01:22:55.550 C'est encore un autre sujet. Mais l'intelligence artificielle 1339 01:22:55.750 --> 01:22:59.330 a effectivement été créée d'une façon un peu surréaliste par des gens. 1340 01:22:59.530 --> 01:23:03.890 - Non ça a été créé par des gens qui savaient très bien ce qu'ils faisaient. 1341 01:23:04.090 --> 01:23:10.670 - C'était quand même une idée de faire 1342 01:23:10.910 --> 01:23:15.350 un titre très mystérieux et puis ca allait rester. 1343 01:23:15.550 --> 01:23:17.750 On n'en sait toujours pas plus finalement et, maintenant, il y a 1344 01:23:17.950 --> 01:23:18.710 beaucoup de contresens. 1345 01:23:19.070 --> 01:23:21.650 - Est-ce qu'on n'est pas dans une situation 1346 01:23:21.850 --> 01:23:25.220 « à la Jules Verne » où un concept qui relève de 1347 01:23:25.420 --> 01:23:29.090 l'imagination, qui relève de la pure fiction n'est pas aussi un leitmotiv 1348 01:23:29.290 --> 01:23:35.520 de curiosité intellectuelle et de création pour des gens à venir, 1349 01:23:35.720 --> 01:23:36.860 pour des gens de demain, pour des gens aujourd'hui ? 1350 01:23:37.130 --> 01:23:41.530 Est-ce qu'on ne va pas créer l'intelligence artificielle 1351 01:23:41.730 --> 01:23:44.390 parce qu'on l'aura imaginée ? - Non, il y a une très grande différence 1352 01:23:44.590 --> 01:23:49.730 avec les concepts qu'utilisait Verne. Je citais « L'Ève future » qui est parue en 1353 01:23:49.930 --> 01:23:55.070 1886. La même année, Jules Verne publie « Robur le Conquérant » 1354 01:23:55.720 --> 01:24:02.540 qui est amusant, sans plus. Mais toutes les inventions de Jules Verne étaient 1355 01:24:02.740 --> 01:24:08.110 en quelque sorte réalisables à son époque. 1356 01:24:08.310 --> 01:24:12.860 Il n'y a rien sur l'intelligence artificielle ou même sur les méthodes de calcul 1357 01:24:13.060 --> 01:24:16.070 modernes dont la théorie existait en son temps. 1358 01:24:17.780 --> 01:24:22.220 Lord Byron a écrit des choses absolument extraordinaires sur le 1359 01:24:22.420 --> 01:24:27.950 sujet dans la foulée de ce mathématicien et philosophe anglais 1360 01:24:28.150 --> 01:24:29.050 son nom m'échappe maintenant. 1361 01:24:29.250 --> 01:24:34.730 Toute la théorie de l'informatique moderne a été créée vers le milieu 1362 01:24:34.930 --> 01:24:35.720 du 19e siècle. 1363 01:24:35.920 --> 01:24:40.920 Ils ne savaient pas faire ils savaient fabriquer un ordinateur mécanique. 1364 01:24:41.120 --> 01:24:47.000 D'ailleurs, il y a des romans de science-fiction qui décrivent un 1365 01:24:47.200 --> 01:24:51.560 passé différent de celui que nous avons connu et où il y a de gigantesques 1366 01:24:51.760 --> 01:24:52.940 ordinateurs mécaniques. 1367 01:24:54.740 --> 01:24:58.660 Mais chez Jules Verne non. « Le Voyage dans la lune » c'est de l'astronomie 1368 01:24:58.860 --> 01:24:59.620 c'est connu. 1369 01:25:00.260 --> 01:25:02.780 La réaction d'ailleurs qu'il n'utilise pas 1370 01:25:02.980 --> 01:25:06.670 mais il aurait pu l'utiliser est connue. Le sous-marin existe 1371 01:25:07.190 --> 01:25:09.130 l'hélicoptère existe. 1372 01:25:09.330 --> 01:25:13.100 Il extrapole à partir de choses qui sont parfaitement possibles 1373 01:25:13.300 --> 01:25:19.190 de son temps et qui seront réalisées dans les décennies suivantes. Le passage 1374 01:25:19.390 --> 01:25:20.820 à l'intelligence artificielle 1375 01:25:21.020 --> 01:25:21.950 c'est tout à fait autre chose. 1376 01:25:22.730 --> 01:25:25.500 Encore une fois, ca part de cette mystification. 1377 01:25:25.700 --> 01:25:29.390 Parce qu'il faut appeler les choses par leur nom, de Minsky puis de son 1378 01:25:29.590 --> 01:25:32.130 collègue pour vendre un truc aux Américains. Si vous avez 1379 01:25:32.840 --> 01:25:36.840 une assez grosse mystification vous pouvez gagner des milliards de 1380 01:25:37.140 --> 01:25:51.170 dollars en la vendant à une armée qui a les moyens. 1381 01:25:51.370 --> 01:25:55.370 - Depuis tout à l'heure on n'arrête pas de parler d'intelligence artificielle. 1382 01:25:55.570 --> 01:25:58.670 Comme vous l'avez dit ca pose un gros problème 1383 01:25:58.870 --> 01:26:03.170 puisqu'en fait on ne peut pas créer des machines 1384 01:26:03.370 --> 01:26:07.880 réellement intelligentes, au sens humain du terme puisque l'être humain est 1385 01:26:08.080 --> 01:26:11.840 une machine extrêmement - si c'est une machine - 1386 01:26:12.430 --> 01:26:18.890 complexe et sociale avec un cerveau qui a une mémoire 1387 01:26:19.090 --> 01:26:28.820 très compliquée un « self », un « moi » avec une mémoire biographique, 1388 01:26:29.300 --> 01:26:33.930 des interactions sociales extrêmement complexes, des émotions, des sentiments. 1389 01:26:35.870 --> 01:26:40.100 Et puis, ce que vous avez souligné, ne serait-ce que pour créer 1390 01:26:40.300 --> 01:26:42.990 des fictions sur les robots 1391 01:26:43.790 --> 01:26:48.440 il faut de l'imagination. C'est là à mon avis qu'il y a le 1392 01:26:48.640 --> 01:26:52.830 gros problème. On a des machines qui sont capables d'imiter l'être humain. 1393 01:26:53.310 --> 01:27:02.380 Mais de là à imaginer à se projeter, il y a des « gaps » énormes. 1394 01:27:02.580 --> 01:27:06.150 Technologiquement en termes de connaissances 1395 01:27:06.350 --> 01:27:07.110 scientifiques, 1396 01:27:07.600 --> 01:27:08.530 c'est abyssal. 1397 01:27:09.010 --> 01:27:12.180 On n'en est pas du tout là. 1398 01:27:12.950 --> 01:27:14.540 Et puis une autre question, 1399 01:27:14.740 --> 01:27:15.830 maintenant c'est plutôt voilà... 1400 01:27:16.030 --> 01:27:20.960 Qu'est-ce que je voulais poser comme question déjà ? 1401 01:27:21.160 --> 01:27:27.430 Je vais essayer d'y réfléchir 1402 01:27:32.340 --> 01:27:36.580 - Il y en a une juste à côté. - Bonsoir. 1403 01:27:37.150 --> 01:27:38.880 Tout d'abord merci pour vos discours. 1404 01:27:39.790 --> 01:27:44.500 Je me demandais : est-ce qu'on ne risquerait pas justement de perdre 1405 01:27:44.700 --> 01:27:47.560 cette richesse d'expérimenter qui fait qu'on est les seuls maîtres de nos vies 1406 01:27:47.760 --> 01:27:52.810 de nos existences, d'être constamment conditionnés par l'outil technologique ? 1407 01:27:53.010 --> 01:27:56.560 Parce qu'en tant qu'humains, ce qui nous a différenciés, enfin les singes 1408 01:27:56.760 --> 01:27:58.180 aussi utilisent des outils 1409 01:27:58.380 --> 01:28:02.620 mais, dans l'évolution, c'est ce qui nous a permis d'entrer dans un confort 1410 01:28:02.820 --> 01:28:04.460 de vie toujours plus poussé. 1411 01:28:05.290 --> 01:28:10.580 Pour faire référence à ca, je pensais à Alain Damasio, écrivain 1412 01:28:10.780 --> 01:28:14.880 de science-fiction, qui avait fait une conférence en 2014 à Paris. 1413 01:28:15.080 --> 01:28:18.310 L'intitulé de la conférence était « Très humain plutôt que transhumain ». 1414 01:28:18.750 --> 01:28:25.000 Ce que je trouvais intéressant, c'est son exercice sur le fait que, 1415 01:28:25.200 --> 01:28:28.150 quand on entre par exemple dans une ville, on se laisse constamment 1416 01:28:28.660 --> 01:28:31.690 laisser guider par les outils technologiques que sont Google Maps 1417 01:28:31.930 --> 01:28:33.760 ou des outils de géolocalisation. 1418 01:28:34.140 --> 01:28:37.090 Il n'y a plus cette richesse de se laisser porter par ses émotions, 1419 01:28:37.290 --> 01:28:39.420 ses ressentis sensoriels. 1420 01:28:40.020 --> 01:28:43.990 Ma question est : est-ce qu'on risque de perdre et de devenir des 1421 01:28:44.190 --> 01:28:47.710 êtres plus végétatifs et donc les esclaves de nos propres créations 1422 01:28:47.910 --> 01:28:51.940 que seraient les robots ou les androïdes ? 1423 01:28:52.140 --> 01:28:56.740 - Ce que vous dites là c'est très intéressant. Ce sont un peu aussi les 1424 01:28:56.940 --> 01:29:01.510 analyses d'Eric Sadin que je trouve intéressant comme critique 1425 01:29:01.710 --> 01:29:06.760 de la technologie. C'est qu'il y a finalement quelque chose d'extrêmement normatif 1426 01:29:06.960 --> 01:29:12.220 dans tout ca, qui vous envoie en retour de tout ce que vous faites, 1427 01:29:12.420 --> 01:29:16.030 de vos différents capteurs, de différentes données qui sont données 1428 01:29:16.230 --> 01:29:17.320 par des capteurs, etc. 1429 01:29:17.520 --> 01:29:22.060 Tout ca est normatif et de plus en plus normatif, dans le sens d'une 1430 01:29:22.750 --> 01:29:26.590 soi-disante amélioration d'un certain nombre de choses, de santé, etc. 1431 01:29:26.790 --> 01:29:30.880 Vous parlez d'une chose très intéressante qui 1432 01:29:31.080 --> 01:29:36.490 est la possibilité de tâtonnements, d'erreurs, de recherche qui est très 1433 01:29:36.690 --> 01:29:39.130 humaine et qu'il ne faut à aucun prix perdre. 1434 01:29:39.400 --> 01:29:41.500 Je crois que c'est un point extrêmement important. 1435 01:29:47.110 --> 01:29:50.770 - Nous apprenons par nos expériences et par notre vécu : c'est ce qui fait 1436 01:29:50.970 --> 01:29:53.680 notre richesse aussi en tant qu'humains, en tant qu'individus. 1437 01:29:53.920 --> 01:29:57.070 - La technologie nous modifie très profondément. 1438 01:29:57.460 --> 01:29:59.920 Ce n'est pas juste du service et des outils. Je pense qu'elle change 1439 01:30:00.120 --> 01:30:01.450 la manière dont notre cerveau fonctionne. 1440 01:30:01.810 --> 01:30:04.210 Il y a plusieurs études qui ont montré que l'on est 1441 01:30:04.410 --> 01:30:07.610 tellement bombardés d'informations à longueur de journée qu'on devient 1442 01:30:07.810 --> 01:30:11.680 multitâche et qu'on pense à dix trucs en même temps et qu'on est moins 1443 01:30:11.880 --> 01:30:13.720 profonds dans ce qu'on fait mais qu'on est capable d'en faire plus. 1444 01:30:13.920 --> 01:30:15.400 Donc la technologie nous change. 1445 01:30:15.670 --> 01:30:18.250 Il y a aussi une notion de dépendance qui est en train de se développer. 1446 01:30:18.450 --> 01:30:21.610 On devient dépendants à la technologie. On commence à prendre l'habitude 1447 01:30:21.810 --> 01:30:25.330 de parler aux gens qui ne sont pas près de nous, plutôt que de parler 1448 01:30:25.530 --> 01:30:27.580 aux gens qui sont à côté parce qu'on est tous sur nos téléphones, nos 1449 01:30:27.780 --> 01:30:31.030 messageries à parler aux gens qui ne sont pas là. Et, surtout, on développe 1450 01:30:31.230 --> 01:30:33.010 une très faible tolérance à la frustration. 1451 01:30:33.210 --> 01:30:35.620 On a de plus en plus envie de satisfaction immédiate. 1452 01:30:36.010 --> 01:30:38.230 Ce sont des choses très profondes, ancrée en nous qui sont 1453 01:30:38.430 --> 01:30:39.190 en train de nous modifier. 1454 01:30:39.400 --> 01:30:42.340 Alors, on peut dire aussi que l'agriculture a profondément changé 1455 01:30:42.540 --> 01:30:43.300 l'être humain. 1456 01:30:43.500 --> 01:30:45.970 Avant on courait dans la pampa, on allait chasser cueillir et puis 1457 01:30:46.170 --> 01:30:46.930 à un moment 1458 01:30:47.290 --> 01:30:49.720 l'agriculture était là, l'élevage était là : on n'avait plus besoin 1459 01:30:49.920 --> 01:30:50.680 de faire ca. 1460 01:30:50.880 --> 01:30:51.640 Donc on a pu se consacrer à d'autres choses. 1461 01:30:52.180 --> 01:30:54.010 Je pense qu'il ne faut pas juste voir ce qu'on perd. 1462 01:30:54.210 --> 01:30:57.280 Il faut peut-être se dire qu'on perd quelque chose, ca c'est certain. 1463 01:30:57.640 --> 01:30:59.020 Qu'est-ce qu'on gagne en contrepartie ? 1464 01:30:59.450 --> 01:31:02.110 L'avenir nous le dira. En tout cas, la technologie nous change, 1465 01:31:02.310 --> 01:31:03.070 c'est certain. 1466 01:31:04.480 --> 01:31:07.130 - Je crois surtout que le plus gros problème 1467 01:31:07.330 --> 01:31:10.510 que nous ayons, ce n'est pas de savoir si les machines vont dominer 1468 01:31:10.710 --> 01:31:15.910 ou pas, c'est le problème climatique directement lié au développement 1469 01:31:16.110 --> 01:31:19.480 de la technologie et à celui de la démographie. 1470 01:31:20.650 --> 01:31:26.290 Si nous continuons dans le domaine climatique, à produire du CO2 1471 01:31:26.490 --> 01:31:31.180 et tous les autres produits du même genre, il n'y aura pas de quatrième génération 1472 01:31:31.380 --> 01:31:32.140 à partir de celle-ci. 1473 01:31:32.340 --> 01:31:37.930 Il ne faut pas se raconter des histoires. 1474 01:31:38.500 --> 01:31:40.090 Et il n'y a pas de solution. 1475 01:31:40.390 --> 01:31:44.750 J'ai créé une histoire proposant une solution. Je suis probablement 1476 01:31:44.950 --> 01:31:48.340 un des premiers mais pas le seul à l'avoir imaginée. C'est de mettre 1477 01:31:48.540 --> 01:31:53.380 une ombrelle au-dessus de la Terre : ca a été étudié assez 1478 01:31:53.580 --> 01:31:54.340 sérieusement 1479 01:31:54.540 --> 01:31:55.300 c'est jouable mais 1480 01:31:55.500 --> 01:32:12.280 c'est cher. - Bonsoir. 1481 01:32:14.710 --> 01:32:19.260 C'est une question peut-être plus scientifique. 1482 01:32:21.490 --> 01:32:26.470 Je me souviens de Philip K. Dick et des androïdes dont on ne sait pas 1483 01:32:26.670 --> 01:32:29.440 pas s'ils sont des androïdes ou des humains et qui implantent 1484 01:32:29.640 --> 01:32:33.850 des souvenirs dans leur cerveau. 1485 01:32:35.250 --> 01:32:38.140 Est-ce que vous savez ou 1486 01:32:38.340 --> 01:32:41.930 le public si on peut déjà faire ca : mettre de la mémoire 1487 01:32:42.130 --> 01:32:47.190 dans les humains ? - Ajouter de la mémoire 1488 01:32:47.390 --> 01:32:48.150 à des humains ? 1489 01:32:48.420 --> 01:32:53.070 - Je veux voir si on a bien compris. Vous voulez savoir s'il est possible de fabriquer 1490 01:32:53.270 --> 01:32:58.140 des faux souvenirs pour les implanter dans des humains ? - Dans une certaine 1491 01:32:58.340 --> 01:32:59.430 mesure très limitée 1492 01:32:59.630 --> 01:33:03.710 oui. Est-ce que cela a un intérêt ? C'est un autre problème. 1493 01:33:04.080 --> 01:33:08.940 En revanche, implanter une mémoire artificielle comme celle que j'imaginais 1494 01:33:09.140 --> 01:33:13.000 dans ma nouvelle qui n'est quand même pas très récente, « Mémoire vive, 1495 01:33:13.200 --> 01:33:13.960 mémoire morte » (1986) 1496 01:33:14.160 --> 01:33:17.460 moi j'aimerais bien. En vieillissant ma mémoire a tendance à faiblir 1497 01:33:17.760 --> 01:33:22.110 et si j'avais une mémoire très fiable À l'époque, j'avais imaginé que cette 1498 01:33:22.310 --> 01:33:26.890 perle qu'on est obligé d'inclure dans le cerveau 1499 01:33:27.100 --> 01:33:31.500 dans un endroit proche de l'hippocampe, d'un embryon pour que 1500 01:33:31.700 --> 01:33:32.460 ca marche 1501 01:33:33.750 --> 01:33:40.950 j'avais imaginé un téraoctet de données. À l'époque, ca paraissait 1502 01:33:41.150 --> 01:33:44.690 quelque chose d'absolument gigantesque et inimaginable. Aujourd'hui, 1503 01:33:45.360 --> 01:33:48.040 un ordinateur bien équipé a un téraoctet. 1504 01:33:49.020 --> 01:33:52.920 J'aurais dû aller un peu plus loin. - C'est un vrai problème. 1505 01:33:53.840 --> 01:33:56.270 Il faudrait un médecin pour répondre. 1506 01:33:56.470 --> 01:33:59.760 Est-ce qu'on pourra implanter des faux souvenirs aux gens ? 1507 01:34:01.420 --> 01:34:04.620 Philip K. Dick en parle beaucoup. 1508 01:34:04.820 --> 01:34:07.100 Si on peut implanter des faux souvenirs 1509 01:34:07.300 --> 01:34:09.630 on ne saura plus si on a vécu ou pas les choses. 1510 01:34:10.200 --> 01:34:11.730 C'est un truc terrifiant. 1511 01:34:11.930 --> 01:34:13.410 Je ne sais pas du tout si c'est possible. 1512 01:34:13.870 --> 01:34:17.100 - Et puis j'imagine qu'il y a la question du faux souvenir, du souvenir totalement 1513 01:34:17.300 --> 01:34:18.690 factice fabriqué de A à Z. 1514 01:34:18.890 --> 01:34:23.250 David vous évoquiez tout à l'heure les travaux sur la réalité 1515 01:34:23.450 --> 01:34:25.010 virtuelle, sur les casques virtuels. 1516 01:34:25.280 --> 01:34:26.040 Est-ce qu'il y a... 1517 01:34:26.240 --> 01:34:29.110 Est-ce que le souvenir d'une expérience qui serait, en gros, 1518 01:34:29.310 --> 01:34:31.800 est-ce que si je descends en parapente avec mon casque de réalité virtuelle, 1519 01:34:32.000 --> 01:34:33.210 c'est un vrai souvenir ou un faux souvenir, 1520 01:34:33.450 --> 01:34:36.390 même si j'ai trompé mon cerveau ? Ce sont aussi des questions qui ont 1521 01:34:36.590 --> 01:34:37.350 trait à ca. 1522 01:34:45.880 --> 01:34:48.620 - Disons qu'on commence à savoir 1523 01:34:49.670 --> 01:34:55.160 effacer ou en tout cas atténuer des souvenirs traumatiques, ce qui 1524 01:34:55.360 --> 01:34:58.280 est extrêmement important pour toute une catégorie de gens, dont évidemment 1525 01:34:58.480 --> 01:35:00.970 les militaires, mais pas seulement les militaires. Ce sont surtout 1526 01:35:01.170 --> 01:35:04.580 les armées qui travaillent là-dessus. On commence à savoir effacer 1527 01:35:05.180 --> 01:35:10.690 ou atténuer de facon efficace des souvenirs traumatiques. Implanter 1528 01:35:10.890 --> 01:35:12.800 à partir de là d'autres souvenirs 1529 01:35:13.610 --> 01:35:20.270 c'est clairement une autre paire de manches. - En me renseignant, je 1530 01:35:20.470 --> 01:35:25.640 me suis rendu compte qu'actuellement on pouvait psychologiquement donner 1531 01:35:25.840 --> 01:35:28.040 des faux souvenirs à des gens. On peut aller très loin : on peut donner 1532 01:35:28.240 --> 01:35:31.220 des faux souvenirs de viol, des choses 1533 01:35:31.420 --> 01:35:33.440 comme ca, à des personnes. 1534 01:35:34.220 --> 01:35:38.650 - Vous évoquez plus de l'auto-suggestion, qu'un artefact 1535 01:35:38.850 --> 01:35:40.560 technologique qui permettrait de produire... 1536 01:35:42.410 --> 01:35:48.820 Le monsieur nous disait qu'on arrivait à faire fabriquer aux gens par eux-mêmes 1537 01:35:49.020 --> 01:35:50.800 des faux souvenirs par suggestion. - Ils s'en fabriquent très bien tous seuls. 1538 01:36:01.590 --> 01:36:05.300 Il faut bien voir que la mémoire humaine n'est 1539 01:36:05.500 --> 01:36:10.760 jamais quelque chose de figé. C'est quelque chose qui se remanie 1540 01:36:10.960 --> 01:36:15.680 absolument en permanence. Lorsqu'on mobilise un souvenir ancien, on le 1541 01:36:15.880 --> 01:36:22.700 fait en quelque sorte remonter à  la surface d'un océan et il se trouve 1542 01:36:22.900 --> 01:36:27.980 réinterprété en fonction du contexte présent. La mémoire humaine, 1543 01:36:28.180 --> 01:36:30.780 c'est une des raisons pour lesquelles elle n'est pas très fiable, 1544 01:36:30.980 --> 01:36:32.020 Il ne faut pas se raconter d'histoires : 1545 01:36:32.630 --> 01:36:35.270 elle n'est pas très fiable parce qu'elle est constamment 1546 01:36:35.470 --> 01:36:36.230 remaniée. 1547 01:36:36.950 --> 01:36:39.200 Il m'est arrivé plusieurs fois 1548 01:36:39.800 --> 01:36:46.670 de chercher pour des choses que j'écrivais des souvenirs anciens 1549 01:36:47.030 --> 01:36:49.580 qui me semblaient extraordinairement précis 1550 01:36:50.090 --> 01:36:55.010 et d'essayer de les confronter à d'autres témoignages ou à des 1551 01:36:55.210 --> 01:37:01.190 documents. Je me suis aperçu moi-même de la façon dont mon esprit, 1552 01:37:01.390 --> 01:37:06.890 mon cerveau, avait transformé, décalé légèrement ces souvenirs anciens. 1553 01:37:07.740 --> 01:37:11.750 Ils peuvent être décalés dans le temps, ils peuvent être 1554 01:37:11.950 --> 01:37:17.270 profondément transformés. Encore une fois la mémoire n'est pas l'inscription 1555 01:37:17.540 --> 01:37:20.630 sur les disques d'or que proposait Villiers. 1556 01:37:21.380 --> 01:37:27.080 La mémoire est quelque chose qui se modifie absolument 1557 01:37:27.280 --> 01:37:29.940 sans arrêt. À chaque fois que nous l'utilisons à chaque fois que 1558 01:37:30.430 --> 01:37:35.240 nous essayons d'y inclure de nouveau. C'est un océan mais d'ailleurs 1559 01:37:35.440 --> 01:37:36.900 le terme d'océan n'est pas bon du tout. 1560 01:37:37.130 --> 01:37:40.490 Je suis le premier à le reconnaître mais c'est quelque chose qui est 1561 01:37:40.790 --> 01:37:43.670 en mutation, en transformation permanente. 1562 01:37:46.220 --> 01:37:49.610 - Je voudrais parler de quelque chose qui n'est pas tout à fait la même chose mais 1563 01:37:49.810 --> 01:37:53.250 quand même, ce sont les dispositifs de réalité augmentée. 1564 01:37:53.670 --> 01:37:58.520 Vous pouvez voir à travers des lunettes. 1565 01:37:58.950 --> 01:38:02.990 Par exemple un château en ruines 1566 01:38:03.190 --> 01:38:08.240 on le voit dans l'état où il était quand il était intact. Ca peut 1567 01:38:08.440 --> 01:38:09.200 aller beaucoup plus loin. 1568 01:38:09.460 --> 01:38:12.880 Les lunettes de Google par exemple. 1569 01:38:13.490 --> 01:38:15.830 Je ne sais pas si elles le font déjà  1570 01:38:16.030 --> 01:38:18.620 ou si c'est un projet mais quand vous voyez quelqu'un, vous rencontrez 1571 01:38:18.820 --> 01:38:23.150 quelqu'un, vous avez immédiatement sa date de naissance, ce qu'il a fait, 1572 01:38:23.390 --> 01:38:28.340 différents éléments. Ce ne sont quand même pas les souvenirs 1573 01:38:28.540 --> 01:38:31.370 mais c'est très étrange. 1574 01:38:31.570 --> 01:38:34.360 En même temps que vous voyez quelque chose 1575 01:38:34.560 --> 01:38:38.500 on vous plaque toute l'histoire de cet événement ou de 1576 01:38:38.700 --> 01:38:44.630 cette personne. - Bonsoir. je me demandais 1577 01:38:44.830 --> 01:38:49.130 si, en tant qu'auteur, vous ressentez parfois une certaine responsabilité 1578 01:38:49.490 --> 01:38:52.940 Vis-à-vis des imaginaires que vous développez au sujet de ces notions 1579 01:38:53.140 --> 01:38:55.630 et de la diversité qu'il pourrait y avoir aussi 1580 01:38:58.630 --> 01:39:04.100 - De la diversité de ? - Des imaginaires autour des fictions même de l'IA. 1581 01:39:05.440 --> 01:39:08.140 - Est-ce qu'on se sent une responsabilité en tant qu'auteur ? 1582 01:39:08.860 --> 01:39:10.840 - Dans le sens « grand pouvoir, grande responsabilité » ? 1583 01:39:13.210 --> 01:39:15.200 - C'est juste des choses qui sont largement diffusées. 1584 01:39:15.910 --> 01:39:19.540 Et donc effectivement est-ce qu'il y a un questionnement que vous aimeriez 1585 01:39:19.740 --> 01:39:20.500 pousser derrière ? 1586 01:39:20.700 --> 01:39:22.380 Ou est-ce que ce sont des questions que vous vous posez simplement ? 1587 01:39:22.960 --> 01:39:25.930 - Je crois que tous les auteurs essayent d'avoir un propos et essayent de 1588 01:39:26.290 --> 01:39:28.630 parler de quelque chose. Mais sur « Detroit », ce n'est pas 1589 01:39:28.830 --> 01:39:30.880 tellement d'intelligence artificielle que j'essayais de parler. 1590 01:39:31.330 --> 01:39:38.430 C'était de la lutte des minorités et de la ségrégation, 1591 01:39:38.630 --> 01:39:39.460 d'accepter la différence. 1592 01:39:39.660 --> 01:39:40.420 En fait c'est avant tout ca. 1593 01:39:40.810 --> 01:39:43.480 Finalement, les androïdes sont un alibi pour parler de ce sujet-là. 1594 01:39:43.930 --> 01:39:46.390 Est-ce que je ressens une responsabilité par rapport à ce 1595 01:39:46.590 --> 01:39:52.300 message-là ? Oui. Mais pas sur alerter l'humanité sur les dangers 1596 01:39:52.500 --> 01:39:53.260 de l'IA. 1597 01:39:53.460 --> 01:39:55.300 Il y a des scientifiques et d'autres qui font ca très bien. On a parlé 1598 01:39:55.500 --> 01:39:57.790 de Stephen Hawking tout à l'heure. Il fait partie des gens qui ont 1599 01:39:57.990 --> 01:40:01.810 essayé d'alerter, Bill Gates également, sur les dangers de l'IA. 1600 01:40:02.640 --> 01:40:08.500 C'est plus leur rôle en tant que scientifiques notamment que moi qui 1601 01:40:08.700 --> 01:40:10.700 fait de la fiction qui parle, encore une fois, avant tout des humains. 1602 01:40:13.430 --> 01:40:16.650 - Je crois qu'il y a des écrivains, en tout cas, je peux ne parler que 1603 01:40:16.850 --> 01:40:20.670 d'écriture et des écrivains. Il y a des écrivains qui ont un certain 1604 01:40:20.870 --> 01:40:24.600 sentiment de responsabilité. Dans les colloques d'écrivains ce sont souvent 1605 01:40:24.800 --> 01:40:25.680 des thèmes qui apparaissent. 1606 01:40:26.730 --> 01:40:30.810 Il y en a d'autres qui n'ont aucun sentiment de responsabilité vis-à-vis 1607 01:40:31.010 --> 01:40:31.770 de quoi que ce soit. 1608 01:40:32.160 --> 01:40:38.400 Tout existe dans la nature. Mais il ne faudrait surtout pas 1609 01:40:38.600 --> 01:40:44.010 qu'un sentiment de responsabilité limite la création 1610 01:40:44.210 --> 01:40:50.670 limite les écrivains et d'autres créateurs dans leur travail, 1611 01:40:50.870 --> 01:40:52.200 dans leur imagination. 1612 01:40:52.560 --> 01:40:53.700 C'est ce que j'ai. 1613 01:40:54.360 --> 01:40:56.310 Vous avez eu des sociétés entières. 1614 01:40:56.510 --> 01:40:58.270 Je pense aux sociétés communistes. 1615 01:40:58.860 --> 01:41:05.760 Je suis allé en Roumanie à l'époque de Ceaucescu, j'y ai fréquenté 1616 01:41:05.960 --> 01:41:10.290 pas mal d'écrivains. Les écrivains se limitaient eux-mêmes par rapport 1617 01:41:10.490 --> 01:41:14.550 à ce qu'exigeait le pouvoir, C'est-à-dire en dernière instance 1618 01:41:14.750 --> 01:41:15.510 la police. 1619 01:41:15.930 --> 01:41:20.400 En Russie, on a vécu la même chose et finalement tout cela a été largement 1620 01:41:20.600 --> 01:41:23.640 bousculé par de très grands écrivains 1621 01:41:23.940 --> 01:41:29.040 vous les connaissez comme moi, qui n'ont pas accepté cette limitation, 1622 01:41:29.250 --> 01:41:37.350 ont pris leurs responsabilités autrement et ont bousculé les limites, les 1623 01:41:37.550 --> 01:41:41.670 barrières qu'on leur imposait et ont décidé d'écrire autre chose, 1624 01:41:41.870 --> 01:41:45.370 sur le passé, sur le présent et, pour certains, même sur l'avenir. 1625 01:41:45.570 --> 01:41:58.320 Je pense à Stanislas Lem, l'écrivain polonais. 1626 01:41:59.560 --> 01:42:01.180 - Je crois que c'est une dernière question, 1627 01:42:01.430 --> 01:42:03.580 qui se profile. 1628 01:42:09.350 --> 01:42:13.040 - Est-ce qu'on accepterait finalement de vivre avec des simulacres autour 1629 01:42:13.240 --> 01:42:14.720 de nous avec des imitations ? 1630 01:42:15.200 --> 01:42:18.210 C'est le problème en fait parce que socialement c'est accepté 1631 01:42:18.410 --> 01:42:22.910 quand c'est de la fiction. C'est un plaisir qu'on a finalement 1632 01:42:23.330 --> 01:42:24.220 à voir ces fictions. 1633 01:42:24.610 --> 01:42:28.970 Est-ce que ce n'est pas justement ce plaisir de la fiction 1634 01:42:29.420 --> 01:42:34.430 au-delà du réalisme qu'il soit socialiste ou du 19e siècle 1635 01:42:34.970 --> 01:42:35.730 avec Zola. 1636 01:42:35.930 --> 01:42:41.390 Est-ce que ce n'est pas ca justement qui fait qu'on apprécie ce type 1637 01:42:41.590 --> 01:42:45.680 de fiction ? C'est parce que c'est une fiction à l'intérieur d'une fiction 1638 01:42:46.070 --> 01:42:47.150 un simulacre à l'intérieur du simulacre. 1639 01:42:47.350 --> 01:42:50.630 Il y a une mise en abyme qui nous cause un certain 1640 01:42:50.830 --> 01:43:00.800 plaisir parce qu'on dit : et si finalement on pouvait accepter socialement 1641 01:43:01.280 --> 01:43:04.970 des vrais simulacres ? Parce que socialement, dans notre société, on 1642 01:43:05.170 --> 01:43:09.040 n'accepterait pas, je ne pense pas. On n'aime pas être trompé. 1643 01:43:09.240 --> 01:43:11.000 On n'aime pas, voilà... 1644 01:43:11.750 --> 01:43:15.050 Par contre, quand on va voir un spectacle, quand on va voir une 1645 01:43:15.250 --> 01:43:21.500 fiction c'est un plaisir. C'est un plaisir de voir chez Molière le 1646 01:43:21.700 --> 01:43:26.880 type se faire tromper par sa femme. - L'important c'est de pouvoir 1647 01:43:27.080 --> 01:43:30.320 continuer à faire la différence entre ce qui est existe et ce qui est 1648 01:43:30.520 --> 01:43:34.890 simulacre. Pour le moment c'est encore relativement clair 1649 01:43:35.090 --> 01:43:36.600 mais on ne sait pas trop. 1650 01:43:37.080 --> 01:43:39.690 Je rappelle cette citation de Philip K. Dick : 1651 01:43:40.410 --> 01:43:43.290 « La réalité, c'est ce qui refuse de disparaître quand on a cessé d'y 1652 01:43:43.490 --> 01:43:45.550 croire. » 1653 01:43:45.850 --> 01:43:50.310 - Les humains ont toujours adoré se raconter des histoires et croire 1654 01:43:50.510 --> 01:43:51.270 à des simulacres. 1655 01:43:51.510 --> 01:43:53.700 Les contes existent depuis extrêmement longtemps. 1656 01:43:54.060 --> 01:43:57.240 C'est peut-être la différence avec la conscience d'autres animaux. 1657 01:43:57.510 --> 01:44:03.480 J'ai beau raconter de très belles histoires à mon chat, ca ne l'intéresse 1658 01:44:03.680 --> 01:44:04.440 pas vraiment. 1659 01:44:04.640 --> 01:44:07.140 Nous avons inventé 1660 01:44:07.340 --> 01:44:10.020 des façons de plus en plus sophistiquées de nous raconter des contes. 1661 01:44:10.380 --> 01:44:15.960 Notre collègue ici présent a imaginé une méthode extraordinairement 1662 01:44:16.160 --> 01:44:22.050 efficace et sophistiquée. Quant à  la distinction entre le vrai simulacre 1663 01:44:22.250 --> 01:44:23.010 et le faux 1664 01:44:23.210 --> 01:44:28.080 elle est la plupart du temps très difficile à faire et ca, depuis 1665 01:44:28.280 --> 01:44:29.130 extrêmement longtemps. 1666 01:44:29.610 --> 01:44:33.130 Est-ce que les contes et la mythologie sont la même chose ? 1667 01:44:33.330 --> 01:44:35.610 C'est un vieux problème pour les spécialistes. 1668 01:44:36.210 --> 01:44:38.940 Paul Veyne posait la question : 1669 01:44:39.140 --> 01:44:40.660 est-ce que les Grecs croyaient à  leurs mythes ? 1670 01:44:41.470 --> 01:44:44.220 Ce n'est pas du tout évident. En tout cas ils n'y croyaient pas au 1671 01:44:44.420 --> 01:44:46.150 sens où nous entendons « croire ». 1672 01:44:46.820 --> 01:44:51.300 Nous avons toujours été confrontés à des simulacres. 1673 01:44:51.500 --> 01:44:56.040 Nous adorons ca et nous continuerons à  les perfectionner comme mon collègue. 1674 01:44:56.550 --> 01:44:58.290 - Je crois que c'est un sujet passionnant qui est aussi un 1675 01:44:58.490 --> 01:45:00.650 sujet d'avenir qui n'est pas totalement celui de l'intelligence artificielle. 1676 01:45:01.200 --> 01:45:04.290 Vous avez probablement vu le film ou lu le livre « Ready Player One » 1677 01:45:04.490 --> 01:45:09.600 dans lequel l'humanité se réfugie dans un monde artificiel 1678 01:45:09.800 --> 01:45:11.220 plutôt que de développer le monde réel. 1679 01:45:12.210 --> 01:45:17.040 C'est peut-être le monde qui peut arriver et je ne le souhaite vraiment pas. 1680 01:45:17.240 --> 01:45:18.000 Pourquoi ? 1681 01:45:18.200 --> 01:45:19.430 Parce que c'est un monde où il n'y a plus de déplaisir. 1682 01:45:20.190 --> 01:45:24.300 C'est un monde dont on est le héros dans lequel on réussit 1683 01:45:24.500 --> 01:45:26.350 tout, donc un monde purement virtuel. 1684 01:45:26.550 --> 01:45:29.550 Mais c'est un monde dans lequel on n'a plus de déplaisir alors pourquoi 1685 01:45:29.750 --> 01:45:32.660 vivre dans le monde réel qui, lui, est plein de déplaisir et de frustration 1686 01:45:32.860 --> 01:45:34.890 tous les jours quand on pourrait vivre dans un monde où on est tout 1687 01:45:35.090 --> 01:45:36.390 le temps heureux, où on est un héros, 1688 01:45:36.590 --> 01:45:37.530 on réussit tout ce qu'on tente. 1689 01:45:37.920 --> 01:45:41.750 C'est une vraie question. J'ai été voir le film avec mon fils qui 1690 01:45:41.950 --> 01:45:46.590 avait 17 ans à l'époque. On a eu cette discussion après le film. 1691 01:45:47.010 --> 01:45:49.980 Sa réflexion m'a beaucoup étonné. Il m'a dit : « Mais qu'est-ce que ca 1692 01:45:50.180 --> 01:45:51.630 peut faire de vivre dans un monde virtuel ? 1693 01:45:51.830 --> 01:45:53.400 Finalement qu'est-ce que ca change ? 1694 01:45:54.240 --> 01:45:56.220 Est-ce qu'on ne vit pas déjà dans un monde virtuel ? Est-ce qu'on n'est 1695 01:45:56.420 --> 01:45:57.990 pas en train de vivre déjà dans une simulation ? 1696 01:45:58.190 --> 01:45:59.220 Qu'est-ce qu'on en sait finalement ? » 1697 01:45:59.490 --> 01:46:02.250 Finalement c'est ce qu'on ressent. 1698 01:46:03.410 --> 01:46:06.930 C'est un sujet qui est très complexe, qui est potentiellement effrayant 1699 01:46:07.130 --> 01:46:09.450 de se dire que, peut-être, on préférera dans quelques années vivre dans 1700 01:46:09.650 --> 01:46:11.940 un monde qui n'existe pas que dans un monde réel. 1701 01:46:12.150 --> 01:46:12.910 C'est une vraie question. 1702 01:46:14.480 --> 01:46:18.210 - J'ajouterais que longtemps avant le cinéma, la science-fiction écrite 1703 01:46:19.440 --> 01:46:23.160 a très souvent abordé ce sujet. 1704 01:46:23.360 --> 01:46:28.110 Généralement d'ailleurs pour condamner les mondes artificiels dans 1705 01:46:28.310 --> 01:46:34.090 lesquels tout le monde serait abusivement heureux. Mais sur la longue période 1706 01:46:34.290 --> 01:46:37.420 j'ai remarqué qu'entre le moment où quelque chose se trouvait écrit 1707 01:46:37.620 --> 01:46:41.640 de façon tout à fait claire sous forme littéraire - des nouvelles ou des 1708 01:46:41.840 --> 01:46:42.750 romans - 1709 01:46:43.000 --> 01:46:46.620 et le moment où c'est passé au cinéma, il s'écoule vingt à quarante ans. 1710 01:46:48.270 --> 01:46:53.010 C'est très curieux. Ca commence à se retourner. 1711 01:46:53.490 --> 01:46:57.720 Par exemple, si on prend un film comme « Inception », je ne lui connais 1712 01:46:57.920 --> 01:47:01.340 pas de précédent proprement littéraire 1713 01:47:01.890 --> 01:47:05.360 même chez Philip K. Dick qui a pourtant beaucoup écrit sur le rêve. 1714 01:47:09.470 --> 01:47:14.240 - Je crois que c'en est fini de cette 1715 01:47:14.440 --> 01:47:18.920 table ronde. On va tous vous remercier d'être venus écouter 1716 01:47:19.710 --> 01:47:23.480 nos trois invités et qu'on va vous souhaiter une bonne soirée.