WEBVTT 0 00:00:00.120 --> 00:00:04.230 - Bienvenue à tous, bienvenue pour ce premier "live" Instagram organisé 1 00:00:04.430 --> 00:00:06.260 par la Bibliothèque publique d'information. 2 00:00:07.170 --> 00:00:08.370 Je me présente un petit peu. 3 00:00:08.570 --> 00:00:12.150 Je m'appelle Julie, je travaille à la bibliothèque. Et ce soir, 4 00:00:12.350 --> 00:00:15.990 je suis là avec vous pour recevoir le journaliste Samuel Laurent, 5 00:00:16.740 --> 00:00:20.430 qui travaille pour "Le Monde" et qui est également connu pour avoir fondé 6 00:00:20.630 --> 00:00:21.660 le service des "Décodeurs". 7 00:00:22.200 --> 00:00:25.890 Un service qui est chargé de décoder 8 00:00:26.090 --> 00:00:26.880 les fausses informations. 9 00:00:27.080 --> 00:00:31.500 Récemment, Samuel Laurent a également publié un livre intitulé "J'ai vu 10 00:00:31.700 --> 00:00:32.490 naître le monstre. 11 00:00:33.030 --> 00:00:34.980 Twitter va t il tuer la démocratie ?" 12 00:00:35.320 --> 00:00:38.610 Et du coup, nous sommes avec lui en ligne ce soir pour parler de 13 00:00:38.810 --> 00:00:43.200 cet ouvrage et prendre un petit peu une vue de haut, 14 00:00:43.740 --> 00:00:48.210 sur tous les points abordés dans ce livre. 15 00:00:48.600 --> 00:00:51.930 Bonsoir Samuel. - Je suis en contre-jour... 16 00:00:52.130 --> 00:00:53.280 Je vais essayer de me mettre mieux. 17 00:00:53.480 --> 00:00:57.980 OK, voilà. Je sais pas si je peux faire beaucoup mieux. 18 00:00:58.180 --> 00:01:06.110 - Du coup, voici Samuel Laurent 19 00:01:06.660 --> 00:01:11.490 qui est là avec nous ce soir pour parler de son ouvrage "J'ai vu naître 20 00:01:11.690 --> 00:01:14.670 le monstre", un ouvrage qui revient à la fois sur l'histoire de Twitter 21 00:01:15.270 --> 00:01:18.720 et également l'expérience de Samuel Laurent avec ce réseau social qu'il 22 00:01:18.920 --> 00:01:20.790 a utilisé pendant une dizaine d'années. 23 00:01:20.990 --> 00:01:24.840 Donc, l'idée durant ce "live" Instagram, c'est qu'on réfléchisse 24 00:01:25.040 --> 00:01:27.660 un peu tous ensemble aux mécaniques des réseaux sociaux, 25 00:01:27.860 --> 00:01:32.160 notamment aux mécaniques de twitter et au rôle qu'elles jouent dans 26 00:01:32.360 --> 00:01:35.160 la diffusion des informations et notamment des fausses informations. 27 00:01:35.360 --> 00:01:40.860 L'idée, c'est un peu de prendre de la hauteur sur des réseaux 28 00:01:41.060 --> 00:01:43.370 sociaux qui alimentent souvent des controverses assez brûlantes et 29 00:01:43.570 --> 00:01:47.980 qu'on réfléchisse ensemble sur les mécanismes concrètement 30 00:01:48.180 --> 00:01:49.800 qui régissent ces médias. 31 00:01:50.460 --> 00:01:54.030 On va également réfléchir ensemble sur le rôle des bibliothèques sur 32 00:01:54.810 --> 00:01:58.890 ces réseaux et plus globalement, dans leur rôle sur la critique de 33 00:01:59.090 --> 00:01:59.850 l'information. 34 00:02:00.050 --> 00:02:01.770 Donc, on va commencer tout de suite. 35 00:02:01.970 --> 00:02:04.950 Et puis, n'hésitez pas, si vous avez des questions, à les marquer 36 00:02:05.150 --> 00:02:05.910 dans le "chat". 37 00:02:06.110 --> 00:02:08.790 J'ai mon collègue qui se chargera de les noter et si on a le temps, 38 00:02:09.090 --> 00:02:09.940 on les transmettra à 39 00:02:10.140 --> 00:02:11.460 Samuel Laurent pour qu'il y réponde. 40 00:02:12.780 --> 00:02:13.590 Du coup, c'est parti. 41 00:02:14.350 --> 00:02:18.630 Je voulais commencer avec une première question qui s'inscrit dans les 42 00:02:18.830 --> 00:02:21.990 premiers chapitres de votre ouvrage, puisqu'en fait, au début de votre 43 00:02:22.190 --> 00:02:24.090 livre, vous expliquez que ce qui était attirant dans Twitter, 44 00:02:24.290 --> 00:02:27.840 c'était la facilité de prise de parole sur ce réseau social qui 45 00:02:28.040 --> 00:02:29.790 permettait à tout un chacun de s'exprimer. 46 00:02:29.990 --> 00:02:32.370 Mais le revers de la médaille, c'est qu'il permet aussi à tout 47 00:02:32.570 --> 00:02:36.090 un chacun de harceler un petit peu plus facilement sur ces réseaux, 48 00:02:36.540 --> 00:02:39.390 des personnes avec lesquelles ils ne sont pas d'accord. 49 00:02:40.200 --> 00:02:43.800 Et pour lutter contre ces harcèlements réguliers, 50 00:02:44.000 --> 00:02:48.240 vous avez également fait, que vous avez également subi, régulièrement il y a 51 00:02:48.440 --> 00:02:53.340 des propositions de loi qui proposent d'interdire l'anonymat en ligne. 52 00:02:54.090 --> 00:02:57.630 C'est encore sorti il y a trois semaines par des groupes de députés 53 00:02:57.830 --> 00:03:01.020 de la REM. Je voulais voir avec vous ce que vous pensiez de ce genre 54 00:03:01.220 --> 00:03:01.980 de proposition. 55 00:03:02.180 --> 00:03:05.610 - En fait, c'est un faux débat et une fausse question parce qu'en fait, 56 00:03:06.030 --> 00:03:08.160 on n'est jamais vraiment anonyme sur Internet, sauf quand on est 57 00:03:08.360 --> 00:03:10.200 vraiment sur le dark web, derrière des proxy, etc. 58 00:03:11.100 --> 00:03:13.410 En réalité, la question, c'est celle des moyens pour poursuivre 59 00:03:13.610 --> 00:03:17.240 les harceleurs parce que tout existe déjà dans la loi pour 60 00:03:17.530 --> 00:03:18.630 les poursuivre le cas échéant. 61 00:03:18.830 --> 00:03:20.940 Le problème, c'est d'une part le manque de moyens de la justice, 62 00:03:21.750 --> 00:03:24.600 le peu d'enthousiasme qu'elle va mettre à poursuivre, 63 00:03:24.800 --> 00:03:25.890 sauf dans des cas très, très graves. 64 00:03:26.300 --> 00:03:28.650 Et ensuite, c'est le fait que les réseaux sociaux eux-mêmes se font 65 00:03:28.850 --> 00:03:29.610 souvent tirer l'oreille. 66 00:03:29.810 --> 00:03:32.340 C'est particulièrement vrai pour Twitter, pour divulguer les 67 00:03:32.540 --> 00:03:36.270 informations puisqu'ils les ont, sur les personnes qui sont derrière. 68 00:03:36.630 --> 00:03:39.570 Mais le fait du pseudonymat ou pas, parce qu'en fait, on parle d'anonymat, 69 00:03:39.770 --> 00:03:40.530 c'est du pseudonymat, 70 00:03:41.300 --> 00:03:42.870 le fait d'être derrière un pseudonyme ou pas, 71 00:03:43.070 --> 00:03:43.980 il y a des études qui l'ont montré, 72 00:03:44.180 --> 00:03:46.530 ça ne change absolument rien à la virulence des propos qu'on peut 73 00:03:46.730 --> 00:03:47.490 tenir sur les réseaux. 74 00:03:48.010 --> 00:03:50.130 Moi même, au début du livre, je raconte une anecdote qui est : 75 00:03:51.090 --> 00:03:54.360 une retraitée qui m'a envoyé un message sur Facebook en me menaçant, 76 00:03:54.560 --> 00:03:59.160 en disant qu'elle se réjouirait le jour où ma fille serait tuée. 77 00:03:59.360 --> 00:04:00.340 Elle m'a écrit sous son vrai nom. 78 00:04:00.820 --> 00:04:02.470 Il n'y avait pas de pseudonyme derrière. 79 00:04:02.670 --> 00:04:03.470 Donc c'est vraiment un faux débat, 80 00:04:03.670 --> 00:04:09.540 je pense. - Toujours pour rester dans 81 00:04:09.740 --> 00:04:11.970 la question de l'éthique autour des réseaux sociaux et comment on 82 00:04:12.170 --> 00:04:12.930 se les approprie, 83 00:04:13.130 --> 00:04:18.090 vous mettez également très bien en exergue l'existence de bulles 84 00:04:18.290 --> 00:04:19.050 d'informations. 85 00:04:19.250 --> 00:04:21.570 Le fait que lorsqu'on est sur un réseau social, puisque ces derniers 86 00:04:21.770 --> 00:04:24.540 ont été justement pensés pour nous mettre en relation avec des personnes, soit 87 00:04:24.810 --> 00:04:27.670 de notre famille, soit des amis, plutôt des personnes a priori 88 00:04:27.870 --> 00:04:29.100 qui partagent nos opinions. 89 00:04:29.340 --> 00:04:32.790 Très vite, on se retrouve dans une bulle où tout le monde pense 90 00:04:32.990 --> 00:04:36.120 la même chose et où, du coup, les événements vont prendre 91 00:04:36.320 --> 00:04:40.260 une importance beaucoup plus forte qu'elle ne pourrait l'avoir dans 92 00:04:40.460 --> 00:04:41.220 une vie, 93 00:04:41.420 --> 00:04:42.780 en tout cas, dans un contexte réel. 94 00:04:43.560 --> 00:04:46.110 Et du coup, je voulais voir avec vous si vous aviez des pistes pour 95 00:04:46.310 --> 00:04:48.270 casser cette espèce de bulle d'information. 96 00:04:48.470 --> 00:04:52.290 Cette zone de confort virtuel, où on se retrouve à échanger avec 97 00:04:52.620 --> 00:04:55.910 des personnes qui partagent nos opinions. - Ce qui est compliqué 98 00:04:56.110 --> 00:04:58.320 C'est que, en réalité dans la vie aussi, 99 00:04:58.520 --> 00:04:59.760 vous vous retrouvez à partager des opinions, 100 00:05:00.630 --> 00:05:02.700 vous allez plutôt vers les gens vers qui vous avez des opinions 101 00:05:02.900 --> 00:05:03.720 proches ou une proximité. 102 00:05:03.960 --> 00:05:05.800 C'est normal, c'est même sain. 103 00:05:06.550 --> 00:05:07.750 Je veux dire, pour le faire 104 00:05:07.950 --> 00:05:11.580 moi, professionnellement, suivre des comptes qui 105 00:05:11.780 --> 00:05:14.160 ne sont pas du tout, du tout, du tout dans votre manière 106 00:05:14.360 --> 00:05:15.120 de penser, 107 00:05:15.320 --> 00:05:17.640 juste pour élargir votre état d'esprit, ce n'est pas forcément la bonne 108 00:05:17.840 --> 00:05:18.600 solution. 109 00:05:18.800 --> 00:05:21.060 Je pense que le problème n'est pas tant le fait de s'entourer de gens 110 00:05:21.600 --> 00:05:24.600 qui pensent comme vous, c'est de pas être capable d'accepter 111 00:05:24.800 --> 00:05:26.010 la contradiction au sein de ces bulles, 112 00:05:26.210 --> 00:05:28.500 en fait. Ce qu'on voit souvent se passer, et c'est en cela que 113 00:05:28.700 --> 00:05:29.880 ça dérive vers la désinformation, 114 00:05:30.080 --> 00:05:34.230 c'est quand des gens qui se mettent dans ces groupes-là, se mettent à 115 00:05:34.500 --> 00:05:37.410 refuser toute information qui est extérieure à leur bulle de pensée. 116 00:05:37.680 --> 00:05:40.230 C'est ce qu'on voit très bien dans un tas de phénomènes d'un tas de 117 00:05:40.430 --> 00:05:41.190 groupes. 118 00:05:41.390 --> 00:05:42.870 Moi, je l'ai vu des dizaines de fois, que ce soit à l'extrême-gauche, à 119 00:05:43.070 --> 00:05:45.150 l'extrême droite, chez les conspirationnistes divers et variés. 120 00:05:46.020 --> 00:05:49.320 C'est l'information venue de l'extérieur et qui contredit la thèse du groupe 121 00:05:49.520 --> 00:05:51.370 qui est en fait rejetée. 122 00:05:51.650 --> 00:05:52.410 Et tout le 123 00:05:52.610 --> 00:05:53.370 problème est là. 124 00:05:53.570 --> 00:05:55.650 En fait, c'est la capacité à accepter qu'il puisse y avoir des désaccords 125 00:05:55.850 --> 00:05:58.140 et qu'on puisse discuter autour de ces désaccords. 126 00:05:58.860 --> 00:06:01.650 Et souvent en fait, quand on s'enferme dans ces bulles, on rentre dans 127 00:06:01.850 --> 00:06:03.840 quelque chose aussi, où il y a une défiance des autres 128 00:06:04.040 --> 00:06:04.800 médias, pas du reste. 129 00:06:05.040 --> 00:06:05.840 Très souvent, ce reste, 130 00:06:06.040 --> 00:06:06.840 c'est les médias traditionnels. 131 00:06:07.040 --> 00:06:09.510 Et la bulle, elle va dire : n'écoutez pas, ne faites pas confiance aux 132 00:06:09.710 --> 00:06:10.740 médias traditionnels, ils vous mentent, etc. 133 00:06:11.430 --> 00:06:16.560 Si vous allez sur les groupes Facebook de soutien à Didier Raoult ou anti-masques, 134 00:06:16.760 --> 00:06:19.080 vous avez énormément ce discours qui est omniprésent, 135 00:06:19.280 --> 00:06:23.670 chez beaucoup, beaucoup de gens, qui est de dire: les médias 136 00:06:23.870 --> 00:06:25.920 nous mentent, les médias généralistes nous mentent. Et c'est sur Internet 137 00:06:26.120 --> 00:06:29.100 qu'on va trouver la vraie information. Ce qui est en fait un postulat, 138 00:06:29.300 --> 00:06:33.030 un peu, comment dirais-je, un peu simpliste et un peu bête parce que les médias 139 00:06:33.230 --> 00:06:35.820 d'information générale sont certes critiquables par plein d'aspects, 140 00:06:36.020 --> 00:06:38.490 ce n'est pas le souci, mais sont quand même des organisations 141 00:06:38.690 --> 00:06:40.980 professionnelles qui sont là pour fournir une info relativement fiable 142 00:06:41.180 --> 00:06:42.690 et crédible. S'ils fournissaient des choses fausses, 143 00:06:43.590 --> 00:06:44.580 ils ne seraient plus crédibles. 144 00:06:44.780 --> 00:06:48.210 Donc, à un moment donné, il faut savoir élargir 145 00:06:48.410 --> 00:06:51.540 son champ de lecture, lire éventuellement des médias de 146 00:06:51.740 --> 00:06:55.670 plein de domaines, différents, de plein de points de vue différents. 147 00:06:55.950 --> 00:06:59.580 Mais arriver à accepter le fait qu'il y a une différence entre des 148 00:06:59.780 --> 00:07:03.030 journalistes professionnels et des gens certes amateurs, 149 00:07:03.230 --> 00:07:05.640 peut-être un peu éclairés, mais qui vont être dans des théories 150 00:07:06.090 --> 00:07:07.100 parfois un peu fantaisistes. 151 00:07:07.300 --> 00:07:10.710 - Mais du coup, pour rebondir sur ce que vous venez de dire, 152 00:07:10.910 --> 00:07:14.040 c'est à dire de la défiance à l'égard des médias traditionnels et, 153 00:07:14.240 --> 00:07:18.210 du coup, de la propagation de certaines théories plus ou moins complotistes. 154 00:07:19.710 --> 00:07:22.900 Je voulais revenir avec vous sur le rôle que pouvaient tenir 155 00:07:23.100 --> 00:07:26.790 d'autres partenaires, d'autres relais que juste les journalistes 156 00:07:27.330 --> 00:07:28.560 autour de la critique de l'information. 157 00:07:29.130 --> 00:07:32.280 Je ne sais pas si nos auditeurs le savent, mais nous, 158 00:07:32.480 --> 00:07:34.920 à la Bibliothèque publique d'information, on organise 159 00:07:35.120 --> 00:07:39.140 régulièrement des ateliers de critique de l'information, des ateliers qui 160 00:07:39.340 --> 00:07:42.390 sont créés pour les jeunes, des jeunes collégiens et des jeunes lycéens. 161 00:07:43.310 --> 00:07:45.480 Et l'idée, c'est de recevoir une journaliste, 162 00:07:45.680 --> 00:07:49.910 les aider à pouvoir analyser les informations qu'ils 163 00:07:50.110 --> 00:07:54.810 reçoivent, soit les "Unes" de journaux mais également les théories qui 164 00:07:55.010 --> 00:07:55.930 circulent sur le web. 165 00:07:56.340 --> 00:07:58.580 Du coup, je voulais savoir ce que vous pensiez de ce genre d'initiative 166 00:07:58.780 --> 00:07:59.540 en bibliothèque. 167 00:07:59.740 --> 00:08:02.670 Je pense que c'est très bien parce que la presse, de manière générale, 168 00:08:02.870 --> 00:08:04.220 souffre un peu d'un déficit d'image. 169 00:08:04.420 --> 00:08:06.390 C'est vrai qu'il est compliqué à corriger par les journalistes 170 00:08:06.590 --> 00:08:09.450 eux-mêmes. Si d'autres acteurs peuvent s'engager là-dedans et essayer de 171 00:08:09.650 --> 00:08:11.850 faire comprendre que critiquer les médias ne veut pas forcément 172 00:08:12.050 --> 00:08:12.900 dire les rejeter en bloc et 173 00:08:13.860 --> 00:08:16.080 qu'on peut avoir un regard critique sur les médias et qu'il faut avoir 174 00:08:16.280 --> 00:08:17.100 un regard critique sur les médias. 175 00:08:17.300 --> 00:08:19.650 Mais il ne s'agit pas non plus de partir du postulat qu'ils sont tous 176 00:08:20.640 --> 00:08:23.280 mensongers et membres d'un complot des élites ou autres. 177 00:08:23.480 --> 00:08:26.780 Donc, je pense que c'est intéressant d'aller élargir à d'autres 178 00:08:26.980 --> 00:08:30.180 endroits et d'apprendre effectivement à lire la presse, 179 00:08:30.380 --> 00:08:33.990 à lire un journal, à lire un journal télévisé, à comprendre les codes, 180 00:08:34.190 --> 00:08:35.190 à comprendre comment ça marche. 181 00:08:35.390 --> 00:08:37.860 Nous, ce qu'on voit de plus en plus en ligne, c'est qu'il y a 182 00:08:38.060 --> 00:08:40.260 en plus une perte de repères par rapport à la grammaire traditionnelle 183 00:08:40.460 --> 00:08:41.220 des médias. 184 00:08:41.420 --> 00:08:43.170 Les gens par exemple, font de moins en moins la différence 185 00:08:43.370 --> 00:08:46.470 entre une tribune qui est un point de vue publié d'une personnalité 186 00:08:46.670 --> 00:08:49.500 extérieure dans un journal, et un engagement du dit journal. 187 00:08:49.700 --> 00:08:51.510 c'est à dire qu'un journal peut publier une tribune avec laquelle 188 00:08:51.710 --> 00:08:52.470 il n'est pas d'accord. 189 00:08:52.670 --> 00:08:54.630 C'est même le principe en fait, c'est pour faire vivre un débat. 190 00:08:54.960 --> 00:08:56.970 Et c'est vrai qu'on s'aperçoit que ce code-là est quelque chose qui 191 00:08:57.170 --> 00:09:00.510 était connu, je pense, jusque dans les années 90-2000 sans 192 00:09:00.710 --> 00:09:02.610 problème par des gens qui avaient l'habitude de la presse écrite, 193 00:09:03.210 --> 00:09:05.910 mais qui du coup aujourd'hui se perd. 194 00:09:06.110 --> 00:09:07.560 Et du coup, les gens pensent que quand on publie une tribune, 195 00:09:07.760 --> 00:09:08.520 c'est une forme de 196 00:09:09.030 --> 00:09:11.400 caution qu'on lui donne alors que pas toujours, en fait. 197 00:09:11.600 --> 00:09:18.640 - Et toujours dans cette perspective des relais que peuvent trouver les journalistes 198 00:09:18.840 --> 00:09:20.710 dans la société civile, ce qui est très clair dans votre 199 00:09:20.910 --> 00:09:23.320 ouvrage, c'est que les fausses informations, 200 00:09:23.520 --> 00:09:24.280 c'est un peu une marée. 201 00:09:24.480 --> 00:09:27.310 C'est un peu une déferlante contre laquelle il est très difficile de 202 00:09:27.510 --> 00:09:29.590 faire face, notamment lorsqu'on est quelques individus, 203 00:09:29.790 --> 00:09:32.860 parce que ces informations sont produites à des échelles astronomiques, 204 00:09:33.220 --> 00:09:37.450 elles se diffusent beaucoup plus rapidement qu'il ne faut de temps pour les démasquer. 205 00:09:38.320 --> 00:09:39.270 Du coup, outre les bibliothèques, 206 00:09:39.470 --> 00:09:43.360 est-ce qu'on pourrait songer à d'autres partenariats pour essayer 207 00:09:43.560 --> 00:09:46.240 de juguler cette propagation de fausses informations ? 208 00:09:46.440 --> 00:09:49.230 - C'est compliqué parce qu'en fait effectivement, ça vient de partout. 209 00:09:49.430 --> 00:09:50.190 Et puis il y a 210 00:09:50.390 --> 00:09:51.520 beaucoup de choses dans la fausse information. 211 00:09:51.720 --> 00:09:53.350 Il y a notamment ce qu'on pourrait appeler une zone grise, 212 00:09:53.860 --> 00:09:57.300 qui est cette zone de ce que nous, on appelle dans le jargon le "clickbait" 213 00:09:57.500 --> 00:09:59.080 qui sont des appeaux à clics, littéralement. 214 00:10:00.010 --> 00:10:02.950 Vous en avez plein sur Facebook, des pages qui vont faire semblant 215 00:10:03.150 --> 00:10:05.290 d'être des médias, qui vont reprendre des titres et des choses comme ça, 216 00:10:05.500 --> 00:10:08.650 qui en fait ne sont pas des médias, ce sont juste des espaces qui publient 217 00:10:08.850 --> 00:10:11.890 un maximum de contenu avec pour but de venir vous faire cliquer dessus. 218 00:10:12.250 --> 00:10:15.380 Souvent avec des titres très racoleurs, avec des informations copiées-collées, 219 00:10:16.120 --> 00:10:17.290 des traductions automatiques, etc. 220 00:10:18.220 --> 00:10:20.770 Et cette zone grise, elle prend de plus en plus de place 221 00:10:20.970 --> 00:10:22.960 et elle pose un peu cette question de : 222 00:10:23.160 --> 00:10:26.110 voilà, on n'est pas vraiment dans de la fausse information, on n'est pas vraiment 223 00:10:26.310 --> 00:10:27.370 dans de la vraie information non plus. 224 00:10:27.570 --> 00:10:30.350 On est dans une info un peu Canada-Dry pour reprendre une 225 00:10:30.550 --> 00:10:34.140 vieille pub des années 80, mais c'est ces espaces-là 226 00:10:34.340 --> 00:10:37.090 qu'il faut arriver à cerner, c'est à dire ce n'est pas un souci 227 00:10:37.290 --> 00:10:38.050 d'aller lire ça. 228 00:10:38.250 --> 00:10:40.900 Mais il faut savoir que quand on lit ça, il y a une vraie information derrière 229 00:10:41.100 --> 00:10:44.020 et il y a moyen de retrouver la source et de comprendre quelle est 230 00:10:44.220 --> 00:10:44.980 la vraie information. 231 00:10:45.280 --> 00:10:48.370 C'est vrai que face à cette déferlante d'informations plus ou moins 232 00:10:48.570 --> 00:10:49.820 fantaisistes et de fake news, etc. 233 00:10:50.790 --> 00:10:54.770 il y a une difficulté peut-être à naviguer dans tout ça. 234 00:10:55.300 --> 00:10:57.700 Je pense que la meilleure solution, c'est encore d'armer son esprit 235 00:10:57.900 --> 00:11:01.390 critique, c'est à dire d'apprendre à ne pas de toute façon adopter 236 00:11:02.080 --> 00:11:02.840 aveuglément, 237 00:11:03.040 --> 00:11:05.020 croire toutes les informations qu'on croise. 238 00:11:05.380 --> 00:11:06.310 Croiser des sources. 239 00:11:06.510 --> 00:11:09.460 Apprendre à faire quelques petites manipulations basiques. 240 00:11:09.660 --> 00:11:10.420 Par exemple, 241 00:11:10.620 --> 00:11:11.380 Vérifier une image, ça prend deux minutes. 242 00:11:11.580 --> 00:11:13.820 C'est très simple sur un navigateur, avec un clic droit sur une image, 243 00:11:14.020 --> 00:11:14.780 vous pouvez la vérifier. 244 00:11:14.980 --> 00:11:16.100 Vous pouvez savoir quelle est son origine. 245 00:11:16.870 --> 00:11:18.670 C'est des petites choses comme ça qui évitent de se faire avoir. 246 00:11:19.030 --> 00:11:20.910 Après moi, ce que je vois très souvent, c'est qu'en fait, 247 00:11:21.110 --> 00:11:21.940 on a tendance à concentrer. 248 00:11:22.140 --> 00:11:24.760 Je pense que c'est un des problèmes. L'éducation aux médias sur la jeunesse. 249 00:11:25.360 --> 00:11:27.280 Mais la jeunesse, en fait, elle possède souvent assez bien 250 00:11:27.480 --> 00:11:30.640 les codes du numérique et sans doute beaucoup mieux que des gens d'un 251 00:11:30.840 --> 00:11:33.520 certain âge qui ne sont pas nés avec Facebook, Twitter et 252 00:11:33.730 --> 00:11:36.400 avec Instagram et qui eux, ont tendance à prendre peut-être 253 00:11:36.600 --> 00:11:39.040 plus pour argent comptant, tout ce qu'ils peuvent voir qui 254 00:11:39.240 --> 00:11:40.000 ressemble à de la presse 255 00:11:40.200 --> 00:11:41.500 et à moins s'en méfier. 256 00:11:41.920 --> 00:11:44.050 C'est vrai que quand on va sur, quand on travaille sur les 257 00:11:44.250 --> 00:11:46.120 conspirationnistes, sur les groupes comme ça, on s'aperçoit qu'il y 258 00:11:46.320 --> 00:11:49.930 a pas mal de gens, des seniors, des gens un peu âgés qui se font avoir. 259 00:11:50.130 --> 00:11:52.750 Et je pense aussi qu'il y a un effet bombardement 260 00:11:52.950 --> 00:11:57.490 d'informations. Quand avant, vous aviez un contact avec un journal disons, 261 00:11:57.690 --> 00:11:58.450 un journal papier, 262 00:11:58.650 --> 00:12:00.070 le journal télévisé est plus un magazine, 263 00:12:01.030 --> 00:12:03.760 ça n'avait rien à voir en terme de densité d'information avec, 264 00:12:03.960 --> 00:12:06.940 vous inscrire sur Facebook et recevoir d'un coup 500, 265 00:12:07.140 --> 00:12:09.670 1000 informations par jour autour d'un même sujet. Donc ça peut créer 266 00:12:09.870 --> 00:12:14.200 un effet déformant qui peut être des fois à l'origine de fausse 267 00:12:14.400 --> 00:12:15.160 impression de, 268 00:12:15.500 --> 00:12:18.040 par exemple, sur l'extrême-droite, c'est un grand classique. 269 00:12:18.240 --> 00:12:20.890 C'est que les gens qui s'abonnent à des sites et des comptes d'extrême 270 00:12:21.090 --> 00:12:23.920 droite vont recevoir une déferlante de faits divers qui 271 00:12:24.120 --> 00:12:25.840 en fait, sont des faits divers qui sont traités dans toute la presse 272 00:12:26.040 --> 00:12:27.340 régionale, qui existaient déjà avant. 273 00:12:27.540 --> 00:12:28.660 C'est juste que avant, 274 00:12:28.860 --> 00:12:29.620 Ils s'y intéressaient pas. 275 00:12:29.820 --> 00:12:31.330 Donc là, d'un coup, ils ont l'impression que mon Dieu, 276 00:12:31.530 --> 00:12:33.100 c'est horrible, il y a des faits divers partout, c'est affreux. 277 00:12:33.520 --> 00:12:35.650 Mais en fait, c'est juste que voilà, que c'est une concentration 278 00:12:35.850 --> 00:12:38.170 d'informations et un espèce d'effet de loupe qui peut être très dangereux. 279 00:12:38.370 --> 00:12:43.330 - La question, c'est de savoir comment... - Je n'ai pas la solution. Si je l'avais... 280 00:12:43.530 --> 00:12:46.210 Non, c'est un vrai problème. 281 00:12:46.410 --> 00:12:47.170 C'est qu'aujourd'hui, 282 00:12:47.590 --> 00:12:50.710 on n'a pas de baguette magique qui nous permette de classer tout ça. 283 00:12:50.910 --> 00:12:52.780 Et on rentre dans un monde où, effectivement, c'est compliqué 284 00:12:52.980 --> 00:12:54.700 parce que, quand vous décidez de croire quelque chose, 285 00:12:54.900 --> 00:12:58.000 vous avez en ligne, littéralement ce que vous voulez comme information. 286 00:12:58.840 --> 00:13:01.000 Si je prends la théorie conspirationniste QAnon qui a inspiré 287 00:13:01.200 --> 00:13:03.130 les partisans de Donald Trump, ça fait des années et des années 288 00:13:03.330 --> 00:13:04.720 qu'elle se balade dans les franges du Web. 289 00:13:05.110 --> 00:13:06.490 Et puis, petit à petit, elle a grignoté, grignoté, grignoté. 290 00:13:07.840 --> 00:13:09.700 Elle est rentrée par des communautés assez étranges. 291 00:13:09.900 --> 00:13:12.650 Par exemple, c'est passé aux Etats-Unis par les profs de yoga et de fitness. 292 00:13:13.630 --> 00:13:14.680 Ce type de public-là. 293 00:13:15.550 --> 00:13:16.810 Et puis voilà, 294 00:13:17.500 --> 00:13:20.920 l'épidémie de coronavirus a déclenché aussi pas mal de réactions de gens 295 00:13:21.120 --> 00:13:22.630 qui étaient un peu affolés, qui allaient chercher de l'information 296 00:13:22.830 --> 00:13:27.180 alternative et qui en sont venus à aller vers les théories Qanon via cela. 297 00:13:27.670 --> 00:13:30.100 Parce que QAnon postule que, évidemment, c'est un complot, que 298 00:13:30.970 --> 00:13:33.970 le coronavirus, c'est une invention pour garder les gens chez eux, 299 00:13:34.170 --> 00:13:34.930 etc. 300 00:13:35.130 --> 00:13:38.050 Je ne fais pas le détail. mais on vit dans un monde où, 301 00:13:38.250 --> 00:13:42.380 effectivement, c'est de plus en plus difficile de comment dire, 302 00:13:42.580 --> 00:13:44.870 c'est paradoxal parce qu'on n'a jamais été autant informés en volume. 303 00:13:45.070 --> 00:13:46.530 Il n'y a jamais eu autant de contenu. 304 00:13:46.930 --> 00:13:48.730 Mais comment faire le tri dans ce contenu ? 305 00:13:48.930 --> 00:13:50.130 C'est ça qu'il faut arriver à apprendre à faire. C'est pas simple. 306 00:13:50.330 --> 00:13:53.260 - Ce qui est intéressant aussi, 307 00:13:53.460 --> 00:13:55.810 c'est que vous avez signalé les images, le fait que très rapidement, 308 00:13:56.890 --> 00:13:57.650 on puisse vérifier les images. 309 00:13:57.850 --> 00:14:01.030 Et je voulais que vous fassiez un petit point avec nous sur l'émergence 310 00:14:01.230 --> 00:14:04.600 de plus en plus d'images trafiquées, mais aussi beaucoup d'images détournées 311 00:14:04.930 --> 00:14:07.390 c'est-à-dire des images qui existent bien, mais qui sont réutilisées dans un 312 00:14:07.590 --> 00:14:11.050 contexte complètement différent parce que les images 313 00:14:11.250 --> 00:14:12.010 souvent, elles nous 314 00:14:12.510 --> 00:14:16.910 engagent plus émotionnellement, se propagent aussi assez rapidement. Il faudrait que 315 00:14:17.110 --> 00:14:22.450 vous reveniez avec nous sur le mécanisme de diffusion des fausses images, et quelle 316 00:14:22.650 --> 00:14:26.640 problématique elles posent, comparées à des choses plus écrites. 317 00:14:26.840 --> 00:14:30.420 - En fait, souvent l'image est utilisée de manière générale sur les réseaux 318 00:14:30.620 --> 00:14:33.030 sociaux parce que c'est un vecteur d'émotions, beaucoup plus fort qu'un texte. 319 00:14:33.230 --> 00:14:35.800 Donc, c'est pour ça que c'est par là que ça va passer. 320 00:14:36.000 --> 00:14:37.090 C'est beaucoup plus facile à partager. 321 00:14:37.500 --> 00:14:38.260 Et après 322 00:14:38.460 --> 00:14:40.620 effectivement, le principe c'est, je ne vais pas rentrer dans le 323 00:14:40.820 --> 00:14:41.580 jeu intellectuel. 324 00:14:41.780 --> 00:14:44.130 Mais c'est grosso modo, vous arrivez à une dimension où l'image, 325 00:14:44.330 --> 00:14:46.620 elle devient, non plus indicielle, 326 00:14:46.820 --> 00:14:48.270 ce n'est plus un indice de quelque chose qui existe, 327 00:14:48.470 --> 00:14:49.680 c'est une icône, c'est un symbole. 328 00:14:50.340 --> 00:14:52.920 On envoie une image avec un bateau avec des migrants qui débarquent. 329 00:14:53.610 --> 00:14:54.840 Je suis d'extrême-droite, j'envoie ça, 330 00:14:55.040 --> 00:14:55.800 je suis contre l'immigration. 331 00:14:56.190 --> 00:14:56.950 Je m'en fiche en fait, 332 00:14:57.150 --> 00:15:00.960 que ce bateau débarque en Corse, en Grèce ou en Amérique du Sud. 333 00:15:01.200 --> 00:15:01.960 Ce n'est pas le problème. 334 00:15:02.160 --> 00:15:04.740 Il y a des migrants qui débarquent quelque part et ça suffit à appuyer 335 00:15:04.940 --> 00:15:05.790 mon récit et ce que je veux dire. 336 00:15:05.990 --> 00:15:07.220 Nous, on voit ça à longueur de temps. 337 00:15:07.420 --> 00:15:08.180 Le principe, 338 00:15:08.380 --> 00:15:09.960 c'est de postuler quelque chose et d'aller chercher une image pour 339 00:15:10.160 --> 00:15:10.920 l'appuyer. 340 00:15:11.120 --> 00:15:13.380 Typiquement, vous voulez parler de la saleté dans Paris, 341 00:15:13.580 --> 00:15:14.340 vous allez prendre une image, 342 00:15:14.820 --> 00:15:15.930 il y en a eu une comme ça qui circule 343 00:15:16.610 --> 00:15:18.480 depuis des années. C'est une image qui a été prise un lendemain de 344 00:15:18.680 --> 00:15:19.440 victoire en Coupe du monde. 345 00:15:19.640 --> 00:15:22.050 Evidemment, il y a de la saleté partout. Et ça permet 346 00:15:22.250 --> 00:15:23.730 de dire regardez, regardez, Paris est sale, etc. 347 00:15:24.510 --> 00:15:26.730 Mais finalement, l'image ne sert vraiment que de point d'appui à 348 00:15:26.930 --> 00:15:28.410 un raisonnement qui est déjà présupposé. 349 00:15:28.610 --> 00:15:30.720 Donc après, il n'y a même plus besoin de les trafiquer 350 00:15:30.920 --> 00:15:32.880 effectivement, la plupart du temps. Il y en a quelques unes qui sont trafiquées, 351 00:15:33.080 --> 00:15:35.400 mais la plupart du temps, on s'embête même pas. On met des images hors contexte 352 00:15:36.270 --> 00:15:38.580 et on va les utiliser pour créer de l'émotion. 353 00:15:38.780 --> 00:15:40.260 Parce qu'en fait, quand on est sous le coup d'une émotion, 354 00:15:40.460 --> 00:15:42.780 quand on est en colère, c'est souvent ça, 355 00:15:42.980 --> 00:15:43.770 l'émotion, ou triste. 356 00:15:43.970 --> 00:15:45.660 Eh ben on réfléchit moins. 357 00:15:45.960 --> 00:15:46.720 Et c'est tout 358 00:15:46.920 --> 00:15:50.000 l'intérêt d'utiliser des images ou des vidéos, c'est d'y amener 359 00:15:50.600 --> 00:15:53.370 une dimension émotionnelle qui va pousser à la 360 00:15:53.570 --> 00:15:54.840 colère, qui va pousser à l'indignation. 361 00:15:55.230 --> 00:15:55.990 Et plus on s'indigne, 362 00:15:56.190 --> 00:15:58.420 moins on réfléchit, plus on est dans une logique de : 363 00:15:58.860 --> 00:15:59.620 Ah, c'est scandaleux. 364 00:15:59.820 --> 00:16:00.580 Il faut faire cesser ça. 365 00:16:01.110 --> 00:16:02.520 Et ce qu'on voit aussi, qui est très compliqué, 366 00:16:02.720 --> 00:16:05.160 c'est qu'une fois qu'on a éprouvé cette émotion, c'est très difficile 367 00:16:05.360 --> 00:16:06.510 de comprendre qu'on s'est fait berner. 368 00:16:06.840 --> 00:16:08.820 C'est très difficile d'admettre qu'on a été en colère 369 00:16:09.020 --> 00:16:12.240 Pour quelque part, le mauvais motif par rapport à une image qui n'était 370 00:16:12.440 --> 00:16:14.850 pas fidèle. 371 00:16:15.050 --> 00:16:19.130 - Je pense que ça va donner du grain à moudre à nos collègues qui sont 372 00:16:19.330 --> 00:16:23.000 en train de préparer des ateliers pour décrypter les images à l'intention 373 00:16:23.200 --> 00:16:25.460 des jeunes, mais ça serait bien qu'on s'y mette tous, concrètement. 374 00:16:26.660 --> 00:16:28.540 Toujours pour rester dans cette problématique 375 00:16:28.910 --> 00:16:31.880 des fausses informations et de leur diffusion assez rapide, dans votre 376 00:16:32.080 --> 00:16:35.750 ouvrage, vous illustrez également très bien le fait que, sur les réseaux 377 00:16:35.950 --> 00:16:38.420 sociaux, il y a une certaine horizontalité des savoirs. 378 00:16:38.620 --> 00:16:41.220 En tout cas que la parole est un peu égale entre tous les acteurs. 379 00:16:41.810 --> 00:16:45.470 Je voulais voir avec vous quelle place on pouvait donner ou permettre de 380 00:16:45.670 --> 00:16:49.310 retrouver à des paroles plus expertes, des scientifiques, des universitaires. 381 00:16:49.640 --> 00:16:50.560 Est-ce que c'est  382 00:16:50.990 --> 00:16:51.770 possible qu'ils 383 00:16:51.970 --> 00:16:52.850 tiennent cette place ? 384 00:16:53.050 --> 00:16:57.020 Est-ce que Twitter, c'est le bon endroit pour la tenir ? Est-ce qu'il y a d'autres réseaux sociaux 385 00:16:57.220 --> 00:16:58.460 qui peuvent accueillir cette parole-là ? 386 00:16:58.660 --> 00:17:01.590 - C'est amusant parce que ce matin, justement, je regardais sur Twitter. 387 00:17:01.790 --> 00:17:04.430 Il y avait deux journalistes généralistes qui s'en prenaient à 388 00:17:04.630 --> 00:17:07.160 un épidémiologue autour du confinement. 389 00:17:07.360 --> 00:17:11.270 Et c'était fascinant parce qu'en fait, ils étalaient des vrais-faux savoirs 390 00:17:11.780 --> 00:17:14.000 et ils étaient dans une position, une posture 391 00:17:14.200 --> 00:17:14.960 de : 392 00:17:15.160 --> 00:17:16.820 on sait aussi bien que toi. Alors que d'un côté, 393 00:17:17.020 --> 00:17:19.580 vous avez un épidémiologue spécialisé qui fait ça depuis 15 ans et de 394 00:17:19.780 --> 00:17:21.740 l'autre côté, vous avez des journalistes qui sont certes bien 395 00:17:21.940 --> 00:17:23.630 informés mais qui ne sont que des journalistes, qui ne sont pas 396 00:17:23.830 --> 00:17:24.770 des spécialistes de l'épidémie. 397 00:17:25.120 --> 00:17:26.680 Donc tout ça pour dire que ça touche tout le monde, en fait, 398 00:17:27.140 --> 00:17:29.180 et que le problème, c'est que encore une fois, l'émotion, 399 00:17:30.180 --> 00:17:33.560 l'indignation vous poussent aussi à avoir un un avis moral. 400 00:17:33.920 --> 00:17:35.600 Et les avis moraux, tout le monde en a, forcément. 401 00:17:35.800 --> 00:17:37.220 Tout le monde a une opinion sur les choses. 402 00:17:37.520 --> 00:17:39.920 Le problème, c'est d'arriver à reconnaître l'expertise et d'arriver 403 00:17:40.120 --> 00:17:42.260 à s'effacer derrière l'expertise et à dire : OK. 404 00:17:42.460 --> 00:17:44.960 Je reconnais que cette personne, elle sait mieux que moi parce qu'elle 405 00:17:45.160 --> 00:17:46.530 a fait plus d'études, parce qu'elle est plus légitime. 406 00:17:46.880 --> 00:17:49.250 C'est vrai qu'Internet nous pousse à bousculer beaucoup de choses, 407 00:17:49.450 --> 00:17:52.160 à bousculer des savoirs et que les réseaux sociaux amènent une 408 00:17:52.360 --> 00:17:53.730 horizontalité qui est dangereuse pour ça. 409 00:17:53.930 --> 00:17:56.990 Parce qu'effectivement, vous pouvez avoir le message anonyme 410 00:17:57.980 --> 00:18:01.010 d'un compte anonyme qui se moque d'un prix Nobel qui va avoir plus 411 00:18:01.210 --> 00:18:02.780 de partage que le message initial du prix Nobel. 412 00:18:03.170 --> 00:18:05.870 D'autant plus que souvent, un expert, il va avoir un discours 413 00:18:06.070 --> 00:18:06.830 modéré. 414 00:18:07.030 --> 00:18:07.790 Il va avoir un discours pondéré. 415 00:18:08.000 --> 00:18:11.210 Il ne va pas être dans l'injonction, il ne va pas être dans 416 00:18:11.540 --> 00:18:14.600 la rhétorique très forte, donc ça va être moins séducteur 417 00:18:14.800 --> 00:18:15.560 comme message. 418 00:18:15.780 --> 00:18:19.700 Et forcément, on va préférer un bon coup de gueule, bien bien cash, 419 00:18:19.900 --> 00:18:22.790 plein d'émotions sur un réseau social, à un discours parfois un peu mou 420 00:18:22.990 --> 00:18:24.320 et un peu tiède d'un spécialiste. 421 00:18:24.520 --> 00:18:26.300 Donc là aussi, comment faire ? 422 00:18:26.500 --> 00:18:29.750 Malheureusement, c'est quelque part la grammaire même de Twitter. 423 00:18:29.990 --> 00:18:32.990 Pour l'instant, à part les comptes certifiés, il n'y a rien qui permet 424 00:18:33.190 --> 00:18:37.140 de signaler que une parole vaut plus qu'une autre sur un sujet donné. 425 00:18:37.610 --> 00:18:40.570 Et malheureusement, il y a quelques réseaux qui s'étaient montés, d'expertise. Il y 426 00:18:40.770 --> 00:18:42.860 a un réseau qui s'appelle Quora, par exemple, qui était fait pour 427 00:18:43.060 --> 00:18:44.570 poser des questions avec des spécialistes qui venaient vous 428 00:18:44.770 --> 00:18:45.530 répondre. 429 00:18:45.730 --> 00:18:48.890 Mais ça n'a jamais pris vraiment une énorme ampleur dans le grand public. 430 00:18:49.090 --> 00:18:51.020 Donc, après, la question, c'est : que faire avec les réseaux 431 00:18:51.220 --> 00:18:51.980 qu'on a aujourd'hui ? 432 00:18:52.180 --> 00:18:53.330 Et c'est vrai que Twitter est un réseau où 433 00:18:53.530 --> 00:18:57.920 c'est pas simple de faire entendre une parole experte et de faire en 434 00:18:58.120 --> 00:19:00.650 sorte que cette parole experte soit plus entendue et mieux entendue 435 00:19:01.070 --> 00:19:04.580 qu'une parole qui ne l'est pas, mais qui va être beaucoup plus chargée 436 00:19:04.780 --> 00:19:05.540 émotionnellement. 437 00:19:05.740 --> 00:19:08.600 - Après effectivement, Twitter n'est peut-être pas le bon endroit, mais je voulais 438 00:19:08.800 --> 00:19:14.300 juste rendre hommage aux historiens 439 00:19:14.570 --> 00:19:17.370 parce que je suis historienne et j'ai beaucoup d'amis qui le sont aussi 440 00:19:17.570 --> 00:19:19.520 et qui commencent à exposer des choses sur Twitch. 441 00:19:19.720 --> 00:19:22.250 C'est un réseau social qui est complètement différent et il y a notamment 442 00:19:22.580 --> 00:19:24.950 quelque chose qui s'est tenu avec François-Xavier Fauvelle il y a quelques mois qui a bien 443 00:19:25.150 --> 00:19:25.910 marché. 444 00:19:26.110 --> 00:19:29.270 Et je trouve que c'est aussi des initiatives intéressantes et ça pose 445 00:19:29.470 --> 00:19:30.650 la question de la 446 00:19:30.850 --> 00:19:34.880 force renouvelée aussi à s'exprimer sur d'autres 447 00:19:35.080 --> 00:19:35.840 plateformes. 448 00:19:36.040 --> 00:19:38.980 Donc, on verra la forme que ça prendra dans les mois à venir. 449 00:19:39.180 --> 00:19:40.440 - Ce sont des choses très, très bien. 450 00:19:40.640 --> 00:19:44.180 Et c'est vrai que Twitter est par définition vraiment le réseau le 451 00:19:44.380 --> 00:19:47.810 plus horizontal. Sur YouTube ou même sur Instagram, 452 00:19:48.010 --> 00:19:50.420 quelque part, vous avez une différence aussi entre la personne qui poste 453 00:19:50.620 --> 00:19:53.410 un message, un contenu et les commentaires de ce contenu. Sur Twitter, 454 00:19:53.610 --> 00:19:54.370 c'est tout pareil. 455 00:19:54.570 --> 00:19:56.540 Que vous commentiez quelque chose ou que vous postiez 456 00:19:56.740 --> 00:19:57.650 un message, ça a la même forme. 457 00:19:58.160 --> 00:20:02.150 Ça crée encore plus une horizontalité qui en fait un réseau social qui 458 00:20:02.350 --> 00:20:03.860 est vraiment à ce niveau-là, un peu problématique. 459 00:20:04.340 --> 00:20:07.820 Et c'est vrai que sur d'autres réseaux, on va plus mettre en avant le créateur 460 00:20:08.020 --> 00:20:11.600 du contenu ou du débat ou de la vidéo qui pourra avoir un espace 461 00:20:11.800 --> 00:20:12.560 privilégié. 462 00:20:12.760 --> 00:20:14.170 Et si les gens veulent commenter, ce sera en-dessous, dans un espace séparé. 463 00:20:14.370 --> 00:20:20.660 - Pour finir ce "live", je voulais revenir avec vous sur les perspectives ouvertes 464 00:20:20.860 --> 00:20:24.260 par votre livre ou celles qui ne l'ont pas été, juste pour des raisons 465 00:20:24.980 --> 00:20:28.130 très concrètes, chronologiques. Notamment votre livre, du coup, 466 00:20:28.330 --> 00:20:33.950 vous avez fini de l'écrire cet automne. Et en janvier 2021, 467 00:20:34.150 --> 00:20:39.500 Il y a eu un évènement assez bouleversant puisque pour la première 468 00:20:39.700 --> 00:20:43.490 fois, Twitter a supprimé le compte d'un homme politique, en l'occurrence Donald Trump, 469 00:20:44.210 --> 00:20:47.420 suite à sa défaite comme président des Etats-Unis. 470 00:20:47.750 --> 00:20:49.690 Du coup, je voulais savoir avec vous ce que vous, ça vous inspirait, 471 00:20:49.890 --> 00:20:51.120 comme... ? 472 00:20:51.320 --> 00:20:54.110 - En fait, c'est un concentré de toute la problématique. 473 00:20:54.350 --> 00:20:55.110 C'est d'une part, 474 00:20:55.340 --> 00:20:59.090 comment se fait-il que le président des Etats-Unis ait choisi de s'exprimer 475 00:20:59.290 --> 00:21:02.090 majoritairement via son compte sur une entreprise privée, 476 00:21:02.290 --> 00:21:05.600 sur un réseau social qui reste une entreprise privée ? Ce qui pose déjà 477 00:21:05.800 --> 00:21:06.560 pas mal de questions. 478 00:21:06.760 --> 00:21:08.510 Pourquoi il se sert de ça et pas d'autre chose ? 479 00:21:08.710 --> 00:21:11.270 Est-ce que la parole d'un président, d'un chef d'État doit être avant 480 00:21:11.470 --> 00:21:12.290 tout sur un réseau social ? 481 00:21:12.490 --> 00:21:15.110 Ensuite, ça pose la question, effectivement, de la modération, 482 00:21:15.800 --> 00:21:17.690 du fait que Twitter ait supprimé son compte ou pas. 483 00:21:17.890 --> 00:21:21.760 Moi, j'ai du mal à m'en scandaliser parce que je ne 484 00:21:22.190 --> 00:21:24.790 pense pas que ce soit en soi gravissime. 485 00:21:24.990 --> 00:21:26.120 Après tout, il a choisi d'aller sur Twitter. 486 00:21:26.320 --> 00:21:27.080 Il y a des règles d'utilisation. 487 00:21:27.710 --> 00:21:29.660 La question c'est plus, pourquoi ils l'ont fait à ce moment-là ? 488 00:21:30.860 --> 00:21:31.620 Pourquoi pas 489 00:21:31.820 --> 00:21:33.710 15 jours avant ou trois mois avant, puisque ça faisait 490 00:21:33.910 --> 00:21:37.190 des mois que Donald Trump diffusait des théories conspirationnistes 491 00:21:37.390 --> 00:21:38.150 disant qu'il avait gagné, etc. 492 00:21:38.540 --> 00:21:39.520 et qu'il y avait une manipulation. 493 00:21:39.860 --> 00:21:40.850 Pourquoi avoir choisi ce moment-là ? 494 00:21:41.050 --> 00:21:44.250 Pourquoi avoir censuré aussi des milliers de comptes dans la foulée 495 00:21:44.450 --> 00:21:46.350 qui étaient des comptes qui diffusaient les mêmes théories conspirationnistes ? 496 00:21:46.550 --> 00:21:47.930 Ce qui veut dire qu'ils étaient identifiés, ces comptes. 497 00:21:48.130 --> 00:21:49.400 Ce qui veut dire que Twitter aurait pu agir. 498 00:21:50.060 --> 00:21:52.640 Et en fait, plus largement, ça pose la question de la non-prise 499 00:21:52.840 --> 00:21:53.600 en compte, 500 00:21:53.800 --> 00:21:54.560 par Twitter, 501 00:21:54.760 --> 00:21:56.090 c'est particulièrement vrai pour Twitter, même si c'est aussi le 502 00:21:56.290 --> 00:21:57.050 cas pour Facebook, 503 00:21:57.320 --> 00:22:00.920 du fait que depuis que Internet existe, et même avant, même quand vous 504 00:22:01.120 --> 00:22:03.110 faites un débat avec 30 personnes, vous mettez un modérateur. 505 00:22:03.310 --> 00:22:04.070 C'est normal. 506 00:22:04.270 --> 00:22:07.220 Pour avoir un débat sain et apaisé, il faut des règles de débat et il 507 00:22:07.420 --> 00:22:08.180 faudrait de la modération. 508 00:22:08.540 --> 00:22:10.730 Les réseaux sociaux, quand ils sont apparus au début 509 00:22:10.930 --> 00:22:14.510 des années 2010, ils nous ont vendu le fait qu'ils étaient des espaces 510 00:22:14.710 --> 00:22:17.990 neutres, qu'ils étaient des tuyaux et qu'ils n'avaient pas besoin de 511 00:22:18.190 --> 00:22:18.950 modération, qu'elle se ferait tout seule. 512 00:22:19.150 --> 00:22:22.130 Ce serait le libre marché des idées, ce qui était une bêtise 513 00:22:22.330 --> 00:22:24.080 monumentale mais ce qui économiquement, se justifiait 514 00:22:24.280 --> 00:22:26.540 pour eux parce qu'ils n'avaient pas à assumer du coup le coût que 515 00:22:26.740 --> 00:22:27.500 ça peut représenter, 516 00:22:27.700 --> 00:22:28.460 une modération. 517 00:22:28.660 --> 00:22:30.440 Sauf qu'à force de pas s'en préoccuper, Twitter aujourd'hui se retrouve 518 00:22:30.640 --> 00:22:32.270 à la tête d'un monstre, effectivement, parce qu'ils ne 519 00:22:32.470 --> 00:22:35.490 peuvent plus le modérer et qu'ils sont un peu démunis. 520 00:22:35.690 --> 00:22:37.730 Donc, je pense que cette décision-là qui a été prise dans le secret d'un 521 00:22:37.930 --> 00:22:41.270 bureau à Los Angeles, elle pose toutes ces questions-là 522 00:22:41.470 --> 00:22:44.120 et elle montre à quel point eux-mêmes, je pense, n'ont plus la maîtrise 523 00:22:44.320 --> 00:22:45.260 de l'outil qu'ils ont créé, en fait. 524 00:22:45.460 --> 00:22:49.850 - Toujours dans cette optique, on introduit la prochaine question. 525 00:22:51.430 --> 00:22:55.010 Ce qu'on voit également depuis quelques mois, c'est le fait que 526 00:22:55.210 --> 00:22:56.870 les GAFAM, Google, Amazon, Facebook, etc. 527 00:22:58.320 --> 00:23:01.730 face à ces critiques, le fait qu'il n'y ait aucune modération sur les réseaux sociaux 528 00:23:01.930 --> 00:23:03.830 pendant très longtemps, tendent à mettre en place des 529 00:23:04.030 --> 00:23:07.480 outils pour modérer les contenus. Il y a des suppressions de compte qui arrivent. 530 00:23:07.940 --> 00:23:09.770 On voit également l'apparition, notamment sur Twitter, 531 00:23:09.970 --> 00:23:14.690 d'un logo "information à vérifier", quelque chose comme ça, lorsque 532 00:23:14.890 --> 00:23:17.570 l'information n'est pas sourcée et est probablement une fausse 533 00:23:17.770 --> 00:23:18.530 information. 534 00:23:18.860 --> 00:23:20.840 Du coup, que pensez-vous de ces outils ? 535 00:23:21.040 --> 00:23:24.220 Est-ce qu'on peut vraiment... Mais vous avez déjà répondu en partie dans la question 536 00:23:24.420 --> 00:23:25.180 précédente. 537 00:23:25.380 --> 00:23:27.440 Mais est-ce que les GAFAM peuvent vraiment être neutres dans cette modération ? 538 00:23:27.640 --> 00:23:30.680 - La question, ce n'est pas tant la neutralité 539 00:23:30.880 --> 00:23:31.640 de la modération. 540 00:23:31.840 --> 00:23:34.610 La neutralité, c'est quelque chose qui est une espèce d'idéal inaccessible 541 00:23:34.810 --> 00:23:36.960 qu'on reproche en permanence aux médias. 542 00:23:37.160 --> 00:23:39.200 Moi j'ai passé dix ans à me faire engueuler parce qu'on n'était pas 543 00:23:39.400 --> 00:23:41.390 neutres parce que un coup, on était trop à gauche, un coup on était trop à droite, 544 00:23:41.590 --> 00:23:42.890 selon celui qui parle. 545 00:23:43.220 --> 00:23:46.430 Le fondateur du"Monde" Hubert Beuve-Méry disait : "l'objectivité 546 00:23:46.630 --> 00:23:48.020 n'existe pas, mais l'honnêteté, ça existe". 547 00:23:48.740 --> 00:23:49.700 La différence est peut-être là. 548 00:23:49.970 --> 00:23:53.420 Je pense que l'on ne pourra jamais être neutre. 549 00:23:53.620 --> 00:23:54.920 Par contre, on peut imposer des choses. 550 00:23:55.160 --> 00:23:56.750 Le problème des réseaux sociaux, c'est qu'effectivement, 551 00:23:56.950 --> 00:24:00.050 se retrouver en position d'arbitre du vrai et du faux, c'est extrêmement 552 00:24:00.250 --> 00:24:01.010 compliqué pour eux. 553 00:24:01.210 --> 00:24:02.810 Il y a des réseaux sociaux comme Facebook qui font appel à des 554 00:24:03.010 --> 00:24:04.490 journalistes pour faire ce travail en partie. 555 00:24:05.780 --> 00:24:07.850 Ça pose des questions parce que ça transforme les journalistes en 556 00:24:08.050 --> 00:24:09.380 sous-traitants des GAFAM. Ca aussi, 557 00:24:09.580 --> 00:24:10.340 est-ce que c'est souhaitable ? 558 00:24:10.610 --> 00:24:11.480 C'est une autre approche. 559 00:24:11.680 --> 00:24:13.700 Après, ce qu'on sait aussi, c'est que les études qui ont été faites, 560 00:24:13.900 --> 00:24:16.580 montrent bien que le problème, encore une fois, c'est que quelqu'un 561 00:24:16.780 --> 00:24:18.050 qui est convaincu que Trump a raison, 562 00:24:18.250 --> 00:24:20.750 vous aurez beau lui mettre tous les messages d'avertissement disant 563 00:24:20.950 --> 00:24:21.710 que ce n'est pas vrai, etc. 564 00:24:21.910 --> 00:24:23.180 Ça ne changera en rien son opinion. 565 00:24:23.790 --> 00:24:24.580 Et le problème est là. 566 00:24:24.860 --> 00:24:28.250 Le problème est que se développe aujourd'hui une espèce de marché 567 00:24:28.450 --> 00:24:31.790 libre de l'information où vous pouvez encore une fois aller trouver un 568 00:24:31.990 --> 00:24:32.750 peu ce que vous voulez. 569 00:24:32.950 --> 00:24:35.920 Et si vous êtes convaincu que la théorie QAnon est réelle, 570 00:24:36.410 --> 00:24:39.560 c'est dévastateur parce qu'en fait, on se retrouve vraiment avec des 571 00:24:39.760 --> 00:24:41.750 mécanismes qui sont quasiment du domaine du sectaire, c'est à dire 572 00:24:41.950 --> 00:24:44.150 que les gens se coupent de leur famille plutôt que de renoncer à 573 00:24:44.350 --> 00:24:45.110 cette croyance. 574 00:24:46.040 --> 00:24:49.700 Et beaucoup, beaucoup de chercheurs, y compris des spécialistes en 575 00:24:49.900 --> 00:24:50.660 psychologie, etc. 576 00:24:50.900 --> 00:24:53.300 en sciences cognitives, sont démunis en disant : mais il faut 577 00:24:53.500 --> 00:24:55.860 vraiment traiter ça comme de l'endoctrinement sectaire et c'est 578 00:24:56.060 --> 00:24:58.010 extrêmement compliqué d'en sortir une fois qu'on est rentré dans le 579 00:24:58.210 --> 00:24:58.970 complot. 580 00:24:59.170 --> 00:25:02.330 Donc face à ça, même avec la meilleure volonté du monde, 581 00:25:02.530 --> 00:25:06.080 ce qu'ils n'ont pas, les GAFAM n'ont pas non plus de solution miracle 582 00:25:06.280 --> 00:25:07.040 à proposer 583 00:25:07.240 --> 00:25:10.460 parce que malheureusement, on n'en a pas. 584 00:25:10.660 --> 00:25:14.930 - C'est vrai que c'est hyper compliqué, vous montrez très bien que 585 00:25:15.230 --> 00:25:18.460 c'est beaucoup de mécanique psychique sur laquelle il est très, 586 00:25:18.660 --> 00:25:20.510 très compliqué d'avoir une quelconque influence 587 00:25:20.930 --> 00:25:24.320 malgré toute la bonne volonté du monde. Je vais quand même finir ce "live" 588 00:25:24.520 --> 00:25:27.290 en essayant d'avoir des perspectives un peu plus positives. 589 00:25:27.490 --> 00:25:33.050 Vous, après dix ans d'utilisation de Twitter et aux vu des évolutions plus récentes de la 590 00:25:33.250 --> 00:25:35.360 plateforme, est-ce qu'il y a des choses que vous avez envie de retenir, 591 00:25:35.630 --> 00:25:39.920 des choses positives ? - Bien sûr. Je ne dis à aucun moment qu'il faut 592 00:25:40.120 --> 00:25:41.410 jeter à la poubelle ce réseau. D'une part moi, 593 00:25:41.610 --> 00:25:43.040 je m'en sers tous les jours comme journaliste, parce que ça 594 00:25:43.240 --> 00:25:45.740 reste un super outil de veille informationnelle, quand on sait s'en 595 00:25:45.940 --> 00:25:46.700 servir. 596 00:25:47.240 --> 00:25:49.580 Et après, je pense qu'il y a des mouvements sociétaux qui ont été 597 00:25:49.780 --> 00:25:51.020 rendus possibles par les réseaux sociaux. 598 00:25:51.220 --> 00:25:51.980 Je pense à #MeToo. 599 00:25:52.180 --> 00:25:54.580 Je pense à tous les mouvements de libération, que ce soit féministes 600 00:25:54.780 --> 00:25:55.540 ou antiracistes. 601 00:25:55.740 --> 00:25:58.490 C'est vrai que ça permet cette multiplication des paroles de montrer 602 00:25:58.690 --> 00:26:01.250 quelque chose. Sur l'inceste récemment, par exemple, 603 00:26:01.450 --> 00:26:04.940 c'était assez spectaculaire de voir des centaines de témoignages fleurir, 604 00:26:05.140 --> 00:26:05.900 etc. 605 00:26:06.100 --> 00:26:09.350 Et ça, c'est des outils qui sont 606 00:26:09.590 --> 00:26:10.670 très performants. 607 00:26:11.330 --> 00:26:13.880 Ils ont pu jouer un rôle assez positif, même si ça ne s'est pas toujours 608 00:26:14.080 --> 00:26:14.840 bien terminé dans les printemps arabes parce 609 00:26:15.300 --> 00:26:17.070 qu'ils permettaient à des gens de s'exprimer. 610 00:26:17.270 --> 00:26:19.500 Depuis, c'est devenu beaucoup plus compliqué et les GAFAM, 611 00:26:19.700 --> 00:26:22.410 là aussi, n'ont pas été très clean, 612 00:26:22.610 --> 00:26:24.620 quand ils vont s'installer en Chine, quand ils vont s'installer 613 00:26:24.820 --> 00:26:25.580 en dictature. 614 00:26:25.780 --> 00:26:28.230 Ils ont tendance à faire des concessions pour obtenir le marché. 615 00:26:29.550 --> 00:26:32.250 Mais c'est vrai que c'est les outils qui permettent énormément de choses 616 00:26:32.450 --> 00:26:33.450 et qui permettent des choses positives aussi. 617 00:26:33.650 --> 00:26:34.540 Il ne s'agit pas de tout jeter. 618 00:26:34.980 --> 00:26:37.650 Il s'agit surtout, je pense, d'apprendre à s'en servir avec 619 00:26:37.850 --> 00:26:40.880 du discernement et d'apprendre à s'en méfier. D'autant plus, 620 00:26:41.080 --> 00:26:42.060 c'est un peu la conclusion de mon livre, 621 00:26:42.300 --> 00:26:44.200 d'autant plus quand on est un journaliste, quand on est un 622 00:26:44.400 --> 00:26:46.560 politique, quand on est un chercheur, quand on est un communicant, 623 00:26:46.760 --> 00:26:48.690 quand on est un professionnel de la parole. 624 00:26:49.440 --> 00:26:52.320 Il ne faut pas tomber dans ces mêmes... les journalistes dont je parlais tout 625 00:26:52.520 --> 00:26:53.280 à l'heure, qui 626 00:26:53.480 --> 00:26:54.720 s'engueulaient avec l'épidémiologue. 627 00:26:54.920 --> 00:26:56.220 C'est typiquement ça, pour moi, 628 00:26:56.420 --> 00:26:57.190 le problème. Eux, 629 00:26:57.390 --> 00:27:00.780 ils devraient savoir plus qu'aucun autre que c'est pas le lieu et que 630 00:27:00.980 --> 00:27:03.480 ce n'est pas à eux... il devraient faire un vrai travail de journaliste. 631 00:27:03.680 --> 00:27:07.310 Donc, ne pas s'engueuler avec une personne comme ça, 632 00:27:07.510 --> 00:27:08.820 à ciel ouvert sur les réseaux. 633 00:27:09.480 --> 00:27:11.880 Mais malheureusement, c'est compliqué et je sais de quoi 634 00:27:12.080 --> 00:27:12.840 je parle. 635 00:27:13.040 --> 00:27:16.110 J'ai été dans leur cas. - OK. Il y a quelques questions, 636 00:27:16.310 --> 00:27:19.000 une question pour l'instant, qu'on a reçue d'un éditeur 637 00:27:19.460 --> 00:27:23.430 qui nous demandait du coup si vous aviez des conseils pour éduquer 638 00:27:23.630 --> 00:27:25.920 les plus jeunes à une utilisation raisonnée des réseaux sociaux. 639 00:27:26.120 --> 00:27:29.370 - En fait, les jeunes, déjà, ne sont pas forcément les 640 00:27:29.570 --> 00:27:32.250 premiers utilisateurs de Twitter pour s'informer. 641 00:27:32.910 --> 00:27:35.760 Ils vont sur d'autres réseaux avec d'autres codes que moi, 642 00:27:35.960 --> 00:27:37.800 J'ai un peu du mal à percevoir parce que je suis un peu trop vieux pour 643 00:27:38.000 --> 00:27:38.760 Tik Tok. 644 00:27:38.960 --> 00:27:41.430 J'ai essayé, mais je vous avoue que j'ai du mal à comprendre. 645 00:27:41.630 --> 00:27:43.620 Après, effectivement, des choses comme Twitch sont 646 00:27:43.820 --> 00:27:44.580 intéressantes. 647 00:27:44.780 --> 00:27:46.230 Ce que je pense aujourd'hui qui est intéressant aussi, il faut voir 648 00:27:46.430 --> 00:27:48.930 le positif dans tout ça, c'est qu'il y a une facilité énorme 649 00:27:49.130 --> 00:27:52.320 pour les jeunes à créer leur média et à s'exprimer et à pouvoir faire 650 00:27:52.520 --> 00:27:53.280 des choses. 651 00:27:53.480 --> 00:27:56.340 Vous avez des adolescents ou des post-adolescents qui font des chaînes 652 00:27:56.540 --> 00:27:58.920 YouTube, qui font des "live" tweet, qui font des choses extrêmement riches, 653 00:27:59.160 --> 00:28:00.960 extrêmement intéressantes, extrêmement créatives. 654 00:28:01.440 --> 00:28:06.600 Ils ont aussi tout un bagage au terme de l'utilisation de la vidéo, 655 00:28:06.800 --> 00:28:09.600 notamment de l'image qui est extrêmement intéressant et extrêmement riche. 656 00:28:09.800 --> 00:28:11.370 Donc, après, qu'est ce qu'il faut faire ? 657 00:28:11.850 --> 00:28:13.540 Je ne suis pas un grand spécialiste de la question. 658 00:28:13.740 --> 00:28:16.980 Je pense qu'il ne faut pas les laisser s'enfermer dans une bulle, 659 00:28:17.460 --> 00:28:18.220 quelle qu'elle soit. 660 00:28:18.420 --> 00:28:19.290 Je pense que le problème est toujours le même. 661 00:28:19.860 --> 00:28:21.900 C'est vrai qu'à l'adolescence, on a tendance à aller s'enfermer 662 00:28:22.100 --> 00:28:22.860 dans des choses. 663 00:28:23.060 --> 00:28:24.150 Donc, je pense qu'une des questions, c'est la confiance. 664 00:28:24.350 --> 00:28:25.110 C'est aussi 665 00:28:25.310 --> 00:28:26.730 qu'on ne peut pas les fliquer et plus vous les fliquez, 666 00:28:26.930 --> 00:28:30.160 plus ils vont aller chercher peut-être de l'interdit ou des choses pas bien. 667 00:28:30.360 --> 00:28:35.310 Donc, il faut arriver à trouver la meilleure manière de discuter 668 00:28:35.510 --> 00:28:38.760 avec eux et essayer de voir un peu et de s'intéresser à ces univers-là sans 669 00:28:38.960 --> 00:28:40.430 forcément les juger ou trouver ça débile. 670 00:28:40.630 --> 00:28:42.270 Même si je vous assure que 671 00:28:42.630 --> 00:28:43.580 Tik Tok, c'est déroutant 672 00:28:43.780 --> 00:28:46.830 la première fois que vous y allez. mais voilà, essayer de comprendre 673 00:28:47.030 --> 00:28:47.790 un peu ce qu'il y a derrière. 674 00:28:49.220 --> 00:28:51.210 Et puis, je pense qu'après, c'est une question d'encore une 675 00:28:51.410 --> 00:28:53.690 fois d'éducation à l'esprit critique, de ne pas faire que ça, 676 00:28:53.890 --> 00:29:01.170 de varier ses sources d'informations et d'apprendre à pondérer, 677 00:29:01.370 --> 00:29:03.870 à modérer, à varier, à diversifier, comme la nourriture. 678 00:29:04.070 --> 00:29:09.360 - Mais effectivement, ce que je retiens, c'est que que les jeunes sont 679 00:29:09.560 --> 00:29:10.380 souvent mieux armés. 680 00:29:10.580 --> 00:29:12.800 Ils ont des structures en tout cas, ils ont les parents, l'école, etc. 681 00:29:13.500 --> 00:29:16.170 Et tout l'enjeu, c'est d'arriver aussi à éduquer les personnes qui 682 00:29:16.370 --> 00:29:18.500 sont sorties du cadre scolaire. 683 00:29:20.620 --> 00:29:21.870 Comment est-ce qu'on les attrape ? 684 00:29:22.080 --> 00:29:25.500 - C'est un vrai problème. 685 00:29:26.700 --> 00:29:28.590 On le voit bien sur les anti-masques et les anti-vaccins, 686 00:29:28.790 --> 00:29:29.550 etc. 687 00:29:30.450 --> 00:29:31.490 autour du covid. 688 00:29:32.040 --> 00:29:35.050 Il y a une dimension un peu 689 00:29:35.250 --> 00:29:36.390 génération libertaire, etc. 690 00:29:37.320 --> 00:29:39.810 Je refuse qu'on m'impose des choses. 691 00:29:40.140 --> 00:29:41.850 C'est beaucoup plus compliqué, effectivement, de convaincre quelqu'un 692 00:29:42.050 --> 00:29:44.880 qui a 70 ans, qui a toute une vie derrière lui et d'arriver à 693 00:29:45.080 --> 00:29:46.470 lui faire comprendre que là, il s'est fait abuser. 694 00:29:47.250 --> 00:29:48.510 Surtout par quels moyens ? 695 00:29:48.710 --> 00:29:50.580 Peut-être que les bibliothèques sont un endroit que ces gens-là 696 00:29:50.780 --> 00:29:53.430 fréquentent et qu'il y a un travail à faire aussi là-dessus avec eux. 697 00:29:55.260 --> 00:29:57.570 Je pense que c'est vrai que c'est une vraie question et que c'est 698 00:29:57.770 --> 00:29:59.190 un vrai défi parce que c'est pas évident. 699 00:29:59.390 --> 00:30:01.560 On les a pas à disposition comme on peut avoir des collégiens et 700 00:30:01.760 --> 00:30:02.520 lycéens à disposition. 701 00:30:02.720 --> 00:30:04.260 Donc, comment les attraper ? 702 00:30:04.460 --> 00:30:05.220 C'est pas facile. 703 00:30:05.420 --> 00:30:07.290 - Oui, c'est clair. Même en famille, ce n'est pas toujours évident de 704 00:30:07.490 --> 00:30:09.210 faire passer ce message-là quand nous-mêmes... 705 00:30:09.410 --> 00:30:14.430 OK, merci Samuel, de votre présence ce soir. 706 00:30:14.630 --> 00:30:18.000 Je rappelle la sortie de votre livre, le 11 février dernier aux "Arènes". 707 00:30:18.660 --> 00:30:21.070 J'ai juste une page, mais voilà la couverture. 708 00:30:24.900 --> 00:30:27.300 "Twitter va t il tuer la démocratie ?" 709 00:30:28.290 --> 00:30:32.340 Merci à tous d'avoir participé à ce "live" avec nous. 710 00:30:32.670 --> 00:30:35.300 On espère que ce sera le premier de nombreux autres. 711 00:30:35.500 --> 00:30:38.160 Sinon, on vous retrouve à la bibliothèque à partir de mercredi. 712 00:30:38.370 --> 00:30:39.130 Merci à tous. Au revoir. - Au revoir.