1 00:00:01,950 --> 00:00:04,500 Muchas gracias. Gracias a quienes se levantaron. 2 00:00:04,510 --> 00:00:06,990 No es necesario, pero me halagan. 3 00:00:07,380 --> 00:00:09,760 Gracias, Jonathan, por tus amables palabras. 4 00:00:10,480 --> 00:00:12,320 Gracias a la Liga Anti-difamación 5 00:00:12,330 --> 00:00:14,510 por este reconocimiento 6 00:00:14,570 --> 00:00:16,818 y por su trabajo luchando contra el racismo, 7 00:00:16,878 --> 00:00:18,470 el odio y el fanatismo. 8 00:00:18,720 --> 00:00:19,950 Y para aclarar, 9 00:00:20,040 --> 00:00:22,320 cuando digo racismo, odio y fanatismo 10 00:00:22,860 --> 00:00:26,210 no estoy hablando de los nombres de los perros de Stephen Miller. 11 00:00:26,600 --> 00:00:28,240 [el público ríe] 12 00:00:30,490 --> 00:00:33,920 Reconozco que algunos de Uds. deben estar pensando: 13 00:00:34,110 --> 00:00:38,130 “¿Qué demonios hace un comediante hablando en esta conferencia?” 14 00:00:39,010 --> 00:00:40,290 Yo me lo pregunto. 15 00:00:40,390 --> 00:00:41,390 [el público ríe] 16 00:00:41,440 --> 00:00:44,640 He pasado la mayor parte de las últimas dos décadas en personaje. 17 00:00:44,760 --> 00:00:49,680 De hecho, esta es la primera vez que me he presentado a dar un discurso 18 00:00:49,750 --> 00:00:53,170 como mi personaje menos popular: Sacha Baron Cohen. 19 00:00:53,280 --> 00:00:55,890 [el público ríe; aplaude] 20 00:00:57,830 --> 00:01:01,320 Y debo confesar que es aterrador. 21 00:01:02,710 --> 00:01:06,830 Entiendo que mi presencia hoy puede ser inesperada por otra razón: 22 00:01:07,560 --> 00:01:10,580 Hay críticos que han dicho que mi comedia 23 00:01:10,730 --> 00:01:14,030 presenta un riesgo de agravar viejos estereotipos. 24 00:01:14,363 --> 00:01:15,421 La verdad es que 25 00:01:15,460 --> 00:01:19,210 he desafiado apasionadamente la intolerancia y el fanatismo 26 00:01:19,230 --> 00:01:20,420 toda mi vida. 27 00:01:20,690 --> 00:01:22,280 Siendo adolescente en Inglaterra, 28 00:01:22,300 --> 00:01:24,636 marché contra el Frente Nacional fascista 29 00:01:24,690 --> 00:01:26,890 y para abolir el apartheid. 30 00:01:27,220 --> 00:01:29,750 Siendo estudiante de pregrado, viaje por EE. UU. 31 00:01:29,770 --> 00:01:30,950 y escribí mi tesis 32 00:01:30,960 --> 00:01:33,090 sobre el movimiento por los derechos humanos. 33 00:01:33,100 --> 00:01:35,360 con la ayuda de los archivos de la ADL; 34 00:01:35,670 --> 00:01:38,707 y como comediante, he intentado usar a mis personajes 35 00:01:38,740 --> 00:01:41,690 para lograr que la gente baje su guardia 36 00:01:41,710 --> 00:01:43,940 y revele lo que realmente cree, 37 00:01:44,080 --> 00:01:45,780 incluyendo su propio prejuicio. 38 00:01:46,250 --> 00:01:48,379 No voy a pretender que todo lo que he hecho 39 00:01:48,430 --> 00:01:50,070 ha servido a un propósito mayor. 40 00:01:50,406 --> 00:01:52,670 Sí, parte de mi comedia – 41 00:01:52,700 --> 00:01:54,390 bien, probablemente la mitad – 42 00:01:54,410 --> 00:01:56,120 ha sido absolutamente infantil. 43 00:01:56,220 --> 00:01:57,350 [el público ríe] 44 00:01:57,470 --> 00:01:59,710 y la otra mitad ha sido completamente inmadura. 45 00:01:59,750 --> 00:02:01,520 Pero… [el público ríe] 46 00:02:01,590 --> 00:02:04,282 admito que no hubo nada particularmente esclarecedor 47 00:02:04,350 --> 00:02:07,060 sobre mi Borat de Kazakhstan, 48 00:02:07,150 --> 00:02:09,180 el primer reportero de noticias falsas, 49 00:02:09,240 --> 00:02:10,390 [el público ríe] 50 00:02:10,460 --> 00:02:12,800 corriendo desnudo en una conferencia 51 00:02:12,860 --> 00:02:14,270 de agentes hipotecarios. 52 00:02:14,320 --> 00:02:15,390 [el público ríe] 53 00:02:15,484 --> 00:02:19,684 Pero cuando Borat logró que todo un bar en Arizona cantara 54 00:02:19,820 --> 00:02:21,720 ♪ Tira al judío al pozo ♪ 55 00:02:21,740 --> 00:02:22,750 [el público ríe] 56 00:02:22,800 --> 00:02:26,930 sí se reveló la indiferencia de la gente ante el antisemitismo. 57 00:02:27,469 --> 00:02:31,300 Cuando, vestido como Bruno, el reportero de moda austríaco gay, 58 00:02:31,500 --> 00:02:34,530 besé a un hombre en una jaula de pelea en Arkansas 59 00:02:35,000 --> 00:02:36,540 y casi se desata un motín, 60 00:02:36,630 --> 00:02:40,440 se reveló el potencial violento de la homofobia. 61 00:02:40,740 --> 00:02:44,020 Y cuando me disfracé de promotor inmobiliario ultra-concientizado, 62 00:02:44,040 --> 00:02:48,010 y propuse construir una mezquita en una comunidad rural, 63 00:02:48,110 --> 00:02:50,880 y un residente admitió orgullosamente: 64 00:02:50,940 --> 00:02:53,650 “Soy racista contra los musulmanes”, 65 00:02:54,030 --> 00:02:57,360 se reveló la creciente aceptación de la islamofobia. 66 00:02:58,090 --> 00:03:01,630 Por eso agradezco tanto la oportunidad de estar aquí con Uds. 67 00:03:01,850 --> 00:03:04,160 Hoy, en todo el mundo, 68 00:03:04,260 --> 00:03:07,170 los demagogos apelan a nuestros peores instintos. 69 00:03:07,430 --> 00:03:10,870 Las teorías de conspiración, que antes se confinaban a la periferia 70 00:03:11,100 --> 00:03:12,400 se están popularizando. 71 00:03:12,700 --> 00:03:17,860 Es como si la era de la razón, la era del argumento evidencial, 72 00:03:17,880 --> 00:03:19,100 estuviese terminando, 73 00:03:19,110 --> 00:03:22,010 y ahora el conocimiento se deslegitimiza cada vez más 74 00:03:22,350 --> 00:03:25,350 y el consenso científico se descarta. 75 00:03:25,650 --> 00:03:29,450 La democracia, que depende de verdades compartidas, 76 00:03:29,520 --> 00:03:30,620 está en retirada, 77 00:03:30,660 --> 00:03:34,430 y la autocracia, que depende de mentiras compartidas, 78 00:03:34,460 --> 00:03:35,690 está en marcha. 79 00:03:36,060 --> 00:03:37,840 Los delitos por odio van en aumento, 80 00:03:38,020 --> 00:03:41,400 al igual que los ataques asesinos a minorías religiosas y étnicas. 81 00:03:41,800 --> 00:03:45,200 ¿Qué tienen en común todas estas peligrosas tendencias? 82 00:03:45,570 --> 00:03:47,250 Solo soy un comediante y un actor; 83 00:03:47,270 --> 00:03:51,040 no soy un estudioso, pero tengo una cosa muy clara: 84 00:03:52,110 --> 00:03:55,410 Todo este odio y violencia está siendo facilitada 85 00:03:55,510 --> 00:03:57,550 por un puñado de compañías de internet 86 00:03:57,920 --> 00:04:01,920 que constituyen la mayor maquinaria de propaganda de la historia. 87 00:04:02,400 --> 00:04:04,310 [el público aplaude] 88 00:04:06,690 --> 00:04:09,290 La mayor maquinaria de propaganda de la historia. 89 00:04:09,310 --> 00:04:11,700 Pensemos en eso. Facebook, YouTube… 90 00:04:11,720 --> 00:04:13,500 ...Google, Twitter y otros 91 00:04:13,630 --> 00:04:15,670 alcanzan a miles de millones de personas. 92 00:04:15,700 --> 00:04:18,440 Los algoritmos de los que dependen estas plataformas 93 00:04:18,800 --> 00:04:20,470 amplifican intencionalmente 94 00:04:20,530 --> 00:04:23,360 el tipo de contenido que mantiene a los usuarios activos; 95 00:04:23,750 --> 00:04:27,080 historias que apelan a nuestros instintos más básicos, 96 00:04:27,270 --> 00:04:29,380 y que provocan indignación y miedo. 97 00:04:29,630 --> 00:04:32,218 Es por esto que YouTube recomendó videos 98 00:04:32,280 --> 00:04:34,586 del conspiracionista Alex Jones 99 00:04:35,136 --> 00:04:37,256 miles de millones de veces. 100 00:04:37,360 --> 00:04:40,550 Es por esto que las noticias falsas superan a las noticias reales, 101 00:04:40,570 --> 00:04:41,972 porque los estudios muestran 102 00:04:42,012 --> 00:04:44,790 que las mentiras se propagan más rápido que la verdad. 103 00:04:44,920 --> 00:04:48,230 Y no sorprende que la mayor maquinaria de propaganda de la historia 104 00:04:48,630 --> 00:04:52,070 haya difundido la teoría de conspiración más antigua de la historia: 105 00:04:52,270 --> 00:04:55,310 la mentira de que los judíos son de peligrosos alguna manera. 106 00:04:56,010 --> 00:04:57,640 Como lo puso un titular: 107 00:04:57,859 --> 00:05:01,329 “Piensen en lo que Goebbels podría haber hecho con Facebook”. 108 00:05:01,480 --> 00:05:02,537 [el público gime] 109 00:05:02,640 --> 00:05:03,640 En internet, 110 00:05:03,960 --> 00:05:07,170 todo puede parecer igualmente legítimo. 111 00:05:07,470 --> 00:05:09,750 Breitbart se parece a la BBC, 112 00:05:10,090 --> 00:05:12,730 los protocolos ficticios de los Sabios de Sion 113 00:05:12,980 --> 00:05:15,630 parecen tan válidos como un reporte de la ADL, 114 00:05:16,040 --> 00:05:18,730 y los desvaríos de un lunático parecen tan creíbles 115 00:05:18,750 --> 00:05:21,370 como los hallazgos de un Premio Nobel. 116 00:05:21,850 --> 00:05:25,770 Parece que hemos perdido la noción compartida de los hechos básicos 117 00:05:26,070 --> 00:05:28,570 de los que depende la democracia. 118 00:05:29,020 --> 00:05:31,810 Cuando, vestido como el imita-ganster Ali G, 119 00:05:31,830 --> 00:05:34,650 le pregunté al astronauta Buzz Aldrin: 120 00:05:34,950 --> 00:05:37,420 “¿Qué tal fue caminar en el sol?” 121 00:05:37,650 --> 00:05:39,560 [el público ríe] 122 00:05:41,650 --> 00:05:46,960 el chiste funcionó porque la audienci compartía los mismos hechos. 123 00:05:47,360 --> 00:05:49,730 Si crees que la llegada a la luna fue un montaje, 124 00:05:49,960 --> 00:05:52,230 el chiste ya no funciona. 125 00:05:52,360 --> 00:05:55,730 Cuando Borat logró que ese bar en Arizona coincidiera en que 126 00:05:56,000 --> 00:06:01,070 ♪ Los judíos controlan el dinero de todos y nunca lo devuelven ♪ 127 00:06:01,945 --> 00:06:05,205 el chiste funcionó porque la audiencia compartía el hecho 128 00:06:05,440 --> 00:06:08,480 de que la representación de los judíos como seres avaros 129 00:06:08,810 --> 00:06:12,580 es una teoría de conspiración originada en la Edad Media. 130 00:06:12,780 --> 00:06:16,890 Pero cuando, gracias a las redes, las conspiraciones se arraigan, 131 00:06:17,060 --> 00:06:19,790 se hace más fácil que los grupos discriminatorio recluten, 132 00:06:19,990 --> 00:06:22,630 que los organismos de inteligencia extranjeros 133 00:06:22,690 --> 00:06:25,100 interfieran en nuestras elecciones, 134 00:06:25,400 --> 00:06:32,370 y que países como Myanmar cometan genocidio contra los rohinyá. 135 00:06:33,170 --> 00:06:35,710 [el público aplaude] 136 00:06:38,780 --> 00:06:42,150 Ahora, es verdaderamente impactante la facilidad con la que 137 00:06:42,180 --> 00:06:44,914 los pensamientos conspirativos se convierten en violencia. 138 00:06:44,942 --> 00:06:47,332 En mi programa más reciente, “¿Quién es América?”, 139 00:06:47,350 --> 00:06:50,650 encontré a un chico normal, formado y con un buen trabajo, 140 00:06:50,690 --> 00:06:53,100 pero que repetía en las redes 141 00:06:53,120 --> 00:06:55,790 muchas de las teorías de conspiración 142 00:06:56,060 --> 00:06:58,230 que el presidente Trump, usando Twitter, 143 00:06:58,580 --> 00:07:04,540 ha difundido más de 1 700 veces a sus 67 millones de seguidores. 144 00:07:05,040 --> 00:07:10,440 El presidente incluso tuiteó que estaba pensando denominar a Antifa, 145 00:07:10,580 --> 00:07:13,600 que son antifascistas que marchan contra la extrema derecha, 146 00:07:13,765 --> 00:07:16,165 como una organización terrorista. 147 00:07:16,380 --> 00:07:21,120 Entonces, disfrazado de un experto antiterrorista israelí, 148 00:07:21,390 --> 00:07:23,150 el coronel Erran Morad, 149 00:07:23,170 --> 00:07:24,170 [el público ríe] 150 00:07:25,008 --> 00:07:26,825 [en acento extranjero] “Yalla. ¡Vamos!” 151 00:07:26,887 --> 00:07:28,117 [el público ríe] 152 00:07:28,160 --> 00:07:30,260 Disfrazado de él, le dije a mi entrevistado 153 00:07:30,280 --> 00:07:33,904 que en la marcha de mujeres en San Francisco, Antifa estaba planeando 154 00:07:34,159 --> 00:07:38,232 poner hormonas en los pañales de bebés para... 155 00:07:38,292 --> 00:07:40,452 [en acento extranjero] “hacerlos transgénero”. 156 00:07:40,660 --> 00:07:41,660 [el público ríe] 157 00:07:41,910 --> 00:07:43,480 Y este hombre lo creyó. 158 00:07:43,740 --> 00:07:48,510 Le dije que colocara pequeños dispositivos a tres personas inocentes en la marcha, 159 00:07:48,530 --> 00:07:50,610 y le expliqué que, al presionar un botón, 160 00:07:50,650 --> 00:07:53,350 provocaría una explosión que los mataría a todos. 161 00:07:53,790 --> 00:07:56,940 Por supuesto que no eran reales, pero él pensaba que sí. 162 00:07:57,090 --> 00:08:00,120 Quería ver si realmente lo haría. 163 00:08:00,460 --> 00:08:02,360 La respuesta fue sí. 164 00:08:02,630 --> 00:08:03,758 Presionó el botón 165 00:08:03,820 --> 00:08:06,886 y pensó que realmente había matado a tres seres humanos. 166 00:08:07,370 --> 00:08:10,000 Voltaire tenía razón cuando dijo, 167 00:08:10,100 --> 00:08:13,810 “Aquellos que logran hacer creer cosas absurdas 168 00:08:14,140 --> 00:08:16,510 “pueden hacer que se cometan atrocidades”. 169 00:08:17,580 --> 00:08:20,620 Y las redes sociales permiten a los autoritarios 170 00:08:20,726 --> 00:08:24,246 venderles disparates a miles de millones de personas. 171 00:08:24,570 --> 00:08:25,650 En su defensa, 172 00:08:25,710 --> 00:08:29,850 estas compañías de redes sociales han tomado medidas para reducir el odio 173 00:08:29,890 --> 00:08:32,380 y las conspiraciones en sus plataformas, 174 00:08:32,420 --> 00:08:35,090 pero estas medidas han sido principalmente superficiales. 175 00:08:35,370 --> 00:08:37,130 Y estoy hablando de esto hoy 176 00:08:37,150 --> 00:08:40,230 porque creo que nuestras democracias pluralistas 177 00:08:40,630 --> 00:08:43,860 están al borde del precipicio y que los próximos 12 meses 178 00:08:43,890 --> 00:08:47,310 y el papel de las redes sociales van a ser determinantes. 179 00:08:48,050 --> 00:08:49,910 Los británicos acudirán a las urnas 180 00:08:49,940 --> 00:08:51,940 mientras que conspiracionistas en internet 181 00:08:52,180 --> 00:08:56,250 promueven la odiosa teoría de "el gran reemplazo", 182 00:08:56,310 --> 00:08:59,400 que dice que los cristianos blancos están siendo reemplazados 183 00:08:59,420 --> 00:09:01,420 por inmigrantes musulmanes. 184 00:09:01,750 --> 00:09:04,030 Los estadounidenses elegirán un nuevo presidente 185 00:09:04,120 --> 00:09:08,416 mientras que troles y bots perpetúan la mentira asquerosa 186 00:09:08,568 --> 00:09:11,148 de una invasión hispana. 187 00:09:11,620 --> 00:09:15,530 Y después de años de videos en YouTube llamando al cambio climático “un fraude”, 188 00:09:15,890 --> 00:09:19,360 EE. UU. está en vías de retirarse formalmente 189 00:09:19,800 --> 00:09:23,070 del Acuerdo de París dentro de un año. 190 00:09:23,470 --> 00:09:27,150 Una alcantarilla de fanatismo y de viles teorías de conspiración 191 00:09:27,350 --> 00:09:31,250 que amenazan a nuestra democracia, y en cierta medida, a nuestro planeta. 192 00:09:31,810 --> 00:09:33,070 Esto no puede ser 193 00:09:33,110 --> 00:09:35,530 lo que los creadores del internet tenían en mente. 194 00:09:35,850 --> 00:09:40,660 Creo que es tiempo de reconsiderar a fondo las redes sociales 195 00:09:40,890 --> 00:09:44,460 y la forma en que propagan odio, conspiraciones y mentiras. 196 00:09:44,800 --> 00:09:47,670 [el público vitorea; aplaude] 197 00:09:52,570 --> 00:09:57,640 Sin embargo, el mes pasado Mark Zuckerberg de Facebook 198 00:09:58,040 --> 00:09:59,780 dio un importante discurso 199 00:10:00,060 --> 00:10:01,438 que, como era de esperarse, 200 00:10:01,464 --> 00:10:04,269 advertía en contra de nuevas leyes y regulaciones 201 00:10:04,360 --> 00:10:06,080 dirigidas a compañías como la suya. 202 00:10:06,180 --> 00:10:09,292 Pues, algunos de estos argumentos sencillamente son… 203 00:10:10,075 --> 00:10:12,190 …si me permiten, estupideces. 204 00:10:12,670 --> 00:10:13,890 Contemos las maneras. 205 00:10:14,060 --> 00:10:17,990 Primero, Zuckerberg intentó presentar todo este asunto como 206 00:10:18,460 --> 00:10:21,070 “elecciones alrededor de la libertad de expresión”. 207 00:10:21,100 --> 00:10:22,670 Eso es una ridiculez. 208 00:10:23,050 --> 00:10:26,570 Esto no es sobre limitar la libertad de expresión. 209 00:10:26,840 --> 00:10:28,360 Es sobre darle a la gente, 210 00:10:28,390 --> 00:10:32,010 incluyendo a algunas de las personas más reprobables en la tierra, 211 00:10:32,200 --> 00:10:36,056 la plataforma más grande de la historia para que alcancen a un tercio del planeta. 212 00:10:36,350 --> 00:10:39,950 La libertad de expresión no es libertad de alcance. 213 00:10:40,460 --> 00:10:42,370 Tristemente, siempre existirán racistas, 214 00:10:42,410 --> 00:10:45,400 misóginos, antisemitas y abusadores de niños, 215 00:10:45,460 --> 00:10:47,460 pero creo que todos coincidimos 216 00:10:47,500 --> 00:10:50,430 en que no deberíamos darle a fanáticos y a pedófilos 217 00:10:50,700 --> 00:10:53,310 una plataforma gratis para que repliquen sus opiniones 218 00:10:53,387 --> 00:10:54,990 y acosen a sus víctimas. 219 00:10:55,070 --> 00:10:57,800 [el público aplaude] 220 00:11:00,770 --> 00:11:03,278 Segundo, Mark Zuckerberg afirmó que 221 00:11:03,300 --> 00:11:06,000 establecer nuevos límites para las publicaciones en redes 222 00:11:06,026 --> 00:11:09,250 sería “un revés en la libertad de expresión”. 223 00:11:09,610 --> 00:11:11,150 Esto es un total disparate. 224 00:11:11,600 --> 00:11:14,530 La primera enmienda dice, y cito: 225 00:11:14,580 --> 00:11:18,207 “El Congreso no podrá hacer ninguna ley… limitando la libertad de expresión”. 226 00:11:18,331 --> 00:11:22,530 Pero esto no aplica a empresas privadas como Facebook. 227 00:11:22,880 --> 00:11:24,790 No le estamos pidiendo a estas compañías 228 00:11:24,820 --> 00:11:26,850 que delimiten de la libertad de expresión 229 00:11:26,870 --> 00:11:28,330 para la sociedad entera; 230 00:11:28,530 --> 00:11:32,300 solo queremos que sean responsables con sus plataformas. 231 00:11:32,670 --> 00:11:35,670 Si un neonazi entra marchando a un restaurante 232 00:11:36,040 --> 00:11:39,410 y amenaza a otros clientes y dice que quiere matar a judíos, 233 00:11:39,698 --> 00:11:42,450 ¿acaso el dueño del restaurante, una empresa privada, 234 00:11:42,580 --> 00:11:46,760 tiene que ofrecerle un menú de degustación? 235 00:11:47,190 --> 00:11:48,550 ¡Por supuesto que no! 236 00:11:48,690 --> 00:11:51,820 El dueño del restaurante tiene todo el derecho, 237 00:11:52,060 --> 00:11:54,690 y también, diría yo, la obligación moral, 238 00:11:54,890 --> 00:11:56,500 de sacar a patadas a ese nazi. 239 00:11:56,540 --> 00:11:58,674 Lo mismo deberían hacer estas compañías. 240 00:11:59,070 --> 00:12:01,070 [el público aplaude] 241 00:12:04,550 --> 00:12:06,060 Tercero. 242 00:12:06,200 --> 00:12:09,920 Mark Zuckerberg equiparo la regulación de compañías como la suya 243 00:12:10,210 --> 00:12:14,250 con las acciones de “las sociedades más represivas”. 244 00:12:14,710 --> 00:12:15,810 Increíble. 245 00:12:16,100 --> 00:12:20,620 Esto lo dice una de las seis personas que deciden qué información 246 00:12:20,820 --> 00:12:22,990 le llega a la mayoría del mundo: 247 00:12:23,550 --> 00:12:25,590 Zuckerberg en Facebook, 248 00:12:25,720 --> 00:12:27,590 Sundar Pichai en Google, 249 00:12:27,760 --> 00:12:31,730 en su casa matriz, Alphabet, Larry Page y Sergey Brin, 250 00:12:32,060 --> 00:12:35,770 la ex-cuñada de Brin, Susan Wojcicki, en YouTube 251 00:12:35,800 --> 00:12:37,770 y Jack Dorsey en Twitter. 252 00:12:38,300 --> 00:12:39,755 Los Seis de Silicon. 253 00:12:40,640 --> 00:12:43,170 Todos multimillonarios, todos estadounidenses, 254 00:12:43,420 --> 00:12:46,480 que prefieren subir el precio de sus acciones 255 00:12:46,850 --> 00:12:48,750 a proteger la democracia. 256 00:12:49,445 --> 00:12:51,363 [el público aplaude] 257 00:12:53,630 --> 00:12:57,278 Esto es imperialismo ideológico. 258 00:12:57,670 --> 00:13:00,860 Seis individuos no electos en Silicon Valley 259 00:13:01,160 --> 00:13:04,200 imponiendo su visión sobre el resto del mundo, 260 00:13:04,460 --> 00:13:06,660 sin rendir cuentas a ningún gobierno 261 00:13:06,740 --> 00:13:09,970 y comportándose como si estuviesen por encima de la ley. 262 00:13:10,000 --> 00:13:12,300 Es como si viviésemos en el Imperio Romano 263 00:13:12,330 --> 00:13:14,340 y Mark Zuckerberg es el César. 264 00:13:14,880 --> 00:13:16,940 Al menos eso explicaría su peinado. 265 00:13:17,220 --> 00:13:18,629 [el público ríe] 266 00:13:19,460 --> 00:13:21,380 Aquí les va una idea. 267 00:13:22,380 --> 00:13:26,180 En lugar de dejar que los Seis de Silicon decidan el futuro del mundo, 268 00:13:26,680 --> 00:13:29,290 dejen que nuestros representantes electos, 269 00:13:29,650 --> 00:13:33,860 por quienes la gente votó en todas las democracias del mundo, 270 00:13:34,030 --> 00:13:35,660 al menos tengan voz en el asunto. 271 00:13:36,590 --> 00:13:39,230 Cuarto, Zuckerberg habla de abrir las puertas 272 00:13:39,330 --> 00:13:41,630 “a una diversidad de ideas” 273 00:13:41,787 --> 00:13:43,690 y el año pasado nos dio un ejemplo. 274 00:13:44,250 --> 00:13:47,910 Dijo que para él, las publicaciones que negaban el Holocausto 275 00:13:47,970 --> 00:13:49,576 eran “profundamente ofensivas”, 276 00:13:49,610 --> 00:13:52,080 pero que él no pensaba que Facebook debía retirarlas 277 00:13:52,340 --> 00:13:56,580 “porque creo que hay cosas en las que diferentes personas se equivocan”. 278 00:13:56,980 --> 00:14:02,120 En este mismo momento, todavía hay negadores del Holocausto en Facebook, 279 00:14:02,220 --> 00:14:04,100 y Google todavía te lleva 280 00:14:04,130 --> 00:14:07,830 a las páginas más repulsivas de negación del Holocausto 281 00:14:07,960 --> 00:14:09,390 con un solo click. 282 00:14:09,650 --> 00:14:14,530 Uno de los jefes de Google me dijo que estas páginas solo mostraban 283 00:14:14,870 --> 00:14:16,670 “las dos caras” del asunto. 284 00:14:16,700 --> 00:14:17,670 [el público gime] 285 00:14:17,740 --> 00:14:19,000 Esto es una locura. 286 00:14:19,100 --> 00:14:21,402 En palabras de Edward R. Murrow: 287 00:14:21,460 --> 00:14:24,640 Uno “no puede aceptar que hay, en cada historia 288 00:14:24,750 --> 00:14:28,280 “dos partes iguales y lógicas de un argumento”. 289 00:14:28,310 --> 00:14:31,606 Desafortunadamente, tenemos millones de piezas de evidencia 290 00:14:31,646 --> 00:14:32,661 del Holocausto. 291 00:14:32,720 --> 00:14:35,720 Es un hecho histórico. 292 00:14:35,850 --> 00:14:38,760 Y negarlo no es una opinión cualquiera. 293 00:14:38,920 --> 00:14:43,460 Aquellos que niegan el holocausto pretenden alentar otro. 294 00:14:44,230 --> 00:14:46,500 [el público aplaude] 295 00:14:50,670 --> 00:14:52,756 Aún así, Zuckerberg dice que 296 00:14:52,830 --> 00:14:55,380 “la gente debería decidir qué es creíble y qué no, 297 00:14:55,420 --> 00:14:57,040 “no las compañías tecnológicas”. 298 00:14:57,250 --> 00:14:59,760 Pero cuando dos tercios de los millennials 299 00:14:59,790 --> 00:15:02,326 admiten no haber oído nunca acerca de Auschwitz, 300 00:15:02,600 --> 00:15:05,390 ¿cómo van a saber qué es creíble o no? 301 00:15:05,813 --> 00:15:10,660 ¿Cómo se supone qué sepan que la mentira es una mentira? 302 00:15:10,920 --> 00:15:13,560 Sí existe tal cosa como la verdad objetiva. 303 00:15:13,820 --> 00:15:16,290 Los hechos sí existen. 304 00:15:16,464 --> 00:15:19,792 Y si estas compañías realmente quieren hacer una diferencia 305 00:15:20,437 --> 00:15:23,940 deberían contratar suficientes monitores para que realmente monitoreen, 306 00:15:24,230 --> 00:15:28,340 trabajar codo a codo con grupos como el ADL y el NAACP, 307 00:15:28,560 --> 00:15:30,239 insistir en los hechos, 308 00:15:30,300 --> 00:15:34,647 y purgar estas mentiras y conspiraciones de sus plataformas. 309 00:15:35,210 --> 00:15:37,380 [el público aplaude] 310 00:15:40,480 --> 00:15:44,810 Ahora, quinto, al momento de discutir la difícil tarea de retirar contenido, 311 00:15:44,860 --> 00:15:45,960 Zuckerberg… 312 00:15:46,610 --> 00:15:50,130 Mark Zuckerberg preguntó, “¿dónde se establece el límite?” 313 00:15:50,600 --> 00:15:54,005 Sí, establecer un límite puede ser difícil, 314 00:15:54,780 --> 00:15:56,870 pero esto es lo que realmente está diciendo: 315 00:15:56,920 --> 00:15:59,700 eliminar estas mentiras y conspiraciones 316 00:15:59,870 --> 00:16:01,640 sencillamente es demasiado costoso. 317 00:16:01,980 --> 00:16:05,040 Estas son las compañías más ricas del mundo, 318 00:16:05,240 --> 00:16:07,450 y tienen los mejores ingenieros del mundo. 319 00:16:07,720 --> 00:16:10,331 Podrían resolver estos problemas si así lo quisieran. 320 00:16:10,850 --> 00:16:14,090 Twitter podría implantar un algoritmo 321 00:16:14,260 --> 00:16:17,020 para eliminar más discurso supremacista de odio, 322 00:16:17,220 --> 00:16:19,270 pero presuntamente no lo han hecho 323 00:16:19,650 --> 00:16:23,260 porque eso expulsaría a unos políticos muy prominentes 324 00:16:23,330 --> 00:16:24,430 de su plataforma. 325 00:16:24,450 --> 00:16:25,600 [el público gime] 326 00:16:25,650 --> 00:16:27,870 Quizás eso no sería algo tan malo. 327 00:16:28,400 --> 00:16:30,330 [el público aplaude; vitorea] 328 00:16:35,540 --> 00:16:37,060 La verdad es que 329 00:16:37,560 --> 00:16:39,940 estas compañías no van a cambiar intrínsecamente 330 00:16:39,960 --> 00:16:42,250 por que su modelo empresarial 331 00:16:42,610 --> 00:16:45,720 depende de generar más participación, 332 00:16:45,880 --> 00:16:48,320 y nada genera más participación 333 00:16:48,330 --> 00:16:50,760 que las mentiras, el miedo y la indignación. 334 00:16:51,040 --> 00:16:53,132 Así que es hora de llamar a estas compañías 335 00:16:53,152 --> 00:16:54,430 por su verdadero nombre: 336 00:16:54,490 --> 00:16:57,170 las editoriales más grandes de la historia. 337 00:16:57,470 --> 00:16:58,960 Y aquí una idea para ellas: 338 00:16:59,230 --> 00:17:02,130 acaten las normas y prácticas básicas, 339 00:17:02,470 --> 00:17:06,700 igual que hacen los periódicos, revistas y canales de noticias todos los días. 340 00:17:07,340 --> 00:17:10,840 En la televisión y en el cine tenemos normas y prácticas básicas. 341 00:17:11,140 --> 00:17:14,080 Hay ciertas cosas que no se pueden decir o hacer. 342 00:17:14,420 --> 00:17:16,160 En Inglaterra, se me dijo que Ali G 343 00:17:16,450 --> 00:17:19,420 no podía usar palabrotas si aparecía antes de las 9 PM. 344 00:17:20,000 --> 00:17:23,920 Aquí en EE. UU., la Asociación Cinematográfica de América 345 00:17:24,129 --> 00:17:26,320 regula y califica lo que vemos. 346 00:17:26,560 --> 00:17:29,185 He cortado y reducido escenas en mis películas 347 00:17:29,215 --> 00:17:31,120 para cumplir con esas normas. 348 00:17:31,458 --> 00:17:36,409 Si existen normas y prácticas para el contenido en el cine y la TV, 349 00:17:36,480 --> 00:17:40,830 las compañías que publican contenido para billones de personas 350 00:17:40,956 --> 00:17:43,710 también deberían acatar normas y prácticas básicas. 351 00:17:44,370 --> 00:17:45,830 [el público aplaude] 352 00:17:49,880 --> 00:17:53,150 Consideremos el tema de los anuncios políticos, 353 00:17:54,050 --> 00:17:56,023 sobre el que Facebook ha sido muy firme. 354 00:17:56,090 --> 00:17:58,920 Afortunadamente, Twitter finalmente los prohibió, 355 00:17:59,033 --> 00:18:02,290 y Google, recién leí hoy, también está haciendo cambios. 356 00:18:02,649 --> 00:18:04,460 Pero, si les pagas, 357 00:18:04,770 --> 00:18:08,658 Facebook publicará cualquier anuncio político que quieras, 358 00:18:08,838 --> 00:18:10,295 incluso si es falso. 359 00:18:10,599 --> 00:18:15,170 E incluso te ayudarán a micro-focalizar los anuncios 360 00:18:15,220 --> 00:18:16,910 para máxima eficacia. 361 00:18:17,380 --> 00:18:19,526 Bajo está lógica perversa, 362 00:18:19,770 --> 00:18:22,820 si Facebook hubiese existido en los años 30 363 00:18:22,850 --> 00:18:26,080 le hubiese permitido a Hitler publicar anuncios de 30 segundos 364 00:18:26,090 --> 00:18:28,750 promoviendo su solución al “problema judío”. 365 00:18:29,460 --> 00:18:31,950 Aquí les propongo unas normas y prácticas: 366 00:18:32,462 --> 00:18:33,641 Facebook, 367 00:18:34,629 --> 00:18:37,232 empiecen a corroborar los anuncios políticos 368 00:18:37,276 --> 00:18:38,860 antes de publicarlos, 369 00:18:39,120 --> 00:18:42,510 acaben con las mentiras personalizadas inmediatamente, 370 00:18:42,870 --> 00:18:44,420 y si los anuncios sean falsos, 371 00:18:44,500 --> 00:18:46,910 devuelvan el dinero y no los publiquen. 372 00:18:47,710 --> 00:18:49,740 [el público aplaude] 373 00:18:55,210 --> 00:18:57,120 Aquí les doy otra recomendación: 374 00:18:57,261 --> 00:18:59,191 Cálmense. 375 00:18:59,679 --> 00:19:03,550 No tienen que publicar cada post individual inmediatamente. 376 00:19:03,920 --> 00:19:06,560 Oscar Wilde dijo una vez: “Vivimos en una era 377 00:19:06,660 --> 00:19:11,030 “donde las cosas innecesarias son nuestra única necesidad”. 378 00:19:11,495 --> 00:19:12,495 Pero… 379 00:19:13,260 --> 00:19:15,690 Pero yo les pregunto, ¿de verdad es necesario 380 00:19:15,720 --> 00:19:18,373 que cada pensamiento o video – 381 00:19:18,710 --> 00:19:21,310 sin importar si es racista o criminal o asesino – 382 00:19:21,825 --> 00:19:23,485 esté en línea instantáneamente? 383 00:19:23,940 --> 00:19:24,960 ¡Por supuesto que no! 384 00:19:25,432 --> 00:19:28,680 El tirador que masacró a musulmanes en Nueva Zelanda 385 00:19:28,910 --> 00:19:31,880 emitió en directo su ataque usando Facebook 386 00:19:31,950 --> 00:19:34,210 de donde luego se extendió por todo el internet 387 00:19:34,307 --> 00:19:36,950 y fue visto posiblemente millones de veces. 388 00:19:37,160 --> 00:19:41,630 Fue una película snuff, cortesía de las redes sociales. 389 00:19:42,260 --> 00:19:44,300 ¿Por qué no existe un retraso 390 00:19:44,560 --> 00:19:47,200 para que esta basura traumática 391 00:19:47,430 --> 00:19:51,670 pueda atraparse y detenerse antes de que se publique? 392 00:19:51,840 --> 00:19:54,870 [el público aplaude] 393 00:19:56,788 --> 00:20:00,980 Finalmente, Zuckerberg dijo que las compañías de redes sociales deberían 394 00:20:01,480 --> 00:20:04,150 “asumir sus responsabilidades”, 395 00:20:04,380 --> 00:20:08,920 pero no dice nada sobre lo que debería pasar cuando no lo hacen. 396 00:20:09,410 --> 00:20:11,660 A este punto, está bastante claro 397 00:20:11,720 --> 00:20:15,190 que no se puede confiar en que se regulen a sí mismas. 398 00:20:15,660 --> 00:20:20,256 Al igual que con la Revolución Industrial, es hora de imponer normas y leyes 399 00:20:20,330 --> 00:20:24,370 para frenar la avaricia de estos bandidos de alta tecnología. 400 00:20:24,670 --> 00:20:26,670 [el público aplaude] 401 00:20:29,670 --> 00:20:32,060 En cualquier otra industria, 402 00:20:32,100 --> 00:20:36,040 a una compañía se le exige responsabilidad cuando su producto es defectuoso. 403 00:20:36,310 --> 00:20:39,720 Cuando un motor explota o los cinturones de seguridad fallan, 404 00:20:39,980 --> 00:20:43,950 las compañías automotrices retiran decenas de miles de vehículos 405 00:20:44,290 --> 00:20:46,320 a un costo de miles de millones de dólares. 406 00:20:46,680 --> 00:20:50,090 Parece más que justo decirle a Facebook, YouTube y Twitter: 407 00:20:50,530 --> 00:20:52,860 Su producto es defectuoso, 408 00:20:53,080 --> 00:20:55,130 están obligados a arreglarlo, 409 00:20:55,370 --> 00:20:57,340 sin importar cuánto cueste 410 00:20:57,408 --> 00:21:00,990 o cuántos moderadores necesite emplear. 411 00:21:01,940 --> 00:21:05,380 [el público aplaude; vitorea] 412 00:21:08,480 --> 00:21:10,810 En cualquier otra– perdonen 413 00:21:10,830 --> 00:21:12,571 En cualquier otra industria 414 00:21:12,650 --> 00:21:15,235 puedes ser demandado por el daño que causes. 415 00:21:15,346 --> 00:21:19,770 Las personas y las editoriales pueden ser demandadas por difamación. 416 00:21:20,070 --> 00:21:22,630 ¡A mí me han demandado muchas veces! 417 00:21:22,680 --> 00:21:23,620 [el público ríe] 418 00:21:23,700 --> 00:21:25,860 Ahora mismo me está demandando. 419 00:21:26,700 --> 00:21:30,870 Alguien que no mencionaré ¡porque podría demandarme otra vez! 420 00:21:30,930 --> 00:21:31,940 [el público ríe] 421 00:21:31,970 --> 00:21:35,770 Pero las compañías de redes sociales están muy protegidas 422 00:21:35,800 --> 00:21:38,741 de estas demandas por contenido publicado por sus usuarios, 423 00:21:38,810 --> 00:21:40,980 sin importar qué tan indecente sea, 424 00:21:41,153 --> 00:21:43,403 por la Sección 230 de, y prepárense, 425 00:21:43,820 --> 00:21:46,680 la Ley de Decencia en las Comunicaciones. 426 00:21:47,164 --> 00:21:48,294 ¡Es absurdo! 427 00:21:48,652 --> 00:21:50,460 Por suerte, las compañías de internet 428 00:21:50,536 --> 00:21:53,660 ya pueden ser consideradas responsables por los pedófilos 429 00:21:53,700 --> 00:21:56,453 que usan sus páginas para encontrar a niños. 430 00:21:56,710 --> 00:21:57,760 Entonces, yo digo, 431 00:21:57,880 --> 00:22:00,701 que también hagamos responsables a estas compañías 432 00:22:00,764 --> 00:22:02,730 por quienes usan sus páginas 433 00:22:02,910 --> 00:22:05,970 para promover el asesinato colectivo de niños 434 00:22:06,170 --> 00:22:08,140 por su raza o su religión. 435 00:22:08,810 --> 00:22:10,481 [el público aplaude] 436 00:22:14,560 --> 00:22:17,350 Y tal vez las multas no son suficiente. 437 00:22:17,770 --> 00:22:21,691 Tal vez es hora de decirle a Mark Zuckerberg 438 00:22:21,766 --> 00:22:24,121 y a los directores de estas compañías 439 00:22:24,411 --> 00:22:27,510 que ya dejaron que una potencia extranjera 440 00:22:27,520 --> 00:22:29,390 interfiriera en nuestras elecciones, 441 00:22:29,660 --> 00:22:34,000 ya facilitaron un genocidio en Myanmar. 442 00:22:34,130 --> 00:22:36,630 Si lo vuelven a hacer irán a la cárcel. 443 00:22:36,720 --> 00:22:38,460 [el público aplaude] 444 00:22:43,440 --> 00:22:47,750 Al final, todo se reduce a qué clase de mundo que queremos. 445 00:22:48,590 --> 00:22:52,650 En su discurso, Zuckerberg dijo que una de sus metas principales 446 00:22:52,950 --> 00:22:58,160 era “defender la libertad de expresión en su definición más amplia”. 447 00:22:58,570 --> 00:22:59,660 Suena bien. 448 00:23:00,230 --> 00:23:04,330 Pero nuestras libertades no son un fin en sí mismas. 449 00:23:04,400 --> 00:23:06,760 También son un medio para otro fin – 450 00:23:06,960 --> 00:23:08,930 como dicen aquí en EE. UU: 451 00:23:09,110 --> 00:23:13,240 el derecho a la vida, la libertad y la búsqueda de la felicidad. 452 00:23:13,470 --> 00:23:15,663 Pero hoy estos derechos se ven amenazados 453 00:23:15,740 --> 00:23:18,650 por el odio, las conspiraciones y las mentiras. 454 00:23:18,920 --> 00:23:21,759 Así que permítanme dejarlos con una sugerencia 455 00:23:22,040 --> 00:23:24,640 para un objetivo diferente para la sociedad: 456 00:23:24,980 --> 00:23:26,840 El objetivo final de la sociedad 457 00:23:27,094 --> 00:23:30,790 debería ser asegurar que nadie sea atacado 458 00:23:30,940 --> 00:23:33,820 o acosado o asesinado 459 00:23:33,894 --> 00:23:36,800 por ser quien es, el lugar del que viene, 460 00:23:36,860 --> 00:23:39,200 por amar a quien ama o por rezar a quien le reza. 461 00:23:39,860 --> 00:23:42,470 [el público vitorea; aplaude] 462 00:23:54,795 --> 00:23:57,430 Si hacemos ese nuestro objetivo — 463 00:23:57,533 --> 00:24:00,180 si damos prioridad a la verdad sobre las mentiras, 464 00:24:00,480 --> 00:24:02,390 a la tolerancia sobre el prejuicio, 465 00:24:02,650 --> 00:24:04,760 a la empatía sobre la indiferencia, 466 00:24:04,900 --> 00:24:07,830 y a los expertos sobre los ignorantes, 467 00:24:07,980 --> 00:24:08,990 [el público ríe] 468 00:24:09,130 --> 00:24:11,330 entonces quizás, solo quizás, 469 00:24:11,590 --> 00:24:14,703 podamos detener a la mayor maquinaria de propaganda 470 00:24:14,793 --> 00:24:15,939 de la historia; 471 00:24:16,069 --> 00:24:17,928 quizas podamos salvar la democracia 472 00:24:17,988 --> 00:24:20,635 y seguir teniendo un sitio para el discurso libre 473 00:24:20,938 --> 00:24:22,525 y la libertad de expresión, 474 00:24:22,645 --> 00:24:24,293 y, lo más importante, 475 00:24:24,367 --> 00:24:26,407 mis chistes seguirán funcionando. 476 00:24:26,880 --> 00:24:28,080 Muchas gracias. 477 00:24:28,280 --> 00:24:31,180 [vítores y aplausos]