1 00:00:01,950 --> 00:00:04,500 Muchas gracias. Gracias a quienes se levantaron. 2 00:00:04,510 --> 00:00:06,990 No es necesario, pero me halagan. 3 00:00:07,380 --> 00:00:09,760 Gracias, Jonathan, por tus amables palabras. 4 00:00:10,480 --> 00:00:12,320 Gracias a la Liga Anti-difamación 5 00:00:12,330 --> 00:00:14,510 por este reconocimiento 6 00:00:14,570 --> 00:00:16,818 y por su trabajo luchando contra el racismo, 7 00:00:16,878 --> 00:00:18,470 el odio y el fanatismo. 8 00:00:18,720 --> 00:00:19,950 Y para aclarar, 9 00:00:20,040 --> 00:00:22,320 cuando digo racismo, odio y fanatismo 10 00:00:22,860 --> 00:00:26,210 no estoy hablando de los nombres de los perros de Stephen Miller. 11 00:00:26,600 --> 00:00:28,240 [el público ríe] 12 00:00:30,490 --> 00:00:33,920 Reconozco que algunos de Uds. deben estar pensando: 13 00:00:34,110 --> 00:00:38,130 “¿Qué demonios hace un comediante hablando en esta conferencia?” 14 00:00:39,010 --> 00:00:40,290 Yo me lo pregunto. 15 00:00:40,390 --> 00:00:41,390 [el público ríe] 16 00:00:41,440 --> 00:00:44,640 He pasado la mayor parte de las últimas dos décadas en personaje. 17 00:00:44,760 --> 00:00:49,680 De hecho, esta es la primera vez que me he presentado a dar un discurso 18 00:00:49,750 --> 00:00:53,170 como mi personaje menos popular: Sacha Baron Cohen. 19 00:00:53,280 --> 00:00:55,890 [el público ríe; aplaude] 20 00:00:57,830 --> 00:01:01,320 Y debo confesar que es aterrador. 21 00:01:02,710 --> 00:01:06,830 Entiendo que mi presencia hoy puede ser inesperada por otra razón: 22 00:01:07,560 --> 00:01:10,580 Hay críticos que han dicho que mi comedia 23 00:01:10,730 --> 00:01:14,030 presenta un riesgo de agravar viejos estereotipos. 24 00:01:14,363 --> 00:01:15,421 La verdad es que 25 00:01:15,460 --> 00:01:19,210 he desafiado apasionadamente la intolerancia y el fanatismo 26 00:01:19,230 --> 00:01:20,420 toda mi vida. 27 00:01:20,690 --> 00:01:22,280 Siendo adolescente en Inglaterra, 28 00:01:22,300 --> 00:01:24,636 marché contra el Frente Nacional fascista 29 00:01:24,690 --> 00:01:26,890 y para abolir el apartheid. 30 00:01:27,220 --> 00:01:29,750 Siendo estudiante de pregrado, viaje por EE. UU. 31 00:01:29,770 --> 00:01:30,950 y escribí mi tesis 32 00:01:30,960 --> 00:01:33,090 sobre el movimiento por los derechos humanos. 33 00:01:33,100 --> 00:01:35,360 con la ayuda de los archivos de la ADL; 34 00:01:35,670 --> 00:01:38,707 y como comediante, he intentado usar a mis personajes 35 00:01:38,740 --> 00:01:41,690 para lograr que la gente baje su guardia 36 00:01:41,710 --> 00:01:43,940 y revele lo que realmente cree, 37 00:01:44,080 --> 00:01:45,780 incluyendo su propio prejuicio. 38 00:01:46,250 --> 00:01:48,379 No voy a pretender que todo lo que he hecho 39 00:01:48,430 --> 00:01:50,070 ha servido a un propósito mayor. 40 00:01:50,406 --> 00:01:52,670 Sí, parte de mi comedia – 41 00:01:52,700 --> 00:01:54,390 bien, probablemente la mitad – 42 00:01:54,410 --> 00:01:56,120 ha sido absolutamente infantil. 43 00:01:56,220 --> 00:01:57,350 [el público ríe] 44 00:01:57,470 --> 00:01:59,710 y la otra mitad ha sido completamente inmadura. 45 00:01:59,750 --> 00:02:01,520 Pero… [el público ríe] 46 00:02:01,590 --> 00:02:04,282 admito que no hubo nada particularmente esclarecedor 47 00:02:04,350 --> 00:02:07,060 sobre mi Borat de Kazakhstan, 48 00:02:07,150 --> 00:02:09,180 el primer reportero de noticias falsas, 49 00:02:09,240 --> 00:02:10,390 [el público ríe] 50 00:02:10,460 --> 00:02:12,800 corriendo desnudo en una conferencia 51 00:02:12,860 --> 00:02:14,270 de agentes hipotecarios. 52 00:02:14,320 --> 00:02:15,390 [el público ríe] 53 00:02:15,484 --> 00:02:19,684 Pero cuando Borat logró que todo un bar en Arizona cantara 54 00:02:19,820 --> 00:02:21,720 ♪ Tira al judío al pozo ♪ 55 00:02:21,740 --> 00:02:22,750 [el público ríe] 56 00:02:22,800 --> 00:02:26,930 sí se reveló la indiferencia de la gente ante el antisemitismo. 57 00:02:27,469 --> 00:02:31,300 Cuando, vestido como Bruno, el reportero de moda austríaco gay, 58 00:02:31,500 --> 00:02:34,530 besé a un hombre en una jaula de pelea en Arkansas 59 00:02:35,000 --> 00:02:36,540 y casi se desata un motín, 60 00:02:36,630 --> 00:02:40,440 se reveló el potencial violento de la homofobia. 61 00:02:40,740 --> 00:02:44,020 Y cuando me disfracé de promotor inmobiliario ultra-concientizado, 62 00:02:44,040 --> 00:02:48,010 y propuse construir una mezquita en una comunidad rural, 63 00:02:48,110 --> 00:02:50,880 y un residente admitió orgullosamente: 64 00:02:50,940 --> 00:02:53,650 “Soy racista contra los musulmanes”, 65 00:02:54,030 --> 00:02:57,360 se reveló la creciente aceptación de la islamofobia. 66 00:02:58,090 --> 00:03:01,630 Por eso agradezco tanto la oportunidad de estar aquí con Uds. 67 00:03:01,850 --> 00:03:04,160 Hoy, en todo el mundo, 68 00:03:04,260 --> 00:03:07,170 los demagogos apelan a nuestros peores instintos. 69 00:03:07,430 --> 00:03:10,870 Las teorías de conspiración, que antes se confinaban a la periferia 70 00:03:11,100 --> 00:03:12,400 se están popularizando. 71 00:03:12,700 --> 00:03:17,860 Es como si la era de la razón, la era del argumento evidencial, 72 00:03:17,880 --> 00:03:19,100 estuviese terminando, 73 00:03:19,110 --> 00:03:22,010 y ahora el conocimiento se deslegitimiza cada vez más 74 00:03:22,350 --> 00:03:25,350 y el consenso científico se descarta. 75 00:03:25,650 --> 00:03:29,450 La democracia, que depende de verdades compartidas, 76 00:03:29,520 --> 00:03:30,620 está en retirada, 77 00:03:30,660 --> 00:03:34,430 y la autocracia, que depende de mentiras compartidas, 78 00:03:34,460 --> 00:03:35,690 está en marcha. 79 00:03:36,060 --> 00:03:37,840 Los delitos por odio van en aumento, 80 00:03:38,020 --> 00:03:41,400 al igual que los ataques asesinos a minorías religiosas y étnicas. 81 00:03:41,800 --> 00:03:45,200 ¿Qué tienen en común todas estas peligrosas tendencias? 82 00:03:45,570 --> 00:03:47,250 Solo soy un comediante y un actor; 83 00:03:47,270 --> 00:03:51,040 no soy un estudioso, pero tengo una cosa muy clara: 84 00:03:52,110 --> 00:03:55,410 Todo este odio y violencia está siendo facilitada 85 00:03:55,510 --> 00:03:57,550 por un puñado de compañías de internet 86 00:03:57,920 --> 00:04:01,920 que constituyen la mayor maquinaria de propaganda de la historia. 87 00:04:02,400 --> 00:04:04,310 [el público aplaude] 88 00:04:06,690 --> 00:04:09,290 La mayor maquinaria de propaganda de la historia. 89 00:04:09,310 --> 00:04:11,700 Pensemos en eso. Facebook, YouTube… 90 00:04:11,720 --> 00:04:13,500 ...Google, Twitter y otros 91 00:04:13,630 --> 00:04:15,670 alcanzan a miles de millones de personas. 92 00:04:15,700 --> 00:04:18,440 Los algoritmos de los que dependen estas plataformas 93 00:04:18,800 --> 00:04:20,470 amplifican intencionalmente 94 00:04:20,530 --> 00:04:23,360 el tipo de contenido que mantiene a los usuarios activos; 95 00:04:23,750 --> 00:04:27,080 historias que apelan a nuestros instintos más básicos, 96 00:04:27,270 --> 00:04:29,380 y que provocan indignación y miedo. 97 00:04:29,630 --> 00:04:32,218 Es por esto que YouTube recomendó videos 98 00:04:32,280 --> 00:04:34,586 del conspiracionista Alex Jones 99 00:04:35,136 --> 00:04:37,256 miles de millones de veces. 100 00:04:37,360 --> 00:04:40,550 Es por esto que las noticias falsas superan a las noticias reales, 101 00:04:40,570 --> 00:04:41,972 porque los estudios muestran 102 00:04:42,012 --> 00:04:44,790 que las mentiras se propagan más rápido que la verdad. 103 00:04:44,920 --> 00:04:48,230 Y no sorprende que la mayor maquinaria de propaganda de la historia 104 00:04:48,630 --> 00:04:52,070 haya difundido la teoría de conspiración más antigua de la historia: 105 00:04:52,270 --> 00:04:55,310 la mentira de que los judíos son de peligrosos alguna manera. 106 00:04:56,010 --> 00:04:57,640 Como lo puso un titular: 107 00:04:57,859 --> 00:05:01,329 “Piensen en lo que Goebbels podría haber hecho con Facebook”. 108 00:05:01,480 --> 00:05:02,537 [el público gime] 109 00:05:02,640 --> 00:05:03,640 En internet, 110 00:05:03,960 --> 00:05:07,170 todo puede parecer igualmente legítimo. 111 00:05:07,470 --> 00:05:09,750 Breitbart se parece a la BBC, 112 00:05:10,090 --> 00:05:12,730 los protocolos ficticios de los Sabios de Sion 113 00:05:12,980 --> 00:05:15,630 parecen tan válidos como un reporte de la ADL, 114 00:05:16,040 --> 00:05:18,730 y los desvaríos de un lunático parecen tan creíbles 115 00:05:18,750 --> 00:05:21,370 como los hallazgos de un Premio Nobel. 116 00:05:21,850 --> 00:05:25,770 Parece que hemos perdido la noción compartida de los hechos básicos 117 00:05:26,070 --> 00:05:28,570 de los que depende la democracia. 118 00:05:29,020 --> 00:05:31,810 Cuando, vestido como el imita-ganster Ali G, 119 00:05:31,830 --> 00:05:34,650 le pregunté al astronauta Buzz Aldrin: 120 00:05:34,950 --> 00:05:37,420 “¿Qué tal fue caminar en el sol?” 121 00:05:37,650 --> 00:05:39,560 [el público ríe] 122 00:05:41,650 --> 00:05:46,960 el chiste funcionó porque la audienci compartía los mismos hechos. 123 00:05:47,360 --> 00:05:49,730 Si crees que la llegada a la luna fue un montaje, 124 00:05:49,960 --> 00:05:52,230 el chiste ya no funciona. 125 00:05:52,360 --> 00:05:55,730 Cuando Borat logró que ese bar en Arizona coincidiera en que 126 00:05:56,000 --> 00:06:01,070 ♪ Los judíos controlan el dinero de todos y nunca lo devuelven ♪ 127 00:06:01,945 --> 00:06:05,205 el chiste funcionó porque la audiencia compartía el hecho 128 00:06:05,440 --> 00:06:08,480 de que la representación de los judíos como seres avaros 129 00:06:08,810 --> 00:06:12,580 es una teoría de conspiración originada en la Edad Media. 130 00:06:12,780 --> 00:06:16,890 Pero cuando, gracias a las redes, las conspiraciones se arraigan, 131 00:06:17,060 --> 00:06:19,790 se hace más fácil que los grupos discriminatorio recluten, 132 00:06:19,990 --> 00:06:22,630 que los organismos de inteligencia extranjeros 133 00:06:22,690 --> 00:06:25,100 interfieran en nuestras elecciones, 134 00:06:25,400 --> 00:06:32,370 y que países como Myanmar cometan genocidio contra los rohingya. 135 00:06:33,170 --> 00:06:35,710 [el público aplaude] 136 00:06:38,780 --> 00:06:42,150 Ahora, es verdaderamente impactante la facilidad con la que 137 00:06:42,180 --> 00:06:44,914 los pensamientos conspirativos se convierten en violencia. 138 00:06:44,942 --> 00:06:47,332 En mi programa más reciente, “¿Quién es América?”, 139 00:06:47,350 --> 00:06:50,650 encontré a un chico normal, formado y con un buen trabajo, 140 00:06:50,690 --> 00:06:53,100 pero que repetía en las redes 141 00:06:53,120 --> 00:06:55,790 muchas de las teorías de conspiración 142 00:06:56,060 --> 00:06:58,230 que el presidente Trump, usando Twitter, 143 00:06:58,580 --> 00:07:04,540 ha difundido más de 1 700 veces a sus 67 millones de seguidores. 144 00:07:05,040 --> 00:07:10,440 El presidente incluso tuiteó que estaba pensando denominar a Antifa, 145 00:07:10,580 --> 00:07:13,600 que son antifascistas que marchan contra la extrema derecha, 146 00:07:13,765 --> 00:07:16,165 como una organización terrorista. 147 00:07:16,380 --> 00:07:21,120 Entonces, disfrazado de un experto antiterrorista israelí, 148 00:07:21,390 --> 00:07:23,150 el coronel Erran Morad, 149 00:07:23,170 --> 00:07:24,170 [el público ríe] 150 00:07:25,008 --> 00:07:26,825 [en acento extranjero] “Yalla. ¡Vamos!” 151 00:07:26,887 --> 00:07:28,117 [el público ríe] 152 00:07:28,160 --> 00:07:30,260 Disfrazado de él, le dije a mi entrevistado 153 00:07:30,280 --> 00:07:33,904 que en la marcha de mujeres en San Francisco, Antifa estaba planeando 154 00:07:34,159 --> 00:07:38,232 poner hormonas en los pañales de bebés para... 155 00:07:38,292 --> 00:07:40,452 [en acento extranjero] “hacerlos transgénero”. 156 00:07:40,660 --> 00:07:41,660 [el público ríe] 157 00:07:41,910 --> 00:07:43,480 Y este hombre lo creyó. 158 00:07:43,740 --> 00:07:48,510 Le dije que colocara pequeños dispositivos a tres personas inocentes en la marcha, 159 00:07:48,530 --> 00:07:50,610 y le expliqué que, al presionar un botón, 160 00:07:50,650 --> 00:07:53,350 provocaría una explosión que los mataría a todos. 161 00:07:53,790 --> 00:07:56,940 Por supuesto que no eran reales, pero él pensaba que sí. 162 00:07:57,090 --> 00:08:00,120 Quería ver si realmente lo haría. 163 00:08:00,460 --> 00:08:02,360 La respuesta fue sí. 164 00:08:02,630 --> 00:08:03,758 Presionó el botón 165 00:08:03,820 --> 00:08:06,886 y pensó que realmente había matado a tres seres humanos. 166 00:08:07,370 --> 00:08:10,000 Voltaire tenía razón cuando dijo, 167 00:08:10,100 --> 00:08:13,810 “Aquellos que logran hacer creer cosas absurdas 168 00:08:14,140 --> 00:08:16,510 “pueden hacer que se cometan atrocidades”. 169 00:08:17,580 --> 00:08:20,620 Y las redes sociales permiten a los autoritarios 170 00:08:20,726 --> 00:08:24,246 venderles disparates a miles de millones de personas. 171 00:08:24,570 --> 00:08:25,650 En su defensa, 172 00:08:25,710 --> 00:08:29,850 estas compañías de redes sociales han tomado medidas para reducir el odio 173 00:08:29,890 --> 00:08:32,380 y las conspiraciones en sus plataformas, 174 00:08:32,420 --> 00:08:35,090 pero estas medidas han sido principalmente superficiales. 175 00:08:35,370 --> 00:08:37,130 Y estoy hablando de esto hoy 176 00:08:37,150 --> 00:08:40,230 porque creo que nuestras democracias pluralistas 177 00:08:40,630 --> 00:08:43,860 están al borde del precipicio y que los próximos 12 meses 178 00:08:43,890 --> 00:08:47,310 y el papel de las redes sociales van a ser determinantes. 179 00:08:48,050 --> 00:08:49,910 Los británicos acudirán a las urnas 180 00:08:49,940 --> 00:08:51,940 mientras que conspiracionistas en internet 181 00:08:52,180 --> 00:08:56,250 promueven la odiosa teoría de "el gran reemplazo", 182 00:08:56,310 --> 00:08:59,400 que dice que los cristianos blancos están siendo reemplazados 183 00:08:59,420 --> 00:09:01,420 por inmigrantes musulmanes. 184 00:09:01,750 --> 00:09:04,030 Los estadounidenses elegirán un nuevo presidente 185 00:09:04,120 --> 00:09:08,416 mientras que troles y bots perpetúan la mentira asquerosa 186 00:09:08,568 --> 00:09:11,148 de una invasión hispana. 187 00:09:11,620 --> 00:09:15,530 Y después de años de videos en YouTube llamando al cambio climático “un fraude”, 188 00:09:15,890 --> 00:09:19,360 EE. UU. está en vías de retirarse formalmente 189 00:09:19,800 --> 00:09:23,070 del Acuerdo de París dentro de un año. 190 00:09:23,470 --> 00:09:27,150 Una alcantarilla de fanatismo y de viles teorías de conspiración 191 00:09:27,350 --> 00:09:31,250 que amenazan a nuestra democracia, y en cierta medida, a nuestro planeta. 192 00:09:31,810 --> 00:09:33,070 Esto no puede ser 193 00:09:33,110 --> 00:09:35,530 lo que los creadores del internet tenían en mente. 194 00:09:35,850 --> 00:09:40,660 Creo que es tiempo de reconsiderar a fondo las redes sociales 195 00:09:40,890 --> 00:09:44,460 y la forma en que propagan odio, conspiraciones y mentiras. 196 00:09:44,800 --> 00:09:47,670 [el público vitorea; aplaude] 197 00:09:52,570 --> 00:09:57,640 Sin embargo, el mes pasado Mark Zuckerberg de Facebook 198 00:09:58,040 --> 00:09:59,780 dio un importante discurso 199 00:10:00,110 --> 00:10:04,330 que, como era de esperarse, advertía contra las nuevas leyes y regulaciones 200 00:10:04,360 --> 00:10:05,820 dirigidas a compañías como la suya. 201 00:10:06,180 --> 00:10:09,880 Pues, algunos de estos argumentos sencillamente son… 202 00:10:10,152 --> 00:10:12,190 …si me permiten, estupideces. 203 00:10:12,670 --> 00:10:13,890 Contemos las maneras. 204 00:10:14,060 --> 00:10:17,990 Primero, Zuckerberg intentó presentar todo este asunto como 205 00:10:18,460 --> 00:10:21,070 “elecciones alrededor de la libertad de expresión”. 206 00:10:21,100 --> 00:10:22,670 Eso es una ridiculez. 207 00:10:23,050 --> 00:10:26,570 Esto no es sobre limitar la libertad de expresión. 208 00:10:26,840 --> 00:10:28,360 Es sobre darle a la gente – 209 00:10:28,390 --> 00:10:32,010 incluyendo a algunas de las personas más reprobables en la tierra – 210 00:10:32,280 --> 00:10:35,910 la plataforma más grande de la historia para que alcancen a un tercio del planeta. 211 00:10:36,350 --> 00:10:39,950 La libertad de expresión no es libertad de alcance. 212 00:10:40,460 --> 00:10:42,370 Tristemente, siempre existirán racistas, 213 00:10:42,410 --> 00:10:45,400 misóginos, antisemitas y abusadores de niños, 214 00:10:45,460 --> 00:10:47,460 pero creo que todos coincidimos 215 00:10:47,500 --> 00:10:50,430 en que no deberíamos darle a fanáticos y a pedófilos 216 00:10:50,700 --> 00:10:55,030 una plataforma gratis para que repliquen sus opiniones y acosen a sus víctimas. 217 00:10:55,070 --> 00:10:57,800 [el público aplaude] 218 00:11:00,770 --> 00:11:03,960 Segundo, Mark Zuckerberg aseguró que 219 00:11:03,980 --> 00:11:05,880 establecer nuevos límites para el contenido que se publique en redes 220 00:11:05,910 --> 00:11:09,250 sería “un revés en la libertad de expresión”. 221 00:11:09,610 --> 00:11:11,150 Esto es un total disparate. 222 00:11:11,600 --> 00:11:14,530 La primera enmienda dice, y cito: 223 00:11:14,740 --> 00:11:18,000 “El Congreso no podrá hacer ninguna ley… limitando la libertad de expresión”. 224 00:11:18,240 --> 00:11:22,530 Pero esto no aplica a las empresas privadas como Facebook. 225 00:11:22,930 --> 00:11:26,630 No le estamos pidiendo a estas compañías que determinen los límites de la libertad de expresión 226 00:11:26,860 --> 00:11:28,330 para la sociedad entera; 227 00:11:28,530 --> 00:11:32,300 lo que queremos es que se hagan responsables por sus plataformas. 228 00:11:32,670 --> 00:11:35,670 Si un neonazi entra marchando a un restaurante 229 00:11:36,040 --> 00:11:39,410 y amenaza a otros clientes y dice que quiere matar a judíos, 230 00:11:39,840 --> 00:11:42,450 ¿acaso el dueño del restaurante, una empresa privada, 231 00:11:42,580 --> 00:11:46,760 tiene que ofrecerle un menú de degustación? 232 00:11:47,190 --> 00:11:48,550 ¡Por supuesto que no! 233 00:11:48,690 --> 00:11:51,820 El dueño del restaurante tiene todo el derecho – 234 00:11:52,060 --> 00:11:54,690 y también, diría yo, la obligación moral – 235 00:11:54,890 --> 00:11:56,500 de sacar a patadas a ese nazi. 236 00:11:56,720 --> 00:11:58,560 Lo mismo deberían hacer estas compañías de internet. 237 00:11:58,610 --> 00:12:00,610 [el público aplaude] 238 00:12:04,550 --> 00:12:06,060 Tercero. 239 00:12:06,200 --> 00:12:09,920 Mark Zuckerberg equiparo la regulación de compañías como la suya 240 00:12:10,210 --> 00:12:14,250 con las acciones de “las sociedades más represivas”. 241 00:12:14,710 --> 00:12:15,810 Increíble. 242 00:12:16,100 --> 00:12:20,620 Esto lo dice una de las seis personas que deciden qué información 243 00:12:20,820 --> 00:12:22,990 le llega a la mayoría del mundo: 244 00:12:23,550 --> 00:12:25,590 Zuckerberg en Facebook 245 00:12:25,720 --> 00:12:27,590 Sundar Pichai en Google, 246 00:12:27,760 --> 00:12:31,730 en su casa matriz, Alphabet, Larry Page y Sergey Brin, 247 00:12:32,060 --> 00:12:35,770 en YouTube, la ex-cuñada de Brin, Susan Wojcicki, 248 00:12:35,800 --> 00:12:37,770 y Jack Dorsey en Twitter. 249 00:12:38,300 --> 00:12:40,040 Los Seis de Silicon. 250 00:12:40,640 --> 00:12:43,170 Todos multimillonarios, todos estadounidenses, 251 00:12:43,420 --> 00:12:46,480 que prefieren subir el precio de sus acciones 252 00:12:46,850 --> 00:12:48,750 a proteger la democracia. 253 00:12:49,222 --> 00:12:51,140 [el público aplaude] 254 00:12:53,630 --> 00:12:57,278 Esto es imperialismo ideológico. 255 00:12:57,780 --> 00:13:00,860 Seis individuos no electos en Silicon Valley 256 00:13:01,160 --> 00:13:04,200 imponiendo su visión sobre el resto del mundo, 257 00:13:04,460 --> 00:13:06,660 sin rendir cuentas a ningún gobierno 258 00:13:06,740 --> 00:13:09,970 y comportándose como si estuviesen por encima de la ley. 259 00:13:10,000 --> 00:13:12,300 Es como si viviésemos en el Imperio Romano 260 00:13:12,330 --> 00:13:14,340 y Mark Zuckerberg es el César. 261 00:13:14,880 --> 00:13:16,940 Al menos eso explicaría su peinado. 262 00:13:17,220 --> 00:13:18,629 [el público ríe] 263 00:13:19,460 --> 00:13:21,380 Aquí les va una idea. 264 00:13:22,380 --> 00:13:26,180 En lugar de dejar que los Seis de Silicon decidan el futuro del mundo, 265 00:13:26,680 --> 00:13:29,290 dejen que nuestros representantes electos, 266 00:13:29,650 --> 00:13:33,860 por quienes la gente votó en todas las democracias del mundo, 267 00:13:34,030 --> 00:13:35,660 al menos tengan voz en el asunto. 268 00:13:36,590 --> 00:13:39,230 Cuarto, Zuckerberg habla de abrir las puertas 269 00:13:39,330 --> 00:13:41,630 “a una diversidad de ideas” 270 00:13:42,070 --> 00:13:44,190 y el año pasado nos dio un ejemplo. 271 00:13:44,250 --> 00:13:47,910 Dijo que para él las publicaciones que negaban el Holocausto 272 00:13:47,970 --> 00:13:49,410 eran “profundamente ofensivas”, 273 00:13:49,610 --> 00:13:52,080 pero que él no pensaba que Facebook debía retirarlas 274 00:13:52,340 --> 00:13:56,580 “porque creo que hay cosas en las que diferentes personas se equivocan”. 275 00:13:56,980 --> 00:14:02,120 En este mismo momento, todavía hay negadores del Holocausto en Facebook, 276 00:14:02,220 --> 00:14:04,100 y Google todavía te lleva 277 00:14:04,130 --> 00:14:07,830 a las páginas más repulsivas de negación del Holocausto 278 00:14:07,960 --> 00:14:09,390 con un solo click. 279 00:14:09,650 --> 00:14:14,530 Uno de los jefes de Google me dijo que estas páginas solo mostraban 280 00:14:14,870 --> 00:14:16,670 “las dos caras” del asunto. 281 00:14:16,700 --> 00:14:17,670 [el público gime] 282 00:14:17,740 --> 00:14:19,000 Esto es una locura. 283 00:14:19,100 --> 00:14:21,402 En palabras de Edward R. Murrow: 284 00:14:21,460 --> 00:14:24,640 Uno “no puede aceptar que hay, en cada historia 285 00:14:24,750 --> 00:14:28,280 “dos partes iguales y lógicas de un argumento”. 286 00:14:28,310 --> 00:14:31,606 Desafortunadamente, tenemos millones de piezas de evidencia 287 00:14:31,646 --> 00:14:32,661 del Holocausto. 288 00:14:32,720 --> 00:14:35,720 Es un hecho histórico. 289 00:14:35,850 --> 00:14:38,760 Y negarlo no es una opinión cualquiera. 290 00:14:38,920 --> 00:14:43,460 Aquellos que niegan el holocausto pretenden alentar otro. 291 00:14:44,230 --> 00:14:46,500 [el público aplaude] 292 00:14:50,670 --> 00:14:55,370 Aún así, Zuckerberg dice que “la gente debería decidir qué es creíble y qué no, 293 00:14:55,420 --> 00:14:57,040 “no las compañías tecnológicas”. 294 00:14:57,250 --> 00:14:59,760 Pero cuando dos tercios de los millennials 295 00:14:59,790 --> 00:15:02,560 admiten no haber oído nunca nada acerca de Auschwitz, 296 00:15:02,600 --> 00:15:05,390 ¿cómo van a saber qué es creíble o no? 297 00:15:05,813 --> 00:15:10,660 ¿Cómo se supone qué sepan que la mentira es una mentira? 298 00:15:10,920 --> 00:15:13,560 Sí existe tal cosa como la verdad objetiva. 299 00:15:13,820 --> 00:15:16,290 Los hechos sí existen. 300 00:15:16,570 --> 00:15:19,920 Y si estas compañías realmente quieren hacer una diferencia 301 00:15:20,180 --> 00:15:23,940 deberían contratar suficientes monitores para que realmente monitoreen, 302 00:15:24,230 --> 00:15:28,340 trabajar codo a codo con grupos como el ADL y el NAACP, 303 00:15:28,670 --> 00:15:34,810 insistir en los hechos, y purgar estas mentiras y conspiraciones de sus plataformas. 304 00:15:35,210 --> 00:15:37,380 [el público aplaude] 305 00:15:40,480 --> 00:15:44,810 Ahora, quinto, al momento de discutir la difícil tarea de retirar contenido, 306 00:15:44,860 --> 00:15:45,960 Zuckerberg… 307 00:15:46,610 --> 00:15:50,130 Mark Zuckerberg preguntó, “¿dónde se establece el límite?” 308 00:15:50,600 --> 00:15:54,570 Sí, establecer un límite puede ser difícil, 309 00:15:55,040 --> 00:15:56,800 pero esto es lo que realmente está diciendo: 310 00:15:56,920 --> 00:15:59,700 eliminar estas mentiras y conspiraciones 311 00:15:59,870 --> 00:16:01,640 sencillamente es demasiado costoso. 312 00:16:01,980 --> 00:16:05,040 Estas son las compañías más ricas del mundo, 313 00:16:05,240 --> 00:16:07,450 y tienen los mejores ingenieros del mundo. 314 00:16:07,720 --> 00:16:10,680 Podrían resolver estos problemas si así lo quisieran. 315 00:16:10,850 --> 00:16:14,090 Twitter podría utilizar un algoritmo 316 00:16:14,260 --> 00:16:17,020 para eliminar más discurso supremacista de odio, 317 00:16:17,220 --> 00:16:19,270 pero presuntamente no lo han hecho 318 00:16:19,650 --> 00:16:23,260 porque eso expulsaría a unos políticos muy prominentes 319 00:16:23,330 --> 00:16:24,430 de su plataforma. 320 00:16:24,450 --> 00:16:25,600 [el público gime] 321 00:16:25,650 --> 00:16:27,870 Quizás eso no sería algo tan malo. 322 00:16:28,400 --> 00:16:30,330 [el público aplaude; vitorea] 323 00:16:35,540 --> 00:16:37,060 La verdad es que 324 00:16:37,560 --> 00:16:39,940 estas compañías no van a cambiar intrínsecamente 325 00:16:39,960 --> 00:16:42,250 por que su modelo empresarial 326 00:16:42,610 --> 00:16:45,720 depende de generar más participación, 327 00:16:45,880 --> 00:16:48,320 y nada genera más participación 328 00:16:48,330 --> 00:16:50,760 que las mentiras, el miedo y la indignación. 329 00:16:51,040 --> 00:16:53,250 Así que es hora de llamar a estas compañías 330 00:16:53,270 --> 00:16:57,260 por lo que son: las editoriales más grandes de la historia. 331 00:16:57,470 --> 00:16:58,960 Y aquí una idea para ellas: 332 00:16:59,230 --> 00:17:02,130 acaten las normas y prácticas básicas, 333 00:17:02,470 --> 00:17:06,700 igual que hacen los periódicos, revistas y canales de noticias todos los días. 334 00:17:07,340 --> 00:17:10,840 En la televisión y en el cine tenemos normas y prácticas básicas. 335 00:17:11,140 --> 00:17:14,080 Hay ciertas cosas que no se pueden decir o hacer. 336 00:17:14,420 --> 00:17:16,160 En Inglaterra, se me dijo que Ali G 337 00:17:16,450 --> 00:17:19,420 no podía usar palabrotas si aparecía antes de las 9 PM. 338 00:17:20,080 --> 00:17:23,920 Aquí en EE. UU., la Asociación Cinematográfica de América 339 00:17:24,290 --> 00:17:26,320 regula y califica lo que vemos. 340 00:17:26,560 --> 00:17:31,060 He cortado y reducido escenas en mis películas para cumplir con esas normas. 341 00:17:31,500 --> 00:17:36,440 Si existen normas y prácticas para lo que se puede mostrar en el cine y la TV, 342 00:17:36,480 --> 00:17:39,710 entonces las compañías que publican material 343 00:17:39,732 --> 00:17:40,940 a miles de millones de personas 344 00:17:40,970 --> 00:17:43,710 también deberían acatar y normas y prácticas básicas. 345 00:17:43,810 --> 00:17:45,270 [el público aplaude] 346 00:17:49,880 --> 00:17:53,150 Consideremos el tema de los anuncios políticos, 347 00:17:54,050 --> 00:17:55,850 sobre el que Facebook ha sido muy firme. 348 00:17:56,090 --> 00:17:58,920 Afortunadamente, Twitter los prohibió, 349 00:17:59,033 --> 00:18:02,290 y Google, recién leí hoy, también está haciendo cambios. 350 00:18:02,649 --> 00:18:04,460 Pero, si les pagas, 351 00:18:04,770 --> 00:18:08,730 Facebook publicará 352 00:18:09,070 --> 00:18:10,300 cualquier anuncio político que quieras, 353 00:18:10,599 --> 00:18:15,170 E incluso te ayudaran a micro-focalizar los anuncios 354 00:18:15,220 --> 00:18:16,910 para máxima eficacia. 355 00:18:17,380 --> 00:18:19,526 Bajo está lógica perversa, 356 00:18:19,770 --> 00:18:22,820 si Facebook hubiese existido en los años 30 357 00:18:22,850 --> 00:18:26,080 le hubiese permitido a Hitler publicar anuncios de 30 segundos 358 00:18:26,090 --> 00:18:28,750 promoviendo su solución al “problema judío”. 359 00:18:29,460 --> 00:18:31,950 Aquí les propongo unas normas y prácticas: 360 00:18:32,462 --> 00:18:38,650 Facebook, empiecen a corroborar estos anuncios políticos antes de publicarlos, 361 00:18:39,120 --> 00:18:42,510 acaben con las mentiras personalizadas de inmediato, 362 00:18:42,870 --> 00:18:44,420 y cuando los anuncios sean falsos, 363 00:18:44,500 --> 00:18:46,910 devuelvan el dinero y no los publiquen. 364 00:18:47,710 --> 00:18:49,740 [el público aplaude] 365 00:18:55,380 --> 00:18:57,120 Aquí les doy otra recomendación: 366 00:18:57,261 --> 00:18:59,191 Cálmense. 367 00:18:59,679 --> 00:19:03,550 No tienen que publicar cada post individual inmediatamente. 368 00:19:03,920 --> 00:19:06,560 Oscar Wilde dijo una vez: “Vivimos en una era 369 00:19:06,660 --> 00:19:11,030 “donde las cosas innecesarias son nuestra única necesidad”. 370 00:19:11,495 --> 00:19:12,495 Pero… 371 00:19:13,260 --> 00:19:15,690 Pero yo les pregunto, ¿de verdad es necesario 372 00:19:15,720 --> 00:19:18,570 que cada pensamiento o video esté en línea instantáneamente 373 00:19:18,710 --> 00:19:21,310 sin importar si es racista o criminal o asesino? 374 00:19:23,940 --> 00:19:24,960 ¡Por supuesto que no! 375 00:19:25,432 --> 00:19:28,680 El tirador que masacró a musulmanes en Nueva Zelanda 376 00:19:28,910 --> 00:19:31,880 emitió en directo su ataque usando Facebook 377 00:19:31,950 --> 00:19:34,110 que luego se extendió por todo el internet 378 00:19:34,200 --> 00:19:36,950 y fue visto probablemente millones de veces. 379 00:19:37,160 --> 00:19:41,630 Fue una película snuff, cortesía de las redes sociales. 380 00:19:42,260 --> 00:19:44,300 ¿Por qué no existe un retraso 381 00:19:44,560 --> 00:19:47,200 para que esta basura traumática 382 00:19:47,430 --> 00:19:51,670 pueda atraparse y detenerse antes de que se publique? 383 00:19:51,840 --> 00:19:54,870 [el público aplaude] 384 00:19:56,788 --> 00:20:00,980 Finalmente, Zuckerberg dijo que las compañías de redes sociales deberían 385 00:20:01,480 --> 00:20:04,150 “asumir sus responsabilidades”, 386 00:20:04,380 --> 00:20:08,920 pero no dice nada sobre lo que debería pasar cuando no lo hacen. 387 00:20:09,410 --> 00:20:11,660 A este punto, está bastante claro 388 00:20:11,720 --> 00:20:15,190 que no se puede confiar en que se regulen a sí mismas. 389 00:20:15,660 --> 00:20:18,930 Al igual que con la Revolución Industrial es hora de imponer 390 00:20:19,200 --> 00:20:24,370 normas y leyes para frenar la avaricia de estos bandidos de alta tecnología. 391 00:20:24,670 --> 00:20:26,670 [el público aplaude] 392 00:20:29,670 --> 00:20:32,060 En cualquier otra industria, 393 00:20:32,100 --> 00:20:36,040 a una compañía se le exige responsabilidad cuando su producto es defectuoso. 394 00:20:36,310 --> 00:20:39,720 Cuando un motor explota o los cinturones de seguridad funcionan mal, 395 00:20:39,980 --> 00:20:43,950 las compañías automotrices retiran decenas de miles de vehículos 396 00:20:44,290 --> 00:20:46,320 a un costo de miles de millones de dólares. 397 00:20:46,680 --> 00:20:50,090 Parece más que justo decirle a Facebook, YouTube y Twitter: 398 00:20:50,530 --> 00:20:52,860 Su producto es defectuoso, 399 00:20:53,080 --> 00:20:55,130 están obligados a arreglarlo, 400 00:20:55,370 --> 00:20:57,340 sin importar cuánto cueste 401 00:20:57,408 --> 00:21:00,990 y sin importar cuántos moderadores necesite emplear”. 402 00:21:01,940 --> 00:21:05,380 [el público vitorea; aplaude] 403 00:21:08,480 --> 00:21:10,810 En cualquier otra– perdonen 404 00:21:10,830 --> 00:21:15,190 En cualquier otra industria puedes ser demandado por el daño que causes. 405 00:21:15,450 --> 00:21:19,790 Se puede demandar a las editoriales por difamación, y a las personas también. 406 00:21:20,070 --> 00:21:22,630 ¡A mí me han demandado muchas veces! 407 00:21:22,680 --> 00:21:23,620 [el público ríe] 408 00:21:23,700 --> 00:21:25,860 Ahora mismo me está demandando. 409 00:21:26,700 --> 00:21:30,870 Alguien cuyo nombre no mencionaré ¡porque podría demandarme otra vez! 410 00:21:30,930 --> 00:21:31,940 [el público ríe] 411 00:21:31,970 --> 00:21:36,800 Pero las compañías de redes sociales están protegidas de estas demandas 412 00:21:36,810 --> 00:21:38,610 por contenido que publiquen sus usuarios – 413 00:21:38,810 --> 00:21:40,980 sin importar qué tan indecente sea – 414 00:21:41,260 --> 00:21:43,510 por la Sección 230 de, y prepárense, 415 00:21:43,820 --> 00:21:46,680 La Ley de Decencia en las Comunicaciones 416 00:21:47,260 --> 00:21:48,390 ¡Es absurdo! 417 00:21:48,652 --> 00:21:53,690 Por suerte, las compañías de internet ya pueden ser consideradas responsables por los pedófilos 418 00:21:53,700 --> 00:21:56,670 ue usan sus páginas para encontrar a niños. 419 00:21:56,830 --> 00:21:57,730 Entonces les digo, 420 00:21:57,880 --> 00:21:59,500 hagamos responsables a estas compañías 421 00:21:59,760 --> 00:22:02,730 por quienes usan sus páginas 422 00:22:02,910 --> 00:22:05,970 para promover el asesinato colectivo de niños 423 00:22:06,170 --> 00:22:08,140 por su raza o su religión. 424 00:22:08,810 --> 00:22:10,481 [el público aplaude] 425 00:22:14,640 --> 00:22:17,350 Y tal vez las multas no son suficiente. 426 00:22:17,770 --> 00:22:23,920 Tal vez es hora de decirle a Mark Zuckerberg y a los directores de estas compañías 427 00:22:24,411 --> 00:22:27,510 que ya dejaron que una potencia extranjera 428 00:22:27,520 --> 00:22:29,390 interfiriera en nuestras elecciones. 429 00:22:29,660 --> 00:22:34,000 Ya facilitaron un genocidio en Myanmar. 430 00:22:34,130 --> 00:22:36,630 Si lo vuelven a hacer irán a la cárcel. 431 00:22:36,720 --> 00:22:38,460 [el público aplaude] 432 00:22:43,440 --> 00:22:47,750 Al final, todo se reduce a qué clase de mundo que queremos. 433 00:22:48,590 --> 00:22:52,650 En su discurso, Zuckerberg dijo que una de sus metas 434 00:22:52,950 --> 00:22:58,160 era la de “defender la libertad de expresión en su definición más amplia”. 435 00:22:58,570 --> 00:22:59,660 Suena bien. 436 00:23:00,230 --> 00:23:04,330 Pero nuestras libertades no son un fin en sí mismas. 437 00:23:04,400 --> 00:23:06,760 También son un medio para otro fin – 438 00:23:06,960 --> 00:23:08,930 como dicen aquí en EE. UU: 439 00:23:09,110 --> 00:23:13,240 el derecho a la vida, la libertad y la búsqueda de la felicidad. 440 00:23:13,470 --> 00:23:18,610 Pero hoy estos derechos se ven amenazados por el odio, las conspiraciones y las mentiras. 441 00:23:18,920 --> 00:23:24,480 Así que permítanme dejarlos con una sugerencia para un objetivo diferente para la sociedad: 442 00:23:24,980 --> 00:23:26,840 El objetivo final de la sociedad\ 443 00:23:27,140 --> 00:23:30,790 debería ser el de asegurar que la nadie sea atacado 444 00:23:30,940 --> 00:23:33,820 o acosado o asesinado 445 00:23:33,894 --> 00:23:36,800 por ser quien es, el lugar del que viene, 446 00:23:36,860 --> 00:23:39,200 amar a quien ama o a quién le reza. 447 00:23:39,860 --> 00:23:42,470 [el público vitorea; aplaude] 448 00:23:54,830 --> 00:23:57,600 Si hacemos de este nuestro objetivo — 449 00:23:57,690 --> 00:24:00,180 si damos prioridad a la verdad sobre las mentiras, 450 00:24:00,480 --> 00:24:02,390 a la tolerancia sobre el prejuicio, 451 00:24:02,650 --> 00:24:04,760 a la empatía sobre la indiferencia, 452 00:24:04,900 --> 00:24:07,830 y a los expertos sobre los ignorantes – 453 00:24:07,980 --> 00:24:08,990 [el público ríe] 454 00:24:09,130 --> 00:24:11,330 entonces quizás, solo quizás, 455 00:24:11,590 --> 00:24:15,570 logremos detener a la mayor maquinaria de propaganda de la historia. 456 00:24:16,069 --> 00:24:17,928 Podemos salvar la democracia, 457 00:24:17,988 --> 00:24:22,470 todavía tener cabida para la libertad de expresión, 458 00:24:22,730 --> 00:24:26,540 y, lo más importante, mis chistes seguirán funcionando. 459 00:24:26,880 --> 00:24:28,080 Muchas gracias. 460 00:24:28,280 --> 00:24:31,180 [vítores y aplausos]