0:00:01.950,0:00:04.500 Muchas gracias.[br]Gracias a quienes se levantaron. 0:00:04.510,0:00:06.990 No es necesario, pero me halagan. 0:00:07.380,0:00:09.760 Gracias, Jonathan,[br]por tus amables palabras. 0:00:10.480,0:00:12.320 Gracias a la Liga Anti-difamación 0:00:12.330,0:00:14.510 por este reconocimiento 0:00:14.570,0:00:16.818 y por su trabajo [br]luchando contra el racismo, 0:00:16.878,0:00:18.470 el odio y el fanatismo. 0:00:18.720,0:00:19.950 Y para aclarar, 0:00:20.040,0:00:22.320 cuando digo racismo, odio y fanatismo 0:00:22.860,0:00:26.210 no estoy hablando de los nombres[br]de los perros de Stephen Miller. 0:00:26.600,0:00:28.240 [el público ríe] 0:00:30.490,0:00:33.920 Reconozco que algunos de Uds.[br]deben estar pensando: 0:00:34.110,0:00:38.130 “¿Qué demonios hace un comediante[br]hablando en esta conferencia?” 0:00:39.010,0:00:40.290 Yo me lo pregunto. 0:00:40.390,0:00:41.390 [el público ríe] 0:00:41.440,0:00:44.640 He pasado la mayor parte[br]de las últimas dos décadas en personaje. 0:00:44.760,0:00:49.680 De hecho, esta es la primera vez[br]que me he presentado a dar un discurso 0:00:49.750,0:00:53.170 como mi personaje menos popular:[br]Sacha Baron Cohen. 0:00:53.280,0:00:55.890 [el público ríe; aplaude] 0:00:57.830,0:01:01.320 Y debo confesar que es aterrador. 0:01:02.710,0:01:06.830 Entiendo que mi presencia hoy[br]puede ser inesperada por otra razón: 0:01:07.560,0:01:10.580 Hay críticos que han dicho[br]que mi comedia 0:01:10.730,0:01:14.030 presenta un riesgo[br]de agravar viejos estereotipos. 0:01:14.363,0:01:15.421 La verdad es que 0:01:15.460,0:01:19.210 he desafiado apasionadamente[br]la intolerancia y el fanatismo 0:01:19.230,0:01:20.420 toda mi vida. 0:01:20.690,0:01:22.280 Siendo adolescente en Inglaterra, 0:01:22.300,0:01:24.636 marché contra[br]el Frente Nacional fascista 0:01:24.690,0:01:26.890 y para abolir el apartheid. 0:01:27.220,0:01:29.750 Siendo estudiante de pregrado,[br]viaje por EE. UU. 0:01:29.770,0:01:30.950 y escribí mi tesis 0:01:30.960,0:01:33.090 sobre el movimiento[br]por los derechos humanos. 0:01:33.100,0:01:35.360 con la ayuda de los archivos de la ADL; 0:01:35.670,0:01:38.707 y como comediante,[br]he intentado usar a mis personajes 0:01:38.740,0:01:41.690 para lograr que la gente baje su guardia 0:01:41.710,0:01:43.940 y revele lo que realmente cree, 0:01:44.080,0:01:45.780 incluyendo su propio prejuicio. 0:01:46.250,0:01:48.379 No voy a pretender[br]que todo lo que he hecho 0:01:48.430,0:01:50.070 ha servido a un propósito mayor. 0:01:50.406,0:01:52.670 Sí, parte de mi comedia – 0:01:52.700,0:01:54.390 bien, probablemente la mitad – 0:01:54.410,0:01:56.120 ha sido absolutamente infantil. 0:01:56.220,0:01:57.350 [el público ríe] 0:01:57.470,0:01:59.710 y la otra mitad[br]ha sido completamente inmadura. 0:01:59.750,0:02:01.520 Pero…[br][el público ríe] 0:02:01.590,0:02:04.282 admito que no hubo nada[br]particularmente esclarecedor 0:02:04.350,0:02:07.060 sobre mi Borat de Kazakhstan, 0:02:07.150,0:02:09.180 el primer reportero de noticias falsas, 0:02:09.240,0:02:10.390 [el público ríe] 0:02:10.460,0:02:12.800 corriendo desnudo en una conferencia 0:02:12.860,0:02:14.270 de agentes hipotecarios. 0:02:14.320,0:02:15.390 [el público ríe] 0:02:15.484,0:02:19.684 Pero cuando Borat logró[br]que todo un bar en Arizona cantara 0:02:19.820,0:02:21.720 ♪ Tira al judío al pozo ♪ 0:02:21.740,0:02:22.750 [el público ríe] 0:02:22.800,0:02:26.930 sí se reveló la indiferencia de la gente[br]ante el antisemitismo. 0:02:27.469,0:02:31.300 Cuando, vestido como Bruno,[br]el reportero de moda austríaco gay, 0:02:31.500,0:02:34.530 besé a un hombre[br]en una jaula de pelea en Arkansas 0:02:35.000,0:02:36.540 y casi se desata un motín, 0:02:36.630,0:02:40.440 se reveló el potencial violento[br]de la homofobia. 0:02:40.740,0:02:44.020 Y cuando me disfracé de[br]promotor inmobiliario ultra-concientizado, 0:02:44.040,0:02:48.010 y propuse construir una mezquita[br]en una comunidad rural, 0:02:48.110,0:02:50.880 y un residente admitió orgullosamente: 0:02:50.940,0:02:53.650 “Soy racista contra los musulmanes”, 0:02:54.030,0:02:57.360 se reveló la creciente aceptación[br]de la islamofobia. 0:02:58.090,0:03:01.630 Por eso agradezco tanto[br]la oportunidad de estar aquí con Uds. 0:03:01.850,0:03:04.160 Hoy, en todo el mundo, 0:03:04.260,0:03:07.170 los demagogos apelan[br]a nuestros peores instintos. 0:03:07.430,0:03:10.870 Las teorías de conspiración,[br]que antes se confinaban a la periferia 0:03:11.100,0:03:12.400 se están popularizando. 0:03:12.700,0:03:17.860 Es como si la era de la razón,[br]la era del argumento evidencial, 0:03:17.880,0:03:19.100 estuviese terminando, 0:03:19.110,0:03:22.010 y ahora el conocimiento[br]se deslegitimiza cada vez más 0:03:22.350,0:03:25.350 y el consenso científico se descarta. 0:03:25.650,0:03:29.450 La democracia,[br]que depende de verdades compartidas, 0:03:29.520,0:03:30.620 está en retirada, 0:03:30.660,0:03:34.430 y la autocracia,[br]que depende de mentiras compartidas, 0:03:34.460,0:03:35.690 está en marcha. 0:03:36.060,0:03:37.840 Los delitos por odio van en aumento, 0:03:38.020,0:03:41.400 al igual que los ataques asesinos[br]a minorías religiosas y étnicas. 0:03:41.800,0:03:45.200 ¿Qué tienen en común[br]todas estas peligrosas tendencias? 0:03:45.570,0:03:47.250 Solo soy un comediante y un actor; 0:03:47.270,0:03:51.040 no soy un estudioso,[br]pero tengo una cosa muy clara: 0:03:52.110,0:03:55.410 Todo este odio y violencia[br]está siendo facilitada 0:03:55.510,0:03:57.550 por un puñado de compañías de internet 0:03:57.920,0:04:01.920 que constituyen la mayor[br]maquinaria de propaganda de la historia. 0:04:02.400,0:04:04.310 [el público aplaude] 0:04:06.690,0:04:09.290 La mayor maquinaria de propaganda[br]de la historia. 0:04:09.310,0:04:11.700 Pensemos en eso.[br]Facebook, YouTube… 0:04:11.720,0:04:13.500 ...Google, Twitter y otros 0:04:13.630,0:04:15.670 alcanzan a miles de millones de personas. 0:04:15.700,0:04:18.440 Los algoritmos de los que dependen[br]estas plataformas 0:04:18.800,0:04:20.470 amplifican intencionalmente 0:04:20.530,0:04:23.360 el tipo de contenido[br]que mantiene a los usuarios activos; 0:04:23.750,0:04:27.080 historias que apelan[br]a nuestros instintos más básicos, 0:04:27.270,0:04:29.380 y que provocan indignación y miedo. 0:04:29.630,0:04:32.218 Es por esto que YouTube[br]recomendó videos 0:04:32.280,0:04:34.586 del conspiracionista Alex Jones 0:04:35.136,0:04:37.256 miles de millones de veces. 0:04:37.360,0:04:40.550 Es por esto que las noticias falsas[br]superan a las noticias reales, 0:04:40.570,0:04:41.972 porque los estudios muestran 0:04:42.012,0:04:44.790 que las mentiras[br]se propagan más rápido que la verdad. 0:04:44.920,0:04:48.230 Y no sorprende que la mayor[br]maquinaria de propaganda de la historia 0:04:48.630,0:04:52.070 haya difundido la teoría de conspiración[br]más antigua de la historia: 0:04:52.270,0:04:55.310 la mentira de que los judíos[br]son de peligrosos alguna manera. 0:04:56.010,0:04:57.640 Como lo puso un titular: 0:04:57.859,0:05:01.329 “Piensen en lo que Goebbels[br]podría haber hecho con Facebook”. 0:05:01.480,0:05:02.537 [el público gime] 0:05:02.640,0:05:03.640 En internet, 0:05:03.960,0:05:07.170 todo puede parecer igualmente legítimo. 0:05:07.470,0:05:09.750 Breitbart se parece a la BBC, 0:05:10.090,0:05:12.730 los protocolos ficticios[br]de los Sabios de Sion 0:05:12.980,0:05:15.630 parecen tan válidos[br]como un reporte de la ADL, 0:05:16.040,0:05:18.730 y los desvaríos de un lunático[br]parecen tan creíbles 0:05:18.750,0:05:21.370 como los hallazgos de un Premio Nobel. 0:05:21.850,0:05:25.770 Parece que hemos perdido[br]la noción compartida de los hechos básicos 0:05:26.070,0:05:28.570 de los que depende la democracia. 0:05:29.020,0:05:31.810 Cuando, vestido como[br]el imita-ganster Ali G, 0:05:31.830,0:05:34.650 le pregunté al astronauta Buzz Aldrin: 0:05:34.950,0:05:37.420 “¿Qué tal fue caminar en el sol?” 0:05:37.650,0:05:39.560 [el público ríe] 0:05:41.650,0:05:46.960 el chiste funcionó porque la audienci[br]compartía los mismos hechos. 0:05:47.360,0:05:49.730 Si crees que la llegada a la luna[br]fue un montaje, 0:05:49.960,0:05:52.230 el chiste ya no funciona. 0:05:52.360,0:05:55.730 Cuando Borat logró que ese bar en Arizona[br]coincidiera en que 0:05:56.000,0:06:01.070 ♪ Los judíos controlan el dinero de todos[br]y nunca lo devuelven ♪ 0:06:01.945,0:06:05.205 el chiste funcionó porque[br]la audiencia compartía el hecho 0:06:05.440,0:06:08.480 de que la representación de los judíos[br]como seres avaros 0:06:08.810,0:06:12.580 es una teoría de conspiración[br]originada en la Edad Media. 0:06:12.780,0:06:16.890 Pero cuando, gracias a las redes,[br]las conspiraciones se arraigan, 0:06:17.060,0:06:19.790 se hace más fácil[br]que los grupos discriminatorio recluten, 0:06:19.990,0:06:22.630 que los organismos[br]de inteligencia extranjeros 0:06:22.690,0:06:25.100 interfieran en nuestras elecciones, 0:06:25.400,0:06:32.370 y que países como Myanmar[br]cometan genocidio contra los rohingya. 0:06:33.170,0:06:35.710 [el público aplaude] 0:06:38.780,0:06:42.150 Ahora, es verdaderamente impactante[br]la facilidad con la que 0:06:42.180,0:06:44.914 los pensamientos conspirativos[br]se convierten en violencia. 0:06:44.942,0:06:47.332 En mi programa más reciente, [br]“¿Quién es América?”, 0:06:47.350,0:06:50.650 encontré a un chico normal, [br]formado y con un buen trabajo, 0:06:50.690,0:06:53.100 pero que repetía en las redes 0:06:53.120,0:06:55.790 muchas de las teorías de conspiración 0:06:56.060,0:06:58.230 que el presidente Trump, usando Twitter, 0:06:58.580,0:07:04.540 ha difundido más de 1 700 veces[br]a sus 67 millones de seguidores. 0:07:05.040,0:07:10.440 El presidente incluso tuiteó[br]que estaba pensando denominar a Antifa, 0:07:10.580,0:07:13.600 que son antifascistas[br]que marchan contra la extrema derecha, 0:07:13.765,0:07:16.165 como una organización terrorista. 0:07:16.380,0:07:21.120 Entonces, disfrazado de[br]un experto antiterrorista israelí, 0:07:21.390,0:07:23.150 el coronel Erran Morad, 0:07:23.170,0:07:24.170 [el público ríe] 0:07:25.008,0:07:26.825 [en acento extranjero][br]“Yalla. ¡Vamos!” 0:07:26.887,0:07:28.117 [el público ríe] 0:07:28.160,0:07:30.260 Disfrazado de él,[br]le dije a mi entrevistado 0:07:30.280,0:07:33.904 que en la marcha de mujeres[br]en San Francisco, Antifa estaba planeando 0:07:34.159,0:07:38.232 poner hormonas[br]en los pañales de bebés para... 0:07:38.292,0:07:40.452 [en acento extranjero][br]“hacerlos transgénero”. 0:07:40.660,0:07:41.660 [el público ríe] 0:07:41.910,0:07:43.480 Y este hombre lo creyó. 0:07:43.740,0:07:48.510 Le dije que colocara pequeños dispositivos[br]a tres personas inocentes en la marcha, 0:07:48.530,0:07:50.610 y le expliqué que,[br]al presionar un botón, 0:07:50.650,0:07:53.350 provocaría una explosión[br]que los mataría a todos. 0:07:53.790,0:07:56.940 Por supuesto que no eran reales,[br]pero él pensaba que sí. 0:07:57.090,0:08:00.120 Quería ver si realmente lo haría. 0:08:00.460,0:08:02.360 La respuesta fue sí. 0:08:02.630,0:08:03.758 Presionó el botón 0:08:03.820,0:08:06.886 y pensó que realmente[br]había matado a tres seres humanos. 0:08:07.370,0:08:10.000 Voltaire tenía razón cuando dijo, 0:08:10.100,0:08:13.810 “Aquellos que logran[br]hacer creer cosas absurdas 0:08:14.140,0:08:16.510 “pueden hacer[br]que se cometan atrocidades”. 0:08:17.580,0:08:20.620 Y las redes sociales[br]permiten a los autoritarios 0:08:20.726,0:08:24.246 venderles disparates[br]a miles de millones de personas. 0:08:24.570,0:08:25.650 En su defensa, 0:08:25.710,0:08:29.850 estas compañías de redes sociales[br]han tomado medidas para reducir el odio 0:08:29.890,0:08:32.380 y las conspiraciones en sus plataformas, 0:08:32.420,0:08:35.090 pero estas medidas[br]han sido principalmente superficiales. 0:08:35.370,0:08:37.130 Y estoy hablando de esto hoy 0:08:37.150,0:08:40.230 porque creo que[br]nuestras democracias pluralistas 0:08:40.630,0:08:43.860 están al borde del precipicio[br]y que los próximos 12 meses 0:08:43.890,0:08:47.310 y el papel de las redes sociales[br]van a ser determinantes. 0:08:48.050,0:08:49.910 Los británicos acudirán a las urnas 0:08:49.940,0:08:51.940 mientras que conspiracionistas en internet 0:08:52.180,0:08:56.250 promueven la odiosa teoría[br]de "el gran reemplazo", 0:08:56.310,0:08:59.400 que dice que los cristianos blancos[br]están siendo reemplazados 0:08:59.420,0:09:01.420 por inmigrantes musulmanes. 0:09:01.750,0:09:04.030 Los estadounidenses[br]elegirán un nuevo presidente 0:09:04.120,0:09:08.416 mientras que troles y bots[br]perpetúan la mentira asquerosa 0:09:08.568,0:09:11.148 de una invasión hispana. 0:09:11.620,0:09:15.530 Y después de años de videos en YouTube[br]llamando al cambio climático “un fraude”, 0:09:15.890,0:09:19.360 EE. UU. está en vías[br]de retirarse formalmente 0:09:19.800,0:09:23.070 del Acuerdo de París dentro de un año. 0:09:23.470,0:09:27.150 Una alcantarilla de fanatismo[br]y de viles teorías de conspiración 0:09:27.350,0:09:31.250 que amenazan a nuestra democracia,[br]y en cierta medida, a nuestro planeta. 0:09:31.810,0:09:33.070 Esto no puede ser 0:09:33.110,0:09:35.530 lo que los creadores del internet[br]tenían en mente. 0:09:35.850,0:09:40.660 Creo que es tiempo[br]de reconsiderar a fondo las redes sociales 0:09:40.890,0:09:44.460 y la forma en que propagan[br]odio, conspiraciones y mentiras. 0:09:44.800,0:09:47.670 [el público vitorea; aplaude] 0:09:52.570,0:09:57.640 Sin embargo, el mes pasado[br]Mark Zuckerberg de Facebook 0:09:58.040,0:09:59.780 dio un importante discurso 0:10:00.060,0:10:01.438 que, como era de esperarse, 0:10:01.464,0:10:04.269 advertía en contra[br]de nuevas leyes y regulaciones 0:10:04.360,0:10:06.080 dirigidas a compañías como la suya. 0:10:06.180,0:10:09.292 Pues, algunos de estos argumentos[br]sencillamente son… 0:10:10.075,0:10:12.190 …si me permiten, estupideces. 0:10:12.670,0:10:13.890 Contemos las maneras. 0:10:14.060,0:10:17.990 Primero, Zuckerberg[br]intentó presentar todo este asunto como 0:10:18.460,0:10:21.070 “elecciones alrededor[br]de la libertad de expresión”. 0:10:21.100,0:10:22.670 Eso es una ridiculez. 0:10:23.050,0:10:26.570 Esto no es sobre[br]limitar la libertad de expresión. 0:10:26.840,0:10:28.360 Es sobre darle a la gente, 0:10:28.390,0:10:32.010 incluyendo a algunas de las personas[br]más reprobables en la tierra, 0:10:32.200,0:10:36.056 la plataforma más grande de la historia[br]para que alcancen a un tercio del planeta. 0:10:36.350,0:10:39.950 La libertad de expresión[br]no es libertad de alcance. 0:10:40.460,0:10:42.370 Tristemente, siempre existirán racistas, 0:10:42.410,0:10:45.400 misóginos, antisemitas[br]y abusadores de niños, 0:10:45.460,0:10:47.460 pero creo que todos coincidimos 0:10:47.500,0:10:50.430 en que no deberíamos darle[br]a fanáticos y a pedófilos 0:10:50.700,0:10:53.310 una plataforma gratis[br]para que repliquen sus opiniones 0:10:53.387,0:10:54.990 y acosen a sus víctimas. 0:10:55.070,0:10:57.800 [el público aplaude] 0:11:00.770,0:11:03.278 Segundo, Mark Zuckerberg afirmó que 0:11:03.300,0:11:06.000 establecer nuevos límites[br]para las publicaciones en redes 0:11:06.026,0:11:09.250 sería “un revés[br]en la libertad de expresión”. 0:11:09.610,0:11:11.150 Esto es un total disparate. 0:11:11.600,0:11:14.530 La primera enmienda dice, y cito: 0:11:14.580,0:11:18.207 “El Congreso no podrá hacer ninguna ley…[br]limitando la libertad de expresión”. 0:11:18.331,0:11:22.530 Pero esto no aplica[br]a empresas privadas como Facebook. 0:11:22.880,0:11:24.790 No le estamos pidiendo a estas compañías 0:11:24.820,0:11:26.850 que delimiten[br]de la libertad de expresión 0:11:26.870,0:11:28.330 para la sociedad entera; 0:11:28.530,0:11:32.300 solo queremos que sean responsables[br]con sus plataformas. 0:11:32.670,0:11:35.670 Si un neonazi[br]entra marchando a un restaurante 0:11:36.040,0:11:39.410 y amenaza a otros clientes[br]y dice que quiere matar a judíos, 0:11:39.698,0:11:42.450 ¿acaso el dueño del restaurante,[br]una empresa privada, 0:11:42.580,0:11:46.760 tiene que ofrecerle[br]un menú de degustación? 0:11:47.190,0:11:48.550 ¡Por supuesto que no! 0:11:48.690,0:11:51.820 El dueño del restaurante[br]tiene todo el derecho, 0:11:52.060,0:11:54.690 y también, diría yo,[br]la obligación moral, 0:11:54.890,0:11:56.500 de sacar a patadas a ese nazi. 0:11:56.540,0:11:58.674 Lo mismo deberían hacer[br]estas compañías. 0:11:59.070,0:12:01.070 [el público aplaude] 0:12:04.550,0:12:06.060 Tercero. 0:12:06.200,0:12:09.920 Mark Zuckerberg equiparo[br]la regulación de compañías como la suya 0:12:10.210,0:12:14.250 con las acciones de[br]“las sociedades más represivas”. 0:12:14.710,0:12:15.810 Increíble. 0:12:16.100,0:12:20.620 Esto lo dice una de las seis personas[br]que deciden qué información 0:12:20.820,0:12:22.990 le llega a la mayoría del mundo: 0:12:23.550,0:12:25.590 Zuckerberg en Facebook, 0:12:25.720,0:12:27.590 Sundar Pichai en Google, 0:12:27.760,0:12:31.730 en su casa matriz, Alphabet,[br]Larry Page y Sergey Brin, 0:12:32.060,0:12:35.770 la ex-cuñada de Brin,[br]Susan Wojcicki, en YouTube 0:12:35.800,0:12:37.770 y Jack Dorsey en Twitter. 0:12:38.300,0:12:39.755 Los Seis de Silicon. 0:12:40.640,0:12:43.170 Todos multimillonarios, [br]todos estadounidenses, 0:12:43.420,0:12:46.480 que prefieren[br]subir el precio de sus acciones 0:12:46.850,0:12:48.750 a proteger la democracia. 0:12:49.445,0:12:51.363 [el público aplaude] 0:12:53.630,0:12:57.278 Esto es imperialismo ideológico. 0:12:57.670,0:13:00.860 Seis individuos no electos[br]en Silicon Valley 0:13:01.160,0:13:04.200 imponiendo su visión[br]sobre el resto del mundo, 0:13:04.460,0:13:06.660 sin rendir cuentas a ningún gobierno 0:13:06.740,0:13:09.970 y comportándose[br]como si estuviesen por encima de la ley. 0:13:10.000,0:13:12.300 Es como si viviésemos[br]en el Imperio Romano 0:13:12.330,0:13:14.340 y Mark Zuckerberg es el César. 0:13:14.880,0:13:16.940 Al menos eso explicaría su peinado. 0:13:17.220,0:13:18.629 [el público ríe] 0:13:19.460,0:13:21.380 Aquí les va una idea. 0:13:22.380,0:13:26.180 En lugar de dejar que los Seis de Silicon[br]decidan el futuro del mundo, 0:13:26.680,0:13:29.290 dejen que nuestros representantes electos, 0:13:29.650,0:13:33.860 por quienes la gente votó[br]en todas las democracias del mundo, 0:13:34.030,0:13:35.660 al menos tengan voz en el asunto. 0:13:36.590,0:13:39.230 Cuarto, Zuckerberg[br]habla de abrir las puertas 0:13:39.330,0:13:41.630 “a una diversidad de ideas” 0:13:41.787,0:13:43.690 y el año pasado nos dio un ejemplo. 0:13:44.250,0:13:47.910 Dijo que para él, las publicaciones[br]que negaban el Holocausto 0:13:47.970,0:13:49.576 eran “profundamente ofensivas”, 0:13:49.610,0:13:52.080 pero que él no pensaba[br]que Facebook debía retirarlas 0:13:52.340,0:13:56.580 “porque creo que hay cosas en las que[br]diferentes personas se equivocan”. 0:13:56.980,0:14:02.120 En este mismo momento, todavía hay[br]negadores del Holocausto en Facebook, 0:14:02.220,0:14:04.100 y Google todavía te lleva 0:14:04.130,0:14:07.830 a las páginas más repulsivas[br]de negación del Holocausto 0:14:07.960,0:14:09.390 con un solo click. 0:14:09.650,0:14:14.530 Uno de los jefes de Google[br]me dijo que estas páginas solo mostraban 0:14:14.870,0:14:16.670 “las dos caras” del asunto. 0:14:16.700,0:14:17.670 [el público gime] 0:14:17.740,0:14:19.000 Esto es una locura. 0:14:19.100,0:14:21.402 En palabras de Edward R. Murrow: 0:14:21.460,0:14:24.640 Uno “no puede aceptar[br]que hay, en cada historia 0:14:24.750,0:14:28.280 “dos partes iguales [br]y lógicas de un argumento”. 0:14:28.310,0:14:31.606 Desafortunadamente,[br]tenemos millones de piezas de evidencia 0:14:31.646,0:14:32.661 del Holocausto. 0:14:32.720,0:14:35.720 Es un hecho histórico. 0:14:35.850,0:14:38.760 Y negarlo no es una opinión cualquiera. 0:14:38.920,0:14:43.460 Aquellos que niegan el holocausto[br]pretenden alentar otro. 0:14:44.230,0:14:46.500 [el público aplaude] 0:14:50.670,0:14:52.756 Aún así, Zuckerberg dice que 0:14:52.830,0:14:55.380 “la gente debería decidir[br]qué es creíble y qué no, 0:14:55.420,0:14:57.040 “no las compañías tecnológicas”. 0:14:57.250,0:14:59.760 Pero cuando dos tercios de los millennials 0:14:59.790,0:15:02.326 admiten no haber oído nunca[br]acerca de Auschwitz, 0:15:02.600,0:15:05.390 ¿cómo van a saber qué es creíble o no? 0:15:05.813,0:15:10.660 ¿Cómo se supone qué sepan[br]que la mentira es una mentira? 0:15:10.920,0:15:13.560 Sí existe tal cosa[br]como la verdad objetiva. 0:15:13.820,0:15:16.290 Los hechos sí existen. 0:15:16.464,0:15:19.792 Y si estas compañías[br]realmente quieren hacer una diferencia 0:15:20.437,0:15:23.940 deberían contratar suficientes monitores[br]para que realmente monitoreen, 0:15:24.230,0:15:28.340 trabajar codo a codo[br]con grupos como el ADL y el NAACP, 0:15:28.560,0:15:30.239 insistir en los hechos, 0:15:30.300,0:15:34.647 y purgar estas mentiras[br]y conspiraciones de sus plataformas. 0:15:35.210,0:15:37.380 [el público aplaude] 0:15:40.480,0:15:44.810 Ahora, quinto, al momento de discutir[br]la difícil tarea de retirar contenido, 0:15:44.860,0:15:45.960 Zuckerberg… 0:15:46.610,0:15:50.130 Mark Zuckerberg preguntó,[br]“¿dónde se establece el límite?” 0:15:50.600,0:15:54.005 Sí, establecer un límite[br]puede ser difícil, 0:15:54.780,0:15:56.870 pero esto es[br]lo que realmente está diciendo: 0:15:56.920,0:15:59.700 eliminar estas mentiras y conspiraciones 0:15:59.870,0:16:01.640 sencillamente es demasiado costoso. 0:16:01.980,0:16:05.040 Estas son las compañías[br]más ricas del mundo, 0:16:05.240,0:16:07.450 y tienen los mejores ingenieros del mundo. 0:16:07.720,0:16:10.331 Podrían resolver estos problemas[br]si así lo quisieran. 0:16:10.850,0:16:14.090 Twitter podría implantar un algoritmo 0:16:14.260,0:16:17.020 para eliminar[br]más discurso supremacista de odio, 0:16:17.220,0:16:19.270 pero presuntamente no lo han hecho 0:16:19.650,0:16:23.260 porque eso expulsaría[br]a unos políticos muy prominentes 0:16:23.330,0:16:24.430 de su plataforma. 0:16:24.450,0:16:25.600 [el público gime] 0:16:25.650,0:16:27.870 Quizás eso no sería algo tan malo. 0:16:28.400,0:16:30.330 [el público aplaude; vitorea] 0:16:35.540,0:16:37.060 La verdad es que 0:16:37.560,0:16:39.940 estas compañías[br]no van a cambiar intrínsecamente 0:16:39.960,0:16:42.250 por que su modelo empresarial 0:16:42.610,0:16:45.720 depende de generar más participación, 0:16:45.880,0:16:48.320 y nada genera más participación 0:16:48.330,0:16:50.760 que las mentiras,[br]el miedo y la indignación. 0:16:51.040,0:16:53.132 Así que es hora[br]de llamar a estas compañías 0:16:53.152,0:16:54.430 por su verdadero nombre: 0:16:54.490,0:16:57.170 las editoriales[br]más grandes de la historia. 0:16:57.470,0:16:58.960 Y aquí una idea para ellas: 0:16:59.230,0:17:02.130 acaten las normas y prácticas básicas, 0:17:02.470,0:17:06.700 igual que hacen los periódicos, revistas[br]y canales de noticias todos los días. 0:17:07.340,0:17:10.840 En la televisión y en el cine[br]tenemos normas y prácticas básicas. 0:17:11.140,0:17:14.080 Hay ciertas cosas que[br]no se pueden decir o hacer. 0:17:14.420,0:17:16.160 En Inglaterra, se me dijo que Ali G 0:17:16.450,0:17:19.420 no podía usar palabrotas[br]si aparecía antes de las 9 PM. 0:17:20.000,0:17:23.920 Aquí en EE. UU.,[br]la Asociación Cinematográfica de América 0:17:24.129,0:17:26.320 regula y califica lo que vemos. 0:17:26.560,0:17:29.185 He cortado y reducido[br]escenas en mis películas 0:17:29.215,0:17:31.120 para cumplir con esas normas. 0:17:31.458,0:17:36.409 Si existen normas y prácticas[br]para el contenido en el cine y la TV, 0:17:36.480,0:17:39.710 entonces las compañías[br]que publican material 0:17:39.732,0:17:41.168 a miles de millones, 0:17:41.198,0:17:43.710 también deberían acatar[br]normas y prácticas básicas. 0:17:44.370,0:17:45.830 [el público aplaude] 0:17:49.880,0:17:53.150 Consideremos el tema[br]de los anuncios políticos, 0:17:54.050,0:17:56.023 sobre el que Facebook[br]ha sido muy firme. 0:17:56.090,0:17:58.920 Afortunadamente,[br]Twitter finalmente los prohibió, 0:17:59.033,0:18:02.290 y Google, recién leí hoy,[br]también está haciendo cambios. 0:18:02.649,0:18:04.460 Pero, si les pagas, 0:18:04.770,0:18:08.658 Facebook publicará[br]cualquier anuncio político que quieras, 0:18:08.838,0:18:10.295 incluso si es falso. 0:18:10.599,0:18:15.170 E incluso te ayudarán a[br]micro-focalizar los anuncios 0:18:15.220,0:18:16.910 para máxima eficacia. 0:18:17.380,0:18:19.526 Bajo está lógica perversa, 0:18:19.770,0:18:22.820 si Facebook hubiese existido[br]en los años 30 0:18:22.850,0:18:26.080 le hubiese permitido a Hitler[br]publicar anuncios de 30 segundos 0:18:26.090,0:18:28.750 promoviendo su solución[br]al “problema judío”. 0:18:29.460,0:18:31.950 Aquí les propongo[br]unas normas y prácticas: 0:18:32.462,0:18:33.641 Facebook, 0:18:34.629,0:18:37.232 empiecen a corroborar[br]los anuncios políticos 0:18:37.276,0:18:38.860 antes de publicarlos, 0:18:39.120,0:18:42.510 acaben con las mentiras personalizadas[br]inmediatamente, 0:18:42.870,0:18:44.420 y si los anuncios sean falsos, 0:18:44.500,0:18:46.910 devuelvan el dinero[br]y no los publiquen. 0:18:47.710,0:18:49.740 [el público aplaude] 0:18:55.210,0:18:57.120 Aquí les doy otra recomendación: 0:18:57.261,0:18:59.191 Cálmense. 0:18:59.679,0:19:03.550 No tienen que publicar[br]cada post individual inmediatamente. 0:19:03.920,0:19:06.560 Oscar Wilde dijo una vez:[br]“Vivimos en una era 0:19:06.660,0:19:11.030 “donde las cosas innecesarias[br]son nuestra única necesidad”. 0:19:11.495,0:19:12.495 Pero… 0:19:13.260,0:19:15.690 Pero yo les pregunto,[br]¿de verdad es necesario 0:19:15.720,0:19:18.373 que cada pensamiento o video – 0:19:18.710,0:19:21.310 sin importar si es racista[br]o criminal o asesino – 0:19:21.825,0:19:23.485 esté en línea instantáneamente? 0:19:23.940,0:19:24.960 ¡Por supuesto que no! 0:19:25.432,0:19:28.680 El tirador que masacró a musulmanes[br]en Nueva Zelanda 0:19:28.910,0:19:31.880 emitió en directo su ataque[br]usando Facebook 0:19:31.950,0:19:34.210 de donde luego se extendió[br]por todo el internet 0:19:34.307,0:19:36.950 y fue visto posiblemente[br]millones de veces. 0:19:37.160,0:19:41.630 Fue una película snuff,[br]cortesía de las redes sociales. 0:19:42.260,0:19:44.300 ¿Por qué no existe un retraso 0:19:44.560,0:19:47.200 para que esta basura traumática 0:19:47.430,0:19:51.670 pueda atraparse y detenerse[br]antes de que se publique? 0:19:51.840,0:19:54.870 [el público aplaude] 0:19:56.788,0:20:00.980 Finalmente, Zuckerberg dijo que[br]las compañías de redes sociales deberían 0:20:01.480,0:20:04.150 “asumir sus responsabilidades”, 0:20:04.380,0:20:08.920 pero no dice nada sobre[br]lo que debería pasar cuando no lo hacen. 0:20:09.410,0:20:11.660 A este punto, está bastante claro 0:20:11.720,0:20:15.190 que no se puede confiar[br]en que se regulen a sí mismas. 0:20:15.660,0:20:20.256 Al igual que con la Revolución Industrial,[br]es hora de imponer normas y leyes 0:20:20.330,0:20:24.370 para frenar la avaricia[br]de estos bandidos de alta tecnología. 0:20:24.670,0:20:26.670 [el público aplaude] 0:20:29.670,0:20:32.060 En cualquier otra industria, 0:20:32.100,0:20:36.040 a una compañía se le exige responsabilidad[br]cuando su producto es defectuoso. 0:20:36.310,0:20:39.720 Cuando un motor explota[br]o los cinturones de seguridad fallan, 0:20:39.980,0:20:43.950 las compañías automotrices[br]retiran decenas de miles de vehículos 0:20:44.290,0:20:46.320 a un costo[br]de miles de millones de dólares. 0:20:46.680,0:20:50.090 Parece más que justo decirle[br]a Facebook, YouTube y Twitter: 0:20:50.530,0:20:52.860 Su producto es defectuoso, 0:20:53.080,0:20:55.130 están obligados a arreglarlo, 0:20:55.370,0:20:57.340 sin importar cuánto cueste 0:20:57.408,0:21:00.990 o cuántos moderadores necesite emplear. 0:21:01.940,0:21:05.380 [el público aplaude; vitorea] 0:21:08.480,0:21:10.810 En cualquier otra– perdonen 0:21:10.830,0:21:12.571 En cualquier otra industria 0:21:12.650,0:21:15.235 puedes ser demandado[br]por el daño que causes. 0:21:15.450,0:21:17.370 Las editoriales[br]pueden ser demandadas por difamación, 0:21:17.370,0:21:20.070 Las personas también. 0:21:20.070,0:21:22.630 ¡A mí me han demandado muchas veces! 0:21:22.680,0:21:23.620 [el público ríe] 0:21:23.700,0:21:25.860 Ahora mismo me está demandando. 0:21:26.700,0:21:30.870 Alguien cuyo nombre no mencionaré[br]¡porque podría demandarme otra vez! 0:21:30.930,0:21:31.940 [el público ríe] 0:21:31.970,0:21:36.800 Pero las compañías de redes sociales[br]están protegidas de estas demandas 0:21:36.810,0:21:38.610 por contenido que publiquen sus usuarios – 0:21:38.810,0:21:40.980 sin importar qué tan indecente sea – 0:21:41.260,0:21:43.510 por la Sección 230 de, y prepárense, 0:21:43.820,0:21:46.680 La Ley de Decencia en las Comunicaciones 0:21:47.260,0:21:48.390 ¡Es absurdo! 0:21:48.652,0:21:53.690 Por suerte, las compañías de internet[br]ya pueden ser consideradas responsables por los pedófilos 0:21:53.700,0:21:56.670 ue usan sus páginas para encontrar a niños. 0:21:56.830,0:21:57.730 Entonces les digo, 0:21:57.880,0:21:59.500 hagamos responsables a estas compañías 0:21:59.760,0:22:02.730 por quienes usan sus páginas 0:22:02.910,0:22:05.970 para promover[br]el asesinato colectivo de niños 0:22:06.170,0:22:08.140 por su raza o su religión. 0:22:08.810,0:22:10.481 [el público aplaude] 0:22:14.640,0:22:17.350 Y tal vez las multas no son suficiente. 0:22:17.770,0:22:23.920 Tal vez es hora de decirle a Mark Zuckerberg[br]y a los directores de estas compañías 0:22:24.411,0:22:27.510 que ya dejaron que una potencia extranjera 0:22:27.520,0:22:29.390 interfiriera en nuestras elecciones. 0:22:29.660,0:22:34.000 Ya facilitaron un genocidio en Myanmar. 0:22:34.130,0:22:36.630 Si lo vuelven a hacer[br]irán a la cárcel. 0:22:36.720,0:22:38.460 [el público aplaude] 0:22:43.440,0:22:47.750 Al final, todo se reduce[br]a qué clase de mundo que queremos. 0:22:48.590,0:22:52.650 En su discurso, Zuckerberg[br]dijo que una de sus metas 0:22:52.950,0:22:58.160 era la de “defender la libertad de expresión[br]en su definición más amplia”. 0:22:58.570,0:22:59.660 Suena bien. 0:23:00.230,0:23:04.330 Pero nuestras libertades[br]no son un fin en sí mismas. 0:23:04.400,0:23:06.760 También son un medio para otro fin – 0:23:06.960,0:23:08.930 como dicen aquí en EE. UU: 0:23:09.110,0:23:13.240 el derecho a la vida, la libertad[br]y la búsqueda de la felicidad. 0:23:13.470,0:23:18.610 Pero hoy estos derechos se ven amenazados[br]por el odio, las conspiraciones y las mentiras. 0:23:18.920,0:23:24.480 Así que permítanme dejarlos con una sugerencia[br]para un objetivo diferente para la sociedad: 0:23:24.980,0:23:26.840 El objetivo final de la sociedad\ 0:23:27.140,0:23:30.790 debería ser el de[br]asegurar que la nadie sea atacado 0:23:30.940,0:23:33.820 o acosado o asesinado 0:23:33.894,0:23:36.800 por ser quien es,[br]el lugar del que viene, 0:23:36.860,0:23:39.200 amar a quien ama o a quién le reza. 0:23:39.860,0:23:42.470 [el público vitorea; aplaude] 0:23:54.830,0:23:57.600 Si hacemos de este nuestro objetivo — 0:23:57.690,0:24:00.180 si damos prioridad a la verdad sobre las mentiras, 0:24:00.480,0:24:02.390 a la tolerancia sobre el prejuicio, 0:24:02.650,0:24:04.760 a la empatía sobre la indiferencia, 0:24:04.900,0:24:07.830 y a los expertos sobre los ignorantes – 0:24:07.980,0:24:08.990 [el público ríe] 0:24:09.130,0:24:11.330 entonces quizás, solo quizás, 0:24:11.590,0:24:15.570 logremos detener a la mayor maquinaria de propaganda[br]de la historia. 0:24:16.069,0:24:17.928 Podemos salvar la democracia, 0:24:17.988,0:24:22.470 todavía tener cabida[br]para la libertad de expresión, 0:24:22.730,0:24:26.540 y, lo más importante, mis chistes seguirán funcionando. 0:24:26.880,0:24:28.080 Muchas gracias. 0:24:28.280,0:24:31.180 [vítores y aplausos]