< Return to Video

Premio de Liderazgo Internacional de la Liga Anti-Difamación (ADL) entregado a Sacha Baron Cohen en la cumbre "Never is Now" 2019

  • 0:02 - 0:04
    Muchas gracias.
    Gracias a quienes se levantaron.
  • 0:05 - 0:07
    No es necesario, pero me halagan.
  • 0:07 - 0:10
    Gracias, Jonathan,
    por tus amables palabras.
  • 0:10 - 0:12
    Gracias a la Liga Anti-difamación
  • 0:12 - 0:15
    por este reconocimiento
  • 0:15 - 0:17
    y por su trabajo
    luchando contra el racismo,
  • 0:17 - 0:18
    el odio y el fanatismo.
  • 0:19 - 0:20
    Y para aclarar,
  • 0:20 - 0:22
    cuando digo racismo, odio y fanatismo
  • 0:23 - 0:26
    no estoy hablando de los nombres
    de los perros de Stephen Miller.
  • 0:27 - 0:28
    [risas]
  • 0:30 - 0:34
    Reconozco que algunos de Uds.
    deben estar pensando:
  • 0:34 - 0:38
    “¿Qué demonios hace un comediante
    hablando en esta conferencia?”
  • 0:39 - 0:40
    Yo me lo pregunto.
  • 0:40 - 0:41
    [risas]
  • 0:41 - 0:45
    He pasado la mayor parte
    de las últimas dos décadas en personaje.
  • 0:45 - 0:50
    De hecho, esta es la primera vez
    que me he presentado a dar un discurso
  • 0:50 - 0:53
    como mi personaje menos popular:
    Sacha Baron Cohen.
  • 0:53 - 0:56
    [risas y aplausos]
  • 0:58 - 1:01
    Y debo confesar que es aterrador.
  • 1:03 - 1:07
    Entiendo que mi presencia hoy
    puede ser inesperada por otra razón:
  • 1:08 - 1:11
    Hay críticos que han dicho
    que mi comedia
  • 1:11 - 1:14
    presenta un riesgo
    de agravar viejos estereotipos.
  • 1:14 - 1:15
    La verdad es que
  • 1:15 - 1:19
    he desafiado apasionadamente
    la intolerancia y el fanatismo
  • 1:19 - 1:20
    toda mi vida.
  • 1:21 - 1:22
    Siendo adolescente en Inglaterra,
  • 1:22 - 1:25
    marché contra
    el Frente Nacional fascista
  • 1:25 - 1:27
    y para abolir el apartheid.
  • 1:27 - 1:30
    Siendo estudiante de pregrado,
    viaje por EE. UU.
  • 1:30 - 1:31
    y escribí mi tesis
  • 1:31 - 1:33
    sobre el movimiento
    por los derechos humanos
  • 1:33 - 1:35
    con la ayuda de los archivos de la ADL;
  • 1:36 - 1:39
    y como comediante,
    he intentado usar a mis personajes
  • 1:39 - 1:42
    para lograr que la gente baje su guardia
  • 1:42 - 1:44
    y revele lo que realmente cree,
  • 1:44 - 1:46
    incluyendo su propio prejuicio.
  • 1:46 - 1:48
    No voy a pretender
    que todo lo que he hecho
  • 1:48 - 1:50
    ha servido a un propósito mayor.
  • 1:50 - 1:53
    Sí, parte de mi comedia –
  • 1:53 - 1:54
    bien, probablemente la mitad –
  • 1:54 - 1:56
    ha sido absolutamente infantil
  • 1:56 - 1:57
    [risas]
  • 1:57 - 2:00
    y la otra mitad
    ha sido completamente inmadura.
  • 2:00 - 2:02
    Pero…
    [risas]
  • 2:02 - 2:04
    Admito que no hubo nada
    particularmente esclarecedor
  • 2:04 - 2:07
    sobre mi Borat de Kazajistán,
  • 2:07 - 2:09
    el primer reportero de noticias falsas,
  • 2:09 - 2:10
    [risas]
  • 2:10 - 2:13
    corriendo desnudo en una conferencia
  • 2:13 - 2:14
    de agentes hipotecarios.
  • 2:14 - 2:15
    [risas]
  • 2:15 - 2:20
    Pero cuando Borat logró
    que todo un bar en Arizona cantara
  • 2:20 - 2:22
    ♪ Tira al judío al pozo ♪
  • 2:22 - 2:23
    [risas]
  • 2:23 - 2:27
    sí se reveló la indiferencia de la gente
    ante el antisemitismo.
  • 2:27 - 2:31
    Cuando, vestido como Bruno,
    el reportero de moda austríaco gay,
  • 2:32 - 2:35
    besé a un hombre
    en una jaula de pelea en Arkansas
  • 2:35 - 2:37
    y casi se desata un motín,
  • 2:37 - 2:40
    se reveló el potencial violento
    de la homofobia.
  • 2:41 - 2:44
    Y cuando me disfracé de
    promotor inmobiliario ultra-concientizado
  • 2:44 - 2:48
    y propuse construir una mezquita
    en una comunidad rural,
  • 2:48 - 2:51
    y un residente admitió orgullosamente:
  • 2:51 - 2:54
    “Soy racista contra los musulmanes”,
  • 2:54 - 2:57
    se reveló la creciente aceptación
    de la islamofobia.
  • 2:58 - 3:02
    Por eso agradezco tanto
    la oportunidad de estar aquí con Uds.
  • 3:02 - 3:04
    Hoy, en todo el mundo,
  • 3:04 - 3:07
    los demagogos apelan
    a nuestros peores instintos.
  • 3:07 - 3:11
    Las teorías de conspiración
    que antes se confinaban a la periferia
  • 3:11 - 3:12
    se están popularizando.
  • 3:13 - 3:18
    Es como si la era de la razón,
    la era del argumento evidencial,
  • 3:18 - 3:19
    estuviese terminando,
  • 3:19 - 3:22
    y ahora el conocimiento
    se deslegitimiza cada vez más
  • 3:22 - 3:25
    y el consenso científico se descarta.
  • 3:26 - 3:29
    La democracia,
    que depende de verdades compartidas,
  • 3:30 - 3:31
    está en retirada,
  • 3:31 - 3:34
    y la autocracia,
    que depende de mentiras compartidas,
  • 3:34 - 3:36
    está en marcha.
  • 3:36 - 3:38
    Los delitos por odio van en aumento,
  • 3:38 - 3:41
    al igual que los ataques asesinos
    a minorías religiosas y étnicas.
  • 3:42 - 3:45
    ¿Qué tienen en común
    todas estas peligrosas tendencias?
  • 3:46 - 3:47
    Solo soy un comediante y un actor;
  • 3:47 - 3:51
    no soy un estudioso,
    pero tengo una cosa muy clara:
  • 3:52 - 3:55
    Todo este odio y violencia
    está siendo facilitada
  • 3:56 - 3:58
    por un puñado de compañías de internet
  • 3:58 - 4:02
    que constituyen la mayor
    maquinaria de propaganda de la historia.
  • 4:02 - 4:04
    [aplausos]
  • 4:07 - 4:09
    La mayor maquinaria
    de propaganda de la historia.
  • 4:09 - 4:12
    Pensemos en eso.
    Facebook, YouTube…
  • 4:12 - 4:14
    ...Google, Twitter y otros
  • 4:14 - 4:16
    alcanzan a miles de millones de personas.
  • 4:16 - 4:18
    Los algoritmos
    de los que dependen estas plataformas
  • 4:19 - 4:20
    amplifican intencionalmente
  • 4:21 - 4:23
    el tipo de contenido
    que mantiene a los usuarios activos;
  • 4:24 - 4:27
    historias que apelan
    a nuestros instintos más básicos,
  • 4:27 - 4:29
    y que provocan indignación y miedo.
  • 4:30 - 4:32
    Es por esto que YouTube
    recomendó videos
  • 4:32 - 4:35
    del conspiracionista Alex Jones
  • 4:35 - 4:37
    miles de millones de veces.
  • 4:37 - 4:41
    Es por esto que las noticias falsas
    superan a las noticias reales,
  • 4:41 - 4:42
    porque los estudios muestran
  • 4:42 - 4:45
    que las mentiras
    se propagan más rápido que la verdad.
  • 4:45 - 4:48
    Y no sorprende que la mayor
    maquinaria de propaganda de la historia
  • 4:49 - 4:52
    haya difundido la teoría de conspiración
    más antigua de la historia:
  • 4:52 - 4:55
    la mentira de que los judíos
    son de peligrosos alguna manera.
  • 4:56 - 4:58
    Como lo puso un titular:
  • 4:58 - 5:01
    “Piensen en lo que Goebbels
    podría haber hecho con Facebook”.
  • 5:01 - 5:03
    [murmullos]
  • 5:03 - 5:04
    En internet,
  • 5:04 - 5:07
    todo puede parecer igualmente legítimo.
  • 5:07 - 5:10
    Breitbart se parece a la BBC,
  • 5:10 - 5:13
    los protocolos ficticios
    de los Sabios de Sion
  • 5:13 - 5:16
    parecen tan válidos
    como un reporte de la ADL,
  • 5:16 - 5:19
    y los desvaríos de un lunático
    parecen tan creíbles
  • 5:19 - 5:21
    como los hallazgos de un Premio Nobel.
  • 5:22 - 5:26
    Parece que hemos perdido
    la noción compartida de los hechos básicos
  • 5:26 - 5:29
    de los que depende la democracia.
  • 5:29 - 5:32
    Cuando, vestido como
    el imita-gánster Ali G,
  • 5:32 - 5:35
    le pregunté al astronauta Buzz Aldrin,
  • 5:35 - 5:37
    “¿Qué tal fue caminar sobre el Sol?”
  • 5:38 - 5:40
    [risas]
  • 5:42 - 5:47
    el chiste funcionó porque la audiencia
    compartía los mismos hechos.
  • 5:47 - 5:50
    Si crees que la llegada a la Luna
    fue un montaje,
  • 5:50 - 5:52
    el chiste ya no funciona.
  • 5:52 - 5:56
    Cuando Borat logró
    que ese bar en Arizona coincidiera en que
  • 5:56 - 6:01
    ♪ Los judíos controlan el dinero de todos
    y nunca lo devuelven ♪
  • 6:02 - 6:05
    el chiste funcionó porque
    la audiencia compartía el hecho
  • 6:05 - 6:08
    de que la representación de los judíos
    como personas mezquinas
  • 6:09 - 6:13
    es una teoría de conspiración
    originada en la Edad Media.
  • 6:13 - 6:17
    Pero cuando, gracias a las redes,
    las conspiraciones se arraigan,
  • 6:17 - 6:20
    se hace más fácil
    que los grupos discriminatorio recluten,
  • 6:20 - 6:23
    que los organismos
    de inteligencia extranjeros
  • 6:23 - 6:25
    interfieran en nuestras elecciones,
  • 6:25 - 6:32
    y que países como Birmania
    cometan genocidio contra los rohingya.
  • 6:33 - 6:36
    [aplausos]
  • 6:39 - 6:42
    Ahora, es verdaderamente impactante
    la facilidad con la que
  • 6:42 - 6:45
    los pensamientos conspirativos
    se convierten en violencia.
  • 6:45 - 6:47
    En mi programa más reciente,
    “¿Quién es América?”,
  • 6:47 - 6:51
    encontré a un chico normal,
    formado y con un buen trabajo,
  • 6:51 - 6:53
    pero que repetía en las redes
  • 6:53 - 6:56
    muchas de las teorías de conspiración
  • 6:56 - 6:58
    que el presidente Trump, usando Twitter,
  • 6:59 - 7:05
    ha difundido más de 1 700 veces
    a sus 67 millones de seguidores.
  • 7:05 - 7:10
    El presidente incluso tuiteó
    que estaba pensando denominar a Antifa,
  • 7:11 - 7:14
    que son antifascistas
    que marchan contra la extrema derecha,
  • 7:14 - 7:16
    como una organización terrorista.
  • 7:16 - 7:21
    Entonces, disfrazado de
    un experto antiterrorista israelí,
  • 7:21 - 7:23
    el coronel Erran Morad,
  • 7:23 - 7:24
    [risas]
  • 7:25 - 7:27
    [en acento extranjero]
    “Yalla. ¡Vamos!”
  • 7:27 - 7:28
    [risas]
  • 7:28 - 7:30
    Disfrazado de él,
    le dije a mi entrevistado
  • 7:30 - 7:32
    que, en la marcha de mujeres
    en San Francisco,
  • 7:33 - 7:34
    Antifa estaba planeando
  • 7:34 - 7:38
    poner hormonas
    en los pañales de bebés para...
  • 7:38 - 7:40
    [en acento extranjero]
    “hacerlos transgénero”.
  • 7:41 - 7:42
    [risas]
  • 7:42 - 7:43
    Y este hombre lo creyó.
  • 7:44 - 7:49
    Le dije que colocara pequeños dispositivos
    a tres personas inocentes en la marcha,
  • 7:49 - 7:51
    y le expliqué que,
    al presionar un botón,
  • 7:51 - 7:53
    provocaría una explosión
    que los mataría a todos.
  • 7:54 - 7:57
    Por supuesto que no eran reales,
    pero él pensaba que sí.
  • 7:57 - 8:00
    Quería ver si realmente lo haría.
  • 8:00 - 8:02
    La respuesta fue sí.
  • 8:03 - 8:04
    Presionó el botón
  • 8:04 - 8:07
    y pensó que realmente
    había matado a tres seres humanos.
  • 8:07 - 8:10
    Voltaire tenía razón cuando dijo,
  • 8:10 - 8:14
    “Aquellos que logran
    hacer creer cosas absurdas
  • 8:14 - 8:17
    “pueden hacer
    que se cometan atrocidades”.
  • 8:18 - 8:21
    Y las redes sociales
    permiten a los autoritarios
  • 8:21 - 8:24
    venderles disparates
    a miles de millones de personas.
  • 8:25 - 8:26
    En su defensa,
  • 8:26 - 8:30
    estas compañías de redes sociales
    han tomado medidas para reducir el odio
  • 8:30 - 8:32
    y las conspiraciones en sus plataformas,
  • 8:32 - 8:35
    pero estas medidas
    han sido principalmente superficiales.
  • 8:35 - 8:37
    Y estoy hablando de esto hoy
  • 8:37 - 8:40
    porque creo que
    nuestras democracias pluralistas
  • 8:41 - 8:42
    están al borde del precipicio
  • 8:42 - 8:46
    y que los próximos 12 meses
    y el papel de las redes sociales
  • 8:46 - 8:47
    pueden ser determinantes.
  • 8:48 - 8:50
    Los británicos acudirán a las urnas
  • 8:50 - 8:52
    mientras que conspiracionistas en internet
  • 8:52 - 8:56
    promueven la odiosa teoría
    de "el gran reemplazo",
  • 8:56 - 8:59
    que dice que los cristianos blancos
    están siendo reemplazados
  • 8:59 - 9:01
    por inmigrantes musulmanes.
  • 9:02 - 9:04
    Los estadounidenses
    elegirán un nuevo presidente
  • 9:04 - 9:08
    mientras que troles y bots
    perpetúan la mentira asquerosa
  • 9:09 - 9:11
    de una invasión hispana.
  • 9:12 - 9:16
    Y después de años de videos en YouTube
    llamando al cambio climático “un fraude”,
  • 9:16 - 9:19
    EE. UU. está en vías
    de retirarse formalmente
  • 9:20 - 9:23
    del Acuerdo de París dentro de un año.
  • 9:23 - 9:27
    Una alcantarilla de fanatismo
    y de viles teorías de conspiración
  • 9:27 - 9:31
    que amenazan a nuestra democracia,
    y en cierta medida, a nuestro planeta.
  • 9:32 - 9:33
    Esto no puede ser
  • 9:33 - 9:36
    lo que los creadores del internet
    tenían en mente.
  • 9:36 - 9:41
    Creo que es tiempo
    de reconsiderar a fondo las redes sociales
  • 9:41 - 9:44
    y la forma en que propagan
    odio, conspiraciones y mentiras.
  • 9:45 - 9:48
    [aplausos y vítores]
  • 9:53 - 9:58
    Sin embargo, el mes pasado
    Mark Zuckerberg de Facebook
  • 9:58 - 10:00
    dio un importante discurso
  • 10:00 - 10:01
    que, como era de esperarse,
  • 10:01 - 10:04
    advertía en contra
    de nuevas leyes y regulaciones
  • 10:04 - 10:06
    dirigidas a compañías como la suya.
  • 10:06 - 10:09
    Pues, algunos de estos argumentos
    sencillamente son…
  • 10:10 - 10:12
    …si me permiten, estupideces.
  • 10:13 - 10:14
    Contemos las maneras.
  • 10:14 - 10:18
    Primero, Zuckerberg intentó presentar
    todo este asunto como
  • 10:18 - 10:21
    “elecciones alrededor
    de la libertad de expresión”.
  • 10:21 - 10:23
    Eso es una ridiculez.
  • 10:23 - 10:27
    Esto no es sobre
    limitar la libertad de expresión.
  • 10:27 - 10:28
    Es sobre darle a la gente,
  • 10:28 - 10:32
    incluyendo a algunas de las personas
    más reprobables en la tierra,
  • 10:32 - 10:36
    la plataforma más grande de la historia
    para que alcancen a un tercio del planeta.
  • 10:36 - 10:40
    La libertad de expresión
    no es libertad de alcance.
  • 10:40 - 10:42
    Tristemente, siempre existirán racistas,
  • 10:42 - 10:45
    misóginos, antisemitas
    y abusadores de niños,
  • 10:45 - 10:47
    pero creo que todos coincidimos
  • 10:48 - 10:50
    en que no deberíamos darle
    a fanáticos y a pedófilos
  • 10:51 - 10:53
    una plataforma gratis
    para que repliquen sus opiniones
  • 10:53 - 10:55
    y acosen a sus víctimas.
  • 10:55 - 10:58
    [aplausos]
  • 11:01 - 11:03
    Segundo, Mark Zuckerberg afirmó que
  • 11:03 - 11:06
    establecer nuevos límites
    para las publicaciones en redes
  • 11:06 - 11:09
    sería “un revés
    en la libertad de expresión”.
  • 11:10 - 11:11
    Esto es un total disparate.
  • 11:12 - 11:15
    La primera enmienda dice, y cito:
  • 11:15 - 11:18
    “El Congreso no podrá hacer ninguna ley…
    limitando la libertad de expresión”.
  • 11:18 - 11:23
    Pero esto no aplica
    a empresas privadas como Facebook.
  • 11:23 - 11:25
    No le estamos pidiendo a estas compañías
  • 11:25 - 11:27
    que delimiten
    de la libertad de expresión
  • 11:27 - 11:28
    para la sociedad entera;
  • 11:29 - 11:32
    solo queremos que sean responsables
    con sus plataformas.
  • 11:33 - 11:36
    Si un neonazi
    entra marchando a un restaurante
  • 11:36 - 11:39
    y amenaza a otros clientes
    y dice que quiere matar a judíos,
  • 11:40 - 11:42
    ¿acaso el dueño del restaurante,
    una empresa privada,
  • 11:43 - 11:47
    tiene que ofrecerle
    un menú de degustación?
  • 11:47 - 11:49
    ¡Por supuesto que no!
  • 11:49 - 11:52
    El dueño del restaurante
    tiene todo el derecho,
  • 11:52 - 11:55
    y también, diría yo, la obligación moral,
  • 11:55 - 11:56
    de sacar a patadas a ese nazi.
  • 11:57 - 11:59
    Lo mismo deberían hacer
    estas compañías.
  • 11:59 - 12:01
    [aplausos]
  • 12:05 - 12:06
    Tercero.
  • 12:06 - 12:10
    Mark Zuckerberg equiparo
    la regulación de compañías como la suya
  • 12:10 - 12:14
    con las acciones de
    “las sociedades más represivas”.
  • 12:15 - 12:16
    Increíble.
  • 12:16 - 12:21
    Esto lo dice una de las seis personas
    que deciden qué información
  • 12:21 - 12:23
    le llega a gran parte del mundo:
  • 12:24 - 12:26
    Zuckerberg en Facebook,
  • 12:26 - 12:28
    Sundar Pichai en Google,
  • 12:28 - 12:32
    en su casa matriz, Alphabet,
    Larry Page y Sergey Brin,
  • 12:32 - 12:36
    la ex-cuñada de Brin,
    Susan Wojcicki en YouTube
  • 12:36 - 12:38
    y Jack Dorsey en Twitter.
  • 12:38 - 12:40
    Los Seis de Silicon.
  • 12:41 - 12:43
    Todos milmillonarios,
    todos estadounidenses,
  • 12:43 - 12:46
    que prefieren
    subir el precio de sus acciones
  • 12:47 - 12:49
    a proteger la democracia.
  • 12:49 - 12:51
    [aplausos]
  • 12:54 - 12:57
    Esto es imperialismo ideológico.
  • 12:58 - 13:01
    Seis individuos no electos
    en Silicon Valley
  • 13:01 - 13:04
    imponiendo su visión
    sobre el resto del mundo,
  • 13:04 - 13:07
    sin rendir cuentas a ningún gobierno
  • 13:07 - 13:10
    y comportándose
    como si estuviesen por encima de la ley.
  • 13:10 - 13:12
    Es como si viviésemos
    en el Imperio Romano
  • 13:12 - 13:14
    y Mark Zuckerberg es el César.
  • 13:15 - 13:17
    Al menos eso explicaría su peinado.
  • 13:17 - 13:19
    [risas]
  • 13:19 - 13:21
    Aquí les va una idea.
  • 13:22 - 13:26
    En lugar de dejar que los Seis de Silicon
    decidan el futuro del mundo,
  • 13:27 - 13:29
    dejen que nuestros representantes electos,
  • 13:30 - 13:34
    por quienes la gente votó
    en todas las democracias del mundo,
  • 13:34 - 13:36
    al menos tengan voz en el asunto.
  • 13:37 - 13:39
    Cuarto, Zuckerberg
    habla de abrir las puertas
  • 13:39 - 13:42
    “a una diversidad de ideas”
  • 13:42 - 13:44
    y el año pasado nos dio un ejemplo.
  • 13:44 - 13:48
    Dijo que, para él, las publicaciones
    que negaban el Holocausto
  • 13:48 - 13:50
    eran “profundamente ofensivas”,
  • 13:50 - 13:52
    pero que él no pensaba
    que Facebook debía retirarlas
  • 13:52 - 13:57
    “porque creo que hay cosas en las que
    diferentes personas se equivocan”.
  • 13:57 - 14:02
    En este mismo momento, todavía hay
    negadores del Holocausto en Facebook,
  • 14:02 - 14:04
    y Google todavía te lleva
  • 14:04 - 14:08
    a las páginas más repulsivas
    de negación del Holocausto
  • 14:08 - 14:09
    con un solo clic.
  • 14:10 - 14:15
    Uno de los jefes de Google
    me dijo que estas páginas solo mostraban
  • 14:15 - 14:17
    “las dos caras” del asunto.
  • 14:17 - 14:18
    [murmullos]
  • 14:18 - 14:19
    Esto es una locura.
  • 14:19 - 14:21
    En palabras de Edward R. Murrow:
  • 14:21 - 14:25
    Uno “no puede aceptar
    que hay, en cada historia
  • 14:25 - 14:28
    “dos partes iguales
    y lógicas de un argumento”.
  • 14:28 - 14:32
    Desafortunadamente,
    tenemos millones de piezas de evidencia
  • 14:32 - 14:33
    del Holocausto.
  • 14:33 - 14:36
    Es un hecho histórico.
  • 14:36 - 14:39
    Y negarlo no es una opinión cualquiera.
  • 14:39 - 14:43
    Aquellos que niegan el Holocausto
    pretenden alentar otro.
  • 14:44 - 14:46
    [aplausos]
  • 14:51 - 14:53
    Aún así, Zuckerberg dice que
  • 14:53 - 14:55
    “la gente debería decidir
    qué es creíble y qué no,
  • 14:55 - 14:57
    “no las compañías tecnológicas”.
  • 14:57 - 15:00
    Pero cuando dos tercios de los millennials
  • 15:00 - 15:02
    admiten no haber oído nunca
    acerca de Auschwitz,
  • 15:03 - 15:05
    ¿cómo van a saber qué es creíble o no?
  • 15:06 - 15:11
    ¿Cómo se supone qué sepan
    que la mentira es una mentira?
  • 15:11 - 15:14
    Sí existe tal cosa
    como la verdad objetiva.
  • 15:14 - 15:16
    Los hechos sí existen.
  • 15:16 - 15:20
    Y si estas compañías
    realmente quieren hacer una diferencia
  • 15:20 - 15:24
    deberían contratar suficientes monitores
    para que realmente monitoreen,
  • 15:24 - 15:28
    trabajar codo a codo
    con grupos como el ADL y el NAACP,
  • 15:29 - 15:30
    insistir en los hechos,
  • 15:30 - 15:35
    y purgar estas mentiras
    y conspiraciones de sus plataformas.
  • 15:35 - 15:37
    [aplausos]
  • 15:40 - 15:45
    Quinto, al momento de discutir
    la difícil tarea de retirar contenido,
  • 15:45 - 15:46
    Zuckerberg…
  • 15:47 - 15:50
    Mark Zuckerberg preguntó,
    “¿dónde se establece el límite?”
  • 15:51 - 15:54
    Sí, establecer un límite
    puede ser difícil,
  • 15:55 - 15:57
    pero esto es
    lo que realmente está diciendo:
  • 15:57 - 16:00
    eliminar estas mentiras y conspiraciones
  • 16:00 - 16:02
    sencillamente es demasiado costoso.
  • 16:02 - 16:05
    Estas son las compañías
    más ricas del mundo,
  • 16:05 - 16:07
    y tienen los mejores ingenieros del mundo.
  • 16:08 - 16:10
    Podrían resolver estos problemas
    si así lo quisieran.
  • 16:11 - 16:14
    Twitter podría implantar un algoritmo
  • 16:14 - 16:17
    para eliminar
    más discurso supremacista de odio,
  • 16:17 - 16:19
    pero presuntamente no lo han hecho
  • 16:20 - 16:23
    porque eso expulsaría
    a unos políticos muy prominentes
  • 16:23 - 16:24
    de su plataforma.
  • 16:24 - 16:26
    [murmullos]
  • 16:26 - 16:28
    Quizás eso no sería algo tan malo.
  • 16:28 - 16:30
    [aplausos y vítores]
  • 16:36 - 16:37
    La verdad es
  • 16:37 - 16:40
    que estas compañías
    no van a cambiar intrínsecamente
  • 16:40 - 16:42
    por que su modelo empresarial
  • 16:43 - 16:46
    depende de generar más participación,
  • 16:46 - 16:48
    y nada genera más participación
  • 16:48 - 16:51
    que las mentiras,
    el miedo y la indignación.
  • 16:51 - 16:53
    Así que es hora
    de llamar a estas compañías
  • 16:53 - 16:54
    por su verdadero nombre:
  • 16:54 - 16:57
    las editoriales
    más grandes de la historia.
  • 16:57 - 16:59
    Y aquí una idea para ellas:
  • 16:59 - 17:02
    acaten las normas y prácticas básicas,
  • 17:02 - 17:07
    igual que hacen los periódicos, revistas
    y canales de noticias todos los días.
  • 17:07 - 17:11
    En la televisión y en el cine
    tenemos normas y prácticas básicas.
  • 17:11 - 17:14
    Hay ciertas cosas que
    no se pueden decir o hacer.
  • 17:14 - 17:16
    En Inglaterra, se me dijo que Ali G
  • 17:16 - 17:19
    no podía usar palabrotas
    si aparecía antes de las 9 PM.
  • 17:20 - 17:24
    Aquí en EE. UU.,
    la Asociación Cinematográfica de América
  • 17:24 - 17:26
    regula y califica lo que vemos.
  • 17:27 - 17:29
    He cortado y reducido
    escenas en mis películas
  • 17:29 - 17:31
    para cumplir con esas normas.
  • 17:31 - 17:36
    Si existen normas y prácticas
    para el contenido en el cine y la TV,
  • 17:36 - 17:41
    las compañías que publican contenido
    para billones de personas
  • 17:41 - 17:44
    también deberían acatar
    normas y prácticas básicas.
  • 17:44 - 17:46
    [aplausos]
  • 17:50 - 17:53
    Consideremos el tema
    de los anuncios políticos,
  • 17:54 - 17:56
    sobre el que Facebook
    ha sido muy firme.
  • 17:56 - 17:59
    Afortunadamente,
    Twitter finalmente los prohibió,
  • 17:59 - 18:02
    y Google, recién leí hoy,
    también está haciendo cambios.
  • 18:03 - 18:04
    Pero, si les pagas,
  • 18:05 - 18:09
    Facebook publicará
    cualquier anuncio político que quieras,
  • 18:09 - 18:10
    incluso si es falso.
  • 18:11 - 18:15
    E incluso te ayudarán a
    micro-focalizar los anuncios
  • 18:15 - 18:17
    para máxima eficacia.
  • 18:17 - 18:20
    Bajo está lógica perversa,
  • 18:20 - 18:23
    si Facebook hubiese existido
    en los años 30
  • 18:23 - 18:26
    le hubiese permitido a Hitler
    publicar anuncios de 30 segundos
  • 18:26 - 18:29
    promoviendo su solución
    al “problema judío”.
  • 18:29 - 18:32
    Aquí les propongo
    unas normas y prácticas:
  • 18:32 - 18:34
    Facebook,
  • 18:35 - 18:37
    empiecen a corroborar
    los anuncios políticos
  • 18:37 - 18:39
    antes de publicarlos,
  • 18:39 - 18:43
    acaben con las mentiras
    personalizadas inmediatamente,
  • 18:43 - 18:44
    y si los anuncios resultan falsos,
  • 18:44 - 18:47
    devuelvan el dinero
    y no los publiquen.
  • 18:48 - 18:50
    [aplausos]
  • 18:55 - 18:57
    Aquí les doy otra recomendación:
  • 18:57 - 18:59
    Cálmense.
  • 19:00 - 19:04
    No tienen que publicar
    cada post individual inmediatamente.
  • 19:04 - 19:06
    Oscar Wilde dijo una vez:
    “Vivimos en una era
  • 19:06 - 19:11
    “en que las cosas innecesarias
    son nuestra única necesidad”.
  • 19:11 - 19:12
    Pero…
  • 19:13 - 19:16
    Pero yo les pregunto,
    ¿de verdad es necesario
  • 19:16 - 19:18
    que cada pensamiento o video –
  • 19:19 - 19:21
    sin importar si es racista
    o criminal o asesino –
  • 19:22 - 19:23
    esté en línea instantáneamente?
  • 19:24 - 19:25
    ¡Por supuesto que no!
  • 19:25 - 19:29
    El tirador que masacró
    a musulmanes en Nueva Zelanda
  • 19:29 - 19:32
    emitió en directo su ataque
    usando Facebook
  • 19:32 - 19:34
    de donde luego se extendió
    por todo el internet
  • 19:34 - 19:37
    y fue visto posiblemente
    millones de veces.
  • 19:37 - 19:42
    Fue una película snuff,
    cortesía de las redes sociales.
  • 19:42 - 19:44
    ¿Por qué no existe un retraso
  • 19:45 - 19:47
    para que esta basura traumática
  • 19:47 - 19:52
    pueda atraparse y detenerse
    antes de que se publique?
  • 19:52 - 19:55
    [aplausos]
  • 19:57 - 20:01
    Finalmente, Zuckerberg dijo que
    las compañías de redes sociales deberían
  • 20:01 - 20:04
    “asumir sus responsabilidades”,
  • 20:04 - 20:09
    pero no dice nada sobre
    lo que debería pasar cuando no lo hacen.
  • 20:09 - 20:12
    A este punto, está bastante claro
  • 20:12 - 20:15
    que no se puede confiar
    en que se regulen a sí mismas.
  • 20:16 - 20:20
    Al igual que con la Revolución Industrial,
    es hora de imponer normas y leyes
  • 20:20 - 20:24
    para frenar la avaricia
    de estos bandidos de alta tecnología.
  • 20:25 - 20:27
    [aplausos]
  • 20:30 - 20:32
    En cualquier otra industria,
  • 20:32 - 20:36
    a una compañía se le exige responsabilidad
    cuando su producto es defectuoso.
  • 20:36 - 20:40
    Cuando un motor explota
    o los cinturones de seguridad fallan,
  • 20:40 - 20:44
    las compañías automotrices
    retiran decenas de miles de vehículos
  • 20:44 - 20:46
    a un costo de miles
    de millones de dólares.
  • 20:47 - 20:50
    Parece más que justo decirle
    a Facebook, YouTube y Twitter:
  • 20:51 - 20:53
    Su producto es defectuoso,
  • 20:53 - 20:55
    están obligados a arreglarlo,
  • 20:55 - 20:57
    sin importar cuánto cueste
  • 20:57 - 21:01
    o cuántos moderadores necesite emplear.
  • 21:02 - 21:05
    [aplausos y vítores]
  • 21:08 - 21:11
    En cualquier otra– perdonen
  • 21:11 - 21:13
    En cualquier otra industria
  • 21:13 - 21:15
    puedes ser demandado
    por el daño que causes.
  • 21:15 - 21:20
    Las personas y las editoriales
    pueden ser demandadas por difamación.
  • 21:20 - 21:23
    ¡A mí me han demandado muchas veces!
  • 21:23 - 21:24
    [risas]
  • 21:24 - 21:26
    Ahora mismo me están demandando.
  • 21:27 - 21:31
    Alguien que no mencionaré
    ¡porque podría demandarme otra vez!
  • 21:31 - 21:32
    [risas]
  • 21:32 - 21:36
    Pero las compañías de redes sociales
    están muy protegidas
  • 21:36 - 21:39
    de estas demandas
    por contenido publicado por sus usuarios,
  • 21:39 - 21:41
    sin importar qué tan indecente sea,
  • 21:41 - 21:43
    por la Sección 230 de, y prepárense,
  • 21:44 - 21:47
    la Ley de Decencia en las Comunicaciones.
  • 21:47 - 21:48
    ¡Es absurdo!
  • 21:49 - 21:50
    Por suerte, las compañías de internet
  • 21:51 - 21:54
    ya pueden ser consideradas
    responsables por los pedófilos
  • 21:54 - 21:56
    que usan sus páginas
    para encontrar a niños.
  • 21:57 - 22:00
    Entonces, yo digo
    que también hagamos responsables
  • 22:00 - 22:01
    a estas compañías
  • 22:01 - 22:03
    por quienes usan sus páginas
  • 22:03 - 22:06
    para promover
    el asesinato colectivo de niños
  • 22:06 - 22:08
    por su raza o su religión.
  • 22:09 - 22:10
    [aplausos]
  • 22:15 - 22:17
    Y tal vez las multas no son suficiente.
  • 22:18 - 22:22
    Tal vez es hora
    de decirle a Mark Zuckerberg
  • 22:22 - 22:24
    y a los directores de estas compañías
  • 22:24 - 22:28
    que ya dejaron que una potencia extranjera
  • 22:28 - 22:29
    interfiriera en nuestras elecciones,
  • 22:30 - 22:34
    ya facilitaron un genocidio en Birmania.
  • 22:34 - 22:37
    Si lo vuelven a hacer irán a la cárcel.
  • 22:37 - 22:38
    [aplausos]
  • 22:43 - 22:48
    Al final, todo se reduce
    a qué clase de mundo que queremos.
  • 22:49 - 22:53
    En su discurso, Zuckerberg
    dijo que una de sus metas principales
  • 22:53 - 22:58
    era “defender la libertad de expresión
    en su definición más amplia”.
  • 22:59 - 23:00
    Suena bien.
  • 23:00 - 23:04
    Pero nuestras libertades
    no son un fin en sí mismas.
  • 23:04 - 23:07
    También son un medio para otro fin –
  • 23:07 - 23:09
    como dicen aquí en EE. UU:
  • 23:09 - 23:13
    el derecho a la vida, la libertad
    y la búsqueda de la felicidad.
  • 23:13 - 23:16
    Pero hoy estos derechos
    se ven amenazados
  • 23:16 - 23:19
    por el odio,
    las conspiraciones y las mentiras.
  • 23:19 - 23:22
    Así que permítanme dejarlos
    con una sugerencia
  • 23:22 - 23:25
    para un objetivo diferente
    para la sociedad:
  • 23:25 - 23:27
    El objetivo final de la sociedad
  • 23:27 - 23:31
    debería ser
    asegurar que nadie sea atacado
  • 23:31 - 23:34
    o acosado o asesinado
  • 23:34 - 23:37
    por ser quien es,
    el lugar del que viene,
  • 23:37 - 23:39
    por amar a quien ama
    o por rezar a quien le reza.
  • 23:40 - 23:42
    [vítores y aplausos]
  • 23:55 - 23:57
    Si hacemos ese nuestro objetivo —
  • 23:58 - 24:00
    si damos prioridad
    a la verdad sobre las mentiras,
  • 24:00 - 24:02
    a la tolerancia sobre el prejuicio,
  • 24:03 - 24:05
    a la empatía sobre la indiferencia,
  • 24:05 - 24:08
    y a los expertos sobre los ignorantes,
  • 24:08 - 24:09
    [risas]
  • 24:09 - 24:11
    entonces quizás, solo quizás,
  • 24:12 - 24:15
    podamos detener
    a la mayor maquinaria de propaganda
  • 24:15 - 24:16
    de la historia;
  • 24:16 - 24:18
    quizás podamos salvar la democracia
  • 24:18 - 24:21
    y seguir teniendo un sitio
    para el discurso libre
  • 24:21 - 24:23
    y la libertad de expresión,
  • 24:23 - 24:24
    y, lo más importante,
  • 24:24 - 24:26
    mis chistes seguirán funcionando.
  • 24:27 - 24:28
    Muchas gracias.
  • 24:28 - 24:31
    [vítores y aplausos]
Title:
Premio de Liderazgo Internacional de la Liga Anti-Difamación (ADL) entregado a Sacha Baron Cohen en la cumbre "Never is Now" 2019
Description:

Sacha Baron Cohen es el merecido receptor del Premio de Liderazgo Internacional de la Liga Anti-Difamación (ADL), que se otorga a individuos excepcionales que combinan el éxito profesional con un profundo compromiso personal de participar en la comunidad y de atravesar fronteras y barreras con un mensaje de diversidad e igualdad de oportunidades.

Hace más de cien años, el juez de la Corte Suprema Louis Brandeis escribió: "Se dice que la luz del sol es el mejor desinfectante". A través de sus alter egos, muchos de los cuáles representan antisemitas, racistas y neonazis, Baron Cohen arroja una luz penetrante sobre la ignorancia y los prejuicios de la gente.

https://www.adl.org/news/article/sacha-baron-cohens-keynote-address-at-adls-2019-never-is-now-summit-on-anti-semitism

copyright © 2019 ADL

more » « less
Video Language:
English
Team:
Captions Requested
Duration:
24:44

Spanish subtitles

Revisions Compare revisions