0:00:01.132,0:00:04.697 Inicio hoje com um mistério histórico. 0:00:05.037,0:00:07.776 Em 1957, havia duas raparigas, 0:00:07.940,0:00:09.585 ambas com os seus 20 anos, 0:00:09.639,0:00:11.173 que viviam na mesma cidade, 0:00:11.197,0:00:14.403 e que pertenciam ambas[br]ao mesmo grupo político. 0:00:14.751,0:00:18.463 Naquele ano, as duas decidiram[br]fazer ataques violentos. 0:00:19.284,0:00:23.762 Uma delas agarrou numa arma e aproximou-se[br]de um soldado, num posto de controlo. 0:00:24.300,0:00:29.235 A outra rapariga, agarrou numa bomba[br]e foi a um café cheio de gente. 0:00:30.287,0:00:32.246 Mas a questão é esta: 0:00:32.429,0:00:36.138 uma dessas raparigas[br]prosseguiu com o ataque, 0:00:37.028,0:00:39.841 mas a outra desistiu. 0:00:41.303,0:00:43.474 Então, qual é a diferença? 0:00:44.157,0:00:47.414 Sou historiadora comportamental,[br]e estudo a agressão, 0:00:47.438,0:00:49.359 a cognição moral, 0:00:49.383,0:00:52.592 e o processo de tomada de decisões[br]em movimentos sociais. 0:00:52.676,0:00:54.291 É muita coisa! 0:00:55.110,0:00:57.364 Traduzindo tudo isso: 0:00:57.391,0:01:01.719 eu estudo o momento em que[br]uma pessoa decide puxar o gatilho, 0:01:02.113,0:01:06.275 as decisões quotidianas[br]que levaram até esse momento 0:01:06.685,0:01:12.896 e as histórias que contam a si mesmas[br]para justificarem esse comportamento. 0:01:13.468,0:01:15.324 Este assunto, para mim, 0:01:15.368,0:01:17.478 não é apenas académico. 0:01:17.492,0:01:19.537 Na verdade, é um pouco pessoal. 0:01:19.571,0:01:22.612 Cresci em Kootenai County, no Idaho, 0:01:22.636,0:01:25.810 e isso é muito importante. 0:01:25.147,0:01:29.669 Não foi na parte do Idaho [br]que tem batatas. 0:01:29.693,0:01:32.940 Nós não temos batatas. 0:01:32.135,0:01:34.108 E se alguém me perguntar por batatas, 0:01:34.132,0:01:35.711 eu acabo com ele. 0:01:35.711,0:01:36.966 (Risos) 0:01:36.990,0:01:40.198 Esta parte do Idaho é conhecida[br]por ter lagos nas montanhas, 0:01:40.222,0:01:42.047 por fazermos cavalgadas, 0:01:42.071,0:01:43.684 e esqui. 0:01:43.804,0:01:46.938 Infelizmente, a partir dos anos 80, 0:01:46.962,0:01:50.969 também ficou conhecida[br]como a sede mundial 0:01:50.993,0:01:53.170 das nações arianas. 0:01:53.348,0:01:57.221 Todos os anos, apareciam[br]membros de grupos neo-nazis locais 0:01:57.245,0:01:59.924 que desfilavam pela nossa cidade 0:01:59.948,0:02:01.508 e ano após ano, 0:02:01.522,0:02:04.823 os membros da nossa cidade[br]saíam à rua e protestavam contra eles. 0:02:04.877,0:02:08.535 Em 2001, acabei o curso secundário, 0:02:08.569,0:02:12.514 e fui para a faculdade em Nova Iorque. 0:02:12.791,0:02:16.449 Cheguei lá em agosto de 2001, 0:02:17.232,0:02:20.030 e como muitos de vocês [br]provavelmente sabem, 0:02:20.070,0:02:21.891 três semanas depois, 0:02:21.905,0:02:24.580 desabaram as Torres Gémeas. 0:02:24.642,0:02:27.123 Eu fiquei chocada, 0:02:28.593,0:02:31.178 fiquei muito zangada. 0:02:32.713,0:02:34.862 Eu queria fazer algo, 0:02:34.894,0:02:38.396 mas a única coisa em que consegui [br]pensar naquela época 0:02:38.420,0:02:40.759 foi estudar árabe. 0:02:41.955,0:02:44.232 Reconheço, eu era aquela rapariga da turma 0:02:44.256,0:02:49.033 que queria saber porque é[br]que eles nos odiavam. 0:02:49.247,0:02:52.638 Comecei a estudar árabe[br]pelas razões erradas. 0:02:53.265,0:02:55.440 Mas aconteceu uma coisa inesperada. 0:02:55.506,0:02:58.480 Consegui uma bolsa[br]para estudar em Israel. 0:02:58.718,0:03:01.995 Então, a rapariga do Idaho [br]foi para o Médio Oriente. 0:03:03.169,0:03:06.045 Enquanto lá estive,[br]conheci palestinos muçulmanos, 0:03:06.069,0:03:07.949 palestinos cristãos, 0:03:08.125,0:03:09.702 colonos israelenses, 0:03:09.716,0:03:11.805 israelenses ativistas pela paz. 0:03:11.841,0:03:16.266 O que aprendi é que[br]toda a ação tem uma ecologia. 0:03:16.696,0:03:18.438 Tem um contexto. 0:03:20.074,0:03:23.627 A partir daí, tenho circulado pelo mundo, 0:03:23.651,0:03:27.565 e tenho estudado movimentos violentos. 0:03:27.749,0:03:32.554 Tenho trabalhado com ONGs[br]e ex-combatentes no Iraque, 0:03:32.578,0:03:33.776 na Síria, 0:03:33.800,0:03:35.219 no Vietname, 0:03:35.243,0:03:36.425 nos Balcãs, 0:03:36.449,0:03:37.730 em Cuba. 0:03:38.422,0:03:40.817 Fiz o doutoramento em História, 0:03:40.841,0:03:43.355 e agora vou a diferentes arquivos 0:03:43.379,0:03:45.600 e vasculho documentos, 0:03:45.624,0:03:49.187 à procura de confissões policiais, 0:03:49.281,0:03:51.326 processos de justiça, 0:03:51.850,0:03:56.770 diários e manifestos de indivíduos[br]envolvidos em ataques violentos. 0:03:57.110,0:04:00.016 Se reunirmos todos estes documentos 0:04:00.320,0:04:01.854 o que é que eles nos dirão? 0:04:01.854,0:04:03.361 Acontece que o nosso cérebro 0:04:03.371,0:04:05.703 adora mistérios causais. 0:04:06.157,0:04:09.107 Sempre que vemos um ataque nos jornais, 0:04:09.131,0:04:11.563 fazemos logo a pergunta: 0:04:11.587,0:04:12.889 Porquê? 0:04:12.913,0:04:14.594 Porque é que isso aconteceu? 0:04:14.658,0:04:17.328 Posso dizer-vos que li[br]milhares de manifestos, 0:04:17.352,0:04:21.913 e descobri que são todos imitações. 0:04:22.177,0:04:25.506 Imitam o movimento político[br]em que estão inseridos. 0:04:25.660,0:04:29.543 Então, isso não nos diz muito[br]sobre tomada de decisões 0:04:29.567,0:04:31.891 neste caso em particular. 0:04:31.954,0:04:36.542 Temos de nos educar para fazermos [br]uma pergunta totalmente diferente. 0:04:36.566,0:04:40.410 Em vez de "Porquê?", [br]temos de perguntar "Como?" 0:04:40.168,0:04:43.079 Como é que os indivíduos[br]produzem esses ataques, 0:04:43.103,0:04:48.437 e como é que a tomada de decisões[br]contribui para um comportamento violento? 0:04:48.781,0:04:53.279 Aprendi algumas coisas[br]após fazer este tipo de pergunta. 0:04:53.823,0:04:55.385 A coisa mais importante 0:04:55.399,0:04:58.809 é que a violência política[br]não é culturalmente endémica. 0:04:59.159,0:05:00.669 Nós é que a criamos. 0:05:00.679,0:05:02.943 E caso percebamos ou não, 0:05:02.977,0:05:08.340 os nossos hábitos diários contribuem[br]para a criação da violência 0:05:08.184,0:05:10.028 no nosso ambiente. 0:05:10.082,0:05:15.105 Estes são alguns dos hábitos que aprendi[br]que contribuem para a violência. 0:05:16.322,0:05:19.562 Uma das primeiras coisas[br]que os agressores fizeram 0:05:19.586,0:05:23.192 enquanto se preparavam[br]para um evento violento, 0:05:23.416,0:05:26.981 foi isolarem-se numa[br]bolha de informações. 0:05:27.135,0:05:29.813 Ouvimos falar de "fake news", não é? 0:05:29.857,0:05:32.154 Bem, isso chocou-me: 0:05:32.198,0:05:35.696 todos os grupos que estudei[br]tinham um "slogan" de propaganda falsa. 0:05:35.740,0:05:39.028 Os comunistas franceses [br]chamavam-lhe "imprensa pútrida". 0:05:39.052,0:05:43.209 Os franceses ultranacionalistas[br]chamavam-lhe "imprensa vendida" 0:05:43.253,0:05:45.475 e "imprensa traidora". 0:05:45.539,0:05:49.000 Os islamistas no Egito chamavam-lhe[br]"imprensa depravada". 0:05:49.074,0:05:51.989 E os comunistas egípcios chamavam-lhe 0:05:52.013,0:05:53.426 "fake news". 0:05:53.540,0:05:55.130 Porque é que esses grupos 0:05:55.130,0:05:58.194 gastam tanto tempo[br]a montar essas bolhas de informações? 0:05:58.285,0:06:00.931 A resposta é muito simples. 0:06:00.995,0:06:04.760 Tomamos decisões baseadas[br]em informações em que confiamos. 0:06:05.244,0:06:09.087 Logo, se confiamos em informações más, 0:06:09.111,0:06:11.919 tomaremos decisões más. 0:06:12.110,0:06:15.100 Outro hábito interessante[br]que esses indivíduos usavam 0:06:15.124,0:06:18.067 quando queriam praticar [br]um ataque violento 0:06:18.091,0:06:21.621 era olhar para as suas vítimas[br]não como indivíduos 0:06:21.645,0:06:24.611 mas apenas como membros [br]de uma equipa rival. 0:06:25.006,0:06:27.401 Agora isto torna-se realmente estranho. 0:06:27.554,0:06:29.441 Há uma ciência cerebral divertida 0:06:29.451,0:06:32.437 que explica porque é[br]que este pensamento é eficaz. 0:06:32.511,0:06:35.441 Digamos que eu vos divido a todos[br]em duas equipas: 0:06:35.465,0:06:36.617 a equipa azul, 0:06:36.641,0:06:38.155 a equipa vermelha. 0:06:38.159,0:06:41.279 Peço para competirem num jogo[br]uns contra os outros. 0:06:41.461,0:06:45.109 O engraçado é que, [br]ao fim de milissegundos, 0:06:45.443,0:06:50.372 vocês começam a sentir prazer[br]— prazer — 0:06:50.416,0:06:55.129 quando acontece uma coisa má[br]a um membro da outra equipa. 0:06:56.414,0:06:59.898 O engraçado é que, se eu pedir[br]a alguém da equipa azul 0:06:59.922,0:07:02.442 para mudar e passar[br]para a equipa vermelha, 0:07:02.805,0:07:04.797 o cérebro irá recalibrar-se 0:07:04.821,0:07:06.415 e, ao fim de milissegundos, 0:07:06.439,0:07:08.812 vocês começam a sentir prazer 0:07:08.836,0:07:12.516 quando acontecem coisas más[br]aos membros da vossa antiga equipa. 0:07:14.064,0:07:20.669 Isto é um ótimo exemplo que explica[br]porque é que é tão perigoso 0:07:20.693,0:07:22.873 pensar "nós-eles" [br]no nosso ambiente político. 0:07:22.934,0:07:26.828 Outro hábito que os agressores usavam[br]para se prepararem para um ataque 0:07:26.852,0:07:29.330 era o de se focarem nas diferenças. 0:07:29.374,0:07:32.407 Por outras palavras, olhavam [br]para as vítimas e pensavam: 0:07:33.075,0:07:35.221 "Não tenho nada em comum[br]com aquela pessoa. 0:07:35.245,0:07:37.585 "São totalmente diferentes de mim." 0:07:38.829,0:07:41.995 Novamente, isto pode soar[br]como um conceito muito simples, 0:07:42.019,0:07:46.376 mas há uma ciência fascinante[br]que explica como isto funciona. 0:07:47.209,0:07:52.218 Digamos que vos mostro[br]vídeos de mãos de diferentes cores 0:07:52.462,0:07:56.237 em que se tentam espetar[br]alfinetes afiados nessas mãos, 0:07:56.401,0:07:57.411 OK? 0:07:58.360,0:08:00.219 Se for um branco, 0:08:00.243,0:08:05.954 é mais provável que experimente[br]uma sensação mais solidária 0:08:05.978,0:08:07.541 ou de maior sofrimento, 0:08:07.565,0:08:10.851 quando vir um alfinete[br]a espetar-se na mão branca. 0:08:12.053,0:08:15.561 Se for um latino-americano,[br]um árabe, um negro, 0:08:15.601,0:08:19.364 provavelmente experimentará[br]uma sensação mais solidária 0:08:19.364,0:08:23.665 ao ver um alfinete a espetar-se[br]na mão mais parecida com a dele. 0:08:26.881,0:08:30.619 Felizmente isto [br]não é imposto biologicamente. 0:08:30.815,0:08:32.854 É um comportamento aprendido. 0:08:33.207,0:08:34.839 O que significa que, 0:08:34.839,0:08:37.759 quanto mais tempo passarmos[br]com outras comunidades étnicas 0:08:37.799,0:08:40.721 e quanto mais os virmos[br]como nossos semelhantes, 0:08:41.284,0:08:43.994 fazendo parte da nossa equipa, 0:08:44.304,0:08:46.818 mais sentiremos a dor deles. 0:08:46.931,0:08:49.591 O último hábito de que vou falar 0:08:49.591,0:08:52.962 ocorre quando os agressores[br]se preparam para sair 0:08:52.992,0:08:54.986 e praticar um dos seus ataques. 0:08:55.016,0:08:57.355 Eles focam-se em certas pistas emotivas. 0:08:57.465,0:09:02.775 Preparam-se durante meses,[br]focando-se na raiva, por exemplo. 0:09:03.215,0:09:05.751 Falo nisto porque agora[br]é uma coisa muito popular. 0:09:05.801,0:09:09.239 Se leem blogues ou veem as notícias, 0:09:09.269,0:09:13.300 verão conversas sobre dois conceitos [br]da investigação científica: 0:09:13.500,0:09:16.824 "sequestro da amígdala"[br]e "sequestro emocional". 0:09:16.934,0:09:19.383 O sequestro da amígdala 0:09:19.403,0:09:23.250 é um conceito em que se mostra[br]uma imagem — digamos, uma espingarda — 0:09:23.390,0:09:27.217 e o cérebro reage com uma resposta[br]automática de ameaça 0:09:27.217,0:09:28.648 em relação a essa imagem. 0:09:28.678,0:09:31.590 O sequestro emocional [br]tem um conceito muito parecido. 0:09:31.660,0:09:35.833 É a ideia de que, se eu mostrar[br]uma imagem de raiva, por exemplo, 0:09:36.770,0:09:40.958 o cérebro irá reagir com uma resposta[br]automática de raiva. 0:09:40.989,0:09:42.958 de raiva em relação à imagem. 0:09:43.500,0:09:46.351 Penso que as mulheres são[br]mais sensíveis a isso do que os homens. 0:09:46.427,0:09:47.536 (Risos) 0:09:47.634,0:09:50.943 Esta narrativa de "sequestro"[br]chama a nossa atenção. 0:09:51.281,0:09:54.204 Só a palavra "sequestro"[br]já chama nossa atenção. 0:09:54.404,0:09:56.778 O facto é que, na maior parte do tempo, 0:09:56.798,0:10:00.556 não é assim que estas "imagens"[br]funcionam na vida real. 0:10:00.879,0:10:02.480 Se estudarmos História, 0:10:02.500,0:10:05.048 descobrimos que somos bombardeados 0:10:05.760,0:10:08.472 com centenas de milhares[br]de imagens todos os dias. 0:10:08.654,0:10:10.849 Mas aprendemos a filtrá-las. 0:10:10.979,0:10:12.891 Ignoramos algumas delas, 0:10:12.891,0:10:15.040 a outras prestamos atenção. 0:10:15.170,0:10:18.813 Para a violência política, [br]isto torna-se muito importante. 0:10:18.853,0:10:24.569 porque significa que os atacantes[br]não veem apenas uma imagem de raiva 0:10:24.629,0:10:26.615 e, de repente, ficam loucos. 0:10:26.770,0:10:31.427 Em vez disso, políticos[br]e ativistas sociais 0:10:31.457,0:10:34.610 passam semanas, meses, anos 0:10:34.687,0:10:38.491 a inundar o ambiente[br]com essas mensagens de raiva, 0:10:38.541,0:10:39.955 por exemplo, 0:10:40.250,0:10:44.245 e os agressores prestam atenção[br]a essas mensagens, 0:10:44.477,0:10:46.850 confiam nessas mensagens, 0:10:46.910,0:10:48.668 concentram-se nelas, 0:10:48.702,0:10:51.790 inclusivamente memorizam-nas. 0:10:51.180,0:10:57.742 Tudo isso serve apenas para mostrar[br]como é importante estudar História. 0:10:57.812,0:11:01.673 Uma coisa é ver como essas "sugestões"[br]funcionam num laboratório. 0:11:01.697,0:11:05.545 E essas experiências laboratoriais[br]são extremamente importantes, 0:11:05.545,0:11:09.760 fornecem-nos novas informações[br]sobre como funciona o nosso corpo. 0:11:10.317,0:11:13.199 Mas também é muito importante ver 0:11:13.225,0:11:15.815 como essas "sugestões"[br]funcionam na vida real. 0:11:18.691,0:11:22.657 Então, o que tudo isto nos diz [br]sobre violência política? 0:11:23.956,0:11:28.820 A violência política [br]não é culturalmente endémica. 0:11:28.132,0:11:33.257 Não é uma resposta automática, [br]pré-determinada aos estímulos do ambiente. 0:11:33.599,0:11:35.468 Nós é que a produzimos. 0:11:35.537,0:11:38.540 Os nossos hábitos diários [br]é que a produzem. 0:11:38.866,0:11:43.500 Vamos voltar àquelas duas raparigas[br]que referi no começo. 0:11:44.350,0:11:48.965 A primeira rapariga tinha prestado atenção[br]a essas mensagens ofensivas, 0:11:49.178,0:11:51.196 então, pegou numa espingarda 0:11:51.226,0:11:54.470 aproximou-se de um soldado[br]num posto de controlo. 0:11:55.276,0:11:58.895 Mas, nesse momento,[br]aconteceu uma coisa interessante. 0:11:58.980,0:12:01.390 Ela olhou para o soldado, 0:12:01.850,0:12:03.920 e pensou para si mesma: 0:12:06.120,0:12:09.247 "Ele tem a mesma idade que eu. 0:12:09.523,0:12:11.285 "Ele parece-se comigo." 0:12:12.635,0:12:15.521 Largou a espingarda e afastou-se. 0:12:16.277,0:12:19.394 Apenas por causa dessa pequena semelhança. 0:12:19.915,0:12:24.038 A segunda rapariga teve [br]um final totalmente diferente. 0:12:25.588,0:12:28.282 Ela também ouvira [br]as campanhas ofensivas, 0:12:28.341,0:12:33.292 mas rodeou-se de indivíduos [br]que apoiavam a violência 0:12:33.292,0:12:36.663 e com iguais que apoiavam[br]a violência dela. 0:12:36.901,0:12:40.300 Fechou-se numa bolha de informações. 0:12:40.700,0:12:44.199 Concentrou-se em determinadas[br]orientações emocionais durante meses. 0:12:44.497,0:12:47.155 Ensinou a si mesma como contornar 0:12:47.195,0:12:50.115 algumas inibições culturais[br]contra a violência. 0:12:50.189,0:12:51.957 Praticou o plano, 0:12:51.987,0:12:54.124 ensinou a si mesma novos hábitos, 0:12:54.135,0:12:58.329 e, quando o momento chegou,[br]levou a bomba para o café, 0:12:58.399,0:13:01.155 e concretizou o seu ataque. 0:13:03.623,0:13:06.476 Isto não foi um impulso. 0:13:06.812,0:13:08.760 Foi aprendizagem. 0:13:10.420,0:13:14.393 A polarização na nossa sociedade[br]não é um impulso, 0:13:14.463,0:13:16.175 é aprendizagem. 0:13:16.495,0:13:19.415 Todos os dias nos ensinamos a nós mesmos 0:13:19.495,0:13:21.602 com as notícias que escolhemos, 0:13:21.622,0:13:23.332 com as emoções que focamos, 0:13:23.352,0:13:27.861 com os pensamentos que cultivamos[br]sobre a equipa vermelha ou a azul. 0:13:28.176,0:13:30.486 Tudo isso contribui para a aprendizagem, 0:13:30.486,0:13:32.751 quer demos por isso ou não. 0:13:32.831,0:13:37.874 Felizmente, embora[br]os indivíduos que estudo 0:13:38.034,0:13:40.361 já tenham tomado a sua decisão, 0:13:41.383,0:13:44.254 nós ainda podemos mudar [br]a nossa trajetória. 0:13:45.194,0:13:48.272 Nós podemos nunca fazer[br]as escolhas que eles fizeram, 0:13:48.854,0:13:52.859 mas podemos deixar de contribuir[br]para essa ecologia violenta. 0:13:53.633,0:13:57.784 Podemos sair de qualquer[br]bolha de notícias em que estejamos, 0:13:57.952,0:14:02.138 podemos estar mais atentos[br]às sugestões emocionais 0:14:02.218,0:14:03.624 em que nos focamos, 0:14:03.684,0:14:06.297 nas propagandas atrozes[br]em que clicamos. 0:14:06.403,0:14:07.932 Mas, mais importante ainda, 0:14:07.997,0:14:10.426 podemos deixar de nos vermos 0:14:10.466,0:14:13.918 apenas como membros[br]da equipa vermelha ou da equipa azul. 0:14:13.961,0:14:19.829 Porque, quer sejamos cristãos,[br]muçulmanos, judeus, ateus, 0:14:19.869,0:14:22.087 democratas ou republicanos, 0:14:22.147,0:14:23.561 somos humanos. 0:14:23.561,0:14:25.487 Somos seres humanos. 0:14:25.917,0:14:29.732 E, frequentemente,[br]partilhamos hábitos semelhantes. 0:14:30.336,0:14:31.918 Nós temos diferenças. 0:14:31.948,0:14:33.821 Essas diferenças são lindas, 0:14:34.021,0:14:36.644 e essas diferenças são muito importantes. 0:14:36.724,0:14:41.795 Mas o nosso futuro depende[br]de conseguirmos encontrar 0:14:41.845,0:14:44.813 um terreno comum com o lado oposto. 0:14:45.715,0:14:49.175 É por isso que é tão importante 0:14:49.255,0:14:51.978 voltar a treinar o nosso cérebro 0:14:52.008,0:14:55.447 e deixar de contribuir[br]para um ambiente violento. 0:14:56.277,0:14:57.517 Obrigada. 0:14:57.567,0:15:00.429 (Aplausos)