1 00:00:00,887 --> 00:00:04,744 Hoje vou começar com um mistério histórico. 2 00:00:05,057 --> 00:00:08,006 Em 1957, havia duas jovens mulheres, 3 00:00:08,030 --> 00:00:09,385 ambas com seus 20 anos, 4 00:00:09,409 --> 00:00:10,893 vivendo na mesma cidade, 5 00:00:10,917 --> 00:00:13,753 e ambas membros do mesmo grupo político. 6 00:00:14,751 --> 00:00:18,591 Naquele ano, as duas decidiram cometer ataques violentos. 7 00:00:19,284 --> 00:00:23,413 Uma jovem pegou uma arma, e se aproximou de um soldado em um posto de controle. 8 00:00:24,300 --> 00:00:29,078 A outra garota pegou uma bomba e foi a um café lotado. 9 00:00:30,287 --> 00:00:32,116 Mas há um detalhe: 10 00:00:32,429 --> 00:00:36,138 uma dessas garotas seguiu com o ataque, 11 00:00:37,028 --> 00:00:40,048 mas a outra desistiu. 12 00:00:41,303 --> 00:00:42,997 Então, o que fez a diferença? 13 00:00:44,157 --> 00:00:47,414 Sou uma historiadora comportamental e estudo a agressão, 14 00:00:47,438 --> 00:00:49,359 cognição moral 15 00:00:49,383 --> 00:00:52,592 e tomada de decisão nos movimentos sociais. 16 00:00:52,616 --> 00:00:54,613 É um bocado de coisa. 17 00:00:54,637 --> 00:00:57,287 Então, a tradução disto é: 18 00:00:57,311 --> 00:01:01,719 estudo o momento em que um indivíduo decide puxar o gatilho, 19 00:01:02,113 --> 00:01:06,749 o dia a dia das decisões que levaram àquele momento, 20 00:01:06,773 --> 00:01:12,899 e as histórias que eles contam a si mesmos para justificar esse comportamento. 21 00:01:13,468 --> 00:01:17,369 Agora, esse tópico não é apenas acadêmico para mim. 22 00:01:17,442 --> 00:01:19,227 Na verdade, é um pouco pessoal. 23 00:01:19,251 --> 00:01:22,612 Eu cresci no Condado de Kootenai, Idaho, 24 00:01:22,636 --> 00:01:24,724 e isso é muito importante. 25 00:01:25,147 --> 00:01:29,669 Essa não é a parte do Idaho com batatas. 26 00:01:29,693 --> 00:01:32,111 Nós não temos batatas 27 00:01:32,135 --> 00:01:34,108 e, se me perguntarem sobre batatas, 28 00:01:34,132 --> 00:01:35,483 vou pegar vocês. 29 00:01:35,507 --> 00:01:36,726 (Risos) 30 00:01:36,750 --> 00:01:40,198 Essa parte do Idaho é conhecida por lagos de montanha, 31 00:01:40,222 --> 00:01:42,047 passeios a cavalo, 32 00:01:42,071 --> 00:01:43,319 esqui. 33 00:01:43,684 --> 00:01:46,938 Infelizmente, a partir de 1980, 34 00:01:46,962 --> 00:01:50,969 também se tornou conhecida como a sede mundial 35 00:01:50,993 --> 00:01:52,984 para a Nação Ariana. 36 00:01:53,348 --> 00:01:56,911 Todo ano, membros locais compostos de neonazistas 37 00:01:56,935 --> 00:01:59,924 saíam e marchavam pela nossa cidade 38 00:01:59,948 --> 00:02:01,158 e, todo ano, 39 00:02:01,182 --> 00:02:04,523 membros da nossa cidade apareciam e protestavam contra eles. 40 00:02:04,547 --> 00:02:08,395 Bem, em 2001, me formei no ensino médio, 41 00:02:08,419 --> 00:02:12,577 e fui para a faculdade em Nova Iorque. 42 00:02:12,601 --> 00:02:16,553 Cheguei lá em agosto de 2001. 43 00:02:17,482 --> 00:02:19,766 Como muitos de vocês provavelmente estão cientes, 44 00:02:19,790 --> 00:02:21,681 três semanas depois, 45 00:02:21,705 --> 00:02:23,500 as Torres Gêmeas caíram. 46 00:02:24,243 --> 00:02:27,997 Eu estava chocada. 47 00:02:28,503 --> 00:02:30,878 Eu estava incrivelmente zangada. 48 00:02:32,613 --> 00:02:34,222 Eu queria fazer algo, 49 00:02:34,246 --> 00:02:38,396 mas a única coisa que poderia pensar em fazer naquela época 50 00:02:38,420 --> 00:02:40,623 era estudar árabe. 51 00:02:41,955 --> 00:02:43,112 Admito, 52 00:02:43,136 --> 00:02:47,423 eu era a garota na classe que queria saber 53 00:02:47,423 --> 00:02:49,247 por que "eles" odeiam "a gente". 54 00:02:49,247 --> 00:02:52,638 Comecei a estudar árabe por razões muito erradas. 55 00:02:53,265 --> 00:02:55,200 Mas algo inesperado aconteceu. 56 00:02:55,224 --> 00:02:58,194 Eu ganhei uma bolsa para estudar em Israel. 57 00:02:58,718 --> 00:03:01,535 Então, a garota de Idaho foi para o Oriente Médio. 58 00:03:01,559 --> 00:03:06,045 E, enquanto estive lá, conheci muçulmanos palestinos, 59 00:03:06,069 --> 00:03:08,101 cristãos palestinos, 60 00:03:08,125 --> 00:03:09,282 colonos israelenses, 61 00:03:09,306 --> 00:03:11,465 ativistas da paz israelenses. 62 00:03:11,501 --> 00:03:16,035 E o que eu aprendi foi que cada ato tem uma ecologia. 63 00:03:16,696 --> 00:03:18,125 Tem um contexto. 64 00:03:20,074 --> 00:03:23,627 Bem, desde então, dei a volta ao mundo, 65 00:03:23,651 --> 00:03:27,565 estudei movimentos violentos, 66 00:03:27,589 --> 00:03:32,554 trabalhei com ONGs e ex-combatentes no Iraque, 67 00:03:32,578 --> 00:03:33,776 Síria, 68 00:03:33,800 --> 00:03:35,219 Vietnã, 69 00:03:35,243 --> 00:03:36,425 nos Bálcãs, 70 00:03:36,449 --> 00:03:37,730 Cuba. 71 00:03:38,422 --> 00:03:40,817 Eu obtive meu PhD em História, 72 00:03:40,841 --> 00:03:43,355 e agora vou a diversos arquivos 73 00:03:43,379 --> 00:03:45,600 e vasculho os documentos, 74 00:03:45,624 --> 00:03:49,257 procurando por confissões policiais, 75 00:03:49,281 --> 00:03:51,846 processos judiciais, 76 00:03:51,870 --> 00:03:57,086 diários e manifestos de indivíduos envolvidos em ataques violentos. 77 00:03:57,110 --> 00:03:59,766 Quando reunimos todos esses documentos, 78 00:04:00,320 --> 00:04:01,730 o que eles nos dizem? 79 00:04:01,754 --> 00:04:04,921 Nosso cérebro adora mistérios causais, 80 00:04:04,945 --> 00:04:06,133 ao que parece. 81 00:04:06,157 --> 00:04:09,107 Então, sempre que vemos um ataque no noticiário, 82 00:04:09,131 --> 00:04:11,563 tendemos a fazer uma pergunta: 83 00:04:11,587 --> 00:04:12,889 "Por quê? 84 00:04:12,913 --> 00:04:14,404 Por que isso aconteceu?" 85 00:04:14,428 --> 00:04:17,328 Bem, posso dizer que li milhares de manifestos, 86 00:04:17,352 --> 00:04:21,913 e o que descobri é que eles imitativos. 87 00:04:21,937 --> 00:04:25,506 Eles imitam o movimento político em que eles se baseiam. 88 00:04:25,530 --> 00:04:29,543 Assim, eles realmente não nos dizem muito sobre tomada de decisão, 89 00:04:29,567 --> 00:04:31,561 nesse caso particular. 90 00:04:31,924 --> 00:04:36,542 Temos, então, que nos ensinar a fazer uma pergunta totalmente diferente. 91 00:04:36,566 --> 00:04:40,144 Em vez de "Por quê?" temos de perguntar "Como?" 92 00:04:40,168 --> 00:04:43,079 Como é que os indivíduos produzem esses ataques, 93 00:04:43,103 --> 00:04:46,381 e como é que a ecologia da tomada de sua decisão contribui 94 00:04:46,381 --> 00:04:48,581 para o comportamento violento? 95 00:04:48,781 --> 00:04:53,799 Há algumas coisas que aprendi ao fazer esse tipo de pergunta. 96 00:04:53,823 --> 00:04:58,829 O mais importante é que a violência política não é culturalmente endêmica. 97 00:04:58,979 --> 00:05:00,359 Nós a criamos. 98 00:05:00,383 --> 00:05:02,673 E, quer percebamos ou não, 99 00:05:02,697 --> 00:05:08,160 nossos hábitos diários contribuem para a criação da violência 100 00:05:08,184 --> 00:05:09,738 em nosso ambiente. 101 00:05:09,762 --> 00:05:14,978 Aqui estão alguns hábitos que descobri que alimentam a violência. 102 00:05:16,322 --> 00:05:19,562 Uma das primeiras coisas que os agressores faziam 103 00:05:19,586 --> 00:05:23,392 quando se preparavam para um ataque violento 104 00:05:23,416 --> 00:05:27,111 era que eles se fechavam em uma bolha de informação. 105 00:05:27,135 --> 00:05:29,693 Já ouvimos falar de "fake news", certo? 106 00:05:29,717 --> 00:05:32,094 Bem, isso me chocou: 107 00:05:32,118 --> 00:05:35,616 todos os grupos que estudei tinham um slogan de fake news. 108 00:05:35,640 --> 00:05:39,028 Os comunistas franceses o chamavam de "imprensa podre". 109 00:05:39,052 --> 00:05:43,149 Os ultranacionalistas franceses chamavam de "imprensa vendida" 110 00:05:43,173 --> 00:05:45,365 e de "imprensa traidora". 111 00:05:45,389 --> 00:05:48,900 Os islamistas no Egito o chamavam de "notícia depravada". 112 00:05:48,924 --> 00:05:52,829 E os comunistas egípcios o chamavam de "fake news". 113 00:05:53,290 --> 00:05:56,210 Então, por que os grupos gastam todo esse tempo tentando fazer 114 00:05:56,210 --> 00:05:57,820 essas bolhas de informação? 115 00:05:57,820 --> 00:06:00,701 A resposta é realmente muito simples. 116 00:06:00,725 --> 00:06:05,220 Tomamos decisões com base na informação em que confiamos, certo? 117 00:06:05,244 --> 00:06:09,087 Então, se confiarmos em informações erradas, 118 00:06:09,111 --> 00:06:12,086 vamos tomar decisões erradas. 119 00:06:12,110 --> 00:06:15,100 Outro hábito interessante que os indivíduos usavam 120 00:06:15,124 --> 00:06:18,067 quando eles queriam produzir um ataque violento 121 00:06:18,091 --> 00:06:21,621 era que eles olhavam para sua vítima não como um indivíduo, 122 00:06:21,645 --> 00:06:24,356 mas como membro de uma equipe adversária. 123 00:06:25,006 --> 00:06:26,737 Bem, isso fica muito estranho. 124 00:06:27,444 --> 00:06:31,903 Há uma ciência divertida sobre o cérebro por que esse tipo de pensamento é eficaz. 125 00:06:31,913 --> 00:06:35,441 Digamos que eu divida todos vocês em duas equipes: 126 00:06:35,465 --> 00:06:36,617 equipe azul 127 00:06:36,641 --> 00:06:37,945 e equipe vermelha. 128 00:06:37,969 --> 00:06:41,437 E depois peça para vocês competirem num jogo, uns contra os outros. 129 00:06:41,461 --> 00:06:44,969 Bem, o engraçado é que, em milissegundos, 130 00:06:45,443 --> 00:06:50,292 vocês vão começar a experimentar prazer, prazer, 131 00:06:50,316 --> 00:06:54,919 quando algo ruim acontecer aos membros da outra equipe. 132 00:06:55,814 --> 00:06:57,462 A coisa engraçada sobre isto é, 133 00:06:57,462 --> 00:06:59,922 se eu pedir para alguém da equipe azul 134 00:06:59,922 --> 00:07:02,189 se juntar à equipe vermelha, 135 00:07:02,805 --> 00:07:04,797 seu cérebro reajusta, 136 00:07:04,821 --> 00:07:06,195 e, em milissegundos, 137 00:07:06,219 --> 00:07:08,812 a pessoa começará agora a experimentar prazer 138 00:07:08,836 --> 00:07:12,294 quando coisas ruins acontecerem a membros da sua equipe antiga. 139 00:07:14,064 --> 00:07:16,753 Esse é um bom exemplo 140 00:07:16,753 --> 00:07:20,613 de por que o pensamento "nós-eles" é tão perigoso 141 00:07:20,613 --> 00:07:22,463 no nosso ambiente político. 142 00:07:22,487 --> 00:07:26,828 Outro hábito que os agressores usavam para se estimularem para um ataque 143 00:07:26,852 --> 00:07:29,220 era se concentrar em diferenças. 144 00:07:29,244 --> 00:07:32,201 Ou seja, olhavam para as vítimas e pensavam: 145 00:07:33,075 --> 00:07:35,221 "Não tenho nada em comum com essa pessoa. 146 00:07:35,245 --> 00:07:37,930 Ela é totalmente diferente de mim". 147 00:07:38,829 --> 00:07:41,995 Novamente, isso pode soar como um conceito muito simples, 148 00:07:42,019 --> 00:07:46,676 mas há uma ciência fascinante por trás por que isso funciona. 149 00:07:47,209 --> 00:07:52,158 Digamos que mostre a vocês vídeos de mãos de cores diferentes 150 00:07:52,462 --> 00:07:56,237 e alfinetes afiados sendo empurrados para essas mãos de cores diferentes, 151 00:07:56,261 --> 00:07:57,411 Certo? 152 00:07:58,360 --> 00:08:00,219 Quem é branco 153 00:08:00,243 --> 00:08:05,954 provavelmente vai experimentar a ativação mais empática, 154 00:08:05,978 --> 00:08:07,541 ou maior dor, 155 00:08:07,565 --> 00:08:10,496 quando vê um alfinete entrar na mão branca. 156 00:08:12,053 --> 00:08:15,447 Quem é latino-americano, árabe ou negro 157 00:08:15,471 --> 00:08:19,038 provavelmente vai experimentar a ativação mais empática 158 00:08:19,062 --> 00:08:24,366 ao ver um alfinete entrar na mão que se parece mais com a dele. 159 00:08:26,846 --> 00:08:30,718 A boa notícia é que isso não é biologicamente fixo. 160 00:08:30,742 --> 00:08:32,537 Esse é um comportamento aprendido. 161 00:08:33,252 --> 00:08:37,730 O que significa que, quanto mais passamos tempo com outras comunidades étnicas 162 00:08:37,754 --> 00:08:41,157 e, quanto mais as vemos como semelhantes a nós 163 00:08:41,677 --> 00:08:44,037 e parte da "nossa equipe", 164 00:08:44,647 --> 00:08:46,875 mais sentimos a sua dor. 165 00:08:46,899 --> 00:08:49,456 O último hábito de que vou falar 166 00:08:49,480 --> 00:08:54,450 é quando os agressores se preparam para sair e fazer um ataque. 167 00:08:54,561 --> 00:08:57,227 Eles focavam certos estímulos emocionais. 168 00:08:57,251 --> 00:09:02,141 Por meses, eles se preparavam concentrando-se em sinais de raiva, 169 00:09:02,141 --> 00:09:03,141 por exemplo. 170 00:09:03,141 --> 00:09:05,839 Eu trouxe isso porque se tornou muito popular agora. 171 00:09:05,863 --> 00:09:09,547 Se vocês leem blogs ou noticiários, 172 00:09:09,571 --> 00:09:13,550 ouvem falar de dois conceitos da ciência experimental: 173 00:09:13,574 --> 00:09:16,779 sequestro de amígdala e sequestro emocional. 174 00:09:16,803 --> 00:09:19,376 Bem, sequestro de amígdala 175 00:09:19,400 --> 00:09:23,489 é o conceito em que lhes mostre um estímulo, digamos uma arma, 176 00:09:23,513 --> 00:09:27,406 e seu cérebro reaja com uma resposta automática de ameaça 177 00:09:27,430 --> 00:09:28,599 a esse estímulo. 178 00:09:28,623 --> 00:09:31,124 Sequestro emocional é um conceito muito semelhante. 179 00:09:31,148 --> 00:09:36,179 É a ideia em que lhes mostro um estímulo de raiva, por exemplo, 180 00:09:36,203 --> 00:09:41,292 e seu cérebro vai reagir com uma resposta automática de raiva 181 00:09:41,316 --> 00:09:42,643 a esse estímulo. 182 00:09:42,667 --> 00:09:46,646 Acho que as mulheres geralmente entendem isso melhor do que homens. 183 00:09:46,670 --> 00:09:47,677 (Risos) 184 00:09:47,701 --> 00:09:51,227 Esse tipo de narrativa de sequestro chama nossa atenção. 185 00:09:51,251 --> 00:09:54,016 Apenas a palavra "sequestro" chama nossa atenção. 186 00:09:54,526 --> 00:09:56,838 A questão é, na maioria das vezes, 187 00:09:56,838 --> 00:10:00,472 não é assim que os estímulos funcionam na vida real. 188 00:10:00,970 --> 00:10:04,694 Quando se estuda história, descobre-se que somos bombardeados 189 00:10:04,694 --> 00:10:08,571 com centenas de milhares de estímulos todos os dias. 190 00:10:08,841 --> 00:10:10,958 E, então, o que fazemos é aprender a filtrar. 191 00:10:10,958 --> 00:10:14,786 Nós ignoramos alguns estímulos, e prestamos atenção a outros. 192 00:10:15,003 --> 00:10:18,631 Para violência política, isso se torna muito importante, 193 00:10:18,655 --> 00:10:22,510 porque significa que os agressores geralmente não veem 194 00:10:22,510 --> 00:10:24,590 apenas um estímulo de raiva 195 00:10:24,590 --> 00:10:26,470 e de repente atacam. 196 00:10:26,825 --> 00:10:28,288 Em vez disso, 197 00:10:28,312 --> 00:10:34,831 politicos e ativistas sociais passam semanas, meses, anos, 198 00:10:34,855 --> 00:10:39,878 inundando o ambiente com estímulos de raiva, por exemplo, 199 00:10:39,902 --> 00:10:41,905 e os agressores, 200 00:10:41,929 --> 00:10:44,364 eles prestavam atenção a esses estímulos, 201 00:10:44,388 --> 00:10:46,914 confiavam nesses estímulos, 202 00:10:46,938 --> 00:10:48,486 eles se concentravam neles, 203 00:10:48,510 --> 00:10:51,112 até memorizavam esses estímulos. 204 00:10:51,136 --> 00:10:57,613 Tudo isso realmente mostra quão importante é estudar história. 205 00:10:57,637 --> 00:11:01,607 Uma coisa é ver como os estímulos funcionam num ambiente de laboratório. 206 00:11:01,631 --> 00:11:05,245 E esses experimentos de laboratório são incrivelmente importantes. 207 00:11:05,269 --> 00:11:09,491 Eles nos fornecem muitos dados novos sobre como nosso corpo funciona. 208 00:11:10,269 --> 00:11:12,944 Mas também é muito importante ver 209 00:11:12,944 --> 00:11:15,481 como esses estímulos funcionam na vida real. 210 00:11:18,535 --> 00:11:22,700 Então, o que tudo isso nos diz sobre violência política? 211 00:11:23,908 --> 00:11:27,810 A violência política não é culturalmente endêmica. 212 00:11:27,985 --> 00:11:33,208 Não é uma resposta automática e predeterminada a estímulos do ambiente. 213 00:11:33,523 --> 00:11:35,176 Nós a produzimos. 214 00:11:35,356 --> 00:11:37,879 Nossos hábitos cotidianos a produzem. 215 00:11:38,945 --> 00:11:42,906 Vamos voltar àquelas duas mulheres que mencionei no início. 216 00:11:43,940 --> 00:11:49,198 A primeira mulher estava prestando atenção a essas campanhas ultrajantes, 217 00:11:49,542 --> 00:11:50,965 então, ela pegou uma arma 218 00:11:50,989 --> 00:11:53,608 e se aproximou de um soldado em um posto de controle. 219 00:11:55,302 --> 00:11:58,905 Mas, naquele momento, algo realmente interessante aconteceu. 220 00:11:58,929 --> 00:12:01,188 Ela olhou para aquele soldado 221 00:12:01,822 --> 00:12:03,775 e pensou consigo mesma: 222 00:12:06,180 --> 00:12:08,762 "Ele tem a mesma idade que eu. 223 00:12:09,435 --> 00:12:11,343 Ele se parece comigo". 224 00:12:12,724 --> 00:12:15,262 E ela abaixou a arma e foi embora. 225 00:12:16,179 --> 00:12:18,602 Apenas por aquela pequena semelhança. 226 00:12:20,128 --> 00:12:23,702 A segunda garota teve um desfecho totalmente diferente. 227 00:12:25,533 --> 00:12:28,382 Ela também ouviu as campanhas ultrajantes, 228 00:12:28,406 --> 00:12:31,398 mas ela se cercou com indivíduos 229 00:12:31,422 --> 00:12:33,246 que apoiavam a violência, 230 00:12:33,270 --> 00:12:36,226 com colegas que apoiavam a violência dela. 231 00:12:36,707 --> 00:12:39,983 Ela se fechou em uma bolha de informação. 232 00:12:40,747 --> 00:12:44,397 Ela focou certos estímulos emocionais por meses. 233 00:12:44,421 --> 00:12:50,013 Ela aprendeu a contornar certas inibições culturais contra a violência. 234 00:12:50,037 --> 00:12:51,784 Ela praticou seu plano, 235 00:12:51,808 --> 00:12:54,055 ela ensinou a si mesma novos hábitos 236 00:12:54,079 --> 00:12:58,201 e, quando chegou a hora, levou sua bomba para o café, 237 00:12:58,225 --> 00:13:00,526 e prosseguiu com aquele ataque. 238 00:13:03,592 --> 00:13:06,403 Aquilo não foi um impulso. 239 00:13:06,903 --> 00:13:08,576 Aquilo foi aprendido. 240 00:13:10,463 --> 00:13:14,345 A polarização em nossa sociedade não é um impulso, 241 00:13:14,369 --> 00:13:15,715 é um aprendizado. 242 00:13:16,391 --> 00:13:19,318 Todos os dias ensinamos a nós mesmos: 243 00:13:19,342 --> 00:13:21,304 as notícias em que clicamos, 244 00:13:21,328 --> 00:13:23,372 as emoções que focamos, 245 00:13:23,396 --> 00:13:27,756 os pensamentos que temos sobre o time vermelho ou o time azul. 246 00:13:28,284 --> 00:13:30,549 Tudo isso contribui para o aprendizado, 247 00:13:30,573 --> 00:13:32,296 quer percebamos ou não. 248 00:13:32,696 --> 00:13:34,324 A boa notícia 249 00:13:35,570 --> 00:13:40,591 é que, enquanto os indivíduos que estudo já tomaram suas decisões, 250 00:13:41,465 --> 00:13:43,885 ainda podemos mudar nossa trajetória. 251 00:13:45,164 --> 00:13:48,344 Podemos nunca tomar as decisões que eles tomaram, 252 00:13:48,848 --> 00:13:52,997 mas podemos parar de contribuir para ecologias violentas. 253 00:13:53,552 --> 00:13:58,038 Podemos sair de seja lá qual for a bolha de notícias em que estamos, 254 00:13:58,062 --> 00:14:02,106 podemos estar mais atentos sobre os estímulos emocionais 255 00:14:02,130 --> 00:14:03,359 em que nos concentramos, 256 00:14:03,383 --> 00:14:06,032 a armadilha do ultraje em que clicamos. 257 00:14:06,422 --> 00:14:07,602 Mas, o mais importante, 258 00:14:07,626 --> 00:14:12,127 podemos parar de nos ver apenas como membros da equipe vermelha 259 00:14:12,151 --> 00:14:13,545 ou equipe azul. 260 00:14:13,959 --> 00:14:19,856 Porque, não importa se somos cristãos, muçulmanos, judeus, ateus, 261 00:14:19,880 --> 00:14:22,364 democratas ou republicanos, 262 00:14:22,388 --> 00:14:23,544 nós somos humanos. 263 00:14:23,568 --> 00:14:25,343 Nós somos seres humanos. 264 00:14:25,992 --> 00:14:29,494 E, muitas vezes, compartilhamos hábitos realmente semelhantes. 265 00:14:30,224 --> 00:14:32,057 Nós temos diferenças. 266 00:14:32,081 --> 00:14:34,296 Essas diferenças são lindas, 267 00:14:34,320 --> 00:14:36,761 e essas diferenças são muito importantes. 268 00:14:36,785 --> 00:14:42,910 Mas nosso futuro depende de sermos capazes de encontrar um consenso 269 00:14:43,278 --> 00:14:44,628 com o outro lado. 270 00:14:45,785 --> 00:14:49,120 E é por isso que é tão importante 271 00:14:49,144 --> 00:14:51,723 que possamos treinar de novo nosso cérebro 272 00:14:51,747 --> 00:14:55,547 e parar de contribuir para ecologias violentas. 273 00:14:56,272 --> 00:14:57,444 Obrigada. 274 00:14:57,468 --> 00:14:59,374 (Aplausos)