0:00:01.139,0:00:03.474 Quando pensamos em [br]preconceito e parcialidade, 0:00:03.474,0:00:05.705 tendemos a pensar em [br]pessoas estúpidas e más 0:00:05.705,0:00:08.307 a fazerem coisas estúpidas e más. 0:00:08.307,0:00:10.498 E esta ideia está muito bem resumida 0:00:10.498,0:00:13.488 pelo crítico britânico William Hazlitt, [br]que escreveu: 0:00:13.488,0:00:15.893 [br]"O preconceito é filho da ignorância". 0:00:15.893,0:00:17.857 Quero tentar convencer-vos aqui 0:00:17.857,0:00:19.509 que isto não é verdade. 0:00:19.509,0:00:20.938 Quero tentar convencer-vos 0:00:20.938,0:00:22.886 que o preconceito e a parcialidade 0:00:22.886,0:00:26.176 são naturais, são muitas vezes racionais 0:00:26.176,0:00:27.883 e, muitas vezes, até são morais. 0:00:27.883,0:00:30.140 Eu acho que uma vez que percebamos isso, 0:00:30.140,0:00:32.771 estamos numa melhor [br]posição para entendê-los 0:00:32.771,0:00:35.356 quando eles têm terríveis consequências, 0:00:35.356,0:00:37.976 e estamos numa melhor [br]posição para saber o que fazer 0:00:37.976,0:00:39.667 quando isso acontece. 0:00:39.667,0:00:41.676 Então, comecemos com os estereótipos. [br] 0:00:41.676,0:00:43.596 Vocês olham para mim, sabem o meu nome, [br] 0:00:43.596,0:00:45.057 sabem algumas coisas sobre mim 0:00:45.057,0:00:46.717 e podem fazer certos julgamentos. 0:00:46.717,0:00:49.717 Podem fazer suposições [br]sobre a minha etnia, 0:00:49.717,0:00:52.843 a minha filiação política, [br]as minhas crenças religiosas. 0:00:52.843,0:00:54.959 Estes julgamentos tendem a estar corretos. 0:00:54.959,0:00:56.932 Somos muito bons neste tipo de coisas. 0:00:56.932,0:00:58.714 Somos muito bons neste tipo de coisas 0:00:58.714,0:01:01.394 porque a nossa capacidade [br]para estereotipar as pessoas 0:01:01.394,0:01:04.515 não é uma espécie de [br]capricho arbitrário da mente, 0:01:04.515,0:01:06.824 mas sim uma instância específica 0:01:06.824,0:01:08.409 de um processo mais geral, 0:01:08.409,0:01:10.109 que é nós termos experiência 0:01:10.109,0:01:11.595 com coisas e pessoas no mundo 0:01:11.595,0:01:13.300 que se enquadram em categorias, 0:01:13.300,0:01:14.949 e podemos usar a nossa experiência 0:01:14.949,0:01:18.152 para fazer generalizações sobre [br]novas instâncias dessas categorias. 0:01:18.152,0:01:20.304 Todos nós aqui temos muita experiência 0:01:20.304,0:01:22.410 com cadeiras e maçãs e cães. 0:01:22.410,0:01:23.965 A partir disto podemos ver 0:01:23.965,0:01:26.215 exemplos que não fazem sentido [br]e podemos deduzir: 0:01:26.215,0:01:27.722 podemos sentar-nos na cadeira, 0:01:27.722,0:01:30.426 podemos comer a maçã, o cão irá ladrar. 0:01:30.426,0:01:32.025 Mas podemos estar errados. 0:01:32.025,0:01:34.246 A cadeira pode partir-se [br]se nos sentarmos nela, 0:01:34.246,0:01:36.412 a maçã pode estar envenenada, [br]o cão pode não ladrar. 0:01:36.412,0:01:38.615 De facto, este é o meu cão Tessie [br]que não ladra. 0:01:38.615,0:01:39.819 (Risos) 0:01:39.819,0:01:42.189 Mas, na maior parte dos casos, [br]nós somos bons nisto, 0:01:42.189,0:01:43.531 fazemos boas suposições, 0:01:43.531,0:01:45.589 tanto no domínio social, [br]como no não social. 0:01:45.589,0:01:47.389 Se não fôssemos capazes de fazê-lo, 0:01:47.389,0:01:50.692 se não conseguíssemos fazer suposições [br]sobre novas instâncias que encontramos, 0:01:50.692,0:01:52.152 não sobreviveríamos. 0:01:52.152,0:01:55.988 Na verdade, Hazlitt mais à frente [br]no seu maravilhoso ensaio admite isto. 0:01:55.988,0:01:56.914 Ele escreve: 0:01:56.914,0:01:58.841 "Sem a ajuda do preconceito e do hábito, 0:01:58.841,0:02:01.416 "eu não encontraria o caminho [br]para atravessar a sala; 0:02:01.416,0:02:04.186 "nem saberia como me comportar [br]em qualquer circunstância, 0:02:04.186,0:02:07.244 "nem o que sentir [br]em qualquer relação da vida". 0:02:07.902,0:02:09.352 Ou tomar partido. 0:02:09.352,0:02:10.773 Às vezes dividimos o mundo 0:02:10.773,0:02:14.175 em "nós contra eles", em "parte do grupo" [br]contra "fora do grupo". 0:02:14.175,0:02:16.727 Outras vezes sabemos [br]que estamos a fazer algo errado 0:02:16.736,0:02:18.495 e envergonhamo-nos com isso. 0:02:18.495,0:02:20.140 Às vezes sentimos orgulho nisso. 0:02:20.140,0:02:21.644 Reconhecemos isso abertamente. 0:02:21.644,0:02:22.935 O meu exemplo favorito 0:02:22.935,0:02:25.337 é uma pergunta que veio da plateia 0:02:25.337,0:02:28.190 num debate republicano [br]antes das últimas eleições. 0:02:28.348,0:02:30.511 (Vídeo) Anderson Cooper: [br]Vamos à sua pergunta, 0:02:30.511,0:02:33.260 a pergunta na audiência, [br]sobre ajuda externa? 0:02:33.260,0:02:34.969 Sim, minha senhora? 0:02:34.969,0:02:37.200 Mulher: O povo americano está a sofrer 0:02:37.200,0:02:39.576 no nosso país neste momento. 0:02:39.576,0:02:42.835 Porque é que continuamos [br]a enviar ajuda externa 0:02:42.835,0:02:44.620 para outros países 0:02:44.620,0:02:48.227 quando precisamos de toda a ajuda que [br]pudermos conseguir para nós mesmos? 0:02:48.227,0:02:49.883 AC: Governador Perry, e esta? 0:02:49.883,0:02:51.297 (Aplausos) 0:02:51.297,0:02:53.042 Rick Perry: Sem dúvida, eu... 0:02:53.290,0:02:55.580 Paul Bloom: Todas as pessoas [br]presentes no palco 0:02:55.580,0:02:57.970 concordaram com a premissa [br]da pergunta da senhora: 0:02:57.970,0:02:59.802 "Os americanos devem importar-se mais 0:02:59.802,0:03:02.176 "com os americanos do que [br]com as outras pessoas?" 0:03:02.176,0:03:04.886 De facto, em geral, as pessoas [br]são muitas vezes seduzidas 0:03:04.886,0:03:07.993 por sentimentos de solidariedade, [br]lealdade, orgulho, patriotismo, 0:03:07.993,0:03:10.439 para com o seu país ou [br]para com o seu grupo étnico. 0:03:10.439,0:03:11.900 Independentemente da política, 0:03:11.900,0:03:14.177 muitas pessoas sentem orgulho [br]em ser americanas 0:03:14.177,0:03:16.176 e favorecem-nos em relação[br]a outros países. 0:03:16.176,0:03:18.954 Noutros países sente-se o mesmo [br]em relação aos seus países 0:03:18.954,0:03:21.224 e sentimos o mesmo [br]em relação às nossas etnias. 0:03:21.224,0:03:22.968 Alguns de vocês podem rejeitar isto. 0:03:22.968,0:03:24.997 Alguns de vocês podem ser tão cosmopolitas 0:03:24.997,0:03:26.833 que acham que etnia e nacionalidade 0:03:26.833,0:03:29.790 não deveriam ter nenhuma influência moral. 0:03:29.225,0:03:31.751 Mas até vocês, sofisticados, 0:03:31.751,0:03:33.741 aceitam que deve haver alguma preferência 0:03:33.741,0:03:36.836 relativamente aos que fazem parte [br]do grupo dos amigos e família, 0:03:36.836,0:03:38.468 das pessoas que nos são próximas, 0:03:38.468,0:03:40.257 e por isso mesmo fazem uma distinção 0:03:40.257,0:03:41.433 entre "nós" e "eles". 0:03:41.797,0:03:43.738 Esta distinção é bastante natural 0:03:43.738,0:03:46.711 e muitas vezes bastante moral, [br]mas pode ter más consequências. 0:03:46.711,0:03:48.441 Isso fez parte da investigação 0:03:48.441,0:03:51.260 do grande psicólogo social Henri Tajfel. 0:03:51.425,0:03:53.967 Tajfel nasceu na Polónia em 1919. 0:03:53.967,0:03:56.221 Emigrou para ir para [br]a universidade em França, 0:03:56.221,0:03:59.373 porque sendo judeu não podia [br]frequentar a universidade na Polónia 0:03:59.373,0:04:01.226 e depois alistou-se no exército francês 0:04:01.226,0:04:02.313 na II Guerra Mundial. 0:04:02.313,0:04:06.690 Foi capturado e acabou [br]num campo de prisioneiros de guerra. 0:04:06.091,0:04:07.962 Foi um tempo aterrorizador para ele 0:04:07.962,0:04:10.008 porque, se descobrissem que ele era judeu, 0:04:10.008,0:04:12.046 podia ir parar a um campo de concentração, 0:04:12.046,0:04:14.028 onde provavelmente não teria sobrevivido. 0:04:14.028,0:04:16.780 Na verdade, quando [br]a guerra terminou e ele foi libertado, 0:04:16.780,0:04:19.554 a maior parte dos seus amigos [br]e familiares estavam mortos. 0:04:19.554,0:04:21.253 Envolveu-se em diversas atividades. 0:04:21.253,0:04:22.419 Ajudou órfãos de guerra. 0:04:22.419,0:04:24.257 Mas tinha um interesse há muito tempo 0:04:24.257,0:04:25.521 na ciência do preconceito, 0:04:25.521,0:04:28.560 e assim, quando abriu uma prestigiada[br]bolsa de estudos britânica 0:04:28.560,0:04:29.933 sobre estereótipos, 0:04:29.933,0:04:31.351 ele concorreu e ganhou-a. 0:04:31.351,0:04:33.698 Começou então uma carreira incrível. 0:04:33.698,0:04:36.370 O que lançou a sua carreira foi a perceção 0:04:36.370,0:04:38.395 de que o que a maioria das pessoas pensava 0:04:38.395,0:04:40.260 sobre o Holocausto estava errada. 0:04:40.260,0:04:42.543 Muitas pessoas, a maioria na época, 0:04:42.543,0:04:45.009 viam o Holocausto como [br]uma espécie de representação 0:04:45.009,0:04:47.250 de uma falha trágica [br]por parte dos alemães, 0:04:47.250,0:04:51.219 de uma mácula genética, [br]de uma personalidade autoritária. 0:04:51.824,0:04:53.238 Tajfel rejeitou isso. 0:04:53.238,0:04:55.843 Tajfel disse que o que vemos no Holocausto 0:04:55.843,0:04:58.089 é apenas um exagero 0:04:58.089,0:05:00.410 de processos psicológicos normais 0:05:00.410,0:05:01.768 que existem em todos nós. 0:05:01.768,0:05:04.659 Para explorar esta ideia [br]fez uma série de estudos clássicos 0:05:04.659,0:05:06.231 com adolescentes britânicos. 0:05:06.231,0:05:07.638 Num dos seus estudos 0:05:07.638,0:05:10.222 fez uma série de perguntas [br]a adolescentes britânicos. 0:05:10.222,0:05:12.346 Depois, com base [br]nas suas respostas, dizia: 0:05:12.346,0:05:14.619 "Eu vi as suas respostas [br]e, com base nelas, 0:05:14.619,0:05:16.440 "determinei que você é ..." 0:05:16.440,0:05:17.737 — disse a metade deles — 0:05:17.737,0:05:20.583 "um amante de Kandinsky, [br]você adora a obra de Kandinsky, 0:05:20.583,0:05:23.550 ou "um amante de Klee, [br]você adora a obra de Klee." 0:05:23.550,0:05:25.568 Era inteiramente falso. 0:05:25.568,0:05:28.004 As respostas não tinham nada a ver [br]com Kandinsky ou Klee. 0:05:28.004,0:05:30.688 Provavelmente nunca tinham [br]ouvido falar desses artistas. 0:05:30.688,0:05:32.887 Ele apenas os dividiu arbitrariamente. 0:05:33.236,0:05:36.452 Mas o que descobriu foi [br]que estas categorias eram importantes. 0:05:36.452,0:05:39.100 Assim, quando mais tarde [br]deu dinheiro aos adolescentes, 0:05:39.100,0:05:40.638 estes preferiam dar o dinheiro 0:05:40.638,0:05:42.155 a membros do seu grupo 0:05:42.155,0:05:44.363 em vez de dar a membros do outro grupo. 0:05:44.363,0:05:46.769 Pior ainda, eles estavam tão interessados 0:05:46.769,0:05:48.564 em estabelecer uma diferença 0:05:48.564,0:05:50.942 entre o seu grupo e o outros grupos, 0:05:50.942,0:05:53.413 que abdicariam do dinheiro [br]para o seu próprio grupo 0:05:53.413,0:05:56.224 se, fazendo isso, pudessem [br]dar ainda menos ao outro grupo. 0:05:56.442,0:05:58.281 (Risos) 0:05:58.281,0:06:00.662 Esta parcialidade parece [br]mostrar-se muito cedo. 0:06:00.662,0:06:02.916 A minha colega e esposa, [br]Karen Wynn, em Yale 0:06:02.916,0:06:04.747 fez uma série de estudos com bebés 0:06:04.747,0:06:07.337 em que mostra bonecos a bebés. 0:06:07.337,0:06:09.606 Os bonecos têm certas [br]preferências alimentares. 0:06:09.606,0:06:12.007 Assim, um dos bonecos [br]pode gostar de feijão verde. 0:06:12.007,0:06:14.420 Outro boneco pode gostar de bolachas. 0:06:14.196,0:06:16.593 Eles testam as preferências [br]alimentares dos bebés, 0:06:16.593,0:06:18.901 e os bebés geralmente [br]preferem as bolachas. 0:06:19.188,0:06:20.385 Mas a questão é: 0:06:20.385,0:06:22.620 Será que isso é importante para os bebés 0:06:22.620,0:06:24.654 quanto à forma como eles tratam[br]os bonecos? 0:06:24.654,0:06:25.650 É muito importante. 0:06:25.650,0:06:27.638 Eles têm tendência para preferir o boneco 0:06:27.638,0:06:29.946 que tem os mesmos gostos [br]de comida que eles têm. 0:06:29.946,0:06:32.606 Pior ainda, eles preferem os bonecos 0:06:32.606,0:06:35.653 que punem outro boneco [br]com um gosto diferente. 0:06:35.653,0:06:37.521 (Risos) 0:06:37.521,0:06:38.994 Vemos este tipo de psicologia 0:06:38.994,0:06:41.387 "parte do grupo", "fora do grupo"[br]a toda a hora. 0:06:41.387,0:06:43.322 Vemos isso em confrontos políticos, 0:06:43.322,0:06:45.572 dentro de grupos[br]com diferentes ideologias. 0:06:45.572,0:06:49.200 Vemo-lo, no seu extremo, [br]em situações de guerra, 0:06:49.200,0:06:52.497 em que não se trata apenas de dar menos [br]aos "fora do grupo", 0:06:52.497,0:06:54.433 mas em que estes são desumanizados, 0:06:54.433,0:06:56.495 como na perspetiva nazi em que os judeus 0:06:56.495,0:06:58.385 são tratados como vermes ou piolhos, 0:06:58.385,0:07:02.240 ou a perspetiva norte-americana [br]de japoneses como ratos. 0:07:02.560,0:07:04.870 Os estereótipos também [br]podem ser distorcidos. 0:07:04.870,0:07:07.219 Muitas vezes são racionais e úteis 0:07:07.219,0:07:08.811 mas às vezes são irracionais, 0:07:08.811,0:07:10.177 dão as respostas erradas. 0:07:10.177,0:07:13.216 Outras vezes levam a [br]consequências claramente imorais. 0:07:13.216,0:07:16.219 O caso que mais tem sido estudado 0:07:16.219,0:07:17.583 é a questão da raça. 0:07:17.583,0:07:19.258 Houve um estudo fascinante, 0:07:19.258,0:07:21.285 antes das eleições de 2008, 0:07:21.285,0:07:24.879 em que psicólogos sociais [br]consideraram em que medida 0:07:24.879,0:07:27.801 é que os candidatos eram [br]associados com os EUA, 0:07:27.801,0:07:30.987 como numa associação inconsciente [br]com a bandeira norte-americana. 0:07:31.143,0:07:32.772 Num dos seus estudos compararam 0:07:32.772,0:07:34.599 Obama e McCain, e perceberam 0:07:34.599,0:07:37.997 que McCain é considerado [br]mais americano do que Obama. 0:07:37.997,0:07:41.086 De certa forma, as pessoas [br]não ficam surpreendidas ao ouvir isto. 0:07:41.086,0:07:42.799 McCain é um famoso herói de guerra, 0:07:42.799,0:07:44.449 e muita gente diria explicitamente 0:07:44.449,0:07:46.889 que ele tem uma história [br]mais americana do que Obama. 0:07:47.127,0:07:49.157 Mas também compararam Obama 0:07:49.157,0:07:51.316 ao primeiro-ministro [br]britânico, Tony Blair, 0:07:51.316,0:07:52.722 e descobriram que Blair 0:07:52.722,0:07:55.204 também foi considerado [br]mais americano do que Obama, 0:07:55.204,0:07:56.476 (Risos) 0:07:56.476,0:07:58.809 ... ainda que explicitamente [br]as pessoas achassem 0:07:58.809,0:08:00.638 que ele não era minimamente americano. 0:08:00.638,0:08:01.405 (Risos) 0:08:01.405,0:08:03.163 Mas estavam a responder, obviamente, 0:08:03.163,0:08:04.879 à cor da pele. 0:08:05.679,0:08:07.665 Estes estereótipos e tendências 0:08:07.665,0:08:09.306 têm consequências no mundo real, 0:08:09.306,0:08:11.646 subtis mas muito importantes. 0:08:11.646,0:08:14.308 Num estudo recente, os investigadores 0:08:14.793,0:08:18.070 colocaram anúncios no "eBay" [br]para a venda de cartões de basebol. 0:08:18.070,0:08:22.183 Alguns eram segurados por mãos brancas, [br]outros por mãos pretas. 0:08:22.183,0:08:24.021 Os cartões de basebol eram os mesmos. 0:08:24.021,0:08:26.949 Mas os das mãos pretas [br]tiveram menos propostas 0:08:26.949,0:08:29.281 do que os segurados por mãos brancas. 0:08:29.281,0:08:31.705 Numa investigação feita em Stanford, 0:08:31.905,0:08:35.220 psicólogos exploraram o caso 0:08:35.220,0:08:39.567 de pessoas condenadas pelo assassinato [br]de uma pessoa branca. 0:08:39.567,0:08:42.132 Acontece que, mantendo [br]tudo o resto constante, 0:08:42.132,0:08:44.780 será consideravelmente mais [br]provável sermos executados 0:08:44.780,0:08:46.534 se nos parecermos com o homem da direita 0:08:46.534,0:08:48.377 do que com o homem da esquerda. 0:08:48.577,0:08:50.242 E isto acontece em grande parte 0:08:50.242,0:08:53.576 porque o homem da direita corresponde[br]mais ao protótipo do negro, 0:08:53.576,0:08:55.243 mais ao protótipo afro-americano. 0:08:55.243,0:08:57.846 Aparentemente, isso influencia [br]as decisões das pessoas 0:08:57.846,0:08:59.342 sobre o que fazer com ele. 0:08:59.342,0:09:01.258 Portanto, agora que sabemos disto, 0:09:01.258,0:09:02.792 como é que o podemos combater? 0:09:02.792,0:09:04.157 Há diferentes caminhos. 0:09:04.157,0:09:05.929 Um dos caminhos é apelar 0:09:05.929,0:09:07.873 às respostas emocionais das pessoas, 0:09:07.873,0:09:09.729 apelar à empatia. 0:09:09.729,0:09:12.310 E, muitas vezes, fazemos [br]isso através de histórias. 0:09:12.310,0:09:14.395 Se formos um pai liberal 0:09:14.395,0:09:16.250 e quisermos encorajar os nossos filhos 0:09:16.250,0:09:18.854 a acreditar nos méritos [br]de famílias não tradicionais, 0:09:18.854,0:09:21.498 podemos dar-lhes este livro. [br]["Heather Tem Duas Mamãs"] 0:09:21.498,0:09:22.733 Se formos conservadores, 0:09:22.733,0:09:24.133 podemos dar-lhes este livro. 0:09:24.133,0:09:26.735 ["Socorro! Mãe! Estão Liberais [br]Debaixo Da Minha Cama"] 0:09:26.735,0:09:27.438 (Risos) 0:09:27.438,0:09:29.578 Mas, em geral, as histórias [br]podem transformar 0:09:29.578,0:09:32.107 estranhos anónimos em pessoas [br]com que nos importamos. 0:09:32.107,0:09:34.261 A ideia de que nos importamos [br]com as pessoas, 0:09:34.261,0:09:36.464 quando olhamos para elas [br]enquanto indivíduos, 0:09:36.464,0:09:39.283 é uma ideia que tem aparecido [br]ao longo de toda a História. 0:09:39.283,0:09:41.270 Alegadamente Estaline disse: 0:09:41.270,0:09:42.803 "A morte de uma pessoa é uma tragédia, 0:09:42.803,0:09:44.829 "um milhão de mortes é uma estatística". 0:09:44.829,0:09:46.300 E a Madre Teresa disse: 0:09:46.300,0:09:47.945 "Se eu olhar para as massas, nunca agirei. 0:09:47.945,0:09:50.230 "Mas se olhar para um só, aí sim agirei". 0:09:50.230,0:09:51.915 Os psicólogos têm explorado isto. 0:09:51.915,0:09:53.482 Por exemplo, num estudo, 0:09:53.482,0:09:56.627 deram às pessoas uma [br]lista de factos sobre uma crise, 0:09:56.627,0:10:00.142 e analisaram quanto eles iriam doar 0:10:00.142,0:10:01.826 para resolver essa crise. 0:10:01.826,0:10:04.050 A outro grupo não foram [br]dados quaisquer factos 0:10:04.050,0:10:06.130 mas contaram-lhes [br]a história de uma pessoa, 0:10:06.130,0:10:08.555 a quem foi dado um nome e um rosto. 0:10:08.555,0:10:11.565 Verificou-se que estes doaram muito mais. 0:10:11.775,0:10:13.440 Acho que nada disto é segredo 0:10:13.440,0:10:15.928 para quem está envolvido [br]em trabalhos de caridade. 0:10:15.928,0:10:18.158 Não é costume "bombardear" as pessoas 0:10:18.158,0:10:19.516 com factos e estatísticas. 0:10:19.516,0:10:22.393 Pelo contrário, mostram-se as caras, [br]mostram-se as pessoas. 0:10:22.393,0:10:26.509 É possível que ao estendermos [br]a nossa solidariedade a uma pessoa, 0:10:26.509,0:10:30.413 ela se espalhe ao grupo [br]a que essa pessoa pertence. 0:10:30.933,0:10:32.943 Está é Harriet Beecher Stowe. 0:10:33.191,0:10:35.167 A história, talvez mitificada, 0:10:35.167,0:10:37.480 é que o Presidente Lincoln a convidou 0:10:37.480,0:10:39.864 a ir à Casa Branca durante a Guerra Civil 0:10:39.864,0:10:40.985 e lhe disse: 0:10:40.985,0:10:43.866 "Então tu és a rapariga que [br]começou esta grande guerra." 0:10:43.866,0:10:46.152 Estava a referir-se a [br]"A Cabana do Pai Tomás", 0:10:46.152,0:10:48.255 que não é um grande livro de filosofia 0:10:48.255,0:10:51.176 nem de teologia e talvez [br]nem seja grande literatura. 0:10:51.176,0:10:53.630 Mas faz um excelente trabalho 0:10:53.630,0:10:56.395 ao levar as pessoas a [br]colocarem-se no lugar de pessoas 0:10:56.395,0:10:58.723 que, de outra forma, não se colocariam,[br] 0:10:58.723,0:11:00.916 a colocarem-se no lugar dos escravos. 0:11:00.916,0:11:03.068 E isso pode muito bem [br]ter sido um catalisador 0:11:03.068,0:11:04.509 de grandes mudanças sociais. 0:11:04.509,0:11:07.603 Mais recentemente, olhando para os EUA 0:11:07.603,0:11:09.521 das últimas décadas, 0:11:09.521,0:11:12.814 há alguma razão para acreditar [br]que séries como o "The Cosby Show" 0:11:12.814,0:11:16.393 alteraram radicalmente a atitude [br]americana em relação aos afro-americanos, 0:11:16.393,0:11:19.109 enquanto séries como "Will and Grace" [br]e "Modern Family" 0:11:19.109,0:11:20.524 alteraram a atitude americana 0:11:20.524,0:11:21.617 em relação aos "gays". 0:11:21.617,0:11:23.437 Não acho que seja exagerado dizer 0:11:23.437,0:11:26.492 que o principal catalisador [br]nos EUA para a mudança moral 0:11:26.492,0:11:28.533 tenham sido as séries de comédia. 0:11:29.123,0:11:30.426 Mas nem tudo são emoções. 0:11:30.426,0:11:31.852 Eu quero encerrar apelando 0:11:31.852,0:11:33.468 ao poder da razão. 0:11:34.288,0:11:36.237 Algures neste livro maravilhoso, 0:11:36.237,0:11:38.059 "Os Melhores Anjos da Nossa Natureza", 0:11:38.059,0:11:39.532 Steven Pinker diz: 0:11:39.532,0:11:42.258 "O Antigo Testamento diz [br]para amarmos o próximo 0:11:42.258,0:11:44.820 "e o Novo Testamento diz [br]para amarmos o inimigo. 0:11:44.820,0:11:47.533 "Mas, na verdade, [br]eu não amo nenhum dos dois, 0:11:47.533,0:11:49.318 "mas não os quero matar. 0:11:49.318,0:11:51.300 "Sei que tenho obrigações para com eles, 0:11:51.300,0:11:54.591 "mas os meus sentimentos morais, [br]as minhas convicções morais, 0:11:54.591,0:11:56.592 "como me devo comportar em relação a eles, 0:11:56.592,0:11:58.184 "não estão alicerçados no amor, 0:11:58.184,0:12:00.221 "mas na compreensão dos direitos humanos, 0:12:00.221,0:12:02.620 "na crença de que a vida [br]é tão valiosa para eles 0:12:02.620,0:12:04.823 "como a minha vida é para mim". 0:12:04.823,0:12:06.924 E para mostrar isto, [br]ele conta uma história 0:12:06.924,0:12:08.753 do grande filósofo Adam Smith. 0:12:08.753,0:12:10.415 Também quero contar essa história, 0:12:10.415,0:12:11.879 embora a vá modificar um pouco 0:12:11.879,0:12:13.567 para a adaptar aos tempos modernos. 0:12:13.567,0:12:15.075 Adam Smith começa por vos pedir 0:12:15.075,0:12:17.362 para imaginarem a morte [br]de milhares de pessoas 0:12:17.362,0:12:19.397 e imaginarem que esses milhares de pessoas 0:12:19.397,0:12:21.419 são de um país que não vos é familiar. 0:12:21.419,0:12:24.880 Pode ser a China, ou a Índia [br]ou um país em África. 0:12:24.880,0:12:27.274 E Smith pergunta: "Como reagiriam?" 0:12:27.274,0:12:29.468 E vocês diriam: "Bem, isso é terrível", 0:12:29.468,0:12:31.355 e continuariam com as vossas vidas. 0:12:31.355,0:12:34.031 Se abríssemos o [br]The New York Times "online" 0:12:34.031,0:12:36.730 e víssemos isto — isso acontece [br]connosco a toda a hora — 0:12:36.730,0:12:38.400 continuávamos com as nossas vidas. 0:12:38.400,0:12:40.371 Mas imaginem em vez disto, diz Smith, 0:12:40.371,0:12:41.840 que descobríamos que amanhã 0:12:41.840,0:12:44.229 o nosso dedo mindinho iria ser cortado. 0:12:44.229,0:12:46.308 Smith diz que isso seria muito diferente. 0:12:46.308,0:12:49.166 Não iríamos conseguir dormir [br]à noite a pensar nisso. 0:12:49.166,0:12:51.191 Então isto levanta a questão: 0:12:51.191,0:12:53.750 Sacrificaríamos milhares de vidas 0:12:53.750,0:12:55.406 para salvar o nosso dedo mindinho? 0:12:55.406,0:12:57.795 Agora, respondam a isto [br]para vocês próprios... 0:12:57.795,0:12:59.180 (Risos) 0:12:59.180,0:13:00.833 ... mas Smith diz: "Claro que não, 0:13:00.833,0:13:02.712 "que pensamento horrível!". 0:13:02.712,0:13:04.631 E assim, isto levanta a questão, 0:13:04.631,0:13:05.910 como a coloca Smith: 0:13:05.910,0:13:08.569 "Quando os nossos sentimentos [br]passivos são quase sempre 0:13:08.569,0:13:10.105 "tão mesquinhos e tão egoístas, 0:13:10.105,0:13:12.020 "como é que os nossos princípios ativos 0:13:12.020,0:13:14.230 "são tantas vezes [br]tão generosos e tão nobres?" 0:13:14.230,0:13:15.633 E Smith responde: "É a razão, 0:13:15.633,0:13:17.293 "os princípios, a consciência. 0:13:17.293,0:13:18.888 "Estes dizem-nos 0:13:18.888,0:13:22.289 "com uma voz capaz de surpreender [br]a mais presunçosa das nossas paixões, 0:13:22.289,0:13:23.984 "que somos apenas um na multidão, 0:13:23.984,0:13:26.717 "em nada melhor do que qualquer outro [br]na mesma multidão". 0:13:26.717,0:13:28.859 Esta última parte é muitas vezes descrito 0:13:28.859,0:13:31.417 como o princípio da imparcialidade. 0:13:31.877,0:13:34.585 Este princípio da imparcialidade [br]manifesta-se 0:13:34.585,0:13:36.313 em todas as religiões do mundo, 0:13:36.313,0:13:38.701 em todas as diferentes [br]versões da regra de ouro 0:13:38.701,0:13:40.946 e em todas as filosofias morais do mundo, 0:13:40.946,0:13:42.512 que diferem em muitas coisas 0:13:42.512,0:13:45.490 mas partilham o pressuposto [br]de que devemos julgar a moralidade 0:13:45.490,0:13:48.354 a partir de uma espécie [br]de ponto de vista imparcial. 0:13:48.519,0:13:50.556 Para mim, a melhor expressão desta visão 0:13:50.556,0:13:53.228 não é a de um teólogo[br]nem a de um filósofo. 0:13:53.228,0:13:56.420 É a de Humphrey Bogart, [br]no final de "Casablanca." 0:13:56.387,0:13:59.800 Então, atenção, vou revelar: [br]ele está a dizer à sua amada 0:13:59.800,0:14:02.565 que eles têm que se separar [br]para o bem de todos. 0:14:02.565,0:14:04.219 Ele diz-lhe[br]— não vou imitar a pronúncia — 0:14:04.219,0:14:06.233 mas ele diz-lhe: [br]"Não é preciso muito para ver 0:14:06.233,0:14:08.118 "que os problemas de três meras pessoas 0:14:08.118,0:14:10.334 "não contam muito neste mundo louco." 0:14:10.914,0:14:14.045 A nossa razão pode levar-nos [br]a anular as nossas paixões. 0:14:14.045,0:14:15.735 A nossa razão pode motivar-nos 0:14:15.735,0:14:17.158 a alargar a nossa empatia, 0:14:17.158,0:14:19.556 pode levar-nos a escrever [br]"A Cabana do Pai Tomás", 0:14:19.556,0:14:21.346 ou a ler "A Cabana do Pai Tomás". 0:14:21.346,0:14:23.529 E a nossa razão pode motivar-nos a criar 0:14:23.529,0:14:25.482 costumes e "tabus" e leis 0:14:25.482,0:14:27.436 que nos impedem de agir 0:14:27.436,0:14:28.928 de acordo com os nossos impulsos 0:14:28.928,0:14:30.558 quando, enquanto seres racionais, 0:14:30.558,0:14:32.407 sentimos que devemos ser restringidos. 0:14:32.407,0:14:34.780 Uma Constituição é isto. 0:14:34.653,0:14:36.923 Uma Constituição é algo criado no passado 0:14:36.923,0:14:38.211 que se aplica ao presente 0:14:38.211,0:14:39.767 e que nos diz que, não importa 0:14:39.767,0:14:42.436 o quanto queiramos reeleger [br]um presidente popular 0:14:42.436,0:14:44.246 para um terceiro mandato, 0:14:44.246,0:14:46.498 não importa quantos americanos brancos 0:14:46.498,0:14:48.793 queiram restabelecer a escravatura, 0:14:48.793,0:14:50.142 não podemos. 0:14:50.142,0:14:51.955 Nós restringimo-nos a nós próprios. 0:14:51.955,0:14:54.283 E restringimo-nos de outras formas também. 0:14:54.283,0:14:57.147 Sabemos que quando se [br]trata de escolher alguém 0:14:57.147,0:15:00.090 para um trabalho, para um prémio, 0:15:00.090,0:15:02.928 somos fortemente [br]influenciados pela sua raça, 0:15:02.928,0:15:05.119 somos influenciados pelo seu sexo, 0:15:05.119,0:15:07.677 somos influenciados [br]pelo seu aspeto atraente. 0:15:07.677,0:15:10.183 Às vezes podemos dizer: [br]"Bem, é assim que deve ser". 0:15:10.183,0:15:12.488 Mas outras vezes dizemos: [br]"Isto não está certo". 0:15:12.488,0:15:14.189 E então para combatermos isto, 0:15:14.189,0:15:16.686 não apenas nos esforçamos mais, 0:15:16.686,0:15:19.455 mas criamos situações 0:15:19.455,0:15:22.656 em que estas outras fontes de informação [br]não nos podem influenciar. 0:15:22.656,0:15:24.229 É por isso que muitas orquestras 0:15:24.229,0:15:26.526 fazem audições a músicos[br]atrás de cortinas, 0:15:26.526,0:15:28.517 para que a única informação que tenham 0:15:28.520,0:15:31.226 seja a informação que eles[br]acham que deve ser importante. 0:15:31.226,0:15:33.340 Eu acho que o preconceito e a parcialidade 0:15:33.340,0:15:36.103 ilustram uma dualidade [br]fundamental da natureza humana. 0:15:36.103,0:15:39.946 Nós temos intuição, instinto, emoções 0:15:39.946,0:15:42.440 que afetam os nossos julgamentos [br]e as nossas ações 0:15:42.440,0:15:44.386 para o bem e para o mal. 0:15:44.386,0:15:47.937 Mas também somos capazes [br]de deliberações racionais 0:15:47.937,0:15:49.598 e planeamento inteligente, 0:15:49.598,0:15:52.130 e podemos usá-los para, nalguns casos, 0:15:52.130,0:15:54.075 acelerar e alimentar as nossas emoções, 0:15:54.075,0:15:56.995 e noutros casos para as restringir. 0:15:56.995,0:15:58.294 É desta forma 0:15:58.294,0:16:00.923 que a razão nos ajuda a [br]criarmos um mundo melhor. 0:16:01.350,0:16:02.537 Obrigado. 0:16:02.614,0:16:05.406 (Aplausos)