1 00:00:01,000 --> 00:00:03,000 Hoje eu gostaria de falar para vocês 2 00:00:03,000 --> 00:00:06,000 um pouco sobre irracionalidade previsível. 3 00:00:06,000 --> 00:00:10,000 Meu interesse em comportamento irracional 4 00:00:10,000 --> 00:00:13,000 começou muitos anos atrás no hospital. 5 00:00:13,000 --> 00:00:17,000 Eu sofri uma queimadura muito séria. 6 00:00:17,000 --> 00:00:20,000 E se você passa muito tempo no hospital, 7 00:00:20,000 --> 00:00:23,000 você vê muitos tipos de irracionalidades. 8 00:00:23,000 --> 00:00:28,000 E a que me incomodou em especial na enfermaria de queimados 9 00:00:28,000 --> 00:00:32,000 foi a forma como as enfermeiras tiravam as ataduras de mim. 10 00:00:33,000 --> 00:00:35,000 Então, vocês todos já tiraram um Band-Aid de alguém, 11 00:00:35,000 --> 00:00:38,000 e vocês devem ter se perguntado qual é a abordagem certa. 12 00:00:38,000 --> 00:00:42,000 Você tira ele rapidamente -- pouca duração mas alta intensidade -- 13 00:00:42,000 --> 00:00:44,000 ou você tira o Band-Aid lentamente -- 14 00:00:44,000 --> 00:00:48,000 você leva um longo tempo, mas cada segundo não é tão dolorido -- 15 00:00:48,000 --> 00:00:51,000 qual destas abordagens é a abordagem certa? 16 00:00:51,000 --> 00:00:55,000 As enfermeiras do meu departamento pensavam que a abordagem certa 17 00:00:55,000 --> 00:00:58,000 era a de arrancar, então elas pegavam e arrancavam, 18 00:00:58,000 --> 00:01:00,000 e elas pegavam e arrancavam. 19 00:01:00,000 --> 00:01:04,000 Como tinha 70% do meu corpo queimado, isso levava uma hora. 20 00:01:04,000 --> 00:01:07,000 Como vocês podem imaginar, 21 00:01:07,000 --> 00:01:11,000 eu odiava esse procedimento com uma intensidade incrível. 22 00:01:11,000 --> 00:01:13,000 E eu tentava conversar com elas e dizer, 23 00:01:13,000 --> 00:01:14,000 “Por que não tentamos algo diferente? 24 00:01:14,000 --> 00:01:16,000 Por que não levamos um pouco mais de tempo -- 25 00:01:16,000 --> 00:01:21,000 talvez duas horas ao invés de uma -- com um pouco menos de intensidade?” 26 00:01:21,000 --> 00:01:23,000 Elas me diziam duas coisas. 27 00:01:23,000 --> 00:01:27,000 Elas diziam que conheciam o perfil do paciente -- 28 00:01:27,000 --> 00:01:30,000 e que sabiam qual era a forma certa de minimizar a minha dor -- 29 00:01:30,000 --> 00:01:33,000 e também me diziam que a palavra paciente não significava 30 00:01:33,000 --> 00:01:35,000 fazer sugestões ou interferir ou ... 31 00:01:35,000 --> 00:01:38,000 E esse significado para paciente não ocorre somente em Hebraico. 32 00:01:38,000 --> 00:01:41,000 Ocorre em todos os idiomas com que me envolvi até agora. 33 00:01:41,000 --> 00:01:45,000 E, vocês sabem, não tem muito -- não tinha muito que eu pudesse fazer, 34 00:01:45,000 --> 00:01:48,000 e elas continuaram fazendo o que estavam fazendo. 35 00:01:48,000 --> 00:01:50,000 Mais ou menos três anos depois, quando eu deixei o hospital, 36 00:01:50,000 --> 00:01:53,000 comecei a estudar na universidade. 37 00:01:53,000 --> 00:01:56,000 E uma das lições mais interessantes que eu aprendi 38 00:01:56,000 --> 00:01:58,000 foi que existe um método experimental, 39 00:01:58,000 --> 00:02:02,000 se você tem um problema você pode criar uma réplica deste problema 40 00:02:02,000 --> 00:02:06,000 de alguma forma abstrata, você pode investigar esse problema, 41 00:02:06,000 --> 00:02:08,000 e talvez aprender algo sobre o mundo. 42 00:02:08,000 --> 00:02:10,000 Então foi isso que eu fiz. 43 00:02:10,000 --> 00:02:11,000 Eu ainda estava interessado 44 00:02:11,000 --> 00:02:13,000 na questão de tirar ataduras de pacientes queimados. 45 00:02:13,000 --> 00:02:16,000 A princípio eu não tinha muito dinheiro, 46 00:02:16,000 --> 00:02:20,000 então fui a uma loja de ferramentas comprar uma morsa. 47 00:02:20,000 --> 00:02:24,000 E eu trazia pessoas ao laboratório e colocava o dedo delas na morsa, 48 00:02:24,000 --> 00:02:26,000 e apertava um pouquinho. 49 00:02:26,000 --> 00:02:28,000 (risos) 50 00:02:28,000 --> 00:02:31,000 Eu apertava por períodos longos e por períodos curtos, 51 00:02:31,000 --> 00:02:33,000 e com dor que aumentava e diminuía, 52 00:02:33,000 --> 00:02:37,000 e com descansos e sem descansos – todas as variações da dor. 53 00:02:37,000 --> 00:02:39,000 E quando eu terminava de machucar as pessoas, eu perguntava, 54 00:02:39,000 --> 00:02:41,000 “Então, quão dolorido foi isso?" 55 00:02:41,000 --> 00:02:43,000 "Se você tivesse de escolher, 56 00:02:43,000 --> 00:02:45,000 qual você escolheria?” 57 00:02:45,000 --> 00:02:48,000 (risos) 58 00:02:48,000 --> 00:02:51,000 E continuei fazendo isso por mais um tempo. 59 00:02:51,000 --> 00:02:53,000 (risos) 60 00:02:53,000 --> 00:02:57,000 E depois, como todos os bons projetos acadêmicos, consegui mais recursos. 61 00:02:57,000 --> 00:02:59,000 Passei para sons, choques elétricos -- 62 00:02:59,000 --> 00:03:04,000 eu até tinha uma espécie de roupa que podia fazer as pessoas sentirem muito mais dor. 63 00:03:04,000 --> 00:03:08,000 Mas no fim da pesquisa, 64 00:03:08,000 --> 00:03:11,000 eu aprendi que as enfermeiras estavam erradas. 65 00:03:11,000 --> 00:03:14,000 Aqui estavam pessoas maravilhosas com boas intenções 66 00:03:14,000 --> 00:03:16,000 e muita experiência, e ainda assim 67 00:03:16,000 --> 00:03:20,000 elas estavam errando previsivelmente o tempo todo. 68 00:03:20,000 --> 00:03:23,000 Uma vez que não percebemos a duração 69 00:03:23,000 --> 00:03:25,000 da mesma forma que percebemos a intensidade, 70 00:03:25,000 --> 00:03:29,000 eu teria tido menos dor se a duração fosse mais longa 71 00:03:29,000 --> 00:03:31,000 e a intensidade mais baixa. 72 00:03:31,000 --> 00:03:34,000 Seria melhor começar com o meu rosto, 73 00:03:34,000 --> 00:03:36,000 que era muito mais dolorido, depois as pernas, 74 00:03:36,000 --> 00:03:39,000 me dando uma sensação de melhora ao longo do tempo -- 75 00:03:39,000 --> 00:03:40,000 o que seria menos dolorido. 76 00:03:40,000 --> 00:03:42,000 E também teria sido melhor 77 00:03:42,000 --> 00:03:44,000 me dar descansos no meio para eu me recuperar da dor. 78 00:03:44,000 --> 00:03:46,000 Todas estas seriam atitudes ótimas, 79 00:03:46,000 --> 00:03:49,000 e as minhas enfermeiras não faziam a menor idéia. 80 00:03:49,000 --> 00:03:50,000 A partir daquele momento eu comecei a pensar, 81 00:03:50,000 --> 00:03:53,000 as enfermeiras são as únicas pessoas no mundo que entendem as coisas de forma errada, 82 00:03:53,000 --> 00:03:56,000 ou isto acontece de uma forma mais geral? 83 00:03:56,000 --> 00:03:58,000 No fim isto acontece de uma forma mais geral -- 84 00:03:58,000 --> 00:04:01,000 existem muitos erros que fazemos. 85 00:04:01,000 --> 00:04:06,000 E quero lhes dar mais um exemplo de uma destas irracionalidades, 86 00:04:06,000 --> 00:04:09,000 quero falar para vocês sobre a trapaça. 87 00:04:09,000 --> 00:04:11,000 A razão pela qual escolhi a trapaça é porque é algo interessante, 88 00:04:11,000 --> 00:04:13,000 mas também nos diz algo, eu acho, 89 00:04:13,000 --> 00:04:16,000 sobre a situação econômica que nos encontramos. 90 00:04:16,000 --> 00:04:19,000 Então, meu interesse na trapaça começou 91 00:04:19,000 --> 00:04:21,000 quando a Enron entrou em cena, explodiu de repente, 92 00:04:21,000 --> 00:04:24,000 e eu comecei a pensar sobre o que estava acontecendo aqui. 93 00:04:24,000 --> 00:04:25,000 Será que era o caso onde 94 00:04:25,000 --> 00:04:28,000 apenas algumas maçãs podres eram capazes de fazer estas coisas, 95 00:04:28,000 --> 00:04:30,000 ou nós estamos com uma situação mais endêmica, 96 00:04:30,000 --> 00:04:34,000 onde muitas pessoas são capazes de se comportar desta forma? 97 00:04:34,000 --> 00:04:38,000 Então, como geralmente fazemos, decidi fazer um experimento simples. 98 00:04:38,000 --> 00:04:39,000 E foi assim que ocorreu. 99 00:04:39,000 --> 00:04:42,000 Se você estivesse no experimento, eu lhe entregaria uma folha de papel 100 00:04:42,000 --> 00:04:46,000 com vinte problemas matemáticos simples que todo mundo consegue resolver, 101 00:04:46,000 --> 00:04:48,000 mas eu não lhe daria tempo suficiente para resolve-los. 102 00:04:48,000 --> 00:04:50,000 Depois de cinco minutos, eu diria, 103 00:04:50,000 --> 00:04:53,000 “Me passem as folhas, e eu vou lhes dar um dólar por resposta correta.” 104 00:04:53,000 --> 00:04:57,000 As pessoas obedeciam. Eu pagava quatro dólares -- 105 00:04:57,000 --> 00:04:59,000 na média as pessoas resolviam quatro problemas. 106 00:04:59,000 --> 00:05:02,000 Outras pessoas eu induziria à trapaça. 107 00:05:02,000 --> 00:05:03,000 Eu entregava as folhas. 108 00:05:03,000 --> 00:05:05,000 Quando os cinco minutos tivessem acabado, eu dizia, 109 00:05:05,000 --> 00:05:06,000 “Por favor destruam a folha de papel. 110 00:05:06,000 --> 00:05:09,000 Coloquem os pedaços no seu bolso ou na sua mochila, 111 00:05:09,000 --> 00:05:12,000 e me digam quantas respostas vocês responderam corretamente.” 112 00:05:12,000 --> 00:05:15,000 As pessoas agora resolviam sete questões em média. 113 00:05:15,000 --> 00:05:20,000 Então, não era como se houvessem poucas maçãs podres -- 114 00:05:20,000 --> 00:05:23,000 poucas pessoas trapaceavam muito. 115 00:05:23,000 --> 00:05:26,000 Ao invés disso, o que nós vimos foi que muitas pessoas trapaceavam um pouco. 116 00:05:26,000 --> 00:05:29,000 Então, na teoria econômica, 117 00:05:29,000 --> 00:05:32,000 trapacear é uma questão de custo-benefício. 118 00:05:32,000 --> 00:05:34,000 Você se pergunta, qual a probabilidade de ser pego? 119 00:05:34,000 --> 00:05:37,000 Quanto eu posso ganhar através da trapaça? 120 00:05:37,000 --> 00:05:39,000 E qual a punição que eu receberia se fosse pego? 121 00:05:39,000 --> 00:05:41,000 E você pesaria essas opções -- 122 00:05:41,000 --> 00:05:43,000 você analisa o custo-benefício, 123 00:05:43,000 --> 00:05:46,000 e você decide se vale a pena cometer o crime ou não. 124 00:05:46,000 --> 00:05:48,000 Então, nós resolvemos testar isto. 125 00:05:48,000 --> 00:05:52,000 Para algumas pessoas nós variamos quanto dinheiro elas conseguiriam -- 126 00:05:52,000 --> 00:05:53,000 quanto dinheiro elas poderiam roubar. 127 00:05:53,000 --> 00:05:56,000 Nós pagamos à elas dez centavos por resposta correta, cinquenta centavos, 128 00:05:56,000 --> 00:05:59,000 um dólar, cinco dólares, dez dólares por resposta correta. 129 00:05:59,000 --> 00:06:03,000 Você esperaria que à medida que a quantia de dinheiro aumentasse, 130 00:06:03,000 --> 00:06:06,000 as pessoas roubariam mais, mas na verdade este não foi o caso. 131 00:06:06,000 --> 00:06:09,000 Encontramos muitas pessoas roubando apenas um pouco. 132 00:06:09,000 --> 00:06:12,000 E quanto à probabilidade de ser pego? 133 00:06:12,000 --> 00:06:14,000 Algumas pessoas destruíam metade da folha de papel, 134 00:06:14,000 --> 00:06:15,000 de tal forma que sobrava alguma evidência. 135 00:06:15,000 --> 00:06:17,000 Outras pessoas destruíam toda a folha de papel. 136 00:06:17,000 --> 00:06:20,000 Algumas pessoas destruíam toda a folha, saíam da sala, 137 00:06:20,000 --> 00:06:23,000 e pegavam o dinheiro de um pote com mais de cem dólares. 138 00:06:23,000 --> 00:06:26,000 Seria esperado que à medida que a probabilidade de ser pego diminuísse, 139 00:06:26,000 --> 00:06:29,000 as pessoas roubariam mais, mas de novo, não foi o caso. 140 00:06:29,000 --> 00:06:32,000 De novo, muitas pessoas trapacearam, mas apenas por pouco dinheiro, 141 00:06:32,000 --> 00:06:35,000 e elas foram insensíveis a esses incentivos econômicos. 142 00:06:35,000 --> 00:06:36,000 Então nós nos perguntamos, 143 00:06:36,000 --> 00:06:41,000 “Se as pessoas são insensíveis às explicações da teoria econômica, a estas forças, 144 00:06:41,000 --> 00:06:44,000 o que poderia estar acontecendo?” 145 00:06:44,000 --> 00:06:47,000 E pensamos que talvez existam duas forças. 146 00:06:47,000 --> 00:06:49,000 Por um lado, todos queremos olhar para o espelho 147 00:06:49,000 --> 00:06:52,000 e nos sentirmos bem, e não queremos trapacear. 148 00:06:52,000 --> 00:06:54,000 Por outro lado, podemos trapacear um pouco, 149 00:06:54,000 --> 00:06:56,000 e ainda nos sentirmos bem. 150 00:06:56,000 --> 00:06:57,000 Então, talvez o que esteja acontecendo 151 00:06:57,000 --> 00:06:59,000 é que existe um nível de trapaça que não conseguimos superar, 152 00:06:59,000 --> 00:07:03,000 mas ainda podemos nos beneficiar trapaceando apenas um pouco, 153 00:07:03,000 --> 00:07:06,000 contanto que não mude a impressão que temos sobre nós mesmos. 154 00:07:06,000 --> 00:07:09,000 Chamamos isso de um fator pessoal de enganação. 155 00:07:10,000 --> 00:07:14,000 Agora, como se testaria um fator pessoal de enganação? 156 00:07:14,000 --> 00:07:18,000 Inicialmente dizemos, “O que podemos fazer para diminuir o fator de enganação?” 157 00:07:18,000 --> 00:07:20,000 Então, chamamos pessoas ao laboratório e dizemos, 158 00:07:20,000 --> 00:07:22,000 “Nós temos duas tarefas para vocês hoje.” 159 00:07:22,000 --> 00:07:23,000 Primeiro, pedimos à metade 160 00:07:23,000 --> 00:07:25,000 das pessoas que se lembrassem 161 00:07:25,000 --> 00:07:28,000 ou de dez livros que leram na escola, ou dos Dez Mandamentos, 162 00:07:28,000 --> 00:07:30,000 e depois nós induzimos elas a trapacearem. 163 00:07:30,000 --> 00:07:33,000 No fim, as pessoas que tentaram se lembrar dos Dez Mandamentos -- 164 00:07:33,000 --> 00:07:35,000 e na nossa amostra ninguém conseguiu -- 165 00:07:36,000 --> 00:07:40,000 mas aqueles que tentaram se lembrar dos Dez Mandamentos, 166 00:07:40,000 --> 00:07:43,000 dada a oportunidade de trapacear, não trapacearam nada. 167 00:07:43,000 --> 00:07:45,000 Não aconteceu que as pessoas mais religiosas -- 168 00:07:45,000 --> 00:07:46,000 as que mais se lembraram -- trapacearam menos, 169 00:07:46,000 --> 00:07:48,000 e as menos religiosas -- 170 00:07:48,000 --> 00:07:49,000 as pessoas que menos se lembraram -- 171 00:07:49,000 --> 00:07:51,000 trapacearam mais. 172 00:07:51,000 --> 00:07:55,000 No momento em que as pessoas pensaram nos Dez Mandamentos, 173 00:07:55,000 --> 00:07:56,000 elas pararam de trapacear. 174 00:07:56,000 --> 00:07:58,000 Na verdade, mesmo quando demos à ateus 175 00:07:58,000 --> 00:08:02,000 a tarefa de jurar sobre a bíblia e lhes demos a oportunidade de trapacear, 176 00:08:02,000 --> 00:08:04,000 elas não trapacearam nem um pouco. 177 00:08:06,000 --> 00:08:08,000 Agora, "Os Dez Mandamentos" é algo difícil 178 00:08:08,000 --> 00:08:10,000 de integrar ao sistema de educação, então dissemos, 179 00:08:10,000 --> 00:08:12,000 “Por que não pedimos as pessoas para assinar um código de honra?” 180 00:08:12,000 --> 00:08:14,000 Então, fizemos as pessoas assinarem, 181 00:08:14,000 --> 00:08:18,000 “Eu entendo que esta curta pesquisa se insere no Código de Honra do MIT.” 182 00:08:18,000 --> 00:08:21,000 Depois elas rasgaram a declaração. Nenhuma trapaça ocorreu. 183 00:08:21,000 --> 00:08:22,000 E isto é particularmente interessante, 184 00:08:22,000 --> 00:08:24,000 porque o MIT não tem um código de honra. 185 00:08:24,000 --> 00:08:29,000 (risos) 186 00:08:29,000 --> 00:08:33,000 Então, tudo isto foi sobre diminuir o fator de enganação. 187 00:08:33,000 --> 00:08:36,000 E quanto a aumentar o fator de enganação? 188 00:08:36,000 --> 00:08:38,000 O primeiro experimento -- eu dei uma volta no MIT 189 00:08:38,000 --> 00:08:41,000 e distribui garrafas de Coca-Cola nas geladeiras -- 190 00:08:41,000 --> 00:08:43,000 estas eram geladeiras usadas pelos estudantes de graduação. 191 00:08:43,000 --> 00:08:46,000 E eu voltei com uma medida do que foi tecnicamente chamado 192 00:08:46,000 --> 00:08:50,000 de a meia-vida da Coca -- quanto tempo ela dura nas geladeiras? 193 00:08:50,000 --> 00:08:53,000 Como você pode esperar, não dura muito tempo. As pessoas tomam. 194 00:08:53,000 --> 00:08:57,000 Em contraste, eu peguei um prato com seis notas de um dólar, 195 00:08:57,000 --> 00:09:00,000 e deixei os pratos dentro das mesmas geladeiras. 196 00:09:00,000 --> 00:09:01,000 As notas nunca desapareceram. 197 00:09:01,000 --> 00:09:04,000 Este não é um bom experimento de ciência social, 198 00:09:04,000 --> 00:09:07,000 então para fazê-lo melhor eu fiz a mesma experiência 199 00:09:07,000 --> 00:09:09,000 que eu descrevi a vocês antes. 200 00:09:09,000 --> 00:09:12,000 Para um terço das pessoas nós entregamos a folha, elas nos devolveram. 201 00:09:12,000 --> 00:09:15,000 Para um terço das pessoas nós também entregamos as folhas, elas as destruíram, 202 00:09:15,000 --> 00:09:16,000 e disseram para nós, 203 00:09:16,000 --> 00:09:19,000 “Senhor Pesquisador, eu resolvi X problemas. Dê-me X dólares.” 204 00:09:19,000 --> 00:09:22,000 Outro terço das pessoas, quando elas terminavam de destruir o pedaço de papel, 205 00:09:22,000 --> 00:09:24,000 elas vinham até nós e diziam, 206 00:09:24,000 --> 00:09:30,000 “Senhor Pesquisador, eu resolvi X problemas. Dê-me X fichas.” 207 00:09:30,000 --> 00:09:33,000 Nós não as pagamos em dinheiro. Pagamos com outra coisa. 208 00:09:33,000 --> 00:09:36,000 E depois elas pegavam essa outra coisa, andavam quatro metros para o lado, 209 00:09:36,000 --> 00:09:38,000 e trocavam por dinheiro. 210 00:09:38,000 --> 00:09:40,000 Pense na seguinte situação: 211 00:09:40,000 --> 00:09:43,000 Quão mal você se sentiria por roubar um lápis do trabalho, 212 00:09:43,000 --> 00:09:45,000 comparado com quão mal você se sentiria 213 00:09:45,000 --> 00:09:47,000 por roubar dez centavos de uma caixinha de dinheiro? 214 00:09:47,000 --> 00:09:50,000 Os sentimentos gerados são muito diferentes. 215 00:09:50,000 --> 00:09:53,000 Será que estar a um passo de distância do dinheiro por alguns segundos 216 00:09:53,000 --> 00:09:56,000 ao ser pago por fichas faria alguma diferença? 217 00:09:56,000 --> 00:09:58,000 Nossos participantes trapacearam em dobro. 218 00:09:58,000 --> 00:10:00,000 Eu vou lhes falar sobre o que penso 219 00:10:00,000 --> 00:10:02,000 sobre isto e o mercado de ações em um minuto. 220 00:10:03,000 --> 00:10:07,000 Mas isto ainda não resolve o grande problema que eu tinha com a Enron, 221 00:10:07,000 --> 00:10:10,000 porque na Enron, também existe um elemento social. 222 00:10:10,000 --> 00:10:11,000 As pessoas vêem o comportamento das outras. 223 00:10:11,000 --> 00:10:13,000 Na verdade, todo o dia vemos notícias 224 00:10:13,000 --> 00:10:15,000 de pessoas trapaceando. 225 00:10:15,000 --> 00:10:18,000 O que isto causa em nós? 226 00:10:18,000 --> 00:10:19,000 Então, fizemos outro experimento. 227 00:10:19,000 --> 00:10:22,000 Pegamos um grupo grande de estudantes para um experimento, 228 00:10:22,000 --> 00:10:23,000 e lhes demos um adiantamento. 229 00:10:23,000 --> 00:10:26,000 Então todos receberam um envelope com o dinheiro da pesquisa, 230 00:10:26,000 --> 00:10:28,000 e lhes dissemos que no fim, 231 00:10:28,000 --> 00:10:32,000 deveriam nos pagar de volta o dinheiro que eles não mereciam levar. OK? 232 00:10:32,000 --> 00:10:33,000 A mesma coisa acontece. 233 00:10:33,000 --> 00:10:35,000 Quando damos às pessoas a oportunidade da trapaça, elas trapaceiam. 234 00:10:35,000 --> 00:10:38,000 Apenas um pouco, mas trapaceiam. 235 00:10:38,000 --> 00:10:41,000 Mas neste experimento também contratamos um estudante ator. 236 00:10:41,000 --> 00:10:45,000 Depois de 30 segundos este estudante se levantou, e disse, 237 00:10:45,000 --> 00:10:48,000 “Eu resolvi tudo. O que faço agora?” 238 00:10:48,000 --> 00:10:52,000 E o pesquisador disse, “Se você terminou tudo, vá para casa.” 239 00:10:52,000 --> 00:10:53,000 E era isto, acabou. 240 00:10:53,000 --> 00:10:57,000 Então, agora nós tínhamos um estudante -- um estudante ator -- 241 00:10:57,000 --> 00:10:59,000 que era parte do grupo. 242 00:10:59,000 --> 00:11:01,000 Ninguém sabia que ele era um ator. 243 00:11:01,000 --> 00:11:05,000 E ele trapaceava de uma forma muito, muito séria. 244 00:11:05,000 --> 00:11:08,000 O que aconteceria com as outras pessoas no grupo? 245 00:11:08,000 --> 00:11:11,000 Elas trapaceariam mais, ou trapaceariam menos? 246 00:11:11,000 --> 00:11:13,000 Eis o que acontece. 247 00:11:13,000 --> 00:11:17,000 No fim, depende da camiseta que elas estão usando. 248 00:11:17,000 --> 00:11:19,000 Funciona assim: 249 00:11:19,000 --> 00:11:22,000 Fizemos este experimento na Carnegie Mellon e Pittsburgh. 250 00:11:22,000 --> 00:11:24,000 E em Pittsburgh existem duas universidades grandes, 251 00:11:24,000 --> 00:11:27,000 Carnegie Mellon e Universidade de Pittsburgh. 252 00:11:27,000 --> 00:11:29,000 Todos os alunos no experimento 253 00:11:29,000 --> 00:11:31,000 eram estudantes da Carnegie Mellon. 254 00:11:31,000 --> 00:11:35,000 Quando o ator que levantava era um estudante da Carnegie Mellon -- 255 00:11:35,000 --> 00:11:37,000 de fato ele era da Carnegie Mellon -- 256 00:11:37,000 --> 00:11:41,000 mas ele era parte do grupo deles, a trapaça aumentou. 257 00:11:41,000 --> 00:11:45,000 Mas quando ele tinha uma camiseta da Universidade de Pittsburgh, 258 00:11:45,000 --> 00:11:47,000 a trapaça diminuiu. 259 00:11:47,000 --> 00:11:50,000 (risos) 260 00:11:50,000 --> 00:11:53,000 Agora, isto é importante, porque lembrem-se, 261 00:11:53,000 --> 00:11:55,000 quando o estudante se levantou, 262 00:11:55,000 --> 00:11:58,000 ficou claro para todo mundo que eles poderiam trapacear sem serem pegos, 263 00:11:58,000 --> 00:12:00,000 porque o pesquisador disse, 264 00:12:00,000 --> 00:12:02,000 “Você terminou tudo. Vá para casa” e ele foi embora com o dinheiro. 265 00:12:02,000 --> 00:12:05,000 Então, de novo não era tanto sobre a probabilidade de ser pego. 266 00:12:05,000 --> 00:12:08,000 Era sobre as regras da trapaça. 267 00:12:08,000 --> 00:12:11,000 Se alguém do nosso grupo faz a trapaça e nós vemos ele trapaceando, 268 00:12:11,000 --> 00:12:15,000 sentimos que é mais apropriado, como um grupo, fazer o mesmo. 269 00:12:15,000 --> 00:12:17,000 Mas se é alguém de outro grupo, estas pessoas terríveis -- 270 00:12:17,000 --> 00:12:19,000 quero dizer, não terríveis nisso -- 271 00:12:19,000 --> 00:12:21,000 mas alguém com quem nós não queremos nos associar, 272 00:12:21,000 --> 00:12:23,000 de outra universidade, outro grupo, 273 00:12:23,000 --> 00:12:26,000 a honestidade das pessoas aumenta -- 274 00:12:26,000 --> 00:12:28,000 um pouco semelhante ao experimento dos Dez Mandamentos -- 275 00:12:28,000 --> 00:12:32,000 e as pessoas trapaceiam menos ainda. 276 00:12:32,000 --> 00:12:36,000 Então, o que aprendemos sobre a trapaça com isso? 277 00:12:36,000 --> 00:12:39,000 Aprendemos que muitas pessoas são capazes de trapacear. 278 00:12:39,000 --> 00:12:42,000 Elas trapaceiam somente um pouco. 279 00:12:42,000 --> 00:12:46,000 Quando relembramos as pessoas sobre a sua moralidade, elas trapaceiam menos. 280 00:12:46,000 --> 00:12:49,000 Quando tomamos uma distância maior da trapaça, 281 00:12:49,000 --> 00:12:53,000 do dinheiro, por exemplo, as pessoas trapaceiam mais. 282 00:12:53,000 --> 00:12:55,000 E quando vemos a trapaça em nossa volta, 283 00:12:55,000 --> 00:12:59,000 especialmente se é parte do nosso grupo, a trapaça aumenta. 284 00:12:59,000 --> 00:13:02,000 Agora, se pensamos sobre isso em termos do mercado de ações, 285 00:13:02,000 --> 00:13:03,000 pense no que acontece. 286 00:13:03,000 --> 00:13:06,000 O que acontece na situação em que se cria algo 287 00:13:06,000 --> 00:13:08,000 onde se paga muito dinheiro para pessoas 288 00:13:08,000 --> 00:13:11,000 verem a realidade de uma forma um pouco distorcida? 289 00:13:11,000 --> 00:13:14,000 Eles não seriam capazes de ver isto desta forma? 290 00:13:14,000 --> 00:13:15,000 É claro que eles seriam. 291 00:13:15,000 --> 00:13:16,000 O que acontece quando fazemos outras coisas, 292 00:13:16,000 --> 00:13:18,000 como quando afastamos as coisas do dinheiro? 293 00:13:18,000 --> 00:13:21,000 Quando as chamamos de ações, ou opções, derivativos, 294 00:13:21,000 --> 00:13:22,000 títulos apoiados por hipotecas comerciais. 295 00:13:22,000 --> 00:13:25,000 Seria possível que com estas coisas mais distantes, 296 00:13:25,000 --> 00:13:27,000 que não são apenas uma ficha por um segundo, 297 00:13:27,000 --> 00:13:29,000 mas algo que está a muitos passos de distância do dinheiro 298 00:13:29,000 --> 00:13:33,000 por muito mais tempo -- será possível que as pessoas vão roubar ainda mais? 299 00:13:33,000 --> 00:13:35,000 E o que acontece ao ambiente social 300 00:13:35,000 --> 00:13:38,000 quando as pessoas vêem o comportamento das outras em sua volta? 301 00:13:38,000 --> 00:13:42,000 Eu acho que todas estas forças funcionam de uma forma muito ruim 302 00:13:42,000 --> 00:13:44,000 no mercado de ações. 303 00:13:44,000 --> 00:13:47,000 De forma mais geral, gostaria de lhes falar algo 304 00:13:47,000 --> 00:13:50,000 sobre economia comportamental. 305 00:13:50,000 --> 00:13:54,000 Temos muitas intuições na nossa vida, 306 00:13:54,000 --> 00:13:57,000 e acontece que muitas destas intuições estão erradas. 307 00:13:57,000 --> 00:14:00,000 A questão é, nós vamos testar estas intuições? 308 00:14:00,000 --> 00:14:02,000 Podemos pensar sobre como iremos testar esta intuição 309 00:14:02,000 --> 00:14:04,000 na nossa vida privada, nos negócios, 310 00:14:04,000 --> 00:14:07,000 e principalmente quando ela entra na política, 311 00:14:07,000 --> 00:14:10,000 quando pensamos em algo como a política do “No Child Left Behind”, 312 00:14:10,000 --> 00:14:13,000 quando criamos novos mercados de ações, quando criamos novas políticas -- 313 00:14:13,000 --> 00:14:16,000 taxação, seguro saúde e etc. 314 00:14:16,000 --> 00:14:18,000 E a dificuldade de testar nossa intuição 315 00:14:18,000 --> 00:14:20,000 foi a grande lição que eu aprendi 316 00:14:20,000 --> 00:14:22,000 quando voltei para falar com as enfermeiras no hospital. 317 00:14:22,000 --> 00:14:24,000 Então eu voltei para falar para elas 318 00:14:24,000 --> 00:14:27,000 as coisas que eu havia aprendido sobre remover as ataduras. 319 00:14:27,000 --> 00:14:29,000 E aprendi duas coisas interessantes. 320 00:14:29,000 --> 00:14:31,000 Uma foi que a minha enfermeira favorita, Ettie, 321 00:14:31,000 --> 00:14:35,000 me disse que eu não levei a dor dela em consideração. 322 00:14:35,000 --> 00:14:37,000 Ela disse, “Claro, você sabe, era muito dolorido para você. 323 00:14:37,000 --> 00:14:39,000 Mas pense em mim como uma enfermeira, 324 00:14:39,000 --> 00:14:41,000 removendo as ataduras de alguém que eu gostava, 325 00:14:41,000 --> 00:14:44,000 e tinha que fazer isso repetidamente em um período longo de tempo. 326 00:14:44,000 --> 00:14:47,000 Criar tanta tortura era algo que também não era bom para mim.” 327 00:14:47,000 --> 00:14:52,000 E ela disse, que talvez esta era parte da razão pela qual era tão difícil para ela. 328 00:14:52,000 --> 00:14:55,000 Mas na verdade era mais interessante do que isto, porque ela disse, 329 00:14:55,000 --> 00:15:00,000 “Eu não achei que a sua intuição estava correta, 330 00:15:00,000 --> 00:15:01,000 achei que a minha estava correta.” 331 00:15:01,000 --> 00:15:03,000 Então, se você pensar sobre suas intuições, 332 00:15:03,000 --> 00:15:07,000 é muito difícil acreditar que a sua intuição está errada. 333 00:15:07,000 --> 00:15:10,000 E ela disse, dado o fato de que ela achava que a sua intuição estava certa -- 334 00:15:10,000 --> 00:15:12,000 ela pensou que a intuição dela estava certa -- 335 00:15:12,000 --> 00:15:17,000 era muito difícil para ela aceitar fazer algum experimento complicado 336 00:15:17,000 --> 00:15:19,000 para verificar se ela estava errada. 337 00:15:19,000 --> 00:15:23,000 Mas na verdade, esta é a situação em que nos encontramos todo o tempo. 338 00:15:23,000 --> 00:15:26,000 Temos intuições muito fortes sobre todos os tipos de coisas -- 339 00:15:26,000 --> 00:15:29,000 nossa própria habilidade, como a economia funciona, 340 00:15:29,000 --> 00:15:31,000 como deveríamos pagar professores nas escolas. 341 00:15:31,000 --> 00:15:34,000 Mas ao menos que comecemos a testar estas intuições, 342 00:15:34,000 --> 00:15:36,000 nós não iremos melhorar. 343 00:15:36,000 --> 00:15:38,000 Pense o quão melhor a minha vida teria sido 344 00:15:38,000 --> 00:15:40,000 se aquelas enfermeiras conferissem a intuição delas, 345 00:15:40,000 --> 00:15:41,000 e como tudo seria melhor 346 00:15:41,000 --> 00:15:46,000 se fizéssemos experimentos sistemáticos sobre a nossa intuição. 347 00:15:46,000 --> 00:15:48,000 Muito obrigado.