1 00:00:01,000 --> 00:00:03,000 Ik wil jullie vandaag vertellen 2 00:00:03,000 --> 00:00:06,000 over voorspelbare irrationaliteit. 3 00:00:07,320 --> 00:00:10,790 Mijn interesse voor irrationeel gedrag 4 00:00:10,790 --> 00:00:13,000 ontstond jaren geleden in het ziekenhuis. 5 00:00:13,000 --> 00:00:15,360 Ik was ernstig verbrand. 6 00:00:17,000 --> 00:00:20,000 Als je lang in het ziekenhuis ligt, 7 00:00:20,000 --> 00:00:23,000 zie je veel verschillende soorten irrationaliteit. 8 00:00:23,000 --> 00:00:28,000 Wat me specifiek stoorde op de brandwondenafdeling 9 00:00:28,000 --> 00:00:32,000 was de manier waarop de verpleegsters mijn verband verwijderden. 10 00:00:33,000 --> 00:00:35,370 Jullie hebben vast wel eens verband verwijderd, 11 00:00:35,370 --> 00:00:38,000 en je afgevraagd wat de beste aanpak is. 12 00:00:38,000 --> 00:00:39,880 Trek je het er snel af -- 13 00:00:39,880 --> 00:00:42,000 korte duur, maar hoge intensiteit -- 14 00:00:42,000 --> 00:00:44,000 of verwijder je het verband langzaam -- 15 00:00:44,000 --> 00:00:48,000 je neemt de tijd, maar per seconde doet het minder pijn -- 16 00:00:48,000 --> 00:00:51,000 welke manier is het beste? 17 00:00:51,000 --> 00:00:53,900 De verpleegsters op mijn afdeling 18 00:00:53,900 --> 00:00:56,020 dachten dat de beste manier de snelle was, 19 00:00:56,020 --> 00:00:58,070 dus ze pakten het verband vast en trokken, 20 00:00:58,070 --> 00:01:00,000 en ze pakten het vast en trokken. 21 00:01:00,000 --> 00:01:04,000 Omdat ik 70 procent van m'n lichaam verbrand had, duurde het een uur. 22 00:01:04,000 --> 00:01:07,000 Je kunt je voorstellen 23 00:01:07,000 --> 00:01:11,000 dat ik intens opzag tegen dat moment. 24 00:01:11,000 --> 00:01:13,000 Ik probeerde met ze te onderhandelen: 25 00:01:13,000 --> 00:01:16,200 "Wat als we iets anders probeerden en het iets langer lieten duren, 26 00:01:16,200 --> 00:01:19,840 misschien 2 uur in plaats van één -- zodat het minder intens is?" 27 00:01:21,000 --> 00:01:23,000 De verpleegsters vertelden me twee dingen. 28 00:01:23,000 --> 00:01:27,000 Ze vertelden me dat zij het juiste model van de patiënt hadden -- 29 00:01:27,000 --> 00:01:30,000 dat zij wisten wat het beste was om pijn te minimaliseren -- 30 00:01:30,000 --> 00:01:32,900 en ze vertelden me ook dat het woord 'patiënt' niet betekent 31 00:01:32,900 --> 00:01:35,810 'suggesties doen' of 'je bemoeien' of … (Gelach) 32 00:01:35,810 --> 00:01:38,000 Dat is niet alleen zo in het Hebreeuws, trouwens. 33 00:01:38,000 --> 00:01:41,000 Het is zo in iedere taal waar ik tot nu toe ervaring mee had. 34 00:01:41,000 --> 00:01:45,000 Er was niet veel dat ik kon doen. 35 00:01:45,000 --> 00:01:47,560 Ze gingen gewoon door met wat ze deden. 36 00:01:47,560 --> 00:01:50,250 Zo'n drie jaar later verliet ik het ziekenhuis 37 00:01:50,250 --> 00:01:52,130 en ging studeren aan de universiteit. 38 00:01:53,000 --> 00:01:56,000 Eén van de interessantste lessen die ik leerde, 39 00:01:56,000 --> 00:01:58,490 was dat er een onderzoeksmethode bestaat, 40 00:01:58,490 --> 00:02:03,440 waarbij je een abstracte kopie maakt van een vraag, 41 00:02:04,300 --> 00:02:06,000 die je vervolgens kunt onderzoeken 42 00:02:06,000 --> 00:02:08,000 om misschien iets te leren over de wereld. 43 00:02:08,000 --> 00:02:09,550 Dat deed ik dus. 44 00:02:09,550 --> 00:02:13,010 Ik was nog steeds geïnteresseerd in de kwestie van het verband. 45 00:02:13,010 --> 00:02:16,000 In het begin had ik niet veel geld, 46 00:02:16,000 --> 00:02:20,360 dus ging ik naar een doe-het-zelfzaak en kocht een bankschroef. 47 00:02:20,360 --> 00:02:24,000 Ik bracht mensen naar het lab, stopte hun vinger er in, 48 00:02:24,000 --> 00:02:26,000 en ik plette die een beetje. 49 00:02:26,000 --> 00:02:28,000 (Gelach) 50 00:02:28,000 --> 00:02:31,000 Ik plette ze voor lange tijd en voor korte tijd, 51 00:02:31,000 --> 00:02:33,000 pijn die toenam en pijn die afnam, 52 00:02:33,000 --> 00:02:36,040 met pauzes en zonder pauzes -- verschillende soorten pijn. 53 00:02:36,790 --> 00:02:39,000 Wanneer ik klaar was met pijn doen, vroeg ik: 54 00:02:39,000 --> 00:02:40,760 nou, hoe pijnlijk was dit? 55 00:02:40,760 --> 00:02:43,000 Of, als je moest kiezen tussen de laatste twee, 56 00:02:43,000 --> 00:02:45,000 welke zou je kiezen? 57 00:02:45,000 --> 00:02:48,000 (Gelach) 58 00:02:48,000 --> 00:02:51,000 Ik bleef dit een tijdlang doen... 59 00:02:51,000 --> 00:02:53,000 (Gelach) 60 00:02:53,000 --> 00:02:57,000 en toen -- zoals bij elk goed onderzoek -- kreeg ik meer financiering. 61 00:02:57,000 --> 00:02:59,530 Ik begon met geluiden, elektrische schokken -- 62 00:03:00,380 --> 00:03:04,490 ik had zelfs een pijnpak waarmee mensen nog meer pijn konden voelen. 63 00:03:06,230 --> 00:03:08,000 Maar aan het eind van dit proces 64 00:03:08,000 --> 00:03:11,000 had ik geleerd dat de verpleegsters het mis hadden. 65 00:03:11,000 --> 00:03:14,000 Fantastische mensen met goede intenties 66 00:03:14,000 --> 00:03:16,000 en veel ervaring, en toch 67 00:03:16,000 --> 00:03:20,000 hadden ze het voortdurend en voorspelbaar mis. 68 00:03:20,000 --> 00:03:23,000 Het blijkt dat we tijdsduur anders ervaren 69 00:03:23,000 --> 00:03:25,000 dan intensiteit. 70 00:03:25,000 --> 00:03:29,000 Ik zou daardoor minder geleden hebben als de tijdsduur langer was geweest 71 00:03:29,000 --> 00:03:31,000 en de intensiteit lager. 72 00:03:31,000 --> 00:03:34,710 Het was beter geweest om met mijn hoofd te beginnen, wat pijnlijker was, 73 00:03:34,710 --> 00:03:36,340 en naar mijn benen toe te werken, 74 00:03:36,340 --> 00:03:38,480 zodat het proces geleidelijk beter werd -- 75 00:03:38,480 --> 00:03:40,210 dat zou ook beter zijn geweest. 76 00:03:40,210 --> 00:03:42,000 Ook bleek dat het goed was geweest om 77 00:03:42,000 --> 00:03:44,390 kleine pauzes in te lassen, zodat ik kon bijkomen. 78 00:03:44,390 --> 00:03:46,470 Al deze dingen zouden goed zijn geweest, 79 00:03:46,470 --> 00:03:48,640 maar mijn verpleegsters hadden geen idee. 80 00:03:48,640 --> 00:03:50,510 Toen bedacht ik: zijn verpleegsters 81 00:03:50,510 --> 00:03:53,290 de enige mensen in de wereld die dingen op deze manier 82 00:03:53,290 --> 00:03:56,000 mis hebben, of is dit iets meer algemeens? 83 00:03:56,000 --> 00:03:58,000 Het blijkt dat het meer algemeen is -- 84 00:03:58,000 --> 00:04:01,000 we maken een hoop fouten. 85 00:04:01,000 --> 00:04:06,000 Ik wil jullie een voorbeeld geven van zo'n irrationaliteit. 86 00:04:06,000 --> 00:04:09,000 Ik ga het hebben over bedrog. 87 00:04:09,000 --> 00:04:11,000 Ik koos voor bedrog omdat het interessant is, 88 00:04:11,000 --> 00:04:13,000 maar het vertelt ons ook iets 89 00:04:13,000 --> 00:04:16,000 over de beurssituatie waarin we verkeren. 90 00:04:17,040 --> 00:04:19,340 Mijn interesse in bedrog werd gewekt toen Enron 91 00:04:19,340 --> 00:04:21,440 het toneel betrad en plotseling explodeerde. 92 00:04:21,440 --> 00:04:24,000 Ik begon te denken over wat daar gebeurde. 93 00:04:24,000 --> 00:04:28,010 Waren er hier enkele rotte appels die in staat waren om deze dingen te doen, 94 00:04:28,010 --> 00:04:30,000 of is dit meer wijdverbreid 95 00:04:30,000 --> 00:04:34,000 met vele mensen die hiertoe in staat zijn? 96 00:04:34,000 --> 00:04:38,000 Zoals gebruikelijk, besloot ik een simpel experiment te doen. 97 00:04:38,000 --> 00:04:39,000 Dat ging als volgt. 98 00:04:39,000 --> 00:04:42,000 Als je hieraan meedeed, zou ik je een stuk papier geven 99 00:04:42,000 --> 00:04:45,800 met 20 simpele rekensommen die iedereen kan oplossen, 100 00:04:45,800 --> 00:04:48,000 maar ik zou je niet genoeg tijd geven. 101 00:04:48,000 --> 00:04:50,000 Als de 5 minuten voorbij waren, zei ik: 102 00:04:50,000 --> 00:04:53,000 "Geef me je papieren en ik betaal je een dollar per vraag." 103 00:04:53,000 --> 00:04:57,000 Dat deden mensen. Ik betaalde ze dan 4 dollar -- 104 00:04:57,000 --> 00:04:59,000 gemiddeld hadden mensen 4 sommen opgelost. 105 00:04:59,000 --> 00:05:01,570 Andere mensen verleidde ik tot bedrog. 106 00:05:01,570 --> 00:05:03,000 Ik gaf ze het vel papier. 107 00:05:03,000 --> 00:05:05,000 Na 5 minuten zei ik dan: 108 00:05:05,000 --> 00:05:06,300 "Verscheur het vel. 109 00:05:06,300 --> 00:05:09,000 Stop de stukjes in je broekzak of rugzak 110 00:05:09,000 --> 00:05:12,000 en vertel me hoeveel vragen je goed had." 111 00:05:12,000 --> 00:05:15,000 Nu losten mensen gemiddeld 7 vragen op. (Gelach) 112 00:05:16,800 --> 00:05:20,430 Het was niet zo dat er enkele rotte appels waren -- 113 00:05:20,430 --> 00:05:23,000 een paar mensen die erg bedrogen. 114 00:05:23,000 --> 00:05:26,000 Nee, we zagen veel mensen die een beetje bedrogen. 115 00:05:27,060 --> 00:05:29,000 In de economische theorie 116 00:05:29,000 --> 00:05:32,000 is bedrog een eenvoudige kosten-batenanalyse. 117 00:05:32,000 --> 00:05:34,000 Je zegt: wat is de pakkans? 118 00:05:34,740 --> 00:05:37,000 Hoeveel levert bedrog me op? 119 00:05:37,000 --> 00:05:39,000 Hoeveel straf krijg ik als ik gepakt word? 120 00:05:39,000 --> 00:05:41,000 Je weegt deze tegen elkaar af -- 121 00:05:41,000 --> 00:05:43,000 een simpele kosten-batenanalyse, 122 00:05:43,000 --> 00:05:46,000 en je beslist of de misdaad de moeite waard is. 123 00:05:46,000 --> 00:05:48,000 Dus we probeerden dit te testen. 124 00:05:48,000 --> 00:05:53,010 Bij sommige mensen varieerden we hoeveel geld ze konden stelen. 125 00:05:53,010 --> 00:05:56,000 We betaalden ze 10 cent per goed antwoord, 50 cent, 126 00:05:56,000 --> 00:05:59,000 een dollar, vijf dollar, tien dollar per goed antwoord. 127 00:05:59,000 --> 00:06:03,250 Je zou verwachten dat met het verhogen van het geldbedrag, 128 00:06:03,250 --> 00:06:06,000 mensen méér zouden valsspelen, maar zo was het niet. 129 00:06:06,000 --> 00:06:09,000 Een groot aantal mensen bedrogen ons met kleine beetjes. 130 00:06:09,000 --> 00:06:12,000 Hoe zat het met de pakkans? 131 00:06:12,000 --> 00:06:14,000 Sommige mensen verscheurden de helft van het papier, 132 00:06:14,000 --> 00:06:15,000 zodat er nog wat bewijs was. 133 00:06:15,000 --> 00:06:17,000 Sommige mensen verscheurden het hele vel. 134 00:06:17,000 --> 00:06:20,000 Sommigen verscheurden alles, liepen het lokaal uit 135 00:06:20,000 --> 00:06:23,000 en betaalden zichzelf uit de kom waarin meer dan 100 dollar zaten. 136 00:06:23,000 --> 00:06:26,000 Je zou verwachten dat als de pakkans verlaagde, 137 00:06:26,000 --> 00:06:29,000 mensen meer zouden valsspelen, maar dat was niet zo. 138 00:06:29,000 --> 00:06:32,000 Alweer bedrogen veel mensen ons slechts een beetje 139 00:06:32,000 --> 00:06:35,000 en waren ze ongevoelig voor deze economische motieven. 140 00:06:35,000 --> 00:06:37,370 Dus zeiden we: "Als mensen niet gevoelig zijn 141 00:06:37,370 --> 00:06:41,000 voor de kracht van de rationeel-economische theorie, 142 00:06:41,000 --> 00:06:43,770 wat is er dan aan de hand?" 143 00:06:43,770 --> 00:06:47,000 We dachten dat er misschien twee krachten in het spel waren. 144 00:06:47,000 --> 00:06:50,060 Enerzijds willen we allemaal zonder schuldgevoel in de spiegel kunnen kijken, 145 00:06:50,060 --> 00:06:51,860 dus willen we niet valsspelen. 146 00:06:51,860 --> 00:06:54,000 Anderzijds kunnen we een beetje valsspelen, 147 00:06:54,000 --> 00:06:56,000 zonder ons daarover schuldig te voelen. 148 00:06:56,000 --> 00:06:59,410 Dus misschien is er een niveau van bedrog waar we niet overheen kunnen, 149 00:06:59,410 --> 00:07:03,000 maar waaronder we ons kunnen verrijken door bedrog, 150 00:07:03,000 --> 00:07:06,000 zolang dat ons zelfbeeld niet verandert. 151 00:07:06,000 --> 00:07:09,000 We noemen dat de persoonlijke smoesfactor. 152 00:07:10,000 --> 00:07:14,000 Hoe test je een persoonlijke smoesfactor? 153 00:07:14,000 --> 00:07:18,000 Ten eerste: wat kunnen we doen om de smoesfactor te verkleinen? 154 00:07:18,000 --> 00:07:20,000 Dus we brachten mensen naar het lab en zeiden: 155 00:07:20,000 --> 00:07:21,880 "We hebben 2 opdrachten voor jullie." 156 00:07:21,880 --> 00:07:23,310 De helft van hen vroegen we 157 00:07:23,310 --> 00:07:25,700 10 boeken te noemen van de middelbare school, 158 00:07:25,700 --> 00:07:28,000 of de Tien geboden op te noemen, 159 00:07:28,000 --> 00:07:30,000 en dan verleidden we ze tot bedrog. 160 00:07:30,000 --> 00:07:33,260 Nu bleek dat de mensen die de Tien geboden trachtten op te sommen -- 161 00:07:33,260 --> 00:07:36,050 en van onze groep lukte dat niemand -- 162 00:07:37,000 --> 00:07:40,000 maar van degenen die dat probeerden, 163 00:07:40,000 --> 00:07:42,520 greep niemand de kans om te bedriegen. 164 00:07:42,520 --> 00:07:44,400 Niet dat de religieuzere mensen, 165 00:07:44,400 --> 00:07:46,800 die de meeste geboden kenden, minder bedrogen, 166 00:07:46,800 --> 00:07:50,810 en de minder religieuzen, die bijna geen geboden konden noemen -- meer bedrogen. 167 00:07:50,810 --> 00:07:54,530 Op het moment dat mensen zich de geboden probeerden te herinneren, 168 00:07:54,530 --> 00:07:56,000 stopten ze met valsspelen. 169 00:07:56,000 --> 00:07:58,300 Zelfs wanneer we zelfverklaarde atheïsten 170 00:07:58,300 --> 00:08:02,000 op de Bijbel lieten zweren en hen de kans gaven vals te spelen, 171 00:08:02,000 --> 00:08:04,000 deden ze dat niet. 172 00:08:05,770 --> 00:08:08,990 Nu zijn de Tien geboden moeilijk te introduceren in het onderwijs, 173 00:08:08,990 --> 00:08:12,300 dus zeiden we: "Waarom laten we mensen de erecode niet tekenen?" 174 00:08:12,300 --> 00:08:14,000 Dus we lieten mensen ondertekenen: 175 00:08:14,000 --> 00:08:17,790 "Ik begrijp dat dit korte onderzoek valt onder de MIT erecode." 176 00:08:17,790 --> 00:08:21,000 Dan verscheurden ze het. Niemand speelde vals. 177 00:08:21,000 --> 00:08:22,340 Dit is vooral interessant 178 00:08:22,340 --> 00:08:24,000 omdat MIT geen erecode heeft. 179 00:08:24,000 --> 00:08:29,000 (Gelach) 180 00:08:29,000 --> 00:08:33,000 Dat ging allemaal over vermindering van de smoesfactor. 181 00:08:33,000 --> 00:08:36,000 Hoe zit het met versterking van de smoesfactor? 182 00:08:36,000 --> 00:08:38,000 In het eerste experiment liep ik door MIT 183 00:08:38,000 --> 00:08:41,000 en plaatste blikjes Coke in de koelkasten -- 184 00:08:41,000 --> 00:08:43,000 de algemene koelkasten voor de bachelorstudenten. 185 00:08:43,000 --> 00:08:46,000 Ik kwam dan terug om te meten wat de halveringstijd is 186 00:08:46,000 --> 00:08:50,000 van Coke -- hoe lang blijft hij staan in de koelkast? 187 00:08:50,000 --> 00:08:53,000 Zoals verwacht, niet erg lang. Mensen pakken het. 188 00:08:53,000 --> 00:08:57,000 Toen liet ik borden met zes biljetten van één dollar 189 00:08:57,000 --> 00:09:00,000 achter in dezelfde koelkasten. 190 00:09:00,000 --> 00:09:01,400 Geen enkel biljet verdween. 191 00:09:01,400 --> 00:09:04,000 Nu is dit geen goed sociaal experiment, 192 00:09:04,000 --> 00:09:08,960 dus om het goed te doen, deed ik hetzelfde experiment dat ik eerder beschreef. 193 00:09:08,960 --> 00:09:12,000 Een derde van de mensen gaf het vel papier aan ons terug. 194 00:09:12,000 --> 00:09:14,710 Een derde van de mensen verscheurde het vel, 195 00:09:14,710 --> 00:09:16,000 kwamen naar ons en zeiden: 196 00:09:16,000 --> 00:09:19,000 "Meneer, ik heb X vragen beantwoord. Geef me X dollar." 197 00:09:19,000 --> 00:09:22,460 Een derde van de mensen kwam na het verscheuren van het papier 198 00:09:22,460 --> 00:09:24,000 naar ons toe en zei: 199 00:09:24,000 --> 00:09:28,760 "Meneer, ik heb X vragen beantwoord. Geef me X tokens." 200 00:09:29,700 --> 00:09:33,000 We betaalden ze niet met dollars maar met iets anders. 201 00:09:33,000 --> 00:09:36,000 Ze namen dat andere iets en gingen dat een paar meter verderop 202 00:09:36,000 --> 00:09:38,000 inwisselen voor dollars. 203 00:09:38,000 --> 00:09:40,000 Probeer je het volgende voor te stellen. 204 00:09:40,000 --> 00:09:43,450 Hoe slecht zou je je voelen als je een potlood van werk meenam, 205 00:09:43,450 --> 00:09:47,490 vergeleken met als je 10 cent uit een pot met kleingeld nam? 206 00:09:47,490 --> 00:09:50,000 Deze dingen voelen heel anders aan. 207 00:09:50,000 --> 00:09:53,660 Zou het wat uitmaken als er enkele seconden afstand is tot contant geld, 208 00:09:53,660 --> 00:09:56,000 door een token te gebruiken? 209 00:09:56,000 --> 00:09:58,120 Onze proefpersonen verdubbelden hun bedrog. 210 00:09:59,200 --> 00:10:02,100 Ik zal jullie zo vertellen wat ik hierover denk in verband met de aandelenmarkt. 211 00:10:02,940 --> 00:10:07,000 Maar dit loste mijn grote probleem met Enron niet op, 212 00:10:07,000 --> 00:10:09,470 want in Enron is er ook een sociaal element. 213 00:10:09,470 --> 00:10:11,000 Mensen zien elkaars gedrag. 214 00:10:11,000 --> 00:10:13,000 Feitelijk zien we dagelijks in het nieuws 215 00:10:13,000 --> 00:10:15,000 voorbeelden van mensen die bedrog plegen. 216 00:10:15,000 --> 00:10:17,330 Welke invloed heeft dat? 217 00:10:17,330 --> 00:10:19,000 Dus deden we nog een experiment. 218 00:10:19,000 --> 00:10:22,000 Een grote groep studenten deed mee aan het onderzoek 219 00:10:22,000 --> 00:10:23,380 en we betaalden ze vooraf. 220 00:10:23,380 --> 00:10:26,410 Iedereen kreeg een envelop met al het geld voor het onderzoek, 221 00:10:26,410 --> 00:10:31,000 en we vroegen hen om aan het eind het niet verdiende geld terug te betalen. 222 00:10:31,790 --> 00:10:35,410 Hetzelfde gebeurde. Als we mensen de kans geven vals te spelen, doen ze dat. 223 00:10:35,410 --> 00:10:38,000 Ze spelen slechts een beetje vals. Weer hetzelfde. 224 00:10:38,000 --> 00:10:41,000 Maar in dit onderzoek huurden we ook een acteur in. 225 00:10:41,000 --> 00:10:45,000 Deze acteur stond na 30 seconden op en zei: 226 00:10:45,000 --> 00:10:48,000 "Ik heb alles opgelost. Wat doe ik nu?" 227 00:10:48,000 --> 00:10:52,000 De onderzoeker zei: "Als je alles klaar hebt, kun je naar huis." 228 00:10:52,000 --> 00:10:53,670 Dat is het. De klus is geklaard. 229 00:10:53,670 --> 00:10:57,000 Dus nu hadden we een student -- een acteur -- 230 00:10:57,000 --> 00:10:59,000 die deel van de groep was. 231 00:10:59,000 --> 00:11:01,000 -- niemand wist dat het een acteur was -- 232 00:11:01,000 --> 00:11:05,000 en hij bedroog de boel overduidelijk. 233 00:11:05,000 --> 00:11:08,000 Wat zou er gebeuren met de anderen in de groep? 234 00:11:08,000 --> 00:11:11,000 Bedriegen ze meer, of juist minder? 235 00:11:11,000 --> 00:11:13,000 Het volgende gebeurde. 236 00:11:13,000 --> 00:11:17,000 Het blijkt af te hangen van welk sweatshirt ze dragen. (Gelach) 237 00:11:17,000 --> 00:11:19,000 Het zit zo. 238 00:11:19,000 --> 00:11:22,000 We deden dit op Carnegie Mellon en Pittsburgh. 239 00:11:22,000 --> 00:11:24,000 In Pittsburgh zijn twee grote universiteiten: 240 00:11:24,000 --> 00:11:27,000 Carnegie Mellon en de Universiteit van Pittsburgh. 241 00:11:27,000 --> 00:11:29,000 Alle deelnemers aan het onderzoek 242 00:11:29,000 --> 00:11:31,000 waren studenten van Carnegie Mellon. 243 00:11:31,000 --> 00:11:35,000 Als de acteur een student van Carnegie Mellon was -- 244 00:11:35,000 --> 00:11:37,000 dat was hij ook daadwerkelijk -- 245 00:11:37,000 --> 00:11:39,180 maar als hij deel uitmaakte van hun groep... 246 00:11:39,180 --> 00:11:41,360 werd er meer vals gespeeld. 247 00:11:41,360 --> 00:11:45,000 Maar als hij een sweatshirt van de Universiteit van Pittsburgh droeg, 248 00:11:45,000 --> 00:11:47,000 werd het bedrog minder. 249 00:11:47,000 --> 00:11:50,000 (Gelach) (Applaus) 250 00:11:51,210 --> 00:11:53,000 Dit is belangrijk, want je weet 251 00:11:53,000 --> 00:11:55,000 dat toen de student opstond, 252 00:11:55,000 --> 00:11:57,960 het iedereen duidelijk werd dat ze ongestraft konden bedriegen 253 00:11:57,960 --> 00:12:00,450 want de onderzoeker zei: "Klaar, je mag naar huis", 254 00:12:00,450 --> 00:12:02,100 en ze vertrokken met het geld. 255 00:12:02,100 --> 00:12:05,000 Dus het ging weer niet zozeer de kans om gepakt te worden. 256 00:12:05,000 --> 00:12:08,000 Het ging over de normen voor bedrog. 257 00:12:08,000 --> 00:12:11,000 Als we iemand uit onze eigen groep vals zien spelen, 258 00:12:11,000 --> 00:12:14,410 vinden we dat gedrag meer aanvaardbaar voor ons als groep. 259 00:12:14,410 --> 00:12:17,340 Maar is het iemand uit de andere groep, die vreselijke lui -- 260 00:12:17,340 --> 00:12:19,000 ik bedoel, niet zo vreselijk -- 261 00:12:19,000 --> 00:12:21,390 maar iemand met wie we ons niet willen associëren, 262 00:12:21,390 --> 00:12:23,210 van een andere universiteit of groep, 263 00:12:23,210 --> 00:12:26,000 dan neemt plotseling het bewustzijn van eerlijkheid toe -- 264 00:12:26,000 --> 00:12:28,430 een beetje als in het Tien geboden-onderzoek -- 265 00:12:28,430 --> 00:12:32,000 en mensen bedriegen nog minder. 266 00:12:32,000 --> 00:12:36,000 Dus, wat hebben we hiervan geleerd over bedrog? 267 00:12:36,000 --> 00:12:39,000 We leerden dat veel mensen kunnen bedriegen. 268 00:12:39,000 --> 00:12:42,000 Ze bedriegen slechts een beetje. 269 00:12:42,000 --> 00:12:46,000 Als we mensen herinneren aan hun moraliteit, bedriegen ze minder. 270 00:12:46,000 --> 00:12:49,000 Als we meer afstand nemen tot bedrog, 271 00:12:49,000 --> 00:12:53,000 van het fysieke geld, bijvoorbeeld, bedriegen mensen meer. 272 00:12:53,000 --> 00:12:55,000 Als we bedrog rondom ons zien, 273 00:12:55,000 --> 00:12:59,000 vooral in onze eigen groep, neemt het bedrog toe. 274 00:12:59,000 --> 00:13:02,000 Als we dit betrekken op de aandelenmarkt, 275 00:13:02,000 --> 00:13:03,430 bedenk dan wat er gebeurt. 276 00:13:03,430 --> 00:13:06,000 Wat gebeurt er in een situatie waarin je mensen 277 00:13:06,000 --> 00:13:08,000 veel geld betaalt om de realiteit 278 00:13:08,000 --> 00:13:11,000 op een licht verdraaide wijze te zien? 279 00:13:11,000 --> 00:13:14,000 Zouden ze dat dan niet zo kunnen zien? 280 00:13:14,000 --> 00:13:14,890 Natuurlijk wel. 281 00:13:14,890 --> 00:13:16,450 Wat als je andere dingen doet, 282 00:13:16,450 --> 00:13:18,210 zoals dingen loskoppelen van geld? 283 00:13:18,210 --> 00:13:22,070 Je noemt ze aandelen, opties, derivaten, effecten met hypotheken als onderpand. 284 00:13:22,070 --> 00:13:25,000 Zou het kunnen dat met die losgekoppelde dingen -- 285 00:13:25,000 --> 00:13:27,240 het is niet een token gedurende één seconde, 286 00:13:27,240 --> 00:13:30,230 maar vele stappen verwijderd van geld over een langere periode -- 287 00:13:30,230 --> 00:13:33,000 zou het kunnen dat mensen nog meer valsspelen? 288 00:13:33,000 --> 00:13:35,000 Wat gebeurt er met de sociale omgeving 289 00:13:35,000 --> 00:13:38,000 als mensen het gedrag van anderen om zich heen zien? 290 00:13:38,000 --> 00:13:42,000 Ik denk dat al deze krachten zeer negatief werkten 291 00:13:42,000 --> 00:13:44,000 in de aandelenmarkt. 292 00:13:44,000 --> 00:13:47,000 Meer algemeen wil ik je iets vertellen 293 00:13:47,000 --> 00:13:50,000 over gedragseconomie. 294 00:13:50,000 --> 00:13:54,000 We hebben vele intuïties in ons leven, 295 00:13:54,000 --> 00:13:57,000 en het punt is dat vele daarvan niet kloppen. 296 00:13:57,000 --> 00:14:00,000 De vraag is of we deze intuïties gaan testen. 297 00:14:00,000 --> 00:14:02,000 We kunnen denken over hoe we deze intuïtie kunnen testen 298 00:14:02,000 --> 00:14:04,000 in ons privéleven, ons zakelijke leven, 299 00:14:04,000 --> 00:14:07,000 en in het bijzonder op het gebied van beleid: 300 00:14:07,000 --> 00:14:10,000 dingen als "No Child Left Behind" [onderwijsbeleid], 301 00:14:10,000 --> 00:14:13,000 het creëren van nieuwe aandelenmarkten, of ander beleid -- 302 00:14:13,000 --> 00:14:15,690 belastingen, gezondheidszorg enz. 303 00:14:15,690 --> 00:14:18,000 De moeilijkheid van het testen van onze intuïtie 304 00:14:18,000 --> 00:14:20,000 was de grote les die ik leerde 305 00:14:20,000 --> 00:14:22,000 toen ik terugging naar de verpleegsters. 306 00:14:22,000 --> 00:14:24,000 Ik ging terug om ze te vertellen 307 00:14:24,000 --> 00:14:27,000 wat ik had ontdekt over verband verwijderen. 308 00:14:27,000 --> 00:14:29,000 Ik leerde twee interessante dingen. 309 00:14:29,000 --> 00:14:31,000 Een was dat mijn favoriete verpleegster, Ettie, 310 00:14:31,000 --> 00:14:35,000 me vertelde dat ik haar pijn niet in aanmerking nam. 311 00:14:35,000 --> 00:14:37,000 Ze zei: "Natuurlijk was het erg pijnlijk voor jou. 312 00:14:37,000 --> 00:14:39,000 Maar denk aan mij als verpleegster, 313 00:14:39,000 --> 00:14:41,000 die het verband verwijderde van iemand die ik graag mocht 314 00:14:41,000 --> 00:14:44,000 en dit herhaaldelijk moest doen over langere tijd. 315 00:14:44,000 --> 00:14:47,000 Zoveel pijn veroorzaken was ook niet fijn voor mij." 316 00:14:47,000 --> 00:14:52,000 Ze zei dat er misschien mee te maken had, dat het moeilijk voor haar was. 317 00:14:52,000 --> 00:14:55,000 Maar het was nog interessanter. Ze zei: 318 00:14:55,000 --> 00:14:59,410 "Ik dacht niet dat jouw intuïtie juist was. 319 00:14:59,410 --> 00:15:01,000 Ik dacht dat mijn intuïtie juist was." 320 00:15:01,000 --> 00:15:03,000 Dus als je nadenkt over al je intuïties, 321 00:15:03,000 --> 00:15:07,000 is het erg moeilijk te geloven dat die verkeerd zijn. 322 00:15:07,000 --> 00:15:10,000 Ze zei: "Omdat ik dacht dat mijn intuïtie klopte..." -- 323 00:15:10,000 --> 00:15:12,000 ze dacht dat haar intuïtie klopte -- 324 00:15:12,000 --> 00:15:17,000 was het erg moeilijk voor haar een experiment te doen 325 00:15:17,000 --> 00:15:19,000 om uit te vinden of ze het fout had. 326 00:15:19,000 --> 00:15:23,000 In feite is dit de situatie waarin we voortdurend zitten. 327 00:15:23,000 --> 00:15:26,000 We hebben sterke intuïties over alle mogelijke dingen -- 328 00:15:26,000 --> 00:15:29,000 je eigen capaciteiten, hoe de economie werkt, 329 00:15:29,000 --> 00:15:31,000 wat we leraren moeten betalen. 330 00:15:31,000 --> 00:15:34,000 Maar tenzij we deze intuïties gaan testen, 331 00:15:34,000 --> 00:15:35,320 komt er geen verbetering. 332 00:15:35,320 --> 00:15:37,540 Hoeveel beter zou mijn leven niet geweest zijn 333 00:15:37,540 --> 00:15:40,450 als deze verpleegsters hun intuïties hadden willen checken, 334 00:15:40,450 --> 00:15:42,240 en hoe alles beter zou zijn als we 335 00:15:42,240 --> 00:15:46,000 onze intuïties systematischer zouden gaan onderzoeken. 336 00:15:46,000 --> 00:15:48,000 Dank je wel.