1 00:00:01,000 --> 00:00:03,000 Ik wil jullie vandaag vertellen 2 00:00:03,000 --> 00:00:06,000 over voorspelbare irrationaliteit. 3 00:00:06,000 --> 00:00:10,000 Mijn interesse voor irrationeel gedrag 4 00:00:10,000 --> 00:00:13,000 ontstond jaren geleden in het ziekenhuis. 5 00:00:13,000 --> 00:00:17,000 Ik was ernstig verbrand. 6 00:00:17,000 --> 00:00:20,000 Als je lang in het ziekenhuis ligt, 7 00:00:20,000 --> 00:00:23,000 zie je veel verschillende soorten irrationaliteit. 8 00:00:23,000 --> 00:00:28,000 Wat me specifiek stoorde op de brandwondenafdeling 9 00:00:28,000 --> 00:00:32,000 was de manier waarop de verpleegsters mijn verband verwijderden. 10 00:00:33,000 --> 00:00:35,370 Jullie hebben vast wel eens verband verwijderd, 11 00:00:35,370 --> 00:00:38,000 en je afgevraagd wat de beste aanpak is. 12 00:00:38,000 --> 00:00:42,000 Trek je het er snel af -- korte duur, maar hoge intensiteit -- 13 00:00:42,000 --> 00:00:44,000 of verwijder je het verband langzaam -- 14 00:00:44,000 --> 00:00:48,000 je neemt de tijd, maar per seconde doet het minder pijn -- 15 00:00:48,000 --> 00:00:51,000 welke manier is het beste? 16 00:00:51,000 --> 00:00:55,000 De verpleegsters op mijn afdeling dachten dat de beste manier 17 00:00:55,000 --> 00:00:58,000 de snelle was, dus ze pakten het verband vast en trokken, 18 00:00:58,000 --> 00:01:00,000 en ze pakten het vast en trokken. 19 00:01:00,000 --> 00:01:04,000 Omdat ik 70 procent van m'n lichaam verbrand had, duurde het een uur. 20 00:01:04,000 --> 00:01:07,000 Je kunt je voorstellen 21 00:01:07,000 --> 00:01:11,000 dat ik intens opzag tegen dat moment. 22 00:01:11,000 --> 00:01:13,000 Ik probeerde met ze te onderhandelen: 23 00:01:13,000 --> 00:01:16,200 "Wat als we iets anders probeerden en het iets langer lieten duren, 24 00:01:16,200 --> 00:01:21,000 misschien 2 uur in plaats van één -- zodat het minder intens is?" 25 00:01:21,000 --> 00:01:23,000 De verpleegsters vertelden me twee dingen. 26 00:01:23,000 --> 00:01:27,000 Ze vertelden me dat zij het juiste model van de patiënt hadden -- 27 00:01:27,000 --> 00:01:30,000 dat zij wisten wat het beste was om pijn te minimaliseren -- 28 00:01:30,000 --> 00:01:33,000 en ze vertelden me ook dat het woord 'patiënt' niet betekent 29 00:01:33,000 --> 00:01:35,000 'suggesties doen' of 'onderbreken' of … 30 00:01:35,000 --> 00:01:38,000 Dat is niet alleen zo in het Hebreeuws, trouwens. 31 00:01:38,000 --> 00:01:41,000 Het is zo in iedere taal waar ik tot nu toe ervaring mee had. 32 00:01:41,000 --> 00:01:45,000 En weet je, er was niet veel dat ik kon doen; 33 00:01:45,000 --> 00:01:48,000 ze gingen gewoon door met wat ze deden. 34 00:01:48,000 --> 00:01:50,250 Zo'n drie jaar later verliet ik het ziekenhuis 35 00:01:50,250 --> 00:01:53,000 en ging studeren aan de universiteit. 36 00:01:53,000 --> 00:01:56,000 Eén van de interessantste lessen die ik leerde, 37 00:01:56,000 --> 00:01:58,000 was dat er een onderzoeksmethode bestaat, 38 00:01:58,000 --> 00:02:02,000 waarbij je een abstracte kopie maakt van een vraag, 39 00:02:02,000 --> 00:02:06,000 die je vervolgens kunt proberen te onderzoeken 40 00:02:06,000 --> 00:02:08,000 om misschien iets te leren over de wereld. 41 00:02:08,000 --> 00:02:10,000 Dat deed ik dus. 42 00:02:10,000 --> 00:02:13,010 Ik was nog steeds geïnteresseerd in de kwestie van het verband. 43 00:02:13,010 --> 00:02:16,000 In het begin had ik niet veel geld, 44 00:02:16,000 --> 00:02:20,000 dus ging ik naar een doe-het-zelfzaak en kocht een bankschroef. 45 00:02:20,000 --> 00:02:24,000 Ik bracht mensen naar het lab, stopte hun vinger er in, 46 00:02:24,000 --> 00:02:26,000 en ik plette die een beetje. 47 00:02:26,000 --> 00:02:28,000 (Gelach) 48 00:02:28,000 --> 00:02:31,000 Ik plette ze voor lange tijd en voor korte tijd, 49 00:02:31,000 --> 00:02:33,000 pijn die toenam en pijn die afnam, 50 00:02:33,000 --> 00:02:37,000 met pauzes en zonder pauzes -- verschillende soorten pijn. 51 00:02:37,000 --> 00:02:39,000 Wanneer ik klaar was met mensen pijn doen, vroeg ik ze, 52 00:02:39,000 --> 00:02:41,000 nou, hoe pijnlijk was dit? Of, hoe pijnlijk was dit? 53 00:02:41,000 --> 00:02:43,000 Of, als je moest kiezen tussen de laatste twee, 54 00:02:43,000 --> 00:02:45,000 welke zou je kiezen? 55 00:02:45,000 --> 00:02:48,000 (Gelach) 56 00:02:48,000 --> 00:02:51,000 Ik bleef dit een tijdlang doen... 57 00:02:51,000 --> 00:02:53,000 (Gelach) 58 00:02:53,000 --> 00:02:57,000 Toen -- zoals al het goede onderzoek -- kreeg ik meer financiering. 59 00:02:57,000 --> 00:02:59,000 Ik begon met geluiden, elektrische schokken -- 60 00:02:59,000 --> 00:03:04,000 ik had zelfs een pijnpak waarmee mensen nog meer pijn konden voelen. 61 00:03:04,000 --> 00:03:08,000 Maar aan het eind van dit proces, 62 00:03:08,000 --> 00:03:11,000 had ik geleerd dat de verpleegsters het mis hadden. 63 00:03:11,000 --> 00:03:14,000 Fantastische mensen met goede intenties 64 00:03:14,000 --> 00:03:16,000 en veel ervaring, en toch 65 00:03:16,000 --> 00:03:20,000 hadden ze het voortdurend en voorspelbaar mis. 66 00:03:20,000 --> 00:03:23,000 Het blijkt dat we tijdsduur anders ervaren 67 00:03:23,000 --> 00:03:25,000 dan intensiteit. 68 00:03:25,000 --> 00:03:29,000 Ik zou minder geleden hebben als de tijdsduur langer was geweest 69 00:03:29,000 --> 00:03:31,000 en de intensiteit lager. 70 00:03:31,000 --> 00:03:34,000 Het was beter geweest om met mijn hoofd te beginnen, 71 00:03:34,000 --> 00:03:36,000 wat pijnlijker was, en naar mijn benen toe te werken, 72 00:03:36,000 --> 00:03:39,000 zodat het proces geleidelijk beter werd -- 73 00:03:39,000 --> 00:03:40,000 dat zou ook minder pijnlijk zijn geweest. 74 00:03:40,000 --> 00:03:42,000 Ook bleek dat het goed was geweest om 75 00:03:42,000 --> 00:03:44,000 kleine pauzes in te lassen, zodat ik wat kon bijkomen. 76 00:03:44,000 --> 00:03:46,000 Al deze dingen zouden goed zijn geweest 77 00:03:46,000 --> 00:03:49,000 maar mijn verpleegsters hadden geen flauw benul. 78 00:03:49,000 --> 00:03:50,000 Toen begon ik te denken: zijn verpleegsters 79 00:03:50,000 --> 00:03:53,000 de enige mensen in de wereld die dingen op deze manier 80 00:03:53,000 --> 00:03:56,000 mis hebben, of is dit iets meer algemeens? 81 00:03:56,000 --> 00:03:58,000 Het blijkt dat het meer algemeen is -- 82 00:03:58,000 --> 00:04:01,000 er zijn een hoop fouten die we maken. 83 00:04:01,000 --> 00:04:06,000 Ik wil jullie een voorbeeld geven van zo'n irrationaliteit, 84 00:04:06,000 --> 00:04:09,000 ik ga het hebben over bedriegen. 85 00:04:09,000 --> 00:04:11,000 Ik koos voor bedrog omdat het interessant is, 86 00:04:11,000 --> 00:04:13,000 maar het vertelt ons ook iets 87 00:04:13,000 --> 00:04:16,000 over de beurssituatie waarin we verkeren. 88 00:04:16,000 --> 00:04:19,000 Mijn interesse in bedrog werd gewekt 89 00:04:19,000 --> 00:04:21,000 toen Enron het toneel betrad en plotseling explodeerde. 90 00:04:21,000 --> 00:04:24,000 Ik begon te denken over wat daar gebeurde. 91 00:04:24,000 --> 00:04:25,000 Waren er hier enkele rotte appels 92 00:04:25,000 --> 00:04:28,000 die in staat waren om deze dingen te doen, 93 00:04:28,000 --> 00:04:30,000 of is dit meer wijdverbreid 94 00:04:30,000 --> 00:04:34,000 met vele mensen die hiertoe in staat zijn? 95 00:04:34,000 --> 00:04:38,000 Zoals gebruikelijk, besloot ik een simpel experiment te doen. 96 00:04:38,000 --> 00:04:39,000 Dat ging als volgt. 97 00:04:39,000 --> 00:04:42,000 Als je hieraan meedeed, zou ik je een stuk papier geven 98 00:04:42,000 --> 00:04:46,000 met 20 simpele rekensommen die iedereen kan oplossen, 99 00:04:46,000 --> 00:04:48,000 maar ik zou je niet genoeg tijd geven. 100 00:04:48,000 --> 00:04:50,000 Als de 5 minuten voorbij waren, zei ik: 101 00:04:50,000 --> 00:04:53,000 "Geef me je papieren en ik betaal je een dollar per vraag." 102 00:04:53,000 --> 00:04:57,000 Dat deden mensen. Ik betaalde ze dan 4 dollar -- 103 00:04:57,000 --> 00:04:59,000 gemiddeld hadden mensen vier sommen opgelost. 104 00:04:59,000 --> 00:05:02,000 Andere mensen verleidde ik tot bedrog. 105 00:05:02,000 --> 00:05:03,000 Ik gaf ze het vel papier. 106 00:05:03,000 --> 00:05:05,000 Na 5 minuten zei ik dan: 107 00:05:05,000 --> 00:05:06,000 "Verscheur het vel papier. 108 00:05:06,000 --> 00:05:09,000 Stop de stukjes in je broekzak of rugzak 109 00:05:09,000 --> 00:05:12,000 en vertel me hoeveel vragen je goed had." 110 00:05:12,000 --> 00:05:15,000 Nu losten mensen gemiddeld 7 vragen op. 111 00:05:15,000 --> 00:05:20,000 Het was niet zo dat er enkele rotte appels waren -- 112 00:05:20,000 --> 00:05:23,000 een paar mensen die erg bedrogen. 113 00:05:23,000 --> 00:05:26,000 Nee, we zagen veel mensen die een beetje bedrogen. 114 00:05:26,000 --> 00:05:29,000 In de economische theorie 115 00:05:29,000 --> 00:05:32,000 is bedrog een eenvoudige kosten-batenanalyse. 116 00:05:32,000 --> 00:05:34,000 Je zegt: wat is de pakkans? 117 00:05:34,000 --> 00:05:37,000 Hoeveel levert bedrog me op? 118 00:05:37,000 --> 00:05:39,000 Hoeveel straf krijg ik wanneer ik gepakt word? 119 00:05:39,000 --> 00:05:41,000 Je weegt deze tegen elkaar af -- 120 00:05:41,000 --> 00:05:43,000 een simpele kosten-batenanalyse, 121 00:05:43,000 --> 00:05:46,000 en je beslist of de misdaad de moeite waard is. 122 00:05:46,000 --> 00:05:48,000 Dus we probeerden dit te testen. 123 00:05:48,000 --> 00:05:52,000 Bij sommige mensen varieerden we hoeveel geld ze konden krijgen -- 124 00:05:52,000 --> 00:05:53,000 hoeveel geld ze konden stelen. 125 00:05:53,000 --> 00:05:56,000 We betaalden ze 10 cent per goed antwoord, 50 cent, 126 00:05:56,000 --> 00:05:59,000 een dollar, vijf dollar, tien dollar per goed antwoord. 127 00:05:59,000 --> 00:06:03,000 Je zou verwachten dat met het verhogen van het geldbedrag, 128 00:06:03,000 --> 00:06:06,000 mensen méér zouden bedriegen, maar zo was het niet. 129 00:06:06,000 --> 00:06:09,000 Een groot aantal mensen bedrogen ons met kleine beetjes. 130 00:06:09,000 --> 00:06:12,000 Hoe zat het met de pakkans? 131 00:06:12,000 --> 00:06:14,000 Sommige mensen verscheurden de helft van het papier, 132 00:06:14,000 --> 00:06:15,000 zodat er nog wat bewijs was. 133 00:06:15,000 --> 00:06:17,000 Sommige mensen verscheurden het hele vel. 134 00:06:17,000 --> 00:06:20,000 Sommigen verscheurden alles, liepen het lokaal uit 135 00:06:20,000 --> 00:06:23,000 en betaalden zichzelf uit de kom waarin meer dan 100 dollar zaten. 136 00:06:23,000 --> 00:06:26,000 Je zou verwachten dat als de pakkans verlaagde, 137 00:06:26,000 --> 00:06:29,000 mensen meer zouden bedriegen, maar dat was niet zo. 138 00:06:29,000 --> 00:06:32,000 Alweer bedrogen veel mensen ons slechts een beetje 139 00:06:32,000 --> 00:06:35,000 en waren ongevoelig voor deze economische motieven. 140 00:06:35,000 --> 00:06:36,000 Dus zeiden we: "Als mensen niet gevoelig zijn 141 00:06:36,000 --> 00:06:41,000 voor de kracht van de rationeel-economische theorie, 142 00:06:41,000 --> 00:06:44,000 wat is er dan aan de hand?" 143 00:06:44,000 --> 00:06:47,000 We dachten dat er misschien twee krachten in het spel waren. 144 00:06:47,000 --> 00:06:49,000 Enerzijds willen we allemaal zonder schuldgevoel 145 00:06:49,000 --> 00:06:52,000 in de spiegel kunnen kijken, dus willen we niet bedriegen. 146 00:06:52,000 --> 00:06:54,000 Anderzijds kunnen we een beetje bedriegen, 147 00:06:54,000 --> 00:06:56,000 zonder ons daarover schuldig te voelen. 148 00:06:56,000 --> 00:06:57,000 Dus misschien is er een niveau 149 00:06:57,000 --> 00:06:59,000 van bedrog waar we niet overheen kunnen, 150 00:06:59,000 --> 00:07:03,000 maar waaronder we ons kunnen verrijken door bedrog, 151 00:07:03,000 --> 00:07:06,000 zolang dat ons zelfbeeld niet verandert. 152 00:07:06,000 --> 00:07:09,000 We noemen dat de persoonlijke lariekoek-factor. 153 00:07:10,000 --> 00:07:14,000 Hoe test je een persoonlijke lariekoek-factor? 154 00:07:14,000 --> 00:07:18,000 Ten eerste: wat kunnen we doen om de lariekoek-factor te verkleinen? 155 00:07:18,000 --> 00:07:20,000 Dus we brachten mensen naar het lab en zeiden: 156 00:07:20,000 --> 00:07:22,000 "We hebben twee opdrachten voor jullie." 157 00:07:22,000 --> 00:07:23,000 De helft van hen vroegen we 158 00:07:23,000 --> 00:07:25,000 10 boeken te noemen van de middelbare school, 159 00:07:25,000 --> 00:07:28,000 of de Tien geboden op te noemen, 160 00:07:28,000 --> 00:07:30,000 en dan verleidden we ze tot bedrog. 161 00:07:30,000 --> 00:07:33,000 Nu bleek dat de mensen die de Tien geboden trachtten op te sommen -- 162 00:07:33,000 --> 00:07:35,000 en van onze groep lukte dat niemand -- 163 00:07:36,000 --> 00:07:40,000 maar van degenen die dat probeerden, 164 00:07:40,000 --> 00:07:43,000 greep niemand de kans om te bedriegen. 165 00:07:43,000 --> 00:07:45,000 Niet dat de meer religieuze mensen, die zich 166 00:07:45,000 --> 00:07:46,000 de meeste geboden konden herinneren, minder bedrogen, 167 00:07:46,000 --> 00:07:48,000 en de minder religieuze mensen, degenen 168 00:07:48,000 --> 00:07:49,000 die bijna geen geboden konden noemen -- 169 00:07:49,000 --> 00:07:51,000 meer bedrogen. 170 00:07:51,000 --> 00:07:55,000 Op het moment dat mensen zich de geboden probeerden te herinneren, 171 00:07:55,000 --> 00:07:56,000 stopten ze met bedriegen. 172 00:07:56,000 --> 00:07:58,000 Zelfs wanneer we zelfverklaarde atheïsten 173 00:07:58,000 --> 00:08:02,000 op de Bijbel lieten zweren en hen de kans gaven te bedriegen, 174 00:08:02,000 --> 00:08:04,000 deden ze dat niet. 175 00:08:06,000 --> 00:08:08,000 Nu zijn de Tien geboden moeilijk te 176 00:08:08,000 --> 00:08:10,000 introduceren in het onderwijs, dus zeiden we: 177 00:08:10,000 --> 00:08:12,000 "Waarom laten we mensen de erecode niet tekenen?" 178 00:08:12,000 --> 00:08:14,000 Dus we lieten mensen ondertekenen: 179 00:08:14,000 --> 00:08:18,000 "Ik begrijp dat dit korte onderzoek valt onder de MIT erecode." 180 00:08:18,000 --> 00:08:21,000 Dan verscheurden ze het. Niemand bedroog. 181 00:08:21,000 --> 00:08:22,000 Dit is vooral interessant 182 00:08:22,000 --> 00:08:24,000 omdat MIT geen erecode heeft. 183 00:08:24,000 --> 00:08:29,000 (Gelach) 184 00:08:29,000 --> 00:08:33,000 Dat ging allemaal over vermindering van de lariekoek-factor. 185 00:08:33,000 --> 00:08:36,000 Hoe zit het met versterking van de lariekoek-factor? 186 00:08:36,000 --> 00:08:38,000 In het eerste experiment liep ik door MIT 187 00:08:38,000 --> 00:08:41,000 en plaatste blikjes Coke in de koelkasten -- 188 00:08:41,000 --> 00:08:43,000 de algemene koelkasten voor de bachelorstudenten. 189 00:08:43,000 --> 00:08:46,000 Ik kwam dan terug om te meten wat de halveringstijd is 190 00:08:46,000 --> 00:08:50,000 van Coke -- hoe lang blijft hij staan in de koelkast? 191 00:08:50,000 --> 00:08:53,000 Zoals verwacht, niet erg lang. Mensen pakken het. 192 00:08:53,000 --> 00:08:57,000 Toen liet ik borden met zes biljetten van één dollar 193 00:08:57,000 --> 00:09:00,000 achter in dezelfde koelkasten. 194 00:09:00,000 --> 00:09:01,000 Geen enkel biljet verdween. 195 00:09:01,000 --> 00:09:04,000 Nu is dit geen goed sociaal experiment, 196 00:09:04,000 --> 00:09:07,000 dus om het goed te doen, deed ik hetzelfde 197 00:09:07,000 --> 00:09:09,000 experiment dat ik eerder beschreef. 198 00:09:09,000 --> 00:09:12,000 Een derde van de mensen gaf het vel papier aan ons terug. 199 00:09:12,000 --> 00:09:15,000 Een derde van de mensen verscheurde het vel, 200 00:09:15,000 --> 00:09:16,000 kwamen naar ons en zeiden: 201 00:09:16,000 --> 00:09:19,000 "Meneer de onderzoeker, ik heb X vragen beantwoord. Geef me X dollar." 202 00:09:19,000 --> 00:09:22,000 Een derde van de mensen kwam na het verscheuren van het papier 203 00:09:22,000 --> 00:09:24,000 naar ons toe en zei: 204 00:09:24,000 --> 00:09:30,000 Meneer de onderzoeker, ik heb X vragen beantwoord. Geef me X tokens." 205 00:09:30,000 --> 00:09:33,000 We betaalden ze niet met dollars maar met iets anders. 206 00:09:33,000 --> 00:09:36,000 Ze namen dat andere iets en gingen dat een paar meter verderop 207 00:09:36,000 --> 00:09:38,000 inwisselen voor dollars. 208 00:09:38,000 --> 00:09:40,000 Probeer je het volgende voor te stellen. 209 00:09:40,000 --> 00:09:43,000 Hoe slecht zou je je voelen als je een potlood van werk meenam, 210 00:09:43,000 --> 00:09:45,000 vergeleken met hoe slecht je je zou voelen 211 00:09:45,000 --> 00:09:47,000 als je 10 cent uit een pot met kleingeld nam? 212 00:09:47,000 --> 00:09:50,000 Deze dingen voelen heel anders aan. 213 00:09:50,000 --> 00:09:53,000 Zou het verschil maken als er enkele seconden afstand is 214 00:09:53,000 --> 00:09:56,000 tot contant geld, door een token te gebruiken? 215 00:09:56,000 --> 00:09:58,000 Onze proefpersonen verdubbelden hun bedrog. 216 00:09:58,000 --> 00:10:00,000 Ik zal jullie zo vertellen wat ik hierover 217 00:10:00,000 --> 00:10:02,000 denk in verband met de aandelenmarkt. 218 00:10:03,000 --> 00:10:07,000 Maar dit loste mijn grote probleem met Enron niet op, 219 00:10:07,000 --> 00:10:10,000 want in Enron is er ook een sociaal element. 220 00:10:10,000 --> 00:10:11,000 Mensen zien elkaars gedrag. 221 00:10:11,000 --> 00:10:13,000 Feitelijk zien we dagelijks in het nieuws 222 00:10:13,000 --> 00:10:15,000 voorbeelden van mensen die bedriegen. 223 00:10:15,000 --> 00:10:18,000 Welke invloed heeft dat? 224 00:10:18,000 --> 00:10:19,000 Dus deden we een ander experiment. 225 00:10:19,000 --> 00:10:22,000 Een grote groep studenten deed mee aan het onderzoek 226 00:10:22,000 --> 00:10:23,000 en we betaalden ze vooraf. 227 00:10:23,000 --> 00:10:26,000 Dus iedereen kreeg een envelop met al het geld voor het onderzoek, 228 00:10:26,000 --> 00:10:28,000 en we vroegen hen om aan het eind het geld 229 00:10:28,000 --> 00:10:32,000 dat ze niet verdiend hadden, terug te betalen. Oké? 230 00:10:32,000 --> 00:10:33,000 Hetzelfde gebeurde. 231 00:10:33,000 --> 00:10:35,000 Als we mensen de kans geven te bedriegen, doen ze dat. 232 00:10:35,000 --> 00:10:38,000 Ze bedriegen slechts een beetje. Weer hetzelfde. 233 00:10:38,000 --> 00:10:41,000 Maar in dit onderzoek huurden we ook een acteur in. 234 00:10:41,000 --> 00:10:45,000 Deze acteur stond na 30 seconden op en zei: 235 00:10:45,000 --> 00:10:48,000 "Ik heb alles opgelost. Wat doe ik nu?" 236 00:10:48,000 --> 00:10:52,000 De onderzoeker zei: "Als je alles klaar hebt, kun je naar huis." 237 00:10:52,000 --> 00:10:53,000 Dat is het. De klus is geklaard. 238 00:10:53,000 --> 00:10:57,000 Dus nu hadden we een student -- een acteur -- 239 00:10:57,000 --> 00:10:59,000 die deel van de groep was. 240 00:10:59,000 --> 00:11:01,000 Niemand wist dat het een acteur was 241 00:11:01,000 --> 00:11:05,000 en hij bedroog de boel overduidelijk. 242 00:11:05,000 --> 00:11:08,000 Wat zou er gebeuren met de anderen in de groep? 243 00:11:08,000 --> 00:11:11,000 Bedriegen ze meer, of juist minder? 244 00:11:11,000 --> 00:11:13,000 Het volgende gebeurde. 245 00:11:13,000 --> 00:11:17,000 Het blijkt af te hangen van welk sweatshirt ze dragen. 246 00:11:17,000 --> 00:11:19,000 Het zit zo. 247 00:11:19,000 --> 00:11:22,000 We deden dit op Carnegie Mellon en Pittsburgh. 248 00:11:22,000 --> 00:11:24,000 In Pittsburgh zijn twee grote universiteiten: 249 00:11:24,000 --> 00:11:27,000 Carnegie Mellon en de Universiteit van Pittsburgh. 250 00:11:27,000 --> 00:11:29,000 Alle deelnemers aan het onderzoek 251 00:11:29,000 --> 00:11:31,000 waren studenten van Carnegie Mellon. 252 00:11:31,000 --> 00:11:35,000 Als de acteur een student van Carnegie Mellon was -- 253 00:11:35,000 --> 00:11:37,000 dat was hij ook daadwerkelijk -- 254 00:11:37,000 --> 00:11:41,000 maar als hij deel uitmaakte van hun groep... werd er meer bedrogen. 255 00:11:41,000 --> 00:11:45,000 Maar als hij een sweatshirt van de Universiteit van Pittsburgh droeg, 256 00:11:45,000 --> 00:11:47,000 werd het bedrog minder. 257 00:11:47,000 --> 00:11:50,000 (Gelach) 258 00:11:50,000 --> 00:11:53,000 Dit is belangrijk, want je weet 259 00:11:53,000 --> 00:11:55,000 dat toen de student opstond, 260 00:11:55,000 --> 00:11:58,000 het iedereen duidelijk werd dat ze ongestraft konden bedriegen 261 00:11:58,000 --> 00:12:00,000 omdat de onderzoeker zei: 262 00:12:00,000 --> 00:12:02,000 "Je hebt alles af. Ga maar naar huis", en ze vertrokken met het geld. 263 00:12:02,000 --> 00:12:05,000 Dus het ging weer niet zozeer de kans om gepakt te worden. 264 00:12:05,000 --> 00:12:08,000 Het ging over de normen voor bedrog. 265 00:12:08,000 --> 00:12:11,000 Als we iemand uit onze eigen groep zien bedriegen, 266 00:12:11,000 --> 00:12:15,000 vinden we dat gedrag meer aanvaardbaar voor ons als groep. 267 00:12:15,000 --> 00:12:17,000 Maar is het iemand uit de andere groep, die vreselijke mensen -- 268 00:12:17,000 --> 00:12:19,000 ik bedoel, niet vreselijk in deze ... 269 00:12:19,000 --> 00:12:21,000 maar iemand waarmee we onszelf niet willen associëren, 270 00:12:21,000 --> 00:12:23,000 van een andere universiteit, een andere groep, 271 00:12:23,000 --> 00:12:26,000 dan neemt plotseling het bewustzijn van eerlijkheid toe -- 272 00:12:26,000 --> 00:12:28,000 een beetje als in het Tien geboden-onderzoek -- 273 00:12:28,000 --> 00:12:32,000 en mensen bedriegen nog minder. 274 00:12:32,000 --> 00:12:36,000 Dus, wat hebben we hiervan geleerd over bedrog? 275 00:12:36,000 --> 00:12:39,000 We leerden dat veel mensen kunnen bedriegen. 276 00:12:39,000 --> 00:12:42,000 Ze bedriegen slechts een beetje. 277 00:12:42,000 --> 00:12:46,000 Als we mensen herinneren aan hun moraliteit, bedriegen ze minder. 278 00:12:46,000 --> 00:12:49,000 Als we meer afstand nemen tot bedrog, 279 00:12:49,000 --> 00:12:53,000 van het fysieke geld, bijvoorbeeld, bedriegen mensen meer. 280 00:12:53,000 --> 00:12:55,000 Als we bedrog rondom ons zien, 281 00:12:55,000 --> 00:12:59,000 vooral in onze eigen groep, neemt het bedrog toe. 282 00:12:59,000 --> 00:13:02,000 Als we dit betrekken op de aandelenmarkt, 283 00:13:02,000 --> 00:13:03,000 bedenk dan wat er gebeurt. 284 00:13:03,000 --> 00:13:06,000 Wat gebeurt er in een situatie waarin je mensen 285 00:13:06,000 --> 00:13:08,000 veel geld betaalt om de realiteit 286 00:13:08,000 --> 00:13:11,000 op een licht verdraaide wijze te zien? 287 00:13:11,000 --> 00:13:14,000 Zouden ze dat dan niet zo kunnen zien? 288 00:13:14,000 --> 00:13:15,000 Natuurlijk wel. 289 00:13:15,000 --> 00:13:16,000 Wat gebeurt er als je andere dingen doet, 290 00:13:16,000 --> 00:13:18,000 zoals dingen loskoppelen van geld? 291 00:13:18,000 --> 00:13:21,000 Je noemt ze aandelen, opties, derivaten, 292 00:13:21,000 --> 00:13:22,000 "mortgage-backed securities". 293 00:13:22,000 --> 00:13:25,000 Zou het kunnen dat met die losgekoppelde dingen -- 294 00:13:25,000 --> 00:13:27,000 het is niet een token gedurende één seconde, 295 00:13:27,000 --> 00:13:29,000 maar vele stappen verwijderd van geld 296 00:13:29,000 --> 00:13:33,000 over een langere periode -- zou het kunnen dat mensen nog meer bedriegen? 297 00:13:33,000 --> 00:13:35,000 Wat gebeurt er met de sociale omgeving 298 00:13:35,000 --> 00:13:38,000 als mensen het gedrag van anderen om zich heen zien? 299 00:13:38,000 --> 00:13:42,000 Ik denk dat al deze krachten zeer negatief werken 300 00:13:42,000 --> 00:13:44,000 in de aandelenmarkt. 301 00:13:44,000 --> 00:13:47,000 Meer algemeen wil ik je iets vertellen 302 00:13:47,000 --> 00:13:50,000 over gedragseconomie. 303 00:13:50,000 --> 00:13:54,000 We hebben vele intuïties in ons leven, 304 00:13:54,000 --> 00:13:57,000 en het punt is, dat vele daarvan niet kloppen. 305 00:13:57,000 --> 00:14:00,000 De vraag is of we deze intuïties gaan testen. 306 00:14:00,000 --> 00:14:02,000 We kunnen denken over hoe we deze intuïtie kunnen testen 307 00:14:02,000 --> 00:14:04,000 in ons privéleven, ons zakelijke leven, 308 00:14:04,000 --> 00:14:07,000 en in het bijzonder op het gebied van beleid: 309 00:14:07,000 --> 00:14:10,000 dingen als "No Child Left Behind" [onderwijsbeleid], 310 00:14:10,000 --> 00:14:13,000 het creëren van nieuwe aandelenmarkten, of ander beleid -- 311 00:14:13,000 --> 00:14:16,000 belastingen, gezondheidszorg enz. 312 00:14:16,000 --> 00:14:18,000 De moeilijkheid van het testen van onze intuïtie 313 00:14:18,000 --> 00:14:20,000 was de grote les die ik leerde 314 00:14:20,000 --> 00:14:22,000 toen ik terugging naar de verpleegsters. 315 00:14:22,000 --> 00:14:24,000 Ik ging terug om ze te vertellen 316 00:14:24,000 --> 00:14:27,000 wat ik had ontdekt over verband verwijderen. 317 00:14:27,000 --> 00:14:29,000 Ik leerde twee interessante dingen. 318 00:14:29,000 --> 00:14:31,000 Een was dat mijn favoriete verpleegster, Ettie, 319 00:14:31,000 --> 00:14:35,000 me vertelde dat ik haar pijn niet in aanmerking nam. 320 00:14:35,000 --> 00:14:37,000 Ze zei: "Natuurlijk was het erg pijnlijk voor jou. 321 00:14:37,000 --> 00:14:39,000 Maar denk aan mij als verpleegster, 322 00:14:39,000 --> 00:14:41,000 die het verband verwijderde van iemand die ik graag mocht 323 00:14:41,000 --> 00:14:44,000 en dit herhaaldelijk moest doen over langere tijd. 324 00:14:44,000 --> 00:14:47,000 Zoveel pijn veroorzaken was ook niet fijn voor mij." 325 00:14:47,000 --> 00:14:52,000 Ze zei dat misschien deel van de reden was, dat het moeilijk voor haar was. 326 00:14:52,000 --> 00:14:55,000 Maar het was nog interessanter. Ze zei: 327 00:14:55,000 --> 00:15:00,000 "Ik dacht niet dat jouw intuïtie juist was. 328 00:15:00,000 --> 00:15:01,000 Ik dacht dat mijn intuïtie juist was." 329 00:15:01,000 --> 00:15:03,000 Dus als je nadenkt over al je intuïties, 330 00:15:03,000 --> 00:15:07,000 is het erg moeilijk te geloven dat die verkeerd zijn. 331 00:15:07,000 --> 00:15:10,000 Ze zei: "Gegeven het feit dat ik dacht dat mijn intuïtie klopte..." -- 332 00:15:10,000 --> 00:15:12,000 ze dacht dat haar intuïtie klopte -- 333 00:15:12,000 --> 00:15:17,000 was het erg moeilijk voor haar een experiment te doen 334 00:15:17,000 --> 00:15:19,000 om uit te vinden of ze het fout had. 335 00:15:19,000 --> 00:15:23,000 In feite is dit de situatie waarin we voortdurend zitten. 336 00:15:23,000 --> 00:15:26,000 We hebben sterke intuïties over alle mogelijke dingen -- 337 00:15:26,000 --> 00:15:29,000 je eigen capaciteiten, hoe de economie werkt, 338 00:15:29,000 --> 00:15:31,000 wat we leraren moeten betalen. 339 00:15:31,000 --> 00:15:34,000 Tenzij we deze intuïties gaan testen, 340 00:15:34,000 --> 00:15:36,000 komt er geen verbetering. 341 00:15:36,000 --> 00:15:38,000 Bedenk eens hoeveel beter mijn leven was geweest 342 00:15:38,000 --> 00:15:40,000 als deze verpleegsters hun intuïties hadden willen checken, 343 00:15:40,000 --> 00:15:41,000 en hoe alles beter zou zijn 344 00:15:41,000 --> 00:15:46,000 als we beginnen met meer systematisch onderzoek van onze intuïties. 345 00:15:46,000 --> 00:15:48,000 Dank je wel.