0:00:01.000,0:00:03.000 Ik wil jullie vandaag vertellen 0:00:03.000,0:00:06.000 over voorspelbare irrationaliteit. 0:00:07.320,0:00:10.790 Mijn interesse voor irrationeel gedrag 0:00:10.790,0:00:13.000 ontstond jaren geleden in het ziekenhuis. 0:00:13.000,0:00:15.360 Ik was ernstig verbrand. 0:00:17.000,0:00:20.000 Als je lang in het ziekenhuis ligt, 0:00:20.000,0:00:23.000 zie je veel verschillende [br]soorten irrationaliteit. 0:00:23.000,0:00:28.000 Wat me specifiek stoorde [br]op de brandwondenafdeling 0:00:28.000,0:00:32.000 was de manier waarop de verpleegsters [br]mijn verband verwijderden. 0:00:33.000,0:00:35.370 Jullie hebben vast wel eens [br]verband verwijderd, 0:00:35.370,0:00:38.000 en je afgevraagd [br]wat de beste aanpak is. 0:00:38.000,0:00:39.880 Trek je het er snel af -- 0:00:39.880,0:00:42.000 korte duur, maar hoge intensiteit -- 0:00:42.000,0:00:44.000 of verwijder je het verband langzaam -- 0:00:44.000,0:00:48.000 je neemt de tijd, maar per seconde [br]doet het minder pijn -- 0:00:48.000,0:00:51.000 welke manier is het beste? 0:00:51.000,0:00:53.900 De verpleegsters op mijn afdeling 0:00:53.900,0:00:56.020 dachten dat de beste manier [br]de snelle was, 0:00:56.020,0:00:58.070 dus ze pakten het verband vast en trokken, 0:00:58.070,0:01:00.000 en ze pakten het vast en trokken. 0:01:00.000,0:01:04.000 Omdat ik 70 procent van m'n lichaam [br]verbrand had, duurde het een uur. 0:01:04.000,0:01:07.000 Je kunt je voorstellen 0:01:07.000,0:01:11.000 dat ik intens opzag tegen dat moment. 0:01:11.000,0:01:13.000 Ik probeerde met ze te onderhandelen: 0:01:13.000,0:01:16.200 "Wat als we iets anders probeerden[br]en het iets langer lieten duren, 0:01:16.200,0:01:19.840 misschien 2 uur in plaats van één -- [br]zodat het minder intens is?" 0:01:21.000,0:01:23.000 De verpleegsters vertelden me twee dingen. 0:01:23.000,0:01:27.000 Ze vertelden me dat zij [br]het juiste model van de patiënt hadden -- 0:01:27.000,0:01:30.000 dat zij wisten wat het beste was [br]om pijn te minimaliseren -- 0:01:30.000,0:01:32.900 en ze vertelden me ook [br]dat het woord 'patiënt' niet betekent 0:01:32.900,0:01:35.810 'suggesties doen' of 'je bemoeien' of …[br](Gelach) 0:01:35.810,0:01:38.000 Dat is niet alleen zo [br]in het Hebreeuws, trouwens. 0:01:38.000,0:01:41.000 Het is zo in iedere taal [br]waar ik tot nu toe ervaring mee had. 0:01:41.000,0:01:45.000 Er was niet veel dat ik kon doen. 0:01:45.000,0:01:47.560 Ze gingen gewoon door met wat ze deden. 0:01:47.560,0:01:50.250 Zo'n drie jaar later [br]verliet ik het ziekenhuis 0:01:50.250,0:01:52.130 en ging studeren aan de universiteit. 0:01:53.000,0:01:56.000 Eén van de interessantste [br]lessen die ik leerde, 0:01:56.000,0:01:58.490 was dat er een onderzoeksmethode bestaat, 0:01:58.490,0:02:03.440 waarbij je een abstracte kopie [br]maakt van een vraag, 0:02:04.300,0:02:06.000 die je vervolgens kunt onderzoeken 0:02:06.000,0:02:08.000 om misschien iets te leren over de wereld. 0:02:08.000,0:02:09.550 Dat deed ik dus. 0:02:09.550,0:02:13.010 Ik was nog steeds geïnteresseerd[br]in de kwestie van het verband. 0:02:13.010,0:02:16.000 In het begin had ik niet veel geld, 0:02:16.000,0:02:20.360 dus ging ik naar een doe-het-zelfzaak [br]en kocht een bankschroef. 0:02:20.360,0:02:24.000 Ik bracht mensen naar het lab, [br]stopte hun vinger er in, 0:02:24.000,0:02:26.000 en ik plette die een beetje. 0:02:26.000,0:02:28.000 (Gelach) 0:02:28.000,0:02:31.000 Ik plette ze voor lange tijd [br]en voor korte tijd, 0:02:31.000,0:02:33.000 pijn die toenam [br]en pijn die afnam, 0:02:33.000,0:02:36.040 met pauzes en zonder pauzes [br]-- verschillende soorten pijn. 0:02:36.790,0:02:39.000 Wanneer ik klaar was [br]met pijn doen, vroeg ik: 0:02:39.000,0:02:40.760 nou, hoe pijnlijk was dit? 0:02:40.760,0:02:43.000 Of, als je moest kiezen [br]tussen de laatste twee, 0:02:43.000,0:02:45.000 welke zou je kiezen? 0:02:45.000,0:02:48.000 (Gelach) 0:02:48.000,0:02:51.000 Ik bleef dit een tijdlang doen... 0:02:51.000,0:02:53.000 (Gelach) 0:02:53.000,0:02:57.000 en toen -- zoals bij elk goed onderzoek -- [br]kreeg ik meer financiering. 0:02:57.000,0:02:59.530 Ik begon met geluiden, [br]elektrische schokken -- 0:03:00.380,0:03:04.490 ik had zelfs een pijnpak waarmee [br]mensen nog meer pijn konden voelen. 0:03:06.230,0:03:08.000 Maar aan het eind van dit proces 0:03:08.000,0:03:11.000 had ik geleerd dat [br]de verpleegsters het mis hadden. 0:03:11.000,0:03:14.000 Fantastische mensen met goede intenties 0:03:14.000,0:03:16.000 en veel ervaring, en toch 0:03:16.000,0:03:20.000 hadden ze het voortdurend [br]en voorspelbaar mis. 0:03:20.000,0:03:23.000 Het blijkt dat we tijdsduur anders ervaren 0:03:23.000,0:03:25.000 dan intensiteit. 0:03:25.000,0:03:29.000 Ik zou daardoor minder geleden hebben [br]als de tijdsduur langer was geweest 0:03:29.000,0:03:31.000 en de intensiteit lager. 0:03:31.000,0:03:34.710 Het was beter geweest om met mijn hoofd [br]te beginnen, wat pijnlijker was, 0:03:34.710,0:03:36.340 en naar mijn benen toe te werken, 0:03:36.340,0:03:38.480 zodat het proces geleidelijk beter werd -- 0:03:38.480,0:03:40.210 dat zou ook beter zijn geweest. 0:03:40.210,0:03:42.000 Ook bleek dat het goed was geweest om 0:03:42.000,0:03:44.390 kleine pauzes in te lassen, [br]zodat ik kon bijkomen. 0:03:44.390,0:03:46.470 Al deze dingen zouden goed zijn geweest, 0:03:46.470,0:03:48.640 maar mijn verpleegsters [br]hadden geen idee. 0:03:48.640,0:03:50.510 Toen bedacht ik: zijn verpleegsters 0:03:50.510,0:03:53.290 de enige mensen in de wereld [br]die dingen op deze manier 0:03:53.290,0:03:56.000 mis hebben, of is dit iets meer algemeens? 0:03:56.000,0:03:58.000 Het blijkt dat het meer algemeen is -- 0:03:58.000,0:04:01.000 we maken een hoop fouten. 0:04:01.000,0:04:06.000 Ik wil jullie een voorbeeld geven [br]van zo'n irrationaliteit. 0:04:06.000,0:04:09.000 Ik ga het hebben over bedrog. 0:04:09.000,0:04:11.000 Ik koos voor bedrog [br]omdat het interessant is, 0:04:11.000,0:04:13.000 maar het vertelt ons ook iets 0:04:13.000,0:04:16.000 over de beurssituatie waarin we verkeren. 0:04:17.040,0:04:19.340 Mijn interesse in bedrog [br]werd gewekt toen Enron 0:04:19.340,0:04:21.440 het toneel betrad [br]en plotseling explodeerde. 0:04:21.440,0:04:24.000 Ik begon te denken over wat daar gebeurde. 0:04:24.000,0:04:28.010 Waren er hier enkele rotte appels[br]die in staat waren om deze dingen te doen, 0:04:28.010,0:04:30.000 of is dit meer wijdverbreid 0:04:30.000,0:04:34.000 met vele mensen die hiertoe in staat zijn? 0:04:34.000,0:04:38.000 Zoals gebruikelijk, besloot ik [br]een simpel experiment te doen. 0:04:38.000,0:04:39.000 Dat ging als volgt. 0:04:39.000,0:04:42.000 Als je hieraan meedeed, [br]zou ik je een stuk papier geven 0:04:42.000,0:04:45.800 met 20 simpele rekensommen [br]die iedereen kan oplossen, 0:04:45.800,0:04:48.000 maar ik zou je niet genoeg tijd geven. 0:04:48.000,0:04:50.000 Als de 5 minuten voorbij waren, zei ik: 0:04:50.000,0:04:53.000 "Geef me je papieren [br]en ik betaal je een dollar per vraag." 0:04:53.000,0:04:57.000 Dat deden mensen. [br]Ik betaalde ze dan 4 dollar -- 0:04:57.000,0:04:59.000 gemiddeld hadden mensen [br]4 sommen opgelost. 0:04:59.000,0:05:01.570 Andere mensen verleidde ik tot bedrog. 0:05:01.570,0:05:03.000 Ik gaf ze het vel papier. 0:05:03.000,0:05:05.000 Na 5 minuten zei ik dan: 0:05:05.000,0:05:06.300 "Verscheur het vel. 0:05:06.300,0:05:09.000 Stop de stukjes in je broekzak of rugzak 0:05:09.000,0:05:12.000 en vertel me hoeveel vragen je goed had." 0:05:12.000,0:05:15.000 Nu losten mensen gemiddeld 7 vragen op.[br](Gelach) 0:05:16.800,0:05:20.430 Het was niet zo dat er [br]enkele rotte appels waren -- 0:05:20.430,0:05:23.000 een paar mensen die erg bedrogen. 0:05:23.000,0:05:26.000 Nee, we zagen veel mensen [br]die een beetje bedrogen. 0:05:27.060,0:05:29.000 In de economische theorie 0:05:29.000,0:05:32.000 is bedrog een eenvoudige [br]kosten-batenanalyse. 0:05:32.000,0:05:34.000 Je zegt: wat is de pakkans? 0:05:34.740,0:05:37.000 Hoeveel levert bedrog me op? 0:05:37.000,0:05:39.000 Hoeveel straf krijg ik als ik gepakt word? 0:05:39.000,0:05:41.000 Je weegt deze tegen elkaar af -- 0:05:41.000,0:05:43.000 een simpele kosten-batenanalyse, 0:05:43.000,0:05:46.000 en je beslist of de misdaad [br]de moeite waard is. 0:05:46.000,0:05:48.000 Dus we probeerden dit te testen. 0:05:48.000,0:05:53.010 Bij sommige mensen varieerden we [br]hoeveel geld ze konden stelen. 0:05:53.010,0:05:56.000 We betaalden ze 10 cent [br]per goed antwoord, 50 cent, 0:05:56.000,0:05:59.000 een dollar, vijf dollar, tien dollar [br]per goed antwoord. 0:05:59.000,0:06:03.250 Je zou verwachten dat [br]met het verhogen van het geldbedrag, 0:06:03.250,0:06:06.000 mensen méér zouden valsspelen, [br]maar zo was het niet. 0:06:06.000,0:06:09.000 Een groot aantal mensen [br]bedrogen ons met kleine beetjes. 0:06:09.000,0:06:12.000 Hoe zat het met de pakkans? 0:06:12.000,0:06:14.000 Sommige mensen verscheurden [br]de helft van het papier, 0:06:14.000,0:06:15.000 zodat er nog wat bewijs was. 0:06:15.000,0:06:17.000 Sommige mensen [br]verscheurden het hele vel. 0:06:17.000,0:06:20.000 Sommigen verscheurden alles, [br]liepen het lokaal uit 0:06:20.000,0:06:23.000 en betaalden zichzelf uit de kom [br]waarin meer dan 100 dollar zaten. 0:06:23.000,0:06:26.000 Je zou verwachten [br]dat als de pakkans verlaagde, 0:06:26.000,0:06:29.000 mensen meer zouden valsspelen, [br]maar dat was niet zo. 0:06:29.000,0:06:32.000 Alweer bedrogen veel mensen [br]ons slechts een beetje 0:06:32.000,0:06:35.000 en waren ze ongevoelig [br]voor deze economische motieven. 0:06:35.000,0:06:37.370 Dus zeiden we: [br]"Als mensen niet gevoelig zijn 0:06:37.370,0:06:41.000 voor de kracht [br]van de rationeel-economische theorie, 0:06:41.000,0:06:43.770 wat is er dan aan de hand?" 0:06:43.770,0:06:47.000 We dachten dat er misschien [br]twee krachten in het spel waren. 0:06:47.000,0:06:50.060 Enerzijds willen we allemaal zonder [br]schuldgevoel in de spiegel kunnen kijken, 0:06:50.060,0:06:51.860 dus willen we niet valsspelen. 0:06:51.860,0:06:54.000 Anderzijds kunnen we [br]een beetje valsspelen, 0:06:54.000,0:06:56.000 zonder ons daarover schuldig te voelen. 0:06:56.000,0:06:59.410 Dus misschien is er een niveau[br]van bedrog waar we niet overheen kunnen, 0:06:59.410,0:07:03.000 maar waaronder we ons [br]kunnen verrijken door bedrog, 0:07:03.000,0:07:06.000 zolang dat ons zelfbeeld niet verandert. 0:07:06.000,0:07:09.000 We noemen dat [br]de persoonlijke smoesfactor. 0:07:10.000,0:07:14.000 Hoe test je [br]een persoonlijke smoesfactor? 0:07:14.000,0:07:18.000 Ten eerste: wat kunnen we doen [br]om de smoesfactor te verkleinen? 0:07:18.000,0:07:20.000 Dus we brachten mensen [br]naar het lab en zeiden: 0:07:20.000,0:07:21.880 "We hebben 2 opdrachten voor jullie." 0:07:21.880,0:07:23.310 De helft van hen vroegen we 0:07:23.310,0:07:25.700 10 boeken te noemen [br]van de middelbare school, 0:07:25.700,0:07:28.000 of de Tien geboden op te noemen, 0:07:28.000,0:07:30.000 en dan verleidden we ze tot bedrog. 0:07:30.000,0:07:33.260 Nu bleek dat de mensen die [br]de Tien geboden trachtten op te sommen -- 0:07:33.260,0:07:36.050 en van onze groep lukte dat niemand -- 0:07:37.000,0:07:40.000 maar van degenen die dat probeerden, 0:07:40.000,0:07:42.520 greep niemand de kans om te bedriegen. 0:07:42.520,0:07:44.400 Niet dat de religieuzere mensen, 0:07:44.400,0:07:46.800 die de meeste geboden kenden, [br]minder bedrogen, 0:07:46.800,0:07:50.810 en de minder religieuzen, die bijna geen [br]geboden konden noemen -- meer bedrogen. 0:07:50.810,0:07:54.530 Op het moment dat mensen [br]zich de geboden probeerden te herinneren, 0:07:54.530,0:07:56.000 stopten ze met valsspelen. 0:07:56.000,0:07:58.300 Zelfs wanneer we zelfverklaarde atheïsten 0:07:58.300,0:08:02.000 op de Bijbel lieten zweren [br]en hen de kans gaven vals te spelen, 0:08:02.000,0:08:04.000 deden ze dat niet. 0:08:05.770,0:08:08.990 Nu zijn de Tien geboden moeilijk [br]te introduceren in het onderwijs, 0:08:08.990,0:08:12.300 dus zeiden we: "Waarom laten we mensen [br]de erecode niet tekenen?" 0:08:12.300,0:08:14.000 Dus we lieten mensen ondertekenen: 0:08:14.000,0:08:17.790 "Ik begrijp dat dit korte onderzoek [br]valt onder de MIT erecode." 0:08:17.790,0:08:21.000 Dan verscheurden ze het. Niemand speelde vals. 0:08:21.000,0:08:22.340 Dit is vooral interessant 0:08:22.340,0:08:24.000 omdat MIT geen erecode heeft. 0:08:24.000,0:08:29.000 (Gelach) 0:08:29.000,0:08:33.000 Dat ging allemaal over vermindering [br]van de smoesfactor. 0:08:33.000,0:08:36.000 Hoe zit het met versterking [br]van de smoesfactor? 0:08:36.000,0:08:38.000 In het eerste experiment liep ik door MIT 0:08:38.000,0:08:41.000 en plaatste blikjes Coke in de koelkasten -- 0:08:41.000,0:08:43.000 de algemene koelkasten [br]voor de bachelorstudenten. 0:08:43.000,0:08:46.000 Ik kwam dan terug om te meten [br]wat de halveringstijd is 0:08:46.000,0:08:50.000 van Coke -- hoe lang [br]blijft hij staan in de koelkast? 0:08:50.000,0:08:53.000 Zoals verwacht, niet erg lang. [br]Mensen pakken het. 0:08:53.000,0:08:57.000 Toen liet ik borden [br]met zes biljetten van één dollar 0:08:57.000,0:09:00.000 achter in dezelfde koelkasten. 0:09:00.000,0:09:01.400 Geen enkel biljet verdween. 0:09:01.400,0:09:04.000 Nu is dit geen goed sociaal experiment, 0:09:04.000,0:09:08.960 dus om het goed te doen, deed ik hetzelfde[br]experiment dat ik eerder beschreef. 0:09:08.960,0:09:12.000 Een derde van de mensen [br]gaf het vel papier aan ons terug. 0:09:12.000,0:09:14.710 Een derde van de mensen [br]verscheurde het vel, 0:09:14.710,0:09:16.000 kwamen naar ons en zeiden: 0:09:16.000,0:09:19.000 "Meneer, ik heb X vragen beantwoord. [br]Geef me X dollar." 0:09:19.000,0:09:22.460 Een derde van de mensen kwam [br]na het verscheuren van het papier 0:09:22.460,0:09:24.000 naar ons toe en zei: 0:09:24.000,0:09:28.760 "Meneer, ik heb X vragen beantwoord. [br]Geef me X tokens." 0:09:29.700,0:09:33.000 We betaalden ze niet met dollars [br]maar met iets anders. 0:09:33.000,0:09:36.000 Ze namen dat andere iets en gingen dat [br]een paar meter verderop 0:09:36.000,0:09:38.000 inwisselen voor dollars. 0:09:38.000,0:09:40.000 Probeer je het volgende voor te stellen. 0:09:40.000,0:09:43.450 Hoe slecht zou je je voelen [br]als je een potlood van werk meenam, 0:09:43.450,0:09:47.490 vergeleken met als je 10 cent [br]uit een pot met kleingeld nam? 0:09:47.490,0:09:50.000 Deze dingen voelen heel anders aan. 0:09:50.000,0:09:53.660 Zou het wat uitmaken als er enkele [br]seconden afstand is tot contant geld, 0:09:53.660,0:09:56.000 door een token te gebruiken? 0:09:56.000,0:09:58.120 Onze proefpersonen [br]verdubbelden hun bedrog. 0:09:59.200,0:10:02.100 Ik zal jullie zo vertellen wat ik hierover[br]denk in verband met de aandelenmarkt. 0:10:02.940,0:10:07.000 Maar dit loste mijn grote probleem [br]met Enron niet op, 0:10:07.000,0:10:09.470 want in Enron is er ook [br]een sociaal element. 0:10:09.470,0:10:11.000 Mensen zien elkaars gedrag. 0:10:11.000,0:10:13.000 Feitelijk zien we dagelijks in het nieuws 0:10:13.000,0:10:15.000 voorbeelden van mensen die bedrog plegen. 0:10:15.000,0:10:17.330 Welke invloed heeft dat? 0:10:17.330,0:10:19.000 Dus deden we nog een experiment. 0:10:19.000,0:10:22.000 Een grote groep studenten [br]deed mee aan het onderzoek 0:10:22.000,0:10:23.380 en we betaalden ze vooraf. 0:10:23.380,0:10:26.410 Iedereen kreeg een envelop [br]met al het geld voor het onderzoek, 0:10:26.410,0:10:31.000 en we vroegen hen om aan het eind [br]het niet verdiende geld terug te betalen. 0:10:31.790,0:10:35.410 Hetzelfde gebeurde. Als we mensen [br]de kans geven vals te spelen, doen ze dat. 0:10:35.410,0:10:38.000 Ze spelen slechts een beetje vals. [br]Weer hetzelfde. 0:10:38.000,0:10:41.000 Maar in dit onderzoek [br]huurden we ook een acteur in. 0:10:41.000,0:10:45.000 Deze acteur stond [br]na 30 seconden op en zei: 0:10:45.000,0:10:48.000 "Ik heb alles opgelost. Wat doe ik nu?" 0:10:48.000,0:10:52.000 De onderzoeker zei: "Als je alles [br]klaar hebt, kun je naar huis." 0:10:52.000,0:10:53.670 Dat is het. De klus is geklaard. 0:10:53.670,0:10:57.000 Dus nu hadden we [br]een student -- een acteur -- 0:10:57.000,0:10:59.000 die deel van de groep was. 0:10:59.000,0:11:01.000 -- niemand wist dat het een acteur was -- 0:11:01.000,0:11:05.000 en hij bedroog de boel overduidelijk. 0:11:05.000,0:11:08.000 Wat zou er gebeuren [br]met de anderen in de groep? 0:11:08.000,0:11:11.000 Bedriegen ze meer, of juist minder? 0:11:11.000,0:11:13.000 Het volgende gebeurde. 0:11:13.000,0:11:17.000 Het blijkt af te hangen van [br]welk sweatshirt ze dragen. (Gelach) 0:11:17.000,0:11:19.000 Het zit zo. 0:11:19.000,0:11:22.000 We deden dit [br]op Carnegie Mellon en Pittsburgh. 0:11:22.000,0:11:24.000 In Pittsburgh zijn twee grote universiteiten: 0:11:24.000,0:11:27.000 Carnegie Mellon [br]en de Universiteit van Pittsburgh. 0:11:27.000,0:11:29.000 Alle deelnemers aan het onderzoek 0:11:29.000,0:11:31.000 waren studenten van Carnegie Mellon. 0:11:31.000,0:11:35.000 Als de acteur een student [br]van Carnegie Mellon was -- 0:11:35.000,0:11:37.000 dat was hij ook daadwerkelijk -- 0:11:37.000,0:11:39.180 maar als hij deel [br]uitmaakte van hun groep... 0:11:39.180,0:11:41.360 werd er meer vals gespeeld. 0:11:41.360,0:11:45.000 Maar als hij een sweatshirt [br]van de Universiteit van Pittsburgh droeg, 0:11:45.000,0:11:47.000 werd het bedrog minder. 0:11:47.000,0:11:50.000 (Gelach)[br](Applaus) 0:11:51.210,0:11:53.000 Dit is belangrijk, want je weet 0:11:53.000,0:11:55.000 dat toen de student opstond, 0:11:55.000,0:11:57.960 het iedereen duidelijk werd [br]dat ze ongestraft konden bedriegen 0:11:57.960,0:12:00.450 want de onderzoeker zei: [br]"Klaar, je mag naar huis", 0:12:00.450,0:12:02.100 en ze vertrokken met het geld. 0:12:02.100,0:12:05.000 Dus het ging weer niet zozeer [br]de kans om gepakt te worden. 0:12:05.000,0:12:08.000 Het ging over de normen voor bedrog. 0:12:08.000,0:12:11.000 Als we iemand uit onze eigen groep [br]vals zien spelen, 0:12:11.000,0:12:14.410 vinden we dat gedrag [br]meer aanvaardbaar voor ons als groep. 0:12:14.410,0:12:17.340 Maar is het iemand [br]uit de andere groep, die vreselijke lui -- 0:12:17.340,0:12:19.000 ik bedoel, niet zo vreselijk -- 0:12:19.000,0:12:21.390 maar iemand met wie we ons niet [br]willen associëren, 0:12:21.390,0:12:23.210 van een andere universiteit of groep, 0:12:23.210,0:12:26.000 dan neemt plotseling [br]het bewustzijn van eerlijkheid toe -- 0:12:26.000,0:12:28.430 een beetje als [br]in het Tien geboden-onderzoek -- 0:12:28.430,0:12:32.000 en mensen bedriegen nog minder. 0:12:32.000,0:12:36.000 Dus, wat hebben we [br]hiervan geleerd over bedrog? 0:12:36.000,0:12:39.000 We leerden [br]dat veel mensen kunnen bedriegen. 0:12:39.000,0:12:42.000 Ze bedriegen slechts een beetje. 0:12:42.000,0:12:46.000 Als we mensen herinneren [br]aan hun moraliteit, bedriegen ze minder. 0:12:46.000,0:12:49.000 Als we meer afstand nemen tot bedrog, 0:12:49.000,0:12:53.000 van het fysieke geld, bijvoorbeeld, [br]bedriegen mensen meer. 0:12:53.000,0:12:55.000 Als we bedrog rondom ons zien, 0:12:55.000,0:12:59.000 vooral in onze eigen groep, [br]neemt het bedrog toe. 0:12:59.000,0:13:02.000 Als we dit betrekken op de aandelenmarkt, 0:13:02.000,0:13:03.430 bedenk dan wat er gebeurt. 0:13:03.430,0:13:06.000 Wat gebeurt er in een situatie [br]waarin je mensen 0:13:06.000,0:13:08.000 veel geld betaalt om de realiteit 0:13:08.000,0:13:11.000 op een licht verdraaide wijze te zien? 0:13:11.000,0:13:14.000 Zouden ze dat dan niet zo kunnen zien? 0:13:14.000,0:13:14.890 Natuurlijk wel. 0:13:14.890,0:13:16.450 Wat als je andere dingen doet, 0:13:16.450,0:13:18.210 zoals dingen loskoppelen van geld? 0:13:18.210,0:13:22.070 Je noemt ze aandelen, opties, derivaten,[br]effecten met hypotheken als onderpand. 0:13:22.070,0:13:25.000 Zou het kunnen dat [br]met die losgekoppelde dingen -- 0:13:25.000,0:13:27.240 het is niet een token [br]gedurende één seconde, 0:13:27.240,0:13:30.230 maar vele stappen verwijderd van geld[br]over een langere periode -- 0:13:30.230,0:13:33.000 zou het kunnen [br]dat mensen nog meer valsspelen? 0:13:33.000,0:13:35.000 Wat gebeurt er met de sociale omgeving 0:13:35.000,0:13:38.000 als mensen het gedrag [br]van anderen om zich heen zien? 0:13:38.000,0:13:42.000 Ik denk dat al deze krachten [br]zeer negatief werkten 0:13:42.000,0:13:44.000 in de aandelenmarkt. 0:13:44.000,0:13:47.000 Meer algemeen wil ik je iets vertellen 0:13:47.000,0:13:50.000 over gedragseconomie. 0:13:50.000,0:13:54.000 We hebben vele intuïties in ons leven, 0:13:54.000,0:13:57.000 en het punt is[br]dat vele daarvan niet kloppen. 0:13:57.000,0:14:00.000 De vraag is of we [br]deze intuïties gaan testen. 0:14:00.000,0:14:02.000 We kunnen denken over hoe we [br]deze intuïtie kunnen testen 0:14:02.000,0:14:04.000 in ons privéleven, ons zakelijke leven, 0:14:04.000,0:14:07.000 en in het bijzonder [br]op het gebied van beleid: 0:14:07.000,0:14:10.000 dingen als "No Child Left Behind" [br][onderwijsbeleid], 0:14:10.000,0:14:13.000 het creëren van nieuwe aandelenmarkten, [br]of ander beleid -- 0:14:13.000,0:14:15.690 belastingen, gezondheidszorg enz. 0:14:15.690,0:14:18.000 De moeilijkheid [br]van het testen van onze intuïtie 0:14:18.000,0:14:20.000 was de grote les die ik leerde 0:14:20.000,0:14:22.000 toen ik terugging naar de verpleegsters. 0:14:22.000,0:14:24.000 Ik ging terug om ze te vertellen 0:14:24.000,0:14:27.000 wat ik had ontdekt [br]over verband verwijderen. 0:14:27.000,0:14:29.000 Ik leerde twee interessante dingen. 0:14:29.000,0:14:31.000 Een was dat mijn favoriete verpleegster, Ettie, 0:14:31.000,0:14:35.000 me vertelde dat ik haar pijn [br]niet in aanmerking nam. 0:14:35.000,0:14:37.000 Ze zei: "Natuurlijk was het erg pijnlijk voor jou. 0:14:37.000,0:14:39.000 Maar denk aan mij als verpleegster, 0:14:39.000,0:14:41.000 die het verband verwijderde [br]van iemand die ik graag mocht 0:14:41.000,0:14:44.000 en dit herhaaldelijk [br]moest doen over langere tijd. 0:14:44.000,0:14:47.000 Zoveel pijn veroorzaken [br]was ook niet fijn voor mij." 0:14:47.000,0:14:52.000 Ze zei dat er misschien mee te maken had, [br]dat het moeilijk voor haar was. 0:14:52.000,0:14:55.000 Maar het was nog interessanter. [br]Ze zei: 0:14:55.000,0:14:59.410 "Ik dacht niet [br]dat jouw intuïtie juist was. 0:14:59.410,0:15:01.000 Ik dacht dat mijn intuïtie juist was." 0:15:01.000,0:15:03.000 Dus als je nadenkt over al je intuïties, 0:15:03.000,0:15:07.000 is het erg moeilijk te geloven [br]dat die verkeerd zijn. 0:15:07.000,0:15:10.000 Ze zei: "Omdat ik dacht [br]dat mijn intuïtie klopte..." -- 0:15:10.000,0:15:12.000 ze dacht dat haar intuïtie klopte -- 0:15:12.000,0:15:17.000 was het erg moeilijk voor haar [br]een experiment te doen 0:15:17.000,0:15:19.000 om uit te vinden of ze het fout had. 0:15:19.000,0:15:23.000 In feite is dit de situatie [br]waarin we voortdurend zitten. 0:15:23.000,0:15:26.000 We hebben sterke intuïties [br]over alle mogelijke dingen -- 0:15:26.000,0:15:29.000 je eigen capaciteiten, [br]hoe de economie werkt, 0:15:29.000,0:15:31.000 wat we leraren moeten betalen. 0:15:31.000,0:15:34.000 Maar tenzij we deze intuïties gaan testen, 0:15:34.000,0:15:35.320 komt er geen verbetering. 0:15:35.320,0:15:37.540 Hoeveel beter zou mijn leven [br]niet geweest zijn 0:15:37.540,0:15:40.450 als deze verpleegsters [br]hun intuïties hadden willen checken, 0:15:40.450,0:15:42.240 en hoe alles beter zou zijn als we 0:15:42.240,0:15:46.000 onze intuïties systematischer [br]zouden gaan onderzoeken. 0:15:46.000,0:15:48.000 Dank je wel.