1 00:00:00,844 --> 00:00:03,222 Als we aan vooroordelen denken, 2 00:00:03,222 --> 00:00:05,366 denken we vaak aan domme en gemene mensen 3 00:00:05,366 --> 00:00:07,820 die domme en gemene dingen doen. 4 00:00:07,820 --> 00:00:09,890 Dit beeld wordt goed samengevat 5 00:00:09,890 --> 00:00:12,358 door de Britse criticus William Hazlitt, 6 00:00:12,358 --> 00:00:15,293 die schreef: ''Vooroordelen zijn het kind van onwetendheid.'' 7 00:00:15,293 --> 00:00:17,405 Ik wil proberen jullie ervan te overtuigen 8 00:00:17,405 --> 00:00:19,040 dat die uitspraak niet klopt. 9 00:00:19,040 --> 00:00:22,372 Ik wil proberen om jullie ervan te overtuigen dat vooroordelen 10 00:00:22,375 --> 00:00:25,783 natuurlijk zijn, vaak rationeel, 11 00:00:25,783 --> 00:00:27,614 en vaak zelfs moreel zijn. 12 00:00:27,614 --> 00:00:29,866 Ik geloof dat we, als we dit begrijpen, 13 00:00:29,866 --> 00:00:32,375 beter in staat zijn om ze te doorzien 14 00:00:32,375 --> 00:00:33,432 als het verkeerd gaat, 15 00:00:33,432 --> 00:00:35,350 als ze vreselijke gevolgen hebben. 16 00:00:35,350 --> 00:00:37,525 Zo weten we beter wat te doen 17 00:00:37,525 --> 00:00:39,207 als dit gebeurt. 18 00:00:39,207 --> 00:00:41,244 We beginnen met stereotypen. 19 00:00:41,244 --> 00:00:44,480 Je kijkt naar mij, je kent mijn naam en enkele dingen over mij. 20 00:00:44,480 --> 00:00:46,309 Je zou je een oordeel kunnen vormen. 21 00:00:46,309 --> 00:00:49,162 Je zou kunnen raden naar mijn etniciteit, 22 00:00:49,162 --> 00:00:52,443 mijn politieke kleur, mijn geloof. 23 00:00:52,443 --> 00:00:54,542 En deze beoordelingen kloppen vaak nog ook. 24 00:00:54,542 --> 00:00:56,724 We zijn erg goed in dit soort dingen. 25 00:00:56,724 --> 00:01:00,850 Dit komt doordat onze vaardigheid om mensen te stereotyperen 26 00:01:00,850 --> 00:01:04,195 niet een willekeurig trekje is van onze hersenen, 27 00:01:04,195 --> 00:01:06,511 maar eerder een specifiek voorbeeld 28 00:01:06,511 --> 00:01:08,166 van een algemener proces, 29 00:01:08,166 --> 00:01:09,785 het feit dat wij ervaring hebben 30 00:01:09,785 --> 00:01:11,326 met zaken en mensen in de wereld 31 00:01:11,326 --> 00:01:12,575 die in categorieën vallen, 32 00:01:12,575 --> 00:01:15,081 en dat we die ervaring gebruiken om te generaliseren 33 00:01:15,081 --> 00:01:17,390 over nieuwe voorbeelden binnen deze categorieën. 34 00:01:17,390 --> 00:01:19,757 Iedereen heeft veel ervaring 35 00:01:19,757 --> 00:01:22,010 met stoelen, appels en honden. 36 00:01:22,010 --> 00:01:23,646 Op basis daarvan kan je 37 00:01:23,646 --> 00:01:25,998 bij onbekende voorbeelden meteen raden 38 00:01:25,998 --> 00:01:29,874 dat je op de stoel kunt zitten, de appel kunt eten, en dat de hond zal blaffen. 39 00:01:29,879 --> 00:01:31,783 Nu zijn vergissingen mogelijk. 40 00:01:31,783 --> 00:01:33,443 De stoel kan inzakken, 41 00:01:33,443 --> 00:01:35,225 de appel zou giftig kunnen zijn, 42 00:01:35,225 --> 00:01:36,975 en misschien blaft de hond niet - 43 00:01:36,975 --> 00:01:39,714 dit is trouwens mijn hond Tessie, die niet blaft. 44 00:01:39,714 --> 00:01:42,490 Maar meestal zijn we er goed in. 45 00:01:42,490 --> 00:01:44,044 Meestal kloppen onze gissingen 46 00:01:44,044 --> 00:01:46,003 op sociaal zowel als niet-sociaal vlak, 47 00:01:46,003 --> 00:01:50,620 en als we niet in staat zouden zijn om te raden naar nieuwe gevallen die we ervaren, 48 00:01:50,620 --> 00:01:52,509 zouden we niet overleven. 49 00:01:52,509 --> 00:01:55,844 Later in zijn prachtige essay geeft Hazlitt dit toe. 50 00:01:55,844 --> 00:01:58,536 Hij schrijft: ''Zonder vooroordelen en gewoontes 51 00:01:58,536 --> 00:02:00,876 zou ik de weg niet kunnen vinden in een kamer, 52 00:02:00,876 --> 00:02:03,588 me in geen enkele situatie weten te gedragen, 53 00:02:03,588 --> 00:02:07,291 en niet weten hoe ik me in een relatie in het leven moest voelen.'' 54 00:02:07,291 --> 00:02:09,040 Of neem bijvoorbeeld partijdigheid. 55 00:02:09,040 --> 00:02:10,748 Soms verdelen we de wereld in 56 00:02:10,748 --> 00:02:13,749 wij tegen hen, in groepsleden tegen buitenstaanders. 57 00:02:13,749 --> 00:02:16,470 En als we dat doen, weten we soms dat wij iets fout doen 58 00:02:16,470 --> 00:02:18,140 en voelen wij er ons schuldig bij. 59 00:02:18,140 --> 00:02:21,443 Maar soms voelen wij ons juist trots en geven we het openlijk toe. 60 00:02:21,443 --> 00:02:22,878 Mijn favoriete voorbeeld 61 00:02:22,878 --> 00:02:25,120 is een vraag uit het publiek 62 00:02:25,120 --> 00:02:27,837 in een Republikeins debat vóór de afgelopen verkiezingen. 63 00:02:27,837 --> 00:02:30,129 (Video) Anderson Cooper: Uw vraag, 64 00:02:30,129 --> 00:02:34,310 de vraag in de hal, over hulp aan het buitenland? 65 00:02:34,310 --> 00:02:39,103 Vrouw: De Amerikaanse bevolking heeft het moeilijk in ons land, nu. 66 00:02:39,103 --> 00:02:42,531 Waarom blijven wij hulp sturen 67 00:02:42,531 --> 00:02:43,847 aan het buitenland 68 00:02:43,847 --> 00:02:47,950 als wij alle hulp zelf goed kunnen gebruiken? 69 00:02:47,950 --> 00:02:49,645 AC: Gouverneur Perry, hoe zit dat? 70 00:02:49,645 --> 00:02:51,012 (Applaus) 71 00:02:51,012 --> 00:02:53,350 Rick Perry: Absoluut, ik denk dat het -- 72 00:02:53,350 --> 00:02:55,010 Paul Bloom: Iedereen op het podium 73 00:02:55,010 --> 00:02:56,981 was het eens met de stelling in haar vraag, 74 00:02:56,981 --> 00:03:01,020 dat wij als Amerikanen meer moeten geven om Amerikanen dan om anderen. 75 00:03:01,226 --> 00:03:04,091 Mensen laten zich vaker meeslepen 76 00:03:04,091 --> 00:03:07,599 door gevoelens van solidariteit, loyaliteit, trots en patriottisme 77 00:03:07,599 --> 00:03:10,315 jegens hun eigen land of etnische groep. 78 00:03:10,315 --> 00:03:13,650 Los van hun politieke voorkeur zijn velen trots om Amerikaan te zijn. 79 00:03:13,650 --> 00:03:15,462 Ze geven de voorkeur aan Amerikanen. 80 00:03:15,462 --> 00:03:18,312 Inwoners van andere landen voelen hetzelfde voor hun land, 81 00:03:18,312 --> 00:03:20,798 en evenzo voor onze etnische afkomst. 82 00:03:20,798 --> 00:03:22,482 Sommigen wijzen dit misschien af. 83 00:03:22,482 --> 00:03:24,203 Sommigen zijn zo kosmopolitisch 84 00:03:24,213 --> 00:03:26,547 dat je denkt dat etnische en nationale afkomst 85 00:03:26,547 --> 00:03:28,700 geen moreel effect zouden moeten hebben. 86 00:03:28,700 --> 00:03:31,462 Maar zelfs verfijnde mensen zoals jullie aanvaarden 87 00:03:31,462 --> 00:03:37,436 dat men neigt naar de ingroep, vrienden en familie, mensen die je nabij zijn. 88 00:03:37,436 --> 00:03:38,979 En dus maak zelfs jij een onderscheid 89 00:03:38,979 --> 00:03:40,954 tussen ons en zij. 90 00:03:40,954 --> 00:03:43,557 Dit onderscheid is natuurlijk 91 00:03:43,557 --> 00:03:46,481 en vaak ook moreel, maar het kan fout gaan. 92 00:03:46,481 --> 00:03:48,210 Dit was voorwerp van het onderzoek 93 00:03:48,210 --> 00:03:50,969 van de grote sociale psycholoog Henri Tajfel. 94 00:03:50,969 --> 00:03:53,574 TaJfel werd geboren in Polen in 1919. 95 00:03:53,574 --> 00:03:55,713 Hij trok naar Frankrijk voor zijn studie, 96 00:03:55,713 --> 00:03:58,268 want als Jood kon hij in Polen niet studeren. 97 00:03:58,268 --> 00:04:02,058 Hij nam dienst in het Franse leger tijdens de Tweede Wereldoorlog. 98 00:04:02,061 --> 00:04:05,370 Hij kwam terecht in een krijgsgevangenkamp. 99 00:04:05,370 --> 00:04:07,628 Het was een vreselijke tijd voor hem, 100 00:04:07,628 --> 00:04:09,796 want als zou ontdekt worden dat hij Joods was, 101 00:04:09,796 --> 00:04:13,398 zou hij naar het concentratiekamp gaan, wat hij wellicht niet zou overleven. 102 00:04:13,400 --> 00:04:15,987 En inderdaad, toen hij vrijkwam na de oorlog 103 00:04:15,987 --> 00:04:18,492 waren de meeste van zijn vrienden en familie dood. 104 00:04:18,492 --> 00:04:20,329 Hij hield zich met allerlei bezig. 105 00:04:20,329 --> 00:04:21,860 Hij hielp oorlogswezen. 106 00:04:21,860 --> 00:04:23,591 Maar hij had levenslang interesse 107 00:04:23,591 --> 00:04:25,586 voor de wetenschap van het vooroordeel. 108 00:04:25,586 --> 00:04:27,586 Toen een prestigieuze Britse beurs 109 00:04:27,586 --> 00:04:29,641 voor de studie van stereotypen vrijkwam, 110 00:04:29,641 --> 00:04:31,268 vroeg hij ze aan en kreeg hij ze, 111 00:04:31,268 --> 00:04:33,188 de start van zijn geweldige carrière. 112 00:04:33,188 --> 00:04:35,457 Die begon met het inzicht 113 00:04:35,457 --> 00:04:37,777 dat de manier waarop de meeste mensen 114 00:04:37,777 --> 00:04:39,893 over de Holocaust dachten, fout was. 115 00:04:39,893 --> 00:04:42,299 De meesten zagen die toentertijd 116 00:04:42,299 --> 00:04:46,950 als een uiting van een tragisch gebrek aan Duitse kant, 117 00:04:47,204 --> 00:04:51,038 een genetische fout, een autoritaire persoonlijkheid. 118 00:04:51,038 --> 00:04:53,096 Tajfel wees dat af. 119 00:04:53,096 --> 00:04:55,529 Hij zei dat we in de Holocaust 120 00:04:55,529 --> 00:04:57,560 slechts een overdrijving zien 121 00:04:57,560 --> 00:04:59,728 van normale psychologische processen 122 00:04:59,728 --> 00:05:01,489 die in elk van ons bestaan. 123 00:05:01,489 --> 00:05:04,384 Om dat uit te zoeken, deed hij een reeks klassieke studies 124 00:05:04,384 --> 00:05:05,918 met Britse adolescenten. 125 00:05:05,918 --> 00:05:10,027 In één ervan stelde hij de Britse adolescenten allerlei vragen. 126 00:05:10,027 --> 00:05:12,433 Op basis van hun antwoorden zei hij dan: 127 00:05:12,433 --> 00:05:15,797 "Ik heb jullie antwoorden bekeken, en op die basis ben je ofwel 128 00:05:15,797 --> 00:05:17,363 -- zei hij tegen de helft -- 129 00:05:17,363 --> 00:05:20,320 "een Kandinsky-fan, je houdt van het werk van Kandinsky, 130 00:05:20,320 --> 00:05:23,298 of een Klee-fan, je houdt van het werk van Klee." 131 00:05:23,298 --> 00:05:25,204 Het sloeg nergens op: hun antwoorden 132 00:05:25,204 --> 00:05:27,404 hadden niets te maken met Kandinsky of Klee. 133 00:05:27,404 --> 00:05:30,132 Ze hadden er waarschijnlijk nooit van gehoord. 134 00:05:30,132 --> 00:05:32,872 Hij deelde ze gewoon willekeurig in. 135 00:05:32,872 --> 00:05:36,143 Maar hij stelde vast dat de categorieën belangrijk waren, 136 00:05:36,143 --> 00:05:38,654 want als hij de proefpersonen later geld gaf, 137 00:05:38,654 --> 00:05:40,330 gaven ze dat liever 138 00:05:40,330 --> 00:05:42,130 aan leden van hun eigen groep 139 00:05:42,130 --> 00:05:43,963 dan aan leden van de andere groep. 140 00:05:43,963 --> 00:05:46,290 Erger nog, ze maakten het liefst 141 00:05:46,290 --> 00:05:50,222 een verschil tussen de eigen en andere groepen, 142 00:05:50,222 --> 00:05:52,770 en gaven geld voor hun eigen groep op 143 00:05:52,770 --> 00:05:58,018 als ze daardoor de andere groep nog minder konden geven. (Gelach) 144 00:05:58,018 --> 00:06:00,236 Deze voorkeur vertoont zich al snel. 145 00:06:00,236 --> 00:06:02,536 Mijn echtgenote en collega Karen Wynn 146 00:06:02,536 --> 00:06:05,627 deed in Yale een reeks studies met baby's die ze confronteert 147 00:06:05,627 --> 00:06:09,194 met poppen die een voorkeur hebben voor een bepaald voedsel. 148 00:06:09,194 --> 00:06:11,526 Sommige poppen zijn dol op groenen bonen. 149 00:06:11,526 --> 00:06:14,001 Andere houden van graham crackers. 150 00:06:14,001 --> 00:06:16,370 Ze testen de voedselvoorkeuren van de baby's 151 00:06:16,370 --> 00:06:19,060 en dat is meestal graham crackers. 152 00:06:19,060 --> 00:06:23,562 De vraag is of dat impact heeft op hoe ze de poppen behandelen. 153 00:06:23,562 --> 00:06:24,788 Nou en of. 154 00:06:24,788 --> 00:06:26,307 Ze verkiezen de pop 155 00:06:26,307 --> 00:06:29,786 die dezelfde smaak heeft als zij. 156 00:06:29,786 --> 00:06:32,342 Ze verkiezen zelfs poppen 157 00:06:32,342 --> 00:06:35,327 die de pop straffen met de andere smaak. 158 00:06:35,327 --> 00:06:37,604 (Gelach) 159 00:06:37,604 --> 00:06:41,026 We zien voortdurend dit soort psychologie van 'in-groep' en 'uit-groep'. 160 00:06:41,026 --> 00:06:43,200 We zien het in politieke botsingen 161 00:06:43,200 --> 00:06:45,314 tussen groepen met diverse ideologieën. 162 00:06:45,314 --> 00:06:48,940 In extreme mate zien we het in oorlogen, 163 00:06:48,940 --> 00:06:52,157 waarbij de uit-groep niet enkel minder krijgt, 164 00:06:52,157 --> 00:06:53,745 maar ontmenselijkt wordt, 165 00:06:53,745 --> 00:06:55,985 zoals toen de nazi's de joden 166 00:06:55,985 --> 00:06:58,070 als ongedierte of luizen zagen, 167 00:06:58,070 --> 00:07:02,306 of de Amerikanen de Japanners als ratten. 168 00:07:02,306 --> 00:07:04,520 Stereotypen kunnen verkeerd uitpakken. 169 00:07:04,520 --> 00:07:06,781 Ze zijn vaak rationeel en nuttig, 170 00:07:06,781 --> 00:07:09,675 maar soms zijn ze irrationeel en geven ze het foute antwoord. 171 00:07:09,675 --> 00:07:12,978 En soms hebben ze volstrekt immorele gevolgen. 172 00:07:12,978 --> 00:07:15,781 Het meest bestudeerde geval 173 00:07:15,781 --> 00:07:17,448 is dat van racisme. 174 00:07:17,448 --> 00:07:20,879 Er was een fascinerend onderzoek voor de verkiezingen van 2008 175 00:07:20,879 --> 00:07:24,225 waarbij sociale psychologen keken naar de mate waarin 176 00:07:24,225 --> 00:07:27,397 kandidaten met Amerika werden geassocieerd, 177 00:07:27,397 --> 00:07:31,002 onbewust, met de Amerikaanse vlag. 178 00:07:31,002 --> 00:07:34,438 Eén van die onderzoeken vergeleek Obama met McCain. 179 00:07:34,438 --> 00:07:37,766 Ze stelden vast dat McCain als meer Amerikaans gold dan Obama. 180 00:07:37,766 --> 00:07:40,339 Tot op zekere hoogte wekt dat geen verbazing. 181 00:07:40,339 --> 00:07:42,257 McCain is een gevierde oorlogsheld. 182 00:07:42,257 --> 00:07:44,116 Vele mensen zeiden letterlijk 183 00:07:44,116 --> 00:07:46,616 dat hij een Amerikaanser verhaal had dan Obama. 184 00:07:46,616 --> 00:07:48,693 Maar ze vergeleken Obama ook 185 00:07:48,693 --> 00:07:51,069 met de Britse premier Tony Blair. 186 00:07:51,069 --> 00:07:53,330 Ze stelden vast dat Blair ook gold 187 00:07:53,330 --> 00:07:55,837 als Amerikaanser dan Obama, 188 00:07:55,837 --> 00:07:57,910 hoewel de proefpersonen expliciet begrepen 189 00:07:57,910 --> 00:08:00,900 dat hij helemaal niet Amerikaans is. 190 00:08:00,900 --> 00:08:02,584 Ze reageerden uiteraard 191 00:08:02,584 --> 00:08:04,735 op zijn huidskleur. 192 00:08:05,375 --> 00:08:08,816 Deze stereotiepen en voorkeuren hebben gevolgen in het echte leven 193 00:08:08,816 --> 00:08:11,748 die tegelijk subtiel en erg belangrijk zijn. 194 00:08:11,748 --> 00:08:14,410 In een recent onderzoek zette men 195 00:08:14,410 --> 00:08:17,679 op eBay baseballplaatjes te koop. 196 00:08:17,679 --> 00:08:20,413 Sommige werden vastgehouden door een blanke hand, 197 00:08:20,413 --> 00:08:21,631 andere door een zwarte. 198 00:08:21,631 --> 00:08:23,210 Het waren dezelfde plaatjes. 199 00:08:23,210 --> 00:08:26,554 Voor de plaatjes in de zwarte hand werd substantieel minder geboden 200 00:08:26,554 --> 00:08:29,005 dan voor de plaatjes in de blanke hand. 201 00:08:29,005 --> 00:08:31,367 In een onderzoek uit Stanford 202 00:08:31,367 --> 00:08:35,597 onderzochten psychologen de zaak van mensen 203 00:08:35,597 --> 00:08:39,166 die waren veroordeeld voor moord op een blanke. 204 00:08:39,166 --> 00:08:41,970 Bleek dat als je al de rest gelijk houdt, 205 00:08:41,970 --> 00:08:44,820 er een veel grotere kans is dat je wordt geëxecuteerd 206 00:08:44,820 --> 00:08:48,127 als je er uitziet als de man rechts dan als de man links. 207 00:08:48,127 --> 00:08:50,119 Dat komt vooral doordat 208 00:08:50,119 --> 00:08:52,653 de man rechts er meer uitziet 209 00:08:52,653 --> 00:08:55,493 als het prototype van een zwarte, een Afrikaanse Amerikaan. 210 00:08:55,493 --> 00:08:57,332 Dat beïnvloedt blijkbaar de beslissing 211 00:08:57,332 --> 00:08:59,103 over wat er met hem moet gebeuren. 212 00:08:59,103 --> 00:09:00,650 Nu we dit weten, 213 00:09:00,650 --> 00:09:02,307 wat kunnen we eraan doen? 214 00:09:02,307 --> 00:09:03,929 Er zijn meerdere wegen. 215 00:09:03,929 --> 00:09:05,363 Een weg is beroep doen 216 00:09:05,363 --> 00:09:07,409 op de emotionele respons van mensen, 217 00:09:07,409 --> 00:09:09,542 op hun empathie. 218 00:09:09,542 --> 00:09:11,415 Dat doen we vaak door verhalen. 219 00:09:11,415 --> 00:09:13,980 Als je je kinderen vrij opvoedt 220 00:09:13,980 --> 00:09:15,622 en ze wilt aanmoedigen 221 00:09:15,622 --> 00:09:18,106 om te geloven in niet-traditionele gezinsmodellen 222 00:09:18,106 --> 00:09:20,859 kan je ze zo'n boek geven [Heather heeft twee mama's]. 223 00:09:20,859 --> 00:09:22,835 Een conservatief geeft dit soort boek. 224 00:09:22,835 --> 00:09:26,086 [Help! Mama! Er zitten vrijdenkers onder mijn bed!] (Gelach) 225 00:09:26,086 --> 00:09:28,991 Meestal kunnen verhalen anonieme vreemdelingen 226 00:09:28,991 --> 00:09:31,603 veranderen in mensen die ertoe doen. 227 00:09:31,603 --> 00:09:33,868 Het idee dat we om mensen geven 228 00:09:33,868 --> 00:09:36,020 als we hen als individu bekijken, 229 00:09:36,020 --> 00:09:38,139 is van alle tijden. 230 00:09:38,139 --> 00:09:40,722 Er is een apocrief citaat van Stalin 231 00:09:40,722 --> 00:09:42,329 "Eén enkele dood is een tragedie, 232 00:09:42,329 --> 00:09:44,379 1 miljoen doden zijn een statistiek." 233 00:09:44,379 --> 00:09:47,840 Moeder Teresa zei: "Als ik naar de massa kijk, zal ik nooit handelen. 234 00:09:47,840 --> 00:09:49,906 Als ik naar één mens kijk wel." 235 00:09:49,906 --> 00:09:51,766 Psychologen hebben dit verkend. 236 00:09:51,766 --> 00:09:53,067 In een onderzoek 237 00:09:53,067 --> 00:09:55,850 gaven ze mensen een lijst feiten over een crisis, 238 00:09:55,850 --> 00:09:59,986 en je zag hoeveel ze zouden geven 239 00:09:59,986 --> 00:10:01,690 om de crisis op te lossen. 240 00:10:01,690 --> 00:10:03,637 Een andere groep kreeg geen informatie, 241 00:10:03,637 --> 00:10:05,625 maar wel een verhaal over een individu. 242 00:10:05,625 --> 00:10:08,065 Ze kregen een naam en een gezicht. 243 00:10:08,065 --> 00:10:11,284 Bleek dat zij meer gaven. 244 00:10:11,284 --> 00:10:15,235 Dit is geen geheim voor mensen die met liefdadigheid bezig zijn. 245 00:10:15,236 --> 00:10:18,997 Ze overstelpen je niet met feiten en statistieken. 246 00:10:18,997 --> 00:10:22,009 Toon ze eerder gezichten, toon ze mensen. 247 00:10:22,009 --> 00:10:26,242 Het is mogelijk dat de sympathie die we hebben voor een individu 248 00:10:26,242 --> 00:10:29,973 zich uitbreidt tot op de groep waartoe dat individu behoort. 249 00:10:30,061 --> 00:10:32,527 Dit is Harriet Beecher Stowe. 250 00:10:32,527 --> 00:10:34,970 Er is een wellicht apocrief verhaal 251 00:10:34,970 --> 00:10:37,044 dat president Lincoln haar uitnodigde 252 00:10:37,044 --> 00:10:39,042 op het Witte Huis tijdens de burgeroorlog, 253 00:10:39,042 --> 00:10:40,436 en dat hij zei: 254 00:10:40,436 --> 00:10:43,290 "U bent dus het dametje dat deze grote oorlog begon." 255 00:10:43,290 --> 00:10:45,495 Hij had het over 'De negerhut van oom Tom'. 256 00:10:45,495 --> 00:10:47,706 Dat is geen groot filosofisch werk, 257 00:10:47,706 --> 00:10:50,850 geen theologie en wellicht zelfs geen literatuur, 258 00:10:50,850 --> 00:10:53,365 maar wat het heel goed kan, 259 00:10:53,365 --> 00:10:55,863 is ons dwingen om ons te verplaatsen in mensen 260 00:10:55,863 --> 00:10:58,196 in wiens schoenen we anders nooit zouden staan, 261 00:10:58,196 --> 00:11:00,598 in de schoenen van slaven. 262 00:11:00,598 --> 00:11:04,449 Dat kan best de katalysator geweest zijn van een grote sociale verandering. 263 00:11:04,449 --> 00:11:08,804 Recenter, als je kijkt naar Amerika in de jongste decennia, 264 00:11:08,804 --> 00:11:12,563 kunnen we aannemen dat series als 'The Cosby Show' 265 00:11:12,563 --> 00:11:15,471 de houding tegenover Afrikaans-Amerikanen radicaal wijzigde, 266 00:11:15,471 --> 00:11:18,234 terwijl series als 'Will en Grace' en 'Modern Family' 267 00:11:18,234 --> 00:11:21,367 de Amerikaanse houding tegenover homo's en lesbiennes wijzigden. 268 00:11:21,367 --> 00:11:23,352 Het is niet overdreven 269 00:11:23,352 --> 00:11:26,633 om te zeggen dat de grootste katalysator van morele verandering 270 00:11:26,633 --> 00:11:28,906 in Amerika komische series waren. 271 00:11:28,906 --> 00:11:30,782 Maar het gaat niet alleen om emoties. 272 00:11:30,782 --> 00:11:33,838 Ik wil besluiten met een beroep op de kracht van de rede. 273 00:11:33,838 --> 00:11:38,208 Ergens in zijn mooie boek 'Ons betere ik', zegt Steven Pinker: 274 00:11:38,208 --> 00:11:42,148 "In het oude testament moet je van je buren houden, 275 00:11:42,148 --> 00:11:44,380 in het nieuwe testament van je vijand, 276 00:11:44,380 --> 00:11:47,122 maar ik hou van geen van beiden, niet echt, 277 00:11:47,122 --> 00:11:48,885 maar ik wil ze niet vermoorden. 278 00:11:48,885 --> 00:11:50,751 Ik weet dat ik verplichtingen heb, 279 00:11:50,751 --> 00:11:54,221 maar mijn morele gevoelens jegens hen, mijn morele geloof 280 00:11:54,221 --> 00:11:56,184 over hoe ik mij jegens hen moet gedragen, 281 00:11:56,184 --> 00:11:57,981 is niet op liefde gebaseerd, 282 00:11:57,981 --> 00:11:59,920 maar wel op mensenrechten, 283 00:11:59,920 --> 00:12:02,423 een geloof dat hun leven even waardevol is voor hen 284 00:12:02,423 --> 00:12:04,499 als het mijne voor mij." 285 00:12:04,499 --> 00:12:06,431 Hij onderbouwt dit met een verhaal 286 00:12:06,431 --> 00:12:08,279 van de grote filosoof Adam Smith. 287 00:12:08,279 --> 00:12:12,485 Ik vertel het hier met een kleine aanpassing aan de moderne tijd. 288 00:12:12,939 --> 00:12:15,500 Adam Smith vraagt om je in te beelden 289 00:12:15,500 --> 00:12:17,301 dat duizenden mensen sterven 290 00:12:17,301 --> 00:12:20,521 en wel in een land dat jij niet kent. 291 00:12:21,020 --> 00:12:24,574 Misschien China of India of een land in Afrika. 292 00:12:24,574 --> 00:12:27,058 Smith zegt : "Hoe zou jij reageren?" 293 00:12:27,058 --> 00:12:29,365 Dan zeg jij 'jammer' 294 00:12:29,365 --> 00:12:31,241 en je gaat verder met je leven. 295 00:12:31,241 --> 00:12:33,460 Als je de New York Times online raadpleegt 296 00:12:33,460 --> 00:12:36,420 en dit ziet, en dat gebeurt ons voortdurend, 297 00:12:36,420 --> 00:12:37,941 dan ga je verder met je leven. 298 00:12:37,941 --> 00:12:40,145 Maar stel je voor, zegt Smith, 299 00:12:40,145 --> 00:12:43,929 dat je verneemt dat je morgen je pink zal kwijtspelen. 300 00:12:43,929 --> 00:12:46,097 Dat zou veel uitmaken, zegt Smith. 301 00:12:46,097 --> 00:12:48,718 Je zou die nacht niet slapen door het piekeren. 302 00:12:48,721 --> 00:12:50,880 De vraag is dus: 303 00:12:50,880 --> 00:12:53,346 zou je duizenden levens opofferen 304 00:12:53,346 --> 00:12:55,235 om je pink te redden? 305 00:12:55,235 --> 00:12:58,243 Antwoord daar veilig in je eigen hoofd op. (Gelach) 306 00:12:58,243 --> 00:13:00,552 Smith zegt: helemaal niet, 307 00:13:00,552 --> 00:13:02,244 wat een vreselijke gedachte. 308 00:13:02,244 --> 00:13:04,275 En zo rijst de vraag, 309 00:13:04,275 --> 00:13:05,649 met de woorden van Smith: 310 00:13:05,649 --> 00:13:07,867 "Als onze passieve gevoelens haast altijd 311 00:13:07,867 --> 00:13:09,315 zo vies en egoïstisch zijn, 312 00:13:09,315 --> 00:13:13,093 waarom zijn onze actieve principes dan vaak zo genereus en edel?" 313 00:13:13,093 --> 00:13:17,108 Zijn antwoord is: "Door rede, principes en geweten. 314 00:13:17,108 --> 00:13:18,679 Die zegt ons, met een stem 315 00:13:18,679 --> 00:13:22,104 die in staat is om de meest pretentieuze van onze passies te verbazen, 316 00:13:22,104 --> 00:13:23,891 dat wij maar één uit de massa zijn, 317 00:13:23,891 --> 00:13:26,352 en op geen enkele wijze beter dan anderen." 318 00:13:26,352 --> 00:13:28,507 Dit laatste deel wordt vaak beschreven 319 00:13:28,507 --> 00:13:31,555 als het principe van onpartijdigheid. 320 00:13:31,555 --> 00:13:34,184 Dit principe komt op de proppen 321 00:13:34,184 --> 00:13:35,931 in alle religies ter wereld, 322 00:13:35,951 --> 00:13:38,209 in alle versies van de gulden regel, 323 00:13:38,209 --> 00:13:40,663 en in alle moraalfilosofieën ter wereld. 324 00:13:40,663 --> 00:13:41,970 Ze verschillen vaak, 325 00:13:41,970 --> 00:13:45,184 maar ze delen de premisse dat we moraliteit moeten beoordelen 326 00:13:45,184 --> 00:13:47,949 vanuit een soort onpartijdig standpunt. 327 00:13:47,949 --> 00:13:49,771 De beste uitwerking van deze visie 328 00:13:49,771 --> 00:13:52,856 komt voor mij niet van een theoloog of filosoof, 329 00:13:52,856 --> 00:13:54,213 maar van Humphrey Bogart 330 00:13:54,213 --> 00:13:55,750 aan het einde van 'Casablanca'. 331 00:13:55,750 --> 00:14:00,666 Opgepast, ik verklap het einde: hij zegt zijn geliefde dat ze uit elkaar moeten 332 00:14:00,676 --> 00:14:02,069 voor een hoger belang, 333 00:14:02,069 --> 00:14:04,133 en hij zegt - ik doe het zonder accent - 334 00:14:04,133 --> 00:14:05,915 "Er is niet veel nodig om te zien 335 00:14:05,915 --> 00:14:07,644 dat de problemen van drie mensjes 336 00:14:07,644 --> 00:14:10,515 in deze maffe wereld niet zo gek veel voorstellen." 337 00:14:10,515 --> 00:14:13,665 Onze rede kan zorgen dat we onze passies opzij zetten. 338 00:14:13,665 --> 00:14:16,621 Ze kan ons motiveren om onze empathie uit te breiden, 339 00:14:16,621 --> 00:14:19,049 om een boek te schrijven als 'De negerhut van oom Tom', 340 00:14:19,049 --> 00:14:20,892 of zo'n boek te lezen. 341 00:14:20,892 --> 00:14:23,026 Ze kan ons motiveren 342 00:14:23,026 --> 00:14:25,308 om gewoontes en taboes en wetten te maken 343 00:14:25,308 --> 00:14:26,878 die ons beletten 344 00:14:26,878 --> 00:14:28,794 om op onze impulsen af te gaan 345 00:14:28,794 --> 00:14:32,083 als we, als rationele wezens, voelen dat we moeten ingeperkt worden. 346 00:14:32,083 --> 00:14:34,101 Daar dient een grondwet voor. 347 00:14:34,101 --> 00:14:36,712 Een grondwet is iets dat in het verleden werd opgezet 348 00:14:36,712 --> 00:14:38,609 en heden ten dage van toepassing is. 349 00:14:38,609 --> 00:14:39,554 Het zegt: 350 00:14:39,554 --> 00:14:43,841 hoe graag we ook een populaire president een derde ambtstermijn zouden gunnen, 351 00:14:43,841 --> 00:14:45,939 hoe graag blanke Amerikanen misschien 352 00:14:45,939 --> 00:14:49,997 de slavernij opnieuw willen instellen, dat kan niet. 353 00:14:49,997 --> 00:14:51,673 We hebben onszelf vastgelegd. 354 00:14:51,673 --> 00:14:54,090 Dat doen we ook op andere manieren. 355 00:14:54,090 --> 00:14:56,848 We weten dat als we iemand moeten kiezen 356 00:14:56,848 --> 00:14:59,799 voor een baan of een prijs, 357 00:14:59,799 --> 00:15:02,757 dat we dan sterk bevooroordeeld zijn door ras, 358 00:15:02,757 --> 00:15:05,053 geslacht, 359 00:15:05,053 --> 00:15:07,268 hoe knap ze zijn. 360 00:15:07,268 --> 00:15:09,919 Soms zeggen we: "Zo hoort het." 361 00:15:09,919 --> 00:15:12,226 Maar soms zeggen we: "Dit is fout." 362 00:15:12,226 --> 00:15:14,115 Om dit te bevechten, 363 00:15:14,115 --> 00:15:16,366 proberen we niet gewoon harder, 364 00:15:16,366 --> 00:15:19,367 maar we zetten situaties op 365 00:15:19,367 --> 00:15:22,406 waar andere informatiebronnen ons niet kunnen beïnvloeden. 366 00:15:22,406 --> 00:15:23,721 Daarom houden vele orkesten 367 00:15:23,721 --> 00:15:26,366 audities voor muzikanten achter een scherm, 368 00:15:26,366 --> 00:15:30,380 zodat ze alléén die informatie krijgen die ze nodig denken te hebben. 369 00:15:30,380 --> 00:15:32,626 Ik denk dat vooroordelen 370 00:15:32,626 --> 00:15:35,720 een fundamentele dualiteit van de menselijke natuur blootleggen. 371 00:15:35,720 --> 00:15:39,496 We hebben buikgevoel, instinct, emoties. 372 00:15:39,496 --> 00:15:42,107 Die beïnvloeden onze beoordeling en onze daden, 373 00:15:42,107 --> 00:15:43,988 positief en negatief, 374 00:15:43,988 --> 00:15:47,610 maar we zijn ook in staat tot rationeel oordelen 375 00:15:47,610 --> 00:15:49,045 en intelligent plannen, 376 00:15:49,045 --> 00:15:51,862 en dat kunnen we gebruiken om, soms, 377 00:15:51,862 --> 00:15:53,805 onze emotie te versnellen en te voeden, 378 00:15:53,805 --> 00:15:56,573 en soms om ze te stelpen. 379 00:15:56,573 --> 00:15:57,927 Op deze manier 380 00:15:57,927 --> 00:16:00,684 helpt de rede ons om de wereld te verbeteren. 381 00:16:00,684 --> 00:16:02,486 Dank je wel. 382 00:16:02,486 --> 00:16:04,403 (Applaus)