WEBVTT 00:00:00.844 --> 00:00:03.222 Als we aan vooroordelen denken, 00:00:03.222 --> 00:00:05.366 denken we vaak aan domme en gemene mensen 00:00:05.366 --> 00:00:07.820 die domme en gemene dingen doen. 00:00:07.820 --> 00:00:09.890 Dit beeld wordt goed samengevat 00:00:09.890 --> 00:00:12.358 door de Britse criticus William Hazlitt, 00:00:12.358 --> 00:00:15.293 die schreef: ''Vooroordelen zijn het kind van onwetendheid.'' 00:00:15.293 --> 00:00:17.405 Ik wil proberen jullie ervan te overtuigen 00:00:17.405 --> 00:00:19.040 dat die uitspraak niet klopt. 00:00:19.040 --> 00:00:22.372 Ik wil proberen om jullie ervan te overtuigen dat vooroordelen 00:00:22.375 --> 00:00:25.783 natuurlijk zijn, vaak rationeel, 00:00:25.783 --> 00:00:27.614 en vaak zelfs moreel zijn. 00:00:27.614 --> 00:00:29.866 Ik geloof dat we, als we dit begrijpen, 00:00:29.866 --> 00:00:32.375 beter in staat zijn om ze te doorzien 00:00:32.375 --> 00:00:33.432 als het verkeerd gaat, 00:00:33.432 --> 00:00:35.350 als ze vreselijke gevolgen hebben. 00:00:35.350 --> 00:00:37.525 Zo weten we beter wat te doen 00:00:37.525 --> 00:00:39.207 als dit gebeurt. NOTE Paragraph 00:00:39.207 --> 00:00:41.244 We beginnen met stereotypen. 00:00:41.244 --> 00:00:44.480 Je kijkt naar mij, je kent mijn naam en enkele dingen over mij. 00:00:44.480 --> 00:00:46.309 Je zou je een oordeel kunnen vormen. 00:00:46.309 --> 00:00:49.162 Je zou kunnen raden naar mijn etniciteit, 00:00:49.162 --> 00:00:52.443 mijn politieke kleur, mijn geloof. 00:00:52.443 --> 00:00:54.542 En deze beoordelingen kloppen vaak nog ook. 00:00:54.542 --> 00:00:56.724 We zijn erg goed in dit soort dingen. 00:00:56.724 --> 00:01:00.850 Dit komt doordat onze vaardigheid om mensen te stereotyperen 00:01:00.850 --> 00:01:04.195 niet een willekeurig trekje is van onze hersenen, 00:01:04.195 --> 00:01:06.511 maar eerder een specifiek voorbeeld 00:01:06.511 --> 00:01:08.166 van een algemener proces, 00:01:08.166 --> 00:01:09.785 het feit dat wij ervaring hebben 00:01:09.785 --> 00:01:11.326 met zaken en mensen in de wereld 00:01:11.326 --> 00:01:12.575 die in categorieën vallen, 00:01:12.575 --> 00:01:15.081 en dat we die ervaring gebruiken om te generaliseren 00:01:15.081 --> 00:01:17.390 over nieuwe voorbeelden binnen deze categorieën. 00:01:17.390 --> 00:01:19.757 Iedereen heeft veel ervaring 00:01:19.757 --> 00:01:22.010 met stoelen, appels en honden. 00:01:22.010 --> 00:01:23.646 Op basis daarvan kan je 00:01:23.646 --> 00:01:25.998 bij onbekende voorbeelden meteen raden 00:01:25.998 --> 00:01:29.874 dat je op de stoel kunt zitten, de appel kunt eten, en dat de hond zal blaffen. 00:01:29.879 --> 00:01:31.783 Nu zijn vergissingen mogelijk. 00:01:31.783 --> 00:01:33.443 De stoel kan inzakken, 00:01:33.443 --> 00:01:35.225 de appel zou giftig kunnen zijn, 00:01:35.225 --> 00:01:36.975 en misschien blaft de hond niet - 00:01:36.975 --> 00:01:39.714 dit is trouwens mijn hond Tessie, die niet blaft. 00:01:39.714 --> 00:01:42.490 Maar meestal zijn we er goed in. 00:01:42.490 --> 00:01:44.044 Meestal kloppen onze gissingen 00:01:44.044 --> 00:01:46.003 op sociaal zowel als niet-sociaal vlak, 00:01:46.003 --> 00:01:50.620 en als we niet in staat zouden zijn om te raden naar nieuwe gevallen die we ervaren, 00:01:50.620 --> 00:01:52.509 zouden we niet overleven. 00:01:52.509 --> 00:01:55.844 Later in zijn prachtige essay geeft Hazlitt dit toe. 00:01:55.844 --> 00:01:58.536 Hij schrijft: ''Zonder vooroordelen en gewoontes 00:01:58.536 --> 00:02:00.876 zou ik de weg niet kunnen vinden in een kamer, 00:02:00.876 --> 00:02:03.588 me in geen enkele situatie weten te gedragen, 00:02:03.588 --> 00:02:07.291 en niet weten hoe ik me in een relatie in het leven moest voelen.'' 00:02:07.291 --> 00:02:09.040 Of neem bijvoorbeeld partijdigheid. 00:02:09.040 --> 00:02:10.748 Soms verdelen we de wereld in 00:02:10.748 --> 00:02:13.749 wij tegen hen, in groepsleden tegen buitenstaanders. 00:02:13.749 --> 00:02:16.470 En als we dat doen, weten we soms dat wij iets fout doen 00:02:16.470 --> 00:02:18.140 en voelen wij er ons schuldig bij. 00:02:18.140 --> 00:02:21.443 Maar soms voelen wij ons juist trots en geven we het openlijk toe. 00:02:21.443 --> 00:02:22.878 Mijn favoriete voorbeeld 00:02:22.878 --> 00:02:25.120 is een vraag uit het publiek 00:02:25.120 --> 00:02:27.837 in een Republikeins debat vóór de afgelopen verkiezingen. NOTE Paragraph 00:02:27.837 --> 00:02:30.129 (Video) Anderson Cooper: Uw vraag, 00:02:30.129 --> 00:02:34.310 de vraag in de hal, over hulp aan het buitenland? NOTE Paragraph 00:02:34.310 --> 00:02:39.103 Vrouw: De Amerikaanse bevolking heeft het moeilijk in ons land, nu. 00:02:39.103 --> 00:02:42.531 Waarom blijven wij hulp sturen 00:02:42.531 --> 00:02:43.847 aan het buitenland 00:02:43.847 --> 00:02:47.950 als wij alle hulp zelf goed kunnen gebruiken? NOTE Paragraph 00:02:47.950 --> 00:02:49.645 AC: Gouverneur Perry, hoe zit dat? NOTE Paragraph 00:02:49.645 --> 00:02:51.012 (Applaus) 00:02:51.012 --> 00:02:53.350 Rick Perry: Absoluut, ik denk dat het -- NOTE Paragraph 00:02:53.350 --> 00:02:55.010 Paul Bloom: Iedereen op het podium 00:02:55.010 --> 00:02:56.981 was het eens met de stelling in haar vraag, 00:02:56.981 --> 00:03:01.020 dat wij als Amerikanen meer moeten geven om Amerikanen dan om anderen. 00:03:01.226 --> 00:03:04.091 Mensen laten zich vaker meeslepen 00:03:04.091 --> 00:03:07.599 door gevoelens van solidariteit, loyaliteit, trots en patriottisme 00:03:07.599 --> 00:03:10.315 jegens hun eigen land of etnische groep. 00:03:10.315 --> 00:03:13.650 Los van hun politieke voorkeur zijn velen trots om Amerikaan te zijn. 00:03:13.650 --> 00:03:15.462 Ze geven de voorkeur aan Amerikanen. 00:03:15.462 --> 00:03:18.312 Inwoners van andere landen voelen hetzelfde voor hun land, 00:03:18.312 --> 00:03:20.798 en evenzo voor onze etnische afkomst. NOTE Paragraph 00:03:20.798 --> 00:03:22.482 Sommigen wijzen dit misschien af. 00:03:22.482 --> 00:03:24.203 Sommigen zijn zo kosmopolitisch 00:03:24.213 --> 00:03:26.547 dat je denkt dat etnische en nationale afkomst 00:03:26.547 --> 00:03:28.700 geen moreel effect zouden moeten hebben. 00:03:28.700 --> 00:03:31.462 Maar zelfs verfijnde mensen zoals jullie aanvaarden 00:03:31.462 --> 00:03:37.436 dat men neigt naar de ingroep, vrienden en familie, mensen die je nabij zijn. 00:03:37.436 --> 00:03:38.979 En dus maak zelfs jij een onderscheid 00:03:38.979 --> 00:03:40.954 tussen ons en zij. NOTE Paragraph 00:03:40.954 --> 00:03:43.557 Dit onderscheid is natuurlijk 00:03:43.557 --> 00:03:46.481 en vaak ook moreel, maar het kan fout gaan. 00:03:46.481 --> 00:03:48.210 Dit was voorwerp van het onderzoek 00:03:48.210 --> 00:03:50.969 van de grote sociale psycholoog Henri Tajfel. 00:03:50.969 --> 00:03:53.574 TaJfel werd geboren in Polen in 1919. 00:03:53.574 --> 00:03:55.713 Hij trok naar Frankrijk voor zijn studie, 00:03:55.713 --> 00:03:58.268 want als Jood kon hij in Polen niet studeren. 00:03:58.268 --> 00:04:02.058 Hij nam dienst in het Franse leger tijdens de Tweede Wereldoorlog. 00:04:02.061 --> 00:04:05.370 Hij kwam terecht in een krijgsgevangenkamp. 00:04:05.370 --> 00:04:07.628 Het was een vreselijke tijd voor hem, 00:04:07.628 --> 00:04:09.796 want als zou ontdekt worden dat hij Joods was, 00:04:09.796 --> 00:04:13.398 zou hij naar het concentratiekamp gaan, wat hij wellicht niet zou overleven. 00:04:13.400 --> 00:04:15.987 En inderdaad, toen hij vrijkwam na de oorlog 00:04:15.987 --> 00:04:18.492 waren de meeste van zijn vrienden en familie dood. 00:04:18.492 --> 00:04:20.329 Hij hield zich met allerlei bezig. 00:04:20.329 --> 00:04:21.860 Hij hielp oorlogswezen. 00:04:21.860 --> 00:04:23.591 Maar hij had levenslang interesse 00:04:23.591 --> 00:04:25.586 voor de wetenschap van het vooroordeel. 00:04:25.586 --> 00:04:27.586 Toen een prestigieuze Britse beurs 00:04:27.586 --> 00:04:29.641 voor de studie van stereotypen vrijkwam, 00:04:29.641 --> 00:04:31.268 vroeg hij ze aan en kreeg hij ze, 00:04:31.268 --> 00:04:33.188 de start van zijn geweldige carrière. 00:04:33.188 --> 00:04:35.457 Die begon met het inzicht 00:04:35.457 --> 00:04:37.777 dat de manier waarop de meeste mensen 00:04:37.777 --> 00:04:39.893 over de Holocaust dachten, fout was. 00:04:39.893 --> 00:04:42.299 De meesten zagen die toentertijd 00:04:42.299 --> 00:04:46.950 als een uiting van een tragisch gebrek aan Duitse kant, 00:04:47.204 --> 00:04:51.038 een genetische fout, een autoritaire persoonlijkheid. 00:04:51.038 --> 00:04:53.096 Tajfel wees dat af. 00:04:53.096 --> 00:04:55.529 Hij zei dat we in de Holocaust 00:04:55.529 --> 00:04:57.560 slechts een overdrijving zien 00:04:57.560 --> 00:04:59.728 van normale psychologische processen 00:04:59.728 --> 00:05:01.489 die in elk van ons bestaan. 00:05:01.489 --> 00:05:04.384 Om dat uit te zoeken, deed hij een reeks klassieke studies 00:05:04.384 --> 00:05:05.918 met Britse adolescenten. 00:05:05.918 --> 00:05:10.027 In één ervan stelde hij de Britse adolescenten allerlei vragen. 00:05:10.027 --> 00:05:12.433 Op basis van hun antwoorden zei hij dan: 00:05:12.433 --> 00:05:15.797 "Ik heb jullie antwoorden bekeken, en op die basis ben je ofwel 00:05:15.797 --> 00:05:17.363 -- zei hij tegen de helft -- 00:05:17.363 --> 00:05:20.320 "een Kandinsky-fan, je houdt van het werk van Kandinsky, 00:05:20.320 --> 00:05:23.298 of een Klee-fan, je houdt van het werk van Klee." 00:05:23.298 --> 00:05:25.204 Het sloeg nergens op: hun antwoorden 00:05:25.204 --> 00:05:27.404 hadden niets te maken met Kandinsky of Klee. 00:05:27.404 --> 00:05:30.132 Ze hadden er waarschijnlijk nooit van gehoord. 00:05:30.132 --> 00:05:32.872 Hij deelde ze gewoon willekeurig in. 00:05:32.872 --> 00:05:36.143 Maar hij stelde vast dat de categorieën belangrijk waren, 00:05:36.143 --> 00:05:38.654 want als hij de proefpersonen later geld gaf, 00:05:38.654 --> 00:05:40.330 gaven ze dat liever 00:05:40.330 --> 00:05:42.130 aan leden van hun eigen groep 00:05:42.130 --> 00:05:43.963 dan aan leden van de andere groep. 00:05:43.963 --> 00:05:46.290 Erger nog, ze maakten het liefst 00:05:46.290 --> 00:05:50.222 een verschil tussen de eigen en andere groepen, 00:05:50.222 --> 00:05:52.770 en gaven geld voor hun eigen groep op 00:05:52.770 --> 00:05:58.018 als ze daardoor de andere groep nog minder konden geven. (Gelach) NOTE Paragraph 00:05:58.018 --> 00:06:00.236 Deze voorkeur vertoont zich al snel. 00:06:00.236 --> 00:06:02.536 Mijn echtgenote en collega Karen Wynn 00:06:02.536 --> 00:06:05.627 deed in Yale een reeks studies met baby's die ze confronteert 00:06:05.627 --> 00:06:09.194 met poppen die een voorkeur hebben voor een bepaald voedsel. 00:06:09.194 --> 00:06:11.526 Sommige poppen zijn dol op groenen bonen. 00:06:11.526 --> 00:06:14.001 Andere houden van graham crackers. 00:06:14.001 --> 00:06:16.370 Ze testen de voedselvoorkeuren van de baby's 00:06:16.370 --> 00:06:19.060 en dat is meestal graham crackers. 00:06:19.060 --> 00:06:23.562 De vraag is of dat impact heeft op hoe ze de poppen behandelen. 00:06:23.562 --> 00:06:24.788 Nou en of. 00:06:24.788 --> 00:06:26.307 Ze verkiezen de pop 00:06:26.307 --> 00:06:29.786 die dezelfde smaak heeft als zij. 00:06:29.786 --> 00:06:32.342 Ze verkiezen zelfs poppen 00:06:32.342 --> 00:06:35.327 die de pop straffen met de andere smaak. 00:06:35.327 --> 00:06:37.604 (Gelach) NOTE Paragraph 00:06:37.604 --> 00:06:41.026 We zien voortdurend dit soort psychologie van 'in-groep' en 'uit-groep'. 00:06:41.026 --> 00:06:43.200 We zien het in politieke botsingen 00:06:43.200 --> 00:06:45.314 tussen groepen met diverse ideologieën. 00:06:45.314 --> 00:06:48.940 In extreme mate zien we het in oorlogen, 00:06:48.940 --> 00:06:52.157 waarbij de uit-groep niet enkel minder krijgt, 00:06:52.157 --> 00:06:53.745 maar ontmenselijkt wordt, 00:06:53.745 --> 00:06:55.985 zoals toen de nazi's de joden 00:06:55.985 --> 00:06:58.070 als ongedierte of luizen zagen, 00:06:58.070 --> 00:07:02.306 of de Amerikanen de Japanners als ratten. NOTE Paragraph 00:07:02.306 --> 00:07:04.520 Stereotypen kunnen verkeerd uitpakken. 00:07:04.520 --> 00:07:06.781 Ze zijn vaak rationeel en nuttig, 00:07:06.781 --> 00:07:09.675 maar soms zijn ze irrationeel en geven ze het foute antwoord. 00:07:09.675 --> 00:07:12.978 En soms hebben ze volstrekt immorele gevolgen. 00:07:12.978 --> 00:07:15.781 Het meest bestudeerde geval 00:07:15.781 --> 00:07:17.448 is dat van racisme. 00:07:17.448 --> 00:07:20.879 Er was een fascinerend onderzoek voor de verkiezingen van 2008 00:07:20.879 --> 00:07:24.225 waarbij sociale psychologen keken naar de mate waarin 00:07:24.225 --> 00:07:27.397 kandidaten met Amerika werden geassocieerd, 00:07:27.397 --> 00:07:31.002 onbewust, met de Amerikaanse vlag. 00:07:31.002 --> 00:07:34.438 Eén van die onderzoeken vergeleek Obama met McCain. 00:07:34.438 --> 00:07:37.766 Ze stelden vast dat McCain als meer Amerikaans gold dan Obama. 00:07:37.766 --> 00:07:40.339 Tot op zekere hoogte wekt dat geen verbazing. 00:07:40.339 --> 00:07:42.257 McCain is een gevierde oorlogsheld. 00:07:42.257 --> 00:07:44.116 Vele mensen zeiden letterlijk 00:07:44.116 --> 00:07:46.616 dat hij een Amerikaanser verhaal had dan Obama. 00:07:46.616 --> 00:07:48.693 Maar ze vergeleken Obama ook 00:07:48.693 --> 00:07:51.069 met de Britse premier Tony Blair. 00:07:51.069 --> 00:07:53.330 Ze stelden vast dat Blair ook gold 00:07:53.330 --> 00:07:55.837 als Amerikaanser dan Obama, 00:07:55.837 --> 00:07:57.910 hoewel de proefpersonen expliciet begrepen 00:07:57.910 --> 00:08:00.900 dat hij helemaal niet Amerikaans is. 00:08:00.900 --> 00:08:02.584 Ze reageerden uiteraard 00:08:02.584 --> 00:08:04.735 op zijn huidskleur. NOTE Paragraph 00:08:05.375 --> 00:08:08.816 Deze stereotiepen en voorkeuren hebben gevolgen in het echte leven 00:08:08.816 --> 00:08:11.748 die tegelijk subtiel en erg belangrijk zijn. 00:08:11.748 --> 00:08:14.410 In een recent onderzoek zette men 00:08:14.410 --> 00:08:17.679 op eBay baseballplaatjes te koop. 00:08:17.679 --> 00:08:20.413 Sommige werden vastgehouden door een blanke hand, 00:08:20.413 --> 00:08:21.631 andere door een zwarte. 00:08:21.631 --> 00:08:23.210 Het waren dezelfde plaatjes. 00:08:23.210 --> 00:08:26.554 Voor de plaatjes in de zwarte hand werd substantieel minder geboden 00:08:26.554 --> 00:08:29.005 dan voor de plaatjes in de blanke hand. 00:08:29.005 --> 00:08:31.367 In een onderzoek uit Stanford 00:08:31.367 --> 00:08:35.597 onderzochten psychologen de zaak van mensen 00:08:35.597 --> 00:08:39.166 die waren veroordeeld voor moord op een blanke. 00:08:39.166 --> 00:08:41.970 Bleek dat als je al de rest gelijk houdt, 00:08:41.970 --> 00:08:44.820 er een veel grotere kans is dat je wordt geëxecuteerd 00:08:44.820 --> 00:08:48.127 als je er uitziet als de man rechts dan als de man links. 00:08:48.127 --> 00:08:50.119 Dat komt vooral doordat 00:08:50.119 --> 00:08:52.653 de man rechts er meer uitziet 00:08:52.653 --> 00:08:55.493 als het prototype van een zwarte, een Afrikaanse Amerikaan. 00:08:55.493 --> 00:08:57.332 Dat beïnvloedt blijkbaar de beslissing 00:08:57.332 --> 00:08:59.103 over wat er met hem moet gebeuren. NOTE Paragraph 00:08:59.103 --> 00:09:00.650 Nu we dit weten, 00:09:00.650 --> 00:09:02.307 wat kunnen we eraan doen? 00:09:02.307 --> 00:09:03.929 Er zijn meerdere wegen. 00:09:03.929 --> 00:09:05.363 Een weg is beroep doen 00:09:05.363 --> 00:09:07.409 op de emotionele respons van mensen, 00:09:07.409 --> 00:09:09.542 op hun empathie. 00:09:09.542 --> 00:09:11.415 Dat doen we vaak door verhalen. 00:09:11.415 --> 00:09:13.980 Als je je kinderen vrij opvoedt 00:09:13.980 --> 00:09:15.622 en ze wilt aanmoedigen 00:09:15.622 --> 00:09:18.106 om te geloven in niet-traditionele gezinsmodellen 00:09:18.106 --> 00:09:20.859 kan je ze zo'n boek geven [Heather heeft twee mama's]. 00:09:20.859 --> 00:09:22.835 Een conservatief geeft dit soort boek. 00:09:22.835 --> 00:09:26.086 [Help! Mama! Er zitten vrijdenkers onder mijn bed!] (Gelach) 00:09:26.086 --> 00:09:28.991 Meestal kunnen verhalen anonieme vreemdelingen 00:09:28.991 --> 00:09:31.603 veranderen in mensen die ertoe doen. 00:09:31.603 --> 00:09:33.868 Het idee dat we om mensen geven 00:09:33.868 --> 00:09:36.020 als we hen als individu bekijken, 00:09:36.020 --> 00:09:38.139 is van alle tijden. 00:09:38.139 --> 00:09:40.722 Er is een apocrief citaat van Stalin 00:09:40.722 --> 00:09:42.329 "Eén enkele dood is een tragedie, 00:09:42.329 --> 00:09:44.379 1 miljoen doden zijn een statistiek." 00:09:44.379 --> 00:09:47.840 Moeder Teresa zei: "Als ik naar de massa kijk, zal ik nooit handelen. 00:09:47.840 --> 00:09:49.906 Als ik naar één mens kijk wel." 00:09:49.906 --> 00:09:51.766 Psychologen hebben dit verkend. 00:09:51.766 --> 00:09:53.067 In een onderzoek 00:09:53.067 --> 00:09:55.850 gaven ze mensen een lijst feiten over een crisis, 00:09:55.850 --> 00:09:59.986 en je zag hoeveel ze zouden geven 00:09:59.986 --> 00:10:01.690 om de crisis op te lossen. 00:10:01.690 --> 00:10:03.637 Een andere groep kreeg geen informatie, 00:10:03.637 --> 00:10:05.625 maar wel een verhaal over een individu. 00:10:05.625 --> 00:10:08.065 Ze kregen een naam en een gezicht. 00:10:08.065 --> 00:10:11.284 Bleek dat zij meer gaven. 00:10:11.284 --> 00:10:15.235 Dit is geen geheim voor mensen die met liefdadigheid bezig zijn. 00:10:15.236 --> 00:10:18.997 Ze overstelpen je niet met feiten en statistieken. 00:10:18.997 --> 00:10:22.009 Toon ze eerder gezichten, toon ze mensen. 00:10:22.009 --> 00:10:26.242 Het is mogelijk dat de sympathie die we hebben voor een individu 00:10:26.242 --> 00:10:29.973 zich uitbreidt tot op de groep waartoe dat individu behoort. NOTE Paragraph 00:10:30.061 --> 00:10:32.527 Dit is Harriet Beecher Stowe. 00:10:32.527 --> 00:10:34.970 Er is een wellicht apocrief verhaal 00:10:34.970 --> 00:10:37.044 dat president Lincoln haar uitnodigde 00:10:37.044 --> 00:10:39.042 op het Witte Huis tijdens de burgeroorlog, 00:10:39.042 --> 00:10:40.436 en dat hij zei: 00:10:40.436 --> 00:10:43.290 "U bent dus het dametje dat deze grote oorlog begon." 00:10:43.290 --> 00:10:45.495 Hij had het over 'De negerhut van oom Tom'. 00:10:45.495 --> 00:10:47.706 Dat is geen groot filosofisch werk, 00:10:47.706 --> 00:10:50.850 geen theologie en wellicht zelfs geen literatuur, 00:10:50.850 --> 00:10:53.365 maar wat het heel goed kan, 00:10:53.365 --> 00:10:55.863 is ons dwingen om ons te verplaatsen in mensen 00:10:55.863 --> 00:10:58.196 in wiens schoenen we anders nooit zouden staan, 00:10:58.196 --> 00:11:00.598 in de schoenen van slaven. 00:11:00.598 --> 00:11:04.449 Dat kan best de katalysator geweest zijn van een grote sociale verandering. NOTE Paragraph 00:11:04.449 --> 00:11:08.804 Recenter, als je kijkt naar Amerika in de jongste decennia, 00:11:08.804 --> 00:11:12.563 kunnen we aannemen dat series als 'The Cosby Show' 00:11:12.563 --> 00:11:15.471 de houding tegenover Afrikaans-Amerikanen radicaal wijzigde, 00:11:15.471 --> 00:11:18.234 terwijl series als 'Will en Grace' en 'Modern Family' 00:11:18.234 --> 00:11:21.367 de Amerikaanse houding tegenover homo's en lesbiennes wijzigden. 00:11:21.367 --> 00:11:23.352 Het is niet overdreven 00:11:23.352 --> 00:11:26.633 om te zeggen dat de grootste katalysator van morele verandering 00:11:26.633 --> 00:11:28.906 in Amerika komische series waren. NOTE Paragraph 00:11:28.906 --> 00:11:30.782 Maar het gaat niet alleen om emoties. 00:11:30.782 --> 00:11:33.838 Ik wil besluiten met een beroep op de kracht van de rede. 00:11:33.838 --> 00:11:38.208 Ergens in zijn mooie boek 'Ons betere ik', zegt Steven Pinker: 00:11:38.208 --> 00:11:42.148 "In het oude testament moet je van je buren houden, 00:11:42.148 --> 00:11:44.380 in het nieuwe testament van je vijand, 00:11:44.380 --> 00:11:47.122 maar ik hou van geen van beiden, niet echt, 00:11:47.122 --> 00:11:48.885 maar ik wil ze niet vermoorden. 00:11:48.885 --> 00:11:50.751 Ik weet dat ik verplichtingen heb, 00:11:50.751 --> 00:11:54.221 maar mijn morele gevoelens jegens hen, mijn morele geloof 00:11:54.221 --> 00:11:56.184 over hoe ik mij jegens hen moet gedragen, 00:11:56.184 --> 00:11:57.981 is niet op liefde gebaseerd, 00:11:57.981 --> 00:11:59.920 maar wel op mensenrechten, 00:11:59.920 --> 00:12:02.423 een geloof dat hun leven even waardevol is voor hen 00:12:02.423 --> 00:12:04.499 als het mijne voor mij." 00:12:04.499 --> 00:12:06.431 Hij onderbouwt dit met een verhaal 00:12:06.431 --> 00:12:08.279 van de grote filosoof Adam Smith. 00:12:08.279 --> 00:12:12.485 Ik vertel het hier met een kleine aanpassing aan de moderne tijd. NOTE Paragraph 00:12:12.939 --> 00:12:15.500 Adam Smith vraagt om je in te beelden 00:12:15.500 --> 00:12:17.301 dat duizenden mensen sterven 00:12:17.301 --> 00:12:20.521 en wel in een land dat jij niet kent. 00:12:21.020 --> 00:12:24.574 Misschien China of India of een land in Afrika. 00:12:24.574 --> 00:12:27.058 Smith zegt : "Hoe zou jij reageren?" 00:12:27.058 --> 00:12:29.365 Dan zeg jij 'jammer' 00:12:29.365 --> 00:12:31.241 en je gaat verder met je leven. 00:12:31.241 --> 00:12:33.460 Als je de New York Times online raadpleegt 00:12:33.460 --> 00:12:36.420 en dit ziet, en dat gebeurt ons voortdurend, 00:12:36.420 --> 00:12:37.941 dan ga je verder met je leven. 00:12:37.941 --> 00:12:40.145 Maar stel je voor, zegt Smith, 00:12:40.145 --> 00:12:43.929 dat je verneemt dat je morgen je pink zal kwijtspelen. 00:12:43.929 --> 00:12:46.097 Dat zou veel uitmaken, zegt Smith. 00:12:46.097 --> 00:12:48.718 Je zou die nacht niet slapen door het piekeren. 00:12:48.721 --> 00:12:50.880 De vraag is dus: 00:12:50.880 --> 00:12:53.346 zou je duizenden levens opofferen 00:12:53.346 --> 00:12:55.235 om je pink te redden? 00:12:55.235 --> 00:12:58.243 Antwoord daar veilig in je eigen hoofd op. (Gelach) 00:12:58.243 --> 00:13:00.552 Smith zegt: helemaal niet, 00:13:00.552 --> 00:13:02.244 wat een vreselijke gedachte. 00:13:02.244 --> 00:13:04.275 En zo rijst de vraag, 00:13:04.275 --> 00:13:05.649 met de woorden van Smith: 00:13:05.649 --> 00:13:07.867 "Als onze passieve gevoelens haast altijd 00:13:07.867 --> 00:13:09.315 zo vies en egoïstisch zijn, 00:13:09.315 --> 00:13:13.093 waarom zijn onze actieve principes dan vaak zo genereus en edel?" 00:13:13.093 --> 00:13:17.108 Zijn antwoord is: "Door rede, principes en geweten. 00:13:17.108 --> 00:13:18.679 Die zegt ons, met een stem 00:13:18.679 --> 00:13:22.104 die in staat is om de meest pretentieuze van onze passies te verbazen, 00:13:22.104 --> 00:13:23.891 dat wij maar één uit de massa zijn, 00:13:23.891 --> 00:13:26.352 en op geen enkele wijze beter dan anderen." NOTE Paragraph 00:13:26.352 --> 00:13:28.507 Dit laatste deel wordt vaak beschreven 00:13:28.507 --> 00:13:31.555 als het principe van onpartijdigheid. 00:13:31.555 --> 00:13:34.184 Dit principe komt op de proppen 00:13:34.184 --> 00:13:35.931 in alle religies ter wereld, 00:13:35.951 --> 00:13:38.209 in alle versies van de gulden regel, 00:13:38.209 --> 00:13:40.663 en in alle moraalfilosofieën ter wereld. 00:13:40.663 --> 00:13:41.970 Ze verschillen vaak, 00:13:41.970 --> 00:13:45.184 maar ze delen de premisse dat we moraliteit moeten beoordelen 00:13:45.184 --> 00:13:47.949 vanuit een soort onpartijdig standpunt. NOTE Paragraph 00:13:47.949 --> 00:13:49.771 De beste uitwerking van deze visie 00:13:49.771 --> 00:13:52.856 komt voor mij niet van een theoloog of filosoof, 00:13:52.856 --> 00:13:54.213 maar van Humphrey Bogart 00:13:54.213 --> 00:13:55.750 aan het einde van 'Casablanca'. 00:13:55.750 --> 00:14:00.666 Opgepast, ik verklap het einde: hij zegt zijn geliefde dat ze uit elkaar moeten 00:14:00.676 --> 00:14:02.069 voor een hoger belang, 00:14:02.069 --> 00:14:04.133 en hij zegt - ik doe het zonder accent - 00:14:04.133 --> 00:14:05.915 "Er is niet veel nodig om te zien 00:14:05.915 --> 00:14:07.644 dat de problemen van drie mensjes 00:14:07.644 --> 00:14:10.515 in deze maffe wereld niet zo gek veel voorstellen." NOTE Paragraph 00:14:10.515 --> 00:14:13.665 Onze rede kan zorgen dat we onze passies opzij zetten. 00:14:13.665 --> 00:14:16.621 Ze kan ons motiveren om onze empathie uit te breiden, 00:14:16.621 --> 00:14:19.049 om een boek te schrijven als 'De negerhut van oom Tom', 00:14:19.049 --> 00:14:20.892 of zo'n boek te lezen. 00:14:20.892 --> 00:14:23.026 Ze kan ons motiveren 00:14:23.026 --> 00:14:25.308 om gewoontes en taboes en wetten te maken 00:14:25.308 --> 00:14:26.878 die ons beletten 00:14:26.878 --> 00:14:28.794 om op onze impulsen af te gaan 00:14:28.794 --> 00:14:32.083 als we, als rationele wezens, voelen dat we moeten ingeperkt worden. 00:14:32.083 --> 00:14:34.101 Daar dient een grondwet voor. 00:14:34.101 --> 00:14:36.712 Een grondwet is iets dat in het verleden werd opgezet 00:14:36.712 --> 00:14:38.609 en heden ten dage van toepassing is. 00:14:38.609 --> 00:14:39.554 Het zegt: 00:14:39.554 --> 00:14:43.841 hoe graag we ook een populaire president een derde ambtstermijn zouden gunnen, 00:14:43.841 --> 00:14:45.939 hoe graag blanke Amerikanen misschien 00:14:45.939 --> 00:14:49.997 de slavernij opnieuw willen instellen, dat kan niet. 00:14:49.997 --> 00:14:51.673 We hebben onszelf vastgelegd. NOTE Paragraph 00:14:51.673 --> 00:14:54.090 Dat doen we ook op andere manieren. 00:14:54.090 --> 00:14:56.848 We weten dat als we iemand moeten kiezen 00:14:56.848 --> 00:14:59.799 voor een baan of een prijs, 00:14:59.799 --> 00:15:02.757 dat we dan sterk bevooroordeeld zijn door ras, 00:15:02.757 --> 00:15:05.053 geslacht, 00:15:05.053 --> 00:15:07.268 hoe knap ze zijn. 00:15:07.268 --> 00:15:09.919 Soms zeggen we: "Zo hoort het." 00:15:09.919 --> 00:15:12.226 Maar soms zeggen we: "Dit is fout." 00:15:12.226 --> 00:15:14.115 Om dit te bevechten, 00:15:14.115 --> 00:15:16.366 proberen we niet gewoon harder, 00:15:16.366 --> 00:15:19.367 maar we zetten situaties op 00:15:19.367 --> 00:15:22.406 waar andere informatiebronnen ons niet kunnen beïnvloeden. 00:15:22.406 --> 00:15:23.721 Daarom houden vele orkesten 00:15:23.721 --> 00:15:26.366 audities voor muzikanten achter een scherm, 00:15:26.366 --> 00:15:30.380 zodat ze alléén die informatie krijgen die ze nodig denken te hebben. 00:15:30.380 --> 00:15:32.626 Ik denk dat vooroordelen 00:15:32.626 --> 00:15:35.720 een fundamentele dualiteit van de menselijke natuur blootleggen. 00:15:35.720 --> 00:15:39.496 We hebben buikgevoel, instinct, emoties. 00:15:39.496 --> 00:15:42.107 Die beïnvloeden onze beoordeling en onze daden, 00:15:42.107 --> 00:15:43.988 positief en negatief, 00:15:43.988 --> 00:15:47.610 maar we zijn ook in staat tot rationeel oordelen 00:15:47.610 --> 00:15:49.045 en intelligent plannen, 00:15:49.045 --> 00:15:51.862 en dat kunnen we gebruiken om, soms, 00:15:51.862 --> 00:15:53.805 onze emotie te versnellen en te voeden, 00:15:53.805 --> 00:15:56.573 en soms om ze te stelpen. 00:15:56.573 --> 00:15:57.927 Op deze manier 00:15:57.927 --> 00:16:00.684 helpt de rede ons om de wereld te verbeteren. NOTE Paragraph 00:16:00.684 --> 00:16:02.486 Dank je wel. 00:16:02.486 --> 00:16:04.403 (Applaus)