1 00:00:00,844 --> 00:00:03,222 Kad razmišljamo o predrasudama i pristranostima, 2 00:00:03,222 --> 00:00:05,366 obično nam na pamet padnu glupi, zli ljudi 3 00:00:05,366 --> 00:00:07,820 koji rade glupe i zlonamjerne stvari. 4 00:00:07,820 --> 00:00:09,890 Ovu je ideju lijepo sažeo 5 00:00:09,890 --> 00:00:12,358 britanski kritičar William Hazlitt 6 00:00:12,358 --> 00:00:15,293 koji je napisao: "Predrasuda je plod neznanja." 7 00:00:15,293 --> 00:00:17,405 Ja vas želim uvjeriti da je ova ideja 8 00:00:17,405 --> 00:00:19,040 pogrešna. 9 00:00:19,040 --> 00:00:20,772 Želim vas uvjeriti da su 10 00:00:20,772 --> 00:00:22,495 predrasude i pristranosti 11 00:00:22,495 --> 00:00:25,783 prirodne, često racionalne, 12 00:00:25,783 --> 00:00:27,614 pa čak i moralne. 13 00:00:27,614 --> 00:00:29,866 Kad to jednom shvatimo, 14 00:00:29,866 --> 00:00:32,375 bolje ćemo ih razumjeti 15 00:00:32,375 --> 00:00:33,432 kada pođu krivo, 16 00:00:33,432 --> 00:00:35,200 kada počnu imati užasne posljedice 17 00:00:35,200 --> 00:00:37,525 i znat ćemo se bolje snaći 18 00:00:37,525 --> 00:00:39,207 kada se to dogodi. 19 00:00:39,207 --> 00:00:42,234 Krenimo sa stereotipima. Pogledate me, 20 00:00:42,234 --> 00:00:44,480 znate mi ime, znate određene stvari o meni 21 00:00:44,480 --> 00:00:46,309 i možete donositi određene zaključke. 22 00:00:46,309 --> 00:00:49,162 Možete nagađati moju etničku pripadnost, 23 00:00:49,162 --> 00:00:52,443 političku opredijeljenost, vjerska uvjerenja. 24 00:00:52,443 --> 00:00:54,542 Ovi su zaključci često i ispravni. 25 00:00:54,542 --> 00:00:56,724 Dobri smo u takvim stvarima, 26 00:00:56,724 --> 00:00:58,207 a to je zbog toga što 27 00:00:58,207 --> 00:01:00,940 naša sposobnost stereotipiziranja ljudi 28 00:01:00,940 --> 00:01:04,195 nije neki proizvoljni hir uma, 29 00:01:04,195 --> 00:01:06,511 već specifičan primjer 30 00:01:06,511 --> 00:01:08,166 jednog općenitijeg procesa, 31 00:01:08,166 --> 00:01:09,785 a to su naša iskustva sa 32 00:01:09,785 --> 00:01:11,326 stvarima i ljudima u svijetu 33 00:01:11,326 --> 00:01:12,575 koja spadaju u kategorije 34 00:01:12,575 --> 00:01:15,031 i svoje iskustvo možemo koristiti za generaliziranje 35 00:01:15,031 --> 00:01:17,390 o novim primjerima ovih kategorija. 36 00:01:17,390 --> 00:01:19,757 Svi mi imamo puno iskustva 37 00:01:19,757 --> 00:01:22,010 sa stolicama, jabukama i psima 38 00:01:22,010 --> 00:01:23,646 i na temelju toga, možete vidjeti 39 00:01:23,646 --> 00:01:25,998 nepoznate primjere i možete pretpostavljati, 40 00:01:25,998 --> 00:01:27,314 možete sjesti na stolicu, 41 00:01:27,314 --> 00:01:29,879 jesti jabuku, pas će zalajati. 42 00:01:29,879 --> 00:01:31,643 Mogli bismo biti u krivu. 43 00:01:31,643 --> 00:01:33,443 Stolica bi se mogla urušiti pod nama, 44 00:01:33,443 --> 00:01:35,665 jabuka može biti otrovna, pas ne mora zalajati. 45 00:01:35,665 --> 00:01:38,535 U biti, ovo je Tessie, moj pas koji ne laje. 46 00:01:38,535 --> 00:01:41,294 Ali u većini slučajeva ovo nam ide. 47 00:01:41,294 --> 00:01:43,210 Uglavnom radimo dobre pretpostavke 48 00:01:43,210 --> 00:01:45,024 i na društvenom i na nedruštvenom 49 00:01:45,024 --> 00:01:46,973 području, a da nismo u stanju 50 00:01:46,973 --> 00:01:50,189 stvarati pretpostavke o novim primjerima na koje nailazimo, 51 00:01:50,189 --> 00:01:51,640 ne bismo preživjeli. 52 00:01:51,640 --> 00:01:54,509 U biti, Hazlitt se kasnije u svom krasnom eseju 53 00:01:54,509 --> 00:01:55,994 složio s ovim. 54 00:01:55,994 --> 00:01:58,536 Napisao je: "Bez pomoći predrasuda i običaja 55 00:01:58,536 --> 00:02:00,876 ne bih se mogao snaći u sobi, 56 00:02:00,876 --> 00:02:03,328 niti se znati ponašati u bilo kakvim okolnostima, 57 00:02:03,328 --> 00:02:07,531 niti znati kako se osjećati u bilo kakvom životnom odnosu. 58 00:02:07,531 --> 00:02:09,040 Promotrimo sad pristranosti. 59 00:02:09,040 --> 00:02:10,748 Nekada svijet podijelimo na 60 00:02:10,748 --> 00:02:13,749 "nas" i "njih", jedna grupa protiv druge 61 00:02:13,749 --> 00:02:14,910 i nekada kada to činimo, 62 00:02:14,910 --> 00:02:16,467 znamo da radimo nešto krivo i 63 00:02:16,467 --> 00:02:18,140 sramimo se toga. 64 00:02:18,140 --> 00:02:19,623 Ali nekada se i ponosimo time. 65 00:02:19,623 --> 00:02:21,436 Otvoreno to priznajemo. 66 00:02:21,436 --> 00:02:22,718 Moj omiljeni primjer ovoga 67 00:02:22,718 --> 00:02:25,120 odnosi se na pitanje iz publike 68 00:02:25,120 --> 00:02:27,837 na republikanskoj debati prije prošlih izbora. 69 00:02:27,837 --> 00:02:30,129 (Video) Anderson Cooper: Odgovara na pitanja, 70 00:02:30,129 --> 00:02:34,310 pitanje u dvorani, za inozemnu pomoć? Da, gospođo? 71 00:02:34,310 --> 00:02:36,546 Žena: Amerikanci trenutno pate 72 00:02:36,546 --> 00:02:39,183 u našoj zemlji. 73 00:02:39,183 --> 00:02:42,531 Zašto uporno šaljemo inozemnu pomoć 74 00:02:42,531 --> 00:02:43,847 drugim državama 75 00:02:43,847 --> 00:02:47,950 kad i mi sami trebamo svu moguću pomoć? 76 00:02:47,950 --> 00:02:49,645 AC: Guverneru Perry, zašto? 77 00:02:49,645 --> 00:02:51,012 (Pljesak) 78 00:02:51,012 --> 00:02:53,350 Rick Perry: Apsolutno, mislim da je — 79 00:02:53,350 --> 00:02:55,010 Paul Bloom: Svatko od ljudi na 80 00:02:55,010 --> 00:02:56,981 pozornici složio se s premisom njenog pitanja, 81 00:02:56,981 --> 00:02:59,100 a to je da kao Amerikanci trebamo 82 00:02:59,100 --> 00:03:01,226 više brinuti o nama nego o drugima. 83 00:03:01,226 --> 00:03:04,091 Općenito, ljude često ponesu 84 00:03:04,091 --> 00:03:07,599 osjećaji solidarnosti, vjernosti, ponosa, domoljublja 85 00:03:07,599 --> 00:03:10,315 prema vlastitoj zemlji ili etničkoj skupini. 86 00:03:10,315 --> 00:03:13,400 Bez obzira na vaša politička uvjerenja, mnogi su ponosni što su 87 00:03:13,400 --> 00:03:15,462 Amerikanci i preferiraju Ameriku. 88 00:03:15,462 --> 00:03:18,312 Stanovnici drugih država isto to misle o svojoj naciji, 89 00:03:18,312 --> 00:03:20,798 a ista je stvar i s nacionalnostima. 90 00:03:20,798 --> 00:03:22,482 Neki od vas se možda ne slažu. 91 00:03:22,482 --> 00:03:24,203 Neki su možda toliki kozmopoliti 92 00:03:24,213 --> 00:03:26,547 da misle da etnička pripadnost i nacionalnost 93 00:03:26,547 --> 00:03:28,700 nemaju utjecaja na moral. 94 00:03:28,700 --> 00:03:31,462 Ali čak i vi sofisticirani prihvaćate 95 00:03:31,462 --> 00:03:33,296 da bi trebalo biti nekog povlačenja 96 00:03:33,296 --> 00:03:35,997 prema vlastitoj grupi u domeni prijatelja i obitelji, 97 00:03:35,997 --> 00:03:37,418 prema bliskim ljudima, 98 00:03:37,418 --> 00:03:38,979 čak i vi pravite razlike 99 00:03:38,979 --> 00:03:40,954 između vas i njih. 100 00:03:40,954 --> 00:03:43,557 Ova je distinkcija prirodna 101 00:03:43,557 --> 00:03:46,481 i često i moralna, ali može poći krivo i 102 00:03:46,481 --> 00:03:48,210 upravo je to bio dio istraživanja 103 00:03:48,210 --> 00:03:50,969 velikog socijalnog psihologa Henrija Tajfela. 104 00:03:50,969 --> 00:03:53,574 Tajfel je rođen u Poljskoj 1919. 105 00:03:53,574 --> 00:03:55,713 Studirao je u Francuskoj jer mu nije 106 00:03:55,713 --> 00:03:58,268 bilo dozvoljeno studirati u Poljskoj jer je bio Židov. 107 00:03:58,268 --> 00:04:00,778 Tada se pridružio francuskoj vojsci 108 00:04:00,778 --> 00:04:02,061 u Drugom svjetskom ratu. 109 00:04:02,061 --> 00:04:03,830 Zarobljen je i završio je 110 00:04:03,830 --> 00:04:05,361 kao zatočenik u ratnom kampu i 111 00:04:05,361 --> 00:04:07,628 bilo je to užasno razdoblje za njega 112 00:04:07,628 --> 00:04:09,316 jer da se otkrilo da je Židov, 113 00:04:09,316 --> 00:04:11,408 premjestili bi ga u koncentracijski logor, 114 00:04:11,408 --> 00:04:13,400 a tamo vrlo vjerojatno ne bi preživio. 115 00:04:13,400 --> 00:04:15,987 Kad je rat završio, a on oslobođen, 116 00:04:15,987 --> 00:04:18,492 većina njegovih prijatelja i obitelji bila je mrtva. 117 00:04:18,492 --> 00:04:20,329 Uključio se u različite aktivnosti. 118 00:04:20,329 --> 00:04:21,860 Pomagao je ratnoj siročadi, 119 00:04:21,860 --> 00:04:23,591 no imao je trajni interes za 120 00:04:23,591 --> 00:04:25,136 znanost o predrasudama. 121 00:04:25,136 --> 00:04:27,796 Kad je otvoren natječaj za prestižnu britansku stipendiju 122 00:04:27,796 --> 00:04:29,641 o stereotipima, prijavio se 123 00:04:29,641 --> 00:04:30,998 i dobio ju je, 124 00:04:30,998 --> 00:04:33,188 i započeo svoju sjajnu karijeru. 125 00:04:33,188 --> 00:04:35,937 Njegovu je karijeru pokrenula spoznaja 126 00:04:35,937 --> 00:04:37,777 da većina ljudi o Holokaustu razmišlja 127 00:04:37,777 --> 00:04:39,893 na pogrešan način. 128 00:04:39,893 --> 00:04:42,299 Mnogi ljudi, većina njih u to vrijeme, 129 00:04:42,299 --> 00:04:44,200 na Holokaust je gledalo kao na nešto što 130 00:04:44,200 --> 00:04:47,204 predstavlja tragičnu manu Nijemaca, 131 00:04:47,204 --> 00:04:51,038 neku genetičku mrlju, neku autoritarnu osobnost. 132 00:04:51,038 --> 00:04:53,096 Tajfel je to odbacio. 133 00:04:53,096 --> 00:04:55,639 Rekao je da on Holokaust vidi kao 134 00:04:55,639 --> 00:04:57,950 tek preuveličavanje 135 00:04:57,950 --> 00:04:59,728 normalnih psiholoških procesa 136 00:04:59,728 --> 00:05:01,489 koji postoje u svima nama. 137 00:05:01,489 --> 00:05:04,174 Kako bi to istražio, proveo je serije klasičnih studija 138 00:05:04,174 --> 00:05:05,918 na britanskim adolescentima. 139 00:05:05,918 --> 00:05:07,467 U jednoj od njegovih studija 140 00:05:07,467 --> 00:05:10,019 pitao ih je svakvakva pitanja 141 00:05:10,019 --> 00:05:11,903 i na osnovu njihovih odgovora, rekao: 142 00:05:11,903 --> 00:05:14,260 "Proučio sam tvoje odgovore i na osnovu njih 143 00:05:14,260 --> 00:05:16,357 utvrdio sam da si ti ili" -- 144 00:05:16,357 --> 00:05:17,363 polovici je rekao -- 145 00:05:17,363 --> 00:05:20,320 "obožavatelj Kandinskyja, voliš njegov rad 146 00:05:20,320 --> 00:05:23,298 ili obožavatelj Kleeja i njegovog rada." 147 00:05:23,298 --> 00:05:25,114 Bilo je to posve lažno. 148 00:05:25,114 --> 00:05:27,404 Njihovi odgovori nisu imali nikakve veze s njima. 149 00:05:27,404 --> 00:05:30,132 Vjerojatno nikad nisu ni čuli za njih. 150 00:05:30,132 --> 00:05:32,872 On ih je samo proizvoljno podijelio. 151 00:05:32,872 --> 00:05:36,143 No otkrio je da su ove kategorije važne, pa kad je kasnije 152 00:05:36,143 --> 00:05:38,654 ispitanicima davao novac, 153 00:05:38,654 --> 00:05:40,330 radije su davali taj novac 154 00:05:40,330 --> 00:05:42,130 članovima vlastite grupe 155 00:05:42,130 --> 00:05:43,963 nego članovima one druge. 156 00:05:43,963 --> 00:05:46,290 Čak su bili voljni uspostavljati 157 00:05:46,290 --> 00:05:48,296 razliku 158 00:05:48,296 --> 00:05:50,862 između svoje i drugih grupa, 159 00:05:50,862 --> 00:05:52,770 pa bi odbijali novac za vlastitu grupu 160 00:05:52,770 --> 00:05:58,018 ako bi na taj način druga grupa dobila još manje. 161 00:05:58,018 --> 00:06:00,236 Ova se pristranost vrlo rano pojavljuje. 162 00:06:00,236 --> 00:06:02,536 Moja kolegica i supruga Karen Wynn na Yaleu 163 00:06:02,536 --> 00:06:04,147 odradila je serije studija s 164 00:06:04,147 --> 00:06:06,979 bebama gdje ih je izložila igračkama 165 00:06:06,979 --> 00:06:09,414 koje su imale određene hranidbene preferencije. 166 00:06:09,414 --> 00:06:11,426 Jedna je možda voljela mahune. 167 00:06:11,426 --> 00:06:14,001 Druga petit-kekse. 168 00:06:14,001 --> 00:06:16,370 Testirali su bebine hranidbene preferencije 169 00:06:16,370 --> 00:06:19,060 i one obično preferiraju petit-kekse. 170 00:06:19,060 --> 00:06:21,672 Pitanje je, ima li to veze s načinom na koji se 171 00:06:21,672 --> 00:06:24,788 bebe odnose prema igračkama? Da, i to velike. 172 00:06:24,788 --> 00:06:26,307 Preferirale su igračke 173 00:06:26,307 --> 00:06:29,786 s istim ukusom u hrani, 174 00:06:29,786 --> 00:06:32,342 pa i gore, preferirale su igračke 175 00:06:32,342 --> 00:06:35,327 koje bi kažnjavale one s drugačijim ukusom. 176 00:06:35,327 --> 00:06:37,604 (Smijeh) 177 00:06:37,604 --> 00:06:41,236 Ovu psihologiju pripadnosti i nepripadnosti grupi stalno viđamo. 178 00:06:41,236 --> 00:06:42,900 U političkim sukobima 179 00:06:42,900 --> 00:06:45,314 unutar grupa s različitim ideologijama. 180 00:06:45,314 --> 00:06:48,940 U ekstremnim slučajevima ratova u 181 00:06:48,940 --> 00:06:52,157 kojima se onima koji su izvan grupe ne daje samo manje 182 00:06:52,157 --> 00:06:53,745 nego ih se i dehumanizira, 183 00:06:53,745 --> 00:06:55,985 kao u nacističkom viđenju Židova 184 00:06:55,985 --> 00:06:58,070 kao štetočine ili ušiju 185 00:06:58,070 --> 00:07:02,306 ili američko viđenje Japanaca kao štakora. 186 00:07:02,306 --> 00:07:04,520 I stereotipi mogu poći krivo. 187 00:07:04,520 --> 00:07:06,781 Često su racionalni i korisni, 188 00:07:06,781 --> 00:07:08,355 ali nekad su iracionalni, 189 00:07:08,355 --> 00:07:09,581 daju nam krive odgovore, 190 00:07:09,581 --> 00:07:10,798 a nekada 191 00:07:10,798 --> 00:07:12,973 jednostavno vode do nemoralnih posljedica. 192 00:07:12,973 --> 00:07:15,781 Po tom pitanju najčešće se proučava 193 00:07:15,781 --> 00:07:17,448 rasa. 194 00:07:17,448 --> 00:07:18,855 U fascinantnoj studiji koja 195 00:07:18,855 --> 00:07:20,929 je prethodila izborima 2008. 196 00:07:20,929 --> 00:07:23,955 socijalni psiholozi proučavali su razine 197 00:07:23,955 --> 00:07:27,397 do kojih kandidati asociraju na Ameriku, 198 00:07:27,397 --> 00:07:31,002 baš kao što nam to nesvjesno čini američka zastava. 199 00:07:31,002 --> 00:07:32,358 U jednoj od studija 200 00:07:32,358 --> 00:07:34,372 uspoređivali su Obamu i McCaina i otkrili 201 00:07:34,372 --> 00:07:37,766 da McCaina smatraju "američkijim" od Obame 202 00:07:37,766 --> 00:07:40,339 i do određene razine, ljude to ne iznenađuje. 203 00:07:40,339 --> 00:07:42,257 McCain je slavljeni ratni heroj 204 00:07:42,257 --> 00:07:43,916 i mnogi bi izravno rekli 205 00:07:43,916 --> 00:07:46,616 da je njegova priča "američkija" od Obamine. 206 00:07:46,616 --> 00:07:48,553 No uspoređivali su Obamu 207 00:07:48,553 --> 00:07:51,069 i s britanskim premijerom Tonyjem Blairom 208 00:07:51,069 --> 00:07:53,330 i otkrili da i Blaira smatraju 209 00:07:53,330 --> 00:07:55,837 "američkijim" od Obame, 210 00:07:55,837 --> 00:07:57,910 čak i unatoč tome što su ispitanici bili 211 00:07:57,910 --> 00:08:00,900 svjesni činjenice da on uopće nije Amerikanac. 212 00:08:00,900 --> 00:08:02,324 Naravno, njihovi su odgovori 213 00:08:02,324 --> 00:08:05,375 bili uvjetovani njegovom bojom kože. 214 00:08:05,375 --> 00:08:07,426 Ovi stereotipi i pristranosti 215 00:08:07,426 --> 00:08:08,876 imaju posljedice u stvarnom 216 00:08:08,876 --> 00:08:11,748 svijetu, i suptilne i važne. 217 00:08:11,748 --> 00:08:14,410 U jednoj novijoj studiji istraživači su 218 00:08:14,410 --> 00:08:17,679 postavili reklame na eBay za prodaju baseball karata. 219 00:08:17,679 --> 00:08:20,413 Neke od karata držale su bjelačke ruke, 220 00:08:20,413 --> 00:08:21,631 a druge crnačke. 221 00:08:21,631 --> 00:08:23,210 Radilo se o istim kartama. 222 00:08:23,210 --> 00:08:24,454 One koje su držale crnačke 223 00:08:24,454 --> 00:08:26,521 ruke licitirane su za značajno manje novca 224 00:08:26,521 --> 00:08:29,005 od onih koje su držale bjelačke ruke. 225 00:08:29,005 --> 00:08:31,367 U istraživanju na Stanfordu 226 00:08:31,367 --> 00:08:35,597 psiholozi su proučavali slučajeve ljudi 227 00:08:35,597 --> 00:08:39,166 osuđene za ubojstvo bijelca. 228 00:08:39,166 --> 00:08:41,970 Ispada da, ukoliko je sve ostalo isto, 229 00:08:41,970 --> 00:08:44,340 prije će vas pogubiti ukoliko izgledate 230 00:08:44,340 --> 00:08:46,117 poput čovjeka na desnoj strani 231 00:08:46,117 --> 00:08:48,090 nego ovoga na lijevoj. 232 00:08:48,090 --> 00:08:50,119 Razlog za to je što 233 00:08:50,119 --> 00:08:52,653 čovjek na desnoj strani izgleda kao prototipni crnac, 234 00:08:52,653 --> 00:08:55,283 odnosno kao Afroamerikanac, 235 00:08:55,283 --> 00:08:57,332 a to utječe na naše odlučivanje 236 00:08:57,332 --> 00:08:59,103 o tome što ćemo s njim. 237 00:08:59,103 --> 00:09:00,650 Sada kad to znamo, 238 00:09:00,650 --> 00:09:02,307 kako se boriti s tim? 239 00:09:02,307 --> 00:09:03,929 Imamo različite načine. 240 00:09:03,929 --> 00:09:05,363 Jedan od njih nalaže da se 241 00:09:05,363 --> 00:09:07,409 pozivamo na emocionalne reakcije ljudi, 242 00:09:07,409 --> 00:09:09,542 na njihovu empatiju, 243 00:09:09,542 --> 00:09:11,415 a to često činimo kroz priče. 244 00:09:11,415 --> 00:09:13,980 Ukoliko ste liberalan roditelj 245 00:09:13,980 --> 00:09:15,852 i želite da vaša djeca 246 00:09:15,852 --> 00:09:18,226 vjeruju u vrijednosti nekonvencionalnih obitelji, 247 00:09:18,226 --> 00:09:20,499 dat ćete im npr. ovo: ["Heather ima dvije mame".] 248 00:09:20,499 --> 00:09:22,225 Ako ste konzervativni i imate 249 00:09:22,225 --> 00:09:24,156 drukčije stavove, dat ćete im ovo: 250 00:09:24,156 --> 00:09:25,905 (Smijeh) ["Upomoć! Liberalci pod krevetom!"] 251 00:09:25,905 --> 00:09:29,241 Uglavnom, priče mogu pretvoriti 252 00:09:29,241 --> 00:09:31,473 anonimne strance u ljude koji su bitni, 253 00:09:31,473 --> 00:09:34,158 a ideja da marimo za ljude kad se na njih 254 00:09:34,158 --> 00:09:35,860 usredotočimo kao na pojedince 255 00:09:35,860 --> 00:09:38,139 ideja je koja se dokazala tijekom povijesti. 256 00:09:38,139 --> 00:09:40,722 Staljin je navodno izjavio: 257 00:09:40,722 --> 00:09:42,339 „Smrt jednog čovjeka je tragedija, 258 00:09:42,339 --> 00:09:44,379 smrt milijuna je statistika." 259 00:09:44,379 --> 00:09:45,830 Majka Terezija rekla je 260 00:09:45,830 --> 00:09:47,991 "Pogledam li mnoštvo, nikad se neću pokrenuti. 261 00:09:47,991 --> 00:09:49,696 Pogledam li pojedinca, hoću!" 262 00:09:49,696 --> 00:09:51,766 Psiholozi su ovo istraživali. 263 00:09:51,766 --> 00:09:53,067 Npr., u jednoj studiji 264 00:09:53,067 --> 00:09:55,850 ljudima je dan popis činjenica o krizi 265 00:09:55,850 --> 00:10:00,106 i pratilo se koliko bi donirali 266 00:10:00,106 --> 00:10:01,690 da riješe krizu, 267 00:10:01,690 --> 00:10:03,527 a drugoj grupi nisu dane nikakve činjenice, 268 00:10:03,527 --> 00:10:05,625 već im je ispričana priča o pojedincu, 269 00:10:05,625 --> 00:10:08,065 dano im je ime i lice i 270 00:10:08,065 --> 00:10:11,284 ispada da su oni donirali puno više. 271 00:10:11,284 --> 00:10:13,145 Ne mislim da je ovo tajna 272 00:10:13,145 --> 00:10:15,256 za ljude uključene u dobrotvorni rad. 273 00:10:15,256 --> 00:10:17,904 Oni ne zamaraju ljude 274 00:10:17,904 --> 00:10:19,227 činjenicama i statistikama. 275 00:10:19,227 --> 00:10:20,249 Pokazujete im lica, 276 00:10:20,249 --> 00:10:21,985 pokazujete im ljude. 277 00:10:21,985 --> 00:10:25,212 Moguće je da se povećanjem naših simpatija 278 00:10:25,212 --> 00:10:27,183 prema pojedincu, one mogu proširiti 279 00:10:27,183 --> 00:10:30,061 na cijelu grupu kojoj pojedinac pripada. 280 00:10:30,061 --> 00:10:32,527 Ovo je Harriet Beecher Stowe. 281 00:10:32,527 --> 00:10:34,970 Priča, možda lažna, 282 00:10:34,970 --> 00:10:37,044 kaže da ju je predsjednik Lincoln pozvao 283 00:10:37,044 --> 00:10:39,042 u Bijelu kuću usred Građanskog rata 284 00:10:39,042 --> 00:10:40,626 i rekao joj: 285 00:10:40,626 --> 00:10:43,290 "Ti si djevojka koja je započela ovaj ogroman rat." 286 00:10:43,290 --> 00:10:45,175 Govorio je o "Čiča Tominoj kolibi." 287 00:10:45,175 --> 00:10:47,706 "Čiča Tomina koliba" nije neka sjajna filozofska 288 00:10:47,706 --> 00:10:50,850 ili teološka knjige, a čak ni književna, 289 00:10:50,850 --> 00:10:53,365 ali sjajno omogućava ljudima 290 00:10:53,365 --> 00:10:55,863 da se zamisle u koži onih 291 00:10:55,863 --> 00:10:58,196 ljudi u čijoj koži ne bi inače bili: 292 00:10:58,196 --> 00:11:00,598 u koži robova. 293 00:11:00,598 --> 00:11:02,379 To je možda i bio katalizator 294 00:11:02,379 --> 00:11:03,983 za veliku društvenu promjenu. 295 00:11:03,983 --> 00:11:06,345 Nedavno, gledajući Ameriku 296 00:11:06,345 --> 00:11:09,414 u zadnjih nekoliko desetljeća, 297 00:11:09,414 --> 00:11:12,563 imamo razloga vjerovati da su serije poput "Cosby showa" 298 00:11:12,563 --> 00:11:15,641 radikalno promijenili stavove Amerikanaca prema Afroamerikancima, 299 00:11:15,641 --> 00:11:18,234 a serije poput "Will i Grace" i "Moderne obitelji" 300 00:11:18,234 --> 00:11:19,597 promijenili su stavove 301 00:11:19,597 --> 00:11:20,897 prema homoseksualcima. 302 00:11:20,897 --> 00:11:23,352 Mislim da ne pretjerujem kad kažem 303 00:11:23,352 --> 00:11:26,013 da su ogroman katalizator američke promjene moralnosti 304 00:11:26,013 --> 00:11:28,906 bili sitcomi. 305 00:11:28,906 --> 00:11:30,322 Ali nije sve na emocijama i 306 00:11:30,322 --> 00:11:31,598 želim završiti apelom na 307 00:11:31,598 --> 00:11:33,833 moć razuma. 308 00:11:33,833 --> 00:11:35,989 U određenom trenutku u svojoj sjajnoj knjizi 309 00:11:35,989 --> 00:11:37,362 "Bolji anđeli naše prirode" 310 00:11:37,362 --> 00:11:39,228 Steven Plinker tvrdi da 311 00:11:39,228 --> 00:11:41,810 Stari Zavjet kaže "voli susjeda svoga", 312 00:11:41,810 --> 00:11:44,532 a Novi "voli neprijatelja svoga", 313 00:11:44,532 --> 00:11:47,218 ali zapravo ne volim nijednog, 314 00:11:47,218 --> 00:11:48,885 ali ne želim ih ni ubiti. 315 00:11:48,885 --> 00:11:50,751 Znam da imam obveze prema njima, 316 00:11:50,751 --> 00:11:54,221 ali moji moralni osjećaji, moralna uvjerenja 317 00:11:54,221 --> 00:11:55,934 o tome kako bih se trebao odnositi 318 00:11:55,934 --> 00:11:57,981 prema njima nisu utemeljeni na ljubavi. 319 00:11:57,981 --> 00:11:59,920 Utemeljeni su na razumijevanju ljudskih prava 320 00:11:59,920 --> 00:12:02,143 uvjerenja da je njihov život jednako 321 00:12:02,143 --> 00:12:04,499 vrijedan njima kao meni moj, 322 00:12:04,499 --> 00:12:06,431 a kako bi podržao ovu tezu, priča priču 323 00:12:06,431 --> 00:12:08,279 značajnog filozofa Adama Smitha, 324 00:12:08,279 --> 00:12:09,965 a i ja je želim ispričati, 325 00:12:09,965 --> 00:12:11,261 iako ću je malo modificirati 326 00:12:11,261 --> 00:12:12,939 za moderno vrijeme. 327 00:12:12,939 --> 00:12:14,840 Adam Smith počinje tako što od vas traži 328 00:12:14,840 --> 00:12:16,741 da zamislite smrt tisuća ljudi 329 00:12:16,741 --> 00:12:18,781 i zamislite da su te tisuće ljudi 330 00:12:18,781 --> 00:12:21,020 u zemlji koja vam nije poznata. 331 00:12:21,020 --> 00:12:24,574 Mogla bi to biti Kina ili Indija ili neka zemlja u Africi. 332 00:12:24,574 --> 00:12:27,058 Smith pita, kako biste reagirali? 333 00:12:27,058 --> 00:12:29,365 Vi biste rekli da je to baš šsteta, 334 00:12:29,365 --> 00:12:31,241 i nastavili sa svojim životima. 335 00:12:31,241 --> 00:12:33,460 Ukoliko to pročitamo online na stranici New York Timesa 336 00:12:33,460 --> 00:12:36,420 i otkrijemo to, a to nam se zapravo i događa cijelo vrijeme. 337 00:12:36,420 --> 00:12:37,941 nastavljamo sa svojim životima. 338 00:12:37,941 --> 00:12:40,135 Ali zamislite ovo, kaže Smith, 339 00:12:40,135 --> 00:12:41,389 saznate li da će vam sutra 340 00:12:41,389 --> 00:12:43,928 odsjeći mali prst. 341 00:12:43,928 --> 00:12:46,097 Smith kaže da bi vam to bilo jako bitno. 342 00:12:46,097 --> 00:12:47,508 Ne biste spavali tu noć 343 00:12:47,508 --> 00:12:48,861 razmišljajući o tome. 344 00:12:48,861 --> 00:12:50,880 Postavlja se pitanje: 345 00:12:50,880 --> 00:12:53,346 Biste li žrtvovali tisuće života 346 00:12:53,346 --> 00:12:55,315 da spasite svoj mali prst? 347 00:12:55,315 --> 00:12:57,633 Sami sebi odgovorite na ovo pitanje, 348 00:12:57,633 --> 00:12:59,170 ali Smith kaže: Nikako, 349 00:13:00,707 --> 00:13:02,244 kakva užasna pomisao. 350 00:13:02,244 --> 00:13:04,275 Postavlja se još jedno pitanje, 351 00:13:04,275 --> 00:13:05,649 kako to Smith kaže: 352 00:13:05,649 --> 00:13:07,867 "Kad su naši pasivni osjećaji gotovo uvijek 353 00:13:07,867 --> 00:13:09,315 tako nepošteni i sebični, 354 00:13:09,315 --> 00:13:10,780 kako to da bi naši aktivni 355 00:13:10,780 --> 00:13:13,313 principi često trebali biti velikodušni i plemeniti? 356 00:13:13,313 --> 00:13:15,363 Smithov odgovor glasi: 357 00:13:15,363 --> 00:13:17,138 "Razum, principi, savjest. 358 00:13:17,138 --> 00:13:18,679 Oni nam govore, 359 00:13:18,679 --> 00:13:22,104 glasom sposobnim zadiviti naše najoholije strasti, 360 00:13:22,104 --> 00:13:23,781 da smo mi tek pojedinac u gomili, 361 00:13:23,781 --> 00:13:26,222 koji ni po čemu nije bolji od svih drugih." 362 00:13:26,222 --> 00:13:28,347 Ovaj zadnji dio često se opisuje kao 363 00:13:28,347 --> 00:13:31,555 princip nepristranosti. 364 00:13:31,555 --> 00:13:34,184 Ovaj princip nepristranosti manifestira se 365 00:13:34,184 --> 00:13:35,931 u svim svjetskim religijama, 366 00:13:35,951 --> 00:13:38,209 u svim različitim verzijama zlatnog pravila 367 00:13:38,209 --> 00:13:40,663 i u svim drugim svjetskim moralnim filozofijama 368 00:13:40,663 --> 00:13:41,970 koje se u mnogome razlikuju, 369 00:13:41,970 --> 00:13:44,964 ali dijele istu pretpostavku da moralnost moramo ocjenjivati 370 00:13:44,964 --> 00:13:47,949 s istog nepristranog gledišta. 371 00:13:47,949 --> 00:13:49,771 Najbolja artikulacija ovog gledišta 372 00:13:49,771 --> 00:13:52,856 za mene nije ona teologova ili filozofova, 373 00:13:52,856 --> 00:13:54,213 već ona Humphreya Bogarta 374 00:13:54,213 --> 00:13:55,760 na kraju "Casablance". 375 00:13:55,760 --> 00:13:59,536 Otkrit ću vam detalje filma, govori svojoj ljubavnici 376 00:13:59,536 --> 00:14:00,676 da se moraju rastati 377 00:14:00,676 --> 00:14:02,269 za opće dobro 378 00:14:02,269 --> 00:14:04,133 i kaže joj, neću oponašati naglasak, 379 00:14:04,133 --> 00:14:05,915 ali kaže joj: "Ne treba puno da vidiš 380 00:14:05,915 --> 00:14:07,274 da problemi troje malih ljudi 381 00:14:07,274 --> 00:14:10,385 nisu ništa veći od brežuljka u ovom ludom svijetu." 382 00:14:10,385 --> 00:14:13,665 Zbog razuma bismo mogli prijeći preko strasti. 383 00:14:13,665 --> 00:14:15,381 Razum bi nas mogao navesti da 384 00:14:15,381 --> 00:14:16,602 proširimo svoju empatiju, 385 00:14:16,602 --> 00:14:18,929 da pišemo knjige poput "Čiča Tomine kolibe" 386 00:14:18,929 --> 00:14:20,652 ili da pročitamo tu knjigu. 387 00:14:20,652 --> 00:14:23,346 Razum nas također može motivirati na stvaranje 388 00:14:23,346 --> 00:14:25,308 običaja i tabua i zakona 389 00:14:25,308 --> 00:14:27,118 koji će nas ograničavati u 390 00:14:27,118 --> 00:14:28,794 slijeđenju impulsa 391 00:14:28,794 --> 00:14:30,383 kad, kao razumna bića, osjećamo 392 00:14:30,383 --> 00:14:31,778 da nas treba ograničiti. 393 00:14:31,778 --> 00:14:33,791 To je Ustav. 394 00:14:33,791 --> 00:14:36,712 Ustav je nešto što je postavljeno u prošlosti, 395 00:14:36,712 --> 00:14:38,019 a može se primijeniti na sadašnjost, 396 00:14:38,019 --> 00:14:39,004 a ono što kaže jest, 397 00:14:39,004 --> 00:14:41,231 bez obzira na to koliko bismo željeli izabrati 398 00:14:41,231 --> 00:14:43,834 popularnog predsjednika i za treći mandat, 399 00:14:43,834 --> 00:14:45,929 ili na to koliko bi bijelih Amerikanaca 400 00:14:45,929 --> 00:14:49,997 moglo poželjeti obnoviti institut ropstva, ne možemo to učiniti. 401 00:14:49,997 --> 00:14:51,673 Ograničili smo se. 402 00:14:51,673 --> 00:14:54,090 Ograničavamo se i na druge načine. 403 00:14:54,090 --> 00:14:56,848 Znamo da kada biramo nekoga za 404 00:14:56,848 --> 00:14:59,799 posao, nagradu, 405 00:14:59,799 --> 00:15:02,757 snažno smo pristrani po pitanju njihove rase, 406 00:15:02,757 --> 00:15:05,053 spola, 407 00:15:05,053 --> 00:15:07,268 po stupnju privlačnosti i 408 00:15:07,268 --> 00:15:09,919 nekada kažemo: "Dobro, to tako mora biti." 409 00:15:09,919 --> 00:15:12,226 Ali nekada kažemo: "Ovo je pogrešno." 410 00:15:12,226 --> 00:15:14,115 Kako bismo se s time borili, 411 00:15:14,115 --> 00:15:16,366 mi ne samo da se više trudimo 412 00:15:16,366 --> 00:15:19,367 nego stvaramo situacije u kojima 413 00:15:19,367 --> 00:15:22,406 nas ovi drugi izvori informacija ne mogu navesti na pristranost, 414 00:15:22,406 --> 00:15:23,721 a zbog toga mnogi orkestri 415 00:15:23,721 --> 00:15:26,366 održavaju audicije iza zastora, 416 00:15:26,366 --> 00:15:27,610 pa je jedina informacija koju imaju 417 00:15:27,610 --> 00:15:30,303 ona za koju smatraju da treba biti bitna. 418 00:15:30,303 --> 00:15:32,626 Smatram da predrasude i pristranosti 419 00:15:32,626 --> 00:15:35,720 pokazuju osnovnu dualnost ljudske prirode. 420 00:15:35,720 --> 00:15:39,496 Imamo intuiciju, instinkte, emocije 421 00:15:39,496 --> 00:15:41,657 i oni uvjetuju naše prosudbe i akcije 422 00:15:41,657 --> 00:15:43,988 u svrhu dobra ili zla, 423 00:15:43,988 --> 00:15:47,610 ali sposobni smo i racionalno promišljati 424 00:15:47,610 --> 00:15:49,045 i inteligentno planirati, 425 00:15:49,045 --> 00:15:51,862 pa i to u nekim situacijama možemo koristiti 426 00:15:51,862 --> 00:15:53,805 kako bismo pospješili i njegovali svoje emocije 427 00:15:53,805 --> 00:15:56,573 a u drugima ih očvrsnuli. 428 00:15:56,573 --> 00:15:57,807 Na taj nam način 429 00:15:57,807 --> 00:16:00,574 razum pomaže stvoriti bolji svijet. 430 00:16:00,574 --> 00:16:02,918 Hvala vam. 431 00:16:02,918 --> 00:16:06,623 (Pljesak)