WEBVTT 00:00:00.844 --> 00:00:03.222 Quando pensiamo ai pregiudizi e ai preconcetti, 00:00:03.222 --> 00:00:05.366 tendiamo a pensare a persone stupide e malvagie 00:00:05.366 --> 00:00:07.820 che fanno cose altrettanto stupide e malvagie. 00:00:07.820 --> 00:00:09.890 E quest'idea è ben riassunta 00:00:09.890 --> 00:00:12.358 dal critico inglese William Hazlitt, 00:00:12.358 --> 00:00:15.293 che ha scritto "Il pregiudizio è figlio dell'ignoranza". 00:00:15.293 --> 00:00:17.405 Oggi voglio provare a convincervi 00:00:17.405 --> 00:00:19.040 che questo ragionamento è sbagliato. 00:00:19.040 --> 00:00:20.772 Vorrei provare a convincervi 00:00:20.772 --> 00:00:22.495 che i pregiudizi e i preconcetti 00:00:22.495 --> 00:00:25.783 sono naturali, spesso sono razionali, 00:00:25.783 --> 00:00:27.614 e spesso sono persino morali, 00:00:27.614 --> 00:00:29.866 e penso che una volta capito questo, 00:00:29.866 --> 00:00:32.375 siamo in una posizione migliore 00:00:32.375 --> 00:00:33.432 per comprendere quando sono sbagliati, 00:00:33.432 --> 00:00:35.200 quando hanno conseguenze orribili, 00:00:35.200 --> 00:00:37.525 e ci troviamo in una posizione migliore per sapere che cosa fare 00:00:37.525 --> 00:00:39.207 quando ciò accade. NOTE Paragraph 00:00:39.207 --> 00:00:42.234 Quindi, iniziamo dagli stereotipi. Voi mi guardate, 00:00:42.234 --> 00:00:44.480 conoscete il mio nome, conoscete alcune cose di me, 00:00:44.480 --> 00:00:46.309 e potreste esprimere dei giudizi. 00:00:46.309 --> 00:00:49.162 Potreste indovinare la mia etnia, 00:00:49.162 --> 00:00:52.443 la mia affiliazione politica, le mie credenze religiose. 00:00:52.443 --> 00:00:54.542 E il fatto è che questi giudizi tendono a essere accurati. 00:00:54.542 --> 00:00:56.724 Siamo molto bravi in questo tipo di cose. 00:00:56.724 --> 00:00:58.207 E siamo molto bravi a farlo 00:00:58.207 --> 00:01:00.940 perché la nostra capacità di stereotipare le persone 00:01:00.940 --> 00:01:04.195 non è un capriccio arbitrario della mente, 00:01:04.195 --> 00:01:06.511 ma piuttosto un'istanza specifica 00:01:06.511 --> 00:01:08.166 di un processo più generale, 00:01:08.166 --> 00:01:09.785 ossia che noi abbiamo esperienza 00:01:09.785 --> 00:01:11.326 con le cose e le persone del mondo 00:01:11.326 --> 00:01:12.575 che rientrano in categorie, 00:01:12.575 --> 00:01:15.031 e possiamo usare la nostra esperienza per generalizzare 00:01:15.031 --> 00:01:17.390 le nuove istanze di queste categorie. 00:01:17.390 --> 00:01:19.757 Perciò tutti qui hanno molta esperienza 00:01:19.757 --> 00:01:22.010 con le sedie, le mele e i cani, 00:01:22.010 --> 00:01:23.646 e in base a questo, potete vedere 00:01:23.646 --> 00:01:25.998 degli esempi inconsueti e potete indovinare, 00:01:25.998 --> 00:01:27.314 potete sedervi sulla sedia, 00:01:27.314 --> 00:01:29.879 potete mangiare la mela, il cane abbaierà. 00:01:29.879 --> 00:01:31.643 Ora, potremmo sbagliarci. 00:01:31.643 --> 00:01:33.443 La sedia potrebbe cedere se ci sediamo sopra, 00:01:33.443 --> 00:01:35.665 la mela potrebbe essere velenosa, il cane potrebbe non abbaiare, 00:01:35.665 --> 00:01:38.535 e, in effetti, questo è il mio cane Tessie, che non abbaia. 00:01:38.535 --> 00:01:41.294 Ma, la maggior parte delle volte, siamo bravi a indovinare. 00:01:41.294 --> 00:01:43.210 La maggior parte delle volte, ci azzecchiamo 00:01:43.210 --> 00:01:45.024 sia in campo sociale che in campo non-sociale, 00:01:45.024 --> 00:01:46.973 e se non fossimo capaci di farlo, 00:01:46.973 --> 00:01:50.189 se non fossimo in grado di indovinare le nuove istanze che incontriamo, 00:01:50.189 --> 00:01:51.640 non sopravviveremmo. 00:01:51.640 --> 00:01:54.509 E, in effetti, Hazlitt verso la fine del suo meraviglioso saggio 00:01:54.509 --> 00:01:55.994 lo ammette. 00:01:55.994 --> 00:01:58.536 Scrive: "Senza l'ausilio del pregiudizio e del costume, 00:01:58.536 --> 00:02:00.876 non sarei in grado di muovermi in una stanza; 00:02:00.876 --> 00:02:03.328 né sarei in grado di comportarmi in qualsiasi circostanza, 00:02:03.328 --> 00:02:07.531 né saprei come sentirmi in qualsiasi relazione nella mia vita". 00:02:07.531 --> 00:02:09.040 O parliamo dei preconcetti. 00:02:09.040 --> 00:02:10.748 A volte, dividiamo il mondo in due: 00:02:10.748 --> 00:02:13.749 noi contro loro, l'in-group contro l'out-group, 00:02:13.749 --> 00:02:14.910 e a volte quando lo facciamo, 00:02:14.910 --> 00:02:16.467 siamo consapevoli dello sbaglio che stiamo commettendo, 00:02:16.467 --> 00:02:18.140 e ce ne vergogniamo un po'. 00:02:18.140 --> 00:02:19.623 Ma altre volte ne siamo orgogliosi. 00:02:19.623 --> 00:02:21.436 Lo riconosciamo apertamente. 00:02:21.436 --> 00:02:22.718 E il mio esempio preferito di questo fenomeno 00:02:22.718 --> 00:02:25.120 è una domanda che mi è stata fatta dal pubblico 00:02:25.120 --> 00:02:27.837 in un dibattito tra repubblicani prima delle ultime elezioni. NOTE Paragraph 00:02:27.837 --> 00:02:30.129 (Video) Anderson Cooper: Arriviamo alle domande, 00:02:30.129 --> 00:02:34.310 la domanda del pubblico, sugli aiuti all'estero? Sì signora. NOTE Paragraph 00:02:34.310 --> 00:02:36.546 Donna: Il popolo americano sta soffrendo 00:02:36.546 --> 00:02:39.183 nel nostro Paese ora. 00:02:39.183 --> 00:02:42.531 Perché continuiamo a mandare aiuti all'estero, 00:02:42.531 --> 00:02:43.847 agli altri Paesi 00:02:43.847 --> 00:02:47.950 quando siamo noi ad avere bisogno di aiuto? NOTE Paragraph 00:02:47.950 --> 00:02:49.645 AC: Governatore Perry, che cosa ne pensa? NOTE Paragraph 00:02:49.645 --> 00:02:51.012 (Applausi) 00:02:51.012 --> 00:02:53.350 Rick Perry: Assolutamente, penso sia... NOTE Paragraph 00:02:53.350 --> 00:02:55.010 Paul Bloom: Ogni persona sul palco 00:02:55.010 --> 00:02:56.981 era d'accordo sulla premessa della domanda, 00:02:56.981 --> 00:02:59.100 cioè che noi, come americani, dovremmo occuparci di più 00:02:59.100 --> 00:03:01.226 degli americani rispetto ad altre persone. 00:03:01.226 --> 00:03:04.091 E in effetti, generalmente parlando le persone spesso sono condizionate 00:03:04.091 --> 00:03:07.599 dal sentimento di solidarietà, lealtà, orgoglio, patriottismo, 00:03:07.599 --> 00:03:10.315 nei confronti del proprio Paese o della propria etnia di appartenenza. 00:03:10.315 --> 00:03:13.400 A prescindere dalle convinzioni politiche, molti sono fieri di essere Americani, 00:03:13.400 --> 00:03:15.462 e preferiscono l'America rispetto ad altri Paesi. 00:03:15.462 --> 00:03:18.312 Anche per gli abitanti degli altri funziona così, 00:03:18.312 --> 00:03:20.798 così come vale la stessa cosa per le nostre etnie. NOTE Paragraph 00:03:20.798 --> 00:03:22.482 Ora, alcuni di voi potranno rifiutare quest'idea. 00:03:22.482 --> 00:03:24.203 Alcuni di voi potranno essere così tanto cosmopoliti 00:03:24.213 --> 00:03:26.547 da pensare che etnia e nazionalità 00:03:26.547 --> 00:03:28.700 non dovrebbero implicare alcun condizionamento morale. 00:03:28.700 --> 00:03:31.462 Ma persino voi sofisticati accettate 00:03:31.462 --> 00:03:33.296 che ci debba essere una specie di spinta 00:03:33.296 --> 00:03:35.997 verso l'in-group nell'ambito familiare e degli amici, 00:03:35.997 --> 00:03:37.418 delle persone a cui state vicini, 00:03:37.418 --> 00:03:38.979 e così persino voi costituite una distinzione 00:03:38.979 --> 00:03:40.954 tra noi e loro. NOTE Paragraph 00:03:40.954 --> 00:03:43.557 Ora, questa distinzione è abbastanza naturale 00:03:43.557 --> 00:03:46.481 e spesso abbastanza morale, ma può fallire, 00:03:46.481 --> 00:03:48.210 e questo aspetto ha fatto parte della ricerca 00:03:48.210 --> 00:03:50.969 del grande socio-psicologo Henri Tajfel. 00:03:50.969 --> 00:03:53.574 Tajfel nacque in Polonia nel 1919. 00:03:53.574 --> 00:03:55.713 Lasciò il suo Paese per frequentare l'università in Francia, 00:03:55.713 --> 00:03:58.268 perché, come ebreo, non poteva frequentare l'università in Polonia, 00:03:58.268 --> 00:04:00.778 e poi si è arruolò nell'esercito francese 00:04:00.778 --> 00:04:02.061 per la Seconda Guerra Mondiale. 00:04:02.061 --> 00:04:03.830 Fu catturato e fatto prigioniero 00:04:03.830 --> 00:04:05.361 in un campo di guerra, 00:04:05.361 --> 00:04:07.628 e per lui fu un periodo terrificante, 00:04:07.628 --> 00:04:09.316 perché se avessero scoperto che lui era ebreo, 00:04:09.316 --> 00:04:11.408 avrebbe rischiato di essere deportato in un campo di concentramento, 00:04:11.408 --> 00:04:13.400 dove molto probabilmente non sarebbe sopravvissuto. 00:04:13.400 --> 00:04:15.987 E in effetti, quando la guerra finì e fu liberato, 00:04:15.987 --> 00:04:18.492 gran parte dei suoi amici e familiari erano morti. 00:04:18.492 --> 00:04:20.329 Si dedicò a diverse attività. 00:04:20.329 --> 00:04:21.860 Aiutò gli orfani di guerra. 00:04:21.860 --> 00:04:23.591 Ma aveva un forte interesse 00:04:23.591 --> 00:04:25.136 per la scienza del pregiudizio, 00:04:25.136 --> 00:04:27.796 e così quando fu indetta una prestigiosa 00:04:27.796 --> 00:04:29.641 borsa di studio inglese sugli stereotipi, fece domanda 00:04:29.641 --> 00:04:30.998 e la vinse, 00:04:30.998 --> 00:04:33.188 e poi la sua fantastica carriera iniziò. 00:04:33.188 --> 00:04:35.937 E ciò che diede inizio alla sua carriera fu l'idea 00:04:35.937 --> 00:04:37.777 secondo cui il modo in cui le persone 00:04:37.777 --> 00:04:39.893 consideravano l'Olocausto era sbagliato. 00:04:39.893 --> 00:04:42.299 Molte persone, la maggioranza a quei tempi, 00:04:42.299 --> 00:04:44.200 vedevano l'Olocausto come una specie di rappresentazione 00:04:44.200 --> 00:04:47.204 di qualche difetto tragico dei tedeschi, 00:04:47.204 --> 00:04:51.038 una specie di difetto genetico, una personalità autoritaria. 00:04:51.038 --> 00:04:53.096 E Tajfel rifiutava quest'idea. 00:04:53.096 --> 00:04:55.639 Tajfel affermava che quello che vediamo nell'Olocausto 00:04:55.639 --> 00:04:57.950 è solo un'esagerazione 00:04:57.950 --> 00:04:59.728 dei normali processi psicologici 00:04:59.728 --> 00:05:01.489 che esistono in ognuno di noi. 00:05:01.489 --> 00:05:04.174 E per approfondire questa sua teoria, fece una serie di studi classici 00:05:04.174 --> 00:05:05.918 con alcuni adolescenti inglesi. 00:05:05.918 --> 00:05:07.467 E in uno di questi studi fece 00:05:07.467 --> 00:05:10.019 agli adolescenti ogni tipo di domanda, 00:05:10.019 --> 00:05:11.903 e poi in base alle risposte, disse: 00:05:11.903 --> 00:05:14.260 "Ho analizzato le vostre risposte, e sulla base di questo, 00:05:14.260 --> 00:05:16.357 ho stabilito che siete o" - 00:05:16.357 --> 00:05:17.363 disse a metà di loro - 00:05:17.363 --> 00:05:20.320 "amanti di Kandinskij, amate le opere di Kandinskij, 00:05:20.320 --> 00:05:23.298 o amanti di Klee, amate le opere di Klee". 00:05:23.298 --> 00:05:25.114 Era tutto inventato. 00:05:25.114 --> 00:05:27.404 Le loro risposte non avevano niente a che fare con Kandinskij nè con Klee. 00:05:27.404 --> 00:05:30.132 Probabilmente non avevano mai sentito parlare di quegli artisti. 00:05:30.132 --> 00:05:32.872 Lui li divise così arbitrariamente. 00:05:32.872 --> 00:05:36.143 Ma scoprì che queste categorie erano importanti, 00:05:36.143 --> 00:05:38.654 perciò quando più tardi diede dei soldi ai ragazzi, 00:05:38.654 --> 00:05:40.330 preferirono darli 00:05:40.330 --> 00:05:42.130 ai membri del loro gruppo 00:05:42.130 --> 00:05:43.963 rispetto a membri dell'altro gruppo. 00:05:43.963 --> 00:05:46.290 Cosa peggiore, erano più interessati 00:05:46.290 --> 00:05:48.296 a stabilire una differenza 00:05:48.296 --> 00:05:50.862 tra il proprio gruppo e gli altri, 00:05:50.862 --> 00:05:52.770 perciò avrebbero rinunciato ai soldi per il proprio gruppo 00:05:52.770 --> 00:05:58.018 se in cambio potevano dare meno soldi a un altro gruppo. NOTE Paragraph 00:05:58.018 --> 00:06:00.236 Questo pregiudizio sembra manifestarsi molto presto. 00:06:00.236 --> 00:06:02.536 Così mia moglie e collega Karen Wynn 00:06:02.536 --> 00:06:04.147 a Yale ha condotto una serie di studi 00:06:04.147 --> 00:06:06.979 dove mostra dei pupazzi ad alcuni bambini, 00:06:06.979 --> 00:06:09.244 e i pupazzi hanno preferenze alimentari specifiche. 00:06:09.244 --> 00:06:11.426 A uno dei pupazzi possono piacere i piselli verdi. 00:06:11.426 --> 00:06:14.001 A un altro pupazzo possono piacere i graham cracker. 00:06:14.001 --> 00:06:16.370 Testano i bambini sulle loro preferenze alimentari 00:06:16.370 --> 00:06:19.060 e i bambini di solito preferiscono i graham cracker. 00:06:19.060 --> 00:06:21.672 Ma la domanda è: è rilevante per i bambini 00:06:21.672 --> 00:06:24.788 nel loro modo di trattare i pupazzi? Eccome se lo è. 00:06:24.788 --> 00:06:26.307 Tendono a preferire il pupazzo 00:06:26.307 --> 00:06:29.786 che ha i loro stessi gusti, 00:06:29.786 --> 00:06:32.342 e cosa peggiore, preferiscono i pupazzi 00:06:32.342 --> 00:06:35.327 che puniscono il pupazzo con i gusti diversi. 00:06:35.327 --> 00:06:37.604 (Risate) NOTE Paragraph 00:06:37.604 --> 00:06:41.236 Spesso c'è questo tipo di meccanismo psicologico in-group e out-group. 00:06:41.236 --> 00:06:42.900 Lo vediamo negli scontri politici 00:06:42.900 --> 00:06:45.314 all'interno di gruppi con ideologie differenti. 00:06:45.314 --> 00:06:48.940 Lo vediamo ai suoi estremi in caso di guerra, 00:06:48.940 --> 00:06:52.157 dove all'out-group non viene dato solo di meno, 00:06:52.157 --> 00:06:53.745 ma viene disumanizzato, 00:06:53.745 --> 00:06:55.985 come nella prospettiva nazista degli ebrei 00:06:55.985 --> 00:06:58.070 come animali infestanti o pidocchi, 00:06:58.070 --> 00:07:02.306 o come la prospettiva americana dei giapponesi come ratti. NOTE Paragraph 00:07:02.306 --> 00:07:04.520 Gli stereotipi possono anche fallire. 00:07:04.520 --> 00:07:06.781 Quindi spesso sono razionali e utili, 00:07:06.781 --> 00:07:08.355 ma a volte sono irrazionali, 00:07:08.355 --> 00:07:09.581 danno le risposte sbagliate, 00:07:09.581 --> 00:07:10.798 e altre volte 00:07:10.798 --> 00:07:12.973 portano a conseguenze meramente immorali. 00:07:12.973 --> 00:07:15.781 E il caso che è stato più studiato 00:07:15.781 --> 00:07:17.448 è quello della razza. 00:07:17.448 --> 00:07:18.855 C'è stato uno studio affascinante 00:07:18.855 --> 00:07:20.929 prima delle elezioni del 2008 00:07:20.929 --> 00:07:23.955 in cui i socio-psicologi hanno analizzato l'entità 00:07:23.955 --> 00:07:27.397 a cui i candidati venivano associati all'America, 00:07:27.397 --> 00:07:31.002 come in un associazione inconscia con la bandiera americana. 00:07:31.002 --> 00:07:32.358 E in uno dei loro studi hanno messo a confronto 00:07:32.358 --> 00:07:34.372 Obama e MacCain, e hanno scoperto che MacCain 00:07:34.372 --> 00:07:37.766 veniva ritenuto più americano di Obama, 00:07:37.766 --> 00:07:40.339 e, per certi versi, la gente non è stata sorpresa di scoprirlo. 00:07:40.339 --> 00:07:42.257 MacCain è un celebrato eroe di guerra, 00:07:42.257 --> 00:07:43.916 e molte persone direbbero esplicitamente 00:07:43.916 --> 00:07:46.616 che ha più storia americana alle spalle rispetto a Obama. 00:07:46.616 --> 00:07:48.553 Ma hanno anche paragonato Obama 00:07:48.553 --> 00:07:51.069 al primo ministro inglese Tony Blair, 00:07:51.069 --> 00:07:53.330 e hanno scoperto che anche Blair era considerato 00:07:53.330 --> 00:07:55.837 più americano di Obama, 00:07:55.837 --> 00:07:57.910 sebbene per i soggetti fosse chiarissimo 00:07:57.910 --> 00:08:00.900 che Blair non era americano. 00:08:00.900 --> 00:08:02.324 Ma la risposta, ovviamente, era stata influenzata 00:08:02.324 --> 00:08:05.375 dal colore della pelle. NOTE Paragraph 00:08:05.375 --> 00:08:07.426 Questi stereotipi e preconcetti 00:08:07.426 --> 00:08:08.876 hanno conseguenze nel mondo reale, 00:08:08.876 --> 00:08:11.748 sia impercettibili che molto significative. 00:08:11.748 --> 00:08:14.410 In uno studio recente, i ricercatori 00:08:14.410 --> 00:08:17.679 hanno messo annunci pubblicitari su eBay per vendere figurine di baseball. 00:08:17.679 --> 00:08:20.413 Alcune erano tenute in mano da bianchi, 00:08:20.413 --> 00:08:21.631 altre da neri. 00:08:21.631 --> 00:08:23.210 Erano le stesse identiche figurine. 00:08:23.210 --> 00:08:24.454 Quelle tenute in mano dai neri 00:08:24.454 --> 00:08:26.521 hanno ottenuto offerte notevolmente più basse 00:08:26.521 --> 00:08:29.005 rispetto a quelle tenute in mano dai bianchi. 00:08:29.005 --> 00:08:31.367 Nelle ricerche svolte a Stanford 00:08:31.367 --> 00:08:35.597 gli psicologi hanno approfondito il caso delle persone 00:08:35.597 --> 00:08:39.166 condannate per l'assassinio di un bianco. 00:08:39.166 --> 00:08:41.970 Risulta che, mantenendo tutte le altre costanti, 00:08:41.970 --> 00:08:44.340 è molto più probabile venire giustiziato 00:08:44.340 --> 00:08:46.117 se avete l'aspetto dell'uomo sulla destra 00:08:46.117 --> 00:08:48.090 e non di quello sulla sinistra, 00:08:48.090 --> 00:08:50.119 e questo in gran parte è dovuto al fatto che 00:08:50.119 --> 00:08:52.653 l'uomo sulla destra ha un'aspetto tipico dei neri, 00:08:52.653 --> 00:08:55.283 è più afroamericano, 00:08:55.283 --> 00:08:57.332 e questo, a quanto pare, influenza le decisioni delle persone 00:08:57.332 --> 00:08:59.103 riguardo al suo futuro. NOTE Paragraph 00:08:59.103 --> 00:09:00.650 Ora che conosciamo questo meccanismo, 00:09:00.650 --> 00:09:02.307 come lo combattiamo? 00:09:02.307 --> 00:09:03.929 E ci sono diverse strade. 00:09:03.929 --> 00:09:05.363 Una strada è fare appello 00:09:05.363 --> 00:09:07.409 alle risposte emotive delle persone, 00:09:07.409 --> 00:09:09.542 appellarsi all'empatia delle persone, 00:09:09.542 --> 00:09:11.415 e spesso lo facciamo tramite le storie. 00:09:11.415 --> 00:09:13.980 Così, se siete genitori liberali 00:09:13.980 --> 00:09:15.852 e volete incoraggiare i vostri figli 00:09:15.852 --> 00:09:18.226 a credere nei meriti delle famiglie non tradizionali 00:09:18.226 --> 00:09:20.499 potrestre dar loro un libro del genere: ["Heather ha due mamme"] 00:09:20.499 --> 00:09:22.225 Se siete conservatori e avete un atteggiamento differente, 00:09:22.225 --> 00:09:24.156 potete dar loro un libro come questo: 00:09:24.156 --> 00:09:25.905 (Risate) ["Aiuto! Ci sono dei liberali sotto il mio letto!"] 00:09:25.905 --> 00:09:29.241 Ma in generale, le storie possono trasformare 00:09:29.241 --> 00:09:31.473 anonimi sconosciuti in persone di rilievo, 00:09:31.473 --> 00:09:34.158 e l'idea che noi ci teniamo alle persone 00:09:34.158 --> 00:09:35.860 quando ci concentriamo su di loro come individui 00:09:35.860 --> 00:09:38.139 è un'idea ricorrente nella storia. 00:09:38.139 --> 00:09:40.722 Stalin affermò falsamente che 00:09:40.722 --> 00:09:42.339 "Una morte è una tragedia, 00:09:42.339 --> 00:09:44.379 un milione di morti è statistica", 00:09:44.379 --> 00:09:45.830 E Madre Teresa disse: 00:09:45.830 --> 00:09:47.371 "Se guardo la massa, non agirò mai. 00:09:47.371 --> 00:09:49.696 Se guardo al singolo, agirò". 00:09:49.696 --> 00:09:51.766 Gli psicologi hanno approfondito questo fenomeno. 00:09:51.766 --> 00:09:53.067 Per esempio, in uno studio 00:09:53.067 --> 00:09:55.850 hanno dato alle persone un elenco di fatti riguardo a una crisi, 00:09:55.850 --> 00:10:00.106 hanno analizzato quanto avrebbero donato 00:10:00.106 --> 00:10:01.690 per risolvere la crisi, 00:10:01.690 --> 00:10:03.527 e a un altro gruppo non hanno dato alcun dato, 00:10:03.527 --> 00:10:05.625 ma è stato raccontato loro di una persona 00:10:05.625 --> 00:10:08.065 con un nome e un volto, 00:10:08.065 --> 00:10:11.284 ed è risultato che donavano molto di più. 00:10:11.284 --> 00:10:13.145 Niente di tutto questo è un segreto, credo, 00:10:13.145 --> 00:10:15.256 per le persone impegnate nelle associazioni di beneficenza. 00:10:15.256 --> 00:10:17.904 Le persone non tendono a subissare gli altri 00:10:17.904 --> 00:10:19.227 con fatti e statistiche. 00:10:19.227 --> 00:10:20.249 Invece mostrano dei volti, 00:10:20.249 --> 00:10:21.985 mostrano le persone. 00:10:21.985 --> 00:10:25.212 È possibile che ampliando le nostre simpatie 00:10:25.212 --> 00:10:27.183 a un individuo, possano diffondersi 00:10:27.183 --> 00:10:30.061 al gruppo di cui fa parte l'individuo. NOTE Paragraph 00:10:30.061 --> 00:10:32.527 Lei è Harriet Beecher Stowe. 00:10:32.527 --> 00:10:34.970 Secondo la leggenda, forse falsa, 00:10:34.970 --> 00:10:37.044 il presidente Lincoln l'avrebbe invitata 00:10:37.044 --> 00:10:39.042 alla Casa Bianca nel bel mezzo della Guerra Civile 00:10:39.042 --> 00:10:40.626 e le avrebbe detto: 00:10:40.626 --> 00:10:43.290 "Allora è lei la piccola signora che ha causato questa grande guerra". 00:10:43.290 --> 00:10:45.175 E si riferiva a "La capanna dello zio Tom". 00:10:45.175 --> 00:10:47.706 "La capanna dello zio Tom" non è un grande libro di filosofia 00:10:47.706 --> 00:10:50.850 o di teologia e forse neanche di letteratura, 00:10:50.850 --> 00:10:53.365 ma riesce davvero benissimo 00:10:53.365 --> 00:10:55.863 a far sì che i lettori si mettano nei panni 00:10:55.863 --> 00:10:58.196 di quelle persone in cui altrimenti non si sarebbero mai immedesimate, 00:10:58.196 --> 00:11:00.598 mettendosi nei panni degli schiavi. 00:11:00.598 --> 00:11:02.379 E quel libro avrebbe potuto diventare benissimo un catalizzatore 00:11:02.379 --> 00:11:03.983 di un grande cambiamento della società. NOTE Paragraph 00:11:03.983 --> 00:11:06.345 Più recentemente, analizzando l'America 00:11:06.345 --> 00:11:09.414 negli ultimi decenni, 00:11:09.414 --> 00:11:12.563 ci sono dei motivi per credere che programmi tv come "I Robinson" 00:11:12.563 --> 00:11:14.907 abbiano cambiato radicalmente l'atteggiamento degli Americani 00:11:14.907 --> 00:11:16.121 nei confronti degli afroamericani, 00:11:16.121 --> 00:11:18.457 mentre sitcom come "Will and Grace" e "Modern Family" 00:11:18.457 --> 00:11:19.967 hanno cambiato l'atteggiamento 00:11:19.967 --> 00:11:21.712 nei confronti di uomini e donne gay. 00:11:21.712 --> 00:11:23.703 Non credo di esagerare se dico 00:11:23.703 --> 00:11:26.576 che i principali catalizzatori del cambiamento morale in America NOTE Paragraph 00:11:26.576 --> 00:11:28.612 sono state le sitcom. 00:11:29.352 --> 00:11:30.748 Ma non sono tutte emozioni, 00:11:30.748 --> 00:11:32.253 e vorrei concludere facendo appello 00:11:32.253 --> 00:11:33.749 al potere della ragione. 00:11:34.419 --> 00:11:36.322 A un certo punto di questo meraviglioso libro 00:11:36.322 --> 00:11:37.838 "Il declino della violenza", 00:11:37.838 --> 00:11:39.130 Steven Pinker afferma che 00:11:39.130 --> 00:11:42.412 il Vecchio Testamento dice ama il prossimo, 00:11:42.412 --> 00:11:44.658 e il Nuovo Testamento dice ama il tuo nemico, 00:11:44.658 --> 00:11:47.815 ma io non amo né uno né l'altro, non proprio, 00:11:47.815 --> 00:11:49.401 ma non voglio ucciderli. 00:11:49.401 --> 00:11:51.381 lo so di avere degli obblighi nei loro confronti, 00:11:51.381 --> 00:11:54.914 ma i miei sentimenti morali per loro, le mie credenze morali 00:11:54.914 --> 00:11:56.321 su come dovrei comportarmi nei loro confronti 00:11:56.321 --> 00:11:58.210 non sono fondati sull'amore. 00:11:58.210 --> 00:12:00.313 Sono fondati sulla comprensione dei diritti umani, 00:12:00.313 --> 00:12:02.809 un credo secondo cui la loro vita è tanto preziosa per loro 00:12:02.809 --> 00:12:04.961 quanto la mia vita lo è per me. 00:12:04.961 --> 00:12:07.159 Per sostenere questo pensiero, racconta una storia 00:12:07.159 --> 00:12:08.885 del grande filosofo Adam Smith, 00:12:08.885 --> 00:12:10.121 e anch'io ve la voglio raccontare 00:12:10.121 --> 00:12:11.589 anche se la adatterò un po' NOTE Paragraph 00:12:11.589 --> 00:12:13.130 ai tempi moderni. 00:12:13.130 --> 00:12:15.451 Adam Smith inizia chiedendovi di immaginare 00:12:15.451 --> 00:12:17.531 la morte di migliaia di persone, 00:12:17.531 --> 00:12:19.020 e immaginate che quel migliaio di persone 00:12:19.020 --> 00:12:20.944 si trovino in un Paese che voi non conoscete. 00:12:20.944 --> 00:12:24.178 Potrebbe essere la Cina o l'India o uno stato africano. 00:12:24.768 --> 00:12:27.135 E Smith chiede come rispondereste. 00:12:27.135 --> 00:12:29.261 E voi direste: Be', è un peccato, 00:12:29.261 --> 00:12:31.420 e andreste avanti con la vostra vita. 00:12:31.420 --> 00:12:33.360 Se doveste aprire la pagina online del New York Times 00:12:33.360 --> 00:12:36.251 e doveste scoprilo, e in effetti ci succede in continuazione, 00:12:36.251 --> 00:12:38.345 vi comportereste normalmente. 00:12:38.345 --> 00:12:40.339 Immaginate invece che Smith vi dicesse 00:12:40.339 --> 00:12:43.568 che domani scoprirete che vi verrà amputato il mignolo 00:12:44.377 --> 00:12:46.398 Smith dice: questo avrebbe molta importanza. 00:12:46.398 --> 00:12:49.060 Quella notte non dormireste al solo pensiero. 00:12:49.060 --> 00:12:51.196 Perciò pose questa domanda: 00:12:51.196 --> 00:12:53.765 sacrifichereste migliaia di vite 00:12:53.765 --> 00:12:55.493 per salvare il vostro mignolo? 00:12:55.493 --> 00:12:57.902 Ora, rispondete nella privacy della vostra mente, 00:12:57.902 --> 00:13:00.784 ma Smith dice: assolutamente no, 00:13:00.784 --> 00:13:02.755 che pensiero orribile. 00:13:02.755 --> 00:13:04.739 E questo solleva un'altra domanda, 00:13:04.739 --> 00:13:06.127 e così, con le parole di Smith, 00:13:06.127 --> 00:13:08.025 "Quando i nostri sentimenti passivi sono quasi sempre 00:13:08.025 --> 00:13:09.520 così sordidi ed egoisti, 00:13:09.520 --> 00:13:11.323 come mai i nostri principi attivi 00:13:11.323 --> 00:13:13.183 dovrebbero essere tanto generosi e nobili così spesso? 00:13:13.183 --> 00:13:15.418 E la risposta di Smith é: "È la ragione, 00:13:15.418 --> 00:13:17.119 il principio, la coscienza. 00:13:17.119 --> 00:13:18.884 Si rivolgono a noi, 00:13:18.884 --> 00:13:21.991 con una voce capace di stupire le più presuntuose delle nostre passioni, 00:13:21.991 --> 00:13:24.142 che noi non siamo che uno tra tanti NOTE Paragraph 00:13:24.142 --> 00:13:26.327 per nessun verso migliori di qualsiasi altro in quella moltitudine". 00:13:26.327 --> 00:13:28.875 E quest'ultima parte è quella che spesso viene descritta 00:13:28.875 --> 00:13:31.944 come il principio di imparzialità. 00:13:31.944 --> 00:13:34.551 E questo principio di imparzialità si manifesta 00:13:34.551 --> 00:13:36.429 in tutte le religioni del mondo, 00:13:36.429 --> 00:13:38.593 in tutte le diverse versioni della regola d'oro, 00:13:38.593 --> 00:13:40.850 e in tutte le filosofie morali del mondo, 00:13:40.850 --> 00:13:42.314 che sono diverse per via di molti aspetti 00:13:42.314 --> 00:13:45.349 ma condividono il presupposto per cui dovremmo giudicare la moralità NOTE Paragraph 00:13:45.349 --> 00:13:47.861 da un punto di vista imparziale. 00:13:47.861 --> 00:13:50.416 La migliore espressione di questa visione 00:13:50.416 --> 00:13:52.933 per me, in realtà, non viene da un teologo o da un filosofo, 00:13:52.933 --> 00:13:54.740 bensì da Humphrey Bogart 00:13:54.740 --> 00:13:56.326 alla fine di "Casablanca". 00:13:56.326 --> 00:13:59.786 Perciò, spoiler alert, lui sta dicendo alla sua amante 00:13:59.786 --> 00:14:01.019 che si devono separare 00:14:01.019 --> 00:14:02.613 per un bene generale più grande, 00:14:02.613 --> 00:14:04.545 e le dice, e io non lo farò con il suo accento, 00:14:04.545 --> 00:14:06.504 ma le dice: "Ilsa [..] tu sai bene 00:14:06.504 --> 00:14:07.895 che i problemi di tre piccole persone come noi NOTE Paragraph 00:14:07.895 --> 00:14:11.055 non contano in questa immensa tragedia." 00:14:11.055 --> 00:14:13.971 La nostra ragione può prevalere sulle nostre passioni. 00:14:13.971 --> 00:14:15.542 La nostra ragione ci può motivare 00:14:15.542 --> 00:14:16.899 a espandere la nostra empatia, 00:14:16.899 --> 00:14:19.332 può motivarci a scrivere libri come "La capanna dello zio Tom", 00:14:19.332 --> 00:14:21.376 o a leggere un libro come "La capanna dello zio Tom", 00:14:21.376 --> 00:14:23.178 e la nostra ragione può spingerci a creare 00:14:23.178 --> 00:14:25.558 costumi, tabù e leggi 00:14:25.558 --> 00:14:27.594 che ci impediscono 00:14:27.594 --> 00:14:29.093 di agire secondo i nostri impulsi 00:14:29.093 --> 00:14:30.698 quando, come esseri razionali, sentiamo 00:14:30.698 --> 00:14:32.011 che ci dovrebbe essere un limite. 00:14:32.011 --> 00:14:34.402 Ecco che cos'è una costituzione. 00:14:34.402 --> 00:14:36.759 Una costituzione è una cosa redatta nel passato 00:14:36.759 --> 00:14:38.184 che si applica al presente, 00:14:38.184 --> 00:14:39.131 e afferma che 00:14:39.131 --> 00:14:41.664 a prescindere da quante volte possiamo rieleggere 00:14:41.664 --> 00:14:43.979 un presidente popolare per un terzo mandato, 00:14:43.979 --> 00:14:46.527 a prescindere da quanti americani bianchi possano scegliere 00:14:46.527 --> 00:14:49.983 di sentire di voler ripristinare la schiavitù, non possiamo farlo. NOTE Paragraph 00:14:49.983 --> 00:14:51.790 Ci siamo vincolati. 00:14:51.790 --> 00:14:54.328 E ci vincoliamo anche in altri modi. 00:14:54.328 --> 00:14:56.929 Sappiamo che quando si tratta di scegliere qualcuno 00:14:56.929 --> 00:15:00.157 per un lavoro, per un premio, 00:15:00.157 --> 00:15:02.623 siamo fortemente condizionati dalla razza, 00:15:02.623 --> 00:15:04.958 dal sesso, 00:15:04.958 --> 00:15:07.639 dall'aspetto fisico, 00:15:07.639 --> 00:15:09.936 e a volte potremmo dire: "Va bene, funziona così." 00:15:09.936 --> 00:15:12.055 Ma altre volte diciamo: "È sbagliato." 00:15:12.055 --> 00:15:14.656 E così per combattere questi pregiudizi, 00:15:14.656 --> 00:15:16.507 non ci impegnamo di più e basta, 00:15:16.507 --> 00:15:19.746 ma piuttosto quello che facciamo è determinare situazioni 00:15:19.746 --> 00:15:22.351 in cui queste altre fonti di informazioni non possono influenzarci, 00:15:22.351 --> 00:15:23.776 ed è il motivo per cui molte orchestre 00:15:23.776 --> 00:15:26.420 tengono audizioni al buio, 00:15:26.420 --> 00:15:28.003 così che l'unica informazione che hanno 00:15:28.003 --> 00:15:30.106 è quella che credono importante. 00:15:30.106 --> 00:15:32.940 Penso che pregiudizi e preconcetti 00:15:32.940 --> 00:15:35.966 illustrino un dualismo fondamentale della natura umana. 00:15:35.966 --> 00:15:39.687 Abbiamo le nostre inclinazioni, l'istinto, le emozioni, 00:15:39.687 --> 00:15:42.778 che influenzano i nostri giudizi e le nostre azioni 00:15:42.778 --> 00:15:44.570 nel bene e nel male, 00:15:44.570 --> 00:15:47.815 ma siamo anche in grado di deliberare razionalmente 00:15:47.815 --> 00:15:49.652 e di fare programmi in modo intelligente, 00:15:49.652 --> 00:15:51.725 e, in alcuni casi, possiamo usarli 00:15:51.725 --> 00:15:54.253 per accelerare e nutrire le nostre emozioni, 00:15:54.253 --> 00:15:56.587 e in altri casi per arrestarle. 00:15:56.587 --> 00:15:59.054 Ed è in questo modo che la ragione NOTE Paragraph 00:15:59.054 --> 00:16:00.728 ci aiuta a creare un mondo migliore. NOTE Paragraph 00:16:00.728 --> 00:16:02.083 Grazie. 00:16:02.083 --> 00:16:10.623 (Applausi)