1 00:00:00,844 --> 00:00:03,222 Al hablar de prejuicios y sesgos, 2 00:00:03,222 --> 00:00:05,366 solemos pensar en personas tontas y malvadas, 3 00:00:05,366 --> 00:00:07,820 que hacen tonterías y maldades. 4 00:00:07,820 --> 00:00:09,890 Resumió muy bien esta idea 5 00:00:09,890 --> 00:00:12,358 el crítico británico William Hazlitt, 6 00:00:12,358 --> 00:00:15,293 al escribir: "El prejuicio es hijo de la ignorancia". 7 00:00:15,293 --> 00:00:17,405 Trataré de convencerlos aquí 8 00:00:17,405 --> 00:00:19,040 de que esto es un error. 9 00:00:19,040 --> 00:00:20,772 Quiero convencerlos 10 00:00:20,772 --> 00:00:22,495 de que el prejuicio y el sesgo 11 00:00:22,495 --> 00:00:25,783 son naturales, a menudo racionales, 12 00:00:25,783 --> 00:00:27,614 y con frecuencia incluso algo moral, 13 00:00:27,614 --> 00:00:29,866 y pienso que una vez que lo entendemos, 14 00:00:29,866 --> 00:00:32,375 estamos mejor preparados para darles sentido 15 00:00:32,375 --> 00:00:33,432 si se salen de cauce, 16 00:00:33,432 --> 00:00:35,200 si tienen consecuencias horribles, 17 00:00:35,200 --> 00:00:37,525 estamos mejor preparados para saber qué hacer 18 00:00:37,525 --> 00:00:39,207 cuando esto suceda. 19 00:00:39,207 --> 00:00:42,234 Empecemos con los estereotipos. Me miran, 20 00:00:42,234 --> 00:00:44,480 saben mi nombre, conocen algo de mí, 21 00:00:44,480 --> 00:00:46,309 y podrían emitir ciertos juicios. 22 00:00:46,309 --> 00:00:49,162 Podrían conjeturar sobre mi origen étnico, 23 00:00:49,162 --> 00:00:52,443 mi afiliación política, mis creencias religiosas. 24 00:00:52,443 --> 00:00:54,542 Lo cierto es que estos juicios suelen ser exactos. 25 00:00:54,542 --> 00:00:56,724 Somos muy buenos para esas cosas. 26 00:00:56,724 --> 00:00:58,207 Y somos muy buenos para esas cosas 27 00:00:58,207 --> 00:01:00,940 porque la capacidad para estereotipar personas 28 00:01:00,940 --> 00:01:04,195 no es una peculiaridad de la mente 29 00:01:04,195 --> 00:01:06,511 sino un caso específico 30 00:01:06,511 --> 00:01:08,166 de un proceso más general, 31 00:01:08,166 --> 00:01:09,785 y es que tenemos experiencia 32 00:01:09,785 --> 00:01:11,326 de cosas y personas del mundo real 33 00:01:11,326 --> 00:01:12,575 que caen en categorías 34 00:01:12,575 --> 00:01:15,031 y podemos usar esa experiencia para hacer generalizaciones 35 00:01:15,031 --> 00:01:17,390 sobre nuevos casos de estas categorías. 36 00:01:17,390 --> 00:01:19,757 Todos aquí tenemos mucha experiencia 37 00:01:19,757 --> 00:01:22,010 con sillas, manzanas y perros. 38 00:01:22,010 --> 00:01:23,646 Con base en esto uno podría ver 39 00:01:23,646 --> 00:01:25,998 ejemplos poco familiares y conjeturar: 40 00:01:25,998 --> 00:01:27,314 uno podría sentarse en la silla, 41 00:01:27,314 --> 00:01:29,879 podría comer la manzana, el perro ladrará. 42 00:01:29,879 --> 00:01:31,643 Podríamos equivocarnos. 43 00:01:31,643 --> 00:01:33,443 La silla podría romperse si uno se sentara, 44 00:01:33,443 --> 00:01:35,665 la manzana podría estar envenenada, el perro podría no ladrar. 45 00:01:35,665 --> 00:01:38,535 De hecho, este es mi perro Tessie, y no ladra. 46 00:01:38,535 --> 00:01:41,294 Pero en su mayor parte, somos buenos para esto. 47 00:01:41,294 --> 00:01:43,210 En general, hacemos buenas conjeturas 48 00:01:43,210 --> 00:01:45,024 tanto en esferas sociales como no sociales, 49 00:01:45,024 --> 00:01:46,973 y, de no ser así, 50 00:01:46,973 --> 00:01:50,189 de no poder hacer conjeturas sobre nuevos casos que encontramos, 51 00:01:50,189 --> 00:01:51,640 no habríamos sobrevivido. 52 00:01:51,640 --> 00:01:54,509 De hecho, Hazlitt más adelante en su maravilloso ensayo 53 00:01:54,509 --> 00:01:55,994 concede esto. 54 00:01:55,994 --> 00:01:58,536 Escribe: "Sin la ayuda de los prejuicios y las costumbres, 55 00:01:58,536 --> 00:02:00,876 ni siquiera podría abrirme camino por la sala; 56 00:02:00,876 --> 00:02:03,328 ni saber cómo manejarme en cualquier circunstancia, 57 00:02:03,328 --> 00:02:07,531 ni qué sentir en cualquier relación de la vida". 58 00:02:07,531 --> 00:02:09,040 Hablemos del sesgo. 59 00:02:09,040 --> 00:02:10,748 A veces dividimos el mundo 60 00:02:10,748 --> 00:02:13,749 en nosotros versus ellos, nuestro grupo versus el resto, 61 00:02:13,749 --> 00:02:14,910 y a veces al hacerlo, 62 00:02:14,910 --> 00:02:16,467 sabemos que estamos haciendo algo errado, 63 00:02:16,467 --> 00:02:18,140 y nos avergüenza un poco. 64 00:02:18,140 --> 00:02:19,623 Pero otras veces estamos orgullosos de eso. 65 00:02:19,623 --> 00:02:21,436 Lo reconocemos abiertamente. 66 00:02:21,436 --> 00:02:22,718 Mi ejemplo favorito de esto 67 00:02:22,718 --> 00:02:25,120 es una pregunta que vino del público 68 00:02:25,120 --> 00:02:27,837 en el debate republicano anterior a la última elección. 69 00:02:27,837 --> 00:02:30,129 (Vídeo) Anderson Cooper: Vamos a su pregunta, 70 00:02:30,129 --> 00:02:34,310 la pregunta en la sala sobre ayuda exterior. Sí, señora. 71 00:02:34,310 --> 00:02:36,546 Mujer: Los estadounidenses estamos sufriendo 72 00:02:36,546 --> 00:02:39,183 en nuestro propio país. 73 00:02:39,183 --> 00:02:42,531 ¿Por qué seguimos enviando ayuda al exterior, 74 00:02:42,531 --> 00:02:43,847 a otros países, 75 00:02:43,847 --> 00:02:47,950 cuando necesitamos toda la ayuda que podamos tener para nosotros? 76 00:02:47,950 --> 00:02:49,645 AC: Gobernador Perry, ¿qué dice? 77 00:02:49,645 --> 00:02:51,012 (Aplausos) 78 00:02:51,012 --> 00:02:53,350 Rick Perry: Totalmente, pienso que... 79 00:02:53,350 --> 00:02:55,010 Paul Bloom: Todos en el escenario 80 00:02:55,010 --> 00:02:56,981 están de acuerdo con la premisa de su pregunta, 81 00:02:56,981 --> 00:02:59,100 que es, como estadounidenses, deberíamos ocuparnos más 82 00:02:59,100 --> 00:03:01,226 de los estadounidenses que de otras personas. 83 00:03:01,226 --> 00:03:04,091 De hecho, en general, las personas se rigen a menudo 84 00:03:04,091 --> 00:03:07,599 por sentimientos de solidaridad, lealtad, orgullo, patriotismo, 85 00:03:07,599 --> 00:03:10,315 hacia su país o hacia su grupo étnico. 86 00:03:10,315 --> 00:03:13,400 Más allá de la posición política, muchos están orgullosos de ser estadounidense 87 00:03:13,400 --> 00:03:15,462 y favorecen a los estadounidenses sobre otras nacionalidades. 88 00:03:15,462 --> 00:03:18,312 Los residentes de otros países sienten lo mismo sobre su nación, 89 00:03:18,312 --> 00:03:20,798 y sentimos lo mismo sobre nuestras etnias. 90 00:03:20,798 --> 00:03:22,482 Algunos puede que rechacen esto. 91 00:03:22,482 --> 00:03:24,203 Alguno de Uds. puede que sea tan cosmopolita 92 00:03:24,213 --> 00:03:26,547 que piense que la etnia y la nacionalidad 93 00:03:26,547 --> 00:03:28,700 no debería tener influencia moral. 94 00:03:28,700 --> 00:03:31,462 Pero aún sofisticándolo aceptemos 95 00:03:31,462 --> 00:03:33,296 que debería haber cierta tendencia 96 00:03:33,296 --> 00:03:35,997 hacia el grupo de pertenencia, de familiares y amigos, 97 00:03:35,997 --> 00:03:37,418 de los seres íntimos, 98 00:03:37,418 --> 00:03:38,979 y así uno hace la distinción 99 00:03:38,979 --> 00:03:40,954 entre nosotros y ellos. 100 00:03:40,954 --> 00:03:43,557 Esta distinción es bastante natural 101 00:03:43,557 --> 00:03:46,481 y a menudo algo moral, pero puede salir mal, 102 00:03:46,481 --> 00:03:48,210 y esto fue parte de la investigación 103 00:03:48,210 --> 00:03:50,969 del gran psicólogo social Henri Tajfel. 104 00:03:50,969 --> 00:03:53,574 Tajfel nació en Polonia en 1919. 105 00:03:53,574 --> 00:03:55,713 Partió de allí para hacer la universidad en Francia, 106 00:03:55,713 --> 00:03:58,268 porque como judío no podía ir a la universidad en Polonia, 107 00:03:58,268 --> 00:04:00,778 y luego se alistó en el Ejército francés 108 00:04:00,778 --> 00:04:02,061 en la Segunda Guerra Mundial. 109 00:04:02,061 --> 00:04:03,830 Fue capturado y terminó 110 00:04:03,830 --> 00:04:05,361 en un campo de prisioneros de guerra, 111 00:04:05,361 --> 00:04:07,628 y fue un momento aterrador para él, 112 00:04:07,628 --> 00:04:09,316 porque si se descubría que era judío, 113 00:04:09,316 --> 00:04:11,408 podría haber sido trasladado a un campo de concentración, 114 00:04:11,408 --> 00:04:13,400 donde muy probablemente no habría sobrevivido. 115 00:04:13,400 --> 00:04:15,987 Y, de hecho, cuando la guerra terminó y quedó en libertad, 116 00:04:15,987 --> 00:04:18,492 la mayoría de sus amigos y familiares estaban muertos. 117 00:04:18,492 --> 00:04:20,329 Participó en diferentes actividades. 118 00:04:20,329 --> 00:04:21,860 Ayudó a los huérfanos de guerra. 119 00:04:21,860 --> 00:04:23,591 Pero tenía un interés de larga data 120 00:04:23,591 --> 00:04:25,136 en la ciencia del prejuicio. 121 00:04:25,136 --> 00:04:27,796 Entonces cuando surgió una beca prestigiosa británica 122 00:04:27,796 --> 00:04:29,641 sobre estereotipos, se postuló, 123 00:04:29,641 --> 00:04:30,998 y ganó, 124 00:04:30,998 --> 00:04:33,188 y empezó esta carrera increíble. 125 00:04:33,188 --> 00:04:35,937 Empezó su carrera con la idea 126 00:04:35,937 --> 00:04:37,777 de que lo que pensaba la mayoría 127 00:04:37,777 --> 00:04:39,893 sobre el Holocausto era erróneo. 128 00:04:39,893 --> 00:04:42,299 Mucha gente, la mayoría en esa época, 129 00:04:42,299 --> 00:04:44,200 veía al Holocausto como la representación 130 00:04:44,200 --> 00:04:47,204 de un defecto trágico alemán, 131 00:04:47,204 --> 00:04:51,038 de alguna mancha genética, de una personalidad autoritaria. 132 00:04:51,038 --> 00:04:53,096 Y Tajfel rechazaba esto. 133 00:04:53,096 --> 00:04:55,639 Tajfel decía que el Holocausto 134 00:04:55,639 --> 00:04:57,950 es solo una exageración 135 00:04:57,950 --> 00:04:59,728 de los procesos psicológicos normales 136 00:04:59,728 --> 00:05:01,489 que existen en todos nosotros. 137 00:05:01,489 --> 00:05:04,174 Y para explorar la idea hizo una serie de estudios clásicos 138 00:05:04,174 --> 00:05:05,918 con adolescentes británicos. 139 00:05:05,918 --> 00:05:07,467 Y en uno de sus estudios le hizo 140 00:05:07,467 --> 00:05:10,019 a los adolescentes británicos todo tipo de preguntas, 141 00:05:10,019 --> 00:05:11,903 y con base en sus respuestas dijo: 142 00:05:11,903 --> 00:05:14,260 "Mirando tus respuestas, con base en ellas, 143 00:05:14,260 --> 00:05:16,357 determiné que te encanta", 144 00:05:16,357 --> 00:05:17,363 les dijo, 145 00:05:17,363 --> 00:05:20,320 "Kandinsky, te encanta la obra de Kandinsky, 146 00:05:20,320 --> 00:05:23,298 o te encanta la obra de Klee". 147 00:05:23,298 --> 00:05:25,114 Era totalmente falso. 148 00:05:25,114 --> 00:05:27,404 Sus respuestas no tenían nada que ver con Kandinsly ni Klee. 149 00:05:27,404 --> 00:05:30,132 Probablemente no conocían a esos artistas. 150 00:05:30,132 --> 00:05:32,872 Simplemente los dividió en forma arbitraria. 151 00:05:32,872 --> 00:05:36,143 Pero encontró que estas categorías importaban, 152 00:05:36,143 --> 00:05:38,654 por eso luego al darles dinero a los sujetos, 153 00:05:38,654 --> 00:05:40,330 ellos preferían dar el dinero 154 00:05:40,330 --> 00:05:42,130 a los miembros de su propio grupo 155 00:05:42,130 --> 00:05:43,963 que a los miembros de otro grupo. 156 00:05:43,963 --> 00:05:46,290 Peor aún, les interesaba más 157 00:05:46,290 --> 00:05:48,296 establecer una diferencia 158 00:05:48,296 --> 00:05:50,862 entre su grupo y otros grupos, 159 00:05:50,862 --> 00:05:52,770 y les darían más dinero a su propio grupo 160 00:05:52,770 --> 00:05:58,018 si con eso pudieran darle al otro grupo aún menos. 161 00:05:58,018 --> 00:06:00,236 Este sesgo parece surgir muy pronto. 162 00:06:00,236 --> 00:06:02,536 Mi colega y esposa, Karen Wynn, en Yale 163 00:06:02,536 --> 00:06:04,147 hizo una serie de estudios con bebés. 164 00:06:04,147 --> 00:06:06,979 Les dio títeres a los bebés, 165 00:06:06,979 --> 00:06:09,244 y los títeres tenían ciertas preferencias alimenticias. 166 00:06:09,244 --> 00:06:11,426 A uno de los títeres les gustaban las judías verdes. 167 00:06:11,426 --> 00:06:14,001 Al otro títere le gustaban las galletas. 168 00:06:14,001 --> 00:06:16,370 Estudiaban las preferencias alimenticias de los bebés, 169 00:06:16,370 --> 00:06:19,060 y los bebés por lo general preferían las galletas. 170 00:06:19,060 --> 00:06:21,672 La pregunta es: ¿Influía en los bebés 171 00:06:21,672 --> 00:06:24,788 la forma de tratar a los títeres? Influía mucho. 172 00:06:24,788 --> 00:06:26,307 Preferían al títere 173 00:06:26,307 --> 00:06:29,786 que tenía los mismos gustos que ellos, 174 00:06:29,786 --> 00:06:32,342 y, peor aún, preferían a los títeres 175 00:06:32,342 --> 00:06:35,327 que castigaban a los que tenían distintas preferencias alimenticias. 176 00:06:35,327 --> 00:06:37,604 (Risas) 177 00:06:37,604 --> 00:06:41,236 Vemos esta psicología de pertenencia a grupos todo el tiempo. 178 00:06:41,236 --> 00:06:42,900 Lo vemos en los enfrentamientos políticos 179 00:06:42,900 --> 00:06:45,314 en grupos con distintas ideologías. 180 00:06:45,314 --> 00:06:48,940 Lo vemos al extremo en casos de guerra, 181 00:06:48,940 --> 00:06:52,157 donde a quienes no pertenecen al grupo no solo se les da menos 182 00:06:52,157 --> 00:06:53,745 sino que se los deshumaniza, 183 00:06:53,745 --> 00:06:55,985 como en la mirada nazi de los judíos 184 00:06:55,985 --> 00:06:58,070 como alimañas o piojos, 185 00:06:58,070 --> 00:07:02,306 o la mirada de EE.UU. a los japoneses como ratas. 186 00:07:02,306 --> 00:07:04,520 Los estereotipos también pueden salir mal. 187 00:07:04,520 --> 00:07:06,781 A menudo son racionales y útiles, 188 00:07:06,781 --> 00:07:08,355 pero a veces son irracionales, 189 00:07:08,355 --> 00:07:09,581 dan la respuesta errónea, 190 00:07:09,581 --> 00:07:10,798 y otras veces 191 00:07:10,798 --> 00:07:12,973 llevan llanamente a consecuencias inmorales. 192 00:07:12,973 --> 00:07:15,781 Y el caso más estudiado 193 00:07:15,781 --> 00:07:17,448 es el de la raza. 194 00:07:17,448 --> 00:07:18,855 Hubo un estudio fascinante 195 00:07:18,855 --> 00:07:20,929 antes de las elecciones de 2008 196 00:07:20,929 --> 00:07:23,955 en el que unos psicólogos sociales analizaron el grado 197 00:07:23,955 --> 00:07:27,397 de asociación de los candidatos con EE.UU. 198 00:07:27,397 --> 00:07:31,002 y la asociación inconsciente con la bandera de EE.UU. 199 00:07:31,002 --> 00:07:32,358 En uno de sus estudios compararon 200 00:07:32,358 --> 00:07:34,372 a Obama y McCain, y hallaron que se piensa 201 00:07:34,372 --> 00:07:37,766 que McCain es más estadounidense que Obama, 202 00:07:37,766 --> 00:07:40,339 y en cierto punto no es una sorpresa. 203 00:07:40,339 --> 00:07:42,257 McCain es un conocido héroe de guerra, 204 00:07:42,257 --> 00:07:43,916 y mucha gente diría explícitamente 205 00:07:43,916 --> 00:07:46,616 que tiene una historia más afín a EE.UU. que Obama. 206 00:07:46,616 --> 00:07:48,553 Pero también compararon a Obama 207 00:07:48,553 --> 00:07:51,069 con el PM británico Tony Blair, 208 00:07:51,069 --> 00:07:53,330 y hallaron que se piensa que Blair también 209 00:07:53,330 --> 00:07:55,837 es más estadounidense que Obama, 210 00:07:55,837 --> 00:07:57,910 aunque queda claro que entendían 211 00:07:57,910 --> 00:08:00,900 que Blair no es estadunidense. 212 00:08:00,900 --> 00:08:02,324 Respondían, como está claro, 213 00:08:02,324 --> 00:08:05,375 por el color de la piel. 214 00:08:05,375 --> 00:08:07,426 Estos estereotipos y sesgos 215 00:08:07,426 --> 00:08:08,876 tienen consecuencias en el mundo real, 216 00:08:08,876 --> 00:08:11,748 son sutiles y muy importantes. 217 00:08:11,748 --> 00:08:14,410 En un estudio reciente, unos investigadores 218 00:08:14,410 --> 00:08:17,679 colocaron anuncios en eBay para vender tarjetas de baloncesto. 219 00:08:17,679 --> 00:08:20,413 Algunas eran sostenidas por manos blancas 220 00:08:20,413 --> 00:08:21,631 y otras por manos negras. 221 00:08:21,631 --> 00:08:23,210 Eran las mismas tarjetas de baloncesto. 222 00:08:23,210 --> 00:08:24,454 Las sostenidas por manos negras 223 00:08:24,454 --> 00:08:26,521 tuvieron muchas menos ofertas 224 00:08:26,521 --> 00:08:29,005 que las sostenidas por manos blancas. 225 00:08:29,005 --> 00:08:31,367 En una investigación de Stanford, 226 00:08:31,367 --> 00:08:35,597 unos psicólogos exploraron un caso de personas 227 00:08:35,597 --> 00:08:39,166 condenadas por el asesinato de una persona blanca. 228 00:08:39,166 --> 00:08:41,970 Resulta que, manteniendo todo lo demás constante, 229 00:08:41,970 --> 00:08:44,340 es mucho más probable ser ejecutado 230 00:08:44,340 --> 00:08:46,117 si uno se parece al hombre de la derecha 231 00:08:46,117 --> 00:08:48,090 que al hombre de la izquierda, 232 00:08:48,090 --> 00:08:50,119 y esto se debe en gran parte 233 00:08:50,119 --> 00:08:52,653 a que el hombre de la derecha se parece más al arquetipo negro 234 00:08:52,653 --> 00:08:55,283 que al arquetipo afro-estadounidense, 235 00:08:55,283 --> 00:08:57,332 y esto supuestamente influye en las decisiones de las personas 236 00:08:57,332 --> 00:08:59,103 sobre qué hacer con él. 237 00:08:59,103 --> 00:09:00,650 Y ahora que sabemos esto, 238 00:09:00,650 --> 00:09:02,307 ¿cómo combatirlo? 239 00:09:02,307 --> 00:09:03,929 Hay dos vías diferentes. 240 00:09:03,929 --> 00:09:05,363 Una es recurrir 241 00:09:05,363 --> 00:09:07,409 a la respuesta emocional de las personas, 242 00:09:07,409 --> 00:09:09,542 apelar a la empatía de las personas, 243 00:09:09,542 --> 00:09:11,415 y con frecuencia lo hacemos con historias. 244 00:09:11,415 --> 00:09:13,980 Si uno es un padre progresista 245 00:09:13,980 --> 00:09:15,852 y quiere animar a sus hijos 246 00:09:15,852 --> 00:09:18,226 a creer en los méritos de las familias no tradicionales, les da 247 00:09:18,226 --> 00:09:20,499 el libro ["Heather tiene dos mamás"]. 248 00:09:20,499 --> 00:09:22,225 Si uno es conservador y tiene otra actitud, 249 00:09:22,225 --> 00:09:23,422 les da el libro 250 00:09:23,422 --> 00:09:25,905 ["¡Socorro, mamá! ¡Hay progresistas bajo mi cama!"] (Risas) 251 00:09:25,905 --> 00:09:29,241 En general, las historias pueden convertir 252 00:09:29,241 --> 00:09:31,473 a extraños anónimos en personas que importan, 253 00:09:31,473 --> 00:09:34,158 y la idea de ocuparnos de las personas 254 00:09:34,158 --> 00:09:35,860 cuando nos centramos en ellos como individuos 255 00:09:35,860 --> 00:09:38,139 es una idea repetida a lo largo de la historia. 256 00:09:38,139 --> 00:09:40,722 Stalin dijo en forma apócrifa: 257 00:09:40,722 --> 00:09:42,339 "Una sola muerte es una tragedia, 258 00:09:42,339 --> 00:09:44,379 un millón de muertes es una estadística". 259 00:09:44,379 --> 00:09:45,830 Y la Madre Teresa dijo: 260 00:09:45,830 --> 00:09:47,371 "Si miro a la masa, nunca voy a actuar. 261 00:09:47,371 --> 00:09:49,696 Si miro a la persona, lo haré". 262 00:09:49,696 --> 00:09:51,766 Los psicólogos han explorado esto. 263 00:09:51,766 --> 00:09:53,067 Por ejemplo, en un estudio, 264 00:09:53,067 --> 00:09:55,850 a unas personas se les dio una lista de hechos sobre una crisis, 265 00:09:55,850 --> 00:10:00,106 y se analizaba cuánto donaban 266 00:10:00,106 --> 00:10:01,690 para resolver la crisis, 267 00:10:01,690 --> 00:10:03,527 y a otro grupo no se le dieron hechos 268 00:10:03,527 --> 00:10:05,625 sino que se les habló de una persona 269 00:10:05,625 --> 00:10:08,065 se les dio un nombre y un rostro, 270 00:10:08,065 --> 00:10:11,284 y resultó que donaron mucho más en el último caso. 271 00:10:11,284 --> 00:10:13,145 Pienso que nada de esto es un secreto 272 00:10:13,145 --> 00:10:15,256 para quienes se dedican a la caridad. 273 00:10:15,256 --> 00:10:17,904 No se suele abrumar a la gente 274 00:10:17,904 --> 00:10:19,227 con datos y estadísticas. 275 00:10:19,227 --> 00:10:20,249 En cambio, se le muestran rostros, 276 00:10:20,249 --> 00:10:21,985 se le muestran personas. 277 00:10:21,985 --> 00:10:25,212 Es posible que al extender nuestras simpatías 278 00:10:25,212 --> 00:10:27,183 a una persona, pueda difundirse 279 00:10:27,183 --> 00:10:30,061 al grupo al que pertenece la persona. 280 00:10:30,061 --> 00:10:32,527 Esta es Harriet Beecher Stowe. 281 00:10:32,527 --> 00:10:34,970 La historia, quizá apócrifa, 282 00:10:34,970 --> 00:10:37,044 dice que el presidente Lincoln la invitó 283 00:10:37,044 --> 00:10:39,042 a la Casa Blanca en medio de la Guerra Civil 284 00:10:39,042 --> 00:10:40,626 y le dijo: 285 00:10:40,626 --> 00:10:43,290 "Así que tú eres la damita que empezó esta gran guerra". 286 00:10:43,290 --> 00:10:45,175 Y se refería a "La cabaña del tío Tom". 287 00:10:45,175 --> 00:10:47,706 "La cabaña del tío Tom" no es un gran libro de filosofía 288 00:10:47,706 --> 00:10:50,850 ni de teología, quizá ni siquiera de literatura, 289 00:10:50,850 --> 00:10:53,365 pero hace un gran trabajo 290 00:10:53,365 --> 00:10:55,863 en hacer que la gente se ponga en los zapatos 291 00:10:55,863 --> 00:10:58,196 de personas que de otro modo no sería posible, 292 00:10:58,196 --> 00:11:00,598 que se pongan en el lugar de los esclavos. 293 00:11:00,598 --> 00:11:02,379 Y eso bien podría haber sido un catalizador 294 00:11:02,379 --> 00:11:03,983 de gran cambio social. 295 00:11:03,983 --> 00:11:06,345 Más recientemente, mirando a EE.UU. 296 00:11:06,345 --> 00:11:09,414 en las últimas décadas, 297 00:11:09,414 --> 00:11:12,563 hay alguna razón para creer que programas como "El show de Cosby" 298 00:11:12,563 --> 00:11:15,251 cambiaron drásticamente las actitudes de EE.UU. hacia los afro-estadounidenses 299 00:11:15,251 --> 00:11:18,234 mientras que "Will y Grace" y "Familia moderna" 300 00:11:18,234 --> 00:11:19,597 cambiaron la actitud estadounidense 301 00:11:19,597 --> 00:11:20,897 hacia hombres y mujeres homosexuales. 302 00:11:20,897 --> 00:11:23,352 Pienso que no es una exageración decir 303 00:11:23,352 --> 00:11:26,013 que el principal catalizador del cambio moral en EE.UU. 304 00:11:26,013 --> 00:11:28,906 ha sido una comedia de situación. 305 00:11:28,906 --> 00:11:30,322 Pero no es todo emociones, 306 00:11:30,322 --> 00:11:31,598 y quiero terminar apelando 307 00:11:31,598 --> 00:11:33,833 al poder de la razón. 308 00:11:33,833 --> 00:11:35,989 En un momento de su maravilloso libro 309 00:11:35,989 --> 00:11:37,212 "Los mejores ángeles de nuestra naturaleza" 310 00:11:37,212 --> 00:11:39,228 Steven Pinker dice: 311 00:11:39,228 --> 00:11:41,810 el Antiguo Testamento dice "ama a tu prójimo", 312 00:11:41,810 --> 00:11:44,532 y el Nuevo Testamento dice "ama a tu enemigo", 313 00:11:44,532 --> 00:11:47,218 pero yo no amo a ninguno de los dos, realmente no, 314 00:11:47,218 --> 00:11:48,885 pero no quiero matarlos. 315 00:11:48,885 --> 00:11:50,751 Sé que tengo obligaciones para con ellos, 316 00:11:50,751 --> 00:11:54,221 pero mis sentimientos morales hacia ellos, mis creencias morales 317 00:11:54,221 --> 00:11:55,934 sobre cómo debería comportarme con ellos, 318 00:11:55,934 --> 00:11:57,981 no tienen fundamento en el amor. 319 00:11:57,981 --> 00:11:59,920 Tienen un anclaje en la comprensión de los Derechos Humanos, 320 00:11:59,920 --> 00:12:02,143 en la creencia de que sus vidas son tan valiosos para ellos 321 00:12:02,143 --> 00:12:04,499 como la mía para mí, 322 00:12:04,499 --> 00:12:06,431 y para respaldar esto, cuenta una historia 323 00:12:06,431 --> 00:12:08,279 del gran filósofo Adam Smith, 324 00:12:08,279 --> 00:12:09,965 y quiero contar esa historia también, 325 00:12:09,965 --> 00:12:11,261 aunque la adecuaré un poco 326 00:12:11,261 --> 00:12:12,939 a los tiempos modernos. 327 00:12:12,939 --> 00:12:14,840 Adam Smith empieza pidiendo que imaginemos 328 00:12:14,840 --> 00:12:16,741 la muerte de miles de personas, 329 00:12:16,741 --> 00:12:18,781 y que imaginemos que las miles de personas 330 00:12:18,781 --> 00:12:21,020 están en un país que no nos resulta familiar. 331 00:12:21,020 --> 00:12:24,574 Podría ser China, o India, o un país de África. 332 00:12:24,574 --> 00:12:27,058 Y Smith pregunta: ¿cómo responderíamos? 333 00:12:27,058 --> 00:12:29,365 Uno diría, bueno está muy mal, 334 00:12:29,365 --> 00:12:31,241 y seguiría con la vida habitual. 335 00:12:31,241 --> 00:12:33,460 Si uno leyera The New York Times en línea o algo así, 336 00:12:33,460 --> 00:12:36,420 y descubriera esto, de hecho nos pasa todo el tiempo, 337 00:12:36,420 --> 00:12:37,941 seguiríamos con nuestras vidas. 338 00:12:37,941 --> 00:12:40,135 Pero imaginemos en cambio, dice Smith, 339 00:12:40,135 --> 00:12:41,389 que supiéramos que mañana 340 00:12:41,389 --> 00:12:43,928 nos amputarían el dedo meñique. 341 00:12:43,928 --> 00:12:46,097 Smith dice que eso nos afectaría mucho. 342 00:12:46,097 --> 00:12:47,508 No podríamos dormir esa noche 343 00:12:47,508 --> 00:12:48,861 pensando en eso. 344 00:12:48,861 --> 00:12:50,880 Esto plantea la pregunta: 345 00:12:50,880 --> 00:12:53,346 ¿Sacrificaríamos miles de vidas 346 00:12:53,346 --> 00:12:55,315 para salvar nuestro meñique? 347 00:12:55,315 --> 00:12:57,633 Respondan esto en su fuero íntimo, 348 00:12:57,633 --> 00:13:00,552 pero Smith dice, absolutamente no, 349 00:13:00,552 --> 00:13:02,244 qué pensamiento tan horrible. 350 00:13:02,244 --> 00:13:04,275 Y esto plantea la pregunta, 351 00:13:04,275 --> 00:13:05,649 y, como dice Smith, 352 00:13:05,649 --> 00:13:07,867 "Si nuestros sentimientos pasivos son casi siempre 353 00:13:07,867 --> 00:13:09,315 tan sórdidos y egoístas, 354 00:13:09,315 --> 00:13:10,780 ¿cómo es que nuestros principios activos 355 00:13:10,780 --> 00:13:13,313 a menudo deberían ser tan generosos y nobles?" 356 00:13:13,313 --> 00:13:15,363 Y la respuesta de Smith es: "Existe la razón, 357 00:13:15,363 --> 00:13:17,138 los principios, la conciencia 358 00:13:17,138 --> 00:13:18,679 "que nos dice 359 00:13:18,679 --> 00:13:22,104 con una voz capaz de asombrar a la más presuntuosa de nuestras pasiones, 360 00:13:22,104 --> 00:13:23,781 que no somos más que uno en la multitud, 361 00:13:23,781 --> 00:13:26,222 en nada mejores que cualquier persona de la misma". 362 00:13:26,222 --> 00:13:28,347 Y esta última parte es lo que a menudo se describe 363 00:13:28,347 --> 00:13:31,555 como el principio de imparcialidad. 364 00:13:31,555 --> 00:13:34,184 Y este principio de imparcialidad se manifiesta 365 00:13:34,184 --> 00:13:35,931 en todas las religiones del mundo, 366 00:13:35,951 --> 00:13:38,209 en todas las diferentes versiones de la regla dorada, 367 00:13:38,209 --> 00:13:40,663 y en todas las filosofías morales del mundo, 368 00:13:40,663 --> 00:13:41,970 que difieren en muchos sentidos 369 00:13:41,970 --> 00:13:44,964 pero comparten la suposición previa de que debemos juzgar la moralidad 370 00:13:44,964 --> 00:13:47,949 desde un punto de vista imparcial. 371 00:13:47,949 --> 00:13:49,771 La mejor articulación de esta mirada 372 00:13:49,771 --> 00:13:52,856 para mí no viene de un teólogo ni de un filósofo, 373 00:13:52,856 --> 00:13:54,213 sino de Humphrey Bogart 374 00:13:54,213 --> 00:13:55,760 al final de "Casablanca". 375 00:13:55,760 --> 00:13:59,536 Les arruinaré el final, le dice a su amada 376 00:13:59,536 --> 00:14:00,676 que tienen que separarse 377 00:14:00,676 --> 00:14:02,269 por un bien más general, 378 00:14:02,269 --> 00:14:04,133 y le dice, no podré hablar con su acento, 379 00:14:04,133 --> 00:14:05,915 pero le dice: "No se requiere mucho para entender 380 00:14:05,915 --> 00:14:07,274 que los problemas de tres pequeñas personas 381 00:14:07,274 --> 00:14:10,385 no equivalen a una colina de frijoles en este mundo loco". 382 00:14:10,385 --> 00:14:13,665 Nuestra razón podría anular nuestras pasiones. 383 00:14:13,665 --> 00:14:15,381 Nuestra razón podría motivarnos 384 00:14:15,381 --> 00:14:16,602 a extender nuestra empatía, 385 00:14:16,602 --> 00:14:18,929 podría motivarnos a escribir un libro titulado "La cabaña del tío Tom", 386 00:14:18,929 --> 00:14:20,652 o a leer un libro como "La cabaña del tío Tom", 387 00:14:20,652 --> 00:14:23,346 y nuestra razón puede motivarnos a crear 388 00:14:23,346 --> 00:14:25,308 costumbres, tabúes y leyes 389 00:14:25,308 --> 00:14:27,118 que nos impidan 390 00:14:27,118 --> 00:14:28,794 actuar siguiendo nuestros impulsos 391 00:14:28,794 --> 00:14:30,383 cuando, como seres racionales, sentimos 392 00:14:30,383 --> 00:14:31,778 que deberíamos limitarnos. 393 00:14:31,778 --> 00:14:33,791 Esto es lo que es una constitución. 394 00:14:33,791 --> 00:14:36,712 Una constitución es algo establecido en el pasado 395 00:14:36,712 --> 00:14:38,019 que se aplica en el presente, 396 00:14:38,019 --> 00:14:39,004 y que nos dice 397 00:14:39,004 --> 00:14:41,231 que sin importar cuánto queramos reelegir 398 00:14:41,231 --> 00:14:43,834 a un presidente popular a un tercer término, 399 00:14:43,834 --> 00:14:45,929 sin importar cuánto los estadounidenses blancos sientan 400 00:14:45,929 --> 00:14:49,997 que quieren reinstaurar la institución de la esclavitud, no pueden hacerlo. 401 00:14:49,997 --> 00:14:51,673 Nos hemos autolimitado. 402 00:14:51,673 --> 00:14:54,090 Y nos autolimitamos en otras formas también. 403 00:14:54,090 --> 00:14:56,848 Sabemos que si se trata de elegir a alguien 404 00:14:56,848 --> 00:14:59,799 para un empleo, para un premio, 405 00:14:59,799 --> 00:15:02,757 tenemos el fuerte sesgo de la raza, 406 00:15:02,757 --> 00:15:05,053 tenemos el sesgo del género, 407 00:15:05,053 --> 00:15:07,268 tenemos el sesgo del atractivo, 408 00:15:07,268 --> 00:15:09,919 y a veces podríamos decir: "Bueno, debería ser de esta forma". 409 00:15:09,919 --> 00:15:12,226 Pero otras veces decimos: "Esto está mal". 410 00:15:12,226 --> 00:15:14,115 Y para combatirlo 411 00:15:14,115 --> 00:15:16,366 no solo ponemos empeño, 412 00:15:16,366 --> 00:15:19,367 sino que en cambio establecemos situaciones 413 00:15:19,367 --> 00:15:22,406 en las que estas otras fuentes de información no puedan sesgarnos. 414 00:15:22,406 --> 00:15:23,721 Por eso muchas orquestas 415 00:15:23,721 --> 00:15:26,366 hacen audiciones de músicos detrás de pantallas, 416 00:15:26,366 --> 00:15:27,610 para que la única información que tengan 417 00:15:27,610 --> 00:15:30,303 sea la información que creen que debería importar. 418 00:15:30,303 --> 00:15:32,626 Pienso que el prejuicio y el sesgo 419 00:15:32,626 --> 00:15:35,720 ilustran una dualidad esencial de la naturaleza humana. 420 00:15:35,720 --> 00:15:39,496 Tenemos intuiciones, instintos, emociones, 421 00:15:39,496 --> 00:15:41,657 que afectan nuestros juicios y acciones 422 00:15:41,657 --> 00:15:43,988 para bien y para mal, 423 00:15:43,988 --> 00:15:47,610 pero también podemos razonar 424 00:15:47,610 --> 00:15:49,045 y planificar con inteligencia, 425 00:15:49,045 --> 00:15:51,862 y usar esto para, en algunos casos, 426 00:15:51,862 --> 00:15:53,805 acelerar y nutrir nuestras emociones, 427 00:15:53,805 --> 00:15:56,573 y en otros casos para aplacarlas. 428 00:15:56,573 --> 00:15:57,807 Y de esta forma 429 00:15:57,807 --> 00:16:00,574 la razón nos ayuda a crear un mundo mejor. 430 00:16:00,574 --> 00:16:02,918 Gracias. 431 00:16:02,918 --> 00:16:06,623 (Aplausos)