1 00:00:00,844 --> 00:00:03,222 우리가 편견과 편향에 대해 생각할 때 2 00:00:03,222 --> 00:00:05,366 어리석고 나쁜 사람들이 3 00:00:05,366 --> 00:00:07,820 어리석고 나쁜 짓을 한다고 생각하죠. 4 00:00:07,820 --> 00:00:09,890 이런 생각은 영국의 비평가 5 00:00:09,890 --> 00:00:12,358 윌리엄 해즐릿이 잘 정리했습니다. 6 00:00:12,358 --> 00:00:15,293 그는 "편견은 어리석음의 자식이다." 라고 썼습니다. 7 00:00:15,293 --> 00:00:17,405 저는 여기서 이것이 8 00:00:17,405 --> 00:00:19,040 잘못된 생각이라고 말씀드리고 싶습니다. 9 00:00:19,040 --> 00:00:20,772 저는 여러분을 설득하고 싶습니다. 10 00:00:20,772 --> 00:00:22,495 편견과 편향은 11 00:00:22,495 --> 00:00:25,783 자연스럽고 때로는 이치에 맞고 12 00:00:25,783 --> 00:00:27,614 교훈이 될 때도 있습니다. 13 00:00:27,614 --> 00:00:29,866 우리가 이런 점을 이해한다면 14 00:00:29,866 --> 00:00:32,375 일이 잘못 돌아갈 때 15 00:00:32,375 --> 00:00:33,432 끔찍한 결과를 낳을 때 16 00:00:33,432 --> 00:00:35,200 이런 일이 생길 때 17 00:00:35,200 --> 00:00:37,525 어떻게 대처할 지 18 00:00:37,525 --> 00:00:39,207 더 잘 알 수 있습니다. 19 00:00:39,207 --> 00:00:42,234 고정관념으로 시작해봅시다. 여러분은 저를 보고, 20 00:00:42,234 --> 00:00:44,480 제 이름을 알고, 저에 관한 특정한 사실도 아니까 21 00:00:44,480 --> 00:00:46,309 어떤 판단을 할 수 있습니다. 22 00:00:46,309 --> 00:00:49,162 여러분은 제 민족성, 23 00:00:49,162 --> 00:00:52,443 제가 속한 정치단체, 제가 믿는 종교에 대해 추측할 수 있습니다. 24 00:00:52,443 --> 00:00:54,542 실은 이러한 판단이 정확한 경향이 있습니다. 25 00:00:54,542 --> 00:00:56,724 우리는 이런 일을 잘 합니다. 26 00:00:56,724 --> 00:00:58,207 우리는 이런 일을 잘 합니다. 27 00:00:58,207 --> 00:01:00,940 사람들에 대해 고정관념을 갖는 능력은 28 00:01:00,940 --> 00:01:04,195 마음이 멋대로 하는 장난이 아닙니다. 29 00:01:04,195 --> 00:01:06,511 오히려 보다 일반화 과정의 30 00:01:06,511 --> 00:01:08,166 구체적인 경우로서 31 00:01:08,166 --> 00:01:09,785 세상의 사물과 사람들에 대해 32 00:01:09,785 --> 00:01:11,326 우리가 겪는 경험이 33 00:01:11,326 --> 00:01:12,575 분류가 됩니다. 34 00:01:12,575 --> 00:01:15,031 그리고 우리는 경험을 근거로 35 00:01:15,031 --> 00:01:17,390 이들 분류에 속한 새로운 경우를 일반화합니다. 36 00:01:17,390 --> 00:01:19,757 여기 계신 모든 분들이 37 00:01:19,757 --> 00:01:22,010 의자, 사과, 개에 대해 다양한 경험을 갖고 계시죠. 38 00:01:22,010 --> 00:01:23,646 이것을 바탕으로 여러분은 39 00:01:23,646 --> 00:01:25,998 익숙하지 않은 예를 보고 추측할 수 있습니다. 40 00:01:25,998 --> 00:01:27,314 여러분은 의자에 앉거나 41 00:01:27,314 --> 00:01:29,879 사과를 먹을 수 있고 개는 짖을 겁니다. 42 00:01:29,879 --> 00:01:31,643 우리가 틀릴 지도 모르죠. 43 00:01:31,643 --> 00:01:33,443 여러분이 앉은 의자가 망가질 수도 있고 44 00:01:33,443 --> 00:01:35,665 사과에 독이 들었을 수도 있고 개는 짖지 않을 지도 모릅니다. 45 00:01:35,665 --> 00:01:38,535 사실 이건 제가 키우는 개 "테씨"인데 짖지 않습니다. 46 00:01:38,535 --> 00:01:41,294 하지만 대체로 우리는 이런 일을 잘 합니다. 47 00:01:41,294 --> 00:01:43,210 대부분의 경우 추측을 잘 합니다. 48 00:01:43,210 --> 00:01:45,024 사회적 영역과 비사회적 영역에서 다 추측을 잘 하죠. 49 00:01:45,024 --> 00:01:46,973 우리가 그럴 수 없다면 50 00:01:46,973 --> 00:01:50,189 우리가 마주친 새로운 경우에 대해 추측을 할 수 없다면 51 00:01:50,189 --> 00:01:51,640 우리는 살아남지 못할 겁니다. 52 00:01:51,640 --> 00:01:54,509 사실 해즐릿은 그가 쓴 훌륭한 수필에서 53 00:01:54,509 --> 00:01:55,994 이 사실을 인정했습니다. 54 00:01:55,994 --> 00:01:58,536 그는 "편견과 관습의 도움이 없다면, 55 00:01:58,536 --> 00:02:00,876 나는 내 방을 가로지르는 길을 찾을 수 없었을 테고, 56 00:02:00,876 --> 00:02:03,328 모든 상황에서 어떻게 행동해야 하는지 몰랐을 테고, 57 00:02:03,328 --> 00:02:07,531 삶에 대해 어떻게 느껴야 하는지도 몰랐을 겁니다." 라고 썼습니다. 58 00:02:07,531 --> 00:02:09,040 편향을 얘기해보죠. 59 00:02:09,040 --> 00:02:10,748 때때로 우리는 세상을 나눠서 60 00:02:10,748 --> 00:02:13,749 우리 대 그들, 내집단 대 외집단 으로 만듭니다. 61 00:02:13,749 --> 00:02:14,910 우리가 이렇게 할 때 62 00:02:14,910 --> 00:02:16,467 뭔가 잘못하고 있음을 알고 63 00:02:16,467 --> 00:02:18,140 부끄러워합니다. 64 00:02:18,140 --> 00:02:19,623 하지만 다른 때는 자랑스러워합니다. 65 00:02:19,623 --> 00:02:21,436 우리는 공공연하게 인정합니다. 66 00:02:21,436 --> 00:02:22,718 제가 좋아하는 예는 67 00:02:22,718 --> 00:02:25,120 지난 선거에서 공화당 토론을 할 때 68 00:02:25,120 --> 00:02:27,837 청중한테서 나온 질문입니다. 69 00:02:27,837 --> 00:02:30,129 (영상) 앤더슨 쿠퍼 : 질문을 듣죠. 70 00:02:30,129 --> 00:02:34,310 방청석에서 외국원조에 관한 질문인데요. 예, 여자분. 71 00:02:34,310 --> 00:02:36,546 여자 : 미국 사람들은 72 00:02:36,546 --> 00:02:39,183 지금 힘들어합니다. 73 00:02:39,183 --> 00:02:42,531 왜 우리는 다른 나라에 74 00:02:42,531 --> 00:02:43,847 계속해서 원조를 합니까? 75 00:02:43,847 --> 00:02:47,950 우리한테 모든 도움이 필요한 때인데요. 76 00:02:47,950 --> 00:02:49,645 앤더슨 : 페리 주지사, 어떻게 생각하시나요? 77 00:02:49,645 --> 00:02:51,012 (박수) 78 00:02:51,012 --> 00:02:53,350 릭 : 물론 제가 생각하기엔 -- 79 00:02:53,350 --> 00:02:55,010 폴 : 무대에 선 모든 사람들이 80 00:02:55,010 --> 00:02:56,981 그 질문의 전제에 동의합니다. 81 00:02:56,981 --> 00:02:59,100 그말은 미국인으로서 우리는 82 00:02:59,100 --> 00:03:01,226 다른 사람들보다 미국인들을 더 보살펴야 한다는 뜻이죠. 83 00:03:01,226 --> 00:03:04,091 사실 일반적으로 사람들은 종종 84 00:03:04,091 --> 00:03:07,599 연대감, 의리, 자부심, 애국심과 같은 감정으로 85 00:03:07,599 --> 00:03:10,315 이 나라 또는 그들이 속한 민족에 휘둘립니다. 86 00:03:10,315 --> 00:03:13,400 정치 성향에 상관없이 많은 사람들은 미국인임을 자랑스럽게 생각하고 87 00:03:13,400 --> 00:03:15,462 다른 나라에 비해 미국을 좋아합니다. 88 00:03:15,462 --> 00:03:18,312 다른 나라 사람들도 자기 나라에 대해 마찬가지로 느끼고 89 00:03:18,312 --> 00:03:20,798 우리도 우리 민족성에 대해 똑같이 느낍니다. 90 00:03:20,798 --> 00:03:22,482 어떤 분들은 여기에 반대할지도 모르겠네요. 91 00:03:22,482 --> 00:03:24,203 어떤 분들은 세계주의자라서 92 00:03:24,213 --> 00:03:26,547 민족과 국가가 93 00:03:26,547 --> 00:03:28,700 정신을 지배하지는 않는다고 생가할 수도 있습니다. 94 00:03:28,700 --> 00:03:31,462 하지만 교양있는 사람도 95 00:03:31,462 --> 00:03:33,296 여러분과 가까운 사람들, 96 00:03:33,296 --> 00:03:35,997 친구, 가족이 속한 영역에서 97 00:03:35,997 --> 00:03:37,418 내집단을 향한 끌림이 있음을 인정합니다. 98 00:03:37,418 --> 00:03:38,979 여러분들도 우리 대 그들 사이에 99 00:03:38,979 --> 00:03:40,954 구별을 합니다. 100 00:03:40,954 --> 00:03:43,557 자, 이런 구별은 자연스러워서 101 00:03:43,557 --> 00:03:46,481 때로는 충분히 도의적이지만 빗나갈 수 있습니다. 102 00:03:46,481 --> 00:03:48,210 이것은 위대한 사회 심리학자 103 00:03:48,210 --> 00:03:50,969 헨리 타지펠이 한 연구였습니다. 104 00:03:50,969 --> 00:03:53,574 타지펠은 1919년 폴란드에서 태어났고 105 00:03:53,574 --> 00:03:55,713 프랑스에서 대학을 다녔습니다. 106 00:03:55,713 --> 00:03:58,268 그는 유태인이었기 때문에 폴란드에서 대학을 갈 수 없었죠. 107 00:03:58,268 --> 00:04:00,778 그뒤에 2차 대전 중에 108 00:04:00,778 --> 00:04:02,061 프랑스 육군에 입대했습니다. 109 00:04:02,061 --> 00:04:03,830 그는 잡혀서 110 00:04:03,830 --> 00:04:05,361 전쟁포로수용소로 끌려갔죠. 111 00:04:05,361 --> 00:04:07,628 그에게는 끔찍한 시기였는데 112 00:04:07,628 --> 00:04:09,316 그가 유태인이라는 사실이 발각되었다면 113 00:04:09,316 --> 00:04:11,408 강제 수용소로 끌려가 114 00:04:11,408 --> 00:04:13,400 살아남지 못했을 지도 모릅니다. 115 00:04:13,400 --> 00:04:15,987 사실 전쟁이 끝나고 그가 풀려났을 때 116 00:04:15,987 --> 00:04:18,492 그의 친구와 가족 대부분은 사망했습니다. 117 00:04:18,492 --> 00:04:20,329 그는 다양한 일을 했어요. 118 00:04:20,329 --> 00:04:21,860 전쟁 고아를 도왔습니다. 119 00:04:21,860 --> 00:04:23,591 하지만 그는 편견의 과학에 120 00:04:23,591 --> 00:04:25,136 지속적인 관심이 있었습니다. 121 00:04:25,136 --> 00:04:27,796 그래서 고정관념에 대한 122 00:04:27,796 --> 00:04:29,641 유명한 영국 장학금을 받을 기회가 왔을 때 123 00:04:29,641 --> 00:04:30,998 그는 응모를 해서 합격했습니다. 124 00:04:30,998 --> 00:04:33,188 그뒤 이렇게 놀라운 경력을 쌓기 시작했죠. 125 00:04:33,188 --> 00:04:35,937 그의 경력이 시작된 계기는 통찰력인데 126 00:04:35,937 --> 00:04:37,777 대부분의 사람들이 유태인학살을 127 00:04:37,777 --> 00:04:39,893 잘못이라고 생각하는 방식을 꿰뚫어봤습니다. 128 00:04:39,893 --> 00:04:42,299 많은 사람들, 그 당시 대부분의 사람들이 129 00:04:42,299 --> 00:04:44,200 유태인학살이 130 00:04:44,200 --> 00:04:47,204 독일 사람들의 비극적인 결함, 131 00:04:47,204 --> 00:04:51,038 어떤 유전적인 오점, 독재적인 성향을 대표한다고 봤습니다. 132 00:04:51,038 --> 00:04:53,096 타지펠을 이런 논점에 반대했습니다. 133 00:04:53,096 --> 00:04:55,639 타지펠은 유태인학살에서 우리가 본 것은 134 00:04:55,639 --> 00:04:57,950 모든 사람들 안에 있는 135 00:04:57,950 --> 00:04:59,728 보통의 심리 과정이 136 00:04:59,728 --> 00:05:01,489 과장된 형태일 뿐이라고 말했습니다. 137 00:05:01,489 --> 00:05:04,174 이걸 탐구하기 위해서 그는 138 00:05:04,174 --> 00:05:05,918 영국의 청소년들을 대상으로 일련의 연구를 했습니다. 139 00:05:05,918 --> 00:05:07,467 그가 한 연구에서, 그가 한 일은 140 00:05:07,467 --> 00:05:10,019 영국의 청소년들에게 다양한 질문을 던진 뒤 141 00:05:10,019 --> 00:05:11,903 그들이 한 답변을 바탕으로 그가 말했습니다. 142 00:05:11,903 --> 00:05:14,260 "저는 당신의 답변을 봤고 그 답변에 근거해서 143 00:05:14,260 --> 00:05:16,357 당신은 이렇다고 결론내렸습니다." 144 00:05:16,357 --> 00:05:17,363 그는 절반의 사람들에게 말했죠. 145 00:05:17,363 --> 00:05:20,320 "칸딘스키 애호가, 당신은 칸딘스키 작품을 좋아합니다. 146 00:05:20,320 --> 00:05:23,298 또는 클리 애호가, 당신은 클리 작품을 좋아합니다." 147 00:05:23,298 --> 00:05:25,114 그건 완전히 거짓이었습니다. 148 00:05:25,114 --> 00:05:27,404 그들이 한 답변은 칸딘스키나 클리와는 아무런 상관이 없었어요. 149 00:05:27,404 --> 00:05:30,132 그들은 화가를 알지도 못했을 겁니다. 150 00:05:30,132 --> 00:05:32,872 그는 임의로 청소년들을 나눴습니다. 151 00:05:32,872 --> 00:05:36,143 그가 알아낸 사실은 이런 구분이 상관이 있다는 거에요. 152 00:05:36,143 --> 00:05:38,654 나중에 그가 실험에 참여한 사람들한테 돈을 줬는데 153 00:05:38,654 --> 00:05:40,330 그들은 다른 그룹의 사람들보다는 154 00:05:40,330 --> 00:05:42,130 자기가 속한 그룹의 155 00:05:42,130 --> 00:05:43,963 사람들한테 돈을 주려고 했습니다. 156 00:05:43,963 --> 00:05:46,290 더 심한 것은 그들이 157 00:05:46,290 --> 00:05:48,296 자기 그룹과 다른 그룹 사이에서 158 00:05:48,296 --> 00:05:50,862 차이점을 찾는데 관심을 더 가졌다는 사실이죠. 159 00:05:50,862 --> 00:05:52,770 그래서 자기 그룹을 위해서 돈을 내놓고 160 00:05:52,770 --> 00:05:58,018 그렇게 함으로써 다른 그룹한테 적게 주는거죠. 161 00:05:58,018 --> 00:06:00,236 이런 편향은 아주 일찍 드러납니다. 162 00:06:00,236 --> 00:06:02,536 제 동료이자 아내인 카렌 윈은 예일 대학에서 163 00:06:02,536 --> 00:06:04,147 아기들을 대상으로 여러 실험을 했습니다. 164 00:06:04,147 --> 00:06:06,979 아기들한테 인형을 보여주는데 165 00:06:06,979 --> 00:06:09,244 인형은 기호식품을 가집니다. 166 00:06:09,244 --> 00:06:11,426 그래서 어떤 인형은 깍지 콩을 좋아하고 167 00:06:11,426 --> 00:06:14,001 다른 인형은 그레엄 크래커를 좋아합니다. 168 00:06:14,001 --> 00:06:16,370 그들은 아기들의 기호식품을 조사했는데 169 00:06:16,370 --> 00:06:19,060 아기들은 보통 그레엄 크래커를 좋아합니다. 170 00:06:19,060 --> 00:06:21,672 하지만 질문은 이런 사실이 아기가 인형을 대하는 데 171 00:06:21,672 --> 00:06:24,788 어떤 상관이 있나요? 상관이 많죠. 172 00:06:24,788 --> 00:06:26,307 아기들은 자기와 똑같은 식성을 가진 173 00:06:26,307 --> 00:06:29,786 인형을 더 좋아합니다. 174 00:06:29,786 --> 00:06:32,342 심하게는 인형이 식성이 다른 인형을 175 00:06:32,342 --> 00:06:35,327 벌주는 것을 선호합니다. 176 00:06:35,327 --> 00:06:37,604 (웃음) 177 00:06:37,604 --> 00:06:41,236 우리는 이런 종류의 내집단, 외집단 심리를 늘 봅니다. 178 00:06:41,236 --> 00:06:42,900 우리는 다른 이념을 가진 179 00:06:42,900 --> 00:06:45,314 그룹들 안에서 일어나는 정치적 갈등에서 이것을 봅니다. 180 00:06:45,314 --> 00:06:48,940 우리는 전쟁이라는 극단적 경우에서 이것을 봅니다. 181 00:06:48,940 --> 00:06:52,157 이 경우 외집단은 그저 적게 받는 게 아니라 182 00:06:52,157 --> 00:06:53,745 인간성이 말살됩니다. 183 00:06:53,745 --> 00:06:55,985 나치가 유태인을 184 00:06:55,985 --> 00:06:58,070 해충이나 이로 볼 때 185 00:06:58,070 --> 00:07:02,306 또는 미국인이 일본인을 쥐로 보는 것처럼요. 186 00:07:02,306 --> 00:07:04,520 고정관념도 빗나갈 수 있습니다. 187 00:07:04,520 --> 00:07:06,781 때로는 이성적이고 유용하지만 188 00:07:06,781 --> 00:07:08,355 때로는 비이성적이고 189 00:07:08,355 --> 00:07:09,581 틀린 답을 주며 190 00:07:09,581 --> 00:07:10,798 다른 때는 191 00:07:10,798 --> 00:07:12,973 비도덕적인 결과로 이끕니다. 192 00:07:12,973 --> 00:07:15,781 가장 많은 연구가 된 경우가 193 00:07:15,781 --> 00:07:17,448 인종을 대상으로 했습니다. 194 00:07:17,448 --> 00:07:18,855 2008년 선거에 앞서 195 00:07:18,855 --> 00:07:20,929 흥미로운 연구가 있었는데 196 00:07:20,929 --> 00:07:23,955 사회 심리학자들은 197 00:07:23,955 --> 00:07:27,397 어느 후보가 미국과 연관성이 있는지 살폈습니다. 198 00:07:27,397 --> 00:07:31,002 미국 국기와 무의식적으로 연관을 짓는 것처럼요. 199 00:07:31,002 --> 00:07:32,358 그들이 한 연구에서 200 00:07:32,358 --> 00:07:34,372 오바마와 멕케인을 비교했는데 201 00:07:34,372 --> 00:07:37,766 멕케인이 오바마보다 더 미국인처럼 생각되었고 202 00:07:37,766 --> 00:07:40,339 일부 사람들은 그걸 듣고도 놀라지 않았습니다. 203 00:07:40,339 --> 00:07:42,257 맥케인은 유명한 전쟁 영웅이고 204 00:07:42,257 --> 00:07:43,916 많은 사람들이 분명하게 205 00:07:43,916 --> 00:07:46,616 그가 오바마보다 더 많은 미국의 이야기를 갖고 있다고 말합니다. 206 00:07:46,616 --> 00:07:48,553 하지만 그들이 오바마와 207 00:07:48,553 --> 00:07:51,069 영국 수상 토니 블레어를 비교했을 때는 208 00:07:51,069 --> 00:07:53,330 블레어를 오바마보다 더 미국인처럼 209 00:07:53,330 --> 00:07:55,837 생각한다는 걸 발견했습니다. 210 00:07:55,837 --> 00:07:57,910 실험대상자들이 토니 블레어가 211 00:07:57,910 --> 00:08:00,900 미국인이 아님을 확실하게 알고 있음에도 불구하고요. 212 00:08:00,900 --> 00:08:02,324 그들은 당연히 213 00:08:02,324 --> 00:08:05,375 피부색에 반응했습니다. 214 00:08:05,375 --> 00:08:07,426 이런 고정관념과 편향은 215 00:08:07,426 --> 00:08:08,876 실세계에서 216 00:08:08,876 --> 00:08:11,748 미묘하면서 아주 중요한 결과를 가져옵니다. 217 00:08:11,748 --> 00:08:14,410 최근의 한 연구에서 연구원들은 218 00:08:14,410 --> 00:08:17,679 야구카드 판매를 위한 광고를 이베이(eBay)에 올렸습니다. 219 00:08:17,679 --> 00:08:20,413 어떤 카드는 흰 손으로 들고 220 00:08:20,413 --> 00:08:21,631 어떤 카드는 검은 손으로 들었죠. 221 00:08:21,631 --> 00:08:23,210 똑같은 야구 카드였습니다. 222 00:08:23,210 --> 00:08:24,454 검은 손으로 든 카드는 223 00:08:24,454 --> 00:08:26,521 흰 손으로 든 카드보다 224 00:08:26,521 --> 00:08:29,005 입찰한 수가 상당히 적었습니다. 225 00:08:29,005 --> 00:08:31,367 스탠포드 대학에서 한 연구에서 226 00:08:31,367 --> 00:08:35,597 심리학자들은 백인을 죽인 사람들이 227 00:08:35,597 --> 00:08:39,166 받은 판결에 대해 연구했습니다. 228 00:08:39,166 --> 00:08:41,970 다른 모든 조건이 똑같을 때 229 00:08:41,970 --> 00:08:44,340 오른쪽에 있는 남자가 230 00:08:44,340 --> 00:08:46,117 왼쪽에 있는 남자보다 231 00:08:46,117 --> 00:08:48,090 사형을 받는 확율이 컸습니다. 232 00:08:48,090 --> 00:08:50,119 이는 대체로 233 00:08:50,119 --> 00:08:52,653 오른쪽에 있는 남자가 원형적으로 더 흑인에 가깝게 보이고 234 00:08:52,653 --> 00:08:55,283 원형적으로 더 아프리카계 미국인처럼 보이기 때문에 235 00:08:55,283 --> 00:08:57,332 사람들이 그에 관한 판단을 내릴 때 236 00:08:57,332 --> 00:08:59,103 이러한 사실이 분명한 영향을 미칩니다. 237 00:08:59,103 --> 00:09:00,650 이제 우리는 이러한 사실을 아는데 238 00:09:00,650 --> 00:09:02,307 어떻게 극복해야 할까요? 239 00:09:02,307 --> 00:09:03,929 다양한 곳이 있습니다. 240 00:09:03,929 --> 00:09:05,363 한 가지 방법은 241 00:09:05,363 --> 00:09:07,409 사람들의 감정적 반응이나 242 00:09:07,409 --> 00:09:09,542 사람들의 공감대에 호소하는 것입니다. 243 00:09:09,542 --> 00:09:11,415 우리는 종종 이야기를 통해 그렇게 합니다. 244 00:09:11,415 --> 00:09:13,980 여러분이 진보적인 부모이고 245 00:09:13,980 --> 00:09:15,852 자식들에게 비전통적인 가족들이 246 00:09:15,852 --> 00:09:18,226 갖는 장점을 믿게 하고 싶다면 247 00:09:18,226 --> 00:09:20,499 자식들에게 이런 책을 권할 수도 있죠. ["헤더는 엄마가 둘이에요."] 248 00:09:20,499 --> 00:09:22,225 여러분이 보수적이고 다른 태도를 가졌다면 249 00:09:22,225 --> 00:09:24,156 자식들에게 이런 책을 줄 수 있죠. 250 00:09:24,156 --> 00:09:25,905 (웃음) ["도와줘요! 엄마! 제 침대밑에 진보주의자가 있어요."] 251 00:09:25,905 --> 00:09:29,241 하지만 일반적으로 이야기는 252 00:09:29,241 --> 00:09:31,473 이름도 모르는 낯선 사람을 우리와 상관있는 사람으로 바꿀 수 있습니다. 253 00:09:31,473 --> 00:09:34,158 우리가 사람들을 개인으로서 초점을 맞출 때 254 00:09:34,158 --> 00:09:35,860 그들한테 관심을 가지게 하는 아이디어는 255 00:09:35,860 --> 00:09:38,139 역사에서 보여줬던 아이디어입니다. 256 00:09:38,139 --> 00:09:40,722 스탈린이 출처가 불분명한 이런 말을 했습니다. 257 00:09:40,722 --> 00:09:42,339 "한 사람의 죽음은 비극이고, 258 00:09:42,339 --> 00:09:44,379 백만의 죽음은 통계이다." 259 00:09:44,379 --> 00:09:45,830 테레사 수녀는 이렇게 말했어요. 260 00:09:45,830 --> 00:09:47,371 "군중을 보면 저는 행동하지 않을 겁니다." 261 00:09:47,371 --> 00:09:49,696 한 사람을 보면 저는 행동할 겁니다. 262 00:09:49,696 --> 00:09:51,766 심리학자들이 이런 부분을 연구했습니다. 263 00:09:51,766 --> 00:09:53,067 예를 들면 한 연구에서 264 00:09:53,067 --> 00:09:55,850 사람들에게 위기에 대한 여러 사실을 알렸습니다. 265 00:09:55,850 --> 00:10:00,106 이런 위기를 극복하기 위해서 266 00:10:00,106 --> 00:10:01,690 사람들이 얼마나 많이 기부하는지를 살폈죠. 267 00:10:01,690 --> 00:10:03,527 다른 그룹은 사실에 대한 정보는 전혀 주지 않고 268 00:10:03,527 --> 00:10:05,625 한 사람에 대해 얘기해주고 269 00:10:05,625 --> 00:10:08,065 그 사람의 이름과 얼굴을 알려줬습니다. 270 00:10:08,065 --> 00:10:11,284 그랬더니 훨씬 더 기부를 많이 했어요. 271 00:10:11,284 --> 00:10:13,145 자선활동과 관련된 분들은 272 00:10:13,145 --> 00:10:15,256 이런 사실을 잘 아시겠죠. 273 00:10:15,256 --> 00:10:17,904 사람들은 사실과 통계로 274 00:10:17,904 --> 00:10:19,227 퍼붓고 싶어하지 않습니다. 275 00:10:19,227 --> 00:10:20,249 오히려 얼굴을 보여주고 276 00:10:20,249 --> 00:10:21,985 사람들을 보여줍니다. 277 00:10:21,985 --> 00:10:25,212 우리의 동정심을 278 00:10:25,212 --> 00:10:27,183 개인에게 확장함으로써 279 00:10:27,183 --> 00:10:30,061 개인이 속한 그룹으로 확산할 수 있습니다. 280 00:10:30,061 --> 00:10:32,527 이분은 해리엇 비쳐 스토입니다. 281 00:10:32,527 --> 00:10:34,970 출처가 불분명한 이야기인데 282 00:10:34,970 --> 00:10:37,044 링컨 대통령이 남북전쟁이 한창일 때 283 00:10:37,044 --> 00:10:39,042 그녀를 백악관으로 초대해서 284 00:10:39,042 --> 00:10:40,626 이렇게 말했습니다. 285 00:10:40,626 --> 00:10:43,290 "이렇게 엄청난 전쟁을 시작한 분이 바로 당신이군요." 286 00:10:43,290 --> 00:10:45,175 그는 "톰 아저씨의 오두막집"을 얘기하고 있었습니다. 287 00:10:45,175 --> 00:10:47,706 "톰 아저씨의 오두막집"은 철학이나 288 00:10:47,706 --> 00:10:50,850 신학이나 문학에 관한 훌륭한 책이 아니지만 289 00:10:50,850 --> 00:10:53,365 큰 역할을 했습니다. 290 00:10:53,365 --> 00:10:55,863 사람들에게 291 00:10:55,863 --> 00:10:58,196 다른 사람의 입장에 서보게 했는데 292 00:10:58,196 --> 00:11:00,598 노예 입장에서 생각해보게 했습니다. 293 00:11:00,598 --> 00:11:02,379 그것은 엄청난 사회 변화의 294 00:11:02,379 --> 00:11:03,983 기폭제가 될 수도 있었습니다. 295 00:11:03,983 --> 00:11:06,345 최근에 미국을 보면 296 00:11:06,345 --> 00:11:09,414 지난 수십년동안 297 00:11:09,414 --> 00:11:12,563 "코스비 가족"과 같은 쇼가 아프리카계 미국인들을 향한 298 00:11:12,563 --> 00:11:15,251 미국인들의 태도를 바꾸게 했다고 믿을만한 이유가 있습니다. 299 00:11:15,251 --> 00:11:18,234 "윌과 그레이스"와 "모던 패밀리" 와 같은 쇼는 300 00:11:18,234 --> 00:11:19,597 동성애 남자와 여자를 향한 301 00:11:19,597 --> 00:11:20,897 미국인들의 태도를 바꿨습니다. 302 00:11:20,897 --> 00:11:23,352 미국인의 도덕적 변화에 중요한 기폭제는 303 00:11:23,352 --> 00:11:26,013 상황극이라고 말해도 304 00:11:26,013 --> 00:11:28,906 과언이 아닙니다. 305 00:11:28,906 --> 00:11:30,322 하지만 감정이 다는 아닙니다. 306 00:11:30,322 --> 00:11:31,598 저는 이성의 힘에 호소하며 307 00:11:31,598 --> 00:11:33,833 이야기를 끝내고 싶습니다. 308 00:11:33,833 --> 00:11:35,989 그가 쓴 훌륭한 책인 309 00:11:35,989 --> 00:11:37,212 "우리 본성의 더 나은 천사들" 의 한 부분에서 310 00:11:37,212 --> 00:11:39,228 스티븐 핑커가 말했습니다. 311 00:11:39,228 --> 00:11:41,810 구약 성서는 이웃을 사랑하라고 말하고 312 00:11:41,810 --> 00:11:44,532 신약 성서는 적을 사랑하라고 말하죠. 313 00:11:44,532 --> 00:11:47,218 저는 그 어느 쪽도 사랑하지 않습니다. 314 00:11:47,218 --> 00:11:48,885 하지만 그들을 죽이고 싶지도 않아요. 315 00:11:48,885 --> 00:11:50,751 저는 그들에 대한 의무가 있음을 알지만 316 00:11:50,751 --> 00:11:54,221 제가 그들에게 어떤 행동을 해야 하는지에 대한 317 00:11:54,221 --> 00:11:55,934 도덕적 느낌이나 도덕적 믿음은 318 00:11:55,934 --> 00:11:57,981 사랑을 바탕으로 하지 않습니다. 319 00:11:57,981 --> 00:11:59,920 바탕을 두고 있는 것은 인권에 대한 이해, 320 00:11:59,920 --> 00:12:02,143 제 생명이 저한테 값진 것처럼 321 00:12:02,143 --> 00:12:04,499 그들의 생명도 그들에게는 값진 것이란 믿음입니다. 322 00:12:04,499 --> 00:12:06,431 이를 뒷받침하기 위해 그는 323 00:12:06,431 --> 00:12:08,279 위대한 철학자 아담 스미스가 한 이야기를 들려줍니다. 324 00:12:08,279 --> 00:12:09,965 저도 이 얘기를 말씀드리고 싶어요. 325 00:12:09,965 --> 00:12:11,261 현대에 맞게 조금 326 00:12:11,261 --> 00:12:12,939 고쳐서 말씀드릴게요. 327 00:12:12,939 --> 00:12:14,840 아담 스미스는 이렇게 묻습니다. 328 00:12:14,840 --> 00:12:16,741 수천 명의 사람들이 죽는 것을 상상하라구요. 329 00:12:16,741 --> 00:12:18,781 그 수천 명의 사람들이 330 00:12:18,781 --> 00:12:21,020 여러분이 익숙하지 않은 나라의 사람이라고 상상해보세요. 331 00:12:21,020 --> 00:12:24,574 중국, 인도, 아프리카의 한 나라가 될 수 있겠죠. 332 00:12:24,574 --> 00:12:27,058 스미스가 말합니다. 여러분은 어떻게 반응하겠습니까? 333 00:12:27,058 --> 00:12:29,365 여러분은 너무 안 되었다고 얘기하겠죠. 334 00:12:29,365 --> 00:12:31,241 그리고는 자기 할 일을 할 겁니다. 335 00:12:31,241 --> 00:12:33,460 여러분이 온라인으로 뉴욕 타임즈를 보고 336 00:12:33,460 --> 00:12:36,420 이런 사실을 알게 된다면, 사실 이런 일은 늘 일어납니다. 337 00:12:36,420 --> 00:12:37,941 우리는 생활을 계속 합니다. 338 00:12:37,941 --> 00:12:40,135 하지만 스미스가 이렇게 상상해보라고 말합니다. 339 00:12:40,135 --> 00:12:41,389 여러분은 내일 340 00:12:41,389 --> 00:12:43,928 새끼 손가락이 잘릴 것을 알게 됩니다. 341 00:12:43,928 --> 00:12:46,097 그건 크게 상관있는 일이 될거라고 스미스가 말합니다. 342 00:12:46,097 --> 00:12:47,508 여러분은 그걸 걱정하며 343 00:12:47,508 --> 00:12:48,861 그날밤 잠을 못 이루겠죠. 344 00:12:48,861 --> 00:12:50,880 그래서 이런 데서 질문이 생깁니다. 345 00:12:50,880 --> 00:12:53,346 여러분은 수천 명의 목숨을 희생해서 346 00:12:53,346 --> 00:12:55,315 자기의 새끼 손가락을 구하겠습니까? 347 00:12:55,315 --> 00:12:57,633 이제 여러분 머릿 속에서 이 질문에 답변해주세요. 348 00:12:57,633 --> 00:13:00,552 스미스는 절대 그럴 수 없다고 얘기합니다. 349 00:13:00,552 --> 00:13:02,244 얼마나 무서운 생각입니까. 350 00:13:02,244 --> 00:13:04,275 그래서 이런 질문이 나오는데 351 00:13:04,275 --> 00:13:05,649 스미스는 이렇게 설명하죠. 352 00:13:05,649 --> 00:13:07,867 우리의 수동적인 감정은 거의 항상 353 00:13:07,867 --> 00:13:09,315 아주 비열하고 너무 이기적인데, 354 00:13:09,315 --> 00:13:10,780 어떻게 해서 우리의 능동적인 원칙은 355 00:13:10,780 --> 00:13:13,313 종종 그렇게 아주 너그럽고 아주 훌륭할 수 있습니까? 356 00:13:13,313 --> 00:13:15,363 스미스가 답합니다. "그것은 이성, 357 00:13:15,363 --> 00:13:17,138 원칙, 양심입니다. 358 00:13:17,138 --> 00:13:18,679 이게 우리에게 얘기합니다. 359 00:13:18,679 --> 00:13:22,104 놀랍고도 아주 뻔번하게 우리의 정열을 다한 목소리로 360 00:13:22,104 --> 00:13:23,781 우리는 다수 중의 하나이고 361 00:13:23,781 --> 00:13:26,222 그 중의 누구도 더 존경받지는 않는다고 말합니다. 362 00:13:26,222 --> 00:13:28,347 마지막 부분은 종종 363 00:13:28,347 --> 00:13:31,555 공평성의 원칙으로 설명됩니다. 364 00:13:31,555 --> 00:13:34,184 공평성의 원칙은 365 00:13:34,184 --> 00:13:35,931 세계의 모든 종교에서 나타나고, 366 00:13:35,951 --> 00:13:38,209 다양한 형태의 금언으로 나타나며, 367 00:13:38,209 --> 00:13:40,663 세계의 모든 도덕 철학에 나타나는데 368 00:13:40,663 --> 00:13:41,970 여러 면에서 차이가 나지만 369 00:13:41,970 --> 00:13:44,964 공평한 시점에서 370 00:13:44,964 --> 00:13:47,949 도덕성을 판단해야 한다는 전제 조건을 공유합니다. 371 00:13:47,949 --> 00:13:49,771 이런 시각을 가장 잘 표현한 것은 372 00:13:49,771 --> 00:13:52,856 제가 생각하기에는 신학자도 아니고 철학자도 아닌 373 00:13:52,856 --> 00:13:54,213 험프리 보가트가 374 00:13:54,213 --> 00:13:55,760 "카스클랑카"의 마지막에 한 말입니다. 375 00:13:55,760 --> 00:13:59,536 스포일러가 될 수도 있는데 그가 연인에게 말합니다. 376 00:13:59,536 --> 00:14:00,676 공공의 이익을 위해서 377 00:14:00,676 --> 00:14:02,269 그들이 헤어져야 한다구요. 378 00:14:02,269 --> 00:14:04,133 그가 여자에게 말합니다. 말투를 흉내내지는 않겠습니다. 379 00:14:04,133 --> 00:14:05,915 그가 그녀에게 말합니다. 380 00:14:05,915 --> 00:14:07,274 세 사람의 문제가 이렇게 미친 세상에서는 381 00:14:07,274 --> 00:14:10,385 전혀 중요하지 않음을 깨닫는데 오랜 시간이 걸리진 않을거요. 382 00:14:10,385 --> 00:14:13,665 우리의 이성은 우리의 정열을 무효화시킬 수 있습니다. 383 00:14:13,665 --> 00:14:15,381 우리의 이성은 384 00:14:15,381 --> 00:14:16,602 공감대를 넓힐 수 있게 하고 385 00:14:16,602 --> 00:14:18,929 "톰 아저씨의 오두막"과 같은 책을 쓸 수 있게 하거나, 386 00:14:18,929 --> 00:14:20,652 "톰 아저씨의 오두막"과 같은 책을 읽게 합니다. 387 00:14:20,652 --> 00:14:23,346 우리의 이성은 388 00:14:23,346 --> 00:14:25,308 충동에 따라 389 00:14:25,308 --> 00:14:27,118 행동하지 않도록 390 00:14:27,118 --> 00:14:28,794 관습, 금기사항, 법을 만들 수 있게 합니다. 391 00:14:28,794 --> 00:14:30,383 이성적인 존재로서 392 00:14:30,383 --> 00:14:31,778 우리가 자제해야 한다고 느낄 때를 위해서죠. 393 00:14:31,778 --> 00:14:33,791 그것이 헌법입니다. 394 00:14:33,791 --> 00:14:36,712 헌법은 과거에 만들어져서 395 00:14:36,712 --> 00:14:38,019 지금도 적용됩니다. 396 00:14:38,019 --> 00:14:39,004 헌법은 이렇게 말합니다. 397 00:14:39,004 --> 00:14:41,231 인기가 많은 대통령을 398 00:14:41,231 --> 00:14:43,834 세 번씩이나 다시 뽑는다고 해도, 399 00:14:43,834 --> 00:14:45,929 백인들이 노예 제도를 얼마나 400 00:14:45,929 --> 00:14:49,997 되돌려놓고 싶어하더라도 그렇게 할 수 없습니다. 401 00:14:49,997 --> 00:14:51,673 우리는 스스로 얽매어 있습니다. 402 00:14:51,673 --> 00:14:54,090 우리는 다른 방법으로도 스스로를 묶어놨습니다. 403 00:14:54,090 --> 00:14:56,848 일자리나 상을 주기 위해서 404 00:14:56,848 --> 00:14:59,799 누구를 골라야 할 때 405 00:14:59,799 --> 00:15:02,757 우리는 인종에 대해 아주 편형적임을 알고 있습니다. 406 00:15:02,757 --> 00:15:05,053 우리는 성별에도 편향성을 가집니다. 407 00:15:05,053 --> 00:15:07,268 우리는 그들이 얼마나 매력이 있는지에 대해서도 편향성을 가집니다. 408 00:15:07,268 --> 00:15:09,919 때때로 우리는 이렇게 말합니다. "좋아, 그렇게 하는 거지." 409 00:15:09,919 --> 00:15:12,226 하지만 때로는 이렇게 말합니다. "이건 잘못됐어." 410 00:15:12,226 --> 00:15:14,115 이걸 극복하기 위해서 411 00:15:14,115 --> 00:15:16,366 우리는 노력만 더하는 게 아니라 412 00:15:16,366 --> 00:15:19,367 상황을 설정합니다. 413 00:15:19,367 --> 00:15:22,406 다른 정보가 우리를 편향되게 하지 않는 상황을 만드는 거죠. 414 00:15:22,406 --> 00:15:23,721 그런 까닭으로 많은 교향악단이 415 00:15:23,721 --> 00:15:26,366 음악가를 막 뒤에서 오디션합니다. 416 00:15:26,366 --> 00:15:27,610 그래서 그들이 얻는 정보는 417 00:15:27,610 --> 00:15:30,303 관련된 정보 뿐입니다. 418 00:15:30,303 --> 00:15:32,626 저는 편견과 편향이 419 00:15:32,626 --> 00:15:35,720 인간 본성의 기본적인 이중성을 잘 보여준다고 생각합니다. 420 00:15:35,720 --> 00:15:39,496 우리는 직감, 본능, 감정을 갖고 있고 421 00:15:39,496 --> 00:15:41,657 그것들은 좋게 나쁘게 422 00:15:41,657 --> 00:15:43,988 우리의 판단과 행동에 영향을 미칩니다. 423 00:15:43,988 --> 00:15:47,610 하지만 우리는 이성적으로 신중할 수 있고 424 00:15:47,610 --> 00:15:49,045 똑똑하게 계획을 세울 줄 압니다. 425 00:15:49,045 --> 00:15:51,862 우리는 이런 것들을 사용해서 어떤 경우에는 426 00:15:51,862 --> 00:15:53,805 우리의 감정을 증폭하거나 더 키우고 427 00:15:53,805 --> 00:15:56,573 다른 경우엔 감정을 막습니다. 428 00:15:56,573 --> 00:15:57,807 이런 식으로 429 00:15:57,807 --> 00:16:00,574 이성은 우리가 더 나은 세상을 만들게 도와줍니다. 430 00:16:00,574 --> 00:16:02,918 고맙습니다. 431 00:16:02,918 --> 00:16:06,623 (박수)