0:00:00.000,0:00:03.138 ♪ (música) ♪ 0:00:03.394,0:00:05.633 - [Narradora] Bienvenidos[br]a Nobel Conversations. 0:00:06.992,0:00:10.093 En este episodio,[br]Josh Angrist y Guido Imbens 0:00:10.093,0:00:13.366 se reúnen con Isaiah Andrews[br]para discutir y discrepar 0:00:13.366,0:00:15.221 sobre el papel[br]del aprendizaje automático 0:00:15.221,0:00:16.816 en la econometría aplicada. 0:00:17.894,0:00:19.896 - [Isaiah] Bien. Por supuesto[br]que hay muchos temas 0:00:19.896,0:00:21.465 en los que ustedes[br]están muy de acuerdo, 0:00:21.465,0:00:22.595 pero me gustaría pasar a uno 0:00:22.595,0:00:24.365 sobre el que tal vez[br]opinen algo distinto. 0:00:24.365,0:00:26.103 Me gustaría escuchar[br]algunas de sus opiniones 0:00:26.103,0:00:27.319 sobre el aprendizaje automático 0:00:27.319,0:00:30.257 y el papel que desempeña[br]y desempeñará en la economía. 0:00:30.257,0:00:31.858 - [Guido] He consultado[br]algunos datos, 0:00:31.858,0:00:33.349 como los datos privados. 0:00:33.349,0:00:35.306 Vemos que no hay[br]ningún documento publicado allí. 0:00:35.975,0:00:39.426 Se hizo un experimento[br]sobre algún algoritmo de búsqueda 0:00:39.426,0:00:41.081 y la cuestión era... 0:00:42.581,0:00:45.492 se trataba de clasificar cosas[br]y cambiar la clasificación. 0:00:45.990,0:00:47.163 Y estaba más o menos claro 0:00:47.163,0:00:50.271 que iba a haber[br]mucha heterogeneidad. 0:00:51.117,0:00:55.864 Si buscas, digamos, 0:00:58.122,0:01:00.640 una foto de Britney Spears, 0:01:00.640,0:01:02.505 realmente no importa[br]dónde la clasifiques 0:01:02.505,0:01:05.214 porque vas a encontrar[br]lo que estás buscando, 0:01:05.736,0:01:07.058 ya sea que la clasifiques 0:01:07.058,0:01:09.744 en primera, segunda[br]o tercera posición. 0:01:10.027,0:01:12.346 Pero si estás buscando[br]el mejor libro de econometría, 0:01:12.346,0:01:16.510 si pones tu libro en primer lugar[br]o en el décimo, 0:01:16.510,0:01:18.140 eso va a suponer[br]una gran diferencia 0:01:18.140,0:01:19.835 en la frecuencia 0:01:19.835,0:01:21.286 con la que la gente[br]hará clic en él. 0:01:22.089,0:01:23.312 Así que ahí-- 0:01:23.312,0:01:24.326 [Josh] ¿Por qué necesito 0:01:24.326,0:01:27.314 el aprendizaje automático[br]para descubrir eso? 0:01:27.314,0:01:29.463 Porque parece que puedo descubrirlo[br]de forma sencilla. 0:01:29.463,0:01:30.517 - [Guido] En general-- 0:01:30.517,0:01:32.233 - [Josh] Había[br]un montón de posibles-- 0:01:32.233,0:01:34.233 - [Guido]...quieres pensar[br]que los artículos 0:01:34.233,0:01:37.092 tienen montón de características, 0:01:37.092,0:01:38.940 que quieres entender 0:01:38.940,0:01:43.650 lo que impulsa la heterogeneidad[br]en el efecto de-- 0:01:43.669,0:01:44.876 - Pero solo estás prediciendo. 0:01:44.876,0:01:46.057 En cierto sentido, 0:01:46.057,0:01:47.793 estás resolviendo[br]un problema de marketing. 0:01:47.793,0:01:49.210 - No, es un efecto causal, 0:01:49.210,0:01:51.738 - Es causal, pero no tiene[br]contenido científico. 0:01:51.738,0:01:52.809 Piensa en-- 0:01:53.669,0:01:57.243 - No, pero hay cosas similares[br]en el ámbito médico. 0:01:57.693,0:01:59.312 Si haces un experimento, 0:01:59.312,0:02:02.492 puedes estar muy interesado[br]en si el tratamiento funciona 0:02:02.492,0:02:03.821 para algunos grupos o no. 0:02:03.821,0:02:05.946 Y tienes un montón[br]de características individuales, 0:02:05.946,0:02:08.109 y quieres buscar sistemáticamente-- 0:02:08.109,0:02:09.883 - Sí. Tengo mis dudas sobre esa... 0:02:09.883,0:02:12.588 esa especie de idea de que hay[br]un efecto causal personal 0:02:12.588,0:02:13.902 que me debería importar 0:02:13.902,0:02:15.164 y que el aprendizaje automático 0:02:15.164,0:02:17.103 puede descubrirlo[br]de alguna manera que sea útil. 0:02:17.517,0:02:18.678 Así que piensa en-- 0:02:18.678,0:02:20.182 he trabajado mucho en las escuelas, 0:02:20.182,0:02:22.358 yendo a, digamos,[br]una escuela chárter, 0:02:22.358,0:02:24.498 una escuela privada[br]financiada con fondos públicos, 0:02:24.780,0:02:27.392 efectivamente,[br]que es libre de estructurar 0:02:27.392,0:02:29.587 su propio plan de estudios[br]en función del contexto. 0:02:29.587,0:02:30.938 Algunos tipos de escuelas chárter 0:02:30.938,0:02:33.379 consiguen[br]un rendimiento espectacular 0:02:33.379,0:02:36.321 y en el conjunto de datos[br]que produce ese resultado, 0:02:36.321,0:02:37.968 tengo un montón de covariables. 0:02:37.968,0:02:39.584 Tengo[br]las puntuaciones de referencia 0:02:39.584,0:02:41.321 y los antecedentes familiares, 0:02:41.321,0:02:45.524 la educación de los padres,[br]el sexo del niño, la raza del niño. 0:02:46.060,0:02:49.758 Y, bueno, en cuanto reúno[br]media docena de ellas, 0:02:49.758,0:02:51.751 tengo un espacio[br]de muy alta dimensión. 0:02:52.391,0:02:55.394 Sin duda, me interesan[br]las características del curso 0:02:55.394,0:02:56.803 de ese efecto del tratamiento, 0:02:56.803,0:02:58.688 como por ejemplo, si es mejor[br]para las personas 0:02:58.688,0:03:02.054 que provienen de familias[br]con menores ingresos. 0:03:02.377,0:03:05.656 Me cuesta creer[br]que haya una aplicación 0:03:05.656,0:03:09.970 para la versión[br]de muy alta dimensión, 0:03:09.970,0:03:12.499 en la que descubrí[br]que para los niños no blancos 0:03:12.499,0:03:15.028 que tienen[br]ingresos familiares altos 0:03:15.028,0:03:17.747 pero puntuaciones de referencia[br]en el tercer cuartil 0:03:17.747,0:03:20.535 y que solo fueron[br]a la escuela pública 0:03:20.535,0:03:23.128 en el tercer grado[br]pero no en el sexto. 0:03:23.128,0:03:25.681 Así que eso es lo que produce[br]ese análisis de alta dimensión. 0:03:25.681,0:03:27.938 Es una declaración condicional[br]muy elaborada. 0:03:27.938,0:03:30.702 Hay dos cosas que están mal,[br]en mi opinión. 0:03:30.702,0:03:32.418 En primer lugar, no lo veo como-- 0:03:32.418,0:03:34.492 no puedo imaginar[br]por qué es algo procesable. 0:03:34.492,0:03:36.518 No sé por qué[br]querrías actuar sobre ello. 0:03:36.518,0:03:39.381 Y también sé que hay[br]algún modelo alternativo 0:03:39.381,0:03:42.856 que encaja casi igual de bien,[br]que lo invierte todo. 0:03:42.978,0:03:44.591 Porque el aprendizaje automático 0:03:44.591,0:03:48.473 no me dice que este es realmente[br]el predictor que importa, 0:03:48.473,0:03:50.779 solo me dice[br]que este es un buen predictor. 0:03:51.396,0:03:54.875 Así que creo,[br]que hay algo diferente 0:03:54.875,0:03:57.688 en el contexto[br]de las ciencias sociales. 0:03:57.688,0:04:00.270 - [Guido] Creo que las aplicaciones[br]de las ciencias sociales 0:04:00.270,0:04:03.922 de las que hablas[br]son aquellas en las que, creo, 0:04:03.922,0:04:07.923 no hay una gran cantidad[br]de heterogeneidad en los efectos. 0:04:09.760,0:04:13.610 - [Josh] Bueno, podría haberla[br]si me permites llenar ese espacio. 0:04:13.610,0:04:15.648 - No... ni siquiera entonces. 0:04:15.648,0:04:18.506 Creo que para muchas[br]de esas intervenciones, 0:04:18.506,0:04:22.840 se espera que el efecto[br]sea del mismo signo para todos. 0:04:23.055,0:04:27.320 Puede haber pequeñas diferencias[br]en la magnitud, pero no es... 0:04:27.576,0:04:29.968 Porque muchas de estas[br]diferencias educativas 0:04:29.968,0:04:31.612 son buenas para todos. 0:04:31.612,0:04:35.932 No es que sean malas[br]para algunas personas 0:04:35.932,0:04:37.408 y buenas para otras 0:04:37.408,0:04:39.797 y en algunos pequeños casos[br]pueden ser malas. 0:04:40.189,0:04:43.633 Pero puede haber[br]algo de variación en la magnitud, 0:04:43.633,0:04:44.808 pero se necesitarían 0:04:44.808,0:04:47.019 conjuntos de datos[br]muy muy grandes para encontrarlos. 0:04:47.019,0:04:48.985 Estoy de acuerdo en que,[br]en esos casos, 0:04:48.985,0:04:51.393 probablemente no serían[br]muy procesables de todos modos. 0:04:51.881,0:04:54.075 Pero creo que hay[br]muchos otros escenarios 0:04:54.075,0:04:56.483 donde hay mucha más heterogeneidad. 0:04:56.736,0:04:59.164 - Bueno, estoy abierto[br]a esa posibilidad 0:04:59.164,0:05:00.977 y creo que el ejemplo que has dado 0:05:00.977,0:05:04.857 es esencialmente[br]un ejemplo de marketing. 0:05:05.938,0:05:09.714 - No, esos tienen[br]implicaciones para ello 0:05:09.714,0:05:11.596 y esa es la organización, 0:05:11.596,0:05:15.358 si tienes que preocuparte por la-- 0:05:15.358,0:05:17.857 - Bueno, necesito[br]ver ese documento. 0:05:18.289,0:05:21.490 - Así que, la sensación[br]que tengo es que... 0:05:21.490,0:05:23.371 - Todavía no estamos de acuerdo[br]en algo. 0:05:23.371,0:05:25.735 - Sí.[br]- No hemos coincidido en todo. 0:05:25.735,0:05:27.393 - Tengo esa sensación.[br][risas] 0:05:27.393,0:05:29.047 - En realidad,[br]hemos discrepado en esto 0:05:29.047,0:05:30.729 porque no estaba para discutir. 0:05:30.729,0:05:33.144 [risas] 0:05:33.144,0:05:35.060 - ¿Se está poniendo[br]algo caluroso aquí? 0:05:35.720,0:05:37.854 - Caluroso.[br]Es bueno que esté caluroso. 0:05:37.854,0:05:39.501 La sensación que tengo es, Josh, 0:05:39.501,0:05:41.951 que no estás diciendo[br]que estás seguro 0:05:41.951,0:05:44.159 de que no hay manera[br]de que haya una aplicación 0:05:44.159,0:05:45.667 en la que estas cosas sean útiles. 0:05:45.667,0:05:47.169 Estás diciendo[br]que no estás convencido 0:05:47.169,0:05:49.444 con las aplicaciones existentes[br]hasta la fecha. 0:05:49.907,0:05:51.665 - Me parece bien.[br]- Estoy muy seguro. 0:05:51.858,0:05:54.179 [risas] 0:05:54.179,0:05:55.270 - En este caso. 0:05:55.270,0:05:56.541 - Creo que Josh tiene razón 0:05:56.541,0:06:00.101 en que incluso[br]en los casos de predicción, 0:06:00.101,0:06:03.757 donde muchos de los métodos[br]de aprendizaje automática 0:06:03.757,0:06:06.517 realmente se destacan es donde hay[br]un montón de heterogeneidad. 0:06:06.785,0:06:10.400 - No te importan mucho[br]los detalles, ¿verdad? 0:06:10.400,0:06:11.480 - [Guido] Sí. 0:06:11.480,0:06:14.752 - No tiene un ángulo normativo[br]o algo así. 0:06:14.752,0:06:17.535 - El reconocimiento[br]de dígitos escritos a mano 0:06:17.535,0:06:18.569 y demás... 0:06:18.721,0:06:23.861 lo hace mucho mejor[br]que construir un modelo complicado. 0:06:24.201,0:06:26.925 Pero muchas[br]de las ciencias sociales, 0:06:26.925,0:06:28.454 muchas[br]de las aplicaciones económicas, 0:06:28.454,0:06:29.610 en realidad sabemos mucho 0:06:29.610,0:06:32.067 sobre la relación[br]entre sus variables. 0:06:32.067,0:06:34.572 Muchas de las relaciones[br]son estrictamente monótonas. 0:06:35.399,0:06:39.266 La educación va a aumentar[br]los ingresos de la gente, 0:06:39.266,0:06:41.916 sin importar[br]las características demográficas, 0:06:41.916,0:06:44.763 sin importar[br]el nivel de educación que se tenga. 0:06:44.763,0:06:46.325 - Hasta que lleguen a un doctorado. 0:06:46.325,0:06:48.126 - ¿Eso se aplica[br]a la escuela de posgrado? 0:06:48.126,0:06:49.218 [risas] 0:06:49.218,0:06:50.593 - En un rango razonable. 0:06:50.593,0:06:55.472 No va a bajar mucho. 0:06:55.472,0:06:58.178 En muchos de los entornos[br]en los que se destacan 0:06:58.178,0:07:00.209 estos métodos[br]de aprendizaje automático, 0:07:00.209,0:07:02.081 hay mucha falta de monotonicidad, 0:07:02.081,0:07:04.598 una especie de multimodalidad[br]en estas relaciones 0:07:04.598,0:07:08.475 y van a ser muy poderosos. 0:07:08.701,0:07:11.426 Pero sigo sosteniendo lo mismo. 0:07:11.426,0:07:17.530 Estos métodos tienen mucho[br]para ofrecerles a los economistas 0:07:17.530,0:07:21.465 y serán una gran parte del futuro. 0:07:21.629,0:07:23.183 APLICACIONES[br]DEL APRENDIZAJE AUTOMÁTICO 0:07:23.183,0:07:24.814 Parece que hay[br]algo interesante por decir 0:07:24.814,0:07:26.139 sobre el aprendizaje automático. 0:07:26.139,0:07:27.412 Así que, Guido, me preguntaba 0:07:27.412,0:07:29.416 ¿podría dar tal vez[br]algunos de los ejemplos 0:07:29.416,0:07:30.694 que está pensando 0:07:30.694,0:07:32.507 con las aplicaciones[br]que salen en el momento? 0:07:32.507,0:07:35.779 - Un área[br]es donde en lugar de buscar 0:07:35.779,0:07:37.235 efectos causales promedio 0:07:37.235,0:07:39.684 estamos buscando[br]estimaciones individualizadas, 0:07:39.684,0:07:43.212 predicciones de efectos causales, 0:07:43.212,0:07:45.856 y allí, los algoritmos[br]de aprendizaje automático 0:07:45.856,0:07:47.384 han sido muy eficaces. 0:07:47.958,0:07:49.892 Hasta ahora,[br]hemos hecho estas cosas 0:07:49.892,0:07:51.458 utilizando métodos de kernel, 0:07:51.458,0:07:53.846 y teóricamente, funcionan muy bien, 0:07:53.846,0:07:56.226 y hay quienes comentan[br]que, formalmente, 0:07:56.226,0:07:57.575 no se puede hacer nada mejor. 0:07:57.575,0:07:59.422 Pero en la práctica,[br]no funcionan muy bien. 0:07:59.643,0:08:03.057 Las cosas aleatorias[br]de tipo bosque causal 0:08:03.057,0:08:05.833 en las que Stefan Wager[br]y Susan Athey 0:08:05.833,0:08:09.310 han estado trabajando[br]se utilizan muy ampliamente. 0:08:09.537,0:08:11.895 Han sido muy eficaces[br]en estos entornos 0:08:11.895,0:08:14.998 para obtener efectos causales 0:08:14.998,0:08:19.118 que varían según las covariables. 0:08:19.118,0:08:23.665 Creo que esto es solo el comienzo[br]de estos métodos. 0:08:23.665,0:08:25.605 Pero en muchos casos, 0:08:27.201,0:08:29.572 estos algoritmos son muy eficaces, 0:08:29.572,0:08:31.481 como en la búsqueda[br]en grandes espacios 0:08:31.481,0:08:36.908 y encontrar las funciones[br]que se ajustan muy bien 0:08:36.908,0:08:40.444 en formas que realmente[br]no podíamos hacer antes. 0:08:41.511,0:08:42.866 - No conozco ningún ejemplo 0:08:42.866,0:08:45.379 en el que el aprendizaje automático[br]haya generado conocimientos 0:08:45.379,0:08:47.260 sobre un efecto causal[br]que me interese. 0:08:47.619,0:08:49.133 Y sí conozco ejemplos 0:08:49.133,0:08:51.106 en los que es potencialmente[br]muy engañoso. 0:08:51.485,0:08:53.487 He trabajado con Brigham Frandsen 0:08:53.487,0:08:55.916 utilizando, por ejemplo,[br]bosques aleatorios 0:08:55.916,0:08:57.943 para modelar[br]los efectos de las covariables 0:08:57.943,0:08:59.775 en un problema[br]de variables instrumentales 0:08:59.775,0:09:03.328 en el que hay que condicionar[br]las covariables.