0:00:00.000,0:00:03.138 ♪ (música) ♪ 0:00:03.394,0:00:05.633 - [Narradora] Bienvenidos[br]a Nobel Conversations. 0:00:06.992,0:00:10.093 En este episodio,[br]Josh Angrist y Guido Imbens 0:00:10.093,0:00:13.366 se reúnen con Isaiah Andrews[br]para discutir y discrepar 0:00:13.366,0:00:15.221 sobre el papel[br]del aprendizaje automático 0:00:15.221,0:00:16.816 en la econometría aplicada. 0:00:17.894,0:00:19.896 - [Isaiah] Bien. Por supuesto[br]que hay muchos temas 0:00:19.896,0:00:21.465 en los que ustedes[br]están muy de acuerdo, 0:00:21.465,0:00:22.595 pero me gustaría pasar a uno 0:00:22.595,0:00:24.365 sobre el que tal vez[br]opinen algo distinto. 0:00:24.365,0:00:26.103 Me gustaría escuchar[br]algunas de sus opiniones 0:00:26.103,0:00:27.319 sobre el aprendizaje automático 0:00:27.319,0:00:30.257 y el papel que desempeña[br]y desempeñará en la economía. 0:00:30.257,0:00:31.858 - [Guido] He consultado[br]algunos datos, 0:00:31.858,0:00:33.349 como los datos privados. 0:00:33.349,0:00:35.306 Vemos que no hay[br]ningún documento publicado allí. 0:00:35.975,0:00:39.426 Se hizo un experimento[br]sobre algún algoritmo de búsqueda 0:00:39.426,0:00:41.081 y la cuestión era... 0:00:42.581,0:00:45.492 se trataba de clasificar cosas[br]y cambiar la clasificación. 0:00:45.990,0:00:47.163 Y estaba más o menos claro 0:00:47.163,0:00:50.271 que iba a haber[br]mucha heterogeneidad. 0:00:51.117,0:00:55.864 Si buscas, digamos, 0:00:58.122,0:01:00.640 una foto de Britney Spears, 0:01:00.640,0:01:02.505 realmente no importa[br]dónde la clasifiques 0:01:02.505,0:01:05.214 porque vas a encontrar[br]lo que estás buscando, 0:01:05.736,0:01:07.058 ya sea que la clasifiques 0:01:07.058,0:01:09.744 en primera, segunda[br]o tercera posición. 0:01:10.027,0:01:12.346 Pero si estás buscando[br]el mejor libro de econometría, 0:01:12.346,0:01:16.510 si pones tu libro en primer lugar[br]o en el décimo, 0:01:16.510,0:01:18.140 eso va a suponer[br]una gran diferencia 0:01:18.140,0:01:19.835 en la frecuencia 0:01:19.835,0:01:21.286 con la que la gente[br]hará clic en él. 0:01:22.089,0:01:23.312 Así que ahí-- 0:01:23.312,0:01:24.326 [Josh] ¿Por qué necesito 0:01:24.326,0:01:27.314 el aprendizaje automático[br]para descubrir eso? 0:01:27.314,0:01:29.463 Porque parece que puedo descubrirlo[br]de forma sencilla. 0:01:29.463,0:01:30.517 - [Guido] En general-- 0:01:30.517,0:01:32.233 - [Josh] Había[br]un montón de posibles-- 0:01:32.233,0:01:34.233 - [Guido]...quieres pensar[br]que los artículos 0:01:34.233,0:01:37.092 tienen montón de características, 0:01:37.092,0:01:38.940 que quieres entender 0:01:38.940,0:01:43.650 lo que impulsa la heterogeneidad[br]en el efecto de-- 0:01:43.669,0:01:44.876 - Pero solo estás prediciendo. 0:01:44.876,0:01:46.057 En cierto sentido, 0:01:46.057,0:01:47.793 estás resolviendo[br]un problema de marketing. 0:01:47.793,0:01:49.210 - No, es un efecto causal, 0:01:49.210,0:01:51.738 - Es causal, pero no tiene[br]contenido científico. 0:01:51.738,0:01:52.809 Piensa en-- 0:01:53.669,0:01:57.243 - No, pero hay cosas similares[br]en el ámbito médico. 0:01:57.693,0:01:59.312 Si haces un experimento, 0:01:59.312,0:02:02.492 puedes estar muy interesado[br]en si el tratamiento funciona 0:02:02.492,0:02:03.821 para algunos grupos o no. 0:02:03.821,0:02:05.946 Y tienes un montón[br]de características individuales, 0:02:05.946,0:02:08.109 y quieres buscar sistemáticamente-- 0:02:08.109,0:02:09.883 - Sí. Tengo mis dudas sobre esa... 0:02:09.883,0:02:12.588 esa especie de idea de que hay[br]un efecto causal personal 0:02:12.588,0:02:13.902 que me debería importar 0:02:13.902,0:02:15.164 y que el aprendizaje automático 0:02:15.164,0:02:17.103 puede descubrirlo[br]de alguna manera que sea útil. 0:02:17.517,0:02:18.678 Así que piensa en-- 0:02:18.678,0:02:20.182 he trabajado mucho en las escuelas, 0:02:20.182,0:02:22.358 yendo a, digamos,[br]una escuela chárter, 0:02:22.358,0:02:24.498 una escuela privada[br]financiada con fondos públicos, 0:02:24.780,0:02:27.392 efectivamente,[br]que es libre de estructurar 0:02:27.392,0:02:29.587 su propio plan de estudios[br]en función del contexto. 0:02:29.587,0:02:30.938 Algunos tipos de escuelas chárter 0:02:30.938,0:02:33.379 consiguen[br]un rendimiento espectacular 0:02:33.379,0:02:36.321 y en el conjunto de datos[br]que produce ese resultado, 0:02:36.321,0:02:37.968 tengo un montón de covariables. 0:02:37.968,0:02:39.584 Tengo[br]las puntuaciones de referencia 0:02:39.584,0:02:41.321 y los antecedentes familiares, 0:02:41.321,0:02:45.524 la educación de los padres,[br]el sexo del niño, la raza del niño. 0:02:46.060,0:02:49.758 Y, bueno, en cuanto reúno[br]media docena de ellas, 0:02:49.758,0:02:51.751 tengo un espacio[br]de muy alta dimensión. 0:02:52.391,0:02:55.394 Sin duda, me interesan[br]las características del curso 0:02:55.394,0:02:56.803 de ese efecto del tratamiento, 0:02:56.803,0:02:58.688 como por ejemplo, si es mejor[br]para las personas 0:02:58.688,0:03:02.054 que provienen de familias[br]con menores ingresos. 0:03:02.377,0:03:05.656 Me cuesta creer[br]que haya una aplicación 0:03:05.656,0:03:09.970 para la versión[br]de muy alta dimensión, 0:03:09.970,0:03:12.499 en la que descubrí[br]que para los niños no blancos 0:03:12.499,0:03:15.028 que tienen[br]ingresos familiares altos 0:03:15.028,0:03:17.747 pero puntuaciones de referencia[br]en el tercer cuartil 0:03:17.747,0:03:20.535 y que solo fueron[br]a la escuela pública 0:03:20.535,0:03:23.128 en el tercer grado[br]pero no en el sexto. 0:03:23.128,0:03:25.681 Así que eso es lo que produce[br]ese análisis de alta dimensión. 0:03:25.681,0:03:27.938 Es una declaración condicional[br]muy elaborada. 0:03:27.938,0:03:30.702 Hay dos cosas que están mal,[br]en mi opinión. 0:03:30.702,0:03:32.418 En primer lugar, no lo veo como-- 0:03:32.418,0:03:34.492 no puedo imaginar[br]por qué es algo procesable. 0:03:34.492,0:03:36.518 No sé por qué[br]querrías actuar sobre ello. 0:03:36.518,0:03:39.381 Y también sé que hay[br]algún modelo alternativo 0:03:39.381,0:03:42.856 que encaja casi igual de bien,[br]que lo invierte todo. 0:03:42.978,0:03:44.591 Porque el aprendizaje automático 0:03:44.591,0:03:48.473 no me dice que este es realmente[br]el predictor que importa, 0:03:48.473,0:03:50.779 solo me dice[br]que este es un buen predictor. 0:03:51.396,0:03:54.875 Así que creo,[br]que hay algo diferente 0:03:54.875,0:03:57.688 en el contexto[br]de las ciencias sociales. 0:03:57.688,0:04:00.270 - [Guido] Creo que las aplicaciones[br]de las ciencias sociales 0:04:00.270,0:04:03.922 de las que hablas[br]son aquellas en las que, creo, 0:04:03.922,0:04:07.923 no hay una gran cantidad[br]de heterogeneidad en los efectos. 0:04:09.760,0:04:13.610 - [Josh] Bueno, podría haberla[br]si me permites llenar ese espacio. 0:04:13.610,0:04:15.648 - No... ni siquiera entonces. 0:04:15.648,0:04:18.506 Creo que para muchas[br]de esas intervenciones, 0:04:18.506,0:04:22.840 se espera que el efecto[br]sea del mismo signo para todos. 0:04:23.055,0:04:27.320 Puede haber pequeñas diferencias[br]en la magnitud, pero no es... 0:04:27.576,0:04:29.968 Porque muchas de estas[br]diferencias educativas 0:04:29.968,0:04:31.612 son buenas para todos. 0:04:31.612,0:04:35.932 No es que sean malas[br]para algunas personas 0:04:35.932,0:04:37.408 y buenas para otras 0:04:37.408,0:04:39.797 y en algunos pequeños casos[br]pueden ser malas. 0:04:40.189,0:04:43.633 Pero puede haber[br]algo de variación en la magnitud, 0:04:43.633,0:04:44.808 pero se necesitarían 0:04:44.808,0:04:47.019 conjuntos de datos[br]muy muy grandes para encontrarlos. 0:04:47.019,0:04:48.985 Estoy de acuerdo en que,[br]en esos casos, 0:04:48.985,0:04:51.393 probablemente no serían[br]muy procesables de todos modos. 0:04:51.881,0:04:54.075 Pero creo que hay[br]muchos otros escenarios 0:04:54.075,0:04:56.483 donde hay mucha más heterogeneidad. 0:04:56.736,0:04:59.164 - Bueno, estoy abierto[br]a esa posibilidad 0:04:59.164,0:05:00.977 y creo que el ejemplo que has dado 0:05:00.977,0:05:04.857 es esencialmente[br]un ejemplo de marketing. 0:05:05.938,0:05:09.714 - No, esos tienen[br]implicaciones para ello 0:05:09.714,0:05:11.596 y esa es la organización, 0:05:11.596,0:05:15.358 si tienes que preocuparte por la-- 0:05:15.358,0:05:17.857 - Bueno, necesito[br]ver ese documento. 0:05:18.289,0:05:21.490 - Así que, la sensación[br]que tengo es que... 0:05:21.490,0:05:23.371 - Todavía no estamos de acuerdo[br]en algo. 0:05:23.371,0:05:25.735 - Sí.[br]- No hemos coincidido en todo. 0:05:25.735,0:05:27.393 - Tengo esa sensación.[br][risas] 0:05:27.393,0:05:29.047 - En realidad,[br]hemos discrepado en esto 0:05:29.047,0:05:30.729 porque no estaba para discutir. 0:05:30.729,0:05:33.144 [risas] 0:05:33.144,0:05:35.060 - ¿Se está poniendo[br]algo caluroso aquí? 0:05:35.720,0:05:37.854 - Caluroso.[br]Es bueno que esté caluroso. 0:05:37.854,0:05:39.501 La sensación que tengo es, Josh, 0:05:39.501,0:05:41.951 que no estás diciendo[br]que estás seguro 0:05:41.951,0:05:44.159 de que no hay manera[br]de que haya una aplicación 0:05:44.159,0:05:45.667 en la que estas cosas sean útiles. 0:05:45.667,0:05:47.169 Estás diciendo[br]que no estás convencido 0:05:47.169,0:05:49.444 con las aplicaciones existentes[br]hasta la fecha. 0:05:49.907,0:05:53.907 - Es justo. 9:59:59.000,9:59:59.000 - Estoy muy seguro. 9:59:59.000,9:59:59.000 [risas] 9:59:59.000,9:59:59.000 - En este caso. 9:59:59.000,9:59:59.000 - Creo que Josh tiene un punto que incluso en los casos de predicción donde muchos de los métodos de aprendizaje de la máquina realmente brillan es donde hay un montón de heterogeneidad. 9:59:59.000,9:59:59.000 - No te importan mucho los detalles,[br]¿verdad? 9:59:59.000,9:59:59.000 - [Guido] Sí. 9:59:59.000,9:59:59.000 - No tiene un ángulo de política o algo así. 9:59:59.000,9:59:59.000 9:59:59.000,9:59:59.000 9:59:59.000,9:59:59.000