Sobre los premios Nobel de economía en 2021: Card, Angrist e Imbens

  1. Introducción

Esta entrada es una versión abreviada de un artículo publicado en diciembre en el número 32 de la Revista de Economía Crítica

La ciencia económica ha mutado de manera considerable durante las últimas décadas. El incremento evidente de la investigación empírica en economía, especialmente a partir de los años 90, ha dado lugar al surgimiento de lo que algunos autores han calificado como un nuevo mainstream, distinto del existente en el plano teórico. La llamada “revolución de la credibilidad”, en palabras del mismo Angrist[1], centrada alrededor del concepto de inferencia causal, desembocó en la eliminación de la idea de que la economía era una disciplina inherentemente no experimental. Las transformaciones acontecidas hace ya tres décadas fueron bien recibidas por amplios sectores dentro de la academia. Por un lado, en línea con el viejo deseo de los economistas de parecerse a las ciencias duras, los nuevos desarrollos metodológicos fueron percibidos como una oportunidad única para convertir en realidad el hasta entonces ideal de la falsabilidad; por otro, el descontento de las nuevas generaciones de economistas con respecto a una teoría económica cada vez más abstracta encajó perfectamente con los nuevos avances, mucho más centrados en ofrecer respuestas a problemáticas visibles en el día a día.

David Card, Guido Imbens y Joshua Angrist han jugado un papel fundamental en este proceso. Según el comité encargado de otorgar los premios, se recompensa a Card “por sus contribuciones empíricas a la economía laboral”, mientras que Angrist e Imbens lo han sido “por sus contribuciones metodológicas en el análisis de las relaciones causales”. Las aportaciones de los tres galardonados son complementarias, y giran alrededor del concepto de “experimento natural”. A diferencia de los experimentos aleatorios controlados (RCTs por sus siglas en inglés)[2], los experimentos naturales se caracterizan por explotar situaciones en las que cambios en políticas, instituciones o medio natural permiten clasificar a los individuos en un grupo de tratamiento y otro de control como si su asignación a uno de estos grupos hubiese sido aleatoria. La idea de intentar acercarse al ideal que representan los experimentos aleatorios es que la aleatoriedad en la asignación del tratamiento permite eliminar el sesgo de selección que presentan los individuos con respecto al tratamiento. Por poner un ejemplo comúnmente utilizado, cuando se intenta medir el efecto causal de la hospitalización en la salud, no se puede simplemente comparar la salud media de aquellos que reciben el tratamiento (hospitalizados) con la de aquellos que no lo reciben, pues las personas con peor salud son más proclives a recibir el tratamiento. Sin embargo, si asignáramos la hospitalización de forma aleatoria, la diferencia en la salud media entre los grupos de tratamiento sí capturaría el efecto causal medio de la hospitalización.

Al proporcionar un contexto cercano al de un experimento aleatorio, los experimentos naturales permiten obtener estimaciones creíbles de efectos causales[3], lo que tiene una relevancia importante desde el punto de vista de la política económica.

Este premio, junto con el recibido hace ya dos años por Esther Duflo, Abhijit Banerjee y Michael Kremer, no hace sino confirmar la creciente importancia de la investigación empírica en los últimos años.[4]

2. La historia intelectual de los experimentos naturales

A pesar de ser investigadores y docentes en distintas universidades en la actualidad (Card es profesor en la Universidad de California, Berkeley, Angrist en MIT e Imbens en Stanford), el origen de sus aportaciones tiene un denominador común: la pequeña sección de Relaciones Industriales situada en la Biblioteca Firestone de la Universidad de Princeton. [5]

Durante los primeros años de la década de 1970, el Gobierno de EE. UU implementa, principalmente a través de la Oficina de Oportunidades Económicas, los primeros y más ambiciosos experimentos aleatorios a gran escala del país, relacionados con la evaluación de la aplicación de un impuesto negativo sobre la renta. Sin embargo, y a pesar de ser considerados como el “gold standard”, la magnitud de los experimentos pone de manifiesto sus limitaciones: requerían movilizar enormes cantidades de recursos, las técnicas adecuadas para su correcto análisis no estaban adecuadamente desarrolladas y sus resultados no eran concluyentes. A partir de 1972, los programas y evaluaciones aún en activo pasarían a ser competencia del Departamento de Trabajo y del Departamento de Salud, Educación y Bienestar. Hasta entonces, la evaluación de las políticas públicas y la llamada “economía laboral analítica”[6] habían tenido poco recorrido dentro de la academia, siendo predominantes en órganos gubernamentales.

Durante el año académico 1972-1973, Orley Ashenfelter, único profesor permanente de la sección de Relaciones Industriales de la Universidad de Princeton, es nombrado director de la Oficina de Evaluación del Departamento de Trabajo de EE. UU, donde se llevaba a cabo la implementación de programas y su evaluación en la primera mitad de los años 70. Este año en la Oficina de Evaluación permitió, además de gestar las bases para la creación y desarrollo del método moderno de “diferencia-en-diferencias”[7] -que se materializaría más tarde en su artículo de 1978-, juntar en una misma sala a burócratas del gobierno e investigadores de Princeton. Impulsado por la aparición de los ordenadores, la disponibilidad de los primeros microdatos y el rápido desarrollo de métodos econométricos, Ashenfelter consigue, gracias a un gran trabajo de supervisión, la consolidación de un pequeño grupo de economistas laborales que empezaría a mirar al mundo para preguntarle directamente cómo funciona. Entre los doctorandos de Ashenfelter se encontraba David Card, junto a quien publicaría en 1985 un trabajo cuestionando explícitamente los resultados obtenidos por la economía laboral tradicional. En esta misma línea, Robert LaLonde (estudiante de doctorado de Ashenfelter y Card) publicaría en 1986 un estudio tratando de reproducir resultados experimentales mediante el uso de las técnicas econométricas existentes, encontrando importantes diferencias.

En ese mismo año y de forma bastante anecdótica, Alan Krueger (quién lamentablemente falleció en 2019 y muy probablemente habría compartido el premio de este año) conoce a la mujer de Orley Ashenfelter en un viaje de avión hacia la conferencia de las Allied Social Science Associations (ASSA), lo que provocó que ambos se conociesen. Ashenfelter, quien rápidamente identificó el potencial de Krueger, le incluyó en las entrevistas que estaban teniendo lugar para ganarse un puesto dentro de la sección de Relaciones Industriales, lo que en última instancia desembocaría en la incorporación de Krueger como profesor en Princeton en 1987. Es en este contexto, con Ashenfelter, Card y Krueger en activo, la aleatorización como el “gold standard” (aunque con importantes limitaciones a la hora de su implementación práctica en las ciencias sociales) y con el paper de LaLonde habiendo cuestionado los métodos econométricos tradicionales, cuando aparece Joshua Angrist (también estudiante de doctorado de Ashenfelter hasta 1989)[8]. Entre todos comienzan una revolución metodológica que busca el aislamiento y especificación de relaciones causales mediante el uso de datos no experimentales que desembocará en los llamados experimentos naturales. Durante estos años surgen algunos de los papers más influyentes en este terreno, como el artículo de Angrist sobre el servicio militar en Vietnam, el de Card sobre la llegada masiva de inmigrantes a Miami o el de Card y Krueger sobre los efectos de una subida en el salario mínimo.

Finalmente, tras acabar sus doctorados, Angrist e Imbens coinciden como profesores en la Universidad de Harvard, donde empiezan a trabajar en la creación de un marco analítico que combina el método de variables instrumentales nacido en economía con el de los “desenlaces potenciales” (potential outcomes) en estadística, lo que acabará con el reconocimiento de la obtención de un premio Nobel unos 25 años más tarde.

3. Las contribuciones

David Card es reconocido principalmente por ser pionero en el uso de experimentos naturales para dar nuevas respuestas a preguntas ya existentes: desde los efectos de subidas en el salario mínimo hasta el impacto laboral de la inmigración o los beneficios de la educación. Ahora bien, tal y como señala Arin Dube (uno de los economistas laborales más reconocidos, especialmente en relación con los efectos de los cambios en el salario mínimo), las aportaciones de Card no pueden reducirse exclusivamente a aspectos metodológicos. No pueden porque sin las conclusiones alcanzadas, que provocaron el tambaleo de ideas bien asentadas en la economía convencional[9], no habría tenido el impacto que ha tenido en términos de divulgación, replicación y nuevos trabajos tanto empíricos como teóricos con el objetivo de ofrecer explicaciones coherentes. Aunque la carrera investigadora de Card es muy extensa[10], el comité encargado de la entrega de los premios ha resaltado tres temas principales en los que su contribución ha ayudado especialmente a comprender el funcionamiento de los mercados laborales: salario mínimo, migración y educación.

La identificación de los efectos causales de los cambios en el salario mínimo ha sido siempre difícil. Básicamente, la decisión de cambiar el salario mínimo puede ser endógena, por ejemplo, influenciada por las demandas de aquellos trabajadores que se han visto envueltos en pérdidas de poder adquisitivo tras una fase de contracción en el ciclo que ha conllevado pérdidas de empleo. En este caso, una caída en el empleo precede a la subida en el salario mínimo.

Con el objetivo de separar correlación de causalidad, Card y Krueger implementaron a mediados de los noventa una metodología novedosa -la previamente mencionada diferencia-en-diferencias- que consistía en explotar la variación geográfica en relación al SMI. De esta forma, los autores compararon, antes y después de la modificación del salario mínimo, cadenas de comida rápida en el Estado de New Jersey, dónde el salario mínimo estatal fue aumentado aproximadamente un 19%, con cadenas en el Estado contiguo de Pennsylvania, donde el salario mínimo se mantuvo constante. Así, pudieron estimar de forma más convincente que estudios previos el efecto causal de la subida.[11] Sus conclusiones contradecían lo que cabía esperar de acuerdo al modelo neoclásico del mercado de trabajo: la subida en el salario mínimo no parecía tener efectos adversos en el empleo.

Los resultados inesperados de Card y Krueger impulsaron una nueva agenda investigadora, tanto de replicaciones empíricas como de desarrollos teóricos novedosos. Explicaciones alternativas como aumentos en la productividad a nivel agregado debido a efectos composición o el incremento de los costes laborales totales menor de lo que aumenta el salario mínimo se pusieron encima de la mesa, junto con la recuperación de ideas ya formuladas durante la primera parte del siglo XX relacionadas con la presencia de competencia imperfecta y poder monopsonístico (ideas que no han dejado de estar presentes en enfoques alternativos). A día de hoy, y gracias al trabajo pionero de economistas como David Card y Alan Krueger, los efectos negligibles en el empleo (o incluso positivos) son un resultado estándar tanto empírico como teórico que, en palabras del propio Alan Krueger, permite afirmar que “aumentar de forma periódica el salario mínimo para ayudar a los trabajadores de bajos ingresos no solo es lo correcto, es también lo inteligente”.

El segundo tema en el que las aportaciones de Card han sido esclarecedoras tiene que ver con el impacto de la inmigración en el mercado laboral. De forma similar a lo que sucedía con el salario mínimo, existen dificultades para conocer el efecto causal de la inmigración, pues la decisión de migrar a una u otra región están condicionadas por las expectativas que se tienen sobre las oportunidades que se van a encontrar. Por tanto, regiones en expansión, con mercados laborales prometedores, tienen mayor probabilidad de recibir inmigrantes. Al mismo tiempo, los resultados económicos de las personas nativas son distintos en estas regiones de los resultados que obtienen los nativos en otras regiones, incluso si no hubiese habido inmigración. Con el objetivo de separar el efecto de la inmigración del de la expansión y prosperidad de aquellas áreas que reciben inmigrantes, Card utiliza de nuevo un experimento natural. Comparando la evolución de los salarios y del empleo en Miami con otras cuatro ciudades de control, antes y después del llamado Mariel Boatlift (cuando Fidel Castro autorizó en 1980 la salida de 125.000 personas desde el puerto de Mariel, de las cuales el 50% se instaló en Miami), Card no encuentra evidencia de que los salarios y el empleo de los nativos se viesen afectados por la llegada de inmigrantes no cualificados. Estos resultados han sido confirmados por una gran cantidad de estudios en años posteriores, llegando a lo que es uno de los consensos más establecidos en economía: la inmigración no tiene consecuencias negativas para los trabajadores nativos.

A principios de los años 90, Card y Krueger publican una serie de trabajos que provocará el resurgimiento del interés en el estudio de la educación y sus efectos a largo plazo. Hasta entonces, el estudio de los efectos de la calidad de la enseñanza se había centrado especialmente sobre la puntuación de tests estandarizados, y las principales conclusiones alcanzadas eran que incrementos en los recursos disponibles de las escuelas públicas tenían beneficios muy reducidos para los estudiantes. Motivados por la falta de evidencia causal sobre la relación entre calidad de la educación y rendimiento en el mercado laboral y por la idea de que los tests estandarizados no reflejan adecuadamente el rendimiento escolar, Card y Krueger muestran cómo individuos educados en Estados dotados con escuelas de mayor calidad (medida como ratio profesor-alumnos, por ejemplo) presentan mayores ganancias de ingresos con respecto a años adicionales de educación. En este caso, el problema a resolver viene relacionado con que la variación en los recursos de las escuelas de diferentes Estados puede verse influida por las características de la población de esos Estados o por el desempeño de su mercado laboral. Si esto fuera así, Estados con mercados laborales más eficientes podrían dotar a las escuelas con más recursos, provocando que la causalidad pueda ir en la dirección opuesta.

Con el objetivo de diferenciar entre estos dos efectos, Card y Krueger focalizan su análisis en aquellos individuos que residen en un mismo Estado, distinto del Estado en el que se educaron. Al comparar individuos que viven dentro del mismo Estado, se elimina la posibilidad de que las diferencias en los ingresos sean causa del funcionamiento desigual del mercado laboral dependiendo del Estado. Además, al comparar individuos que migraron, se asume que sus características de estos individuos son más o menos similares (lo que no ocurriría si repetimos el análisis utilizando una muestra aleatoria del total de la población de un Estado). De esta forma, resulta más creíble decir que las diferencias en los ingresos entre individuos se deben a las diferencias existentes entre ellos con respecto a la calidad de la educación que recibieron. Al igual que en los anteriores campos, la investigación de Card y Krueger motivó el interés y la producción académica, con numerosos estudios apoyando sus conclusiones iniciales.

Por otra parte, Joshua Angrist y Guido Imbens han contribuido, de forma esencial, a apuntalar las bases teóricas de los experimentos naturales. A mediados de la década de 1990, Angrist e Imbens publican, junto con Donald Rubin, un trabajo en el que presentan un nuevo marco analítico que identifica cuándo (y cuándo no) y para quién (y para quién no) se pueden extraer conclusiones causales de la utilización de experimentos naturales.  Su conclusión es la siguiente: en un contexto en el que el tratamiento tiene efectos heterogéneos (afecta de forma diferente a distintos individuos), controlar el mecanismo de asignación al tratamiento (mediante el uso de un instrumento, independiente de la variable dependiente), permite resolver el principal problema que emerge en el uso de los experimentos naturales: la endogeneidad de la variable de tratamiento.[12] La aplicación de este método permite identificar el efecto causal medio del tratamiento para un subgrupo de individuos: los “obedientes”[13] (compliers).

Un ejemplo permite aclarar el párrafo anterior. En un famoso paper previamente mencionado, Angrist explora cuál es el efecto del servicio militar en Vietnam en los ingresos futuros[14]. Sin embargo, la variable de tratamiento (cumplir con el servicio militar en Vietnam) es en este caso endógena. Comparar los ingresos de los individuos basándose exclusivamente en si son veteranos (individuos “tratados”) o no veteranos lleva a estimaciones sesgadas e incluso inconsistentes del efecto causal del tratamiento en la variable dependiente, pues no todos los individuos son igual de proclives a participar en el servicio militar. Como ejemplo, Angrist menciona que individuos con menos oportunidades civiles pueden tener una probabilidad más elevada de alistarse, y no controlar por este tipo de factores podría sesgar a la baja el efecto del servicio militar en los ingresos futuros.

Con el objetivo de resolver este tipo de problemas, Angrist utiliza como instrumento las tiradas de lotería que se llevaron a cabo durante la época de Vietnam y que influyeron, de forma aleatoria, en la probabilidad de ser reclutado (esta lotería consistía en asignar a cada fecha de nacimiento un número aleatorio; los hombres con los números más bajos eran llamados primero). De esta forma, debido a que fueron elegidos de forma aleatoria, los números de la lotería eran independientes de los ingresos futuros de los individuos. En este caso, el uso de la lotería como Variable Instrumental permite estimar, de acuerdo con el método desarrollado por Angrist e Imbens descrito previamente, el efecto medio del servicio militar en los ingresos únicamente para el subgrupo que se inscribió en el servicio militar como causa del resultado de la lotería (los llamados obedientes).[15] En otras palabras, el efecto medio en los ingresos de haber sido veterano se identifica para aquellas personas que se habrían inscrito al sacar un número aleatorio bajo pero no se hubieran inscrito si su número fuese alto (es decir, aquellas personas a las cuales el instrumento ~ la lotería ~ modificó su estado de tratamiento en la dirección prevista). Por tanto, nada se puede decir sobre el efecto del servicio militar en aquellas personas que se hubieran inscrito independientemente del número que hubiesen sacado (i.e. los verdaderos patriotas) o de aquellas que nunca se hubiesen inscrito (i.e. los evasores).

4. Conclusión

En definitiva, las contribuciones de Angrist, Imbens y Card se han revelado tremendamente útiles (a pesar de tener evidentes limitaciones, en especial en términos de reproducibilidad o validez externa), no sólo dentro de la disciplina económica ~ y en especial para quienes utilizamos tanto experimentos como experimentos naturales ~, sino también para otras ciencias sociales (como la ciencia política o la sociología) o en el sector profesional (véase este post de Amazon). Como apuntan Panhans y Singleton, su rol fundamental en la emergencia de un enfoque mucho más empírico en economía ha facilitado el comienzo, en buena parte, de un cambio de paradigma, desde los modelos a los métodos, de Mas-Colell-Whinston-Green a Mostly Harmless Econometrics.

Todo ello ha dado lugar a la aparición de la llamada “política basada en la evidencia”, haciendo referencia a la incorporación de estos métodos estadísticos (RCTs, meta-análisis o inferencia causal con datos observacionales) en la toma de decisiones políticas. De acuerdo con este enfoque, la evidencia empírica nos dice “lo que funciona”, lo que lleva a considerar a estas prácticas como objetivas, con la consecuencia de que las decisiones políticas deberían basarse en la mejor evidencia empírica disponible. Sin embargo, el no ser consciente de las implicaciones de este enfoque puede llevarnos por senderos indeseados. Este paradigma, que encaja dentro del modelo lineal de la ciencia, traslada la política a la ciencia, en lugar de la ciencia a la política. De hecho, dado que el uso de buena ciencia implicaría mejor toma de decisiones, el propósito de la acción política es moldeado por la “buena ciencia”, en el sentido de que correctos resultados científicos merecen convertirse en políticas públicas, desembocando finalmente en la sustitución de la política por la ciencia. Bajo este enfoque, la ciencia se convierte en un medio conveniente y necesario para eliminar ciertas opciones del debate sin discutir explícitamente las disputas sobre cuestiones de valores. Además, la forma en la que el legislador se relaciona con la evidencia científica es crucial, y está sujeta a sesgos: por las recomendaciones dadas por parte de los asesores científicos (que pueden dar a lugar a un desequilibrio en la evidencia seleccionada -lo que comúnmente se conoce como cherry picking-), por la complejidad y ambigüedad del contexto político o por desviaciones de una teoría normativa.

Igualmente, es preciso tener en cuenta la distinción realizada por Charles Manski entre conocimiento científico y evidencia científica. De acuerdo con Manski: “el conocimiento emerge de la combinación entre evidencia y supuestos sobre cantidades no observadas”, por lo que la evidencia no es todo lo que se necesita en la toma de decisiones políticas, sino un objeto que el científico utiliza para compartir (un) conocimiento. Teniendo en cuenta la definición de efecto causal esbozada en la nota a pie de página número 3, el efecto de una determinada política únicamente puede ser estimado mediante supuestos, debido al problema de identificación que encara el investigador. No hay una única manera de resolverlo: cuando un supuesto es escogido y se combina con la evidencia, un conocimiento científico emerge, que podría ser distinto al que emergiese si otros supuestos hubiesen sido escogidos. Por tanto, la evaluación de políticas públicas requiere supuestos para resolver los problemas de identificación que aparecen a su paso y el objetivo del científico debería ser explorar más de un supuesto con el objetivo de expandir las opciones políticas.

En una conversación reciente, Michel de Vroey me sugería una última idea. De hecho, una mirada de carácter más general y desde la distancia nos revela algunas de las implicaciones colaterales que ha tenido el éxito de la revolución de la credibilidad en economía, relacionadas con la definición misma de economía y la delimitación de su objeto de estudio. La búsqueda rigurosa de relaciones causales se aleja de aspectos que históricamente se han considerado como centrales en la disciplina, haciendo que muchas veces la economía pueda ser percibida como una rama de la estadística aplicada. Por poner algunos ejemplos, poco pueden decir estos métodos sobre cuestiones que necesitan de una perspectiva sistémica, como la teoría del valor – o lo que es lo mismo, la determinación de los precios de equilibrio – o el entendimiento de los factores que moldean los procesos de desarrollo de las distintas sociedades a lo largo de la historia. En la actualidad, el objeto de estudio de la economía lo engloba prácticamente todo, desde la religión o los divorcios hasta el fútbol o el ajedrez, diluyendo cualquier definición previa que restrinja su campo de estudio y haciendo que cada vez sea más común abrazar definiciones tan vagas como la esbozada por Jacob Viner: “la economía es lo que hacen los economistas”.


[1] Aprovecho el nombramiento de ambos para recomendar su libro Mostly Harmless Econometrics a quien esté interesado en la identificación de efectos causales en ciencias sociales.

[2] Dentro de la llamada economía experimental también habría que incorporar los experimentos “de laboratorio”. En ellos, el entorno económico de los sujetos experimentales está bajo control prácticamente en su totalidad. A diferencia de los RCTs o de los experimentos naturales, su objetivo no es la identificación de efectos causales, sino la evaluación de la validez de las hipótesis que comúnmente se plantean sobre el comportamiento individual o sobre las interacciones en los mercados.

[3] De acuerdo a la definición más común de efecto causal, éste consiste en la diferencia entre el valor de la variable dependiente de interés del individuo i si recibe el tratamiento y el valor de la variable dependiente de interés del individuo i si no lo recibe. Nótese que ambas cosas no son observables al mismo tiempo: o el individuo recibe el tratamiento o no lo recibe. Esto se conoce como el problema fundamental de la inferencia causal y no es un problema de estimación, sino de identificación, que solo puede ser rodeado mediante supuestos. El objetivo es hacerlo con el menor número posible de ellos.

[4] En un artículo del año pasado, Currie y coautores muestran cómo alrededor del 40% de todos los trabajos publicados como NBER Working Papers o en el llamado “top 5” de revistas en economía usan métodos experimentales o cuasi-experimentales. De igual manera, en una entrada sobre los Nobel de este año, Pischke remarca que “desde 1990, al menos la mitad de las “Clark Medals” (un premio otorgado por la American Economic Association al mejor economista menor de 40 años) han ido para medallistas asociados con los experimentos naturales”.

[5] La formación y aportaciones de Imbens tienen, en general, un enfoque más técnico, mientras que las de Card y Angrist han sido más aplicadas. En esta sección me voy a centrar en Card y Angrist, pues sus primeras aproximaciones a los experimentos naturales preceden a los desarrollos teóricos en los que contribuyó Imbens.

[6] La distinción entre economía laboral analítica y economía laboral institucional viene de la mano de Albert Rees. La economía laboral analítica tiene un enfoque cuantitativo, mezclando teoría económica y econometría.

[7] La intuición detrás de este método es la siguiente: haciendo referencia a su nombre, el efecto causal de la intervención se estima mediante la resta de dos restas. En primer lugar, se calcula la diferencia entre el valor de la variable dependiente después del tratamiento y el valor de la variable dependiente antes del tratamiento, tanto para el grupo de tratamiento como para el grupo de control. En segundo lugar, se calcula la diferencia entre el resultado obtenido previamente en el grupo de tratamiento y el resultado obtenido en el grupo de control. Esta técnica se ha convertido en el método microeconométrico de referencia, llegando a aparecer en el 25% de los NBER Working Papers en el campo de la microeconomía aplicada a día de hoy.

[8] Y quien luego co-dirigiría la tesis doctoral de Esther Duflo.

[9] En una encuesta a miembros de la American Economic Association en 1992, dos años antes del influyente paper de Card y Krueger, el 76% reportaba estar de acuerdo con la afirmación de que “el salario mínimo reduce el empleo entre los trabajadores con ingresos bajos”. En el año 2000, esta cifra se reducía al 46%.

[10] Como dato curioso, David Card aparece citado en 31 de las páginas del libro Labor Economics de Cahuc, Carcillo y Zylberberg, uno de los libros de referencia a nivel de posgrado, solo superado por cuatro economistas como Heckman (38), Blundell (35), Autor (33) y el propio Cahuc (32).

[11] La utilidad del uso de áreas cercanas como controles no está exenta de debate. Por ejemplo, Jeffrey Clemens señala: “si las regiones son totalmente similares, ¿por qué tienen salarios mínimos diferentes?”.

[12] Por ejemplo, cuando algunos individuos seleccionados para recibir el tratamiento finalmente no lo reciben o porque individuos que no han sido seleccionados eligen ser tratados.

[13] Este grupo reúne a aquellos individuos cuyo status de tratamiento ha sido modificado por el instrumento; es decir, cuando reciben el tratamiento si el instrumento se lo asigna y no lo reciben cuando el instrumento utilizado no se lo asigna.

[14] Como dato curioso, Angrist escribe este trabajo durante su segundo año de estudiante de doctorado.

[15] Formalmente este efecto se conoce como LATE (Local Average Treatment Effect).

Pablo Álvarez

Deja una respuesta