Diagnósticos de instrumentos débiles
  • Teoría
  • Simulación interactiva
  • Resultados e interpretación

El problema de los instrumentos débiles

Un instrumento débil es aquel que está poco correlacionado con la variable endógena que pretende instrumentar. Este problema es potencialmente más grave que la endogeneidad original, ya que genera tres efectos perniciosos que pueden hacer que la estimación por variables instrumentales (IV) sea peor que mínimos cuadrados ordinarios (MCO).

El primer problema es el sesgo en muestras finitas. Aunque el estimador IV es asintóticamente consistente, en muestras pequeñas o medianas presenta un sesgo que puede superar al sesgo de endogeneidad de MCO. Este sesgo es inversamente proporcional a la fuerza del instrumento: cuanto más débil es el instrumento, mayor es el sesgo.

El segundo problema es la imprecisión extrema. La varianza del estimador IV es inversamente proporcional al cuadrado de la correlación entre el instrumento y la variable endógena. Si esta correlación es pequeña, la varianza se dispara, haciendo que las estimaciones sean muy imprecisas y los intervalos de confianza extremadamente amplios.

El tercer problema es la cobertura incorrecta de los intervalos de confianza. Los errores estándar convencionales infravaloran la verdadera incertidumbre cuando los instrumentos son débiles, lo que hace que un intervalo nominal del 95% cubra el verdadero parámetro mucho menos del 95% de las veces.

El estadístico F de la primera etapa

Para diagnosticar instrumentos débiles, el estadístico fundamental es el F de la primera etapa. En la primera etapa de mínimos cuadrados en dos etapas (MC2E), regresamos la variable endógena sobre los instrumentos y los controles exógenos:

$$x_i = \pi_0 + \pi_1 z_i + \gamma' w_i + v_i$$

donde \(x_i\) es la variable endógena, \(z_i\) es el instrumento, \(w_i\) son los controles exógenos, y \(v_i\) es el error de la primera etapa.

El estadístico F contrasta la hipótesis nula de que todos los instrumentos excluidos son irrelevantes:

$$H_0: \pi_1 = 0 \quad \text{vs} \quad H_1: \pi_1 \neq 0$$

El estadístico F se calcula como:

$$F = \frac{(SCR_{restringido} - SCR_{no\,restringido})/q}{SCR_{no\,restringido}/(n-k)}$$

donde \(q\) es el número de instrumentos excluidos, \(n\) es el tamaño muestral, y \(k\) es el número total de parámetros en la primera etapa.

La regla de Staiger-Stock

Staiger y Stock (1997) establecieron una regla práctica ampliamente utilizada: el estadístico F de la primera etapa debe ser mayor que 10 para considerar que los instrumentos son suficientemente fuertes. Esta regla se basa en simulaciones que muestran que con F < 10, el sesgo del estimador IV puede superar al sesgo de MCO, y los intervalos de confianza tienen cobertura muy por debajo del nivel nominal.

Cuando F < 10, se recomienda usar métodos robustos a instrumentos débiles, como los intervalos de confianza de Anderson-Rubin, o buscar instrumentos más fuertes. La regla F > 10 es conservadora pero práctica para la mayoría de aplicaciones empíricas.

Supuestos del diagnóstico

  • Errores homocedásticos e independientes en la primera etapa
  • Normalidad asintótica de los estimadores
  • Identificación correcta del modelo estructural
  • Exogeneidad de los instrumentos (no verificable)

Parámetros de simulación

Estadísticos de la primera etapa

Comparación de estimadores

Interpretación econométrica