[1] 3010
[1] 6.261832
A veces es difícil encontrar una expresión analítica de los errores estándar
La idea de las técnicas bootstrap es consutrir una distribución empírica del estimador de interés
Una muestra bootstrap es una muestra tomada de los mismos datos
En las rutinas para errores bootstrap, pensamos en \(\{(y_1,x_1),\ldots,(y_N,X_n)\}\) como la población
Una muestra bootstrap es una muestra de tamaño \(N\) tomada de la muestra original
El procedimiento bootstrap más usado es el bootstrap no paramétrico o boostrap en parejas (nos enfocaremos en este tipo de bootstrap en el curso)
La idea es remuestrear la pareja completa \((y_i,x_i)\)
Dada una muestra \(W_1,\ldots,W_N\), obtener una muestra de tamaño \(N\), remuestreando de la muestra original con reemplazo
Calcular el estadístico \(\hat{\theta}_b\) usado con la muestra bootstrap (coeficiente de regresión, diferencia de medias, función de coeficientes)
Repetir los pasos 1 y 2 \(B\) veces, donde \(B\) es lo suficientemente grande (usualmente 1000 es suficiente)
Usar las \(B\) repeticiones para obtener el error estándar del estadístico como la raíz cuadrada de \(s^2_{\hat{\theta},B}\):
\[s^2_{\hat{\theta},B}=\frac{1}{B-1}\sum_{b=1}^B(\hat{\theta}_{b}-\bar{\hat{\theta}})^2\] donde \(\bar{\hat{\theta}}=\frac{1}{B}\sum_{b=1}^B\hat{\theta}_b\)
Métodos de varias etapas (por ejemplo, el estimador de dos etapas de Heckman)
Funciones de estimadores (aunque aquí el método Delta también podría ser usado)
Datos agrupados con pocos grupos (remuestrear grupos en vez de individuos)
El consejo práctico es usar resultados teóricos cuando se puede (por ejemplo, las matrices robustas descritas antes)
Pensemos siempre en la estructura de los datos antes de hacer boostrap
Usar una semilla siempre para poder reproducir sus resultados
En presencia de heterocedasticidad se prefiere usar bootstrap salvaje (wild bootstrap) (MacKinnon, 2012)
Propuesto originalmente por Liu (1988), cada muestra bootstrap tiene la siguiente forma:
\[y_i^*=X_i\hat{\beta}+f(\hat{u}_i)v_i^*\] - Noten que mantiene fijos los \(X_i\) en cada muestra bootstrap
Una especificación comúnmente usada es hacer es \(f(\hat{u}_i)=\hat{u}_i\) y \[v_i^*=\begin{cases} 1 \quad\text{con probabilidad 0.5} \\ -1 \quad\text{con probabilidad 0.5} \end{cases}\]
\(\hat{\beta}\) y \(\hat{u}_i\) son estimados con la muestra original
En cada una de las \(B\) muestras bootstrap, mantenemos a los mismos individuos (no hay remuestreo)
Tendremos \(B\) muestras bootstrap, pero ahora la aleatoriedad viene por \(f(\hat{u}_i)v_i^*\)
Pueden usarse otras funciones más complicadas para \(f(\hat{u}_i)\)
La ventaja de este método es que conserva la relación entre las varianzas residuales y las \(X_i\) observadas en los datos originales
Davidson & Flachaire (2008) utilizan simulaciones para mostrar que con esta forma para \(f(\hat{u}_i)v_i^*\) la inferencia es más confiable que con otras especificaciones
Una aplicación de las técnicas bootstrap es el refinamiento asintótico de la prueba \(t\) de coeficientes de regresión
Supongamos que \(H_0:\quad \beta=0\) y trabajamos con un nivel \(\alpha\)
En cada repetición bootstrap el estadístico calculado es \(t_b\)
Ordenamos los \(B\) estadísticos obtenidos
Rechazamos \(H_0\) si \(|t|\) está por encima del \((1-\alpha)\)ésimo percentil de los \(|t_b|\) en la distribución bootstrap
A pesar de sus propiedades teóricas, el refinamiento asintótico es poco usado
Formalmente no es un método bootstrap
Una muestra jacknife es una muestra de tamaño \(N-1\) construida a partir de la muestra original donde una observación es eliminada a la vez
En cada muestra jacknife estimamos el estadístico de interés \(\hat{\theta}_{(j)}\) (tendremos \(N\) estadísticos)
El error estándar jacknife será
\[\hat{se}(\hat{\theta})=\left(\frac{N-1}{N}\sum_{j=1}^N\left(\hat{\theta}_{(j)}-\hat{\theta}\right)^2\right)^{1/2}\]
Funciona bien para estadísticas suaves y funciones lineales
Se puede hacer jacknife por bloques (Cameron y Miller, 2015)