Jackknife (estadística)

De testwiki
Ir a la navegación Ir a la búsqueda

En estadística, el método jackknife es una técnica de remuestreo. Es una técnica útil para la estimación del sesgo y la varianza de estimadores. Básicamente, se forma un estimador del parámetro de interés por la media de las estimaciones conseguidas al eliminar, para cada una de ellas, una de las observaciones de la muestra original. Este estimador luego se usa estimar el sesgo y la varianza.

Historia

La técnica jackknife es anterior a otros métodos de remuestreo comunes como el bootstrap. Fue desarrollada por Maurice Quenouille (1949, 1956) y John W. Tukey (1958) se expandió en la técnica y propuso el nombre actual jackknife, ya que, al igual que una navaja de Boy Scout, es una herramienta "áspera y lista" que puede resolver una variedad de problemas a pesar de que los problemas específicos pueden ser más eficientemente resueltos con una herramienta diseñada para tal fin.[1] Posteriormente Bradley Efron, al proponer la técnica bootstrap, demuestra que el jackknife es una aproximación lineal de esta.[2]

Definición del estimador jackknife

Sea θ el parámetro que se quiere estimar usando un estimador θ^ a partir de una muestra de tamaño n. Se consideran los n estimadores θ^(j) de misma forma funcional que θ^ fruto de omitir la j-ésima observación de la muestra para cada j=1,,n. A estas estimaciones se las conoce como replicas jackknife y un primer estimador es su media[3]

θ^()=1nj=1nθ^(j)

que en el caso en que las réplicas jackknife sean incorreladas, disminuye la varianza respecto a θ^.

El estimador θ^ es en general sesgado. Una asunción razonable en la mayoría de los casos es que el sesgo del estimador tiende a 0 cuanto mayor es el tamaño muestral n, así se puede suponer que 𝔼[θ^]θ+bn. Entonces la media de las réplicas jackknife cumple

𝔼[θ^()]=𝔼[θ^(j)]θ+bn1

de manera que

𝔼[nθ^(n1)θ^()]nθ+b(n1)θb=θ

Se define el estimador jackknife con corrección de sesgo como

θ^jack=nθ^(n1)θ^()

que se puede escribir también como la media de los pseudovalores θj=nθ^(n1)θ^(j)

θ^jack=1nj=1nθ^j

Estimación del sesgo y de la varianza

De la discusión del apartado anterior se tiene que

𝔼[θ^()θ^]=bn(n1)

por lo tanto multiplicando por n1 se tiene una estimación aproximada del sesgo de θ^:

𝔹^(θ^)=(n1)(θ^()θ^)

Si al estimador θ^ se le resta la estimación de su sesgo, se obtiene de nuevo el estimador jackknife

θ^𝔹^(θ^)=θ^(n1)(θ^()θ^)=nθ^(n1)θ^()=θ^jack

Dada la expresión del estimador jackknife como media de pseudovalores, una estimación natural de su varianza es 1nS2, siendo en este caso S2la cuasivarianza o varianza muestral de los pseudovalores[4]

V^(θ^jack)=1n(n1)j=1n(θ^jθ^jack)2.

Esta expresión se usa también como estimación de la varianza de θ^.

Referencias

Plantilla:Listaref

Plantilla:Control de autoridades