Estimador extremo

De testwiki
Ir a la navegación Ir a la búsqueda

En estadística, los estimadores extremos constituyen una amplia clase de estimadores para modelos paramétricos que se calculan mediante la maximización (o minimización) de una determinada función objetivo, que depende de la muestra. La teoría general de estimadores extremos fue desarrollada por Plantilla:Harvtxt.

Definición

Un estimador θ^ se llama estimador extremo si existe una función objetivo Q^n tal que

θ^=argmaxθΘ Q^n(θ),

donde Θ es el espacio de parámetros. A veces se da una condición más débil:

Q^n(θ^)maxθΘQ^n(θ)op(1),

donde op(1) es una variable que converge en probabilidad a cero. Con esta modificación, θ^ no necesita ser el valor exacto que maximiza la función objetivo, sino simplemente estar lo suficientemente cerca de ese valor.

La teoría de los estimadores extremos no especifica cuál debe ser la función objetivo. Existen varios tipos de funciones objetivo adecuadas para diferentes modelos, por lo que el estudio de los estimadores extremos nos permite analizar simultáneamente las propiedades teóricas de una amplia clase de estimadores. La teoría sólo especifica las propiedades que la función objetivo debe tener, de forma que, cuando uno elige una función objetivo particular, sólo debe verificar que esas propiedades se cumplen.

Consistencia

Cuando el espacio de parámetros Θ no es compacto (Θ= en este ejemplo), aunque la función objetivo tenga un único máximo en θ0, este máximo puede no estar bien separado, en cuyo caso el estimador θ^ no será consistente.

Si el espacio de parámetros Θ es compacto y existe una función límite Q0(θ) tal que:

  1. Q^n(θ)Q0(θ) en probabilidad uniformemente en Θ, y
  2. la función Q0(θ) es continua y tiene un único máximo en θ=θ0,

entonces θ^ es un estimador consistente de θ0.[1]

La convergencia uniforme en probabilidad de Q^n(θ) significa que

supθΘ|Q^n(θ)Q0(θ)| p 0.

La condición de que Θ sea compacto puede relajarse: basta suponer que el máximo de Q0 está bien separado, es decir, que para toda secuencia {θi} tal que Q0(θi)Q0(θ0) se verifica θiθ0. Intuitivamente, esto significa que no existen puntos θ lejanos a θ0 tales que Q0(θ) esté próximo a Q0(θ0).

Normalidad asintótica

Suponiendo que son ciertas las hipótesis anteriores para la consistencia y que las derivadas de Q^n satisfacen ciertas condiciones,[2] el estimador extremo es asintóticamente normal.

Ejemplos

Q^n(θ)=log[i=1nf(xi|θ)]=i=1nlogf(xi|θ),

donde f(|θ) es la función de densidad de la distribución de la que fue extraída la muestra. Esta función objetivo se llama función de log-verosomilitud.

Q^n(θ)=(1ni=1ng(xi,θ))W^n(1ni=1ng(xi,θ)).
  • Estimador de mínima distancia.

Referencias

Plantilla:Listaref

Plantilla:Control de autoridades

  1. Newey & McFadden (1994), Theorem 2.1
  2. Plantilla:Cite web