Modelo probit

De testwiki
Ir a la navegación Ir a la búsqueda
Gráfica del modelo probit

En estadística, un modelo probit es un área de regresión donde la variable dependiente puede tomar solo dos valores, por ejemplo, casados o no casados. La palabra es un acrónimo, viene de probabilidad + unit (unidad).[1] El propósito del modelo es estimar la probabilidad de que una observación con características particulares caerá en una categoría específica; además, clasificando las observaciones basadas en sus probabilidades predichas es un tipo de modelo de clasificación binario .

Un modelo probit es una especificación popular para un modelo de respuesta ordinal[2] o binario. Como tal, trata el mismo conjunto de problemas que la regresión logística utilizando técnicas similares. El modelo probit, que emplea una función de enlace probit, se suele estimar utilizando el procedimiento estándar de máxima verosimilitud , que se denomina una regresión probit.

Los modelos Probit fueron presentados por Chester Bliss en 1934;[3] Ronald Fisher propuso un método rápido para calcular las estimaciones de máxima verosimilitud para ellos como apéndice del trabajo de Bliss en 1935.[4]

Marco conceptual

Supongamos que una variable de respuesta Y es dicotómica, es decir, que puede tener solo dos resultados posibles que denotaremos como 1 y 0. Por ejemplo, Y puede representar la presencia o ausencia de una determinada condición, éxito o falla de algún dispositivo, responder sí o no en una encuesta, etc. También tenemos un vector de regresores que denotaremos por X, que se supone influyen en el resultado de Y. Específicamente, suponemos que el modelo toma la forma:

P[Y=1X]=Φ(XTβ),

donde P denota la probabilidad, y Φ es la función de distribución acumulada (FDA) de la distribución normal estándar. Los parámetros β se estiman típicamente por máxima verosimilitud.

Es posible motivar el modelo probit como un modelo de variable latente. Supongamos que existe una variable aleatoria auxiliar

Y=XTβ+ε,

donde εN(0,1). Entonces Y puede verse como un indicador de si esta variable latente es positiva:

Y={1Y*>00en otro caso={1ε<XTβ,0en otro caso.

El uso de la distribución normal estándar no causa pérdida de generalidad en comparación con el uso de una media arbitraria y una desviación estándar porque la suma de una cantidad fija a la media puede compensarse restando la misma cantidad de la intersección y multiplicando la desviación estándar por una cantidad fija se puede compensar multiplicando los pesos por la misma cantidad.

Para ver que los dos modelos son equivalentes, tenga en cuenta que:

P[Y=1X]=P[Y>0]=P[XTβ+ε>0]=P[ε>XTβ]=P[ε<XTβ]por simetría de la distribución normal=Φ[XTβ]

Estimación del modelo

Estimación de máxima verosimilitud

Supongamos que el conjunto de datos {yi,xi}i=1n contiene n unidades estadísticas independientes que corresponden al modelo anterior. Entonces su función conjunta de verosimilitud de log es

ln(β)=i=1n(yilnΦ(xiβ)+(1yi)ln(1Φ(xiβ)))

El estimador β^ que maximiza esta función será consistente, asintóticamente normal y eficiente siempre que XXT exista y sea no singular. Se puede demostrar que esta función de verosimilitud de log es cóncava globalmente en β, y, por lo tanto, los algoritmos numéricos estándar para la optimización convergerán rápidamente al máximo único.

Distribución asintótica para β^ está dado por:

n(β^β) d 𝒩(0,Ω1),

donde

Ω=E[φ2(Xβ)Φ(Xβ)(1Φ(Xβ))XX],Ω^=1ni=1nφ2(x'iβ^)Φ(x'iβ^)(1Φ(x'iβ^))xix'i

y φ = Φ' es la función de densidad de probabilidad (PDF) de la distribución normal estándar.

El método mínimo de ji-cuadrado de Berkson

Este método solo se puede aplicar cuando hay muchas observaciones de variables de respuesta y yi teniendo el mismo valor del vector de regresores xi (tal situación puede denominarse "muchas observaciones por celda"). Más específicamente, el modelo se puede formular de la siguiente manera.

Supongamos que entre n observaciones {yi,xi}i=1n solo hay T valores distintos de los regresores, que se pueden denotar como {x(1),,x(T)}. Sea nt el número de observaciones con xi=x(t), y rt el número de tales observaciones con yi=1. Suponemos que efectivamente hay "muchas" observaciones por cada "célula": para cada t,limnnt/n=ct>0.

Denotemos:

p^t=rt/nt
σ^t2=1ntp^t(1p^t)φ2(Φ1(p^t))

Entonces, el estimador mínimo de chi-cuadrado de Berkson es un estimador de mínimos cuadrados generalizados en una regresión de Φ1(p^t) en x(t) con ponderadores σ^t2:

β^=(t=1Tσ^t2x(t)x'(t))1t=1Tσ^t2x(t)Φ1(p^t)

Se puede demostrar que este estimador es consistente (como n→∞ y T fijo), asintóticamente normal y eficiente. [ cita requerida ] Su ventaja es la presencia de una fórmula de forma cerrada para el estimador. Sin embargo, solo es significativo llevar a cabo este análisis cuando las observaciones individuales no están disponibles, solo sus cuentas agregadas rt, nt, y x(t) (por ejemplo, en el análisis del comportamiento electoral).

Referencias

Plantilla:Listaref

Plantilla:Control de autoridades

  1. Oxford English Dictionary, 3rd ed. s.v. probit (article dated June 2007): Plantilla:Cite journal
  2. Ordinal probit regression model UCLA Academic Technology Services http://www.ats.ucla.edu/stat/stata/dae/ologit.htm Plantilla:Wayback
  3. Plantilla:Cita publicación
  4. Plantilla:Cita publicación