Ley del estadístico inconsciente

De testwiki
Revisión del 22:16 10 oct 2023 de imported>MetroBot (Bot: ajustando referencias al Manual de estilo. Retirando espacio antes de las referencias.)
(difs.) ← Revisión anterior | Revisión actual (difs.) | Revisión siguiente → (difs.)
Ir a la navegación Ir a la búsqueda

En teoría de la probabilidad y estadística, la ley del estadístico inconsciente, o LEI, es un teorema utilizado para calcular el valor esperado de una función g(X) de una variable aleatoria X cuando se conoce la distribución de probabilidad de X pero no se conoce la distribución de g(X). La forma de la ley puede depender de la forma en que se establece la distribución de probabilidad de la variable aleatoria  X. Si es una distribución discreta y se conoce su función de masa de probabilidad ƒX (pero no ƒ g(X)), entonces el valor esperado de g(X) es

𝔼[g(X)]=xg(x)fX(x),

donde la suma es sobre todos los valores posibles  x de X. Si es una distribución continua y se conoce su función de densidad de probabilidad ƒX (pero no ƒg(X)), entonces el valor esperado de g(X) es

𝔼[g(X)]=g(x)fX(x)dx

Si uno conoce la función de distribución acumulativa FX (pero no Fg(X)), entonces el valor esperado de g(X) viene dado por una integral de Riemann-Stieltjes

𝔼[g(X)]=g(x)dFX(x)

(de nuevo asumiendo que X toma valores en los reales).[1][2][3][4]

Etimología

Esta proposición se conoce como la ley del estadístico inconsciente debido a una supuesta tendencia a usar la identidad sin darse cuenta de que debe tratarse como el resultado de un teorema rigurosamente probado, no simplemente una definición.[4]

Distribuciones conjuntas

Una propiedad similar se mantiene para distribuciones conjuntas. Para las variables aleatorias discretas X e Y, una función de dos variables g, y la función de masa de probabilidad conjunta f(x y):[5]

𝔼[g(X,Y)]=yxg(x,y)f(x,y)

En el caso absolutamente continuo, con f(x y) siendo la función de densidad de probabilidad conjunta,

𝔼[g(X,Y)]=g(x,y)f(x,y)dxdy

Demostración

Esta ley no es un resultado trivial de las definiciones como podría parecer a primera vista, sino que debe ser probada.<nombreref = "Ross2010" />[6][7]

Caso continuo

Para una variable aleatoria continua X, sea Y = g(X), y supongamos que g es diferenciable y que su inversa g−1 es monótona. Por la fórmula para funciones inversas y diferenciación,

ddy(g1(y))=1g(g1(y))

Porque x = g−1(y),

dx=1g(g1(y))dy

De modo que por un cambio de variables,

g(x)fX(x)dx=yfX(g1(y))1g(g1(y))dy

Ahora, obsérvese que debido a que la función de distribución acumulativa FY(y)=P(Yy), sustituyendo el valor de g(X), tomando el inverso de ambos lados, y reorganizando los rendimientos FY(y)=FX(g1(y)). Luego, por la regla de la cadena,

fY(y)=fX(g1(y))1g(g1(y))

Combinando estas expresiones, encontramos

g(x)fX(x)dx=yfY(y)dy

Por la definición de valor esperado,

𝔼[g(X)]=g(x)fX(x)dx

Caso discreto

Sea Y=g(X). Luego considérese la definición del valor esperado.

𝔼[Y]=yyfY(y)
𝔼[g(X)]=yyP(g(X)=y)
𝔼[g(X)]=yyx:g(x)=yfX(x)
𝔼[g(X)]=xg(x)fX(x)

De la teoría de la medida

Puede obtenere una derivación técnicamente completa del resultado utilizando argumentos en teoría de la medida, en los que el espacio de probabilidad de una variable aleatoria transformada g(X) esté relacionado con el de la variable aleatoria original X. Los pasos aquí implican definir una medida progrediente para el espacio transformado, y el resultado es entonces un ejemplo de una fórmula de cambio de variables.[5]

ΩgXdP=ΩXgd(X*P)

Se dice que X:(Ω,Σ,P)(ΩX,ΣX) tiene una densidad si la medida progrediente (pushforward) d(X*P) es absolutamente continua con respecto a la medida de Lebesgue μ. En ese caso,

d(X*P)=fdμ,

donde f:ΩX es la densidad (véase derivada de Radon-Nikodym). Así que lo anterior se puede reescribir como el más familiar

𝔼[g(X)]=ΩgXdP=ΩXg(x)f(x)dx.

Referencias

Plantilla:Listaref

Plantilla:Control de autoridades

  1. Eric Key (1998) Lecture 6: Random variables Plantilla:Wayback, Lecture notes, University of Leeds
  2. Bengt Ringner (2009) "Ley del inconsciente inconsciente" statistician", nota no publicada, Centro de Ciencias Matemáticas, Universidad de Lund Plantilla:Wayback
  3. Plantilla:Cite book
  4. 4,0 4,1 Plantilla:Cite book
  5. 5,0 5,1 Plantilla:Cite book
  6. Virtual Laboratories in Probability and Statistics, Sect. 3.1 "Expected Value: Definition and Properties", item "Basic Results: Change of Variables Theorem".
  7. Plantilla:Cite web