Distribución uniforme continua

De testwiki
Revisión del 11:52 20 ene 2025 de imported>Maxmelgar (growthexperiments-addlink-summary-summary:3|0|0)
(difs.) ← Revisión anterior | Revisión actual (difs.) | Revisión siguiente → (difs.)
Ir a la navegación Ir a la búsqueda

Plantilla:Otros usos Plantilla:Ficha de distribución de probabilidad

En teoría de probabilidad y estadística, la distribución uniforme continua es una familia de distribuciones de probabilidad para variables aleatorias continuas, tales que para cada miembro de la familia, todos los intervalos de igual longitud en la distribución en su rango son igualmente probables. El dominio está definido por dos parámetros, a y b, que son sus valores mínimo y máximo respectivamente.

El intervalo puede ser cerrado (es decir, [a,b]) o abierto (es decir, (a,b)).[1] Por lo tanto, la distribución a menudo se abrevia U(a,b), donde U significa distribución uniforme.[2] La diferencia entre los límites define la longitud del intervalo; todos los intervalos de la misma longitud en el soporte de la distribución son igualmente probables. Es la distribución de probabilidad de máxima entropía para una variable aleatoria X sin más restricción que la de estar contenida en el soporte de la distribución.[3]

Definición

Notación

Si X es una variable aleatoria continua con distribución uniforme continua entonces escribiremos XU(a,b) o XUnif(a,b).

Función de densidad

Si XU(a,b) entonces la función de densidad es:

fX(x)=1ba

para x[a,b].

Dicho de otra forma, la función de densidad de probabilidad de la distribución uniforme continua es:

f(x)={1bapara axb,0para x<a  o  x>b.

Los valores de f(x) en los dos límites a y b no suelen tener importancia, porque no alteran el valor de cdf(x)dx en ningún intervalo [c,d], ni de abxf(x)dx, ni de ningún momento superior. A veces se elige que sean cero, y a veces se elige que sean 1ba. Esto último es apropiado en el contexto de la estimación por el método de máxima verosimilitud. En el contexto del análisis de Fourier, se puede tomar el valor de f(a) o f(b) para ser 12(ba), porque entonces la transformada inversa de muchas transformada integrals de esta función uniforme devolverá la propia función, en lugar de una función que es igual "casi en todas partes", es decir. es decir, excepto en un conjunto de puntos con medida nula. Además, es consistente con la función signo, que no tiene tal ambigüedad.

Cualquier función de densidad de probabilidad integra a 1, por lo que la función de densidad de probabilidad de la distribución uniforme continua se representa gráficamente como un rectángulo donde b-a es la longitud de la base y 1/(b-a) es la altura. A medida que la longitud de la base aumenta, la altura (la densidad en cualquier valor particular dentro de los límites de la distribución) disminuye.[4]

En términos de media μ y varianza σ2, la función de densidad de probabilidad de la distribución uniforme continua es:

f(x)={12σ3for σ3xμσ3,0otherwise.

Función de distribución

Si XU(a,b) entonces la función de distribución es:

FX(x)={0x<axabaax<b1xb

la cual es fácil de obtener a partir de la función de densidad pues

FX(x)=ax1badu=1bau|ax=xaba

Ejemplo 1. Uso de la función de distribución uniforme continua

Para una variable aleatoria XU(0,23), hallar P(2<X<18):

P(2<X<18)=(182)1230=1623.

En una representación gráfica de la función de distribución uniforme continua [f(x) vs x], el área bajo la curva dentro de los límites especificados, y mostrando la probabilidad, es un rectángulo. Para el ejemplo concreto anterior, la base sería 16, y la altura sería 1/23[5]

Ejemplo 2. Utilizando la función de distribución uniforme continua (condicional)

Para una variable aleatoria XU(0,23), hallar P(X>12 | X>8):

P(X>12 | X>8)=(2312)1238=1115.

El ejemplo anterior es un caso de probabilidad condicional para la distribución uniforme continua: dado que X > 8 es cierto, ¿cuál es la probabilidad de que X > 12? La probabilidad condicional cambia el espacio muestral, por lo que hay que calcular un nuevo intervalo de longitud (b-a'), donde b=23 y a=8.[5] La representación gráfica seguiría el ejemplo 1, donde el área bajo la curva dentro de los límites especificados muestra la probabilidad; la base del rectángulo sería 11, y la altura sería 1/15[5]

Propiedades

Si X es una variable aleatoria tal que XU(a,b) entonces la variable aleatoria X satisface algunas propiedades.

Media

La media de la variable aleatoria X es

E[X]=a+b2

Esta se demuestra fácilmente utilizando la definición de esperanza matemática

E[X]=abxbadx=1bax22|ab=b2a22(ba)=(ba)(b+a)2(ba)=a+b2

Si se exponeen un gráfico la función de densidad de esta distribución notará que la media corresponde al punto medio del intervalo [a,b].

Varianza

La varianza de la variable aleatoria X es

Var(X)=(ba)212

Momentos

El n-ésimo momento de la variable aleatoria X está dado por

E[Xn]=bn+1an+1(n+1)(ba)=1n+1k=0nakbnk

para n.

Función generadora de momentos

La función generadora de momentos de esta distribución es

MX(t)=etbetat(ba)

para valores t0.

Esto se demuestra fácilmente utilizando la definición de función generadora de momentos:

MX(t)=E[etX]=abetx1badx=1baetxt|ab=etbetat(ba)

Generalización a conjuntos de Borel

Esta distribución puede ser generalizada a conjuntos de intervalos más complicados. Si S es un conjunto de Borel de medida finita positiva, la distribución probabilidad uniforme en S se puede especificar definiendo que la pdf sea nula fuera de S e igual a 1/K dentro de S, donde K es la medida de Lebesgue de S.

Estadísticas de orden

Sea X1,X2,,Xn una muestra independiente e identicamente distribuidas de U(0,1). Sea X(k) el k-ésimo estadístico de orden de esta muestra. Entonces la distribución de probabilidad de X(k) es una distribución Beta con parámetros k y nk+1. La esperanza matemática es

E[X(k)]=kn+1.

Esto es útil cuando se realizan Q-Q plots.

Las varianzas son

Var(X(k))=k(nk+1)(n+1)2(n+2).

Uniformidad

La probabilidad de que una variable aleatoria uniformemente distribuida se encuentre dentro de algún intervalo de longitud finita es independiente de la ubicación del intervalo (aunque sí depende del tamaño del intervalo), siempre que el intervalo esté contenido en el dominio de la distribución.

Es posible verificar esto: si XU(a,b) y [x,x+l][a,b] con l>0 fijo, entonces

P[xXx+l]=xx+l1badt=lba.

lo cual sólo depende de la longitud del intervalo l y es independiente de x. Este hecho es el que le da su nombre a la distribución.

Distribución uniforme estándar

Si se restringe a=0 y b=1 entonces la distribución resultante se llama distribución uniforme estándar. Si X es una variable aleatoria con distribución uniforme estándar entonces se escribirá XU(0,1).

Para esta distribución en particular, se tiene que:

Función de densidad

La función de densidad para cualquier valor x[0,1] es simplemente la constante 1, esto es

fX(x)=1

Función de probabilidad

La función de probabilidad de X se reduce a la recta identidad, esto es

FX(x)=x

para valores de x[0,1]

Media y Varianza

La media y varianza están dadas por

E[X]=12
Var(X)=112

respectivamente.

Simetría

Si XU(0,1), entonces 1XU(0,1).

Transformada integral de probabilidad

Si Y es una variable aleatoria continua con función de distribución FY, entonces la variable aleatoria X=FY(Y)U(0,1).

Aplicando este resultado, es posible simular valores aleatorios de cualquier variable aleatoria continua a partir de valores aleatorios de una distribución uniforme en el intervalo [0,1]: basta aplicar a dichos valores la inversa de la función de distribución de la variable que queremos simular.

Distribuciones relacionadas

Si X tiene una distribución uniforme estándar, es decir, XU(0,1) entonces:

  • Y=ln(X)/λ tiene una distribución exponencial con parámetro λ, es decir YExponencial(λ).
  • Y=1X1/n tiene una distribución beta con parámetros 1 y n. (Notar que esto implica que la distribución uniforme estándar es un caso especial de la distribución beta, con parámetros 1 y 1).

Relaciones con otras funciones

Siempre y cuando se sigan las mismas convenciones en los puntos de transición, la función densidad de probabilidad puede también ser expresada mediante la función escalón de Heaviside:

f(x)=H(xa)H(xb)ba, o en términos de la función rectángulo
f(x)=1barect(x(a+b2)ba).

No existe ambigüedad en el punto de transición de la función signo. Utilizando la convención de la mitad del máximo en los puntos de transición, la distribución uniforme se puede expresar a partir de la función signo como:

f(x)=sgn(xa)sgn(xb)2(ba).

Aplicaciones

En estadística, cuando se utiliza un p-valor a modo de prueba estadística para una hipótesis nula simple, y la distribución de la prueba estadística es continua, entonces la prueba estadística esta uniformemente distribuida entre 0 y 1 si la hipótesis nula es verdadera.

Muestreo de una distribución uniforme

Existen muchos usos en que es útil realizar experimentos de simulación. Muchos lenguajes de programación poseen la capacidad de generar números pseudo-aleatorios que están distribuidos de acuerdo a una distribución uniforme estándar.

Si u es un valor muestreado de una distribución uniforme estándar, entonces el valor a + (ba)u posee una distribución uniforme parametrizada por a y b, como se describió previamente.

Muestreo de una distribución arbitraria

La distribución uniforme resulta útil para muestrear distribuciones arbitrarias. Un método general es el método de muestreo de transformación inversa, que utiliza la distribución de probabilidad (CDF) de la variable aleatoria objetivo. Este método es muy útil en trabajos teóricos. Dado que las simulaciones que utilizan este método requieren invertir la CDF de la variable objetivo, se han diseñado métodos alternativos para aquellos casos donde no se conoce el CDF en una forma cerrada. Otro método similar es el muestreo de rechazo.

La distribución normal es un ejemplo importante en el que el método de la transformada inversa no es eficiente. Sin embargo, existe un método exacto, el Método de Box-Muller, que utiliza la transformada inversa para convertir dos variables aleatorias uniformes independientes en dos variables aleatorias independientes distribuidas normalmente.

Error de cuantificación

Plantilla:Main En la conversión analógico-digital se produce un error de cuantización. Este error se debe al redondeo o al truncamiento. Cuando la señal original es mucho mayor que un least significant bit (LSB), el error de cuantización no está significativamente correlacionado con la señal, y tiene una distribución aproximadamente uniforme. Por lo tanto, el error RMS, por sus siglas en inglés, se obtiene a partir de la varianza de esta distribución.

Generación de variantes aleatorias

Hay muchas aplicaciones en las que resulta útil realizar experimentos de simulación. Muchos lenguajes de programacións vienen con implementaciones para generar números pseudoaleatorios que se distribuyen efectivamente según la distribución uniforme estándar.

Por otro lado, los números distribuidos uniformemente se utilizan a menudo como base para la generación de variantes aleatorias no uniformes.

Si u es un valor muestreado de la distribución uniforme estándar, entonces el valor a+(ba)u sigue la distribución uniforme parametrizada por a y b, como se ha descrito anteriormente.

Historia

Aunque los orígenes históricos de la concepción de la distribución uniforme no son concluyentes, se especula que el término "uniforme" surgió del concepto de equiprobabilidad en los juegos de dados (nótese que los juegos de dados tendrían discreta y no espacio muestral uniforme continuo). La equiprobabilidad fue mencionada en el Liber de Ludo Aleae de Gerolamo Cardano, un manual escrito en el Plantilla:Siglo y detallado sobre el cálculo avanzado de probabilidades en relación con los dados.[6]

Véase también

Referencias

Plantilla:Listaref

Bibliografía

Enlaces externos



Plantilla:Control de autoridades

su:Sebaran seragam#Kasus kontinyu