Espacio métrico probabilístico

De testwiki
Ir a la navegación Ir a la búsqueda

En matemáticas, los espacios métricos probabilísticos son una generalización de espacios métricos donde la distancia ya no toma valores en los números reales no negativos 0, subo en espacios de funciones de distribución.[1]

Sea D+ el conjunto de todas las funciones densidad de probabilidad F tales que F(0) = 0 (F es una aplicación continua por la izquierda, no decreciente de en [0,1] tal que el max(F) = 1).

A continuación, se da un conjunto no-vacío S y una función F: S ×  SD+ donde designamos como F(p,  q), en lugar de Fp,q, a cada (p,  q) ∈ S × S. Se dice que el par ordenado (S,  F) es un espacio métrico probabilístico si:

  • Para todas las u y v en S, Plantilla:Math si y solo si 1=Fu,v(x)=1 para todo x>0.
  • Para todas las u y v en S, 1=Fu,v=Fv,u.
  • Para todos los u, v y w en S, 1=Fu,v(x)=1 y 1=Fv,w(y)=1Fu,w(x+y)=1 para x,y>0.[2]

Historia

Los espacios métricos probabilísticos son introducidos inicialmente por Menger, que se denominaron métricas estadísticas. [3] Poco después, Wald criticaría la desigualdad generalizada del triángulo, proponiendo una alternativa a la misma.[4] Sin embargo, ambos autores habían llegado a la conclusión de que, en algunos aspectos, la desigualdad de Wald era un requisito demasiado estricto para imponerlo a todos los espacios métricos de probabilidad, lo que se incluye en parte en el trabajo de Schweizer y Sklar. [5] Más tarde, los espacios métricos probabilísticos resultaron ser muy adecuados para ser utilizados con conjuntos difusos [6] y más adelante llamados espacios métricos difusos[7]

Métrica de probabilidad de variables aleatorias

Una métrica de probabilidad D entre dos variables aleatorias X e Y puede definirse, por ejemplo, como

D(X,Y)=|xy|F(x,y)dxdy

donde F(x, y) denota la función de densidad de probabilidad conjunta de las variables aleatorias X e Y. Si X e Y son independientes entre sí, entonces la ecuación anterior se transforma en

D(X,Y)=|xy|f(x)g(y)dxdy

donde f(x) y g(y) son funciones de densidad de probabilidad de X e Y respectivamente.

Se puede demostrar fácilmente que tales métricas de probabilidad no satisfacen el primer axioma métrico o lo satisfacen si, y sólo si, los argumentos X e Y son ciertos eventos descritos por una densidad que sea una delta de Dirac . En este caso:

D(X,Y)=|xy|δ(xμx)δ(yμy)dxdy=|μxμy|

la métrica de probabilidad simplemente se transforma en la métrica entre valor esperado μx, μy de las variables X e Y.

Para todas las demás variables aleatorias X, Y la métrica de probabilidad no satisface la condición de identidad de indiscernibles requerida para ser satisfecha por la métrica del espacio métrico, es decir:

D(X,X)>0.

Métrica de probabilidad entre dos variables aleatorias X e Y, ambas con distribuidas normalmente con la misma desviación estándar σ=0,σ=0.2,σ=0.4,σ=0.6,σ=0.8,σ=1 (comenzando con la curva inferior). mxy=|μxμy| denota una distancia entre medias de X e Y.

Ejemplo

Por ejemplo, si ambas función de distribución de probabilidad de las variables aleatorias X e Y se distribuyen según una distribución normal (N) y tienen la misma desviación estándar σ, la integración de D(X,Y) obtiene:

DNN(X,Y)=μxy+2σπexp(μxy24σ2)μxyerfc(μxy2σ)

Dónde

μC=|μxμI|,

y erfc(x) es la función de error complementaria.

En este caso:

limμxy0DNN(X,Y)=DNN(X,X)=2σπ.

Métrica de probabilidad de vectores aleatorios

La métrica de probabilidad de las variables aleatorias puede extenderse a la métrica D(X, Y) de vectores aleatorios X, Y sustituyendo |xy| con cualquier operador métrico d(x, y):

D(𝐗,𝐘)=ΩΩd(𝐱,𝐲)F(𝐱,𝐲)dΩxdΩy

donde F(X, Y) es la función de densidad de probabilidad conjunta de los vectores aleatorios X e Y. Por ejemplo, sustituyendo d(x, y) por métrica euclídea y proporcionando que los vectores X e Y son mutuamente independientes se obtendría que:

D(𝐗,𝐘)=ΩΩi|xiyi|2F(𝐱)G(𝐲)dΩxdΩy.

Referencias

Plantilla:Listaref

Plantilla:Control de autoridades