Entropía de Rényi

De testwiki
Revisión del 17:26 5 ene 2025 de imported>Jouhrocha (growthexperiments-addlink-summary-summary:3|0|0)
(difs.) ← Revisión anterior | Revisión actual (difs.) | Revisión siguiente → (difs.)
Ir a la navegación Ir a la búsqueda

En teoría de la información, la entropía de Rényi generaliza la entropía de Hartley, la entropía de Shannon, la entropía de colisión y la entropía min. Las entropías cuantifican la diversidad, incertidumbre o aleatoriedad de un sistema. La entropía de Rényi lleva el nombre de Alfréd Rényi.[1] En el contexto de estimación de la dimensión fractal, la entropía de Rényi forma la base del concepto de dimensiones generalizadas.

La entropía de Rényi es importante en ecología y estadística como índice de diversidad. La entropía de Rényi también es importante en información cuántica, donde se puede usar como medida del entrelazamiento. En el modelo de Heisenberg de cadena de espín XY, se puede calcular explícitamente la entropía de Rényi como función de α gracias al hecho de que es una función automórfica con respecto a un subgrupo particular del grupo modular.[2][3] En ciencia computacional teórica, la entropía min se usa en el contexto de extractores de aleatoriedad.

Definición

La entropía de Rényi de orden α, donde α0 y α1, se define como

Hα(X)=11αlog(i=1npiα) .

Aquí, X es una variable aleatoria discreta con resultados posibles 1,2,...,n y probabilidades correspondientes piPr(X=i) para i=1,,n, y el logaritmo es de base 2. Si las probabilidades son pi=1/n para todo i=1,,n, entonces todas las entropías de Rényi de la distribución son iguales: Hα(X)=logn. En general, para todas las variables aleatorias discretas X, Hα(X) es una función no creciente de α.

Sus aplicaciones suelen utilizar la siguiente relación entre la entropía de Rényi y la norma p del vector de probabilidades:

Hα(X)=α1αlog(Pα) .

donde la distribución de probabilidad discreta P=(p1,,pn) se interpreta como un vector en n con pi0 y i=1npi=1.

La entropía de Rényi para cualquier α0 es Schur-cóncava.

Casos especiales de la entropía de Rényi

Entropía de Rényi de una variable aleatoria con dos posibles salidas frente a p1, donde P = (p1, 1 − p1). Se representan H0, H1, H2 y H, en unidades de shannons.

Cuando α tiende a cero, la entropía de Rényi le da un peso cada vez más parejo a todos los eventos posibles, independientemente de sus probabilidades. En el límite α → 0, la entropía de Rényi es simplemente el logaritmo del tamaño del soporte de X. El límite α → 1 es la entropía de Shannon. Cuando α tiende a infinito, la entropía de Rényi está determinada por los eventos de mayor probabilidad.

Entropía max o de Hartley

Dadas probabilidades no nulas,[4] H0 es el logaritmo de la cardinalidad de X, a veces llamado la entropía de Hartley de X,

H0(X)=logn=log|X|.

Entropía de Shannon

El valor límite de Hα cuando α → 1 es la entropía de Shannon:[5]

H1(X)=i=1npilogpi.

Entropía de colisión

La entropía de colisión, a veces llamada simplemente entropía de Rényi, se refiere al caso α = 2,

H2(X)=logi=1npi2=logP(X=Y)

donde X e Y son independientes e idénticamente distribuidas.

Entropía min

En el límite α, la entropía de Rényi Hα converge a la entropía min H:

H(X)mini(logpi)=(maxilogpi)=logmaxipi.

De forma equivalente, la entropía min H(X) es el mayor número real b tal que todos los eventos ocurren con probabilidad a lo sumo 2b.

El nombre entropía min proviene del hecho de que es la menor medida de la entropía de la familia de entropías de Rényi. En este sentido, es la manera más fuerte de medir la información contenida en una variable aleatoria discreta. En particular, la entropía min nunca es mayor que la entropía de Shannon.

La entropía min tiene importantes aplicaciones en extractores de aleatoriedad en ciencia computacional teórica: los extractores son capaces de extraer aleatoriedad de fuentes aleatorias que tienen gran entropía min. Tener simplemente una entropía de Shannon grande no es suficiente para ello.

Entropía lineal

Un caso particular de la entropía de Rényi corresponde a la entropía lineal (α=2):

L(X)=H2(X)=log(i=1npi2)

Desigualdades entre diferentes valores de α

Se puede probar por derivación que Hα es no creciente con α,[6] de la forma

dHαdα=1(1α)2i=1nzilog(zi/pi),

que es proporcional a la divergencia de Kullback-Leibler (que es siempre no negativa), donde zi=piα/j=1npjα.

En casos particulares las desigualdades se pueden probar también con la desigualdad de Jensen:[7][8]

logn=H0H1H2H.

Para valores de α>1, también se cumplen desigualdades en el otro sentido. En particular, se tiene[9]Plantilla:Cita requerida

H22H.

Por otro lado, la entropía de Shannon H1 puede ser arbitrariamente grande para una variable aleatoria X con una entropía min dada.Plantilla:Cita requerida

Divergencia de Rényi

Al igual que las entropías de Rényi absolutas, Rényi también definió un espectro de medidas de la divergencia generalizando la divergencia de Kullback-Leibler.[10]

La divergencia de Rényi de orden α o divergencia alfa de una distribución P respecto de una distribución Q se define como

Dα(PQ)=1α1log(i=1npiαqiα1)

donde 0 < α < ∞ y α ≠ 1. Se puede definir la divergencia de Rényi para los valores particulares α = 0, 1, ∞ tomando el límite, y en particular el límite α → 1 da la divergencia de Kullback-Leibler.

Algunos casos particulares:

D0(PQ)=logQ({i:pi>0}): menos la probabilidad en Q de que pi > 0;
D1/2(PQ)=2logi=1npiqi: menos dos veces el logaritmo del coeficiente de Bhattacharyya; (Plantilla:Harvtxt)
D1(PQ)=i=1npilogpiqi: la divergencia de Kullback-Leibler;
D2(PQ)=logpiqi: el logaritmo del ratio esperado de las probabilidades;
D(PQ)=logsupipiqi: el logaritmo del ratio máximo de las probabilidades.

La divergencia de Rényi es de hecho una divergencia, lo que quiere decir simplemente que Dα(PQ) es mayor o igual que cero, siendo cero si y solo si P = Q. Para un par de distribuciones cualesquiera pero fijas P y Q, la divergencia de Rényi es no decreciente como función de su orden α, y es continua en elconjunto de α para los que es finita.

Por qué α = 1 es especial

El valor Plantilla:Math, que da la entropía de Shannon y la divergencia de Kullback-Leibler, es especial ya que es solo con Plantilla:Math con que se cumple la regla de la cadena de la probabilidad condicionada de forma exacta:

H(A,X)=H(A)+𝔼aA[H(X|A=a)]

para las entropías absolutas, y

DKL(p(x|a)p(a)||m(x,a))=DKL(p(a)||m(a))+𝔼p(a){DKL(p(x|a)||m(x|a))},

para las entropías relativas.

Esto último en particular significa que si buscamos una distribución Plantilla:Math que minimice la divergencia de alguna medida previa subyacente Plantilla:Math, y obtenemos nueva información que solo afecta a la distribución Plantilla:Math, entonces la distribución de Plantilla:Math permanece Plantilla:Math, sin cambios.

Las otras divergencias de Rényi satisfacen los criterios de ser positivas y continuas; ser invariantes bajo transformaciones coordinadas inyectivas; y de combinarse aditivamente cuando Plantilla:Math y Plantilla:Math son independientes, de forma que Plantilla:Math, luego

Hα(A,X)=Hα(A)+Hα(X)

y

Dα(P(A)P(X)Q(A)Q(X))=Dα(P(A)Q(A))+Dα(P(X)Q(X)).

Las propiedades más fuertes de las cantidades Plantilla:Math, que permiten definir la información condicional y la información mutua en teoría de comunicación, pueden ser muy importantes en otras aplicaciones, o completamente irrelevantes, dependiendo de las necesidades de tales aplicaciones.

Familias exponenciales

Las entropías de Rényi y las divergencias para una familia exponencial admiten expresiones simples[11]

Hα(pF(x;θ))=11α(F(αθ)αF(θ)+logEp[e(α1)k(x)])

y

Dα(p:q)=JF,α(θ:θ)1α

donde

JF,α(θ:θ)=αF(θ)+(1α)F(θ)F(αθ+(1α)θ)

es la divergencia de Jensen.

Significado físico

La entropía de Rényi en física cuántica no se considera un observable, debido a su dependencia no lineal con la matriz de densidad. La entropía de Shannon comparte esta dependencia no lineal. Ansari y Nazarov mostraron una correspondencia que revela el significado físico del flujo de entropía de Renyi en el tiempo. Su propuesta es similar al teorema de fluctuación-disipación en espíritu y permite la medida de la entropía cuántica usando la estadística de contado completo de las transferencias de energía.[12][13][14]

Véase también

Notas

Plantilla:Listaref

Referencias

Plantilla:Refbegin

Plantilla:Refend

Plantilla:Control de autoridades

  1. Plantilla:Harvtxt
  2. Plantilla:Harvtxt
  3. Plantilla:Harvtxt
  4. RFC 4086, page 6
  5. Plantilla:Harvtxt
  6. Plantilla:Harvtxt
  7. H1H2 se cumple ya que i=1Mpilogpilogi=1Mpi2.
  8. HH2 se cumple ya que logi=1npi2logsupipi(i=1npi)=logsuppi.
  9. H22H se cumple ya que logi=1npi2logsupipi2=2logsupipi
  10. Plantilla:Cita publicación
  11. Plantilla:Harvtxt
  12. Plantilla:Harvtxt
  13. Plantilla:Harvtxt
  14. Plantilla:Harvtxt