Entropía de transferencia

De testwiki
Revisión del 15:25 26 feb 2025 de imported>Masdampipa (Reemplazos con Replacer: «especificamente»)
(difs.) ← Revisión anterior | Revisión actual (difs.) | Revisión siguiente → (difs.)
Ir a la navegación Ir a la búsqueda

La entropía de transferencia es una estadística no paramétrica que mide la cantidad de información transferida de manera dirigida (es decir, asimétrica en el tiempo) entre dos procesos aleatorios.[1][2][3] Específicamente, la entropía de transferencia de un proceso X a otro proceso Y cuantifica la reducción en la incertidumbre de los valores futuros de Y al conocer los valores pasados de X, dando el conocimento de valores pasados de Y. Formalmente, si Xt y Yt para t reoresentan dos procesos aleatorios y la cantidad de información se mide mediante la entropía de Shannon, la entropía de transferencia se puede se expresa como:

TXY=H(YtYt1:tL)H(YtYt1:tL,Xt1:tL),

donde H(X) es la entropía de Shannon de X. La definición anterior de entropía de transferencia se ha ampliado con otros tipos de medidas de entropía, como la entropía de Rényi.[3][4]

La entropía de transferencia es información mutua condicional,[5][6] con la historia de la variable influenciada Yt1:tL en la condición:

TXY=I(Yt;Xt1:tLYt1:tL).

La entropía de transferencia se reduce a la causalidad de Granger para los procesos autorregresivos vectoriales.[7] Por lo tanto, es ventajosa cuando la suposición del modelo de causalidad de Granger no se cumple, por ejemplo, en el análisis de señales no lineales.[8][9] Sin embargo, normalmente requiere más muestras para una estimación precisa.[10]

Las probabilidades en la fórmula de la entropía pueden estimarse utilizando diferentes enfoques (agrupamiento en bins, vecinos más cercanos) o, para reducir la complejidad, mediante una incrustación no uniforme.[11] Aunque originalmente se definió para el análisis bivariado, la entropía de transferencia se ha extendido a formas multivariadas, ya sea condicionada a otras posibles variables fuente[12] o considerando la transferencia desde una colección de fuentes,[13] aunque estas formas requieren aún más muestras.

La entropía de transferencia se ha utilizado para estimar la conectividad funcional de las neuronas,[13][14][15] la influencia social en las redes sociales [8] y la causalidad estadística entre eventos de conflicto armado.[16] La entropía de transferencia es una versión finita de la información dirigida que fue definida en 1990 por James Massey [17] como I(XnYn)=i=1nI(Xi;Yi|Yi1), dónde Xn denota el vector X1,X2,...,Xn y Yn denota Y1,Y2,...,Yn. La información dirigida juega un papel importante en la caracterización de los límites fundamentales ( capacidad del canal ) de los canales de comunicación con o sin retroalimentación [18][19] y el juego con información secundaria causal.[20]

Referencias

Plantilla:Listaref

Enlaces externos

Plantilla:Control de autoridades