Entropía de transferencia
La entropía de transferencia es una estadística no paramétrica que mide la cantidad de información transferida de manera dirigida (es decir, asimétrica en el tiempo) entre dos procesos aleatorios.[1][2][3] Específicamente, la entropía de transferencia de un proceso X a otro proceso Y cuantifica la reducción en la incertidumbre de los valores futuros de Y al conocer los valores pasados de X, dando el conocimento de valores pasados de Y. Formalmente, si y para reoresentan dos procesos aleatorios y la cantidad de información se mide mediante la entropía de Shannon, la entropía de transferencia se puede se expresa como:
donde H(X) es la entropía de Shannon de X. La definición anterior de entropía de transferencia se ha ampliado con otros tipos de medidas de entropía, como la entropía de Rényi.[3][4]
La entropía de transferencia es información mutua condicional,[5][6] con la historia de la variable influenciada en la condición:
La entropía de transferencia se reduce a la causalidad de Granger para los procesos autorregresivos vectoriales.[7] Por lo tanto, es ventajosa cuando la suposición del modelo de causalidad de Granger no se cumple, por ejemplo, en el análisis de señales no lineales.[8][9] Sin embargo, normalmente requiere más muestras para una estimación precisa.[10]
Las probabilidades en la fórmula de la entropía pueden estimarse utilizando diferentes enfoques (agrupamiento en bins, vecinos más cercanos) o, para reducir la complejidad, mediante una incrustación no uniforme.[11] Aunque originalmente se definió para el análisis bivariado, la entropía de transferencia se ha extendido a formas multivariadas, ya sea condicionada a otras posibles variables fuente[12] o considerando la transferencia desde una colección de fuentes,[13] aunque estas formas requieren aún más muestras.
La entropía de transferencia se ha utilizado para estimar la conectividad funcional de las neuronas,[13][14][15] la influencia social en las redes sociales [8] y la causalidad estadística entre eventos de conflicto armado.[16] La entropía de transferencia es una versión finita de la información dirigida que fue definida en 1990 por James Massey [17] como , dónde denota el vector y denota . La información dirigida juega un papel importante en la caracterización de los límites fundamentales ( capacidad del canal ) de los canales de comunicación con o sin retroalimentación [18][19] y el juego con información secundaria causal.[20]
Referencias
Enlaces externos
- Plantilla:Cita web, a toolbox, developed in C++ and MATLAB, for computation of transfer entropy between spike trains.
- Plantilla:Cita web, a toolbox, developed in Java and usable in MATLAB, GNU Octave and Python, for computation of transfer entropy and related information-theoretic measures in both discrete and continuous-valued data.
- Plantilla:Cita web, a toolbox, developed in MATLAB, for computation of transfer entropy with different estimators.
Plantilla:Control de autoridades
- ↑ Plantilla:Cita publicación
- ↑ Plantilla:Cita publicación
- ↑ 3,0 3,1 Plantilla:Cita publicación
- ↑ Plantilla:Cita publicación
- ↑ Plantilla:Cita publicación
- ↑ Plantilla:Cita publicación
- ↑ Plantilla:Cita publicación
- ↑ 8,0 8,1 Plantilla:Cita conferencia
- ↑ Plantilla:Cita publicación
- ↑ Plantilla:Cita publicación
- ↑ Plantilla:Cita publicación
- ↑ Plantilla:Cita publicación
- ↑ 13,0 13,1 Plantilla:Cita publicación
- ↑ Plantilla:Cita publicación
- ↑ Plantilla:Cita publicación
- ↑ Plantilla:Cita publicación
- ↑ Plantilla:Cita publicación
- ↑ Plantilla:Cita publicación
- ↑ Plantilla:Cita publicación
- ↑ Plantilla:Cita publicación