Lema de Johnson-Lindenstrauss

De testwiki
Ir a la navegación Ir a la búsqueda

En matemáticas, el lema de Johnson-Lindenstrauss es un resultado que lleva el nombre de William B. Johnson y Joram Lindenstrauss sobre encajes de puntos de baja distorsión, desde el espacio euclídeo de alta dimensión al espacio euclídeo de baja dimensión. El lema establece que un conjunto de puntos en un espacio de dimensión alta se puede incrustar en un espacio de dimensión mucho más baja de tal manera que las distancias entre los puntos casi se conservan. El mapa utilizado para el encaje es al menos lipschitziano, e incluso puede tomarse como una proyección ortogonal.

El lema tiene aplicaciones en detección comprimida, aprendizaje de variedades, reducción de dimensionalidad y embebido de grafos. Gran parte de los datos almacenados y manipulados en las computadoras, incluyendo texto e imágenes, se pueden representar como puntos en un espacio de alta dimensión (consúltese el artículo modelo de espacio vectorial para el caso del texto). Sin embargo, los algoritmos esenciales para trabajar con dichos datos tienden a funcionar cada vez con mayor lentitud a medida que aumenta la dimensión. Por lo tanto, es deseable reducir la dimensionalidad de los datos de una manera que conserve su estructura relevante. El lema de Johnson-Lindenstrauss es un resultado clásico en este sentido.

Además, el lema es estrecho módulo un factor constante, es decir que existe un conjunto de puntos de tamaño m que necesita dimensión

Ω(log(m)ε2)

para que se puedan preservar las distancias entre todos los pares de puntos dentro de un factor de (1±ε).[1][2]

Lema

Dado 0<ε<1, un conjunto X de m1 puntos en N ( N0 ), y un número entero n>8(lnm)/ε2 , existe un mapa lineal f:Nn tal que

(1ε)uv2f(u)f(v)2(1+ε)uv2

para todos u,vX.

La fórmula se puede reorganizar como sigue:(1+ε)1f(u)f(v)2uv2(1ε)1f(u)f(v)2Alternativamente, para cualquier ϵ(0,1) y cualquier entero n15(lnm)/ε2[Nota 1] existe una función lineal f:Nn tal que la restricción f|X es (1+ε) - bi-lipschitziana.[Nota 2]

Una prueba del lema toma ƒ como un múltiplo adecuado de la proyección ortogonal sobre un subespacio aleatorio de dimensión n en N, y explota el fenómeno de la concentración de la medida.

En general, una proyección ortogonal reducirá la distancia promedio entre los puntos, pero se puede considerar que el lema trata con distancias relativas, que no cambian con la escala. En pocas palabras, tiras los dados y obtienes una proyección aleatoria, que reducirá la distancia promedio, y luego aumentas las distancias para que la distancia promedio vuelva a su valor anterior. Si continúa tirando los dados, encontrará, en tiempo aleatorio polinomial, una proyección para la cual las distancias (escaladas) satisfacen el lema.

Declaración alternativa del lema

Un lema relacionado es el lema distribucional JL. Este lema establece que para cualquier 0<ε,δ<1/2 y entero positivo d, existe una distribución probabilística sobre el espacio k×d de donde la matriz A se toma tal que para k=O(ε2log(1/δ)) y para cualquier vector de longitud unitaria xd, se mantiene la siguiente afirmación.[3]

P(|Ax221|>ε)<δ

Se puede obtener el lema JL de la versión distribucional definiendo x=(uv)/uv2 y δ<1/n2 para algún par u,vambos en X. Entonces el lema JL sigue por una cuota de unión sobre todos esos pares.

Aceleramiento de la transformación JL

Dado A, calcular el producto vectorial de la matriz toma tiempo O(kd). Ha habido investigación en la derivación de distribuciones para las cuales el producto vectorial de matrices se puede calcular en tiempo menor que O(kd).

Hay dos grandes líneas de trabajo. La primera, Fast Johnson Lindenstrauss Transform (FJLT),[4] fue presentada por Ailon y Chazelle en 2006. Este método permite calcular el producto matriz-vector en tan solo dlogd+k2+γ para cualquier constante γ>0.

Otro enfoque es construir una distribución compatible con matrices que son dispersas.[5] Este método permite mantener sólo un fracción ε de las entradas en la matriz, lo que significa que el cálculo se puede hacer en tiempo tan solo kdε. Además, si el vector tiene sólo b entradas distintas de cero, el Lema JL disperso toma tiempo kbε, que puede ser mucho menor que el tiempo utilizado por el Lema JL rápido, que es dlogd.

Proyecciones aleatorias tensorizadas

Es posible combinar dos matrices JL tomando el llamado producto de división de caras, que se define como los productos tensoriales de las filas (propuesto por V. Slyusar[6] en 1996[7][8][9][10][11] para aplicaciones de conjuntos de antenas digitales y de radares ). Más concretamente, sean C3×3 y D3×3 dos matrices. Entonces el producto de división de cara CD es dado por[7][8][9][10][11]

CD=[C1D1C2D2C3D3].

La idea de tensorización fue utilizada por Kasiviswanathan et al. 2010[12] para la rama de privacidad diferencial.

Las matrices JL definidas así usan menos bits aleatorios y se pueden aplicar rápidamente a vectores que tienen estructura tensorial, debido a la siguiente identidad:[9]

(𝐂𝐃)(xy)=𝐂x𝐃y=[(𝐂x)1(𝐃y)1(𝐂x)2(𝐃y)2] ,

dónde es el producto entrada por entrada (Hadamard). Dichos cálculos se han utilizado para calcular de manera eficiente los núcleos polinómicos y muchos otros algoritmos de álgebra lineal.[13]

En 2020[14] se demostró que si las matrices C1,C2,,Cc son matrices independientes con entradas ±1 o Gaussianas, la matriz combinada C1Cc satisface el lema distribucional JL si el número de filas es al menos

O(ϵ2log1/δ+ϵ1(1clog1/δ)c).

Para valores grandes de ϵ esto es tan bueno como el Lema Johnson-Lindenstrauss completamente aleatorio, pero un límite inferior coincidente en el mismo documento muestra que esta dependencia exponencial de (log1/δ)c es necesaria. Se sugieren construcciones JL alternativas para evitar esta circunstancia.

Véase también

Notas

Plantilla:Listaref

Referencias

Plantilla:Listaref

Lecturas adicionales

Plantilla:Control de autoridades

  1. Plantilla:Cita conferencia
  2. Plantilla:Cita libro
  3. Plantilla:Cita enciclopedia
  4. Plantilla:Cita enciclopedia
  5. Plantilla:Cita publicación. A preliminary version of this paper was published in the Proceedings of the Twenty-Third Annual ACM-SIAM Symposium on Discrete Algorithms, 2012.
  6. Anna Esteve, Eva Boj & Josep Fortiana (2009): Interaction Terms in Distance-Based Regression, Communications in Statistics - Theory and Methods, 38:19, P. 3501
  7. 7,0 7,1 Plantilla:Cita publicación
  8. 8,0 8,1 Plantilla:Cita publicación
  9. 9,0 9,1 9,2 Plantilla:Cita publicación
  10. 10,0 10,1 Plantilla:Cita publicación
  11. 11,0 11,1 Plantilla:Cita publicación
  12. Kasiviswanathan, Shiva Prasad, et al. "The price of privately releasing contingency tables and the spectra of random matrices with correlated rows." Proceedings of the forty-second ACM symposium on Theory of computing. 2010.
  13. Woodruff, David P. "Sketching as a Tool for Numerical Linear Algebra." Theoretical Computer Science 10.1-2 (2014): 1-157.
  14. Plantilla:Cita conferencia


Error en la cita: Existen etiquetas <ref> para un grupo llamado «Nota», pero no se encontró la etiqueta <references group="Nota"/> correspondiente.