Diferencia entre revisiones de «Algoritmo de Lanczos»

De testwiki
Ir a la navegación Ir a la búsqueda
imported>Twyrgo
 
(Sin diferencias)

Revisión actual - 20:38 18 dic 2024

El algoritmo de Lanczos es un algoritmo iterativo creado por Cornelius Lanczos,[1] este es una adaptación de los métodos iterativos para encontrar los valores propios más útiles y vectores propios de un sistema lineal de dimensión n*n realizando un número de operaciones, m, donde m es más pequeño que n.

Aunque computacionalmente eficiente, en principio, el método formulado inicialmente no era útil, debido a su inestabilidad numérica. En 1970, Ojalvo y Newman mostraron cómo hacer el método numéricamente estable.[2] Esto se logró utilizando un método para la corrección de los vectores a cualquier grado de precisión que, cuando no se realiza, produce una serie de vectores que están altamente contaminados por los asociados con las frecuencias naturales más bajas. En su trabajo original, estos autores también sugirieron cómo seleccionar un vector de partida (utilizan un generador de números aleatorios para seleccionar cada elemento del vector de partida) y propusieron un método determinado empíricamente para determinar m, el reducido número de vectores (debe ser seleccionado para ser de aproximadamente 1 ½ veces el número de valores propios exactos que se desea).

Poco después su trabajo fue seguido por más artículos[3][4] que también proporciaron un análisis del error cometido. En el año 1988, Ojalvo[5] produjo una historia más detallada de este algoritmo y una prueba de error eficiente para un valor propio. Actualmente, el método es ampliamente utilizado en una variedad de campos técnicos y ha dado lugar una serie de variantes.

Método iterativo para encontrar valores propios

El método iterativo para encontrar el mayor valor propio de una matriz A puede resumirse señalando que si x0 es un vector aleatorio y xn+1=Axn, entonces para un n grande límite xn/xn se acerca al vector propio normalizado correspondiente al valor propio más grande.

Si A=Udiag(σi)U es la descomposición en valores propios de una matriz de A, entonces An=Udiag(σin)U. Como n se hace grande, la matriz diagonal de valores propios estará acotada por el valor propio más grande(despreciando el caso en que el valor más grande este repetido ). Mientras, xn+1/xn convergerán al mayor valor propio y xn/xn al vector propio asociado. Si el mayor valor propio es múltiple, entonces xn convergerá a un vector en el subespacio generado por los vectores propios asociados con esos valores propios más grandes. Luego de haber encontrado el primer vector propio / valor, uno puede restringir sucesivamente el algoritmo para el espacio nulo (kernel) de los vectores propios conocidos para obtener el segundo mayor vector propio / valores y así sucesivamente.

En la práctica, este sencillo algoritmo no funciona muy bien para el cálculo de muchos de los vectores propios, ya que cualquier error de redondeo podría introducir ligeros cambios a los componentes de los vectores propios más significativos de nuevo en el cálculo, degradando la exactitud del cálculo.

Método de Lanczos

Durante el procedimiento de aplicación del método, al obtener el último valor propio An1v, también se obtiene una serie de vectores Ajv,j=0,1,,n2 los cuales son descartados. Como n es con frecuencia grande, puede que se tenga una gran cantidad de información que no se utilice. Los algoritmos más avanzados, Como el el algoritmo de Arnoldi, el algoritmo de Lanczos, guardan esta información y utilizan el proceso de Gram–Schmidt o el algoritmo Householder para ortogonalizar nuevamente en una base que abarca el subespacio de Krylov correspondiente a la matriz A.

El algoritmo

El algoritmo de Lanczos puede ser visto como un sistema simplificado del algoritmo de Arnoldi que se aplica a matrices hermitianas. El mesimo paso del algoritmo transforma la matriz A en una matriz tridiagonal Tmm; cuando m es igual a la dimensión de A, Tmm es semejante a A.

Definiciones

Se quiere calcular la matriz tridiagonal y simétrica Tmm=Vm*AVm.

Los elementos de la diagonal se denotan por αj=tjj, Y los elementos fuera de la diagonal son denotados por βj=tj1,j.

Notar que tj1,j=tj,j1, debido a la simetría de la matriz.

Iteración

(Nota: siguiendo estos pasos solamente no se encontraran correctamente los valores y vectores propios. Se deben tener en cuenta más consideraciones para corregir errores numéricos. Ver la sección Estabilidad numérica.)

En principio, hay cuatro maneras de escribir el procedimiento de iteración. Paige[1972] y otros trabajos muestran que el siguiente procedimiento es el más estable numéricamente.[6][7]

 v1 vector aleatorio con norma 1.
 v00
 β10
 for j=1,2,,m1
   wjAvj
   αjwjvj
   wjwjαjvjβjvj1
   βj+1wj
   vj+1wj/βj+1
 endfor
 wmAvm
 αmwmvm
 return

Aquí, xy representa el producto escalar de vectores x y y.

Después de la iteración, se obtiene la αj and βj con los que se forma una matriz tridiagonal.

Tmm=(α1β20β2α2β3β3α3βm1βm1αm1βm0βmαm)

Los vectores vj (vectores de Lanczos) generados sobre la marcha forman la matriz de transformación Vm=(v1,v2,,vm), que es útil para el cálculo de los vectores propios (ver más abajo). En la práctica, se podría guardar en cada iteración (pero ocupa memoria), o se podría recalcular cuando se necesite, siempre y cuando se tenga el primer vector v1. En cada iteración del algoritmo realiza una multiplicación matriz-vector y otras operaciones de punto flotantes.

Encontrando valores y vectores propios

Después de que la matriz Tmm es calculada, se pueden encontrar sus valores propios λi(m) y sus correspondientes vectores propios ui(m) (Por ejemplo, usando el algoritmo QR o Multiple Relatively Robust Representations (MRRR)). Los valores y vectores propios deT se pueden obtener en 𝒪(m2) usando MRRR; si se quiere buscar solo los valores propios estos se calculan en 𝒪(m2) usando bisección espectral.

Se puede demostrar que los valores propios son valores propios aproximados de la matriz original A.

Los vectores propios yi de A se pueden calcular yi=Vmui(m), donde Vm es la matriz de transformación cuyos vectores columna son v1,v2,,vm.

Estabilidad Numérica

Estabilidad significa cuánto se verá afectado el algoritmo (es decir, se encontrara un resultado aproximado cercano al original) si hay pequeños errores numéricos introducidos y acumulados. Estabilidad numérica es el criterio central para juzgar la utilidad de una implementación de un algoritmo en un ordenador con redondeo. Para el algoritmo de Lanczos, se puede demostrar que con una aritmética exacta, el conjunto de vectores v1,v2,,vm+1 forman una base ortonormal, los valores y vectores propios encontrados son buenas aproximaciones a los de la matriz original. Sin embargo, en la práctica (como los cálculos se realizan en aritméticas de punto flotante donde la inexactitud es inevitable, la ortogonalidad se pierde rápidamente y en algunos casos el nuevo vector incluso podría ser linealmente dependiente del conjunto que ya está construido. Como resultado, algunos de los valores propios de la matriz tridiagonal resultante no son buenas aproximaciones para los de la matriz original. Por lo que, el algoritmo de Lanczos no es muy estable.

Los que usen el algoritmo deben ser capaz de encontrar y eliminar los valores propios "con errores". Las implementaciones prácticas del algoritmo de Lanczos van en tres direcciones para luchar contra este problema de estabilidad:[6][7]

  1. Prevenir la pérdida de ortogonalidad
  2. Recuperar la ortogonalidad después de que se genera la base.
  3. Después de identificar los valores propios "con errores", eliminarlos.

Variantes

Existen variantes en el algoritmo de Lanczos donde los vectores involucrados son vectores columnas, matrices estrechas y las constantes de la normalización son pequeñas matrices cuadradas. Estos se llaman "bloques" y el algoritmo de Lanczos puede ser mucho más rápido en computadoras con un gran número de registros y tiempos de esfuerzo de memoria largos.

Muchas implementaciones del algoritmo de Lanczos reinician después de un cierto número de iteraciones. Una de las variaciones del reinicio más influyentes es el método de Lanczos con reinicio implícito,[8] que se implementa enARPACK.[9] Esto ha llevado a un número de otras variantes de reinicio tales como reinicio bidiagonalizado de Lanczos.[10] Otra variante de reinicio exitosa es el método Thick-Restart de Lanczos,[11] que se ha implementado en un paquete de software llamado TRLAN.[12]

Kernel sobre un cuerpo finito

En 1995, Peter Montgomery publicó un algoritmo, basado en el algoritmo de Lanczos para encontrar elementos del kernel de una gran matriz sparse sobre GF(2); ya que el conjunto de personas interesadas en matrices sparse de gran dimensión sobre cuerpos finitos y el conjunto de personas interesadas en los problemas de los valores propios más grandes, tienen pocas personas en común, esto es a menudo también llamado el algoritmo de Lanczos por bloques.

Aplicaciones

Los algoritmos Lanczos son muy atractivos porque la multiplicación por A es la única operación lineal a gran escala. Dado que los motores de recuperación de texto implementan esta operación, el algoritmo Lanczos se puede aplicar de manera eficiente a los documentos de texto (ver indexación semántica latente). Los vectores propios son también importantes para los métodos de clasificación a gran escala tales como el algoritmo HITS desarrollado por Jon Kleinberg, o el PageRank algoritmo usado por Google.

Algoritmos de Lanczos también se utilizan en Física de la materia condensada como un método para resolver hamiltonianas de sistemas de electrones fuertemente correlacionados.[13]

Implementaciones

La biblioteca NAG contiene varias métodos[14] para la solución de sistemas lineales grandes y problemas de valores/vectores propios que utilizan el algoritmo de Lanczos.

MATLAB y GNU Octave vienen con ARPACK incorporado. Ambos analizan matrices usando la función eigs() (Matlab/Octave).

La implementación de Matlab del algoritmo de Lanczos (nota: problemas de precisión) está disponible como parte de la Gaussian Belief Propagation Matlab Package. El GraphLab[15] biblioteca de filtrado colaborativo incorpora una implementación paralelizada del algoritmo de Lanczos (en C ++) para multinúcleo. La biblioteca PRIMME también implementa el algoritmo de Lanczos.

Referencias

Plantilla:Listaref

Enlaces externos


Plantilla:Control de autoridades

  1. Lanczos, C. “An iteration method for the solution of the eigenvalue problem of linear differential and integral operators”, J. Res. Nat’l Bur. Std. 45, 225-282 (1950).
  2. Ojalvo, I.U. and Newman, M.,”Vibration modes of large structures by an automatic matrix-reduction method”, AIAA J., 8 (7), 1234-1239 (1970).
  3. Paige, C.C., “The computation of eigenvalues and eigenvectors of very large sparse matrices”, the U. of London Ph.D. thesis (1971).
  4. Paige, C.C., “Computational variants of the Lanczos method for the eigenproblem”, J. Inst. Maths Applics 10, 373-381 (1972).
  5. Ojalvo, I.U., “Origins and advantages of Lanczos vectors for large dynamic systems”, Proc. 6th Modal Analysis Conference (IMAC), Kissimmee, FL, 489-494 (1988).
  6. 6,0 6,1 Plantilla:Cita libro
  7. 7,0 7,1 Plantilla:Cita libro
  8. Plantilla:Cita publicación
  9. Plantilla:Cita libro
  10. Plantilla:Cita publicación
  11. Plantilla:Cita publicación
  12. Plantilla:Cita web
  13. Plantilla:Cita publicación
  14. Plantilla:Cita web
  15. GraphLab Plantilla:Wayback