Descomposición en valores propios de una matriz
En álgebra lineal, la descomposición en valores propios de una matriz es su factorización en una forma canónica, de manera que se representa mediante sus valores y vectores propios (también denominados autovalores y autovectores). Solo las matrices diagonalizables se pueden factorizar de esta manera. Cuando la matriz que se factoriza es una matriz normal o una matriz simétrica real, la descomposición se denomina descomposición espectral, forma derivada del teorema de descomposición espectral.
Teoría fundamental de vectores propios y valores propios de una matriz
Un vector Plantilla:Math (distinto de cero) de dimensión Plantilla:Mvar es un vector propio de una matriz cuadrada Plantilla:Math Plantilla:Math si satisface una ecuación lineal de la forma
para algún escalar Plantilla:Mvar. Entonces Plantilla:Mvar se llama valor propio correspondiente a Plantilla:Math. Hablando geométricamente, los vectores propios de Plantilla:Math son los vectores que la transformación representada por la matriz Plantilla:Math simplemente alarga o encoge, y la cantidad en la que se alargan/encogen es el valor propio. La ecuación anterior se llama ecuación de valores propios o problema de valores propios.
Esto produce una ecuación para los valores propios
Se denomina polinomio característico de la matriz a Plantilla:Math, y la ecuación, llamada ecuación característica, es una ecuación polinómica de orden Plantilla:Mvar en la incógnita Plantilla:Mvar. Esta ecuación tendrá distintas soluciones para Plantilla:Mvar, donde Plantilla:Math. El conjunto de soluciones, es decir, los valores propios, se llama espectro de Plantilla:Math.[1][2][3]
Si el cuerpo de escalares es algebraicamente cerrado, entonces se puede factorizar Plantilla:Mvar como
El entero Plantilla:Mvar se denomina multiplicidad algebraica del valor propio Plantilla:Mvar. Los números de multiplicidades algebraicas suman Plantilla:Mvar:
Para cada valor propio Plantilla:Mvar, se tiene una ecuación de valor propio específica
Habrá soluciones Plantilla:Math linealmente independientes para cada ecuación de valores propios. Las combinaciones lineales de las soluciones Plantilla:Math (excepto las que tienen el vector cero) son los vectores propios asociados al valor propio Plantilla:Math. El entero Plantilla:Math se denomina multiplicidad geométrica de Plantilla:Math. Es importante tener en cuenta que la multiplicidad algebraica Plantilla:Math y la multiplicidad geométrica Plantilla:Math pueden o no ser iguales, pero siempre se tiene que Plantilla:Math. El caso más simple es, por supuesto, cuando Plantilla:Math. El número total de vectores propios linealmente independientes, Plantilla:Math, se puede calcular sumando las multiplicidades geométricas
Los vectores propios se pueden indexar por valores propios, usando un índice doble, siendo Plantilla:Math el vector propio Plantilla:Mvar-ésimo para el valor propio Plantilla:Mvar-ésimo. Los vectores propios también se pueden indexar usando la notación más simple de un solo índice Plantilla:Math, con Plantilla:Math.
Descomposición propia de una matriz
Sea Plantilla:Math una matriz cuadrada de orden Plantilla:Math con Plantilla:Mvar vectores propios linealmente independientes Plantilla:Mvar (donde Plantilla:Math). Entonces Plantilla:Math puede ser factorizada como
donde Plantilla:Math es la matriz cuadrada de orden Plantilla:Math cuya columna Plantilla:Mvar-ésima es el vector propio Plantilla:Mvar de Plantilla:Math, y Plantilla:Math es la matriz diagonal cuyos elementos diagonales son los valores propios correspondientes, Plantilla:Math. Téngase en cuenta que solo las matrices diagonalizables se pueden factorizar de esta manera. Por ejemplo, la matriz defectiva (que es un matriz de cizallamiento) no se puede diagonalizar.
Los vectores propios Plantilla:Mvar Plantilla:Mvar suelen estar normalizados, pero no es necesario que lo estén. Un conjunto no normalizado de vectores propios Plantilla:Mvar, Plantilla:Mvar también se puede utilizar como las columnas de Plantilla:Math. Eso se puede entender observando que la magnitud de los vectores propios en Plantilla:Math se cancela en la descomposición por la presencia de Plantilla:Math. Si uno de los valores propios Plantilla:Math tiene más de un vector propio linealmente independiente (es decir, la multiplicidad geométrica de Plantilla:Math es mayor que 1), entonces estos vectores propios para este valor propio Plantilla:Math pueden elegirse para que sean mutuamente ortogonales; Sin embargo, si dos vectores propios pertenecen a dos valores propios diferentes, puede ser imposible que sean ortogonales entre sí (véase el ejemplo que fugura a continuación). Un caso especial es que si Plantilla:Math es una matriz normal, entonces por el teorema espectral, siempre es posible diagonalizar Plantilla:Math en una base ortonormal Plantilla:Mvar.
La descomposición se puede derivar de la propiedad fundamental de los vectores propios:
Los vectores propios linealmente independientes Plantilla:Mvar con valores propios distintos de cero forman una base (no necesariamente ortonormal) para todos los posibles productos Plantilla:Math, para Plantilla:Math, que es lo mismo que la imagen (o rango) de la correspondiente matriz de transformación, y también el espacio columna de la matriz Plantilla:Math. El número de vectores propios linealmente independientes Plantilla:Mvar con valores propios distintos de cero es igual al rango de la matriz Plantilla:Math, y también la dimensión de la imagen (o rango) de la transformación matricial correspondiente, así como su espacio de columnas.
Los vectores propios linealmente independientes Plantilla:Mvar con un valor propio de cero forman una base (que se puede elegir para que sea ortonormal) para el núcleo (también conocido como kernel) de la transformación matricial Plantilla:Math.
Ejemplo
La matriz real 2 × 2 Plantilla:Math
puede descomponerse en una matriz diagonal mediante la multiplicación de una matriz no singular Plantilla:Math
En consecuencia
para alguna matriz diagonal real .
Multiplicando ambos lados de la ecuación de la izquierda por Plantilla:Math:
La ecuación anterior se puede descomponer en dos ecuaciones simultáneas:
Factorizando los valores propios Plantilla:Mvar y Plantilla:Mvar:
de donde se obtiene que
lo que produce dos ecuaciones vectoriales:
Y se puede representar mediante una sola ecuación vectorial que involucra dos soluciones como valores propios:
donde Plantilla:Mvar representa los dos autovalores Plantilla:Mvar y Plantilla:Mvar, y Plantilla:Math representa los vectores Plantilla:Math y Plantilla:Math.
Desplazando Plantilla:Math al lado izquierdo y factorizando Plantilla:Math
Dado que Plantilla:Math no es singular, es esencial que Plantilla:Math no sea cero. Por lo tanto,
De este modo
y se obtienen las soluciones de los valores propios para la matriz Plantilla:Math como Plantilla:Math o Plantilla:Math, y la matriz diagonal resultante de la descomposición propia de Plantilla:Math es .
Poniendo las soluciones de nuevo en las ecuaciones simultáneas anteriores
Resolviendo las ecuaciones, se obtiene
Por lo tanto, la matriz Plantilla:Math requerida para la descomposición propia de Plantilla:Math es
y por lo tanto:
Matriz inversa mediante descomposición en valores propios
Si una matriz Plantilla:Math puede autodescomponerse y ninguno de sus autovalores es cero, entonces Plantilla:Math es invertible y su inversa viene dada por
Si es una matriz simétrica, dado que se forma a partir de los vectores propios de , se garantiza que es una matriz ortogonal, por lo tanto, . Además, como Plantilla:Math es una matriz diagonal, su inversa es fácil de calcular:
Implicaciones prácticas
Cuando se usa la descomposición propia en una matriz de datos reales obtenidos de una medición, el resultado inverso puede ser menos válido cuando todos los valores propios se usan sin modificar en la forma anterior. Esto se debe a que, a medida que los valores propios se vuelven relativamente pequeños, su contribución a la inversión es grande. Aquellos cerca de cero o del umbral del ruido del sistema de medición tendrán una influencia indebida y podrían dificultar la obtención de las soluciones (detección) usando la matriz inversa.[4]
Se han propuesto dos mitigaciones: truncar valores propios pequeños o cero, y extender el valor propio fiable más bajo a los que están debajo de él.
El primer método de mitigación es similar a una muestra dispersa de la matriz original, eliminando los componentes que no se consideran valiosos. Sin embargo, si la solución o el proceso de detección está cerca del nivel de ruido, el truncamiento puede eliminar componentes que influyen en la solución deseada.
La segunda mitigación extiende el valor propio, de modo que los valores más bajos tienen mucha menos influencia sobre la inversión, pero todavía contribuyen, de modo que aún se encontrarán soluciones cercanas al ruido.
El valor propio fiable se puede encontrar asumiendo que los valores propios de valor extremadamente similar y bajo son una buena representación del ruido de medición (que se supone bajo para la mayoría de los sistemas).
Si los valores propios están clasificados por valor, entonces el valor propio fiable se puede encontrar minimizando el laplaciano de los valores propios ordenados:[5]
donde a los valores propios se les añade un subíndice con un Plantilla:Math para indicar que se están ordenando. La posición de la minimización es el valor propio fiable más bajo. En los sistemas de medición, la raíz cuadrada de este valor propio fiable es el ruido promedio sobre los componentes del sistema.
Cálculo funcional
La descomposición propia permite un cálculo mucho más fácil de series de potencias de matrices. Si Plantilla:Math está dado por
entonces se sabe que
Debido a que Plantilla:Math es una matriz diagonal, las funciones de Plantilla:Math son muy fáciles de calcular:
Los elementos fuera de la diagonal de Plantilla:Math son cero; es decir, Plantilla:Math también es una matriz diagonal. Por lo tanto, calcular Plantilla:Math se reduce a simplemente calcular la función en cada uno de los valores propios.
Una técnica similar funciona más generalmente con el cálculo funcional holomórfico, usando
visto anteriormente. Una vez más, encontramos que
Ejemplos
que son ejemplos de las funciones . Además, es el exponencial de una matriz.
Descomposición para matrices especiales

Cuando Plantilla:Math es una matriz simétrica normal o real, la descomposición se denomina descomposición espectral, derivada del teorema espectral.
Matrices normales
Una matriz cuadrada de valor complejo Plantilla:Math es normal (es decir, Plantilla:Math, donde Plantilla:Math es la matriz traspuesta conjugada) si y solo si se puede descomponer como
donde Plantilla:Math es una matriz unitaria (que significa que Plantilla:Math) y Plantilla:Math es una matriz diagonal.[6] Las columnas u1, ..., un de Plantilla:Math forman un base ortonormal y son vectores propios de Plantilla:Math con valores propios correspondientes λ1, ..., λn.
Si Plantilla:Math está restringido a ser un matriz hermítica (Plantilla:Math), entonces Plantilla:Math solo tiene entradas con valores reales. Si Plantilla:Math está restringida a ser una matriz unitaria, entonces Plantilla:Math puede tomar todos sus valores en el círculo unitario complejo, es decir, Plantilla:Math.
Matrices simétricas reales
Como caso especial, para cada matriz simétrica real Plantilla:Math, los valores propios son reales y los vectores propios pueden elegirse reales y ortonormales. Por lo tanto, una matriz simétrica real Plantilla:Math se puede descomponer como
donde Plantilla:Math es una matriz ortogonal cuyas columnas son (los elegidos anteriormente, reales y ortonormales) vectores propios de Plantilla:Math, y Plantilla:Math es una matriz diagonal cuyas entradas son los valores propios de Plantilla:Math.[7]
Datos útiles
Datos útiles sobre los valores propios
- El producto de los valores propios es igual al determinante de Plantilla:Math Debe tenerse en cuenta que cada valor propio se eleva a la potencia Plantilla:Math, su multiplicidad algebraica.
- La suma de los valores propios es igual a la traza de Plantilla:Math Debe tenerse en cuenta que cada valor propio se multiplica por Plantilla:Math, su multiplicidad algebraica.
- Si los valores propios de Plantilla:Math son Plantilla:Math y Plantilla:Math es invertible, entonces los valores propios de Plantilla:Math son simplemente Plantilla:Math.
- Si los valores propios de Plantilla:Math son Plantilla:Math, entonces los valores propios de Plantilla:Math son simplemente Plantilla:Math, para cualquier función holomorfa Plantilla:Mvar.
Datos útiles sobre los vectores propios
- Si Plantilla:Math es una matriz hermítica y de rango completo, la base de los vectores propios puede elegirse para que sean mutuamente ortogonales, y los valores propios (o autovalores) son reales.
- Los vectores propios de Plantilla:Math son los mismos que los vectores propios de Plantilla:Math.
- Los vectores propios solo se definen hasta una constante multiplicativa. Es decir, si Plantilla:Math entonces Plantilla:Math es también un vector propio para cualquier escalar Plantilla:Math. En particular, Plantilla:Math y Plantilla:Math (para cualquier θ) también son vectores propios.
- En el caso de valores propios degenerados (un valor propio que tiene más de un vector propio), los vectores propios tienen una libertad adicional de transformación lineal, es decir, cualquier combinación lineal (ortonormal) de vectores propios que comparten un valor propio (en el subespacio degenerado) es en sí mismo un vector propio (en el subespacio).
Datos útiles sobre la descomposición mediante valores propios
- Plantilla:Math puede descomponerse en forma propia si y solo si el número de vectores propios linealmente independientes Plantilla:Math, es igual a la dimensión de un vector propio: Plantilla:Math
- Si el campo de escalares es algebraicamente cerrado y si Plantilla:Math no tiene raíces repetidas, es decir, si entonces Plantilla:Math puede descomponerse automáticamente.
- La afirmación de que "Plantilla:Math puede descomponerse automáticamente" "no" implica que Plantilla:Math tenga una inversa.
- La afirmación de que "Plantilla:Math tiene un inverso" "no" implica que Plantilla:Math pueda descomponerse automáticamente. Un contraejemplo es , que es una matriz defectiva invertible.
Datos útiles sobre la matriz inversa
- Plantilla:Math se puede invertir si y solo si todos los valores propios son distintos de cero:
- Si Plantilla:Math y Plantilla:Math, la inversa viene dada por
Cálculos numéricos
Cálculo numérico de valores propios
Supóngase que se quieren calcular los valores propios de una matriz dada. Si la matriz es pequeña, se pueden calcular simbólicamente usando su polinomio característico. Sin embargo, esto es a menudo imposible para matrices más grandes, en cuyo caso debe usarse un método numérico.
En la práctica, los valores propios de matrices grandes no se calculan utilizando el polinomio característico. Calcular el polinomio se vuelve costoso en sí mismo, y las raíces exactas (simbólicas) de un polinomio de alto grado pueden ser difíciles de calcular y expresar: el teorema de Abel-Ruffini implica que las raíces de los polinomios de alto grado (5 o más) en general no pueden expresarse simplemente usando raíces Plantilla:Mvar-ésimas. Por lo tanto, los algoritmos generales para encontrar vectores propios y valores propios son iterativos.
Existen algoritmos numéricos iterativos para aproximar raíces de polinomios, como el método de Newton, pero en general no es práctico calcular el polinomio característico y luego aplicar estos métodos. Una razón es que los errores de redondeo en los coeficientes pequeños del polinomio característico pueden dar lugar a grandes errores en los valores y vectores propios: las raíces son una función extremadamente condicionada por el valor exacto de los coeficientes.[8]
Un método iterativo simple y preciso es el método de las potencias: se elige un vector aleatorio Plantilla:Math y se calcula una secuencia de vectores unitarios como
Esta sucesión casi seguramente convergerá a un vector propio correspondiente al valor propio de mayor magnitud, siempre que Plantilla:Math tenga un componente distinto de cero de este vector propio en la base del vector propio (y también siempre que haya solo un valor propio de mayor magnitud). Este algoritmo simple es útil en algunas aplicaciones prácticas; por ejemplo, Google lo usa para calcular el clasificación de páginas de los documentos en su motor de búsqueda.[9] Además, el método de las potencias es el punto de partida para muchos algoritmos más sofisticados. Por ejemplo, al mantener no solo el último vector en la secuencia, sino observar el sistema generador de "todos" los vectores en la secuencia, se puede obtener una mejor aproximación (convergencia más rápida) para el vector propio, y esta idea es la base de la iteración de Arnoldi.[8] Alternativamente, el importante algoritmo QR también se basa en una transformación sutil de un método de potencias.[8]
Cálculo numérico de vectores propios
Una vez que se calculan los valores propios, los vectores propios se pueden calcular resolviendo la ecuación
utilizando la eliminación de Gauss-Jordan o cualquier otro método para resolver la ecuación matricial.
Sin embargo, en los métodos prácticos de valor propio a gran escala, los vectores propios generalmente se calculan de otras maneras, como un subproducto del cálculo del valor propio. En el método de las potencias, por ejemplo, el vector propio se calcula antes que el valor propio (que normalmente se calcula mediante el cociente de Rayleigh del vector propio).[8] En el algoritmo QR para una matriz hermítica (o cualquier matriz normal), los vectores propios ortonormales se obtienen como un producto de las matrices Plantilla:Math de los pasos del algoritmo.[8] Para matrices más generales, el algoritmo QR genera primero la factorización de Schur, a partir de la que se pueden obtener los vectores propios mediante un procedimiento basado en una matriz triangular.[10] Para las matrices hermíticas, el algoritmo eigenvalue divide y vencerás es más eficiente que el algoritmo QR si se desean tanto los vectores propios como los valores propios.[8]
Temas adicionales
Espacios propios generalizados
Debe recordarse que la multiplicidad geométrica de un valor propio puede ser descrito como la dimensión del espacio propio asociado, el espacio nulo de Plantilla:Math. La multiplicidad algebraica también se puede considerar como una dimensión: es la dimensión del espacio de valores propios generalizado asociado (en su primer sentido), que es el espacio nulo de la matriz Plantilla:Math para cualquier Plantilla:Mvar suficientemente grande. Es decir, es el espacio de valores propios generalizado (en su primer sentido), donde un vector propio generalizado es cualquier vector que eventualmente se convierte en 0 si se le aplica Plantilla:Math suficientes veces sucesivas. Cualquier vector propio es un vector propio generalizado, por lo que cada espacio propio está contenido en el espacio propio generalizado asociado. Esto proporciona una prueba fácil de que la multiplicidad geométrica siempre es menor o igual que la multiplicidad algebraica.
Este uso no debe confundirse con el problema de valor propio generalizado que se describe a continuación.
Vector propio conjugado
Un vector propio conjugado o vector propio es un vector que después de la transformación matricial se convierte en un múltiplo escalar de su conjugado, donde el escalar se denomina valor propio conjugado o valor propio de la transformación lineal. Los vectores propios y los valores propios representan esencialmente la misma información y significado que los vectores propios y los valores propios normales, pero surgen cuando se utiliza un sistema de coordenadas alternativo. La ecuación correspondiente es
Por ejemplo, en la teoría de la dispersión electromagnética coherente, la transformación lineal Plantilla:Math representa la acción realizada por el objeto de dispersión, y los vectores propios representan estados de polarización de la onda electromagnética. En óptica, el sistema de coordenadas se define desde el punto de vista de la onda, conocido como alineación de dispersión hacia adelante (FSA), y da lugar a una ecuación regular de valores propios, mientras que en la teoría de los radares, el sistema de coordenadas se define desde el punto de vista del radar, conocido como alineación de dispersión hacia atrás (BSA), y dan lugar a una ecuación de valores propios.
Problema de valores propios generalizado
Un problema de valores propios generalizado (segundo sentido) es el problema de encontrar un vector Plantilla:Math (distinto de cero) que satisfaga la ecuación
donde Plantilla:Math y Plantilla:Math son matrices. Si Plantilla:Math obedece a esta ecuación, con algún Plantilla:Mvar, entonces se denomina a Plantilla:Math el vector propio generalizado de Plantilla:Math y Plantilla:Math (en el segundo sentido), y Plantilla:Mvar se llama el valor propio generalizado de Plantilla:Math y Plantilla:Math (en el segundo sentido) que corresponde al vector propio generalizado Plantilla:Math. Los posibles valores de Plantilla:Mvar deben obedecer a la siguiente ecuación
Si se pueden encontrar Plantilla:Math vectores linealmente independientes Plantilla:Math, tales que para cada Plantilla:Math, Plantilla:Math, entonces se definen las matrices Plantilla:Math y Plantilla:Math tales que
Entonces se cumple la siguiente igualdad
Y la prueba es que
Y como Plantilla:Math es invertible, se multiplica la ecuación de la derecha por su inversa, terminando la demostración.
El conjunto de matrices de la forma Plantilla:Math, donde Plantilla:Mvar es un número complejo, se denomina lápiz; el término lápiz matricial también puede referirse al par Plantilla:Math de matrices.[11]
Si Plantilla:Math es invertible, entonces el problema original se puede escribir en la forma
que es un problema estándar de valores propios. Sin embargo, en la mayoría de las situaciones es preferible no realizar la inversión, sino resolver el problema de valor propio generalizado como se planteó originalmente. Esto es especialmente importante si Plantilla:Math y Plantilla:Math son matrices hermíticas, ya que en este caso Plantilla:Math generalmente no es hermítica y las propiedades importantes de la solución ya no son evidentes.
Si Plantilla:Math y Plantilla:Math son simétricas o hermíticas, y Plantilla:Math también es una matriz definida positiva, los valores propios Plantilla:Math son reales y los vectores propios Plantilla:Math y Plantilla:Math con valores propios distintos son Plantilla:Math-ortogonales (Plantilla:Math).[12] En este caso, los vectores propios se pueden elegir de modo que la matriz Plantilla:Math definida anteriormente satisfaga
- o ,
y existe una base de vectores propios generalizados (no es un problema defectivo).[11] Este caso a veces se denomina lápiz definido hermítico o lápiz definido.[11]
Véase también
- Perturbación de autovalores
- Covariante de Frobenius
- Transformación de Householder
- Forma canónica de Jordan
- Factorización de matrices
- Descomposición en valores singulares
- Fórmula de Sylvester
- Anexo:Matrices
Referencias
Bibliografía
- Plantilla:Cite book
- Plantilla:Citation
- Plantilla:Cite book
- Plantilla:Cite book
- Plantilla:Citation
- Plantilla:Citation
- Plantilla:Cite book
Enlaces externos
Plantilla:Control de autoridades
- ↑ Plantilla:Harvtxt
- ↑ Plantilla:Harvtxt
- ↑ Plantilla:Harvtxt
- ↑ Plantilla:Cite journal
- ↑ Plantilla:Cite journal
- ↑ Plantilla:Harvtxt, p. 133, Theorem 2.5.3
- ↑ Plantilla:Harvtxt, p. 136, Corollary 2.5.11
- ↑ 8,0 8,1 8,2 8,3 8,4 8,5 Plantilla:Cite book
- ↑ Ipsen, Ilse, and Rebecca M. Wills, Analysis and Computation of Google's PageRank Plantilla:Wayback, 7th IMACS International Symposium on Iterative Methods in Scientific Computing, Fields Institute, Toronto, Canada, 5–8 May 2005.
- ↑ Plantilla:Cite book
- ↑ 11,0 11,1 11,2 Plantilla:Cite book
- ↑ Plantilla:Cite book