Descomposición en valores singulares

De testwiki
Ir a la navegación Ir a la búsqueda
Una imagen que explica brevemente el tema

En álgebra lineal, la descomposición en valores singulares (o DVS) de una matriz real o compleja es una factorización de la misma con muchas aplicaciones en estadística y otras disciplinas.

Definiciones previas

Dada una matriz real Am×n(), los valores propios de la matriz cuadrada, simétrica y semidefinida positiva AtAn() son siempre reales y mayores o iguales a cero. Teniendo en cuenta el producto escalar estándar vemos que:


(AtA)t=At(At)t=AtA, o sea que es simétrica.


x,AtAx=xtAtAx=(Ax)tAx=Ax20, es decir ATA es semidefinida positiva.



Por ser AtA una matriz real simétrica, todos sus valores propios son reales —en particular, como es semidefinida positiva, son todos mayores o iguales a cero—. Ver demostración.


Definición

Sean λ1λ2λn0 los valores propios de la matriz AtA ordenados de mayor a menor. Entonces σi:=λi es el i-ésimo valor singular de la matriz A.

Teorema

Sea Am×n() y λ1λr>λr+1==λn=0 los valores propios de AtA. Es decir, los primeros r valores propios no nulos, ordenados de manera decreciente, y los nr valores propios nulos.

Sea (v1,,vn) una base ortonormal de n formada por valores propios de ATA —que existe por el teorema espectral—. Entonces:


  1. Los vectores Av1,,Avr son ortogonales dos a dos y Avi=λi=σi.
  2. (1σ1Av1,,1σrAvr) es una base ortonormal del subespacio fundamental Col(A).
  3. (vr+1,,vn) es una base ortonormal del subespacio fundamental Nul(A).
  4. rg(A)=r es decir, el rango de la matriz A coincide con la cantidad de valores singulares no nulos.

Demostración

  1. Avi,Avj=vitAtAvj=λjvitvj={λji=j0ij. Teniendo en cuenta este resultado, Avi=Avi,Avi=λi=σi.
  2. Como la familia de vectores (vi)1ir es ortonormal —en particular, linealmente independiente—, los productos Avi son combinaciones lineales de las columnas de A, por lo que el subespacio generado por estos productos está contenido en Col(A). Además, los vectores Av1,,Avr son ortogonales dos a dos —en particular, linealmente independientes—, por lo tanto deducimos que dim(1σ1Av1,,1σrAvr)=r=dim(Col(A)), de donde Col(A)=1σ1Av1,,1σrAvr. Así, teniendo en cuenta lo demostrado en el punto anterior, (1σ1Av1,,1σrAvr) es una base ortonormal de Col(A).
  3. Es claro que si la familia de vectores (vi)r<in, está asociada a valores propios nulos, teniendo en cuenta lo visto en el punto 1 y también sabiendo que Nul(A)=Nul(AtA) —demostración en el último punto de esta lista de propiedades— se ve que (vr+1,,vn) es una base ortonormal de Nul(A)
  4. Mirando la dimensión del subespacio hallado en el punto 2 de esta demostración, es claro que rg(A)=r.

Descomposición en valores singulares de una matriz

Una DVS de Am×n() es una factorización del tipo A=UΣVt con Um() y Vn() ortogonales y Σm×n() una matriz formada por los valores singulares de A en su diagonal principal ordenados de mayor a menor, y ceros en el resto de entradas.

Teorema

Toda matriz Am×n() admite una DVS.

Demostración

Sean λ1λr>λr+1==λn=0 los valores propios de AtAn() ordenados de esta manera. Sea (v1,,vn) una base ortonormal de n formada por vectores propios de AtA, cada uno asociado —en orden— a un valor propio.


Recordemos que los vectores Av1,,Avn son ortogonales dos a dos, con Avr+1==Avm=0. Si llamamos u1:=1σ1Av1,,ur:=1σrAvr, vemos que:

  • u1,,ur son ortonormales. Entonces, si r<m, podemos completar con vectores ur+1,,um hasta formar una base ortonormal de m


  • {Av1=σ1u1Avr=σrurAvr+1=0Avn=0


  • Reescribiendo este último sistema de ecuaciones de manera matricial con las matrices V=(||v1vn||)n() ortogonal y


UΣ=(||u1um||)Um() ortogonal(σ100000σ200000σr000000000000)Σm×n()=(||||σ1u1σrur00||||)


Claramente AV=UΣ y, finalmente, como V es una matriz ortogonal, A=UΣVt. Esta es la ecuación de una DVS de A.

Viendo esta descomposición, es claro que la matriz A puede escribirse como combinación lineal de matrices de rango 1 tal que:


A=i=1rσiuivit

Descomposición en valores singulares reducida (DVS reducida)

Este tipo de descomposición resulta de quedarse sólo con los r vectores propios unitarios asociados a los r valores singulares no nulos. Las matrices U, V y Σ entonces son:


Ur=(||u1ur||)t

Vr=(||v1vr||)t

Σr=diag(σ1,,σr)


A=UrΣrVrt


Observación: Σr es una matriz diagonal de tamaño r×r.

Propiedades

Las matrices a continuación denotadas con la letra P, son de proyección sobre el subespacio indicado. Las matrices denotadas con Id son las identidades del orden denotado.

  • PCol(A)=UrUrt


  • PNul(At)=IdmUrUrt=UmrUmrt


  • PFil(A)=VrVrt


  • PNul(A)=IdnVrVrt=VnrVnrt


  • UrtUr=UmrtUmr=Idm


  • VrtVr=VnrtVnr=Idn






  • A=UΣVt implica que At=(UΣVt)t=VΣtUt.


  • AtA=VΣtUtUΣVtAt=VΣtΣVtAtA=Vrdiag(λ1,,λr)Vrt —una diagonalización ortogonal de AtA—.


  • Las matrices simétricas AtAn() y AAtm() tienen los mismos valores propios no nulos y, por lo tanto, los valores singulares no nulos de la matriz A pueden calcularse usando cualquiera de estas dos. Además, todos los vectores del conjunto {u1,,ur} son vectores propios de AAtm() y también, como ya se mencionó, Nul(At)=ur+1,,um. Esto es fácil de ver, teniendo en cuenta que


1ir, Avi=σiuiAAtAviλivi=σiAAtuiλiAvi=σi2Aviσiui=σiAAtuiAAtui=σi2ui=λiui


Este resultado es útil para facilitar el cálculo de valores singulares. Por ejemplo, dada A2×8(), entonces AtA8() tiene un polinomio característico de grado 8 y AAt2() tiene un polinomio característico de grado 2. Como los valores propios no nulos de ambas matrices coinciden, el cálculo de valores singulares de A se hace más sencillo.

Aplicaciones

Pseudoinversa

Para una matriz no cuadrada A descompuesta en valores singulares A=UΣVt, su pseudoinversa es

A+:=VΣ+Ut

donde Σ+ es la pseudoinversa de Σ, que siendo una matriz diagonal se computa reemplazando todos los valores no nulos de la diagonal por sus recíprocos, y luego trasponiendo.

La pseudoinversa es un camino para resolver cuadrados mínimos lineales.

Solución de norma mínima

La pseudoinversa obtenida mediante la DVS permite hallar x que minimiza la norma Axb. La solución esː

xmin=A+b=VΣ+Utb

Se aplica para aproximar la solución del sistema de ecuaciones indeterminado Axb.

Solución de ecuaciones lineales homogéneas

Un conjunto de ecuaciones lineales homogéneas se puede escribir en la forma Ax=0 para una matriz A y un vector x. Una situación típica consiste hallar x no nulo, conociendo A. Las soluciones son todos los vectores singulares cuyo valor singular es cero, y toda combinación lineal entre ellos. Si A no tiene ningún valor singular cero, entonces no hay solución aparte de x=0.

Minimización de cuadrados mínimos totales

El problema de minimización por cuadrados mínimos totales consiste en hallar x que minimiza la norma Ax bajo la condición x=1:

minx=1Ax.

La solución es el vector singular correspondiente al mínimo valor singular no cero.

Ejemplos de cálculo de DVS

Ejemplo 1

Si A=(000930), entonces AtA=(90081), cuyos autovalores son λ1=81 y λ2=9 asociados a los autovectores v1=(0,1) y v2=(1,0). Ya que la matriz es simétrica, estos vectores son ortogonales (ver diagonalización de matrices Hermíticas).

Entonces, los valores singulares de A son σ1=81=9 y σ2=9=3. Observamos que, efectivamente, la cantidad de valores singulares no nulos coincide con el rango de la matriz.


Ahora buscamos los vectores u1,u2,u33 que deberán cumplir


{Av1=σ1u1Av2=σ2u2Av3=0


Esto es u1=1σ1Av1=19(0,9,0)=(0,1,0) y u2=1σ2Av2=13(0,0,3)=(0,0,1).


Entonces completamos a una base ortonormal de 3, ((0,1,0),(0,0,1),(1,0,0)).



Nuestras matrices ortogonales son:


U=(001100010) y V=(0110)



Y la matriz compuesta por los valores singulares ordenados:


Σ=(900300)


Por lo tanto la DVS de A es:


A=(001100010)(900300)(0110)=9(010)(01)+3(001)(10)=(000930).


Y la DVS reducida es


A=(001001)(9003)(0110)


Observación: No siempre ocurre que V=Vt como en este caso.

Ejemplo 2

Sea B=(001001). Entonces, para hacer más sencillo el proceso, calculamos BBt=(1111) que tiene un polinomio característico de grado 2. Los autovalores son λ1=2 y λ2=0 asociados a los autovectores de norma unitaria u1=12(1,1) y u2=12(1,1). Nuestro único valor singular no nulo es σ1=2.


Observaciones:

  • Es claro que rg(B)=1 coincide con la cantidad de valores singulares no nulos de la matriz y además Col(B)=12(1,1).
  • Sabemos que BtB3() tiene un polinomio característico de grado 3. Sus raíces son λ1=2, λ2=λ3=0. Veámoslo:


BtB=(000000002)pBtB(x)=det(xId3BtB)=x2(x2).


Ahora, sabemos que Bvi=σiuiBtBvi=σi2vi=σiBtui, es decir Btui=σivivi=1σiBtui. Entonces, resulta del único valor singular no nulo: v1=12(0,0,2)=(0,0,1).


Ahora, completamos a una base ortonormal de 3, ((0,0,1),(1,0,0),(0,1,0)). En este ejemplo, nuestras matrices ortogonales son:


U=12(1111) y V=(010001100).



Σ=(200000).


Y la DVS resulta entonces


B=12(1111)(200000)(001100010)=(11)(001)=(001001).


Nota: la DVS reducida se muestra en la segunda igualdad de la ecuación anterior.

Véase también

Plantilla:Control de autoridades