Regularización de Tíjonov

De testwiki
Revisión del 05:57 13 sep 2024 de imported>Neuronio.sinapticus (growthexperiments-addimage-summary-summary: 1)
(difs.) ← Revisión anterior | Revisión actual (difs.) | Revisión siguiente → (difs.)
Ir a la navegación Ir a la búsqueda
Andrey Nikolayevich Tychonoff en 1975

La regularización de Tíjonov es el método de regularización usado más comúnmente. En algunos campos, también se conoce como regresión de arista.

En su forma más simple, un sistema de ecuaciones lineales mal determinado: Plantilla:Ecuación donde A es una matriz de dimensiones m×n, x es un vector vertical con n celdas y b es otro vector vertical con m celdas, es reemplazado por el problema de encontrar un x que minimice Plantilla:Ecuación dado un factor de Tíjonov α>0 elegido apropiadamente. La expresión representa la norma euclídea. Su uso mejora el condicionamiento del problema, posibilitando su solución por métodos numéricos. Una solución explícita, denotada x^, es la siguiente: Plantilla:Ecuación donde I es la matriz identidad n×n. Para α = 0, esto se reduce al método de mínimos cuadrados, siempre que (ATA)-1 exista.

Interpretación bayesiana

Aunque en principio la solución propuesta pueda parecer artificial, y de hecho el parámetro α tiene un carácter algo arbitrario, el proceso se puede justificar desde un punto de vista bayesiano. Nótese que para resolver cualquier problema indeterminado se deben introducir ciertas restricciones adicionales para establecer una solución estable. Estadísticamente se puede asumir que a priori sabemos que x es una variable aleatoria con una distribución normal multidimensional. Sin pérdida de generalidad, tomemos la media como 0 y asumamos que cada componente es independiente, con una desviación estándar σx. Los datos de b pueden tener ruido, que asumimos también independiente con media 0 y desviación estándar σb. Bajo estas condiciones, la regularización de Tíjonov es la solución más probable dados los datos conocidos y la distribución a priori de x, de acuerdo con el teorema de Bayes. Entonces, el parámetro de Tíjonov viene dado por α=σbσx...


Regularización de Tíjonov generalizada

Para distribuciones normales multivariadas de x y su error, se puede aplicar una transformación a las variables que reduce el problema al caso anterior. Equivalentemente, se puede minimizar

AxbP2+α2xx0Q2

donde xP es la norma con peso xTPx. En la interpretación bayesiana, P es la matriz de covarianza invertida b, x0 es el valor esperado de x, y αQ es la matriz de covarianza invertida de x.

Esta expresión se puede resolver explícitamente mediante la fórmula

x0+(ATPA+α2Q)1ATP(bAx0).


Véase también

Referencias

  • Tikhonov AN, 1943, On the stability of inverse problems, Dokl. Akad. Nauk SSSR, 39, No. 5, 195-198
  • Tikhonov AN, 1963, Solution of incorrectly formulated problems and the regularization method, Soviet Math Dokl 4, 1035-1038 English translation of Dokl Akad Nauk SSSR 151, 1963, 501-504
  • Tikhonov AN and Arsenin VA, 1977, Solution of Ill-posed Problems, Winston & Sons, Washington, ISBN 0-470-99124-0.
  • Hansen, P.C., Rank-deficient and Discrete ill-posed problems, SIAM
  • Hoerl AE, 1962, Application of ridge analysis to regression problems, Chemical Engineering Progress, 58, 54-59.
  • Foster M, 1961, An application of the Wiener-Kolmogorov smoothing theory to matrix inversion, J. SIAM, 9, 387-392
  • Phillips DL, 1962, A technique for the numerical solution of certain integral equations of the first kind, J Assoc Comput Mach, 9, 84-97
  • Tarantola A, 2005, Inverse Problem Theory (free PDF version), Society for Industrial and Applied Mathematics, ISBN 0-89871-572-5
  • Wahba, G, 1990, spline Models for Observational Data, SIAM

Plantilla:Control de autoridades