Método de Broyden

De testwiki
Revisión del 18:03 22 ene 2024 de imported>NacaruBot (Bot: eliminando enlaces según WP:ENLACESFECHAS)
(difs.) ← Revisión anterior | Revisión actual (difs.) | Revisión siguiente → (difs.)
Ir a la navegación Ir a la búsqueda

En análisis numérico, el método de Broyden es un método cuasinewtoniano para la solución numérica de sistemas ecuaciones no lineales con más de una variable. Fue descrito originalmente por C. G. Broyden en 1965.[1]

Para hallar la solución del sistema de ecuaciones fi(x1,x2,...,xn)=0, con i=1,2,...,n, el método de Newton emplea el jacobiano J en cada iteración, además de calcular su inversa. Sin embargo, computar ese jacobiano es una operación difícil y costosa. La idea que subyace en el método de Broyden consiste en computar el jacobiano entero solamente en la primera iteración, y llevar a cabo una actualización de rango 1 en las demás iteraciones.

fi(x1,x2,...,xn) se supone continua y diferenciable en un conjunto abierto en n con derivadas parciales continuas en ese abierto.[2]

En 1979, Gay demostró que, cuando se aplica el método de Broyden a un sistema lineal, se requieren 2n pasos.[3]

Descripción del método

El método de Broyden considera el método de la secante y establece una generalización de él para el espacio multidimensional.

El método de la secante sustituye la primera derivada f(xn) por la aproximación de diferencia finita

f(xn)f(xn)f(xn1)xnxn1

y procede según el método de Newton:

xn+1=xn1f(xn)f(xn)

Broyden establece una generalización de esa fórmula para un sistema de ecuaciones mediante una sustitución de 1f(xn) por la inversa del jacobiano J. Este se determina por medio de la ecuación de la secante (la aproximación de diferencia finita):

Jn(xnxn1)F(xn)F(xn1)

Sin embargo, esta ecuación está infradeterminada por más de una dimensión.

Broyden sugiere un procedimiento que consta de los siguientes 3 pasos:

1) Emplear la aproximación del jacobiano Jn1

2) Tomar la solución de la ecuación de la secante que suponga la modificación mínima de Jn1 (entendiendo por mínima que se dé una minimización de la norma de Frobenius JnJn1F)

Jn=Jn1+ΔFnJn1ΔxnΔxn2ΔxnT

3) Continuar según el método de Newton:

xn+1=xnJn1F(xn).

En esa última fórmula,

xn=(x1[n],...,xk[n])

y

Fn(x)=(f1(x1[n],...,xk[n]),...,fk(x1[n],...,xk[n])

son vectores columna de k elementos en un sistema de k dimensiones.

Así:

Δxn=[x1[n]x1[n1]...xk[n]xk[n1]]yΔFn=[f1(x1[n],...,xk[n])f1(x1[n1],...,xk[n1])...fk(x1[n],...,xk[n])fk(x1[n1],...,xk[n1])].

Broyden sugiere también la fórmula de Sherman-Morrison para actualizar directamente el inverso de la aproximación del jacobiano por la aproximación de diferencia finita:

Jn1=Jn11+ΔxnJn11ΔFnΔxnTJn11ΔFn(ΔxnTJn11)

Este último se conoce como el « buen método de Broyden».

Se puede obtener a partir de él una técnica similar empleando una modificación ligeramente distinta de Jn1 que minimiza en su lugar Jn1Jn11F

Tal sería el llamado « mal método de Broyden»:

Jn1=Jn11+ΔxnJn11ΔFnΔFnTΔFnΔFnT

Pero, en cuanto a lo de « mal método», véase "A faster Broyden method" ("Un método de Broyden más rápido").[4]

Se han sugerido muchos otros procedimientos cuasinewtonianos en el campo de la optimización, en el que se busca un máximo o un mínimo hallando la raíz de la primera derivada, o el gradiente si se trata de un espacio multidimensional. Se califica al jacobiano del gradiente de «hessiano», y es simétrico, lo que añade restricciones a la hora de llevar a cabo su actualización.

Fórmula de Sherman Morrison[5]

Si A es una matriz no singular y x y y son vectores con ytA1x1 entonces A+xyt es no singular y

(A+xyt)1=A1A1xytA11+ytA1x

Esta fórmula de Sherman-Morrison permite calcular la inversa de una matriz a partir de la inversa del Jacobiano, es por eso que solo se requiere en la primera iteración del método de Broyden, ya que para las iteraciones subsecuentes se va empleando la aproximación de la iteración anterior.

Referencias

Plantilla:Listaref

Véase también

Enlaces externos


Plantilla:Control de autoridades