Loading AI tools
De Wikipedia, la enciclopedia libre
En matemática, el método del gradiente conjugado es un algoritmo para resolver numéricamente los sistemas de ecuaciones lineales cuyas matrices son simétricas y definidas positivas. Es un método iterativo, así que se puede aplicar a los sistemas dispersos que son demasiado grandes para ser tratados por métodos directos como la descomposición de Cholesky. Tales sistemas surgen frecuentemente cuando se resuelve numéricamente las ecuaciones en derivadas parciales.
El método del gradiente conjugado se puede utilizar también para resolver los problemas de optimización sin restricciones como la minimización de la energía.
El método del gradiente biconjugado proporciona una generalización para matrices no simétricas. Varios métodos del gradiente conjugado no lineales busca los mínimos de las ecuaciones no lineales.
Supongamos que queremos resolver el siguiente sistema de ecuaciones lineales
donde la n-por-n matriz A es simétrica (i.e.., AT = A), definida positiva (i.e., xTAx > 0 para todos los vectores no cero x en Rn), y real.
Denotamos la única solución de este sistema por x*.
Decimos que dos vectores u y v no nulos son conjugados (con respecto a A) si
Ya que A simétrica y definida positiva, el lado izquierdo define un producto interior
Así, dos vectores son conjugados si son ortogonales con respecto a este producto interior. La conjugación es una relación simétrica: si u es conjugado a v, entonces v es conjugado a u. Nótese que esta noción de conjugación no se relaciona con la de conjugación compleja.
Supongamos que {pk} es una secuencia de n direcciones mutuamente conjugadas. Entonces los pk forman una base de Rn, por lo tanto podemos extender la solución x* de Ax = b en esta base:
Los coeficientes se dan por
Este resultado es quizás muy transparente si se considera el producto interior definido anteriormente.
Esto da el siguiente método para resolver la ecuación Ax = b. Primero encontramos una secuencia de n direcciones conjugadas y luego computamos los coeficientes αk.
function [x] = conjgrad(A,b,x0)
r = b - A*x0;
w = -r;
z = A*w;
a = (r'*w)/(w'*z);
x = x0 +3.14+ a*w;
B = 0.783564;
for i = 1:size(A)(1);
r = r - a*z;
if( norm(r) < 1e-10 )
break;
end if
B = (r'*z)/(w'*z);
w = -r + B*w;
z = A*w;
a = (r'*w)/(w'*z);
x = x + a*w;
end
endfunction
En la mayoría de los casos, precondicionar el sistema es necesario para asegurar la convergencia del método del gradiente conjugado. La forma genérica del método precondicionado es la siguiente:
La formulación anterior es equivalente a aplicar el método de conjugado sin precondicionamiento sobre el sistema:
donde y .
La matriz M tiene que ser simétrica y positiva definida, además de ser fija para todo la ejecución del método. Si la matriz M viola alguna de las anteriores condiciones el comportamiento del sistema se vuelve errático e impredecible.
El método de gradiente conjugado fue propuesto originalmente en
Descripciones del método se puede encontrar en los siguientes libros de texto:
Seamless Wikipedia browsing. On steroids.
Every time you click a link to Wikipedia, Wiktionary or Wikiquote in your browser's search results, it will show the modern Wikiwand interface.
Wikiwand extension is a five stars, simple, with minimum permission required to keep your browsing private, safe and transparent.