stringtranslate.com

División de matriz

En la disciplina matemática del álgebra lineal numérica , una descomposición matricial es una expresión que representa una matriz dada como una suma o diferencia de matrices. Muchos métodos iterativos (por ejemplo, para sistemas de ecuaciones diferenciales ) dependen de la solución directa de ecuaciones matriciales que involucran matrices más generales que las matrices tridiagonales . Estas ecuaciones matriciales a menudo se pueden resolver de manera directa y eficiente cuando se escriben como una descomposición matricial. La técnica fue ideada por Richard S. Varga en 1960. [1]

Divisiones regulares

Buscamos resolver la ecuación matricial

donde A es una matriz no singular n × n dada, y k es un vector columna dado con n componentes. Dividimos la matriz A en

donde B y C son matrices n × n . Si, para una matriz arbitraria n × n M , M tiene entradas no negativas, escribimos M0 . Si M solo tiene entradas positivas, escribimos M > 0 . De manera similar, si la matriz M 1M 2 tiene entradas no negativas, escribimos M 1M 2 .

Definición: A = BC es una división regular de A si B −10 y C0 .

Suponemos que las ecuaciones matriciales de la forma

donde g es un vector columna dado, se puede resolver directamente para el vector x . Si ( 2 ) representa una división regular de A , entonces el método iterativo

donde x (0) es un vector arbitrario, se puede realizar. De manera equivalente, escribimos ( 4 ) en la forma

La matriz D = B −1 C tiene entradas no negativas si ( 2 ) representa una división regular de A . [2]

Se puede demostrar que si A −1 > 0 , entonces < 1, donde representa el radio espectral de D , y por lo tanto D es una matriz convergente . En consecuencia, el método iterativo ( 5 ) es necesariamente convergente . [3] [4]

Si, además, se elige la división ( 2 ) de modo que la matriz B sea una matriz diagonal (con todas las entradas diagonales distintas de cero, ya que B debe ser invertible ), entonces B se puede invertir en tiempo lineal (ver Complejidad temporal ).

Métodos iterativos matriciales

Muchos métodos iterativos pueden describirse como una división de matrices. Si las entradas diagonales de la matriz A son todas distintas de cero, y expresamos la matriz A como la suma de matrices

donde D es la parte diagonal de A , y U y L son respectivamente matrices n × n triangulares estrictamente superior e inferior , entonces tenemos lo siguiente.

El método de Jacobi se puede representar en forma matricial como una descomposición

El método de Gauss-Seidel se puede representar en forma matricial como una división

El método de sobre-relajación sucesiva se puede representar en forma matricial como una división

Ejemplo

División regular

En la ecuación ( 1 ), sea

Apliquemos la división ( 7 ) que se utiliza en el método de Jacobi: dividimos A de tal manera que B consiste en todos los elementos diagonales de A y C consiste en todos los elementos no diagonales de A , negados. (Por supuesto, esta no es la única forma útil de dividir una matriz en dos matrices). Tenemos

Como B −10 y C0 , la división ( 11 ) es una división regular. Como A −1 > 0 , el radio espectral < 1. (Los valores propios aproximados de D son ) Por lo tanto, la matriz D es convergente y el método ( 5 ) converge necesariamente para el problema ( 10 ). Nótese que los elementos diagonales de A son todos mayores que cero, los elementos fuera de la diagonal de A son todos menores que cero y A es estrictamente diagonalmente dominante . [11]

El método ( 5 ) aplicado al problema ( 10 ) toma entonces la forma

La solución exacta de la ecuación ( 12 ) es

Las primeras iteraciones de la ecuación ( 12 ) se enumeran en la tabla siguiente, comenzando con x (0) = (0.0, 0.0, 0.0) T. En la tabla se puede ver que el método evidentemente está convergiendo a la solución ( 13 ), aunque bastante lentamente.

Método Jacobi

Como se indicó anteriormente, el método de Jacobi ( 7 ) es el mismo que la división regular específica ( 11 ) demostrada anteriormente.

Método de Gauss-Seidel

Dado que las entradas diagonales de la matriz A en el problema ( 10 ) son todas distintas de cero, podemos expresar la matriz A como la división ( 6 ), donde

Entonces tenemos

El método de Gauss-Seidel ( 8 ) aplicado al problema ( 10 ) toma la forma

Las primeras iteraciones de la ecuación ( 15 ) se enumeran en la tabla siguiente, comenzando con x (0) = (0.0, 0.0, 0.0) T. En la tabla se puede ver que el método evidentemente converge a la solución ( 13 ), algo más rápido que el método de Jacobi descrito anteriormente.

Método de sobre-relajación sucesiva

Sea ω = 1,1. Utilizando la división ( 14 ) de la matriz A en el problema ( 10 ) para el método de sobre-relajación sucesiva, tenemos

El método de sobre-relajación sucesiva ( 9 ) aplicado al problema ( 10 ) toma la forma

Las primeras iteraciones de la ecuación ( 16 ) se enumeran en la tabla siguiente, comenzando con x (0) = (0.0, 0.0, 0.0) T. En la tabla se puede ver que el método evidentemente converge a la solución ( 13 ), ligeramente más rápido que el método de Gauss-Seidel descrito anteriormente.

Véase también

Notas

  1. ^ Varga (1960)
  2. ^ Varga (1960, págs. 121-122)
  3. ^ Varga (1960, págs. 122-123)
  4. ^ Varga (1962, pág. 89)
  5. ^ Carga y ferias (1993, pág.408)
  6. ^ Varga (1962, pág. 88)
  7. ^ Carga y ferias (1993, pág.411)
  8. ^ Varga (1962, pág. 88)
  9. ^ Carga y ferias (1993, pág.416)
  10. ^ Varga (1962, pág. 88)
  11. ^ Carga y ferias (1993, p.371)

Referencias