stringtranslate.com

División de matrices

En la disciplina matemática del álgebra lineal numérica , una división de matrices es una expresión que representa una matriz dada como una suma o diferencia de matrices. Muchos métodos iterativos (por ejemplo, para sistemas de ecuaciones diferenciales ) dependen de la solución directa de ecuaciones matriciales que involucran matrices más generales que las matrices tridiagonales . Estas ecuaciones matriciales a menudo se pueden resolver directa y eficientemente cuando se escriben como división de matrices. La técnica fue ideada por Richard S. Varga en 1960. [1]

Divisiones regulares

Buscamos resolver la ecuación matricial.

donde A es una matriz no singular de n × n dada y k es un vector de columna dado con n componentes. Dividimos la matriz A en

donde B y C son matrices n × n . Si, para una matriz M arbitraria de n × n , M tiene entradas no negativas, escribimos M0 . Si M solo tiene entradas positivas, escribimos M > 0 . De manera similar, si la matriz M 1M 2 tiene entradas no negativas, escribimos M 1M 2 .

Definición: A = BC es una división regular de A si B −10 y C0 .

Suponemos que las ecuaciones matriciales de la forma

donde g es un vector columna dado, se puede resolver directamente para el vector x . Si ( 2 ) representa una división regular de A , entonces el método iterativo

donde x (0) es un vector arbitrario, se puede realizar. De manera equivalente, escribimos ( 4 ) en la forma

La matriz D = B −1 C tiene entradas no negativas si ( 2 ) representa una división regular de A . [2]

Se puede demostrar que si A −1 > 0 , entonces < 1, donde representa el radio espectral de D , y por tanto D es una matriz convergente . Como consecuencia, el método iterativo ( 5 ) es necesariamente convergente . [3] [4]

Si, además, se elige la división ( 2 ) de modo que la matriz B sea una matriz diagonal (con todas las entradas diagonales distintas de cero, ya que B debe ser invertible ), entonces B se puede invertir en tiempo lineal (ver Complejidad del tiempo ).

Métodos iterativos matriciales

Muchos métodos iterativos pueden describirse como división de matrices. Si las entradas diagonales de la matriz A son todas distintas de cero y expresamos la matriz A como la suma de la matriz

donde D es la parte diagonal de A , y U y L son respectivamente matrices estrictamente triangulares superior e inferior de n × n , entonces tenemos lo siguiente.

El método de Jacobi se puede representar en forma matricial como una división

El método de Gauss-Seidel se puede representar en forma matricial como una división

El método de sobrerelajación sucesiva se puede representar en forma matricial como una división

Ejemplo

División regular

En la ecuación ( 1 ), sea

Apliquemos la división ( 7 ) que se usa en el método de Jacobi: dividimos A de tal manera que B consta de todos los elementos diagonales de A y C consta de todos los elementos fuera de la diagonal de A , negados . (Por supuesto, esta no es la única forma útil de dividir una matriz en dos matrices). Tenemos

Dado que B −10 y C0 , la división ( 11 ) es una división regular. Dado que A −1 > 0 , el radio espectral < 1. (Los valores propios aproximados de D son ) Por lo tanto, la matriz D es convergente y el método ( 5 ) necesariamente converge para el problema ( 10 ). Tenga en cuenta que los elementos diagonales de A son todos mayores que cero, los elementos fuera de la diagonal de A son todos menores que cero y A es estrictamente diagonalmente dominante . [11]

El método ( 5 ) aplicado al problema ( 10 ) toma entonces la forma

La solución exacta de la ecuación ( 12 ) es

Las primeras iteraciones de la ecuación ( 12 ) se enumeran en la siguiente tabla, comenzando con x (0) = (0.0, 0.0, 0.0) T. En la tabla se puede ver que el método evidentemente converge hacia la solución ( 13 ), aunque con bastante lentitud.

método jacobi

Como se indicó anteriormente, el método Jacobi ( 7 ) es el mismo que la división regular específica ( 11 ) demostrada anteriormente.

Método de Gauss-Seidel

Dado que las entradas diagonales de la matriz A en el problema ( 10 ) son todas distintas de cero, podemos expresar la matriz A como la división ( 6 ), donde

entonces tenemos

El método Gauss-Seidel ( 8 ) aplicado al problema ( 10 ) toma la forma

Las primeras iteraciones de la ecuación ( 15 ) se enumeran en la siguiente tabla, comenzando con x (0) = (0.0, 0.0, 0.0) T. En la tabla se puede ver que el método evidentemente converge hacia la solución ( 13 ), algo más rápido que el método de Jacobi descrito anteriormente.

Método de sobrerelajación sucesiva

Sea ω = 1,1. Usando la división ( 14 ) de la matriz A en el problema ( 10 ) para el método de sobrerelajación sucesiva, tenemos

El método de sobrerelajación sucesiva ( 9 ) aplicado al problema ( 10 ) toma la forma

Las primeras iteraciones de la ecuación ( 16 ) se enumeran en la siguiente tabla, comenzando con x (0) = (0.0, 0.0, 0.0) T. En la tabla se puede ver que el método evidentemente converge hacia la solución ( 13 ), ligeramente más rápido que el método de Gauss-Seidel descrito anteriormente.

Ver también

Notas

  1. ^ Varga (1960)
  2. ^ Varga (1960, págs. 121-122)
  3. ^ Varga (1960, págs. 122-123)
  4. ^ Varga (1962, pág.89)
  5. ^ Carga y ferias (1993, pág.408)
  6. ^ Varga (1962, pág.88)
  7. ^ Carga y ferias (1993, pág.411)
  8. ^ Varga (1962, pág.88)
  9. ^ Carga y ferias (1993, pág.416)
  10. ^ Varga (1962, pág.88)
  11. ^ Carga y ferias (1993, p.371)

Referencias