En matemáticas, y concretamente en álgebra lineal, una matriz es de diagonal estrictamente dominante, cuando lo es por filas o por columnas.
Formalmente, se dice que la matriz A de n x n es estrictamente diagonal dominante por filas cuando se satisface:
j = 1 , j ≠ i
a
i , j
: 1 ≤ i ≤ n
{\displaystyle |a_{i,i}|>\sum _{j=1,j\neq i}^{n}|a_{i,j}|,\forall i\in \mathbb {N} :1\leq i\leq n}
a
i , j
i , j ∈ [
{\displaystyle A=((a_{i,j})_{i,j\in [\![1,n]\!]})}
es una matriz de diagonal estrictamente dominante, entonces
{\displaystyle A}
Supongamos que
{\displaystyle A}
no es invertible, entonces su núcleo no se reduce a cero existe entonces un vector :
{\displaystyle X={\begin{pmatrix}x_{1}\\x_{2}\\\vdots \\x_{n}\end{pmatrix}}\neq 0}
tal que
Entonces, se tiene que:
i , j
],\ \sum _{j=1}^{n}a_{i,j}x_{j}=0.}
tal que
{\displaystyle |x_{i_{0}}|=\max \left\{{|x_{i}|,i\in [\![1,n]\!
{\displaystyle -a_{i_{0},i_{0}}x_{i_{0}}=\sum _{j=1 \atop j\neq i_{0}}^{n}a_{i_{0},j}x_{j}}
{\displaystyle |a_{i_{0},i_{0}}x_{i_{0}}|\leqslant \sum _{j=1 \atop j\neq i_{0}}^{n}|a_{i_{0},j}x_{j}|}
, se obtiene
{\displaystyle |a_{i_{0},i_{0}}|\leqslant \sum _{j=1 \atop j\neq i_{0}}^{n}|a_{i_{0},j}|{\frac {|x_{j}|}{|x_{i_{0}}|}}\leqslant \sum _{j=1 \atop j\neq i_{0}}^{n}|a_{i_{0},j}|}
{\displaystyle |a_{i_{0},i_{0}}|\leqslant \sum _{j=1 \atop j\neq i_{0}}^{n}|a_{i_{0},j}|}
, con lo que culmina la demostración.
Podemos enunciar a partir de esta definición el siguiente teorema de convergencia aplicable a los procesos iterativos de Jacobi y Gauss Seidel: Sea A una matriz cuadrada, si A es diagonal dominante, los métodos iterativos de Jacobi y Gauss-Seidel convergen a la solución del sistema de ecuaciones Ax=b.