Como las matrices iguales tienen dimensiones iguales, sólo las matrices cuadradas pueden ser simétricas.
Las entradas de una matriz simétrica son simétricas respecto de la diagonal principal . Por lo tanto, si denota la entrada en la fila y la columna, entonces
para todos los índices y
Toda matriz diagonal cuadrada es simétrica, ya que todos los elementos fuera de la diagonal son cero. De manera similar, en una matriz antisimétrica característica distinta de 2, cada elemento diagonal debe ser cero, ya que cada uno es su propio negativo.
En álgebra lineal, una matriz simétrica real representa un operador autoadjunto [1] representado en una base ortonormal sobre un espacio de producto interno real . El objeto correspondiente para un espacio de producto interno complejo es una matriz hermítica con entradas de valor complejo, que es igual a su transpuesta conjugada . Por lo tanto, en álgebra lineal sobre números complejos, a menudo se supone que una matriz simétrica se refiere a una que tiene entradas de valor real. Las matrices simétricas aparecen de forma natural en una variedad de aplicaciones, y el software de álgebra lineal numérica típico hace adaptaciones especiales para ellas.
Ejemplo
La siguiente matriz es simétrica:
Ya que .
Propiedades
Propiedades básicas
La suma y la diferencia de dos matrices simétricas es simétrica.
Esto no siempre es cierto para el producto : dadas matrices simétricas y , entonces es simétrico si y sólo si y conmutan , es decir, si .
Para cualquier entero , es simétrico si es simétrico.
Si existe, es simétrico si y sólo si es simétrico.
El rango de una matriz simétrica es igual al número de valores propios distintos de cero de .
Descomposición en simétrica y antisimétrica
Cualquier matriz cuadrada puede escribirse de forma única como suma de una matriz simétrica y una matriz antisimétrica. Esta descomposición se conoce como descomposición de Toeplitz. Sea el espacio de matrices. Si denota el espacio de matrices simétricas y el espacio de matrices antisimétricas, entonces y , es decir,
donde denota la suma directa . Sea entonces
Tenga en cuenta que y . Esto es cierto para cada matriz cuadrada con entradas de cualquier campo cuya característica sea diferente de 2.
Una matriz simétrica está determinada por escalares (el número de entradas en o por encima de la diagonal principal ). De manera similar, una matriz antisimétrica está determinada por escalares (el número de entradas por encima de la diagonal principal).
Matriz congruente con una matriz simétrica
Cualquier matriz congruente con una matriz simétrica es a su vez simétrica: si es una matriz simétrica, entonces también lo es para cualquier matriz .
La simetría implica normalidad
Una matriz simétrica (de valor real) es necesariamente una matriz normal .
Matrices simétricas reales
Denotemos por el producto interno estándar en . La matriz real es simétrica si y sólo si
El teorema espectral de dimensión finita dice que cualquier matriz simétrica cuyos elementos sean reales puede ser diagonalizada por una matriz ortogonal . Más explícitamente: Para cada matriz simétrica real existe una matriz ortogonal real tal que es una matriz diagonal . Toda matriz simétrica real es, por tanto, hasta la elección de una base ortonormal , una matriz diagonal.
Si y son matrices simétricas reales que conmutan, entonces pueden ser diagonalizadas simultáneamente por una matriz ortogonal: [2] existe una base de tal que cada elemento de la base es un vector propio tanto para como para .
Toda matriz simétrica real es hermítica y, por lo tanto, todos sus valores propios son reales. (De hecho, los valores propios son las entradas de la matriz diagonal (arriba) y, por lo tanto, están determinados de forma única por hasta el orden de sus entradas). Esencialmente, la propiedad de ser simétrica para matrices reales corresponde a la propiedad de ser hermítica para matrices complejas.
Matrices simétricas complejas
Una matriz simétrica compleja puede ser 'diagonalizada' usando una matriz unitaria : así, si es una matriz simétrica compleja, existe una matriz unitaria tal que es una matriz diagonal real con elementos no negativos. Este resultado se conoce como la factorización de Autonne-Takagi . Fue demostrada originalmente por Léon Autonne (1915) y Teiji Takagi (1925) y redescubierta con diferentes demostraciones por varios otros matemáticos. [3] [4] De hecho, la matriz es hermítica y semidefinida positiva , por lo que existe una matriz unitaria tal que es diagonal con elementos reales no negativos. Por lo tanto es compleja simétrica con reales. Escribiendo con y matrices simétricas reales, . Por lo tanto . Dado que y conmutan, existe una matriz ortogonal real tal que tanto y son diagonales. Estableciendo (una matriz unitaria), la matriz es diagonal compleja. Premultiplicando por una matriz unitaria diagonal adecuada (que preserva la unitaridad de ), las entradas diagonales de pueden hacerse reales y no negativas como se desee. Para construir esta matriz, expresamos la matriz diagonal como . La matriz que buscamos está dada simplemente por . Claramente como se desea, entonces hacemos la modificación . Como sus cuadrados son los valores propios de , coinciden con los valores singulares de . (Obsérvese que, sobre la descomposición propia de una matriz simétrica compleja , la forma normal de Jordan de puede no ser diagonal, por lo tanto no puede ser diagonalizada por ninguna transformación de similitud).
Descomposición
Utilizando la forma normal de Jordan , se puede demostrar que toda matriz real cuadrada puede escribirse como un producto de dos matrices simétricas reales, y toda matriz compleja cuadrada puede escribirse como un producto de dos matrices simétricas complejas. [5]
La descomposición de Cholesky establece que toda matriz simétrica positiva definida real es un producto de una matriz triangular inferior y su transpuesta,
Si la matriz es simétrica indefinida, aún puede descomponerse como donde es una matriz de permutación (que surge de la necesidad de pivotar ), una matriz triangular unitaria inferior, y es una suma directa de bloques simétricos y , lo que se denomina descomposición de Bunch-Kaufman [6]
Una matriz simétrica general (compleja) puede ser defectuosa y, por lo tanto, no diagonalizable . Si es diagonalizable, se puede descomponer como
donde es una matriz ortogonal y es una matriz diagonal de los valores propios de . En el caso especial de que sea simétrica real, entonces y también son reales. Para ver la ortogonalidad, supongamos que y son vectores propios correspondientes a valores propios distintos , . Entonces
Como y son distintos, tenemos .
arpillera
Las matrices simétricas de funciones reales aparecen como las hessianas de funciones dos veces diferenciables de variables reales (la continuidad de la segunda derivada no es necesaria, a pesar de la creencia común de lo contrario [7] ).
Cada forma cuadrática de se puede escribir de forma única en la forma con una matriz simétrica . Debido al teorema espectral anterior, se puede decir que cada forma cuadrática, hasta la elección de una base ortonormal de , "se parece"
a con números reales . Esto simplifica considerablemente el estudio de las formas cuadráticas, así como el estudio de los conjuntos de niveles que son generalizaciones de las secciones cónicas .
Esto es importante en parte porque el comportamiento de segundo orden de cada función multivariable suave se describe mediante la forma cuadrática perteneciente al hessiano de la función; esto es una consecuencia del teorema de Taylor .
Matriz simetrizable
Se dice que una matriz es simetrizable si existe una matriz diagonal invertible y una matriz simétrica tales que
La transpuesta de una matriz simetrizable es simetrizable, ya que y es simétrica. Una matriz es simetrizable si y solo si se cumplen las siguientes condiciones:
implica para todos
para cualquier secuencia finita
Véase también
Otros tipos de simetría o patrón en matrices cuadradas tienen nombres especiales; véase por ejemplo:
↑ Jesús Rojo García (1986). Álgebra lineal (en español) (2ª ed.). Editorial AC. ISBN 84-7288-120-2.
^ Bellman, Richard (1997). Introducción al análisis matricial (2.ª ed.). SIAM. ISBN08-9871-399-4.
^ Horn y Johnson 2013, págs. 263, 278
^ Ver:
Autonne, L. (1915), "Sur les matrices hipohermitiennes et sur les matrices unitaires", Ann. Univ. Lyon , 38 : 1–77
Takagi, T. (1925), "Sobre un problema algebraico relacionado con un teorema analítico de Carathéodory y Fejér y sobre un teorema relacionado de Landau", Jpn. J. Math. , 1 : 83–93, doi : 10.4099/jjm1924.1.0_83
Siegel, Carl Ludwig (1943), "Geometría simpléctica", American Journal of Mathematics , 65 (1): 1–86, doi :10.2307/2371774, JSTOR 2371774, Lema 1, página 12
Hua, L.-K. (1944), "Sobre la teoría de funciones automórficas de una variable matricial I–base geométrica", Amer. J. Math. , 66 (3): 470–488, doi :10.2307/2371910, JSTOR 2371910
Schur, I. (1945), "Ein Satz über quadratische Formen mit komplexen Koeffizienten", Amer. J. Matemáticas. , 67 (4): 472–480, doi :10.2307/2371974, JSTOR 2371974
Benedetti, R.; Cragnolini, P. (1984), "Sobre la diagonalización simultánea de una forma hermítica y otra simétrica", Linear Algebra Appl. , 57 : 215–226, doi : 10.1016/0024-3795(84)90189-7
^ Bosch, AJ (1986). "La factorización de una matriz cuadrada en dos matrices simétricas". American Mathematical Monthly . 93 (6): 462–464. doi :10.2307/2323471. JSTOR 2323471.