Como las matrices iguales tienen dimensiones iguales, sólo las matrices cuadradas pueden ser simétricas.
Las entradas de una matriz simétrica son simétricas con respecto a la diagonal principal . Entonces, si denota la entrada en la enésima fila y enésima columna, entonces
para todos los índices y
Toda matriz diagonal cuadrada es simétrica, ya que todos los elementos fuera de la diagonal son cero. De manera similar, en una característica diferente de 2, cada elemento diagonal de una matriz asimétrica debe ser cero, ya que cada uno es su propio negativo.
En álgebra lineal, una matriz simétrica real representa un operador autoadjunto [1] representado en forma ortonormal sobre un espacio producto interno real . El objeto correspondiente para un espacio producto interno complejo es una matriz hermitiana con entradas de valores complejos, que es igual a su transpuesta conjugada . Por lo tanto, en álgebra lineal sobre números complejos, a menudo se supone que una matriz simétrica se refiere a una que tiene entradas con valores reales. Las matrices simétricas aparecen de forma natural en una variedad de aplicaciones, y el software típico de álgebra lineal numérica hace adaptaciones especiales para ellas.
Ejemplo
La siguiente matriz es simétrica:
Desde .
Propiedades
Propiedades básicas
La suma y diferencia de dos matrices simétricas es simétrica.
Esto no siempre es cierto para el producto : dadas matrices simétricas y , entonces es simétrica si y sólo si y conmutan , es decir, si .
Para cualquier número entero , es simétrico si es simétrico.
Si existe, es simétrico si y sólo si es simétrico.
El rango de una matriz simétrica es igual al número de valores propios distintos de cero de .
Descomposición en simétrico y sesgado-simétrico
Cualquier matriz cuadrada se puede escribir únicamente como la suma de una matriz simétrica y sesgada. Esta descomposición se conoce como descomposición de Toeplitz. Denotemos el espacio de matrices. Si denota el espacio de matrices simétricas y el espacio de matrices simétricas sesgadas, entonces y , es decir,
donde denota la suma directa . deja entonces
Una matriz simétrica está determinada por escalares (el número de entradas en o por encima de la diagonal principal ). De manera similar, una matriz asimétrica está determinada por escalares (el número de entradas por encima de la diagonal principal).
Matriz congruente con una matriz simétrica
Cualquier matriz congruente con una matriz simétrica es nuevamente simétrica: si es una matriz simétrica, también lo es para cualquier matriz .
La simetría implica normalidad.
Una matriz simétrica (de valor real) es necesariamente una matriz normal .
Matrices simétricas reales
Denotar por el producto interno estándar en . La matriz real es simétrica si y sólo si
Dado que esta definición es independiente de la elección de la base , la simetría es una propiedad que depende sólo del operador lineal A y de la elección del producto interno . Esta caracterización de la simetría es útil, por ejemplo, en geometría diferencial , pues cada espacio tangente a una variedad puede estar dotado de un producto interno, dando lugar a lo que se llama variedad de Riemann . Otro ámbito donde se utiliza esta formulación es en los espacios de Hilbert .
El teorema espectral de dimensión finita dice que cualquier matriz simétrica cuyas entradas sean reales puede diagonalizarse mediante una matriz ortogonal . Más explícitamente: para cada matriz simétrica real existe una matriz ortogonal real tal que es una matriz diagonal . Toda matriz simétrica real es, por tanto, hasta la elección de una base ortonormal , una matriz diagonal.
Si y son matrices simétricas reales que conmutan, entonces pueden diagonalizarse simultáneamente mediante una matriz ortogonal: [2] existe una base de tal que cada elemento de la base es un vector propio para ambos y .
Toda matriz simétrica real es hermitiana y, por tanto, todos sus valores propios son reales. (De hecho, los valores propios son las entradas en la matriz diagonal (arriba) y, por lo tanto, están determinados de manera única hasta por el orden de sus entradas). Esencialmente, la propiedad de ser simétrica para matrices reales corresponde a la propiedad de ser hermitiana para matrices complejas.
Matrices simétricas complejas
Una matriz simétrica compleja se puede 'diagonalizar' usando una matriz unitaria : por lo tanto, si es una matriz simétrica compleja, existe una matriz unitaria tal que es una matriz diagonal real con entradas no negativas. Este resultado se conoce como factorización de Autonne-Takagi . Fue probado originalmente por Léon Autonne (1915) y Teiji Takagi (1925) y redescubierto con diferentes pruebas por varios otros matemáticos. [3] [4] De hecho, la matriz es hermitiana y semidefinida positiva , por lo que existe una matriz unitaria tal que es diagonal con entradas reales no negativas. Por tanto, el complejo es simétrico con lo real. Escribiendo con matrices simétricas reales , . De este modo . Dado que y conmutan, existe una matriz ortogonal real tal que ambas y son diagonales. Al configurar (una matriz unitaria), la matriz es diagonal compleja. Al multiplicar previamente por una matriz unitaria diagonal adecuada (que conserva la unitaridad de ), las entradas diagonales de pueden hacerse reales y no negativas, según se desee. Para construir esta matriz, expresamos la matriz diagonal como . La matriz que buscamos viene dada simplemente por . Claramente como se desea, entonces hacemos la modificación . Como sus cuadrados son los valores propios de , coinciden con los valores singulares de . (Tenga en cuenta que, acerca de la descomposición propia de una matriz simétrica compleja , la forma normal de Jordan puede no ser diagonal y, por lo tanto, no puede diagonalizarse mediante ninguna transformación de similitud).
Descomposición
Usando la forma normal de Jordan , se puede demostrar que cada matriz real cuadrada se puede escribir como producto de dos matrices simétricas reales, y cada matriz cuadrada compleja se puede escribir como producto de dos matrices simétricas complejas. [5]
La descomposición de Cholesky establece que toda matriz simétrica definida positiva real es un producto de una matriz triangular inferior y su transpuesta,
Si la matriz es simétrica indefinida, aún se puede descomponer como donde es una matriz de permutación (que surge de la necesidad de pivotar ), una matriz triangular unitaria inferior y es una suma directa de bloques simétricos y , lo que se denomina descomposición de Bunch-Kaufman. [6]
Una matriz simétrica general (compleja) puede ser defectuosa y, por tanto, no ser diagonalizable . Si es diagonalizable, se puede descomponer como
donde es una matriz ortogonal y es una matriz diagonal de los valores propios de . En el caso especial de que sea real simétrico, entonces y también son reales. Para ver la ortogonalidad, supongamos que y son vectores propios correspondientes a valores propios distintos ,. Entonces
Dado que y son distintos, tenemos .
arpillera
Las matrices simétricas de funciones reales aparecen como las hessianas de funciones dos veces diferenciables de variables reales (la continuidad de la segunda derivada no es necesaria, a pesar de la creencia común en lo contrario [7] ).
Cada forma cuadrática se puede escribir de forma única en la forma con una matriz simétrica . Debido al teorema espectral anterior, se puede decir que cada forma cuadrática, hasta la elección de una base ortonormal de , "se parece"
a los números reales . Esto simplifica considerablemente el estudio de las formas cuadráticas, así como el estudio de los conjuntos de niveles que son generalizaciones de secciones cónicas .
Esto es importante en parte porque el comportamiento de segundo orden de cada función multivariable suave se describe mediante la forma cuadrática que pertenece al hessiano de la función; esto es una consecuencia del teorema de Taylor .
Matriz simetrizable
Se dice que una matriz es simetrizable si existe una matriz diagonal invertible y una matriz simétrica tal que
La transpuesta de una matriz simetrizable es simetrizable, ya que y es simétrica. Una matriz es simetrizable si y sólo si se cumplen las siguientes condiciones:
implica para todos
para cualquier secuencia finita
Ver también
Otros tipos de simetría o patrón en matrices cuadradas tienen nombres especiales; ver por ejemplo:
↑ Jesús Rojo García (1986). Álgebra lineal (en español) (2ª ed.). Editorial AC. ISBN 84-7288-120-2.
^ Richard Bellman (1997). Introducción al análisis matricial (2ª ed.). SIAM. ISBN08-9871-399-4.
^ Cuerno, RA; Johnson, CR (2013). Análisis matricial (2ª ed.). Prensa de la Universidad de Cambridge. págs.263, 278. SEÑOR 2978290.
^ Ver:
Autonne, L. (1915), "Sur les matrices hipohermitiennes et sur les matrices unitaires", Ann. Univ. Lyon , 38 : 1–77
Takagi, T. (1925), "Sobre un problema algebraico relacionado con un teorema analítico de Carathéodory y Fejér y sobre un teorema aliado de Landau", Jpn. J. Matemáticas. , 1 : 83–93, doi : 10.4099/jjm1924.1.0_83
Siegel, Carl Ludwig (1943), "Symplectic Geometry", American Journal of Mathematics , 65 (1): 1–86, doi :10.2307/2371774, JSTOR 2371774, Lema 1, página 12
Hua, L.-K. (1944), "Sobre la teoría de funciones automórficas de una variable matricial I – base geométrica", Amer. J. Matemáticas. , 66 (3): 470–488, doi :10.2307/2371910, JSTOR 2371910
Schur, I. (1945), "Ein Satz über quadratische Formen mit komplexen Koeffizienten", Amer. J. Matemáticas. , 67 (4): 472–480, doi :10.2307/2371974, JSTOR 2371974
Benedetti, R.; Cragnolini, P. (1984), "Sobre la diagonalización simultánea de una forma hermitiana y una simétrica", Linear Algebra Appl. , 57 : 215–226, doi : 10.1016/0024-3795(84)90189-7
^ Bosch, AJ (1986). "La factorización de una matriz cuadrada en dos matrices simétricas". Mensual Matemático Estadounidense . 93 (6): 462–464. doi :10.2307/2323471. JSTOR 2323471.
^ GH Golub, CF van Loan. (1996). Cálculos matriciales . Prensa de la Universidad Johns Hopkins, Baltimore, Londres.
^ Dieudonné, Jean A. (1969). Fundamentos del análisis moderno (edición de impresión ampliada y corregida). Prensa académica. Teorema (8.12.2), pág. 180.ISBN978-1443724265.
Referencias
Cuerno, Roger A.; Johnson, Charles R. (2013), Análisis matricial (2ª ed.), Cambridge University Press, ISBN 978-0-521-54823-6