stringtranslate.com

Matriz simétrica

Simetría de una matriz 5×5

En álgebra lineal , una matriz simétrica es una matriz cuadrada que es igual a su transpuesta . Formalmente,

Como las matrices iguales tienen dimensiones iguales, sólo las matrices cuadradas pueden ser simétricas.

Las entradas de una matriz simétrica son simétricas respecto de la diagonal principal . Por lo tanto, si denota la entrada en la fila y la columna, entonces

para todos los índices y

Toda matriz diagonal cuadrada es simétrica, ya que todos los elementos fuera de la diagonal son cero. De manera similar, en una matriz antisimétrica característica distinta de 2, cada elemento diagonal debe ser cero, ya que cada uno es su propio negativo.

En álgebra lineal, una matriz simétrica real representa un operador autoadjunto [1] representado en una base ortonormal sobre un espacio de producto interno real . El objeto correspondiente para un espacio de producto interno complejo es una matriz hermítica con entradas de valor complejo, que es igual a su transpuesta conjugada . Por lo tanto, en álgebra lineal sobre números complejos, a menudo se supone que una matriz simétrica se refiere a una que tiene entradas de valor real. Las matrices simétricas aparecen de forma natural en una variedad de aplicaciones, y el software de álgebra lineal numérica típico hace adaptaciones especiales para ellas.

Ejemplo

La siguiente matriz es simétrica: Ya que .

Propiedades

Propiedades básicas

Descomposición en simétrica y antisimétrica

Cualquier matriz cuadrada puede escribirse de forma única como suma de una matriz simétrica y una matriz antisimétrica. Esta descomposición se conoce como descomposición de Toeplitz. Sea el espacio de matrices. Si denota el espacio de matrices simétricas y el espacio de matrices antisimétricas, entonces y , es decir, donde denota la suma directa . Sea entonces

Tenga en cuenta que y . Esto es cierto para cada matriz cuadrada con entradas de cualquier campo cuya característica sea diferente de 2.

Una matriz simétrica está determinada por escalares (el número de entradas en o por encima de la diagonal principal ). De manera similar, una matriz antisimétrica está determinada por escalares (el número de entradas por encima de la diagonal principal).

Matriz congruente con una matriz simétrica

Cualquier matriz congruente con una matriz simétrica es a su vez simétrica: si es una matriz simétrica, entonces también lo es para cualquier matriz .

La simetría implica normalidad

Una matriz simétrica (de valor real) es necesariamente una matriz normal .

Matrices simétricas reales

Denotemos por el producto interno estándar en . La matriz real es simétrica si y sólo si

Como esta definición es independiente de la elección de la base , la simetría es una propiedad que depende únicamente del operador lineal A y de la elección del producto interno . Esta caracterización de la simetría es útil, por ejemplo, en geometría diferencial , ya que cada espacio tangente a una variedad puede estar dotado de un producto interno, dando lugar a lo que se denomina una variedad de Riemann . Otro ámbito en el que se utiliza esta formulación es en los espacios de Hilbert .

El teorema espectral de dimensión finita dice que cualquier matriz simétrica cuyos elementos sean reales puede ser diagonalizada por una matriz ortogonal . Más explícitamente: Para cada matriz simétrica real existe una matriz ortogonal real tal que es una matriz diagonal . Toda matriz simétrica real es, por tanto, hasta la elección de una base ortonormal , una matriz diagonal.

Si y son matrices simétricas reales que conmutan, entonces pueden ser diagonalizadas simultáneamente por una matriz ortogonal: [2] existe una base de tal que cada elemento de la base es un vector propio tanto para como para .

Toda matriz simétrica real es hermítica y, por lo tanto, todos sus valores propios son reales. (De hecho, los valores propios son las entradas de la matriz diagonal (arriba) y, por lo tanto, están determinados de forma única por hasta el orden de sus entradas). Esencialmente, la propiedad de ser simétrica para matrices reales corresponde a la propiedad de ser hermítica para matrices complejas.

Matrices simétricas complejas

Una matriz simétrica compleja puede ser 'diagonalizada' usando una matriz unitaria : así, si es una matriz simétrica compleja, existe una matriz unitaria tal que es una matriz diagonal real con elementos no negativos. Este resultado se conoce como la factorización de Autonne-Takagi . Fue demostrada originalmente por Léon Autonne (1915) y Teiji Takagi (1925) y redescubierta con diferentes demostraciones por varios otros matemáticos. [3] [4] De hecho, la matriz es hermítica y semidefinida positiva , por lo que existe una matriz unitaria tal que es diagonal con elementos reales no negativos. Por lo tanto es compleja simétrica con reales. Escribiendo con y matrices simétricas reales, . Por lo tanto . Dado que y conmutan, existe una matriz ortogonal real tal que tanto y son diagonales. Estableciendo (una matriz unitaria), la matriz es diagonal compleja. Premultiplicando por una matriz unitaria diagonal adecuada (que preserva la unitaridad de ), las entradas diagonales de pueden hacerse reales y no negativas como se desee. Para construir esta matriz, expresamos la matriz diagonal como . La matriz que buscamos está dada simplemente por . Claramente como se desea, entonces hacemos la modificación . Como sus cuadrados son los valores propios de , coinciden con los valores singulares de . (Obsérvese que, sobre la descomposición propia de una matriz simétrica compleja , la forma normal de Jordan de puede no ser diagonal, por lo tanto no puede ser diagonalizada por ninguna transformación de similitud).

Descomposición

Utilizando la forma normal de Jordan , se puede demostrar que toda matriz real cuadrada puede escribirse como un producto de dos matrices simétricas reales, y toda matriz compleja cuadrada puede escribirse como un producto de dos matrices simétricas complejas. [5]

Toda matriz real no singular se puede factorizar de forma única como el producto de una matriz ortogonal y una matriz definida positiva simétrica , lo que se denomina descomposición polar . Las matrices singulares también se pueden factorizar, pero no de forma única.

La descomposición de Cholesky establece que toda matriz simétrica positiva definida real es un producto de una matriz triangular inferior y su transpuesta,

Si la matriz es simétrica indefinida, aún puede descomponerse como donde es una matriz de permutación (que surge de la necesidad de pivotar ), una matriz triangular unitaria inferior, y es una suma directa de bloques simétricos y , lo que se denomina descomposición de Bunch-Kaufman [6]

Una matriz simétrica general (compleja) puede ser defectuosa y, por lo tanto, no diagonalizable . Si es diagonalizable, se puede descomponer como donde es una matriz ortogonal y es una matriz diagonal de los valores propios de . En el caso especial de que sea simétrica real, entonces y también son reales. Para ver la ortogonalidad, supongamos que y son vectores propios correspondientes a valores propios distintos , . Entonces

Como y son distintos, tenemos .

arpillera

Las matrices simétricas de funciones reales aparecen como las hessianas de funciones dos veces diferenciables de variables reales (la continuidad de la segunda derivada no es necesaria, a pesar de la creencia común de lo contrario [7] ).

Cada forma cuadrática de se puede escribir de forma única en la forma con una matriz simétrica . Debido al teorema espectral anterior, se puede decir que cada forma cuadrática, hasta la elección de una base ortonormal de , "se parece" a con números reales . Esto simplifica considerablemente el estudio de las formas cuadráticas, así como el estudio de los conjuntos de niveles que son generalizaciones de las secciones cónicas .

Esto es importante en parte porque el comportamiento de segundo orden de cada función multivariable suave se describe mediante la forma cuadrática perteneciente al hessiano de la función; esto es una consecuencia del teorema de Taylor .

Matriz simetrizable

Se dice que una matriz es simetrizable si existe una matriz diagonal invertible y una matriz simétrica tales que

La transpuesta de una matriz simetrizable es simetrizable, ya que y es simétrica. Una matriz es simetrizable si y solo si se cumplen las siguientes condiciones:

  1. implica para todos
  2. para cualquier secuencia finita

Véase también

Otros tipos de simetría o patrón en matrices cuadradas tienen nombres especiales; véase por ejemplo:

Véase también simetría en matemáticas .

Notas

  1. Jesús Rojo García (1986). Álgebra lineal (en español) (2ª ed.). Editorial AC. ISBN 84-7288-120-2.
  2. ^ Bellman, Richard (1997). Introducción al análisis matricial (2.ª ed.). SIAM. ISBN 08-9871-399-4.
  3. ^ Horn y Johnson 2013, págs. 263, 278
  4. ^ Ver:
    • Autonne, L. (1915), "Sur les matrices hipohermitiennes et sur les matrices unitaires", Ann. Univ. Lyon , 38 : 1–77
    • Takagi, T. (1925), "Sobre un problema algebraico relacionado con un teorema analítico de Carathéodory y Fejér y sobre un teorema relacionado de Landau", Jpn. J. Math. , 1 : 83–93, doi : 10.4099/jjm1924.1.0_83
    • Siegel, Carl Ludwig (1943), "Geometría simpléctica", American Journal of Mathematics , 65 (1): 1–86, doi :10.2307/2371774, JSTOR  2371774, Lema 1, página 12
    • Hua, L.-K. (1944), "Sobre la teoría de funciones automórficas de una variable matricial I–base geométrica", Amer. J. Math. , 66 (3): 470–488, doi :10.2307/2371910, JSTOR  2371910
    • Schur, I. (1945), "Ein Satz über quadratische Formen mit komplexen Koeffizienten", Amer. J. Matemáticas. , 67 (4): 472–480, doi :10.2307/2371974, JSTOR  2371974
    • Benedetti, R.; Cragnolini, P. (1984), "Sobre la diagonalización simultánea de una forma hermítica y otra simétrica", Linear Algebra Appl. , 57 : 215–226, doi : 10.1016/0024-3795(84)90189-7
  5. ^ Bosch, AJ (1986). "La factorización de una matriz cuadrada en dos matrices simétricas". American Mathematical Monthly . 93 (6): 462–464. doi :10.2307/2323471. JSTOR  2323471.
  6. ^ Golub, GH ; van Loan, CF (1996). Cálculos matriciales . Prensa de la Universidad Johns Hopkins. ISBN 0-8018-5413-X.OCLC 34515797  .
  7. ^ Dieudonné, Jean A. (1969). "Teorema (8.12.2)". Fundamentos del análisis moderno . Academic Press. pág. 180. ISBN 0-12-215550-5.OCLC 576465  .

Referencias

Enlaces externos