stringtranslate.com

matriz simétrica

Simetría de una matriz de 5×5

En álgebra lineal , una matriz simétrica es una matriz cuadrada que es igual a su transpuesta . Formalmente,

Como las matrices iguales tienen dimensiones iguales, sólo las matrices cuadradas pueden ser simétricas.

Las entradas de una matriz simétrica son simétricas con respecto a la diagonal principal . Entonces, si denota la entrada en la enésima fila y enésima columna, entonces

para todos los índices y

Toda matriz diagonal cuadrada es simétrica, ya que todos los elementos fuera de la diagonal son cero. De manera similar, en una característica diferente de 2, cada elemento diagonal de una matriz asimétrica debe ser cero, ya que cada uno es su propio negativo.

En álgebra lineal, una matriz simétrica real representa un operador autoadjunto [1] representado en forma ortonormal sobre un espacio producto interno real . El objeto correspondiente para un espacio producto interno complejo es una matriz hermitiana con entradas de valores complejos, que es igual a su transpuesta conjugada . Por lo tanto, en álgebra lineal sobre números complejos, a menudo se supone que una matriz simétrica se refiere a una que tiene entradas con valores reales. Las matrices simétricas aparecen de forma natural en una variedad de aplicaciones, y el software típico de álgebra lineal numérica hace adaptaciones especiales para ellas.

Ejemplo

La siguiente matriz es simétrica:

Propiedades

Propiedades básicas

Descomposición en simétrico y sesgado-simétrico

Cualquier matriz cuadrada se puede escribir únicamente como la suma de una matriz simétrica y sesgada. Esta descomposición se conoce como descomposición de Toeplitz. Denotemos el espacio de matrices. Si denota el espacio de matrices simétricas y el espacio de matrices simétricas sesgadas, entonces y , es decir

suma directa

Note eso y . Esto es cierto para toda matriz cuadrada con entradas de cualquier campo cuya característica sea diferente de 2.

Una matriz simétrica está determinada por escalares (el número de entradas en o por encima de la diagonal principal ). De manera similar, una matriz asimétrica está determinada por escalares (el número de entradas por encima de la diagonal principal).

Matriz congruente con una matriz simétrica

Cualquier matriz congruente con una matriz simétrica es nuevamente simétrica: si es una matriz simétrica, también lo es para cualquier matriz .

La simetría implica normalidad.

Una matriz simétrica (de valor real) es necesariamente una matriz normal .

Matrices simétricas reales

Denotar por el producto interno estándar en . La matriz real es simétrica si y sólo si

Dado que esta definición es independiente de la elección de la base , la simetría es una propiedad que depende sólo del operador lineal A y de la elección del producto interno . Esta caracterización de la simetría es útil, por ejemplo, en geometría diferencial , pues cada espacio tangente a una variedad puede estar dotado de un producto interno, dando lugar a lo que se llama variedad de Riemann . Otro ámbito donde se utiliza esta formulación es en los espacios de Hilbert .

El teorema espectral de dimensión finita dice que cualquier matriz simétrica cuyas entradas sean reales puede diagonalizarse mediante una matriz ortogonal . Más explícitamente: para cada matriz simétrica real existe una matriz ortogonal real tal que es una matriz diagonal . Toda matriz simétrica real es, por tanto, hasta la elección de una base ortonormal , una matriz diagonal.

Si y son matrices simétricas reales que conmutan, entonces pueden diagonalizarse simultáneamente mediante una matriz ortogonal: [2] existe una base de tal que cada elemento de la base es un vector propio para ambos y .

Toda matriz simétrica real es hermitiana y, por tanto, todos sus valores propios son reales. (De hecho, los valores propios son las entradas de la matriz diagonal (arriba) y, por lo tanto, están determinados de forma única hasta por el orden de sus entradas). Esencialmente, la propiedad de ser simétrica para matrices reales corresponde a la propiedad de ser hermitiana para matrices complejas.

Matrices simétricas complejas

Una matriz simétrica compleja se puede 'diagonalizar' usando una matriz unitaria : por lo tanto, si es una matriz simétrica compleja, existe una matriz unitaria tal que es una matriz diagonal real con entradas no negativas. Este resultado se conoce como factorización de Autonne-Takagi . Fue probado originalmente por Léon Autonne (1915) y Teiji Takagi (1925) y redescubierto con diferentes pruebas por varios otros matemáticos. [3] [4] De hecho, la matriz es hermitiana y semidefinida positiva , por lo que existe una matriz unitaria tal que es diagonal con entradas reales no negativas. Por tanto, el complejo es simétrico con lo real. Escribiendo con matrices simétricas reales , . De este modo . Dado que y conmutan, existe una matriz ortogonal real tal que ambas y son diagonales. Al establecer (una matriz unitaria), la matriz es diagonal compleja. Al multiplicar previamente por una matriz unitaria diagonal adecuada (que conserva la unitaridad de ), las entradas diagonales de pueden hacerse reales y no negativas, según se desee. Para construir esta matriz, expresamos la matriz diagonal como . La matriz que buscamos viene dada simplemente por . Claramente como se desea, entonces hacemos la modificación . Como sus cuadrados son los valores propios de , coinciden con los valores singulares de . (Tenga en cuenta que, acerca de la descomposición propia de una matriz simétrica compleja , la forma normal de Jordan de puede no ser diagonal y, por lo tanto, no puede diagonalizarse mediante ninguna transformación de similitud).

Descomposición

Usando la forma normal de Jordan , se puede demostrar que cada matriz real cuadrada se puede escribir como un producto de dos matrices simétricas reales, y cada matriz compleja cuadrada se puede escribir como un producto de dos matrices simétricas complejas. [5]

Cada matriz real no singular se puede factorizar de forma única como producto de una matriz ortogonal y una matriz definida positiva simétrica , lo que se denomina descomposición polar . Las matrices singulares también se pueden factorizar, pero no de forma única.

La descomposición de Cholesky establece que toda matriz simétrica definida positiva real es un producto de una matriz triangular inferior y su transpuesta,

Si la matriz es simétrica indefinida, aún se puede descomponer como donde hay una matriz de permutación (que surge de la necesidad de pivotar ), una matriz triangular unitaria inferior y es una suma directa de bloques simétricos y , lo que se llama descomposición de Bunch-Kaufman. [6]

Una matriz simétrica general (compleja) puede ser defectuosa y, por tanto, no ser diagonalizable . Si es diagonalizable se puede descomponer como

Dado que y son distintos, tenemos .

arpillera

Las matrices simétricas de funciones reales aparecen como las hessianas de funciones dos veces diferenciables de variables reales (la continuidad de la segunda derivada no es necesaria, a pesar de la creencia común en lo contrario [7] ).

Cada forma cuadrática se puede escribir de forma única en la forma con una matriz simétrica . Debido al teorema espectral anterior, se puede decir que toda forma cuadrática, hasta la elección de una base ortonormal de , "parece"

secciones cónicas

Esto es importante en parte porque el comportamiento de segundo orden de cada función multivariable suave se describe mediante la forma cuadrática que pertenece al hessiano de la función; esto es una consecuencia del teorema de Taylor .

Matriz simetrizable

Se dice que una matriz es simetrizable si existe una matriz diagonal invertible y una matriz simétrica tal que

La transpuesta de una matriz simetrizable es simetrizable, ya que y es simétrica. Una matriz es simetrizable si y sólo si se cumplen las siguientes condiciones:

  1. implica para todos
  2. para cualquier secuencia finita

Ver también

Otros tipos de simetría o patrón en matrices cuadradas tienen nombres especiales; ver por ejemplo:

Véase también simetría en matemáticas .

Notas

  1. Jesús Rojo García (1986). Álgebra lineal (en español) (2ª ed.). Editorial AC. ISBN 84-7288-120-2.
  2. ^ Richard Bellman (1997). Introducción al análisis matricial (2ª ed.). SIAM. ISBN 08-9871-399-4.
  3. ^ Cuerno, RA; Johnson, CR (2013). Análisis matricial (2ª ed.). Prensa de la Universidad de Cambridge. págs.263, 278. SEÑOR  2978290.
  4. ^ Ver:
    • Autonne, L. (1915), "Sur les matrices hipohermitiennes et sur les matrices unitaires", Ann. Univ. Lyon , 38 : 1–77
    • Takagi, T. (1925), "Sobre un problema algebraico relacionado con un teorema analítico de Carathéodory y Fejér y sobre un teorema aliado de Landau", Jpn. J. Matemáticas. , 1 : 83–93, doi : 10.4099/jjm1924.1.0_83
    • Siegel, Carl Ludwig (1943), "Symplectic Geometry", American Journal of Mathematics , 65 (1): 1–86, doi :10.2307/2371774, JSTOR  2371774, Lema 1, página 12
    • Hua, L.-K. (1944), "Sobre la teoría de funciones automórficas de una variable matricial I – base geométrica", Amer. J. Matemáticas. , 66 (3): 470–488, doi :10.2307/2371910, JSTOR  2371910
    • Schur, I. (1945), "Ein Satz über quadratische Formen mit komplexen Koeffizienten", Amer. J. Matemáticas. , 67 (4): 472–480, doi :10.2307/2371974, JSTOR  2371974
    • Benedetti, R.; Cragnolini, P. (1984), "Sobre la diagonalización simultánea de una forma hermitiana y una simétrica", Linear Algebra Appl. , 57 : 215–226, doi : 10.1016/0024-3795(84)90189-7
  5. ^ Bosch, AJ (1986). "La factorización de una matriz cuadrada en dos matrices simétricas". Mensual Matemático Estadounidense . 93 (6): 462–464. doi :10.2307/2323471. JSTOR  2323471.
  6. ^ GH Golub, CF van Loan. (1996). Cálculos matriciales . Prensa de la Universidad Johns Hopkins, Baltimore, Londres.
  7. ^ Dieudonné, Jean A. (1969). Fundamentos del análisis moderno (edición de impresión ampliada y corregida). Prensa académica. Teorema (8.12.2), pág. 180.ISBN 978-1443724265.

Referencias

enlaces externos