stringtranslate.com

Matriz sesgada y simétrica

En matemáticas , particularmente en álgebra lineal , una matriz sesgada (o antisimétrica o antimétrica [1] ) es una matriz cuadrada cuya transpuesta es igual a su negativo. Es decir, satisface la condición [2] : p. 38 

En términos de las entradas de la matriz, si denota la entrada en la -ésima fila y la -ésima columna, entonces la condición simétrica sesgada es equivalente a

Ejemplo

La matriz

es simétrico sesgado porque

Propiedades

En todo momento, asumimos que todas las entradas de la matriz pertenecen a un campo cuya característica no es igual a 2. Es decir, asumimos que 1 + 1 ≠ 0 , donde 1 denota la identidad multiplicativa y 0 la identidad aditiva del campo dado. Si la característica del campo es 2, entonces una matriz asimétrica es lo mismo que una matriz simétrica .

Estructura del espacio vectorial

Como resultado de las dos primeras propiedades anteriores, el conjunto de todas las matrices simétricas sesgadas de un tamaño fijo forma un espacio vectorial . El espacio de matrices simétricas sesgadas tiene dimensión.

Denotemos el espacio de matrices. Una matriz asimétrica está determinada por escalares (el número de entradas por encima de la diagonal principal ); una matriz simétrica está determinada por escalares (el número de entradas en o por encima de la diagonal principal). Denotemos el espacio de matrices simétricas sesgadas y denotemos el espacio de matrices simétricas. si entonces

Observe que y Esto es cierto para toda matriz cuadrada con entradas de cualquier campo cuya característica sea diferente de 2. Entonces, desde y

suma directa

Denotemos por el producto interno estándar en La matriz real es asimétrica si y solo si

Esto también es equivalente a para todos (una implicación es obvia, la otra es una consecuencia clara de para todos y ).

Dado que esta definición es independiente de la elección de la base , la simetría asimétrica es una propiedad que depende únicamente del operador lineal y de la elección del producto interno .

Las matrices simétricas sesgadas se pueden utilizar para representar productos cruzados como multiplicaciones de matrices.

Además, si es una matriz sesgada-simétrica (o sesgada-hermitiana ), entonces para todos .

Determinante

Sea una matriz asimétrica. El determinante de satisface

En particular, si es impar y dado que el campo subyacente no es de la característica 2, el determinante desaparece. Por lo tanto, todas las matrices simétricas con sesgo de dimensión impar son singulares ya que sus determinantes son siempre cero. Este resultado se denomina teorema de Jacobi , en honor a Carl Gustav Jacobi (Eves, 1980).

El caso de dimensiones pares es más interesante. Resulta que el determinante de par se puede escribir como el cuadrado de un polinomio en las entradas de , lo cual fue demostrado por primera vez por Cayley: [3]

Este polinomio se llama Pfaffiano de y se denota . Por tanto, el determinante de una matriz sesgosimétrica real siempre es no negativo. Sin embargo, este último hecho se puede demostrar de forma elemental de la siguiente manera: los valores propios de una matriz sesgo-simétrica real son puramente imaginarios (ver más abajo) y a cada valor propio le corresponde el valor propio conjugado con la misma multiplicidad; por lo tanto, como el determinante es el producto de los valores propios, cada uno repetido según su multiplicidad, se sigue inmediatamente que el determinante, si no es 0, es un número real positivo.

Cayley, Sylvester y Pfaff ya han considerado el número de términos distintos en la expansión del determinante de una matriz de orden simétrica sesgada . Debido a las cancelaciones, este número es bastante pequeño en comparación con el número de términos de una matriz genérica de orden , que es . La secuencia (secuencia A002370 en el OEIS ) es

1, 0, 1, 0, 6, 0, 120, 0, 5250, 0, 395010, 0,…

y está codificado en la función generadora exponencial

Este último cede ante las asintóticas (para pares)

El número de términos positivos y negativos es aproximadamente la mitad del total, aunque su diferencia toma valores positivos y negativos cada vez mayores a medida que aumenta (secuencia A167029 en la OEIS ).

Producto cruzado

Se pueden utilizar matrices simétricas sesgadas de tres por tres para representar productos cruzados como multiplicaciones de matrices. Considere vectores y luego, defina la matriz.

el producto cruzado se puede escribir como

Esto se puede verificar inmediatamente calculando ambos lados de la ecuación anterior y comparando cada elemento correspondiente de los resultados.

uno realmente tiene

es decir, el conmutador de matrices asimétricas de tres por tres se puede identificar con el producto cruzado de tres vectores. Dado que las matrices simétricas sesgadas de tres por tres son el álgebra de Lie del grupo de rotación , esto aclara la relación entre el espacio tridimensional , el producto vectorial y las rotaciones tridimensionales. Puede encontrar más información sobre rotaciones infinitesimales a continuación.

Teoría espectral

Dado que una matriz es similar a su propia transpuesta, deben tener los mismos valores propios. De ello se deduce que los valores propios de una matriz simétrica sesgada siempre vienen en pares ±λ (excepto en el caso de dimensiones impares donde hay un valor propio 0 no apareado adicional). Según el teorema espectral , para una matriz sesgada-simétrica real, los valores propios distintos de cero son todos imaginarios puros y, por lo tanto, tienen la forma en la que cada uno de ellos es real.

Las matrices asimétricas reales son matrices normales (conmutan con sus adjuntos ) y, por lo tanto, están sujetas al teorema espectral , que establece que cualquier matriz simétrica asimétrica real puede diagonalizarse mediante una matriz unitaria . Dado que los valores propios de una matriz asimétrica real son imaginarios, no es posible diagonalizar uno mediante una matriz real. Sin embargo, es posible llevar cada matriz sesgada-simétrica a una forma diagonal de bloque mediante una transformación ortogonal especial . [4] [5] Específicamente, cada matriz sesgada-simétrica real se puede escribir en la forma donde es ortogonal y

para real positivo-definido . Los valores propios distintos de cero de esta matriz son ±λ k i . En el caso de dimensiones impares, Σ siempre tiene al menos una fila y una columna de ceros.

De manera más general, cada matriz sesgada-simétrica compleja se puede escribir en la forma donde es unitaria y tiene la forma diagonal de bloque dada anteriormente con definición positiva todavía real. Este es un ejemplo de la descomposición de Youla de una matriz cuadrada compleja. [6]

Formas sesgadas simétricas y alternas

Una forma asimétrica en un espacio vectorial sobre un campo de característica arbitraria se define como una forma bilineal

tal que para todos en

Esto define una forma con propiedades deseables para espacios vectoriales sobre campos de característica no igual a 2, pero en un espacio vectorial sobre un campo de característica 2, la definición es equivalente a la de una forma simétrica, ya que cada elemento es su propio inverso aditivo. .

Cuando el espacio vectorial está sobre un campo de característica arbitraria que incluye la característica 2, podemos definir una forma alterna como una forma bilineal tal que para todos los vectores en

Esto es equivalente a una forma asimétrica cuando el campo no es de la característica 2, como se ve desde

De dónde

Una forma bilineal estará representada por una matriz tal que , una vez que se elige una base de y, a la inversa, una matriz da lugar a una forma que envía a Para cada una de las formas simétrica, sesgada-simétrica y alterna, las matrices representativas son simétricas, sesgadas. -simétrico y alterno respectivamente.

Rotaciones infinitesimales

Las matrices simétricas sesgadas sobre el campo de números reales forman el espacio tangente al grupo ortogonal real en la matriz identidad; formalmente, el álgebra especial de Lie ortogonal . En este sentido, entonces, las matrices simétricas sesgadas pueden considerarse rotaciones infinitesimales .

Otra forma de decir esto es que el espacio de matrices simétricas sesgadas forma el álgebra de Lie del grupo de Lie. El soporte de Lie en este espacio viene dado por el conmutador :

Es fácil comprobar que el conmutador de dos matrices asimétricas es nuevamente asimétrico:

La matriz exponencial de una matriz simétrica sesgada es entonces una matriz ortogonal :

La imagen del mapa exponencial de un álgebra de Lie siempre se encuentra en el componente conexo del grupo de Lie que contiene el elemento identidad. En el caso del grupo de Lie, este componente conectado es el grupo ortogonal especial que consta de todas las matrices ortogonales con determinante 1. Por lo tanto, tendrá determinante +1. Además, dado que el mapa exponencial de un grupo de Lie compacto conectado es siempre sobreyectivo, resulta que cada matriz ortogonal con determinante unitario puede escribirse como exponencial de alguna matriz simétrica sesgada. En el importante caso particular de la dimensión, la representación exponencial de una matriz ortogonal se reduce a la conocida forma polar de un número complejo de módulo unitario. De hecho, si una matriz ortogonal especial tiene la forma

con . Por lo tanto, poniendo y se puede escribir

que corresponde exactamente a la forma polar de un número complejo de módulo unitario.

La representación exponencial de una matriz ortogonal de orden también se puede obtener a partir del hecho de que en dimensión cualquier matriz ortogonal especial se puede escribir como donde es ortogonal y S es una matriz diagonal de bloques con bloques de orden 2, más uno de orden 1 si es impar; dado que cada bloque de orden 2 es también una matriz ortogonal, admite una forma exponencial. En consecuencia, la matriz  S se escribe como exponencial de una matriz de bloques simétrica sesgada de la forma anterior, de modo que exponencial de la matriz simétrica sesgada. A la inversa, la sobreyectividad del mapa exponencial, junto con la diagonalización de bloques mencionada anteriormente para sesgos- matrices simétricas, implica la diagonalización de bloques para matrices ortogonales.

Sin coordenadas

De manera más intrínseca (es decir, sin usar coordenadas), las transformaciones lineales simétricas sesgadas en un espacio vectorial con un producto interno pueden definirse como los bivectores en el espacio, que son sumas de bivectores simples ( 2 hojas ) . La correspondencia está dada por mapear dónde está el covector dual al vector ; en coordenadas ortonormales, estas son exactamente las matrices simétricas sesgadas elementales. Esta caracterización se utiliza para interpretar la curvatura de un campo vectorial (naturalmente un 2 vectores) como una rotación infinitesimal o "curvatura", de ahí el nombre.

Matriz sesgada y simetrizable

Se dice que una matriz es simetrizable sesgada si existe una matriz diagonal invertible tal que sea simétrica sesgada. Para matrices reales , a veces se agrega la condición de tener entradas positivas. [7]

Ver también

Referencias

  1. ^ Richard A. Reyment; KG Jöreskog ; Leslie F.Marcus (1996). Análisis Factorial Aplicado en las Ciencias Naturales . Prensa de la Universidad de Cambridge. pag. 68.ISBN​ 0-521-57556-7.
  2. ^ Lipschutz, Seymour; Lipson, Marc (septiembre de 2005). Esquema de la teoría y problemas de álgebra lineal de Schaum . McGraw-Hill. ISBN 9780070605022.
  3. ^ Cayley, Arturo (1847). "Sur les determinantes gauches" [Sobre los determinantes sesgados]. Diario de Crelle . 38 : 93–96.Reimpreso en Cayley, A. (2009). "Sur les Déterminants Gauches". Los artículos matemáticos recopilados . vol. 1. págs. 410–413. doi :10.1017/CBO9780511703676.070. ISBN 978-0-511-70367-6.
  4. ^ Voronov, Theodore. Pfaffian , en: Enciclopedia concisa de supersimetría y estructuras no conmutativas en matemáticas y física, Eds. S. Duplij, W. Siegel, J. Bagger (Berlín, Nueva York: Springer 2005), p. 298.
  5. ^ Zumino, Bruno (1962). "Formas normales de matrices complejas". Revista de Física Matemática . 3 (5): 1055-1057. Código bibliográfico : 1962JMP......3.1055Z. doi :10.1063/1.1724294.
  6. ^ Youla, CC (1961). "Una forma normal para una matriz bajo el grupo de congruencia unitaria". Poder. J. Matemáticas . 13 : 694–704. doi : 10.4153/CJM-1961-059-8 .
  7. ^ Fomín, Sergey; Zelevinsky, Andrei (2001). "Álgebras de grupo I: fundamentos". arXiv : matemáticas/0104151v1 .

Otras lecturas

enlaces externos