stringtranslate.com

Matriz antisimétrica

En matemáticas , particularmente en álgebra lineal , una matriz antisimétrica (o antisimétrica o antimétrica [1] ) es una matriz cuadrada cuya transpuesta es igual a su negativo. Es decir, satisface la condición [2] : p. 38 

En términos de las entradas de la matriz, si denota la entrada en la -ésima fila y -ésima columna, entonces la condición antisimétrica es equivalente a

Ejemplo

La matriz

es antisimétrico porque

Propiedades

En todo momento, suponemos que todas las entradas de la matriz pertenecen a un cuerpo cuya característica no es igual a 2. Es decir, suponemos que 1 + 1 ≠ 0 , donde 1 denota la identidad multiplicativa y 0 la identidad aditiva del cuerpo dado. Si la característica del cuerpo es 2, entonces una matriz antisimétrica es lo mismo que una matriz simétrica .

Estructura del espacio vectorial

Como resultado de las dos primeras propiedades anteriores, el conjunto de todas las matrices antisimétricas de un tamaño fijo forma un espacio vectorial . El espacio de matrices antisimétricas tiene dimensión

Sea el espacio de matrices. Una matriz antisimétrica está determinada por escalares (el número de entradas por encima de la diagonal principal ); una matriz simétrica está determinada por escalares (el número de entradas en o por encima de la diagonal principal). Sea el espacio de matrices antisimétricas y sea el espacio de matrices simétricas. Si entonces

Tenga en cuenta que y Esto es cierto para cada matriz cuadrada con entradas de cualquier campo cuya característica sea diferente de 2. Entonces, dado que y donde denota la suma directa .

Denotamos por el producto interno estándar en La matriz real es antisimétrica si y sólo si

Esto también es equivalente a para todos (una implicación es obvia, la otra una consecuencia clara de para todos y ).

Dado que esta definición es independiente de la elección de la base , la simetría oblicua es una propiedad que depende únicamente del operador lineal y de la elección del producto interno .

Las matrices simétricas sesgadas se pueden utilizar para representar productos cruzados como multiplicaciones de matrices.

Además, si es una matriz antisimétrica (o antihermítica ), entonces para todo .

Determinante

Sea una matriz antisimétrica. El determinante de satisface

En particular, si es impar, y dado que el cuerpo subyacente no es de característica 2, el determinante se anula. Por lo tanto, todas las matrices asimétricas de dimensión impar son singulares, ya que sus determinantes son siempre cero. Este resultado se denomina teorema de Jacobi , en honor a Carl Gustav Jacobi (Eves, 1980).

El caso de dimensión par es más interesante. Resulta que el determinante de para dimensión par se puede escribir como el cuadrado de un polinomio en las entradas de , lo que fue demostrado por primera vez por Cayley: [3]

Este polinomio se llama pfaffiano de y se denota . Por lo tanto, el determinante de una matriz real antisimétrica es siempre no negativo. Sin embargo, este último hecho se puede demostrar de manera elemental de la siguiente manera: los valores propios de una matriz real antisimétrica son puramente imaginarios (ver más abajo) y a cada valor propio le corresponde el valor propio conjugado con la misma multiplicidad; por lo tanto, como el determinante es el producto de los valores propios, cada uno repetido de acuerdo con su multiplicidad, se sigue de inmediato que el determinante, si no es 0, es un número real positivo.

El número de términos distintos en la expansión del determinante de una matriz antisimétrica de orden ya fue considerado por Cayley, Sylvester y Pfaff. Debido a las cancelaciones, este número es bastante pequeño en comparación con el número de términos del determinante de una matriz genérica de orden , que es . La secuencia (secuencia A002370 en la OEIS ) es

1, 0, 1, 0, 6, 0, 120, 0, 5250, 0, 395010, 0,…

y está codificado en la función generadora exponencial

Este último da lugar a la asintótica (para pares)

El número de términos positivos y negativos es aproximadamente la mitad del total, aunque su diferencia toma valores positivos y negativos cada vez mayores a medida que aumenta (secuencia A167029 en la OEIS ).

Producto vectorial

Las matrices antisimétricas de tres por tres se pueden utilizar para representar productos cruzados como multiplicaciones de matrices. Considere los vectores y Luego, defina la matriz

El producto vectorial se puede escribir como

Esto se puede verificar inmediatamente calculando ambos lados de la ecuación anterior y comparando cada elemento correspondiente de los resultados.

Uno realmente tiene

es decir, el conmutador de matrices antisimétricas de tres por tres se puede identificar con el producto vectorial de tres vectores. Dado que las matrices antisimétricas de tres por tres son el álgebra de Lie del grupo de rotación, esto aclara la relación entre el espacio tridimensional , el producto vectorial y las rotaciones tridimensionales. A continuación se puede encontrar más información sobre rotaciones infinitesimales.

Teoría espectral

Como una matriz es similar a su propia transpuesta, deben tener los mismos valores propios. De ello se deduce que los valores propios de una matriz antisimétrica siempre vienen en pares ±λ (excepto en el caso de dimensión impar donde hay un valor propio adicional no apareado 0). Del teorema espectral , para una matriz antisimétrica real los valores propios distintos de cero son todos imaginarios puros y, por lo tanto, tienen la forma donde cada uno de los son reales.

Las matrices antisimétricas reales son matrices normales (conmutan con sus adjuntas ) y, por lo tanto, están sujetas al teorema espectral , que establece que cualquier matriz antisimétrica real puede diagonalizarse mediante una matriz unitaria . Dado que los valores propios de una matriz antisimétrica real son imaginarios, no es posible diagonalizarla mediante una matriz real. Sin embargo, es posible llevar cada matriz antisimétrica a una forma diagonal en bloque mediante una transformación ortogonal especial . [4] [5] Específicamente, cada matriz antisimétrica real puede escribirse en la forma donde es ortogonal y

para definida positiva real . Los valores propios distintos de cero de esta matriz son ±λ k i . En el caso de dimensión impar, Σ siempre tiene al menos una fila y una columna de ceros.

En términos más generales, toda matriz antisimétrica compleja se puede escribir en la forma donde es unitaria y tiene la forma diagonal en bloques dada anteriormente con valores definidos positivos reales. Este es un ejemplo de la descomposición de Youla de una matriz cuadrada compleja. [6]

Formas alternas y antisimétricas

Una forma antisimétrica en un espacio vectorial sobre un campo de característica arbitraria se define como una forma bilineal.

de tal manera que para todos en

Esto define una forma con propiedades deseables para espacios vectoriales sobre campos de característica no igual a 2, pero en un espacio vectorial sobre un campo de característica 2, la definición es equivalente a la de una forma simétrica, ya que cada elemento es su propio inverso aditivo.

Cuando el espacio vectorial se encuentra sobre un campo de característica arbitraria que incluye la característica 2, podemos definir una forma alternada como una forma bilineal tal que para todos los vectores en

Esto es equivalente a una forma antisimétrica cuando el campo no es de característica 2, como se ve desde

De dónde

Una forma bilineal estará representada por una matriz tal que , una vez elegida una base de , y a la inversa una matriz sobre da lugar a una forma que envía a Para cada una de las formas simétricas, antisimétricas y alternas, las matrices que las representan son simétricas, antisimétricas y alternas respectivamente.

Rotaciones infinitesimales

Las matrices antisimétricas sobre el cuerpo de números reales forman el espacio tangente al grupo ortogonal real en la matriz identidad; formalmente, el álgebra de Lie ortogonal especial . En este sentido, entonces, las matrices antisimétricas pueden considerarse como rotaciones infinitesimales .

Otra forma de decir esto es que el espacio de matrices antisimétricas forma el álgebra de Lie del grupo de Lie. El corchete de Lie en este espacio está dado por el conmutador :

Es fácil comprobar que el conmutador de dos matrices antisimétricas es nuevamente antisimétrico:

La matriz exponencial de una matriz antisimétrica es entonces una matriz ortogonal :

La imagen de la función exponencial de un álgebra de Lie siempre se encuentra en el componente conexo del grupo de Lie que contiene el elemento identidad. En el caso del grupo de Lie, este componente conexo es el grupo ortogonal especial que consiste en todas las matrices ortogonales con determinante 1. Por lo tanto, tendrá determinante +1. Además, dado que la función exponencial de un grupo de Lie compacto conexo es siempre sobreyectiva, resulta que toda matriz ortogonal con determinante unitario puede escribirse como la exponencial de alguna matriz antisimétrica. En el caso particularmente importante de la dimensión, la representación exponencial para una matriz ortogonal se reduce a la forma polar bien conocida de un número complejo de módulo unitario. De hecho, si una matriz ortogonal especial tiene la forma

con . Por lo tanto, poniendo y se puede escribir

que corresponde exactamente a la forma polar de un número complejo de módulo unitario.

La representación exponencial de una matriz ortogonal de orden también se puede obtener a partir del hecho de que en dimensión cualquier matriz ortogonal especial se puede escribir como donde es ortogonal y S es una matriz diagonal por bloques con bloques de orden 2, más uno de orden 1 si es impar; como cada bloque individual de orden 2 es también una matriz ortogonal, admite una forma exponencial. Correspondientemente, la matriz  S se escribe como exponencial de una matriz por bloques antisimétrica de la forma anterior, de modo que exponencial de la matriz antisimétrica A la inversa, la sobreyectividad de la función exponencial, junto con la diagonal por bloques mencionada anteriormente para matrices antisimétricas, implica la diagonal por bloques para matrices ortogonales.

Sin coordenadas

De manera más intrínseca (es decir, sin utilizar coordenadas), las transformaciones lineales antisimétricas en un espacio vectorial con un producto interno pueden definirse como los bivectores en el espacio, que son sumas de bivectores simples ( 2-hojas ). La correspondencia está dada por la función donde es el covector dual del vector ; en coordenadas ortonormales, estas son exactamente las matrices antisimétricas elementales. Esta caracterización se utiliza para interpretar el rotacional de un campo vectorial (naturalmente un 2-vector) como una rotación infinitesimal o "rotual", de ahí el nombre.

Matriz simetrizable oblicuamente

Se dice que una matriz es antisimetrizable si existe una matriz diagonal invertible que sea antisimétrica. En el caso de matrices reales , a veces se añade la condición de que haya entradas positivas. [7]

Véase también

Referencias

  1. ^ Richard A. Reyment; KG Jöreskog ; Leslie F. Marcus (1996). Análisis factorial aplicado en las ciencias naturales . Cambridge University Press. pág. 68. ISBN 0-521-57556-7.
  2. ^ Lipschutz, Seymour; Lipson, Marc (septiembre de 2005). Esquema de teoría y problemas del álgebra lineal de Schaum . McGraw-Hill. ISBN 9780070605022.
  3. ^ Cayley, Arturo (1847). "Sur les determinantes gauches" [Sobre los determinantes sesgados]. Diario de Crelle . 38 : 93–96.Reimpreso en Cayley, A. (2009). "Sur les Déterminants Gauches". Los artículos matemáticos recopilados . vol. 1. págs. 410–413. doi :10.1017/CBO9780511703676.070. ISBN 978-0-511-70367-6.
  4. ^ Duplij, S.; Nikitin, A.; Galkin, A.; Sergueyev, A.; Dayi, DE; Mohapatra, R.; Lipatov, L.; Dunne, G.; Feinberg, J.; Aoyama, H.; Voronov, T. (2004). "Pfaffiano". En Duplij, S.; Siegel, W.; Bagger, J. (eds.). Enciclopedia concisa de supersimetría . Saltador. pag. 298. doi :10.1007/1-4020-4522-0_393.
  5. ^ Zumino, Bruno (1962). "Formas normales de matrices complejas". Revista de física matemática . 3 (5): 1055–7. Código Bibliográfico :1962JMP.....3.1055Z. doi :10.1063/1.1724294.
  6. ^ Youla, DC (1961). "Una forma normal para una matriz bajo el grupo de congruencia unitaria". Can. J. Math . 13 : 694–704. doi : 10.4153/CJM-1961-059-8 .
  7. ^ Fomin, Sergey; Zelevinsky, Andrei (2001). "Álgebras de conglomerados I: Fundamentos". arXiv : math/0104151v1 .

Lectura adicional

Enlaces externos