Para una matriz cuadrada, la transposición de la matriz cofactorial
En álgebra lineal , el adjunto de una matriz cuadrada A es la transpuesta de su matriz cofactor y se denota por adj( A ) . [1] [2] También se lo conoce ocasionalmente como matriz adjunta , [3] [4] o "adjunto", [5] aunque el último término hoy en día normalmente se refiere a un concepto diferente, el operador adjunto que para una matriz es la transpuesta conjugada .
El producto de una matriz por su adjunta da una matriz diagonal (las entradas que no están en la diagonal principal son cero) cuyas entradas diagonales son el determinante de la matriz original:
donde I es la matriz identidad del mismo tamaño que A. En consecuencia, la inversa multiplicativa de una matriz invertible se puede encontrar dividiendo su adjunta por su determinante.
Definición
El adjunto de A es la transpuesta de la matriz de cofactores C de A ,
En más detalle, supongamos que R es un anillo conmutativo unitario y A es una matriz n × n con entradas de R . El ( i , j ) - menor de A , denotado M ij , es el determinante de la matriz ( n − 1) × ( n − 1) que resulta de eliminar la fila i y la columna j de A . La matriz de cofactores de A es la matriz n × n C cuya entrada ( i , j ) es el cofactor ( i , j ) de A , que es el ( i , j ) -menor por un factor de signo:
El adjunto de A es la transpuesta de C , es decir, la matriz n × n cuya entrada ( i , j ) es el cofactor ( j , i ) de A ,
Consecuencia importante
El adjunto se define de modo que el producto de A por su adjunto da como resultado una matriz diagonal cuyas entradas diagonales son el determinante det( A ) . Es decir,
donde I es la matriz identidad n × n . Esto es una consecuencia de la expansión de Laplace del determinante.
La fórmula anterior implica uno de los resultados fundamentales del álgebra matricial, que A es invertible si y solo si det( A ) es un elemento invertible de R . Cuando esto se cumple, la ecuación anterior da como resultado
Ejemplos
Matriz genérica 1 × 1
Como el determinante de una matriz 0 × 0 es 1, el adyuvante de cualquier matriz 1 × 1 ( escalar complejo ) es . Observe que
Matriz genérica de 2 × 2
El adjunto de la matriz 2 × 2
es
Por cálculo directo,
En este caso, también es cierto que det ( adj ( A )) = det ( A ) y, por lo tanto, que adj ( adj ( A )) = A .
Matriz genérica de 3 × 3
Considere una matriz de 3 × 3
Su matriz de cofactores es
dónde
Su adyuvante es la transpuesta de su matriz cofactorial,
Matriz numérica 3 × 3
Como ejemplo específico, tenemos
Es fácil comprobar que el adjunto es el inverso del determinante, −6 .
El −1 en la segunda fila, tercera columna del adyuvante se calculó de la siguiente manera. La entrada (2,3) del adyuvante es el cofactor (3,2) de A . Este cofactor se calcula utilizando la submatriz obtenida al eliminar la tercera fila y la segunda columna de la matriz original A ,
El cofactor (3,2) es un signo multiplicado por el determinante de esta submatriz:
y esta es la entrada (2,3) del adjugado.
Propiedades
Para cualquier matriz A de n × n , los cálculos elementales muestran que los adjuntos tienen las siguientes propiedades:
- , donde es la matriz identidad .
- , donde es la matriz cero , excepto que si entonces .
- para cualquier escalar c .
- .
- .
- Si A es invertible, entonces . Se deduce que:
- adj( A ) es invertible con inversa (det A ) −1 A .
- adj( A −1 ) = adj( A ) −1 .
- adj( A ) es un polinomio por entradas en A . En particular, sobre los números reales o complejos, el adjunto es una función suave de las entradas de A .
Sobre los números complejos,
- , donde la barra denota conjugación compleja .
- , donde el asterisco denota transpuesta conjugada .
Supongamos que B es otra matriz n × n . Entonces
Esto se puede demostrar de tres maneras. Una manera, válida para cualquier anillo conmutativo, es un cálculo directo utilizando la fórmula de Cauchy-Binet . La segunda manera, válida para los números reales o complejos, es observar primero que para las matrices invertibles A y B ,
Como cada matriz no invertible es el límite de las matrices invertibles, la continuidad del adjunto implica entonces que la fórmula sigue siendo verdadera cuando uno de A o B no es invertible.
Un corolario de la fórmula anterior es que, para cualquier entero no negativo k ,
Si A es invertible, entonces la fórmula anterior también es válida para k negativo .
Desde la identidad
Nosotros deducimos
Supongamos que A conmuta con B. Multiplicar la identidad AB = BA a la izquierda y a la derecha por adj( A ) demuestra que
Si A es invertible, esto implica que adj( A ) también conmuta con B . Sobre los números reales o complejos, la continuidad implica que adj( A ) conmuta con B incluso cuando A no es invertible.
Finalmente, hay una prueba más general que la segunda prueba, que sólo requiere que una matriz n × n tenga entradas sobre un cuerpo con al menos 2 n + 1 elementos (por ejemplo, una matriz 5 × 5 sobre los enteros módulo 11). det( A + t I ) es un polinomio en t con grado como máximo n , por lo que tiene como máximo n raíces . Nótese que la ij ésima entrada de adj(( A + t I )( B )) es un polinomio de como máximo orden n , y lo mismo para adj( A + t I ) adj( B ) . Estos dos polinomios en la ij ésima entrada concuerdan en al menos n + 1 puntos, ya que tenemos al menos n + 1 elementos del cuerpo donde A + t I es invertible, y hemos demostrado la identidad para matrices invertibles. Los polinomios de grado n que coinciden en n + 1 puntos deben ser idénticos (réstelos entre sí y obtendrá n + 1 raíces para un polinomio de grado n como máximo , lo que constituye una contradicción a menos que su diferencia sea idénticamente cero). Como los dos polinomios son idénticos, toman el mismo valor para cada valor de t . Por lo tanto, toman el mismo valor cuando t = 0.
Usando las propiedades anteriores y otros cálculos elementales, es sencillo demostrar que si A tiene una de las siguientes propiedades, entonces el adj A también la tiene:
Si A es antisimétrico , entonces adj( A ) es antisimétrico para n par y simétrico para n impar . De manera similar, si A es antihermítico , entonces adj( A ) es antihermítico para n par y hermítico para n impar .
Si A es invertible, entonces, como se señaló anteriormente, existe una fórmula para adj( A ) en términos del determinante y el inverso de A . Cuando A no es invertible, el adjugado satisface fórmulas diferentes pero estrechamente relacionadas.
- Si rk( A ) ≤ n − 2 , entonces adj( A ) = 0 .
- Si rk( A ) = n − 1 , entonces rk(adj( A )) = 1 . (Algún menor es distinto de cero, por lo que adj( A ) es distinto de cero y, por lo tanto, tiene rango al menos uno; la identidad adj( A ) A = 0 implica que la dimensión del espacio nulo de adj( A ) es al menos n − 1 , por lo que su rango es como máximo uno.) De ello se deduce que adj( A ) = α xy T , donde α es un escalar y x e y son vectores tales que Ax = 0 y A T y = 0 .
Sustitución de columnas y regla de Cramer
Partición A en vectores columna :
Sea b un vector columna de tamaño n . Fijemos 1 ≤ i ≤ n y consideremos la matriz formada al reemplazar la columna i de A por b :
Laplace desarrolla el determinante de esta matriz a lo largo de la columna i . El resultado es la entrada i del producto adj( A ) b . Al reunir estos determinantes para los diferentes i posibles se obtiene una igualdad de vectores columna
Esta fórmula tiene la siguiente consecuencia concreta. Consideremos el sistema de ecuaciones lineales
Supongamos que A no es singular . Al multiplicar este sistema a la izquierda por adj( A ) y dividir por el determinante obtenemos
Aplicando la fórmula anterior a esta situación se obtiene la regla de Cramer ,
donde x i es la i- ésima entrada de x .
Polinomio característico
Sea el polinomio característico de A
La primera diferencia dividida de p es un polinomio simétrico de grado n − 1 ,
Multiplica s I − A por su adjunto. Como p ( A ) = 0 por el teorema de Cayley-Hamilton , algunas manipulaciones elementales revelan
En particular, el resolvente de A se define como
y por la fórmula anterior, esto es igual a
Fórmula de Jacobi
El adjutor también aparece en la fórmula de Jacobi para la derivada del determinante. Si A ( t ) es continuamente diferenciable , entonces
De ello se deduce que la derivada total del determinante es la transpuesta del adjugado:
Fórmula de Cayley-Hamilton
Sea p A ( t ) el polinomio característico de A . El teorema de Cayley-Hamilton establece que
Al separar el término constante y multiplicar la ecuación por adj( A ) se obtiene una expresión para el adjunto que depende únicamente de A y de los coeficientes de p A ( t ) . Estos coeficientes se pueden representar explícitamente en términos de trazas de potencias de A utilizando polinomios de Bell exponenciales completos . La fórmula resultante es
donde n es la dimensión de A , y la suma se toma sobre s y todas las secuencias de k l ≥ 0 que satisfacen la ecuación diofántica lineal
Para el caso 2 × 2, esto da
Para el caso 3 × 3, esto da
Para el caso 4×4, esto da
La misma fórmula se desprende directamente del paso de terminación del algoritmo de Faddeev-LeVerrier , que determina eficientemente el polinomio característico de A.
En general, la matriz adjunta de dimensión arbitraria N se puede calcular mediante la convención de Einstein.
Relación con las álgebras exteriores
El adjutor puede verse en términos abstractos utilizando álgebras exteriores . Sea V un espacio vectorial n -dimensional . El producto exterior define un emparejamiento bilineal .
De manera abstracta, es isomorfo a R , y bajo cualquier isomorfismo de este tipo el producto exterior es un emparejamiento perfecto . Por lo tanto, produce un isomorfismo
Explícitamente, este emparejamiento envía v ∈ V a , donde
Supóngase que T : V → V es una transformación lineal . El pullback por la ( n − 1) a potencia exterior de T induce un morfismo de espacios Hom . El adjunto de T es el compuesto
Si V = R n está dotado de su base canónica e 1 , …, e n , y si la matriz de T en esta base es A , entonces el adjunto de T es el adjunto de A . Para ver por qué, dé la base
Fije un vector base e i de R n . La imagen de e i bajo está determinada por el lugar al que envía los vectores base:
Sobre los vectores base, la ( n − 1) ª potencia exterior de T es
Cada uno de estos términos se asigna a cero, excepto el término k = i . Por lo tanto, el retroceso de es la transformación lineal para la cual
es decir, es igual
La aplicación de la inversa de muestra que el adjunto de T es la transformación lineal para la cual
En consecuencia, su representación matricial es la adjutiva de A .
Si V está dotada de un producto interno y una forma de volumen, entonces la función φ puede descomponerse aún más. En este caso, φ puede entenderse como la combinación del operador de estrella de Hodge y la dualización. En concreto, si ω es la forma de volumen, entonces, junto con el producto interno, determina un isomorfismo.
Esto induce un isomorfismo.
Un vector v en R n corresponde a la función lineal
Por la definición del operador de estrella de Hodge, este funcional lineal es dual a * v . Es decir, ω ∨ ∘ φ es igual a v ↦ * v ∨ .
Adjugados superiores
Sea A una matriz n × n y fije r ≥ 0 . El r ésimo adjunto superior de A es una matriz, denotada adj r A , cuyas entradas están indexadas por subconjuntos de tamaño r I y J de {1, ..., m } [ cita requerida ] . Sean I c y J c los complementos de I y J , respectivamente. También sea denotado la submatriz de A que contiene aquellas filas y columnas cuyos índices están en I c y J c , respectivamente. Entonces la entrada ( I , J ) de adj r A es
donde σ( I ) y σ( J ) son la suma de los elementos de I y J , respectivamente.
Las propiedades básicas de los adyuvantes superiores incluyen [ cita requerida ] :
- adj 0 ( A ) = det A .
- adj 1 ( A ) = adj A .
- adj n ( A ) = 1 .
- adj r ( BA ) = adj r ( A ) adj r ( B ) .
- , donde C r ( A ) denota la r ésima matriz compuesta .
Los adjuntos superiores pueden definirse en términos algebraicos abstractos de manera similar al adjunto habitual, sustituyendo y por y , respectivamente.
Adjudicaciones iteradas
Tomando iterativamente el adjunto de una matriz invertible A k veces se obtiene
Por ejemplo,
Véase también
Referencias
- ^ Gantmacher, FR (1960). La teoría de matrices. Vol. 1. Nueva York: Chelsea. Págs. 76-89. ISBN. 0-8218-1376-5.
- ^ Strang, Gilbert (1988). "Sección 4.4: Aplicaciones de los determinantes" . Álgebra lineal y sus aplicaciones (3.ª ed.). Harcourt Brace Jovanovich. pp. 231–232. ISBN 0-15-551005-3.
- ^ Claeyssen, JCR (1990). "Sobre la predicción de la respuesta de sistemas vibratorios lineales no conservativos mediante el uso de soluciones matriciales dinámicas". Journal of Sound and Vibration . 140 (1): 73–84. Bibcode :1990JSV...140...73C. doi :10.1016/0022-460X(90)90907-H.
- ^ Chen, W.; Chen, W.; Chen, YJ (2004). "Un enfoque de matriz característica para analizar dispositivos de red de anillo resonante". IEEE Photonics Technology Letters . 16 (2): 458–460. Bibcode :2004IPTL...16..458C. doi :10.1109/LPT.2003.823104.
- ^ Householder, Alston S. (2006). La teoría de matrices en el análisis numérico . Dover Books on Mathematics. págs. 166-168. ISBN 0-486-44972-6.
Bibliografía
- Roger A. Horn y Charles R. Johnson (2013), Matrix Analysis , segunda edición. Cambridge University Press, ISBN 978-0-521-54823-6
- Roger A. Horn y Charles R. Johnson (1991), Temas de análisis matricial . Cambridge University Press, ISBN 978-0-521-46713-1
Enlaces externos
- Manual de referencia de Matrix
- Calculadora de matrices en línea (determinante, traza, inversa, adjunta, transpuesta) Calcular matriz adjunta hasta orden 8
- "Adjugado de { { a, b, c }, { d, e, f }, { g, h, i } }". Wolfram Alpha .