Fórmula para la derivada de un determinante matricial
En cálculo matricial , la fórmula de Jacobi expresa la derivada del determinante de una matriz A en términos del conjugado de A y la derivada de A. [1]
Si A es un mapa diferenciable de los números reales a matrices n × n , entonces
![{\displaystyle {\frac {d}{dt}}\det A(t)=\operatorname {tr} \left(\operatorname {adj} (A(t))\,{\frac {dA(t)} {dt}}\right)=\left(\det A(t)\right)\cdot \operatorname {tr} \left(A(t)^{-1}\cdot \,{\frac {dA(t) )}{dt}}\derecha)}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
donde tr( X ) es la traza de la matriz X . (La última igualdad sólo se cumple si A ( t ) es invertible ).
Como caso especial,
![{\displaystyle {\partial \det(A) \over \partial A_{ij}}=\operatorname {adj} (A)_{ji}.}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
De manera equivalente, si dA representa el diferencial de A , la fórmula general es
![{\displaystyle d\det(A)=\operatorname {tr} (\operatorname {adj} (A)\,dA).}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
La fórmula lleva el nombre del matemático Carl Gustav Jacob Jacobi .
Derivación
A través de la computación matricial
Primero demostramos un lema preliminar:
Lema. Sean A y B un par de matrices cuadradas de la misma dimensión n . Entonces
![{\displaystyle \sum _{i}\sum _{j}A_{ij}B_{ij}=\operatorname {tr} (A^{\rm {T}}B).}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Prueba. El producto AB del par de matrices tiene componentes
![{\displaystyle (AB)_{jk}=\sum _ {i}A_ {ji}B_ {ik}.}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Reemplazar la matriz A por su transpuesta A T equivale a permutar los índices de sus componentes:
![{\displaystyle (A^{\rm {T}}B)_{jk}=\sum _{i}A_{ij}B_{ik}.}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
El resultado se obtiene tomando la traza de ambos lados:
![{\displaystyle \operatorname {tr} (A^{\rm {T}}B)=\sum _{j}(A^{\rm {T}}B)_{jj}=\sum _{j} \sum _{i}A_{ij}B_{ij}=\sum _{i}\sum _{j}A_{ij}B_{ij}.\ \square }](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Teorema. (Fórmula de Jacobi) Para cualquier mapa A diferenciable de los números reales a matrices n × n ,
![{\displaystyle d\det(A)=\operatorname {tr} (\operatorname {adj} (A)\,dA).}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Prueba. La fórmula de Laplace para el determinante de una matriz A se puede expresar como
![{\displaystyle \det(A)=\sum _{j}A_{ij}\operatorname {adj} ^{\rm {T}}(A)_{ij}.}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Observe que la suma se realiza sobre alguna fila arbitraria i de la matriz.
El determinante de A puede considerarse una función de los elementos de A :
![{\displaystyle \det(A)=F\,(A_{11},A_{12},\ldots ,A_{21},A_{22},\ldots ,A_{nn})}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
de modo que, por la regla de la cadena , su diferencial es
![{\displaystyle d\det(A)=\sum _{i}\sum _{j}{\partial F \over \partial A_{ij}}\,dA_{ij}.}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Esta suma se realiza sobre todos los n × n elementos de la matriz.
Para encontrar ∂ F /∂ A ij considere que en el lado derecho de la fórmula de Laplace, el índice i se puede elegir a voluntad. (Para optimizar los cálculos: cualquier otra opción eventualmente produciría el mismo resultado, pero podría ser mucho más difícil). En particular, se puede elegir que coincida con el primer índice de ∂ / ∂ A ij :
![{\displaystyle {\partial \det(A) \over \partial A_{ij}}={\partial \sum _{k}A_{ik}\operatorname {adj} ^{\rm {T}}(A) _{ik} \over \partial A_{ij}}=\sum _{k}{\partial (A_{ik}\operatorname {adj} ^{\rm {T}}(A)_{ik}) \ sobre \partial A_{ij}}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Así, por la regla del producto,
![{\displaystyle {\partial \det(A) \over \partial A_{ij}}=\sum _{k}{\partial A_{ik} \over \partial A_{ij}}\operatorname {adj} ^{ \rm {T}}(A)_{ik}+\sum _{k}A_{ik}{\partial \operatorname {adj} ^{\rm {T}}(A)_{ik} \over \ A parcial_ {ij}}.}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Ahora bien, si un elemento de una matriz A ij y un cofactor adj T ( A ) ik del elemento A ik se encuentran en la misma fila (o columna), entonces el cofactor no será función de A ij , porque el cofactor de A ik se expresa en términos de elementos que no están en su propia fila (ni columna). De este modo,
![{\displaystyle {\partial \operatorname {adj} ^{\rm {T}}(A)_{ik} \over \partial A_{ij}}=0,}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
entonces
![{\displaystyle {\partial \det(A) \over \partial A_{ij}}=\sum _{k}\operatorname {adj} ^{\rm {T}}(A)_{ik}{\partial A_{ik} \sobre \partial A_{ij}}.}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Todos los elementos de A son independientes entre sí, es decir
![{\displaystyle {\partial A_{ik} \over \partial A_{ij}}=\delta _{jk},}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
donde δ es el delta de Kronecker , entonces
![{\displaystyle {\partial \det(A) \over \partial A_{ij}}=\sum _{k}\operatorname {adj} ^{\rm {T}}(A)_{ik}\delta _ {jk}=\operatorname {adj} ^{\rm {T}}(A)_{ij}.}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Por lo tanto,
![{\displaystyle d(\det(A))=\sum _ {i}\sum _ {j}\operatorname {adj} ^{\rm {T}}(A)_ {ij}\,dA_ {ij} ,}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
y aplicando el Lema se obtiene
![{\displaystyle d(\det(A))=\operatorname {tr} (\operatorname {adj} (A)\,dA).\ \square }](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
A través de la regla de la cadena
Lema 1. , donde está el diferencial de . ![{\displaystyle \det '(I)=\mathrm {tr} }](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \det '}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \det }](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Esta ecuación significa que el diferencial de , evaluado en la matriz identidad, es igual a la traza. El diferencial es un operador lineal que asigna una matriz n × n a un número real.![{\displaystyle \det }](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \det '(I)}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Prueba. Usando la definición de derivada direccional junto con una de sus propiedades básicas para funciones diferenciables, tenemos
![{\displaystyle \det '(I)(T)=\nabla _{T}\det(I)=\lim _{\varepsilon \to 0}{\frac {\det(I+\varepsilon T)-\det Yo}{\varepsilon }}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
es un polinomio de orden n . Está estrechamente relacionado con el polinomio característico de . El término constante en ese polinomio (el término con ) es 1, mientras que el término lineal en es . ![{\displaystyle \varepsilon }](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle T}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \varepsilon =0}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \varepsilon }](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \mathrm {tr} \T}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Lema 2. Para una matriz invertible A , tenemos: .![{\displaystyle \det '(A)(T)=\det A\;\mathrm {tr} (A^{-1}T)}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Prueba. Considere la siguiente función de X :
![{\displaystyle \det X=\det(AA^{-1}X)=\det(A)\ \det(A^{-1}X)}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Calculamos el diferencial de y lo evaluamos usando el Lema 1, la ecuación anterior y la regla de la cadena:![{\displaystyle \det X}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle X=A}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \det '(A)(T)=\det A\ \det '(I)(A^{-1}T)=\det A\ \mathrm {tr} (A^{-1}T )}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Teorema. (fórmula de Jacobi) ![{\displaystyle {\frac {d}{dt}}\det A=\mathrm {tr} \left(\mathrm {adj} \ A{\frac {dA}{dt}}\right)}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Prueba. Si es invertible, por el Lema 2, con![{\displaystyle A}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle T=dA/dt}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle {\frac {d}{dt}}\det A=\det A\;\mathrm {tr} \left(A^{-1}{\frac {dA}{dt}}\right)= \mathrm {tr} \left(\mathrm {adj} \ A\;{\frac {dA}{dt}}\right)}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
usando la ecuación que relaciona el conjugado de con . Ahora bien, la fórmula es válida para todas las matrices, ya que el conjunto de matrices lineales invertibles es denso en el espacio de matrices.![{\displaystyle A}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle A^{-1}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Vía Diagonalización
Ambos lados de la fórmula de Jacobi son polinomios en los coeficientes matriciales de A y A' . Por tanto, es suficiente verificar la identidad polinómica en el subconjunto denso donde los valores propios de A son distintos y distintos de cero.
Si A factoriza diferenciablemente como , entonces![{\displaystyle A=BC}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \mathrm {tr} (A^{-1}A')=\mathrm {tr} ((BC)^{-1}(BC)')=\mathrm {tr} (B^{-1 }B')+\mathrm {tr} (C^{-1}C').}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
En particular, si L es invertible, entonces y![{\displaystyle I=L^{-1}L}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle 0=\mathrm {tr} (I^{-1}I')=\mathrm {tr} (L(L^{-1})')+\mathrm {tr} (L^{-1 }L').}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Dado que A tiene valores propios distintos, existe una matriz invertible compleja diferenciable L tal que y D es diagonal. Entonces![{\displaystyle A=L^{-1}DL}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \mathrm {tr} (A^{-1}A')=\mathrm {tr} (L(L^{-1})')+\mathrm {tr} (D^{-1}D ')+\mathrm {tr} (L^{-1}L')=\mathrm {tr} (D^{-1}D').}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Sean ,
los valores propios de A . Entonces![{\displaystyle \lambda _ {i}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle i=1,\ldots,n}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle {\frac {\det(A)'}{\det(A)}}=\sum _{i=1}^{n}\lambda _{i}'/\lambda _{i}= \mathrm {tr} (D^{-1}D')=\mathrm {tr} (A^{-1}A'),}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
que es la fórmula de Jacobi para matrices A con valores propios distintos de cero.
Corolario
La siguiente es una relación útil que conecta la traza con el determinante de la matriz exponencial asociada :
![{\displaystyle \det e^{B}=e^{\operatorname {tr} \left(B\right)}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Esta afirmación es clara para las matrices diagonales y a continuación se muestra una prueba de la afirmación general.
Para cualquier matriz invertible , en la sección anterior "Vía la regla de la cadena", mostramos que![{\displaystyle A(t)}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle {\frac {d}{dt}}\det A(t)=\det A(t)\;\operatorname {tr} \left(A(t)^{-1}\,{\frac {d}{dt}}A(t)\derecha)}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Considerando en esta ecuación se obtiene:![{\displaystyle A(t)=\exp(tB)}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle {\frac {d}{dt}}\det e^{tB}=\operatorname {tr} (B)\det e^{tB}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
El resultado deseado es la solución de esta ecuación diferencial ordinaria.
Aplicaciones
Varias formas de la fórmula subyacen al algoritmo de Faddeev-LeVerrier para calcular el polinomio característico y aplicaciones explícitas del teorema de Cayley-Hamilton . Por ejemplo, a partir de la siguiente ecuación, que se demostró anteriormente:
![{\displaystyle {\frac {d}{dt}}\det A(t)=\det A(t)\ \operatorname {tr} \left(A(t)^{-1}\,{\frac { d}{dt}}A(t)\derecha)}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
y usando , obtenemos:![{\displaystyle A(t)=tI-B}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle {\frac {d}{dt}}\det(tI-B)=\det(tI-B)\operatorname {tr} [(tI-B)^{-1}]=\operatorname {tr } [\operatorname {adj} (tI-B)]}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
donde adj denota la matriz adjunta .
Observaciones
- ^ Magnus y Neudecker (1999, págs. 149-150), tercera parte, sección 8.3
Referencias
- Magnus, enero R.; Neudecker, Heinz (1999). Cálculo diferencial matricial con aplicaciones en estadística y econometría (edición revisada). Wiley. ISBN 0-471-98633-X.
- Bellman, Richard (1997). Introducción al análisis matricial. SIAM. ISBN 0-89871-399-4.