Operación matricial que generaliza la exponenciación de números escalares
En matemáticas , la matriz exponencial es una función matricial sobre matrices cuadradas análoga a la función exponencial ordinaria . Se utiliza para resolver sistemas de ecuaciones diferenciales lineales. En la teoría de grupos de Lie, la matriz exponencial da el mapa exponencial entre una matriz de álgebra de Lie y el grupo de Lie correspondiente .
Sea X una matriz real o compleja de n × n . El exponencial de X , denotado por e X o exp( X ) , es la matriz n × n dada por la serie de potencias
![{\displaystyle e^{X}=\sum _{k=0}^{\infty }{\frac {1}{k!}}X^{k}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
donde se define como la matriz identidad con las mismas dimensiones que . [1] La serie siempre converge, por lo que la exponencial de X está bien definida.![{\displaystyle X^{0}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle I}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle X}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
De manera equivalente,![{\displaystyle e^{X}=\lim _{k\rightarrow \infty }\left(I+{\frac {X}{k}}\right)^{k}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
donde I es la matriz identidad n × n .
Cuando X es una matriz diagonal de n × n , entonces exp( X ) será una matriz diagonal de n × n con cada elemento diagonal igual al exponencial ordinario aplicado al elemento diagonal correspondiente de X.
Propiedades
Propiedades elementales
Sean X e Y matrices complejas de n × n y sean a y b números complejos arbitrarios . Denotamos la matriz identidad n × n con I y la matriz cero con 0. La matriz exponencial satisface las siguientes propiedades. [2]
Comenzamos con las propiedades que son consecuencias inmediatas de la definición como serie de potencias:
El siguiente resultado clave es este:
- Si entonces .
![{\displaystyle XY=YX}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle e^{X}e^{Y}=e^{X+Y}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
La prueba de esta identidad es la misma que el argumento estándar de series de potencias para la identidad correspondiente del exponencial de los números reales. Es decir, siempre que y conmuten![{\displaystyle X}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
, no importa para el argumento si y son números o matrices. Es importante señalar que esta identidad normalmente no se cumple si y no se conmutan (consulte la desigualdad de Golden-Thompson a continuación).![{\displaystyle X}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle Y}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle X}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle Y}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Las consecuencias de la identidad anterior son las siguientes:
- mi aX mi bX = mi ( a + b ) X
- mi X mi − X = yo
Utilizando los resultados anteriores, podemos verificar fácilmente las siguientes afirmaciones. Si X es simétrico, entonces e X también es simétrico, y si X es simétrico sesgado, entonces e X es ortogonal . Si X es hermitiano , entonces e X también es hermitiano, y si X es sesgado-hermitiano, entonces e X es unitario .
Finalmente, una transformada de Laplace de matrices exponenciales equivale al resolutivo ,
para todos los valores positivos suficientemente grandes de s .![{\displaystyle \int _{0}^{\infty }e^{-ts}e^{tX}\,dt=(sI-X)^{-1}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Sistemas de ecuaciones diferenciales lineales
Una de las razones de la importancia de la matriz exponencial es que puede usarse para resolver sistemas de ecuaciones diferenciales ordinarias lineales . La solución de
donde A es una matriz constante e y es un vector columna, viene dada por![{\displaystyle {\frac {d}{dt}}y(t)=Ay(t),\quad y(0)=y_{0},}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle y(t)=e^{En}y_{0}.}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
La matriz exponencial también se puede utilizar para resolver la ecuación no homogénea.
Consulte la sección sobre aplicaciones a continuación para ver ejemplos.![{\displaystyle {\frac {d}{dt}}y(t)=Ay(t)+z(t),\quad y(0)=y_{0}.}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
No existe una solución cerrada para ecuaciones diferenciales de la forma
en la que A no es constante, pero la serie de Magnus da la solución como una suma infinita.![{\displaystyle {\frac {d}{dt}}y(t)=A(t)\,y(t),\quad y(0)=y_{0},}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
El determinante de la matriz exponencial.
Según la fórmula de Jacobi , para cualquier matriz cuadrada compleja se cumple la siguiente identidad de traza : [3]
![{\displaystyle \det \left(e^{A}\right)=e^{\operatorname {tr} (A)}~.}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Además de proporcionar una herramienta computacional, esta fórmula demuestra que una matriz exponencial es siempre una matriz invertible . Esto se desprende del hecho de que el lado derecho de la ecuación anterior siempre es distinto de cero, por lo que det( e A ) ≠ 0 , lo que implica que e A debe ser invertible.
En el caso del valor real, la fórmula también muestra que el mapa
no es sobreyectivo , en contraste con el caso complejo mencionado anteriormente. Esto se desprende del hecho de que, para matrices de valores reales, el lado derecho de la fórmula siempre es positivo, mientras que existen matrices invertibles con un determinante negativo.![{\displaystyle \exp \dos puntos M_{n}(\mathbb {R} )\to \mathrm {GL} (n,\mathbb {R} )}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Matrices simétricas reales
La matriz exponencial de una matriz simétrica real es definida positiva. Sea una matriz simétrica real n × n y un vector columna. Usando las propiedades elementales de la matriz exponencial y de las matrices simétricas, tenemos:![{\displaystyle S}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle x\in \mathbb {R} ^{n}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle x^{T}e^{S}x=x^{T}e^{S/2}e^{S/2}x=x^{T}(e^{S/2}) ^{T}e^{S/2}x=(e^{S/2}x)^{T}e^{S/2}x=\lVert e^{S/2}x\rVert ^{ 2}\geq 0.}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Como es invertible, la igualdad solo es válida para , y tenemos para todos los valores distintos de cero . Por tanto, es positivo definido.![{\displaystyle e^{S/2}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle x=0}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle x^{T}e^{S}x>0}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle x}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle e^{S}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
El exponencial de las sumas.
Para cualquier número real (escalares) xey sabemos que la función exponencial satisface e x + y = e x e y . Lo mismo ocurre con las matrices de conmutación. Si las matrices X e Y conmutan (lo que significa que XY = YX ), entonces, ![{\displaystyle e^{X+Y}=e^{X}e^{Y}.}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Sin embargo, para matrices que no conmutan la igualdad anterior no necesariamente se cumple.
La fórmula del producto Mentira
Incluso si X e Y no se conmutan, el exponencial e X + Y se puede calcular mediante la fórmula del producto de Lie [4]![{\displaystyle e^{X+Y}=\lim _{k\to \infty }\left(e^{{\frac {1}{k}}X}e^{{\frac {1}{k }}Y}\right)^{k}.}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Usar una k finita grande para aproximar lo anterior es la base de la expansión de Suzuki-Trotter, que se usa a menudo en la evolución del tiempo numérico .
La fórmula Baker-Campbell-Hausdorff
En la otra dirección, si X e Y son matrices suficientemente pequeñas (pero no necesariamente conmutantes), tenemos
donde Z puede calcularse como una serie en conmutadores de X e Y mediante la fórmula de Baker-Campbell-Hausdorff : [5]
donde los términos restantes son todos conmutadores iterados que involucran X e Y. Si X e Y conmutan, entonces todos los conmutadores son cero y simplemente tenemos Z = X + Y.![{\displaystyle e^{X}e^{Y}=e^{Z},}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle Z=X+Y+{\frac {1}{2}}[X,Y]+{\frac {1}{12}}[X,[X,Y]]-{\frac {1} {12}}[Y,[X,Y]]+\cdots ,}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Desigualdades para exponenciales de matrices hermitianas
Para las matrices hermitianas existe un teorema notable relacionado con la traza de las matrices exponenciales.
Si A y B son matrices hermitianas, entonces [6]![{\displaystyle \operatorname {tr} \exp(A+B)\leq \operatorname {tr} \left[\exp(A)\exp(B)\right].}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
No hay requisito de conmutatividad. Hay contraejemplos que muestran que la desigualdad de Golden-Thompson no se puede extender a tres matrices y, en cualquier caso, no se garantiza que tr(exp( A )exp( B )exp( C )) sea real para Hermitian A , B , C . Sin embargo, Lieb demostró [7] [8] que se puede generalizar a tres matrices si modificamos la expresión de la siguiente manera![{\displaystyle \operatorname {tr} \exp(A+B+C)\leq \int _{0}^{\infty }\mathrm {d} t\,\operatorname {tr} \left[e^{A }\left(e^{-B}+t\right)^{-1}e^{C}\left(e^{-B}+t\right)^{-1}\right].}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
El mapa exponencial
La exponencial de una matriz es siempre una matriz invertible . La matriz inversa de e X viene dada por e − X . Esto es análogo al hecho de que la exponencial de un número complejo siempre es distinta de cero. La matriz exponencial nos da entonces un mapa
desde el espacio de todas las matrices n × n hasta el grupo lineal general de grado n , es decir, el grupo de todas las matrices invertibles n × n . De hecho, esta aplicación es sobreyectiva, lo que significa que toda matriz invertible puede escribirse como exponencial de alguna otra matriz [9] (para ello es imprescindible considerar el campo C de números complejos y no R ).![{\displaystyle \exp \dos puntos M_{n}(\mathbb {C} )\to \mathrm {GL} (n,\mathbb {C} )}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Para dos matrices cualesquiera X e Y ,![{\displaystyle \left\|e^{X+Y}-e^{X}\right\|\leq \|Y\|e^{\|X\|}e^{\|Y\|}, }](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
donde ‖·‖ denota una norma matricial arbitraria . De ello se deduce que el mapa exponencial es continuo y Lipschitz continuo en subconjuntos compactos de M n ( C ) .
El mapa
define una curva suave en el grupo lineal general que pasa por el elemento identidad en t = 0 .![{\displaystyle t\mapsto e^{tX},\qquad t\in \mathbb {R} }](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
De hecho, esto da un subgrupo de un parámetro del grupo lineal general ya que![{\displaystyle e^{tX}e^{sX}=e^{(t+s)X}.}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
La derivada de esta curva (o vector tangente ) en un punto t viene dada por
La derivada en t = 0 es simplemente la matriz X , es decir, X genera este subgrupo de un parámetro.
De manera más general, [10] para un exponente genérico dependiente de t , X ( t ) ,
![{\displaystyle {\frac {d}{dt}}e^{X(t)}=\int _{0}^{1}e^{\alpha X(t)}{\frac {dX(t) }{dt}}e^{(1-\alpha )X(t)}\,d\alpha ~.}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Tomando la expresión anterior e X ( t ) fuera del signo integral y expandiendo el integrando con la ayuda del lema de Hadamard, se puede obtener la siguiente expresión útil para la derivada del exponente matricial, [11]![{\displaystyle \left({\frac {d}{dt}}e^{X(t)}\right)e^{-X(t)}={\frac {d}{dt}}X(t )+{\frac {1}{2!}}\left[X(t),{\frac {d}{dt}}X(t)\right]+{\frac {1}{3!}} \left[X(t),\left[X(t),{\frac {d}{dt}}X(t)\right]\right]+\cdots }](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Los coeficientes de la expresión anterior son diferentes de los que aparecen en la exponencial. Para una forma cerrada, consulte derivada de la aplicación exponencial .
Derivadas direccionales cuando se restringen a matrices hermitianas
Sea una matriz hermitiana con valores propios distintos. Sea su descomposición propia donde es una matriz unitaria cuyas columnas son los vectores propios de , es su transpuesta conjugada y el vector de valores propios correspondientes. Entonces, para cualquier matriz hermitiana , la derivada direccional de at en la dirección es [12] [13]
donde , el operador denota el producto de Hadamard y, para todos , la matriz se define como
Además, para cualquier matriz hermitiana , la segunda derivada direccional en direcciones y es [13]
donde la función matricial se define, para todos , como
con![{\displaystyle X}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle n\times n}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle X=E{\textrm {diag}}(\Lambda )E^{*}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle E}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle X}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle E^{*}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \Lambda =\left(\lambda _ {1},\ldots,\lambda _ {n}\right)}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle n\times n}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle V}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \exp :X\to e^{X}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle X}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle V}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle D\exp(X)[V]\triangleq \lim _{\epsilon \to 0}{\frac {1}{\epsilon }}\left(\displaystyle e^{X+\epsilon V}-e ^{X}\right)=E(G\odot {\bar {V}})E^{*}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle {\bar {V}}=E^{*}VE}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle\odot}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle 1\leq i,j\leq n}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle G}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle G_{i,j}=\left\{{\begin{aligned}&{\frac {e^{\lambda _ {i}}-e^{\lambda _ {j}}}{\lambda _{i}-\lambda _{j}}}&{\text{ si }}i\neq j,\\&e^{\lambda _{i}}&{\text{ de lo contrario}}.\\\ fin{alineado}}\derecha.}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle n\times n}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle U}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle U}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle V}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle D^{2}\exp(X)[U,V]\triangleq \lim _{\epsilon _{u}\to 0}\lim _{\epsilon _{v}\to 0}{\ frac {1}{4\epsilon _{u}\epsilon _{v}}}\left(\displaystyle e^{X+\epsilon _{u}U+\epsilon _{v}V}-e^{X- \epsilon _{u}U+\epsilon _{v}V}-e^{X+\epsilon _{u}U-\epsilon _{v}V}+e^{X-\epsilon _{u}U- \epsilon _{v}V}\right)=EF(U,V)E^{*}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle F}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle 1\leq i,j\leq n}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle F(U,V)_{i,j}=\sum _{k=1}^{n}\phi _{i,j,k}({\bar {U}}_{ik} {\bar {V}}_{jk}^{*}+{\bar {V}}_{ik}{\bar {U}}_{jk}^{*})}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \phi _{i,j,k}=\left\{{\begin{aligned}&{\frac {G_{ik}-G_{jk}}{\lambda _{i}-\lambda _ {j}}}&{\text{ if }}i\neq j,\\&{\frac {G_{ii}-G_{ik}}{\lambda _{i}-\lambda _{k}} }&{\text{ si }}i=j{\text{ y }}k\neq i,\\&{\frac {G_{ii}}{2}}&{\text{ si }}i= j=k.\\\end{aligned}}\right.}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Calcular la matriz exponencial
Es difícil encontrar métodos confiables y precisos para calcular la matriz exponencial, y este sigue siendo un tema de considerable investigación actual en matemáticas y análisis numérico. Matlab , GNU Octave , R y SciPy utilizan la aproximante Padé . [14] [15] [16] [17] En esta sección, analizamos métodos que son aplicables en principio a cualquier matriz y que pueden llevarse a cabo explícitamente para matrices pequeñas. [18] Las secciones siguientes describen métodos adecuados para la evaluación numérica en matrices grandes.
Caso diagonalizable
Si una matriz es diagonal :
entonces su exponencial se puede obtener exponenciando cada entrada en la diagonal principal:![{\displaystyle A={\begin{bmatrix}a_{1}&0&\cdots &0\\0&a_{2}&\cdots &0\\\vdots &\vdots &\ddots &\vdots \\0&0&\cdots &a_{n }\end{bmatriz}},}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle e^{A}={\begin{bmatrix}e^{a_{1}}&0&\cdots &0\\0&e^{a_{2}}&\cdots &0\\\vdots &\vdots &\ ddots &\vdots \\0&0&\cdots &e^{a_{n}}\end{bmatrix}}.}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Este resultado también permite exponenciar matrices diagonalizables . Si
A = UDU −1
y D es diagonal, entonces
mi UN = Ue D U −1 .
La aplicación de la fórmula de Sylvester produce el mismo resultado. (Para ver esto, tenga en cuenta que la suma y multiplicación, por lo tanto también la exponenciación, de matrices diagonales es equivalente a la suma y multiplicación por elementos, y por lo tanto, la exponenciación; en particular, la exponenciación "unidimensional" se siente por elementos para la diagonal caso.)
Ejemplo: Diagonalizable
Por ejemplo, la matriz
se puede diagonalizar como![{\displaystyle A={\begin{bmatrix}1&4\\1&1\\\end{bmatrix}}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle {\begin{bmatrix}-2&2\\1&1\\\end{bmatrix}}{\begin{bmatrix}-1&0\\0&3\\\end{bmatrix}}{\begin{bmatrix}-2&2\ \1&1\\\end{bmatriz}}^{-1}.}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
De este modo,![{\displaystyle e^{A}={\begin{bmatrix}-2&2\\1&1\\\end{bmatrix}}e^{\begin{bmatrix}-1&0\\0&3\\\end{bmatrix}}{ \begin{bmatrix}-2&2\\1&1\\\end{bmatrix}}^{-1}={\begin{bmatrix}-2&2\\1&1\\\end{bmatrix}}{\begin{bmatrix}{ \frac {1}{e}}&0\\0&e^{3}\\\end{bmatrix}}{\begin{bmatrix}-2&2\\1&1\\\end{bmatrix}}^{-1}= {\begin{bmatrix}{\frac {e^{4}+1}{2e}}&{\frac {e^{4}-1}{e}}\\{\frac {e^{4} -1}{4e}}&{\frac {e^{4}+1}{2e}}\\\end{bmatrix}}.}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Caso nilpotente
Una matriz N es nilpotente si N q = 0 para algún número entero q . En este caso, la matriz exponencial e N se puede calcular directamente a partir de la expansión de la serie, ya que la serie termina después de un número finito de términos:
![{\displaystyle e^{N}=I+N+{\frac {1}{2}}N^{2}+{\frac {1}{6}}N^{3}+\cdots +{\frac {1}{(q-1)!}}N^{q-1}~.}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Dado que la serie tiene un número finito de pasos, es un polinomio matricial, que se puede calcular de manera eficiente .
Caso general
Usando la descomposición Jordan-Chevalley
Mediante la descomposición de Jordan-Chevalley , cualquier matriz X con entradas complejas se puede expresar como
donde![{\displaystyle n\times n}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle X=A+N}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
- A es diagonalizable
- N es nilpotente
- A conmuta con N
Esto significa que podemos calcular el exponencial de X reduciendo a los dos casos anteriores:![{\displaystyle e^{X}=e^{A+N}=e^{A}e^{N}.}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Tenga en cuenta que necesitamos la conmutatividad de A y N para que funcione el último paso.
Un método estrechamente relacionado es, si el campo es algebraicamente cerrado , trabajar con la forma Jordan de X. Supongamos que X = PJP −1 donde J es la forma Jordan de X. Entonces![{\displaystyle e^{X}=Pe^{J}P^{-1}.}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Además, desde![{\displaystyle {\begin{aligned}J&=J_{a_{1}}(\lambda _{1})\oplus J_{a_{2}}(\lambda _{2})\oplus \cdots \oplus J_ {a_{n}}(\lambda _{n}),\\e^{J}&=\exp {\big (}J_{a_{1}}(\lambda _{1})\oplus J_{ a_{2}}(\lambda _{2})\oplus \cdots \oplus J_{a_{n}}(\lambda _{n}){\big )}\\&=\exp {\big (} J_{a_{1}}(\lambda _{1}){\big )}\oplus \exp {\big (}J_{a_{2}}(\lambda _{2}){\big )}\ oplus \cdots \oplus \exp {\big (}J_ {a_ {n}}(\lambda _ {n}){\big )}.\end{aligned}}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Por lo tanto, sólo necesitamos saber cómo calcular la matriz exponencial de un bloque de Jordan . Pero cada bloque de Jordan tiene la forma![{\displaystyle {\begin{alineado}&&J_{a}(\lambda )&=\lambda I+N\\&\Rightarrow &e^{J_{a}(\lambda )}&=e^{\lambda I+ N}=e^{\lambda }e^{N}.\end{alineado}}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
donde N es una matriz nilpotente especial. La matriz exponencial de J viene dada por![{\displaystyle e^{J}=e^{\lambda _ {1}}e^{N_ {a_ {1}}}\oplus e^{\lambda _ {2}}e^{N_ {a_ {2 }}}\oplus \cdots \oplus e^{\lambda _ {n}}e^{N_ {a_ {n}}}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Caso de proyección
Si P es una matriz de proyección (es decir, es idempotente : P 2 = P ), su matriz exponencial es:
mi PAG = yo + ( mi - 1) PAG .
Derivando esto por expansión de la función exponencial, cada potencia de P se reduce a P , que se convierte en un factor común de la suma:![{\displaystyle e^{P}=\sum _ {k=0}^{\infty }{\frac {P^{k}}{k!}}=I+\left(\sum _ {k=1} ^{\infty }{\frac {1}{k!}}\right)P=I+(e-1)P~.}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Caso de rotación
Para una rotación simple en la que los vectores unitarios perpendiculares a y b especifican un plano, [19] la matriz de rotación R se puede expresar en términos de una función exponencial similar que involucra un generador G y un ángulo θ . [20] [21]![{\displaystyle {\begin{aligned}G&=\mathbf {ba} ^{\mathsf {T}}-\mathbf {ab} ^{\mathsf {T}}&P&=-G^{2}=\mathbf { aa} ^{\mathsf {T}}+\mathbf {bb} ^{\mathsf {T}}\\P^{2}&=P&PG&=G=GP~,\end{aligned}}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle {\begin{aligned}R\left(\theta \right)=e^{G\theta }&=I+G\sin(\theta )+G^{2}(1-\cos(\ theta ))\\&=I-P+P\cos(\theta )+G\sin(\theta )~.\\\end{alineado}}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
La fórmula para el exponencial resulta de reducir las potencias de G en la expansión de la serie e identificar los respectivos coeficientes de la serie de G 2 y G con −cos( θ ) y sin( θ ) respectivamente. La segunda expresión aquí para e Gθ es la misma que la expresión para R ( θ ) en el artículo que contiene la derivación del generador , R ( θ ) = e Gθ .
En dos dimensiones, si y , entonces , y
se reduce a la matriz estándar para una rotación plana.![{\displaystyle a=\left[{\begin{smallmatrix}1\\0\end{smallmatrix}}\right]}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle b=\left[{\begin{smallmatrix}0\\1\end{smallmatrix}}\right]}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle G=\left[{\begin{smallmatrix}0&-1\\1&0\end{smallmatrix}}\right]}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle G^{2}=\left[{\begin{smallmatrix}-1&0\\0&-1\end{smallmatrix}}\right]}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle R(\theta )={\begin{bmatrix}\cos(\theta )&-\sin(\theta )\\\sin(\theta )&\cos(\theta )\end{bmatrix}} =I\cos(\theta )+G\sin(\theta )}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
La matriz P = − G 2 proyecta un vector en el plano ab y la rotación solo afecta a esta parte del vector. Un ejemplo que ilustra esto es una rotación de 30° = π/6 en el plano abarcado por a y b ,
![{\displaystyle {\begin{aligned}\mathbf {a} &={\begin{bmatrix}1\\0\\0\\\end{bmatrix}}&\mathbf {b} &={\frac {1 }{\sqrt {5}}}{\begin{bmatrix}0\\1\\2\\\end{bmatrix}}\end{aligned}}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle {\begin{aligned}G={\frac {1}{\sqrt {5}}}&{\begin{bmatrix}0&-1&-2\\1&0&0\\2&0&0\\\end{bmatrix} }&P=-G^{2}&={\frac {1}{5}}{\begin{bmatrix}5&0&0\\0&1&2\\0&2&4\\\end{bmatrix}}\\P{\begin{bmatrix }1\\2\\3\\\end{bmatrix}}={\frac {1}{5}}&{\begin{bmatrix}5\\8\\16\\\end{bmatrix}}= \mathbf {a} +{\frac {8}{\sqrt {5}}}\mathbf {b} &R\left({\frac {\pi }{6}}\right)&={\frac {1 }{10}}{\begin{bmatrix}5{\sqrt {3}}&-{\sqrt {5}}&-2{\sqrt {5}}\\{\sqrt {5}}&8+{\ sqrt {3}}&-4+2{\sqrt {3}}\\2{\sqrt {5}}&-4+2{\sqrt {3}}&2+4{\sqrt {3}}\ \\end{bmatrix}}\\\end{aligned}}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Sea N = I - P , entonces N 2 = N y sus productos con P y G son cero. Esto nos permitirá evaluar potencias de R.
![{\displaystyle {\begin{aligned}R\left({\frac {\pi }{6}}\right)&=N+P{\frac {\sqrt {3}}{2}}+G{\ frac {1}{2}}\\R\left({\frac {\pi }{6}}\right)^{2}&=N+P{\frac {1}{2}}+G{ \frac {\sqrt {3}}{2}}\\R\left({\frac {\pi }{6}}\right)^{3}&=N+G\\R\left({\ frac {\pi }{6}}\right)^{6}&=NP\\R\left({\frac {\pi }{6}}\right)^{12}&=N+P=I \\\end{alineado}}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Evaluación de la serie Laurent
En virtud del teorema de Cayley-Hamilton, la matriz exponencial se puede expresar como un polinomio de orden n −1.
Si P y Qt son polinomios distintos de cero en una variable, tales que P ( A ) = 0 , y si la función meromorfa
es entera , entonces
para probar esto, multiplique la primera de las dos igualdades anteriores por P ( z ) y reemplace z. por A.![{\displaystyle f(z)={\frac {e^{tz}-Q_{t}(z)}{P(z)}}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle e^{tA}=Q_{t}(A).}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Un polinomio de este tipo Q t ( z ) se puede encontrar de la siguiente manera: consulte la fórmula de Sylvester . Dejando que a sea una raíz de P , Q a,t ( z ) se resuelve a partir del producto de P por la parte principal de la serie de Laurent de f en a : Es proporcional a la covariante de Frobenius relevante . Entonces la suma St de Q a ,t , donde a recorre todas las raíces de P , puede tomarse como un Q t particular . Todos los demás Q t se obtendrán sumando un múltiplo de P a S t ( z ) . En particular, S t ( z ) , el polinomio de Lagrange-Sylvester , es el único Qt cuyo grado es menor que el de P.
Ejemplo : considere el caso de una matriz arbitraria de 2 × 2,![{\displaystyle A:={\begin{bmatrix}a&b\\c&d\end{bmatrix}}.}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
La matriz exponencial e tA , en virtud del teorema de Cayley-Hamilton , debe tener la forma![{\displaystyle e^{tA}=s_{0}(t)\,I+s_{1}(t)\,A.}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
(Para cualquier número complejo z y cualquier C -álgebra B , denotamos nuevamente por z el producto de z por la unidad de B ).
Sean α y β las raíces del polinomio característico de A ,![{\displaystyle P(z)=z^{2}-(a+d)\ z+ad-bc=(z-\alpha )(z-\beta )~.}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Entonces tenemos
por lo tanto![{\displaystyle S_{t}(z)=e^{\alpha t}{\frac {z-\beta }{\alpha -\beta }}+e^{\beta t}{\frac {z-\ alfa }{\beta -\alpha }}~,}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle {\begin{aligned}s_{0}(t)&={\frac {\alpha \,e^{\beta t}-\beta \,e^{\alpha t}}{\alpha - \beta }},&s_{1}(t)&={\frac {e^{\alpha t}-e^{\beta t}}{\alpha -\beta }}\end{aligned}}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
si α ≠ β ; mientras que si α = β ,![{\displaystyle S_{t}(z)=e^{\alpha t}(1+t(z-\alpha ))~,}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
de modo que![{\displaystyle {\begin{aligned}s_{0}(t)&=(1-\alpha \,t)\,e^{\alpha t},&s_{1}(t)&=t\,e ^{\alpha t}~.\end{aligned}}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Definiendo![{\displaystyle {\begin{aligned}s&\equiv {\frac {\alpha +\beta }{2}}={\frac {\operatorname {tr} A}{2}}~,&q&\equiv {\frac {\alpha -\beta }{2}}=\pm {\sqrt {-\det \left(A-sI\right)}},\end{aligned}}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
tenemos![{\displaystyle {\begin{aligned}s_{0}(t)&=e^{st}\left(\cosh(qt)-s{\frac {\sinh(qt)}{q}}\right) ,&s_{1}(t)&=e^{st}{\frac {\sinh(qt)}{q}},\end{aligned}}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
donde sin( qt )/ q es 0 si t = 0 y t si q = 0 .
De este modo,
![{\displaystyle e^{tA}=e^{st}\left(\left(\cosh(qt)-s{\frac {\sinh(qt)}{q}}\right)~I~+{\ frac {\sinh(qt)}{q}}A\right)~.}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Así, como se indicó anteriormente, habiéndose descompuesto la matriz A en la suma de dos piezas que se conmutan entre sí, la pieza con traza y la pieza sin traza,![{\displaystyle A=sI+(A-sI)~,}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
la matriz exponencial se reduce a un simple producto de los exponenciales de las dos piezas respectivas. Esta es una fórmula que se usa a menudo en física, ya que equivale a la fórmula análoga de Euler para las matrices de espín de Pauli , es decir, rotaciones de la representación doblete del grupo SU(2) .
Al polinomio St también se le puede dar la siguiente caracterización de " interpolación ". Defina e t ( z ) ≡ e tz y n ≡ grados P . Entonces S t ( z ) es el polinomio de grado único < n que satisface St ( k ) ( a ) = e t ( k ) ( a ) siempre que k sea menor que la multiplicidad de a como raíz de P . Suponemos, como obviamente podemos, que P es el polinomio mínimo de A. Suponemos además que A es una matriz diagonalizable . En particular, las raíces de P son simples, y la caracterización de " interpolación " indica que St está dada por la fórmula de interpolación de Lagrange , por lo que es el polinomio de Lagrange-Sylvester .
En el otro extremo, si P = ( z - a ) n , entonces![{\displaystyle S_{t}=e^{at}\ \sum _ {k=0}^{n-1}\ {\frac {t^{k}}{k!}}\ (za)^{ k}~.}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
El caso más simple no cubierto por las observaciones anteriores es cuando con a ≠ b , lo que produce![{\displaystyle P=(za)^{2}\,(zb)}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle S_{t}=e^{at}\ {\frac {zb}{ab}}\ \left(1+\left(t+{\frac {1}{ba}}\right)(za) \right)+e^{bt}\ {\frac {(za)^{2}}{(ba)^{2}}}.}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Evaluación por implementación deLa fórmula de Sylvester
Un cálculo práctico y acelerado de lo anterior se reduce a los siguientes pasos rápidos. Recuerde lo visto anteriormente que una matriz n×n exp( tA ) equivale a una combinación lineal de las primeras n −1 potencias de A según el teorema de Cayley-Hamilton . Para matrices diagonalizables , como se ilustra arriba, por ejemplo, en el caso 2×2, la fórmula de Sylvester produce exp( tA ) = B α exp( tα ) + B β exp( tβ ) , donde las B s son las covariantes de Frobenius de A.
Sin embargo, es más fácil resolver estos B directamente, evaluando esta expresión y su primera derivada en t = 0 , en términos de A e I , para encontrar la misma respuesta que antes.
Pero este sencillo procedimiento también sirve para matrices defectuosas , en una generalización debida a Buchheim. [22] Esto se ilustra aquí para un ejemplo de 4 × 4 de una matriz que no es diagonalizable , y las B no son matrices de proyección.
Considere
con valores propios λ 1 = 3/4 y λ 2 = 1 , cada uno con una multiplicidad de dos.![{\displaystyle A={\begin{bmatrix}1&1&0&0\\0&1&1&0\\0&0&1&-{\frac {1}{8}}\\0&0&{\frac {1}{2}}&{\frac {1}{ 2}}\end{bmatrix}}~,}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Considere el exponencial de cada valor propio multiplicado por t , exp( λ i t ) . Multiplique cada valor propio exponenciado por la correspondiente matriz de coeficientes indeterminados B i . Si los valores propios tienen una multiplicidad algebraica mayor que 1, entonces se repite el proceso, pero ahora multiplicando por un factor extra de t para cada repetición, para asegurar la independencia lineal.
(Si un valor propio tuviera una multiplicidad de tres, entonces estarían los tres términos: . Por el contrario, cuando todos los valores propios son distintos, los B son solo las covariantes de Frobenius , y resolverlos como se muestra a continuación equivale a la inversión de las Matriz de Vandermonde de estos 4 valores propios).![{\displaystyle B_{i_{1}}e^{\lambda _{i}t},~B_{i_{2}}te^{\lambda _{i}t},~B_{i_{3}} t^{2}e^{\lambda _ {i}t}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Sume todos esos términos, aquí cuatro de ellos,![{\displaystyle {\begin{aligned}e^{At}&=B_{1_{1}}e^{\lambda _{1}t}+B_{1_{2}}te^{\lambda _{1) }t}+B_{2_{1}}e^{\lambda _{2}t}+B_{2_{2}}te^{\lambda _{2}t},\\e^{At}& =B_{1_{1}}e^{{\frac {3}{4}}t}+B_{1_{2}}te^{{\frac {3}{4}}t}+B_{2_ {1}}e^{1t}+B_{2_{2}}te^{1t}~.\end{aligned}}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Para resolver todas las matrices desconocidas B en términos de las tres primeras potencias de A y la identidad, se necesitan cuatro ecuaciones, la anterior proporciona una en t = 0. Además, diferenciarla con respecto a t ,![{\displaystyle Ae^{At}={\frac {3}{4}}B_{1_{1}}e^{{\frac {3}{4}}t}+\left({\frac {3 }{4}}t+1\right)B_{1_{2}}e^{{\frac {3}{4}}t}+1B_{2_{1}}e^{1t}+\left( 1t+1\right)B_{2_{2}}e^{1t}~,}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
y otra vez,![{\displaystyle {\begin{aligned}A^{2}e^{At}&=\left({\frac {3}{4}}\right)^{2}B_{1_{1}}e^ {{\frac {3}{4}}t}+\left(\left({\frac {3}{4}}\right)^{2}t+\left({\frac {3}{4} }+1\cdot {\frac {3}{4}}\right)\right)B_{1_{2}}e^{{\frac {3}{4}}t}+B_{2_{1} }e^{1t}+\left(1^{2}t+(1+1\cdot 1)\right)B_{2_{2}}e^{1t}\\&=\left({\frac { 3}{4}}\right)^{2}B_{1_{1}}e^{{\frac {3}{4}}t}+\left(\left({\frac {3}{4 }}\right)^{2}t+{\frac {3}{2}}\right)B_{1_{2}}e^{{\frac {3}{4}}t}+B_{2_{2} 1}}e^{t}+\left(t+2\right)B_{2_{2}}e^{t}~,\end{aligned}}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
y una vez más,![{\displaystyle {\begin{aligned}A^{3}e^{At}&=\left({\frac {3}{4}}\right)^{3}B_{1_{1}}e^ {{\frac {3}{4}}t}+\left(\left({\frac {3}{4}}\right)^{3}t+\left(\left({\frac {3} {4}}\right)^{2}+\left({\frac {3}{2}}\right)\cdot {\frac {3}{4}}\right)\right)B_{1_{1} 2}}e^{{\frac {3}{4}}t}+B_{2_{1}}e^{1t}+\left(1^{3}t+(1+2)\cdot 1\ derecha)B_{2_{2}}e^{1t}\\&=\izquierda({\frac {3}{4}}\right)^{3}B_{1_{1}}e^{{\ frac {3}{4}}t}\!+\left(\left({\frac {3}{4}}\right)^{3}t\!+{\frac {27}{16}} \right)B_{1_{2}}e^{{\frac {3}{4}}t}\!+B_{2_{1}}e^{t}\!+\left(t+3\ cdot 1\right)B_{2_{2}}e^{t}~.\end{aligned}}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
(En el caso general, es necesario tomar n −1 derivadas).
Estableciendo t = 0 en estas cuatro ecuaciones, ahora se pueden resolver las cuatro matrices de coeficientes B s,![{\displaystyle {\begin{aligned}I&=B_{1_{1}}+B_{2_{1}}\\A&={\frac {3}{4}}B_{1_{1}}+B_{ 1_ {2}}+B_ {2_ {1}}+B_ {2_ {2}}\\A^{2}&=\left({\frac {3}{4}}\right)^{2} B_ {1_ {1}}+{\frac {3}{2}}B_1_ {2}}+B_ {2_ {1}}+2B_ {2_ {2}}\\A^{3}&= \left({\frac {3}{4}}\right)^{3}B_ {1_ {1}}+{\frac {27}{16}}B_ {1_ {2}}+B_ {2_ { 1}}+3B_{2_{2}}~,\end{alineado}}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
ceder![{\displaystyle {\begin{aligned}B_{1_{1}}&=128A^{3}-366A^{2}+288A-80I\\B_{1_{2}}&=16A^{3}- 44A^{2}+40A-12I\\B_{2_{1}}&=-128A^{3}+366A^{2}-288A+80I\\B_{2_{2}}&=16A^{ 3}-40A^{2}+33A-9I~.\end{aligned}}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Sustituyendo con el valor de A se obtienen las matrices de coeficientes.![{\displaystyle {\begin{aligned}B_{1_{1}}&={\begin{bmatrix}0&0&48&-16\\0&0&-8&2\\0&0&1&0\\0&0&0&1\end{bmatrix}}\\B_{1_{1} 2}}&={\begin{bmatrix}0&0&4&-2\\0&0&-1&{\frac {1}{2}}\\0&0&{\frac {1}{4}}&-{\frac {1} {8}}\\0&0&{\frac {1}{2}}&-{\frac {1}{4}}\end{bmatrix}}\\B_{2_{1}}&={\begin{ bmatrix}1&0&-48&16\\0&1&8&-2\\0&0&0&0\\0&0&0&0\end{bmatrix}}\\B_{2_{2}}&={\begin{bmatrix}0&1&8&-2\\0&0&0&0\\0&0&0&0\\ 0&0&0&0\end{bmatrix}}\end{aligned}}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
entonces la respuesta final es![{\displaystyle e^{tA}={\begin{bmatrix}e^{t}&te^{t}&\left(8t-48\right)e^{t}\!+\left(4t+48\ right)e^{{\frac {3}{4}}t}&\left(16-2\,t\right)e^{t}\!+\left(-2t-16\right)e^ {{\frac {3}{4}}t}\\0&e^{t}&8e^{t}\!+\left(-t-8\right)e^{{\frac {3}{4} }t}&-2e^{t}+{\frac {t+4}{2}}e^{{\frac {3}{4}}t}\\0&0&{\frac {t+4}{ 4}}e^{{\frac {3}{4}}t}&-{\frac {t}{8}}e^{{\frac {3}{4}}t}\\0&0&{\ frac {t}{2}}e^{{\frac {3}{4}}t}&-{\frac {t-4}{4}}e^{{\frac {3}{4}} t}~.\end{bmatrix}}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
El procedimiento es mucho más corto que el algoritmo de Putzer que a veces se utiliza en tales casos.
Ilustraciones
Supongamos que queremos calcular la exponencial de![{\displaystyle B={\begin{bmatrix}21&17&6\\-5&-1&-6\\4&4&16\end{bmatrix}}.}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Su forma de Jordan es
donde la matriz P está dada por![{\displaystyle J=P^{-1}BP={\begin{bmatrix}4&0&0\\0&16&1\\0&0&16\end{bmatrix}},}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle P={\begin{bmatrix}-{\frac {1}{4}}&2&{\frac {5}{4}}\\{\frac {1}{4}}&-2&-{ \frac {1}{4}}\\0&4&0\end{bmatrix}}.}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Primero calculemos exp( J ). Tenemos![{\displaystyle J=J_{1}(4)\oplus J_{2}(16)}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
La exponencial de una matriz de 1×1 es solo la exponencial de una entrada de la matriz, por lo que exp( J 1 (4)) = [ e 4 ] . El exponencial de J 2 (16) se puede calcular mediante la fórmula e (λ I + N ) = e λ e N mencionada anteriormente; esto produce [23]
![{\displaystyle {\begin{aligned}&\exp \left({\begin{bmatrix}16&1\\0&16\end{bmatrix}}\right)=e^{16}\exp \left({\begin{bmatrix }0&1\\0&0\end{bmatrix}}\right)=\\[6pt]{}={}&e^{16}\left({\begin{bmatrix}1&0\\0&1\end{bmatrix}}+ {\begin{bmatrix}0&1\\0&0\end{bmatrix}}+{1 \over 2!}{\begin{bmatrix}0&0\\0&0\end{bmatrix}}+\cdots {}\right)={ \begin{bmatrix}e^{16}&e^{16}\\0&e^{16}\end{bmatrix}}.\end{aligned}}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Por tanto, la exponencial de la matriz B original es![{\displaystyle {\begin{aligned}\exp(B)&=P\exp(J)P^{-1}=P{\begin{bmatrix}e^{4}&0&0\\0&e^{16}&e ^{16}\\0&0&e^{16}\end{bmatrix}}P^{-1}\\[6pt]&={1 \over 4}{\begin{bmatrix}13e^{16}-e^ {4}&13e^{16}-5e^{4}&2e^{16}-2e^{4}\\-9e^{16}+e^{4}&-9e^{16}+5e^{ 4}&-2e^{16}+2e^{4}\\16e^{16}&16e^{16}&4e^{16}\end{bmatrix}}.\end{aligned}}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Aplicaciones
Ecuaciones diferenciales lineales
La matriz exponencial tiene aplicaciones a sistemas de ecuaciones diferenciales lineales . (Véase también ecuación diferencial matricial .) Recuerde que anteriormente en este artículo una ecuación diferencial homogénea de la forma
tiene solución e en y (0) .
Si consideramos el vector,
podemos expresar un sistema de ecuaciones diferenciales lineales acopladas no homogéneas como
Haciendo un ansatz para usar un factor integrante de e − At y multiplicando, se obtiene![{\displaystyle \mathbf {y} (t)={\begin{bmatrix}y_{1}(t)\\\vdots \\y_{n}(t)\end{bmatrix}}~,}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \mathbf {y} '(t)=A\mathbf {y} (t)+\mathbf {b} (t).}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle {\begin{aligned}&&e^{-At}\mathbf {y} '-e^{-At}A\mathbf {y} &=e^{-At}\mathbf {b} \\& \Rightarrow &e^{-At}\mathbf {y} '-Ae^{-At}\mathbf {y} &=e^{-At}\mathbf {b} \\&\Rightarrow &{\frac {d }{dt}}\left(e^{-At}\mathbf {y} \right)&=e^{-At}\mathbf {b} ~.\end{aligned}}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
El segundo paso es posible debido a que, si AB = BA , entonces e At B = Be At . Entonces, calcular e At conduce a la solución del sistema, simplemente integrando el tercer paso con respecto a t .
Se puede obtener una solución a esto integrando y multiplicando por para eliminar el exponente en el LHS. Observa que while es una matriz, dado que es una matriz exponencial, podemos decir que . En otras palabras, .![{\displaystyle e^{{\textbf {A}}t}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle e^{{\textbf {A}}t}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle e^{{\textbf {A}}t}e^{-{\textbf {A}}t}=I}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \exp {{\textbf {A}}t}=\exp {{(-{\textbf {A}}t)}^{-1}}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Ejemplo (homogéneo)
Considere el sistema![{\displaystyle {\begin{matrix}x'&=&2x&-y&+z\\y'&=&&3y&-1z\\z'&=&2x&+y&+3z\end{matrix}}~.}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
La matriz defectuosa asociada es![{\displaystyle A={\begin{bmatrix}2&-1&1\\0&3&-1\\2&1&3\end{bmatrix}}~.}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
La matriz exponencial es![{\displaystyle e^{tA}={\frac {1}{2}}{\begin{bmatrix}e^{2t}\left(1+e^{2t}-2t\right)&-2te^{ 2t}&e^{2t}\left(-1+e^{2t}\right)\\-e^{2t}\left(-1+e^{2t}-2t\right)&2(t+1 )e^{2t}&-e^{2t}\left(-1+e^{2t}\right)\\e^{2t}\left(-1+e^{2t}+2t\right) &2te^{2t}&e^{2t}\left(1+e^{2t}\right)\end{bmatrix}}~,}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
de modo que la solución general del sistema homogéneo es![{\displaystyle {\begin{bmatrix}x\\y\\z\end{bmatrix}}={\frac {x(0)}{2}}{\begin{bmatrix}e^{2t}\left( 1+e^{2t}-2t\right)\\-e^{2t}\left(-1+e^{2t}-2t\right)\\e^{2t}\left(-1+e ^{2t}+2t\right)\end{bmatrix}}+{\frac {y(0)}{2}}{\begin{bmatrix}-2te^{2t}\\2(t+1)e ^{2t}\\2te^{2t}\end{bmatrix}}+{\frac {z(0)}{2}}{\begin{bmatrix}e^{2t}\left(-1+e^ {2t}\right)\\-e^{2t}\left(-1+e^{2t}\right)\\e^{2t}\left(1+e^{2t}\right)\end {bmatriz}}~,}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
por un importe de![{\displaystyle {\begin{aligned}2x&=x(0)e^{2t}\left(1+e^{2t}-2t\right)+y(0)\left(-2te^{2t}\ derecha)+z(0)e^{2t}\left(-1+e^{2t}\right)\\[2pt]2y&=x(0)\left(-e^{2t}\right)\ izquierda(-1+e^{2t}-2t\right)+y(0)2(t+1)e^{2t}+z(0)\left(-e^{2t}\right)\left (-1+e^{2t}\right)\\[2pt]2z&=x(0)e^{2t}\left(-1+e^{2t}+2t\right)+y(0)2te ^{2t}+z(0)e^{2t}\left(1+e^{2t}\right)~.\end{aligned}}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Ejemplo (homogéneo)
Consideremos ahora el sistema no homogéneo.![{\displaystyle {\begin{matrix}x'&=&2x&-&y&+&z&+&e^{2t}\\y'&=&&&3y&-&z&\\z'&=&2x&+&y&+&3z&+&e^{2t} \end{matriz}}~.}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
nuevamente tenemos![{\displaystyle A=\left[{\begin{array}{rrr}2&-1&1\\0&3&-1\\2&1&3\end{array}}\right]~,}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
y![{\displaystyle \mathbf {b} =e^{2t}{\begin{bmatrix}1\\0\\1\end{bmatrix}}.}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
De antes ya tenemos la solución general de la ecuación homogénea. Dado que la suma de las soluciones homogénea y particular da la solución general al problema no homogéneo, ahora sólo necesitamos encontrar la solución particular.
Hemos visto lo anterior
que podría simplificarse aún más para determinar la solución particular requerida mediante la variación de parámetros. Nota c = y p (0). Para mayor rigor, consulte la siguiente generalización.![{\displaystyle {\begin{aligned}\mathbf {y} _{p}&=e^{tA}\int _{0}^{t}e^{(-u)A}{\begin{bmatrix} e^{2u}\\0\\e^{2u}\end{bmatrix}}\,du+e^{tA}\mathbf {c} \\[6pt]&=e^{tA}\int _ {0}^{t}{\begin{bmatrix}2e^{u}-2ue^{2u}&-2ue^{2u}&0\\-2e^{u}+2(u+1)e^{ 2u}&2(u+1)e^{2u}&0\\2ue^{2u}&2ue^{2u}&2e^{u}\end{bmatrix}}{\begin{bmatrix}e^{2u}\\ 0\\e^{2u}\end{bmatrix}}\,du+e^{tA}\mathbf {c} \\[6pt]&=e^{tA}\int _{0}^{t} {\begin{bmatrix}e^{2u}\left(2e^{u}-2ue^{2u}\right)\\e^{2u}\left(-2e^{u}+2(1+u) )e^{2u}\right)\\2e^{3u}+2ue^{4u}\end{bmatrix}}\,du+e^{tA}\mathbf {c} \\[6pt]&=e ^{tA}{\begin{bmatrix}-{1 \over 24}e^{3t}\left(3e^{t}(4t-1)-16\right)\\{1 \over 24}e^ {3t}\left(3e^{t}(4t+4)-16\right)\\{1 \over 24}e^{3t}\left(3e^{t}(4t-1)-16\ derecha)\end{bmatrix}}+{\begin{bmatrix}2e^{t}-2te^{2t}&-2te^{2t}&0\\-2e^{t}+2(t+1)e ^{2t}&2(t+1)e^{2t}&0\\2te^{2t}&2te^{2t}&2e^{t}\end{bmatrix}}{\begin{bmatrix}c_{1}\ \c_{2}\\c_{3}\end{bmatrix}}~,\end{aligned}}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Generalización de casos no homogéneos: variación de parámetros.
Para el caso no homogéneo, podemos utilizar factores integradores (un método similar a la variación de parámetros ). Buscamos una solución particular de la forma y p ( t ) = exp( tA ) z ( t ) ,![{\displaystyle {\begin{aligned}\mathbf {y} _{p}'(t)&=\left(e^{tA}\right)'\mathbf {z} (t)+e^{tA} \mathbf {z} '(t)\\[6pt]&=Ae^{tA}\mathbf {z} (t)+e^{tA}\mathbf {z} '(t)\\[6pt]& =A\mathbf {y} _{p}(t)+e^{tA}\mathbf {z} '(t)~.\end{aligned}}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Para que y p sea una solución,![{\displaystyle {\begin{aligned}e^{tA}\mathbf {z} '(t)&=\mathbf {b} (t)\\[6pt]\mathbf {z} '(t)&=\ izquierda(e^{tA}\right)^{-1}\mathbf {b} (t)\\[6pt]\mathbf {z} (t)&=\int _{0}^{t}e^ {-uA}\mathbf {b} (u)\,du+\mathbf {c} ~.\end{aligned}}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Por tanto,
donde c está determinada por las condiciones iniciales del problema.![{\displaystyle {\begin{aligned}\mathbf {y} _{p}(t)&=e^{tA}\int _{0}^{t}e^{-uA}\mathbf {b} ( u)\,du+e^{tA}\mathbf {c} \\&=\int _{0}^{t}e^{(tu)A}\mathbf {b} (u)\,du+ e^{tA}\mathbf {c} ~,\end{alineado}}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Más precisamente, considere la ecuación![{\displaystyle Y'-A\ Y=F(t)}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
con la condición inicial Y ( t 0 ) = Y 0 , donde
- A es una matriz compleja de n por n ,
- F es una función continua desde algún intervalo abierto I a C n ,
es un punto de I , y
es un vector de C n .
Multiplicando hacia la izquierda la igualdad mostrada arriba por e −tA se obtiene![{\displaystyle Y(t)=e^{(t-t_{0})A}\ Y_{0}+\int _{t_{0}}^{t}e^{(tx)A}\ F (x)\dx~.}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Afirmamos que la solución de la ecuación![{\displaystyle P(d/dt)\ y=f(t)}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
con las condiciones iniciales para 0 ≤ k < n es![{\ Displaystyle y ^ {(k)} (t_ {0}) = y_ {k}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle y(t)=\sum _ {k=0}^{n-1}\ y_ {k}\ s_ {k}(t-t_ {0})+\int _ {t_ {0}} ^{t}s_{n-1}(tx)\ f(x)\ dx~,}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
donde la notación es la siguiente:
es un polinomio mónico de grado n > 0 ,- f es una función continua de valor complejo definida en algún intervalo abierto I ,
es un punto de yo ,
es un número complejo y
s k ( t ) es el coeficiente deen el polinomio denotado poren la subsección Evaluación de la serie Laurent anterior.![{\displaystyle X^{k}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle S_{t}\in \mathbb {C} [X]}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Para justificar esta afirmación, transformamos nuestra ecuación escalar de orden n en una ecuación vectorial de orden uno mediante la reducción habitual a un sistema de primer orden . Nuestra ecuación vectorial toma la forma
donde A es la matriz compañera transpuesta de P. Resolvemos esta ecuación como se explicó anteriormente, calculando las exponenciales de la matriz mediante la observación realizada en la subsección Evaluación mediante la implementación de la fórmula de Sylvester anterior.
En el caso n = 2 obtenemos la siguiente afirmación. La solución a![{\displaystyle y''-(\alpha +\beta )\ y'+\alpha \,\beta \ y=f(t),\quad y(t_{0})=y_{0},\quad y '(t_ {0}) = y_ {1}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
es![{\ Displaystyle y (t) = y_ {0} \ s_ {0} (t-t_ {0}) + y_ {1} \ s_ {1} (t-t_ {0}) + \ int _ {t_ { 0}}^{t}s_{1}(tx)\,f(x)\ dx,}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
donde las funciones s 0 y s 1 son como en la subsección Evaluación de la serie Laurent anterior.
Exponenciales matriz-matriz
La matriz exponencial de otra matriz (matriz-matriz exponencial), [24] se define como
para cualquier matriz X normal y no singular de n × n , y para cualquier matriz Y compleja de n × n .![{\displaystyle X^{Y}=e^{\log(X)\cdot Y}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Para los exponenciales matriz-matriz, existe una distinción entre el exponencial izquierdo Y X y el exponencial derecho X Y , porque el operador de multiplicación de matriz a matriz no es conmutativo . Además,
- Si X es normal y no singular, entonces X Y e Y X tienen el mismo conjunto de valores propios.
- Si X es normal y no singular, Y es normal y XY = YX , entonces X Y = Y X.
- Si X es normal y no singular, y X , Y , Z conmutan entre sí, entonces X Y + Z = X Y · X Z e Y + Z X = Y X · Z X .
Ver también
Referencias
- ^ Salón 2015 Ecuación 2.1
- ^ Propuesta 2.3 del Salón 2015
- ^ Teorema 2.12 de Hall 2015
- ^ Teorema 2.11 de Hall 2015
- ^ Salón 2015 Capítulo 5
- ^ Bhatia, R. (1997). Análisis matricial . Textos de Posgrado en Matemáticas. vol. 169. Saltador. ISBN 978-0-387-94846-1.
- ^ Lieb, Elliott H. (1973). "Funciones de traza convexas y la conjetura de Wigner-Yanase-Dyson". Avances en Matemáticas . 11 (3): 267–288. doi : 10.1016/0001-8708(73)90011-X .
- ^ H. Epstein (1973). "Observaciones sobre dos teoremas de E. Lieb". Comunicaciones en Física Matemática . 31 (4): 317–325. Código bibliográfico : 1973CMaPh..31..317E. doi :10.1007/BF01646492. S2CID 120096681.
- ^ Salón 2015 Ejercicios 2.9 y 2.10
- ^ RM Wilcox (1967). "Operadores exponenciales y diferenciación de parámetros en física cuántica". Revista de Física Matemática . 8 (4): 962–982. Código bibliográfico : 1967JMP......8..962W. doi :10.1063/1.1705306.
- ^ Teorema 5.4 de Hall 2015
- ^ Lewis, Adrián S.; Sendov, Hristo S. (2001). "Funciones espectrales dos veces diferenciables" (PDF) . Revista SIAM sobre Análisis y Aplicaciones de Matrices . 23 (2): 368–386. doi :10.1137/S089547980036838X.Véase el teorema 3.3.
- ^ ab Deledalle, Charles-Alban; Denis, Loïc; Tupin, Florencia (2022). "Reducción de moteado en el dominio de registro de matriz para imágenes de radar de apertura sintética". Revista de visión y imágenes matemáticas . 64 (3): 298–320. doi : 10.1007/s10851-022-01067-1 .Ver Proposiciones 1 y 2.
- ^ "Matriz exponencial - MATLAB expm - MathWorks Deutschland". Mathworks.de. 2011-04-30 . Consultado el 5 de junio de 2013 .
- ^ "GNU Octave - Funciones de una matriz". Teoría de redes.co.uk. 2007-01-11. Archivado desde el original el 29 de mayo de 2015 . Consultado el 5 de junio de 2013 .
- ^ "R - paquete {Matrix}: Matriz exponencial". 2005-02-28 . Consultado el 17 de julio de 2023 .
- ^ "Documentación de la función scipy.linalg.expm". La comunidad SciPy. 2015-01-18 . Consultado el 29 de mayo de 2015 .
- ^ Ver Salón 2015 Sección 2.2
- ^ en un espacio euclidiano
- ^ Weyl, Hermann (1952). La materia del espacio-tiempo. Dover. pag. 142.ISBN 978-0-486-60267-7.
- ^ Bjorken, James D.; Drell, Sidney D. (1964). Mecánica Cuántica Relativista . McGraw-Hill. pag. 22.
- ^ Rinehart, RF (1955). "La equivalencia de definiciones de una función mátrica". El Mensual Matemático Estadounidense , 62 (6), 395-414.
- ^ Esto se puede generalizar; en general, la exponencial de J n ( a ) es una matriz triangular superior con e a /0! en la diagonal principal, e a /1! en el de arriba, e a /2! en el siguiente, y así sucesivamente.
- ^ Ignacio Barradas y Joel E. Cohen (1994). "Exponciación iterada, exponenciación matriz-matriz y entropía" (PDF) . Academic Press, Inc. Archivado desde el original (PDF) el 26 de junio de 2009.
- Hall, Brian C. (2015), Grupos de Lie, álgebras de Lie y representaciones: una introducción elemental , Textos de Posgrado en Matemáticas, vol. 222 (2ª ed.), Springer, ISBN 978-3-319-13466-6
- Cuerno, Roger A.; Johnson, Charles R. (1991). Temas de análisis matricial . Prensa de la Universidad de Cambridge . ISBN 978-0-521-46713-1..
- Moler, Cleve ; Préstamo de Van, Charles F. (2003). "Diecinueve formas dudosas de calcular el exponencial de una matriz, veinticinco años después" (PDF) . Revisión SIAM . 45 (1): 3–49. Código Bib : 2003SIAMR..45....3M. CiteSeerX 10.1.1.129.9283 . doi :10.1137/S00361445024180. ISSN 1095-7200..
- Suzuki, Masuo (1985). "Fórmulas de descomposición de operadores exponenciales y exponenciales de Lie con algunas aplicaciones a la mecánica cuántica y la física estadística". Revista de Física Matemática . 26 (4): 601–612. Código bibliográfico : 1985JMP....26..601S. doi : 10.1063/1.526596.
- Curtright, TL ; Fairlie, DB ; Zachos, CK (2014). "Una fórmula compacta para rotaciones como polinomios de matriz de espín". Simetría, Integrabilidad y Geometría: Métodos y Aplicaciones . 10 : 084. arXiv : 1402.3541 . Código Bib : 2014SIGMA..10..084C. doi :10.3842/SIGMA.2014.084. S2CID 18776942.
- Jefe de familia, Alston S. (2006). La Teoría de Matrices en Análisis Numérico . Libros de Dover sobre matemáticas. ISBN 978-0-486-44972-2.
- Van Kortryk, TS (2016). "Matriciales exponenciales, elementos del grupo SU (N) y raíces polinómicas reales". Revista de Física Matemática . 57 (2): 021701. arXiv : 1508.05859 . Código Bib : 2016JMP....57b1701V. doi : 10.1063/1.4938418. S2CID 119647937.
enlaces externos