Operación matricial que generaliza la exponenciación de números escalares
En matemáticas , la matriz exponencial es una función matricial sobre matrices cuadradas análoga a la función exponencial ordinaria . Se utiliza para resolver sistemas de ecuaciones diferenciales lineales. En la teoría de grupos de Lie, la matriz exponencial da el mapa exponencial entre una matriz de álgebra de Lie y el grupo de Lie correspondiente .
Sea X una matriz real o compleja de n × n . El exponencial de X , denotado por e X o exp( X ) , es la matriz n × n dada por la serie de potencias
![{\displaystyle e^{X}=\sum _{k=0}^{\infty }{\frac {1}{k!}}X^{k}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
donde se define como la matriz identidad con las mismas dimensiones que . [1] La serie siempre converge, por lo que la exponencial de X está bien definida.![{\displaystyle X^{0}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle I}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle X}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
De manera equivalente,
![{\displaystyle e^{X}=\lim _{k\rightarrow \infty }\left(I+{\frac {X}{k}}\right)^{k}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Imatriz identidad n × nCuando X es una matriz diagonal de n × n , entonces exp( X ) será una matriz diagonal de n × n con cada elemento diagonal igual al exponencial ordinario aplicado al elemento diagonal correspondiente de X.
Propiedades
Propiedades elementales
Sean X e Y matrices complejas de n × n y sean a y b números complejos arbitrarios. Denotamos la matriz identidad n × n con I y la matriz cero con 0. La matriz exponencial satisface las siguientes propiedades. [2]
Comenzamos con las propiedades que son consecuencias inmediatas de la definición como serie de potencias:
El siguiente resultado clave es este:
- Si entonces .
![{\displaystyle XY=YX}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle e^{X}e^{Y}=e^{X+Y}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
La prueba de esta identidad es la misma que el argumento estándar de series de potencias para la identidad correspondiente del exponencial de los números reales. Es decir, siempre que y conmuten![{\displaystyle X}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
, no importa para el argumento si y son números o matrices. Es importante señalar que esta identidad normalmente no se cumple si y no se conmutan (consulte la desigualdad de Golden-Thompson a continuación).![{\displaystyle X}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle Y}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle X}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle Y}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Las consecuencias de la identidad anterior son las siguientes:
- mi aX mi bX = mi ( a + b ) X
- mi X mi − X = yo
Utilizando los resultados anteriores, podemos verificar fácilmente las siguientes afirmaciones. Si X es simétrico , entonces e X también es simétrico, y si X es simétrico sesgado, entonces e X es ortogonal . Si X es hermitiano , entonces e X también es hermitiano, y si X es sesgado-hermitiano, entonces e X es unitario .
Finalmente, una transformada de Laplace de matrices exponenciales equivale al resolutivo ,
![{\displaystyle \int _{0}^{\infty }e^{-ts}e^{tX}\,dt=(sI-X)^{-1}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
sSistemas de ecuaciones diferenciales lineales
Una de las razones de la importancia de la matriz exponencial es que puede usarse para resolver sistemas de ecuaciones diferenciales ordinarias lineales . la solución de
![{\displaystyle {\frac {d}{dt}}y(t)=Ay(t),\quad y(0)=y_{0},}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
A![{\displaystyle y(t)=e^{En}y_{0}.}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
La matriz exponencial también se puede utilizar para resolver la ecuación no homogénea.
![{\displaystyle {\frac {d}{dt}}y(t)=Ay(t)+z(t),\quad y(0)=y_{0}.}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
No existe una solución cerrada para ecuaciones diferenciales de la forma
![{\displaystyle {\frac {d}{dt}}y(t)=A(t)\,y(t),\quad y(0)=y_{0},}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Aserie de MagnusEl determinante de la matriz exponencial.
Según la fórmula de Jacobi , para cualquier matriz cuadrada compleja se cumple la siguiente identidad de traza : [3]
![{\displaystyle \det \left(e^{A}\right)=e^{\operatorname {tr} (A)}~.}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Además de proporcionar una herramienta computacional, esta fórmula demuestra que una matriz exponencial es siempre una matriz invertible . Esto se desprende del hecho de que el lado derecho de la ecuación anterior siempre es distinto de cero, por lo que det( e A ) ≠ 0 , lo que implica que e A debe ser invertible.
En el caso del valor real, la fórmula también muestra el mapa
![{\displaystyle \exp \dos puntos M_{n}(\mathbb {R} )\to \mathrm {GL} (n,\mathbb {R} )}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
sobrejetivoMatrices simétricas reales
La matriz exponencial de una matriz simétrica real es definida positiva. Sea una matriz simétrica real n × n y un vector columna. Usando las propiedades elementales de la matriz exponencial y de las matrices simétricas, tenemos:![{\displaystyle S}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle x\in \mathbb {R} ^{n}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle x^{T}e^{S}x=x^{T}e^{S/2}e^{S/2}x=x^{T}(e^{S/2}) ^{T}e^{S/2}x=(e^{S/2}x)^{T}e^{S/2}x=\lVert e^{S/2}x\rVert ^{ 2}\geq 0.}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Como es invertible, la igualdad solo es válida para , y tenemos para todos los valores distintos de cero . Por tanto, es positivo definido.![{\displaystyle e^{S/2}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle x=0}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle x^{T}e^{S}x>0}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle x}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle e^{S}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
El exponencial de las sumas.
Para cualquier número real (escalares) xey sabemos que la función exponencial satisface e x + y = e x e y . Lo mismo ocurre con las matrices de conmutación. Si las matrices X e Y conmutan (lo que significa que XY = YX ), entonces,
![{\displaystyle e^{X+Y}=e^{X}e^{Y}.}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Sin embargo, para matrices que no conmutan la igualdad anterior no necesariamente se cumple.
La fórmula del producto Mentira
Incluso si X e Y no se conmutan, el exponencial e X + Y se puede calcular mediante la fórmula del producto de Lie [4]
![{\displaystyle e^{X+Y}=\lim _{k\to \infty }\left(e^{{\frac {1}{k}}X}e^{{\frac {1}{k }}Y}\right)^{k}.}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Usar una k finita grande para aproximar lo anterior es la base de la expansión de Suzuki-Trotter, que se usa a menudo en la evolución del tiempo numérico .
La fórmula Baker-Campbell-Hausdorff
En la otra dirección, si X e Y son matrices suficientemente pequeñas (pero no necesariamente conmutantes), tenemos
![{\displaystyle e^{X}e^{Y}=e^{Z},}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
ZconmutadoresXYfórmula de Baker-Campbell-Hausdorff[5]![{\displaystyle Z=X+Y+{\frac {1}{2}}[X,Y]+{\frac {1}{12}}[X,[X,Y]]-{\frac {1} {12}}[Y,[X,Y]]+\cdots ,}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
XY.XYZ = X + Y.Desigualdades para exponenciales de matrices hermitianas
Para las matrices hermitianas existe un teorema notable relacionado con la traza de las matrices exponenciales.
Si A y B son matrices hermitianas, entonces [6]
![{\displaystyle \operatorname {tr} \exp(A+B)\leq \operatorname {tr} \left[\exp(A)\exp(B)\right].}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
No hay requisito de conmutatividad. Hay contraejemplos que muestran que la desigualdad de Golden-Thompson no se puede extender a tres matrices y, en cualquier caso, no se garantiza que tr(exp( A )exp( B )exp( C )) sea real para Hermitian A , B , C . Sin embargo, Lieb demostró [7] [8] que se puede generalizar a tres matrices si modificamos la expresión de la siguiente manera
![{\displaystyle \operatorname {tr} \exp(A+B+C)\leq \int _{0}^{\infty }\mathrm {d} t\,\operatorname {tr} \left[e^{A }\left(e^{-B}+t\right)^{-1}e^{C}\left(e^{-B}+t\right)^{-1}\right].}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
El mapa exponencial
La exponencial de una matriz es siempre una matriz invertible . La matriz inversa de e X viene dada por e − X . Esto es análogo al hecho de que la exponencial de un número complejo siempre es distinta de cero. La matriz exponencial nos da entonces un mapa
![{\displaystyle \exp \dos puntos M_{n}(\mathbb {C} )\to \mathrm {GL} (n,\mathbb {C} )}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
nngrupo lineal generalngruponnsobreyectiva[9]CRPara dos matrices cualesquiera X e Y ,
![{\displaystyle \left\|e^{X+Y}-e^{X}\right\|\leq \|Y\|e^{\|X\|}e^{\|Y\|}, }](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
donde ‖·‖ denota una norma matricial arbitraria . De ello se deduce que el mapa exponencial es continuo y Lipschitz continuo en subconjuntos compactos de M n ( C ) .
El mapa
![{\displaystyle t\mapsto e^{tX},\qquad t\in \mathbb {R} }](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
suavet = 0De hecho, esto da un subgrupo de un parámetro del grupo lineal general ya que
![{\displaystyle e^{tX}e^{sX}=e^{(t+s)X}.}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
La derivada de esta curva (o vector tangente ) en un punto t viene dada por
La derivada en t = 0 es simplemente la matriz X , es decir, X genera este subgrupo de un parámetro.
De manera más general, [10] para un exponente genérico dependiente de t , X ( t ) ,
![{\displaystyle {\frac {d}{dt}}e^{X(t)}=\int _{0}^{1}e^{\alpha X(t)}{\frac {dX(t) }{dt}}e^{(1-\alpha )X(t)}\,d\alpha ~.}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Tomando la expresión anterior e X ( t ) fuera del signo integral y expandiendo el integrando con la ayuda del lema de Hadamard , se puede obtener la siguiente expresión útil para la derivada del exponente matricial, [11]
![{\displaystyle \left({\frac {d}{dt}}e^{X(t)}\right)e^{-X(t)}={\frac {d}{dt}}X(t )+{\frac {1}{2!}}\left[X(t),{\frac {d}{dt}}X(t)\right]+{\frac {1}{3!}} \left[X(t),\left[X(t),{\frac {d}{dt}}X(t)\right]\right]+\cdots }](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Los coeficientes de la expresión anterior son diferentes de los que aparecen en la exponencial. Para una forma cerrada, consulte derivada de la aplicación exponencial .
Derivadas direccionales cuando se restringen a matrices hermitianas
Sea una matriz hermitiana con valores propios distintos. Sea su descomposición propia donde es una matriz unitaria cuyas columnas son los vectores propios de , es su transpuesta conjugada y el vector de valores propios correspondientes. Entonces, para cualquier matriz hermitiana , la derivada direccional de at en la dirección es [12] [13]![{\displaystyle X}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle n\times n}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle X=E{\textrm {diag}}(\Lambda )E^{*}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle E}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle X}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle E^{*}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \Lambda =\left(\lambda _ {1},\ldots,\lambda _ {n}\right)}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle n\times n}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle V}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \exp :X\to e^{X}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle X}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle V}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle D\exp(X)[V]\triangleq \lim _{\epsilon \to 0}{\frac {1}{\epsilon }}\left(\displaystyle e^{X+\epsilon V}-e ^{X}\right)=E(G\odot {\bar {V}})E^{*}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle {\bar {V}}=E^{*}VE}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle\odot}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle 1\leq i,j\leq n}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle G}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle G_{i,j}=\left\{{\begin{aligned}&{\frac {e^{\lambda _ {i}}-e^{\lambda _ {j}}}{\lambda _{i}-\lambda _{j}}}&{\text{ si }}i\neq j,\\&e^{\lambda _{i}}&{\text{ de lo contrario}}.\\\ fin{alineado}}\derecha.}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
[13]![{\displaystyle n\times n}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle U}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle U}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle V}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle D^{2}\exp(X)[U,V]\triangleq \lim _{\epsilon _{u}\to 0}\lim _{\epsilon _{v}\to 0}{\ frac {1}{4\epsilon _{u}\epsilon _{v}}}\left(\displaystyle e^{X+\epsilon _{u}U+\epsilon _{v}V}-e^{X- \epsilon _{u}U+\epsilon _{v}V}-e^{X+\epsilon _{u}U-\epsilon _{v}V}+e^{X-\epsilon _{u}U- \epsilon _{v}V}\right)=EF(U,V)E^{*}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle F}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle 1\leq i,j\leq n}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle F(U,V)_{i,j}=\sum _{k=1}^{n}\phi _{i,j,k}({\bar {U}}_{ik} {\bar {V}}_{jk}^{*}+{\bar {V}}_{ik}{\bar {U}}_{jk}^{*})}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \phi _{i,j,k}=\left\{{\begin{aligned}&{\frac {G_{ik}-G_{jk}}{\lambda _{i}-\lambda _ {j}}}&{\text{ if }}i\neq j,\\&{\frac {G_{ii}-G_{ik}}{\lambda _{i}-\lambda _{k}} }&{\text{ si }}i=j{\text{ y }}k\neq i,\\&{\frac {G_{ii}}{2}}&{\text{ si }}i= j=k.\\\end{aligned}}\right.}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Calcular la matriz exponencial
Es difícil encontrar métodos confiables y precisos para calcular la matriz exponencial, y este sigue siendo un tema de considerable investigación actual en matemáticas y análisis numérico. Matlab , GNU Octave , R y SciPy utilizan la aproximante Padé . [14] [15] [16] [17] En esta sección, analizamos métodos que son aplicables en principio a cualquier matriz y que pueden llevarse a cabo explícitamente para matrices pequeñas. [18] Las secciones siguientes describen métodos adecuados para la evaluación numérica en matrices grandes.
Caso diagonalizable
Si una matriz es diagonal :
![{\displaystyle A={\begin{bmatrix}a_{1}&0&\cdots &0\\0&a_{2}&\cdots &0\\\vdots &\vdots &\ddots &\vdots \\0&0&\cdots &a_{n }\end{bmatriz}},}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle e^{A}={\begin{bmatrix}e^{a_{1}}&0&\cdots &0\\0&e^{a_{2}}&\cdots &0\\\vdots &\vdots &\ ddots &\vdots \\0&0&\cdots &e^{a_{n}}\end{bmatrix}}.}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Este resultado también permite exponenciar matrices diagonalizables . Si
A = UDU −1
y D es diagonal, entonces
mi UN = Ue D U −1 .
La aplicación de la fórmula de Sylvester produce el mismo resultado. (Para ver esto, tenga en cuenta que la suma y multiplicación, por lo tanto también la exponenciación, de matrices diagonales es equivalente a la suma y multiplicación por elementos, y por lo tanto, la exponenciación; en particular, la exponenciación "unidimensional" se siente por elementos para la diagonal caso.)
Ejemplo: Diagonalizable
Por ejemplo, la matriz
![{\displaystyle A={\begin{bmatrix}1&4\\1&1\\\end{bmatrix}}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle {\begin{bmatrix}-2&2\\1&1\\\end{bmatrix}}{\begin{bmatrix}-1&0\\0&3\\\end{bmatrix}}{\begin{bmatrix}-2&2\ \1&1\\\end{bmatriz}}^{-1}.}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
De este modo,
![{\displaystyle e^{A}={\begin{bmatrix}-2&2\\1&1\\\end{bmatrix}}e^{\begin{bmatrix}-1&0\\0&3\\\end{bmatrix}}{ \begin{bmatrix}-2&2\\1&1\\\end{bmatrix}}^{-1}={\begin{bmatrix}-2&2\\1&1\\\end{bmatrix}}{\begin{bmatrix}{ \frac {1}{e}}&0\\0&e^{3}\\\end{bmatrix}}{\begin{bmatrix}-2&2\\1&1\\\end{bmatrix}}^{-1}= {\begin{bmatrix}{\frac {e^{4}+1}{2e}}&{\frac {e^{4}-1}{e}}\\{\frac {e^{4} -1}{4e}}&{\frac {e^{4}+1}{2e}}\\\end{bmatrix}}.}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Caso nilpotente
Una matriz N es nilpotente si N q = 0 para algún número entero q . En este caso, la matriz exponencial e N se puede calcular directamente a partir de la expansión de la serie, ya que la serie termina después de un número finito de términos:
![{\displaystyle e^{N}=I+N+{\frac {1}{2}}N^{2}+{\frac {1}{6}}N^{3}+\cdots +{\frac {1}{(q-1)!}}N^{q-1}~.}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Dado que la serie tiene un número finito de pasos, es un polinomio matricial, que se puede calcular de manera eficiente .
Caso general
Usando la descomposición Jordan-Chevalley
Mediante la descomposición de Jordan-Chevalley , cualquier matriz X con entradas complejas se puede expresar como![{\displaystyle n\times n}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle X=A+N}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
- A es diagonalizable
- N es nilpotente
- A conmuta con N
Esto significa que podemos calcular el exponencial de X reduciendo a los dos casos anteriores:
![{\displaystyle e^{X}=e^{A+N}=e^{A}e^{N}.}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Tenga en cuenta que necesitamos la conmutatividad de A y N para que funcione el último paso.
Usando la forma canónica de Jordan
Un método estrechamente relacionado es, si el campo es algebraicamente cerrado , trabajar con la forma Jordan de X. Supongamos que X = PJP −1 donde J es la forma Jordan de X. Entonces
![{\displaystyle e^{X}=Pe^{J}P^{-1}.}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Además, desde
![{\displaystyle {\begin{aligned}J&=J_{a_{1}}(\lambda _{1})\oplus J_{a_{2}}(\lambda _{2})\oplus \cdots \oplus J_ {a_ {n}}(\lambda _ {n}),\\e^{J}&=\exp {\big (}J_ {a_ {1}}(\lambda _ {1})\oplus J_{ a_{2}}(\lambda _{2})\oplus \cdots \oplus J_{a_{n}}(\lambda _{n}){\big )}\\&=\exp {\big (} J_{a_{1}}(\lambda _{1}){\big )}\oplus \exp {\big (}J_{a_{2}}(\lambda _{2}){\big )}\ oplus \cdots \oplus \exp {\big (}J_ {a_ {n}}(\lambda _ {n}){\big )}.\end{aligned}}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Por lo tanto, sólo necesitamos saber cómo calcular la matriz exponencial de un bloque de Jordan . Pero cada bloque de Jordan tiene la forma
![{\displaystyle {\begin{alineado}&&J_{a}(\lambda )&=\lambda I+N\\&\Rightarrow &e^{J_{a}(\lambda )}&=e^{\lambda I+ N}=e^{\lambda }e^{N}.\end{alineado}}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
donde N es una matriz nilpotente especial. La matriz exponencial de J viene dada por
![{\displaystyle e^{J}=e^{\lambda _ {1}}e^{N_ {a_ {1}}}\oplus e^{\lambda _ {2}}e^{N_ {a_ {2 }}}\oplus \cdots \oplus e^{\lambda _ {n}}e^{N_ {a_ {n}}}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Caso de proyección
Si P es una matriz de proyección (es decir, es idempotente : P 2 = P ), su matriz exponencial es:
mi PAG = yo + ( mi - 1) PAG .
Derivando esto por expansión de la función exponencial, cada potencia de P se reduce a P , que se convierte en un factor común de la suma:
![{\displaystyle e^{P}=\sum _ {k=0}^{\infty }{\frac {P^{k}}{k!}}=I+\left(\sum _ {k=1} ^{\infty }{\frac {1}{k!}}\right)P=I+(e-1)P~.}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Caso de rotación
Para una rotación simple en la que los vectores unitarios perpendiculares a y b especifican un plano, [19] la matriz de rotación R se puede expresar en términos de una función exponencial similar que involucra un generador G y un ángulo θ . [20] [21]
![{\displaystyle {\begin{aligned}G&=\mathbf {ba} ^{\mathsf {T}}-\mathbf {ab} ^{\mathsf {T}}&P&=-G^{2}=\mathbf { aa} ^{\mathsf {T}}+\mathbf {bb} ^{\mathsf {T}}\\P^{2}&=P&PG&=G=GP~,\end{aligned}}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle {\begin{aligned}R\left(\theta \right)=e^{G\theta }&=I+G\sin(\theta )+G^{2}(1-\cos(\ theta ))\\&=I-P+P\cos(\theta )+G\sin(\theta )~.\\\end{alineado}}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
La fórmula para el exponencial resulta de reducir las potencias de G en la expansión de la serie e identificar los respectivos coeficientes de la serie de G 2 y G con −cos( θ ) y sin( θ ) respectivamente. La segunda expresión aquí para e Gθ es la misma que la expresión para R ( θ ) en el artículo que contiene la derivación del generador , R ( θ ) = e Gθ .
En dos dimensiones, si y , entonces , , y![{\displaystyle a=\left[{\begin{smallmatrix}1\\0\end{smallmatrix}}\right]}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle b=\left[{\begin{smallmatrix}0\\1\end{smallmatrix}}\right]}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle G=\left[{\begin{smallmatrix}0&-1\\1&0\end{smallmatrix}}\right]}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle G^{2}=\left[{\begin{smallmatrix}-1&0\\0&-1\end{smallmatrix}}\right]}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle R(\theta )={\begin{bmatrix}\cos(\theta )&-\sin(\theta )\\\sin(\theta )&\cos(\theta )\end{bmatrix}} =I\cos(\theta )+G\sin(\theta )}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
La matriz P = − G 2 proyecta un vector en el plano ab y la rotación solo afecta a esta parte del vector. Un ejemplo que ilustra esto es una rotación de 30° = π/6 en el plano abarcado por a y b ,
![{\displaystyle {\begin{aligned}\mathbf {a} &={\begin{bmatrix}1\\0\\0\\\end{bmatrix}}&\mathbf {b} &={\frac {1 }{\sqrt {5}}}{\begin{bmatrix}0\\1\\2\\\end{bmatrix}}\end{aligned}}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle {\begin{aligned}G={\frac {1}{\sqrt {5}}}&{\begin{bmatrix}0&-1&-2\\1&0&0\\2&0&0\\\end{bmatrix} }&P=-G^{2}&={\frac {1}{5}}{\begin{bmatrix}5&0&0\\0&1&2\\0&2&4\\\end{bmatrix}}\\P{\begin{bmatrix }1\\2\\3\\\end{bmatrix}}={\frac {1}{5}}&{\begin{bmatrix}5\\8\\16\\\end{bmatrix}}= \mathbf {a} +{\frac {8}{\sqrt {5}}}\mathbf {b} &R\left({\frac {\pi }{6}}\right)&={\frac {1 }{10}}{\begin{bmatrix}5{\sqrt {3}}&-{\sqrt {5}}&-2{\sqrt {5}}\\{\sqrt {5}}&8+{\ sqrt {3}}&-4+2{\sqrt {3}}\\2{\sqrt {5}}&-4+2{\sqrt {3}}&2+4{\sqrt {3}}\ \\end{bmatrix}}\\\end{aligned}}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Sea N = I - P , entonces N 2 = N y sus productos con P y G son cero. Esto nos permitirá evaluar potencias de R.
![{\displaystyle {\begin{aligned}R\left({\frac {\pi }{6}}\right)&=N+P{\frac {\sqrt {3}}{2}}+G{\ frac {1}{2}}\\R\left({\frac {\pi }{6}}\right)^{2}&=N+P{\frac {1}{2}}+G{ \frac {\sqrt {3}}{2}}\\R\left({\frac {\pi }{6}}\right)^{3}&=N+G\\R\left({\ frac {\pi }{6}}\right)^{6}&=NP\\R\left({\frac {\pi }{6}}\right)^{12}&=N+P=I \\\end{alineado}}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Evaluación de la serie Laurent
En virtud del teorema de Cayley-Hamilton, la matriz exponencial se puede expresar como un polinomio de orden n −1.
Si P y Q t son polinomios distintos de cero en una variable, tales que P ( A ) = 0 , y si la función meromorfa
![{\displaystyle f(z)={\frac {e^{tz}-Q_{t}(z)}{P(z)}}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
completo![{\displaystyle e^{tA}=Q_{t}(A).}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
( z ) yzA.Un polinomio de este tipo Q t ( z ) se puede encontrar de la siguiente manera: consulte la fórmula de Sylvester . Dejando que a sea una raíz de P , Q a,t ( z ) se resuelve a partir del producto de P por la parte principal de la serie de Laurent de f en a : Es proporcional a la covariante de Frobenius relevante . Entonces la suma St de Q a,t , donde a recorre todas las raíces de P , puede tomarse como un Q t particular . Todos los demás Q t se obtendrán sumando un múltiplo de P a S t ( z ) . En particular, S t ( z ) , el polinomio de Lagrange-Sylvester , es el único Qt cuyo grado es menor que el de P.
Ejemplo : considere el caso de una matriz arbitraria de 2 × 2,
![{\displaystyle A:={\begin{bmatrix}a&b\\c&d\end{bmatrix}}.}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
La matriz exponencial e tA , en virtud del teorema de Cayley-Hamilton , debe tener la forma
![{\displaystyle e^{tA}=s_{0}(t)\,I+s_{1}(t)\,A.}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
(Para cualquier número complejo z y cualquier C -álgebra B , denotamos nuevamente por z el producto de z por la unidad de B ).
Sean α y β las raíces del polinomio característico de A ,
![{\displaystyle P(z)=z^{2}-(a+d)\ z+ad-bc=(z-\alpha )(z-\beta )~.}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Entonces nosotros tenemos
![{\displaystyle S_{t}(z)=e^{\alpha t}{\frac {z-\beta }{\alpha -\beta }}+e^{\beta t}{\frac {z-\ alfa }{\beta -\alpha }}~,}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle {\begin{aligned}s_{0}(t)&={\frac {\alpha \,e^{\beta t}-\beta \,e^{\alpha t}}{\alpha - \beta }},&s_{1}(t)&={\frac {e^{\alpha t}-e^{\beta t}}{\alpha -\beta }}\end{aligned}}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
si α ≠ β ; mientras que si α = β ,
![{\displaystyle S_{t}(z)=e^{\alpha t}(1+t(z-\alpha ))~,}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
de modo que
![{\displaystyle {\begin{aligned}s_{0}(t)&=(1-\alpha \,t)\,e^{\alpha t},&s_{1}(t)&=t\,e ^{\alpha t}~.\end{aligned}}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Definiendo
![{\displaystyle {\begin{aligned}s&\equiv {\frac {\alpha +\beta }{2}}={\frac {\operatorname {tr} A}{2}}~,&q&\equiv {\frac {\alpha -\beta }{2}}=\pm {\sqrt {-\det \left(A-sI\right)}},\end{aligned}}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
tenemos
![{\displaystyle {\begin{aligned}s_{0}(t)&=e^{st}\left(\cosh(qt)-s{\frac {\sinh(qt)}{q}}\right) ,&s_{1}(t)&=e^{st}{\frac {\sinh(qt)}{q}},\end{aligned}}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
donde sin( qt )/ q es 0 si t = 0 y t si q = 0 .
De este modo,
![{\displaystyle e^{tA}=e^{st}\left(\left(\cosh(qt)-s{\frac {\sinh(qt)}{q}}\right)~I~+{\ frac {\sinh(qt)}{q}}A\right)~.}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Así, como se indicó anteriormente, habiéndose descompuesto la matriz A en la suma de dos piezas que se conmutan entre sí, la pieza con traza y la pieza sin traza,
![{\displaystyle A=sI+(A-sI)~,}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
la matriz exponencial se reduce a un simple producto de los exponenciales de las dos piezas respectivas. Esta es una fórmula que se usa a menudo en física, ya que equivale a la fórmula análoga de Euler para las matrices de espín de Pauli , es decir, rotaciones de la representación doblete del grupo SU(2) .
Al polinomio St también se le puede dar la siguiente caracterización de " interpolación ". Defina e t ( z ) ≡ e tz y n ≡ grados P . Entonces S t ( z ) es el único polinomio de grado < n que satisface S t ( k ) ( a ) = e t ( k ) ( a ) siempre que k sea menor que la multiplicidad de a como raíz de P . Suponemos, como obviamente podemos, que P es el polinomio mínimo de A. Suponemos además que A es una matriz diagonalizable . En particular, las raíces de P son simples, y la caracterización de " interpolación " indica que St está dada por la fórmula de interpolación de Lagrange , por lo que es el polinomio de Lagrange-Sylvester .
En el otro extremo, si P = ( z - a ) n , entonces
![{\displaystyle S_{t}=e^{at}\ \sum _ {k=0}^{n-1}\ {\frac {t^{k}}{k!}}\ (za)^{ k}~.}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
El caso más simple no cubierto por las observaciones anteriores es cuando con a ≠ b , lo que produce![{\displaystyle P=(za)^{2}\,(zb)}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle S_{t}=e^{at}\ {\frac {zb}{ab}}\ \left(1+\left(t+{\frac {1}{ba}}\right)(za) \right)+e^{bt}\ {\frac {(za)^{2}}{(ba)^{2}}}.}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Evaluación mediante implementación de la fórmula de Sylvester.
Un cálculo práctico y acelerado de lo anterior se reduce a los siguientes pasos rápidos. Recuerde lo visto anteriormente que una matriz n×n exp( tA ) equivale a una combinación lineal de las primeras n −1 potencias de A según el teorema de Cayley-Hamilton . Para matrices diagonalizables , como se ilustra arriba, por ejemplo, en el caso 2×2, la fórmula de Sylvester produce exp( tA ) = B α exp( tα ) + B β exp( tβ ) , donde las B s son las covariantes de Frobenius de A.
Sin embargo, es más fácil resolver estos B directamente, evaluando esta expresión y su primera derivada en t = 0 , en términos de A e I , para encontrar la misma respuesta que antes.
Pero este sencillo procedimiento también funciona para matrices defectuosas , en una generalización debida a Buchheim. [22] Esto se ilustra aquí para un ejemplo de 4 × 4 de una matriz que no es diagonalizable , y las B no son matrices de proyección.
Considerar
![{\displaystyle A={\begin{bmatrix}1&1&0&0\\0&1&1&0\\0&0&1&-{\frac {1}{8}}\\0&0&{\frac {1}{2}}&{\frac {1}{ 2}}\end{bmatrix}}~,}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
λ 1 = 3/4λ 2 = 1Considere el exponencial de cada valor propio multiplicado por t , exp( λ i t ) . Multiplique cada valor propio exponenciado por la correspondiente matriz de coeficientes indeterminados B i . Si los valores propios tienen una multiplicidad algebraica mayor que 1, entonces se repite el proceso, pero ahora multiplicando por un factor extra de t para cada repetición, para asegurar la independencia lineal.
(Si un valor propio tuviera una multiplicidad de tres, entonces estarían los tres términos: . Por el contrario, cuando todos los valores propios son distintos, los B son solo las covariantes de Frobenius , y resolverlos como se muestra a continuación equivale a la inversión de las Matriz de Vandermonde de estos 4 valores propios).![{\displaystyle B_{i_{1}}e^{\lambda _{i}t},~B_{i_{2}}te^{\lambda _{i}t},~B_{i_{3}} t^{2}e^{\lambda _ {i}t}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Sume todos esos términos, aquí cuatro de ellos,
![{\displaystyle {\begin{aligned}e^{At}&=B_{1_{1}}e^{\lambda _{1}t}+B_{1_{2}}te^{\lambda _{1) }t}+B_{2_{1}}e^{\lambda _{2}t}+B_{2_{2}}te^{\lambda _{2}t},\\e^{At}& =B_{1_{1}}e^{{\frac {3}{4}}t}+B_{1_{2}}te^{{\frac {3}{4}}t}+B_{2_ {1}}e^{1t}+B_{2_{2}}te^{1t}~.\end{aligned}}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Para resolver todas las matrices desconocidas B en términos de las tres primeras potencias de A y la identidad, se necesitan cuatro ecuaciones, la anterior proporciona una en t = 0. Además, diferenciarla con respecto a t ,
![{\displaystyle Ae^{At}={\frac {3}{4}}B_{1_{1}}e^{{\frac {3}{4}}t}+\left({\frac {3 }{4}}t+1\right)B_{1_{2}}e^{{\frac {3}{4}}t}+1B_{2_{1}}e^{1t}+\left( 1t+1\right)B_{2_{2}}e^{1t}~,}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
y otra vez,
![{\displaystyle {\begin{aligned}A^{2}e^{At}&=\left({\frac {3}{4}}\right)^{2}B_{1_{1}}e^ {{\frac {3}{4}}t}+\left(\left({\frac {3}{4}}\right)^{2}t+\left({\frac {3}{4} }+1\cdot {\frac {3}{4}}\right)\right)B_{1_{2}}e^{{\frac {3}{4}}t}+B_{2_{1} }e^{1t}+\left(1^{2}t+(1+1\cdot 1)\right)B_{2_{2}}e^{1t}\\&=\left({\frac { 3}{4}}\right)^{2}B_{1_{1}}e^{{\frac {3}{4}}t}+\left(\left({\frac {3}{4 }}\right)^{2}t+{\frac {3}{2}}\right)B_{1_{2}}e^{{\frac {3}{4}}t}+B_{2_{2} 1}}e^{t}+\left(t+2\right)B_{2_{2}}e^{t}~,\end{aligned}}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
y una vez más,
![{\displaystyle {\begin{aligned}A^{3}e^{At}&=\left({\frac {3}{4}}\right)^{3}B_{1_{1}}e^ {{\frac {3}{4}}t}+\left(\left({\frac {3}{4}}\right)^{3}t+\left(\left({\frac {3} {4}}\right)^{2}+\left({\frac {3}{2}}\right)\cdot {\frac {3}{4}}\right)\right)B_{1_{1} 2}}e^{{\frac {3}{4}}t}+B_{2_{1}}e^{1t}+\left(1^{3}t+(1+2)\cdot 1\ derecha)B_{2_{2}}e^{1t}\\&=\izquierda({\frac {3}{4}}\right)^{3}B_{1_{1}}e^{{\ frac {3}{4}}t}\!+\left(\left({\frac {3}{4}}\right)^{3}t\!+{\frac {27}{16}} \right)B_{1_{2}}e^{{\frac {3}{4}}t}\!+B_{2_{1}}e^{t}\!+\left(t+3\ cdot 1\right)B_{2_{2}}e^{t}~.\end{aligned}}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
(En el caso general, es necesario tomar n −1 derivadas).
Estableciendo t = 0 en estas cuatro ecuaciones, ahora se pueden resolver las cuatro matrices de coeficientes B s,
![{\displaystyle {\begin{aligned}I&=B_{1_{1}}+B_{2_{1}}\\A&={\frac {3}{4}}B_{1_{1}}+B_{ 1_ {2}}+B_ {2_ {1}}+B_ {2_ {2}}\\A^{2}&=\left({\frac {3}{4}}\right)^{2} B_ {1_ {1}}+{\frac {3}{2}}B_ {1_ {2}}+B_ {2_ {1}}+2B_ {2_ {2}}\\A^{3}&= \left({\frac {3}{4}}\right)^{3}B_ {1_ {1}}+{\frac {27}{16}}B_ {1_ {2}}+B_ {2_ { 1}}+3B_{2_{2}}~,\end{alineado}}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
ceder
![{\displaystyle {\begin{aligned}B_{1_{1}}&=128A^{3}-366A^{2}+288A-80I\\B_{1_{2}}&=16A^{3}- 44A^{2}+40A-12I\\B_{2_{1}}&=-128A^{3}+366A^{2}-288A+80I\\B_{2_{2}}&=16A^{ 3}-40A^{2}+33A-9I~.\end{aligned}}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Sustituyendo con el valor de A se obtienen las matrices de coeficientes.
![{\displaystyle {\begin{aligned}B_{1_{1}}&={\begin{bmatrix}0&0&48&-16\\0&0&-8&2\\0&0&1&0\\0&0&0&1\end{bmatrix}}\\B_{1_{1} 2}}&={\begin{bmatrix}0&0&4&-2\\0&0&-1&{\frac {1}{2}}\\0&0&{\frac {1}{4}}&-{\frac {1} {8}}\\0&0&{\frac {1}{2}}&-{\frac {1}{4}}\end{bmatrix}}\\B_{2_{1}}&={\begin{ bmatrix}1&0&-48&16\\0&1&8&-2\\0&0&0&0\\0&0&0&0\end{bmatrix}}\\B_{2_{2}}&={\begin{bmatrix}0&1&8&-2\\0&0&0&0\\0&0&0&0\\ 0&0&0&0\end{bmatrix}}\end{aligned}}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
entonces la respuesta final es
![{\displaystyle e^{tA}={\begin{bmatrix}e^{t}&te^{t}&\left(8t-48\right)e^{t}\!+\left(4t+48\ right)e^{{\frac {3}{4}}t}&\left(16-2\,t\right)e^{t}\!+\left(-2t-16\right)e^ {{\frac {3}{4}}t}\\0&e^{t}&8e^{t}\!+\left(-t-8\right)e^{{\frac {3}{4} }t}&-2e^{t}+{\frac {t+4}{2}}e^{{\frac {3}{4}}t}\\0&0&{\frac {t+4}{ 4}}e^{{\frac {3}{4}}t}&-{\frac {t}{8}}e^{{\frac {3}{4}}t}\\0&0&{\ frac {t}{2}}e^{{\frac {3}{4}}t}&-{\frac {t-4}{4}}e^{{\frac {3}{4}} t}~.\end{bmatrix}}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
El procedimiento es mucho más corto que el algoritmo de Putzer que a veces se utiliza en tales casos.
Ilustraciones
Supongamos que queremos calcular la exponencial de
![{\displaystyle B={\begin{bmatrix}21&17&6\\-5&-1&-6\\4&4&16\end{bmatrix}}.}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Su forma jordana es
![{\displaystyle J=P^{-1}BP={\begin{bmatrix}4&0&0\\0&16&1\\0&0&16\end{bmatrix}},}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
P![{\displaystyle P={\begin{bmatrix}-{\frac {1}{4}}&2&{\frac {5}{4}}\\{\frac {1}{4}}&-2&-{ \frac {1}{4}}\\0&4&0\end{bmatrix}}.}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Primero calculemos exp( J ). Tenemos
![{\displaystyle J=J_{1}(4)\oplus J_{2}(16)}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
La exponencial de una matriz de 1×1 es solo la exponencial de una entrada de la matriz, por lo que exp( J 1 (4)) = [ e 4 ] . El exponencial de J 2 (16) se puede calcular mediante la fórmula e (λ I + N ) = e λ e N mencionada anteriormente; esto produce [23]
![{\displaystyle {\begin{aligned}&\exp \left({\begin{bmatrix}16&1\\0&16\end{bmatrix}}\right)=e^{16}\exp \left({\begin{bmatrix }0&1\\0&0\end{bmatrix}}\right)=\\[6pt]{}={}&e^{16}\left({\begin{bmatrix}1&0\\0&1\end{bmatrix}}+ {\begin{bmatrix}0&1\\0&0\end{bmatrix}}+{1 \over 2!}{\begin{bmatrix}0&0\\0&0\end{bmatrix}}+\cdots {}\right)={ \begin{bmatrix}e^{16}&e^{16}\\0&e^{16}\end{bmatrix}}.\end{aligned}}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Por tanto, la exponencial de la matriz B original es
![{\displaystyle {\begin{aligned}\exp(B)&=P\exp(J)P^{-1}=P{\begin{bmatrix}e^{4}&0&0\\0&e^{16}&e ^{16}\\0&0&e^{16}\end{bmatrix}}P^{-1}\\[6pt]&={1 \over 4}{\begin{bmatrix}13e^{16}-e^ {4}&13e^{16}-5e^{4}&2e^{16}-2e^{4}\\-9e^{16}+e^{4}&-9e^{16}+5e^{ 4}&-2e^{16}+2e^{4}\\16e^{16}&16e^{16}&4e^{16}\end{bmatrix}}.\end{aligned}}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Aplicaciones
Ecuaciones diferenciales lineales
La matriz exponencial tiene aplicaciones a sistemas de ecuaciones diferenciales lineales . (Ver también ecuación diferencial matricial .) Recuerde que antes en este artículo una ecuación diferencial homogénea de la forma
![{\displaystyle \mathbf {y} '=A\mathbf {y} }](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
e En y (0)Si consideramos el vector
![{\displaystyle \mathbf {y} (t)={\begin{bmatrix}y_{1}(t)\\\vdots \\y_{n}(t)\end{bmatrix}}~,}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
no homogéneas como![{\displaystyle \mathbf {y} '(t)=A\mathbf {y} (t)+\mathbf {b} (t).}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
ansatze − At![{\displaystyle {\begin{aligned}&&e^{-At}\mathbf {y} '-e^{-At}A\mathbf {y} &=e^{-At}\mathbf {b} \\& \Rightarrow &e^{-At}\mathbf {y} '-Ae^{-At}\mathbf {y} &=e^{-At}\mathbf {b} \\&\Rightarrow &{\frac {d }{dt}}\left(e^{-At}\mathbf {y} \right)&=e^{-At}\mathbf {b} ~.\end{aligned}}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
El segundo paso es posible debido a que, si AB = BA , entonces e At B = Be At . Entonces, calcular e At conduce a la solución del sistema, simplemente integrando el tercer paso con respecto a t .
Se puede obtener una solución a esto integrando y multiplicando por para eliminar el exponente en el LHS. Observa que while es una matriz, dado que es una matriz exponencial, podemos decir que . En otras palabras, .![{\displaystyle e^{{\textbf {A}}t}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle e^{{\textbf {A}}t}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle e^{{\textbf {A}}t}e^{-{\textbf {A}}t}=I}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \exp {{\textbf {A}}t}=\exp {{(-{\textbf {A}}t)}^{-1}}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Ejemplo (homogéneo)
Considere el sistema
![{\displaystyle {\begin{matrix}x'&=&2x&-y&+z\\y'&=&&3y&-1z\\z'&=&2x&+y&+3z\end{matrix}}~.}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
La matriz defectuosa asociada es
![{\displaystyle A={\begin{bmatrix}2&-1&1\\0&3&-1\\2&1&3\end{bmatrix}}~.}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
La matriz exponencial es
![{\displaystyle e^{tA}={\frac {1}{2}}{\begin{bmatrix}e^{2t}\left(1+e^{2t}-2t\right)&-2te^{ 2t}&e^{2t}\left(-1+e^{2t}\right)\\-e^{2t}\left(-1+e^{2t}-2t\right)&2(t+1 )e^{2t}&-e^{2t}\left(-1+e^{2t}\right)\\e^{2t}\left(-1+e^{2t}+2t\right) &2te^{2t}&e^{2t}\left(1+e^{2t}\right)\end{bmatrix}}~,}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
de modo que la solución general del sistema homogéneo es
![{\displaystyle {\begin{bmatrix}x\\y\\z\end{bmatrix}}={\frac {x(0)}{2}}{\begin{bmatrix}e^{2t}\left( 1+e^{2t}-2t\right)\\-e^{2t}\left(-1+e^{2t}-2t\right)\\e^{2t}\left(-1+e ^{2t}+2t\right)\end{bmatrix}}+{\frac {y(0)}{2}}{\begin{bmatrix}-2te^{2t}\\2(t+1)e ^{2t}\\2te^{2t}\end{bmatrix}}+{\frac {z(0)}{2}}{\begin{bmatrix}e^{2t}\left(-1+e^ {2t}\right)\\-e^{2t}\left(-1+e^{2t}\right)\\e^{2t}\left(1+e^{2t}\right)\end {bmatriz}}~,}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
por un importe de
![{\displaystyle {\begin{aligned}2x&=x(0)e^{2t}\left(1+e^{2t}-2t\right)+y(0)\left(-2te^{2t}\ derecha)+z(0)e^{2t}\left(-1+e^{2t}\right)\\[2pt]2y&=x(0)\left(-e^{2t}\right)\ izquierda(-1+e^{2t}-2t\right)+y(0)2(t+1)e^{2t}+z(0)\left(-e^{2t}\right)\left (-1+e^{2t}\right)\\[2pt]2z&=x(0)e^{2t}\left(-1+e^{2t}+2t\right)+y(0)2te ^{2t}+z(0)e^{2t}\left(1+e^{2t}\right)~.\end{aligned}}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Ejemplo (homogéneo)
Consideremos ahora el sistema no homogéneo.
![{\displaystyle {\begin{matrix}x'&=&2x&-&y&+&z&+&e^{2t}\\y'&=&&&3y&-&z&\\z'&=&2x&+&y&+&3z&+&e^{2t} \end{matriz}}~.}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
nuevamente tenemos
![{\displaystyle A=\left[{\begin{array}{rrr}2&-1&1\\0&3&-1\\2&1&3\end{array}}\right]~,}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
y
![{\displaystyle \mathbf {b} =e^{2t}{\begin{bmatrix}1\\0\\1\end{bmatrix}}.}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
De antes ya tenemos la solución general de la ecuación homogénea. Dado que la suma de las soluciones homogénea y particular da la solución general al problema no homogéneo, ahora sólo necesitamos encontrar la solución particular.
Tenemos, por arriba,
![{\displaystyle {\begin{aligned}\mathbf {y} _{p}&=e^{tA}\int _{0}^{t}e^{(-u)A}{\begin{bmatrix} e^{2u}\\0\\e^{2u}\end{bmatrix}}\,du+e^{tA}\mathbf {c} \\[6pt]&=e^{tA}\int _ {0}^{t}{\begin{bmatrix}2e^{u}-2ue^{2u}&-2ue^{2u}&0\\-2e^{u}+2(u+1)e^{ 2u}&2(u+1)e^{2u}&0\\2ue^{2u}&2ue^{2u}&2e^{u}\end{bmatrix}}{\begin{bmatrix}e^{2u}\\ 0\\e^{2u}\end{bmatrix}}\,du+e^{tA}\mathbf {c} \\[6pt]&=e^{tA}\int _{0}^{t} {\begin{bmatrix}e^{2u}\left(2e^{u}-2ue^{2u}\right)\\e^{2u}\left(-2e^{u}+2(1+u) )e^{2u}\right)\\2e^{3u}+2ue^{4u}\end{bmatrix}}\,du+e^{tA}\mathbf {c} \\[6pt]&=e ^{tA}{\begin{bmatrix}-{1 \over 24}e^{3t}\left(3e^{t}(4t-1)-16\right)\\{1 \over 24}e^ {3t}\left(3e^{t}(4t+4)-16\right)\\{1 \over 24}e^{3t}\left(3e^{t}(4t-1)-16\ derecha)\end{bmatrix}}+{\begin{bmatrix}2e^{t}-2te^{2t}&-2te^{2t}&0\\-2e^{t}+2(t+1)e ^{2t}&2(t+1)e^{2t}&0\\2te^{2t}&2te^{2t}&2e^{t}\end{bmatrix}}{\begin{bmatrix}c_{1}\ \c_{2}\\c_{3}\end{bmatrix}}~,\end{aligned}}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
cy pGeneralización de casos no homogéneos: variación de parámetros.
Para el caso no homogéneo, podemos utilizar factores integradores (un método similar a la variación de parámetros ). Buscamos una solución particular de la forma y p ( t ) = exp( tA ) z ( t ) ,
![{\displaystyle {\begin{aligned}\mathbf {y} _{p}'(t)&=\left(e^{tA}\right)'\mathbf {z} (t)+e^{tA} \mathbf {z} '(t)\\[6pt]&=Ae^{tA}\mathbf {z} (t)+e^{tA}\mathbf {z} '(t)\\[6pt]& =A\mathbf {y} _{p}(t)+e^{tA}\mathbf {z} '(t)~.\end{aligned}}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Para que y p sea una solución,
![{\displaystyle {\begin{aligned}e^{tA}\mathbf {z} '(t)&=\mathbf {b} (t)\\[6pt]\mathbf {z} '(t)&=\ izquierda(e^{tA}\right)^{-1}\mathbf {b} (t)\\[6pt]\mathbf {z} (t)&=\int _{0}^{t}e^ {-uA}\mathbf {b} (u)\,du+\mathbf {c} ~.\end{aligned}}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
De este modo,
![{\displaystyle {\begin{aligned}\mathbf {y} _{p}(t)&=e^{tA}\int _{0}^{t}e^{-uA}\mathbf {b} ( u)\,du+e^{tA}\mathbf {c} \\&=\int _{0}^{t}e^{(tu)A}\mathbf {b} (u)\,du+ e^{tA}\mathbf {c} ~,\end{alineado}}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
cMás precisamente, considere la ecuación
![{\displaystyle Y'-A\ Y=F(t)}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
con la condición inicial Y ( t 0 ) = Y 0 , donde
- A es una matriz compleja de n por n ,
- F es una función continua desde algún intervalo abierto I a C n ,
es un punto de I , y
es un vector de C n .
Multiplicando hacia la izquierda la igualdad mostrada arriba por e −tA se obtiene
![{\displaystyle Y(t)=e^{(t-t_{0})A}\ Y_{0}+\int _{t_{0}}^{t}e^{(tx)A}\ F (x)\dx~.}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Afirmamos que la solución de la ecuación
![{\displaystyle P(d/dt)\ y=f(t)}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
con las condiciones iniciales para 0 ≤ k < n es![{\ Displaystyle y ^ {(k)} (t_ {0}) = y_ {k}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle y(t)=\sum _ {k=0}^{n-1}\ y_ {k}\ s_ {k}(t-t_ {0})+\int _ {t_ {0}} ^{t}s_{n-1}(tx)\ f(x)\ dx~,}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
donde la notación es la siguiente:
es un polinomio mónico de grado n > 0 ,- f es una función continua de valor complejo definida en algún intervalo abierto I ,
es un punto de yo ,
es un número complejo y
s k ( t ) es el coeficiente deen el polinomio denotado poren la subsección Evaluación de la serie Laurent anterior.![{\displaystyle X^{k}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle S_{t}\in \mathbb {C} [X]}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Para justificar esta afirmación, transformamos nuestra ecuación escalar de orden n en una ecuación vectorial de orden uno mediante la reducción habitual a un sistema de primer orden . Nuestra ecuación vectorial toma la forma
![{\displaystyle {\frac {dY}{dt}}-A\ Y=F(t),\quad Y(t_{0})=Y_{0},}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Amatriz compañera transpuestaPEn el caso n = 2 obtenemos la siguiente afirmación. La solución a
![{\displaystyle y''-(\alpha +\beta )\ y'+\alpha \,\beta \ y=f(t),\quad y(t_{0})=y_{0},\quad y '(t_ {0}) = y_ {1}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
es
![{\ Displaystyle y (t) = y_ {0} \ s_ {0} (t-t_ {0}) + y_ {1} \ s_ {1} (t-t_ {0}) + \ int _ {t_ { 0}}^{t}s_{1}(tx)\,f(x)\ dx,}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
donde las funciones s 0 y s 1 son como en la subsección Evaluación de la serie Laurent anterior.
Exponenciales matriz-matriz
La matriz exponencial de otra matriz (matriz-matriz exponencial), [24] se define como
![{\displaystyle X^{Y}=e^{\log(X)\cdot Y}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle ^{Y}\!X=e^{Y\cdot \log(X)}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
X normalno singular de n × nY compleja de n × nPara los exponenciales matriz-matriz, existe una distinción entre el exponencial izquierdo Y X y el exponencial derecho X Y , porque el operador de multiplicación de matriz a matriz no es conmutativo . Además,
- Si X es normal y no singular, entonces X Y e Y X tienen el mismo conjunto de valores propios.
- Si X es normal y no singular, Y es normal y XY = YX , entonces X Y = Y X.
- Si X es normal y no singular, y X , Y , Z conmutan entre sí, entonces X Y + Z = X Y · X Z e Y + Z X = Y X · Z X .
Ver también
Referencias
- ^ Salón 2015 Ecuación 2.1
- ^ Propuesta 2.3 del Salón 2015
- ^ Teorema 2.12 de Hall 2015
- ^ Teorema 2.11 de Hall 2015
- ^ Salón 2015 Capítulo 5
- ^ Bhatia, R. (1997). Análisis matricial . Textos de Posgrado en Matemáticas. vol. 169. Saltador. ISBN 978-0-387-94846-1.
- ^ Lieb, Elliott H. (1973). "Funciones de traza convexas y la conjetura de Wigner-Yanase-Dyson". Avances en Matemáticas . 11 (3): 267–288. doi : 10.1016/0001-8708(73)90011-X .
- ^ H. Epstein (1973). "Observaciones sobre dos teoremas de E. Lieb". Comunicaciones en Física Matemática . 31 (4): 317–325. Código bibliográfico : 1973CMaPh..31..317E. doi :10.1007/BF01646492. S2CID 120096681.
- ^ Salón 2015 Ejercicios 2.9 y 2.10
- ^ RM Wilcox (1967). "Operadores exponenciales y diferenciación de parámetros en física cuántica". Revista de Física Matemática . 8 (4): 962–982. Código bibliográfico : 1967JMP......8..962W. doi :10.1063/1.1705306.
- ^ Teorema 5.4 de Hall 2015
- ^ Lewis, Adrián S.; Sendov, Hristo S. (2001). "Funciones espectrales dos veces diferenciables" (PDF) . Revista SIAM sobre Análisis y Aplicaciones de Matrices . 23 (2): 368–386. doi :10.1137/S089547980036838X.Véase el teorema 3.3.
- ^ ab Deledalle, Charles-Alban; Denis, Loïc; Tupin, Florencia (2022). "Reducción de moteado en el dominio de registro de matriz para imágenes de radar de apertura sintética". Revista de visión y imágenes matemáticas . 64 (3): 298–320. doi : 10.1007/s10851-022-01067-1 .Ver Proposiciones 1 y 2.
- ^ "Matriz exponencial - MATLAB expm - MathWorks Deutschland". Mathworks.de. 2011-04-30 . Consultado el 5 de junio de 2013 .
- ^ "GNU Octave - Funciones de una matriz". Teoría de redes.co.uk. 2007-01-11. Archivado desde el original el 29 de mayo de 2015 . Consultado el 5 de junio de 2013 .
- ^ "R - paquete {Matrix}: Matriz exponencial". 2005-02-28 . Consultado el 17 de julio de 2023 .
- ^ "Documentación de la función scipy.linalg.expm". La comunidad SciPy. 2015-01-18 . Consultado el 29 de mayo de 2015 .
- ^ Ver Salón 2015 Sección 2.2
- ^ en un espacio euclidiano
- ^ Weyl, Hermann (1952). La materia del espacio-tiempo. Dover. pag. 142.ISBN _ 978-0-486-60267-7.
- ^ Bjorken, James D.; Drell, Sidney D. (1964). Mecánica Cuántica Relativista . McGraw-Hill. pag. 22.
- ^ Rinehart, RF (1955). "La equivalencia de definiciones de una función mátrica". El Mensual Matemático Estadounidense , 62 (6), 395-414.
- ^ Esto se puede generalizar; en general, la exponencial de J n ( a ) es una matriz triangular superior con e a /0! en la diagonal principal, e a /1! en el de arriba, e a /2! en el siguiente, y así sucesivamente.
- ^ Ignacio Barradas y Joel E. Cohen (1994). "Exponciación iterada, exponenciación matriz-matriz y entropía" (PDF) . Academic Press, Inc. Archivado desde el original (PDF) el 26 de junio de 2009.
- Hall, Brian C. (2015), Grupos de Lie, álgebras de Lie y representaciones: una introducción elemental , Textos de Posgrado en Matemáticas, vol. 222 (2ª ed.), Springer, ISBN 978-3-319-13466-6
- Cuerno, Roger A.; Johnson, Charles R. (1991). Temas de análisis matricial . Prensa de la Universidad de Cambridge . ISBN 978-0-521-46713-1..
- Moler, Cleve ; Préstamo de Van, Charles F. (2003). "Diecinueve formas dudosas de calcular el exponencial de una matriz, veinticinco años después" (PDF) . Revisión SIAM . 45 (1): 3–49. Código Bib : 2003SIAMR..45....3M. CiteSeerX 10.1.1.129.9283 . doi :10.1137/S00361445024180. ISSN 1095-7200..
- Suzuki, Masuo (1985). "Fórmulas de descomposición de operadores exponenciales y exponenciales de Lie con algunas aplicaciones a la mecánica cuántica y la física estadística". Revista de Física Matemática . 26 (4): 601–612. Código bibliográfico : 1985JMP....26..601S. doi : 10.1063/1.526596.
- Curtright, TL ; Fairlie, DB ; Zachos, CK (2014). "Una fórmula compacta para rotaciones como polinomios de matriz de espín". Simetría, Integrabilidad y Geometría: Métodos y Aplicaciones . 10 : 084. arXiv : 1402.3541 . Código Bib : 2014SIGMA..10..084C. doi :10.3842/SIGMA.2014.084. S2CID 18776942.
- Jefe de familia, Alston S. (2006). La Teoría de Matrices en Análisis Numérico . Libros de Dover sobre matemáticas. ISBN 978-0-486-44972-2.
- Van Kortryk, TS (2016). "Matriciales exponenciales, elementos del grupo SU (N) y raíces polinómicas reales". Revista de Física Matemática . 57 (2): 021701. arXiv : 1508.05859 . Código Bib : 2016JMP....57b1701V. doi : 10.1063/1.4938418. S2CID 119647937.
enlaces externos