Representación exponencial de ecuaciones diferenciales.
En matemáticas y física , la expansión de Magnus , que lleva el nombre de Wilhelm Magnus (1907-1990), proporciona una representación exponencial de la solución de una ecuación diferencial lineal homogénea de primer orden para un operador lineal . En particular, proporciona la matriz fundamental de un sistema de ecuaciones diferenciales ordinarias lineales de orden n con coeficientes variables. El exponente se agrega como una serie infinita, cuyos términos involucran múltiples integrales y conmutadores anidados.
El caso determinista
Enfoque de Magnus y su interpretación.
Dada la matriz de coeficientes n × n A ( t ) , se desea resolver el problema de valor inicial asociado con la ecuación diferencial ordinaria lineal
![{\displaystyle Y'(t)=A(t)Y(t),\quad Y(t_{0})=Y_{0}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
para la función vectorial desconocida de n dimensiones Y ( t ) .
Cuando n = 1, la solución simplemente dice
![{\displaystyle Y(t)=\exp \left(\int _ {t_ {0}}^{t}A(s)\,ds\right)Y_ {0}.}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Esto sigue siendo válido para n > 1 si la matriz A ( t ) satisface A ( t 1 ) A ( t 2 ) = A ( t 2 ) A ( t 1 ) para cualquier par de valores de t , t 1 y t 2 . En particular, este es el caso si la matriz A es independiente de t . En el caso general, sin embargo, la expresión anterior ya no es la solución del problema.
El enfoque introducido por Magnus para resolver el problema matricial de valor inicial es expresar la solución mediante la exponencial de una determinada función matricial n × n Ω( t , t 0 ) :
![{\displaystyle Y(t)=\exp {\big (}\Omega (t,t_{0}){\big )}\,Y_{0},}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
que posteriormente se construye como una expansión en serie :
![{\displaystyle \Omega (t)=\sum _ {k=1}^{\infty }\Omega _ {k}(t),}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
donde, por simplicidad, se acostumbra escribir Ω( t ) para Ω( t , t 0 ) y tomar t 0 = 0.
Magnus apreció que, dado qued/dt( e Ω ) e −Ω = A ( t ) , usando una identidad matricial de Poincaré-Hausdorff , podría relacionar la derivada temporal de Ω con la función generadora de los números de Bernoulli y el endomorfismo adjunto de Ω ,
![{\displaystyle \Omega '={\frac {\operatorname {anuncio} _{\Omega }}{\exp(\operatorname {anuncio} _{\Omega })-1}}A,}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
para resolver Ω recursivamente en términos de A "en un análogo continuo de la expansión BCH ", como se describe en una sección posterior.
La ecuación anterior constituye la expansión de Magnus , o serie de Magnus , para la solución del problema de valor inicial lineal de matriz. Los primeros cuatro términos de esta serie leen
![{\displaystyle {\begin{aligned}\Omega _{1}(t)&=\int _{0}^{t}A(t_{1})\,dt_{1},\\\Omega _{ 2}(t)&={\frac {1}{2}}\int _{0}^{t}dt_{1}\int _{0}^{t_{1}}dt_{2}\, [A(t_{1}),A(t_{2})],\\\Omega _{3}(t)&={\frac {1}{6}}\int _{0}^{t }dt_{1}\int _{0}^{t_{1}}dt_{2}\int _{0}^{t_{2}}dt_{3}\,{\Bigl (}{\big [ }A(t_{1}),[A(t_{2}),A(t_{3})]{\big ]}+{\big [}A(t_{3}),[A(t_{3}),[A(t_{1}) 2}),A(t_{1})]{\big ]}{\Bigr )},\\\Omega _{4}(t)&={\frac {1}{12}}\int _{ 0}^{t}dt_{1}\int _{0}^{t_{1}}dt_{2}\int _{0}^{t_{2}}dt_{3}\int _{0} ^{t_{3}}dt_{4}\,\left({\Big [}{\big [}[A_{1},A_{2}],A_{3}{\big ]},A_{ 4}{\Grande ]}\right.\\&\qquad +{\Grande [}A_{1},{\grande [}[A_{2},A_{3}],A_{4}{\grande ]}{\Grande ]}+{\Grande [}A_{1},{\grande [}A_{2},[A_{3},A_{4}]{\grande ]}{\Grande ]}+ \left.{\Grande [}A_{2},{\big [}A_{3},[A_{4},A_{1}]{\big ]}{\Grande ]}\right),\end {alineado}}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
donde [ A , B ] ≡ A B − B A es el conmutador matricial de A y B .
Estas ecuaciones se pueden interpretar de la siguiente manera: Ω 1 ( t ) coincide exactamente con el exponente en el caso escalar ( n = 1), pero esta ecuación no puede dar la solución completa. Si se insiste en tener una representación exponencial ( grupo de Lie ), es necesario corregir el exponente. El resto de la serie de Magnus proporciona esa corrección sistemáticamente: Ω o partes de ella están en el álgebra de Lie del grupo de Lie en la solución.
En las aplicaciones, rara vez se puede sumar exactamente la serie de Magnus y hay que truncarla para obtener soluciones aproximadas. La principal ventaja de la propuesta de Magnus es que la serie truncada muy a menudo comparte propiedades cualitativas importantes con la solución exacta, en desacuerdo con otras teorías de perturbaciones convencionales . Por ejemplo, en la mecánica clásica el carácter simpléctico de la evolución temporal se conserva en cada orden de aproximación. De manera similar, también se conserva el carácter unitario del operador de evolución temporal en la mecánica cuántica (en contraste, por ejemplo, con la serie de Dyson que resuelve el mismo problema).
Convergencia de la expansión
Desde un punto de vista matemático, el problema de convergencia es el siguiente: dada una determinada matriz A ( t ) , ¿cuándo se puede obtener el exponente Ω( t ) como suma de la serie de Magnus?
Una condición suficiente para que esta serie converja para t ∈ [0, T ) es
![{\displaystyle \int _{0}^{T}\|A(s)\|_{2}\,ds<\pi ,}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
donde denota una norma matricial . Este resultado es genérico en el sentido de que se pueden construir matrices específicas A ( t ) para las cuales la serie diverge para cualquier t > T.![{\displaystyle \|\cdot \|_{2}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
generador magnus
Un procedimiento recursivo para generar todos los términos en la expansión de Magnus utiliza las matrices S n ( k ) definidas recursivamente mediante
![{\displaystyle S_{n}^{(j)}=\sum _{m=1}^{nj}\left[\Omega _{m},S_{nm}^{(j-1)}\right ],\quad 2\leq j\leq n-1,}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle S_{n}^{(1)}=\left[\Omega _{n-1},A\right],\quad S_{n}^{(n-1)}=\operatorname {anuncio } _{\Omega _{1}}^{n-1}(A),}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
que luego proporciona
![{\displaystyle \Omega _{1}=\int _{0}^{t}A(\tau )\,d\tau ,}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \Omega _{n}=\sum _{j=1}^{n-1}{\frac {B_{j}}{j!}}\int _{0}^{t}S_{ n}^{(j)}(\tau )\,d\tau ,\quad n\geq 2.}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Aquí ad k Ω es una abreviatura de un conmutador iterado (ver endomorfismo adjunto ):
![{\displaystyle \operatorname {anuncio} _{\Omega }^{0}A=A,\quad \operatorname {anuncio} _{\Omega }^{k+1}A=[\Omega ,\operatorname {anuncio} _{\Omega }^{k}A],}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
mientras que B j son los números de Bernoulli con B 1 = −1/2 .
Finalmente, cuando esta recursividad se resuelve explícitamente, es posible expresar Ω n ( t ) como una combinación lineal de n integrales de n − 1 conmutadores anidados que involucran n matrices A :
![{\displaystyle \Omega _{n}(t)=\sum _{j=1}^{n-1}{\frac {B_{j}}{j!}}\sum _{k_{1}+ \cdots +k_{j}=n-1 \atop k_{1}\geq 1,\ldots ,k_{j}\geq 1}\int _{0}^{t}\operatorname {ad} _{\ Omega _{k_{1}}(\tau )}\operatorname {ad} _{\Omega _{k_{2}}(\tau )}\cdots \operatorname {ad} _{\Omega _{k_{j) }}(\tau )}A(\tau )\,d\tau ,\quad n\geq 2,}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
que se vuelve cada vez más complejo con n .
El caso estocástico
Extensión a ecuaciones diferenciales ordinarias estocásticas
Para la extensión al caso estocástico, sea un movimiento browniano adimensional , , en el espacio de probabilidad
con horizonte temporal finito y filtración natural. Ahora, considere la ecuación diferencial estocástica matricial lineal de Itô (con la convención de suma de Einstein sobre el índice j )![{\textstyle \left(W_{t}\right)_{t\in [0,T]}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\textstyle \mathbb {R} ^{q}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\textstyle \left(\Omega ,{\mathcal {F}},\mathbb {P} \right)}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\estilo de texto T>0}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle dX_{t}=B_{t}X_{t}dt+A_{t}^{(j)}X_{t}dW_{t}^{j},\quad X_{0}=I_{ d},\qquad d\in \mathbb {N} _ {>0},}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
donde son procesos estocásticos acotados de valores progresivamente mensurables y es la matriz identidad . Siguiendo el mismo enfoque que en el caso determinista con alteraciones debidas al ajuste estocástico [1], el logaritmo matricial correspondiente resultará como un proceso Itô, cuyos dos primeros órdenes de expansión están dados por y , donde con la convención de suma de Einstein sobre i y j![{\textstyle B_{\cdot },A_{\cdot }^{(1)},\dots ,A_{\cdot }^{(j)}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\textstyle d\times d}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\estilo de texto I_ {d}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\textstyle Y_{t}^{(1)}=Y_{t}^{(1,0)}+Y_{t}^{(0,1)}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\textstyle Y_{t}^{(2)}=Y_{t}^{(2,0)}+Y_{t}^{(1,1)}+Y_{t}^{(0,2) )}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle {\begin{aligned}Y_{t}^{(0,0)}&=0,\\Y_{t}^{(1,0)}&=\int _{0}^{t }A_{s}^{(j)}\,dW_{s}^{j},\\Y_{t}^{(0,1)}&=\int _{0}^{t}B_{ s}\,ds,\\Y_{t}^{(2,0)}&=-{\frac {1}{2}}\int _{0}^{t}{\big (}A_{ s}^{(j)}{\big )}^{2}\,ds+{\frac {1}{2}}\int _{0}^{t}{\Big [}A_{s}^ {(j)},\int _{0}^{s}A_{r}^{(i)}\,dW_{r}^{i}{\Big ]}dW_{s}^{j}, \\Y_{t}^{(1,1)}&={\frac {1}{2}}\int _{0}^{t}{\Big [}B_{s},\int _{ 0}^{s}A_{r}^{(j)}\,dW_{r}{\Big ]}\,ds+{\frac {1}{2}}\int _{0}^{t} {\Big [}A_{s}^{(j)},\int _{0}^{s}B_{r}\,dr{\Big ]}\,dW_{s}^{j},\ \Y_{t}^{(0,2)}&={\frac {1}{2}}\int _{0}^{t}{\Big [}B_{s},\int _{0 }^{s}B_{r}\,dr{\Big ]}\,ds.\end{aligned}}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Convergencia de la expansión
En el entorno estocástico, la convergencia ahora estará sujeta a un tiempo de parada y el primer resultado de convergencia viene dado por: [2]![{\estilo de texto \tau }](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Bajo el supuesto anterior sobre los coeficientes existe una solución fuerte , así como un tiempo de parada estrictamente positivo tal que:![{\textstyle X=(X_{t})_{t\in [0,T]}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\estilo de texto \tau \leq T}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
tiene un logaritmo real hasta el tiempo , es decir![{\estilo de texto Y_ {t}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\estilo de texto \tau }](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle X_{t}=e^{Y_{t}},\qquad 0\leq t<\tau ;}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
- se cumple -casi con seguridad- la siguiente representación :
![{\estilo de texto \mathbb {P} }](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle Y_{t}=\sum _ {n=0}^{\infty }Y_{t}^{(n)},\qquad 0\leq t<\tau ,}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
- donde es el n -ésimo término en la expansión estocástica de Magnus como se define a continuación en la subsección Fórmula de expansión de Magnus;
![{\estilo de texto Y^{(n)}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
- existe una constante positiva C , sólo dependiente de , con , tal que
![{\textstyle \|A^{(1)}\|_{T},\dots ,\|A^{(q)}\|_{T},\|B\|_{T},T, d}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\textstyle \|A_{\cdot }\|_{T}=\|\|A_{t}\|_{F}\|_{L^{\infty }(\Omega \times [0,T ])}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \mathbb {P} (\tau \leq t)\leq Ct,\qquad t\in [0,T].}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Fórmula de expansión de Magnus
La fórmula de expansión general para la expansión estocástica de Magnus viene dada por:
![{\displaystyle Y_{t}=\sum _ {n=0}^{\infty }Y_{t}^{(n)}\quad {\text{con}}\quad Y_{t}^{(n )}:=\sum _{r=0}^{n}Y_{t}^{(r,nr)},}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
donde el término general es un proceso Itô de la forma: ![{\estilo de texto Y^{(r,nr)}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle Y_{t}^{(r,nr)}=\int _{0}^{t}\mu _{s}^{r,nr}ds+\int _{0}^{t}\ sigma _{s}^{r,nr,j}dW_{s}^{j},\qquad n\in \mathbb {N} _{0},\ r=0,\dots ,n,}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Los términos se definen recursivamente como![{\textstyle \sigma ^{r,nr,j},\mu ^{r,nr}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle {\begin{alineado}\sigma _{s}^{r,nr,j}&:=\sum _{i=0}^{n-1}{\frac {\beta _{i} }{i!}}S_{s}^{r-1,nr,i}{\big (}A^{(j)}{\big )},\\\mu _{s}^{r, nr}&:=\sum _{i=0}^{n-1}{\frac {\beta _{i}}{i!}}S_{s}^{r,nr-1,i}( B)-{\frac {1}{2}}\sum _{j=1}^{q}\sum _{i=0}^{n-2}{\frac {\beta _{i}} {i!}}\sum _{q_{1}=2}^{r}\sum _{q_{2}=0}^{nr}S^{r-q_{1},nr-q_{2 },i}{\big (}Q^{q_{1},q_{2},j}{\big )},\end{alineado}}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
con
![{\displaystyle {\begin{aligned}Q_{s}^{q_{1},q_{2},j}:=\sum _{i_{1}=2}^{q_{1}}\sum _ {i_ {2} = 0} ^ {q_ {2}} \ suma _ {h_ {1} = 1} ^ {i_ {1} -1} \ suma _ {h_ {2} = 0} ^ {i_ { 2}}&\sum _{p_{1}=0}^{q_{1}-i_{1}}\sum _{{p_{2}}=0}^{q_{2}-i_{2 }}\ \sum _{m_{1}=0}^{p_{1}+p_{2}}\ \sum _{{m_{2}}=0}^{q_{1}-i_{1 }-p_{1}+q_{2}-i_{2}-p_{2}}\\&{\Bigg (}{{\frac {S_{s}^{p_{1},p_{2} ,m_{1}}{\big (}\sigma _{s}^{h_{1},h_{2},j}{\big )}}{({m_{1}}+1)!} }{\frac {S_{s}^{q_{1}-i_{1}-p_{1},q_{2}-i_{2}-p_{2},m_{2}}{\big ( }\sigma _{s}^{i_{1}-h_{1},i_{2}-h_{2},j}{\big )}}{({m_{2}}+1)!} }}\\&\qquad \qquad +{\frac {{\big [}S_{s}^{p_{1},p_{2},m_{1}}{\big (}\sigma _{s }^{i_{1}-h_{1},i_{2}-h_{2},j}{\big )},S_{s}^{q_{1}-i_{1}-p_{1 },q_{2}-i_{2}-p_{2},m_{2}}{\big (}\sigma _{s}^{h_{1},h_{2},j}{\big )}{\big ]}}{({m_{1}}+{m_{2}}+2)({m_{1}}+1)!{m_{2}}!}}{\Bigg ) },\end{alineado}}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
y con los operadores S definidos como
![{\displaystyle {\begin{aligned}S_{s}^{r-1,nr,0}(A)&:={\begin{casos}A&{\text{if }}r=n=1,\ \0&{\text{de lo contrario}},\end{cases}}\\S_{s}^{r-1,nr,i}(A)&:=\sum _{\begin{array}{c} (j_{1},k_{1}),\dots ,(j_{i},k_{i})\in \mathbb {N} _{0}^{2}\\j_{1}+\cdots +j_{i}=r-1\\k_{1}+\cdots +k_{i}=nr\end{array}}{\big [}Y_{s}^{(j_{1},k_{ 1})},{\big [}\dots ,{\big [}Y_{s}^{(j_{i},k_{i})},A_{s}{\big ]}\dots {\ grande ]}{\big ]}\\&=\sum _{\begin{array}{c}(j_{1},k_{1}),\dots ,(j_{i},k_{i}) \in \mathbb {N} _{0}^{2}\\j_{1}+\cdots +j_{i}=r-1\\k_{1}+\cdots k_{i}=nr\end {matriz}}\operatorname {ad} _{Y_{s}^{(j_{1},k_{1})}}\circ \cdots \circ \operatorname {ad} _{Y_{s}^{( j_{i},k_{i})}}(A_{s}),\qquad i\in \mathbb {N}.\end{aligned}}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Aplicaciones
Desde la década de 1960, la expansión de Magnus se ha aplicado con éxito como herramienta perturbativa en numerosas áreas de la física y la química, desde la física atómica y molecular hasta la resonancia magnética nuclear [3] y la electrodinámica cuántica . [4] También se ha utilizado desde 1998 como herramienta para construir algoritmos prácticos para la integración numérica de ecuaciones diferenciales lineales matriciales. Como heredan de la expansión de Magnus la preservación de los rasgos cualitativos del problema, los esquemas correspondientes son ejemplos prototípicos de integradores numéricos geométricos .
Ver también
Notas
- ^ Kamm, Pagliarani y Pascucci 2021
- ^ Kamm, Pagliarani y Pascucci 2021, teorema 1.1
- ^ Haeberlen, U.; Waugh, JS (1968). "Efectos de promedio coherente en resonancia magnética". Física. Rdo . 175 (2): 453–467. Código bibliográfico : 1968PhRv..175..453H. doi : 10.1103/PhysRev.175.453.
- ^ Angaroni, Fabrizio; Benenti, Giuliano; Strini, Giuliano (2018). "Aplicaciones de las expansiones de Picard y Magnus al modelo Rabi". La revista física europea D. 72 (10): 188. arXiv : 1802.08897 . Código Bib : 2018EPJD...72..188A. doi :10.1140/epjd/e2018-90190-y.(Ver modelo Rabi ).
Referencias
- Magnus, W. (1954). "Sobre la solución exponencial de ecuaciones diferenciales para un operador lineal". Com. Pura aplicación. Matemáticas . VII (4): 649–673. doi :10.1002/cpa.3160070404.
- Blanes, S.; Casas, F.; Oteo, JA; Ros, J. (1998). "Expansiones de Magnus y Fer para ecuaciones diferenciales matriciales: el problema de la convergencia". J. Física. R: Matemáticas. Gen. 31 (1): 259–268. Código Bib : 1998JPhA...31..259B. doi :10.1088/0305-4470/31/1/023.
- Iserles, A.; Norsett, SP (1999). "Sobre la solución de ecuaciones diferenciales lineales en grupos de Lie". Fil. Trans. R. Soc. Londres. A . 357 (1754): 983–1019. Código Bib : 1999RSPTA.357..983I. CiteSeerX 10.1.1.15.4614 . doi :10.1098/rsta.1999.0362. S2CID 90949835.
- Blanes, S.; Casas, F.; Oteo, JA; Ros, J. (2009). "La expansión Magnus y algunas de sus aplicaciones". Física. Representante . 470 (5–6): 151–238. arXiv : 0810.5488 . Código Bib : 2009PhR...470..151B. doi :10.1016/j.physrep.2008.11.001. S2CID 115177329.
- Kamm, K.; Pagliarani, S.; Pascucci, A. (2021). "Sobre la expansión estocástica Magnus y su aplicación a las SPDE". Revista de Computación Científica . 89 (3): 56. arXiv : 2001.01098 . doi :10.1007/s10915-021-01633-6. S2CID 211259118.
enlaces externos
- "Expansiones de Magnus". YouTube . 25 de diciembre de 2020. "Melvin Leok | Departamento de Matemáticas". UCSD
- "Fer expansiones". YouTube . 25 de diciembre de 2020.
- "Motivación para las expansiones de Magnus y Fer". YouTube . 25 de diciembre de 2020.