En matemáticas (incluyendo combinatoria , álgebra lineal y sistemas dinámicos ), una recurrencia lineal con coeficientes constantes [1] : cap. 17 [2] : cap. 10 (también conocida como relación de recurrencia lineal o ecuación de diferencia lineal ) iguala a 0 un polinomio que es lineal en las diversas iteraciones de una variable , es decir, en los valores de los elementos de una secuencia . La linealidad del polinomio significa que cada uno de sus términos tiene grado 0 o 1. Una recurrencia lineal denota la evolución de alguna variable a lo largo del tiempo, con el período de tiempo actual o momento discreto en el tiempo denotado como t , un período anterior denotado como t − 1 , un período posterior como t + 1 , etc.
La solución de una ecuación de este tipo es una función de t , y no de ningún valor de iteración, dando el valor de la iteración en cualquier instante. Para hallar la solución es necesario conocer los valores específicos (conocidos como condiciones iniciales ) de n de las iteraciones, y normalmente estos son los n iteraciones más antiguas. Se dice que la ecuación o su variable es estable si a partir de cualquier conjunto de condiciones iniciales existe el límite de la variable a medida que el tiempo tiende al infinito; este límite se denomina estado estacionario .
Las ecuaciones diferenciales se utilizan en diversos contextos, como en economía, para modelar la evolución a través del tiempo de variables como el producto interno bruto , la tasa de inflación , el tipo de cambio , etc. Se utilizan para modelar dichas series temporales porque los valores de estas variables solo se miden en intervalos discretos. En aplicaciones econométricas , las ecuaciones diferenciales lineales se modelan con términos estocásticos en forma de modelos autorregresivos (AR) y en modelos como los modelos de autorregresión vectorial (VAR) y de promedio móvil autorregresivo (ARMA) que combinan AR con otras características.
Una recurrencia lineal con coeficientes constantes es una ecuación de la siguiente forma, escrita en términos de los parámetros a 1 , ..., a n y b :
o equivalentemente como
El entero positivo se denomina orden de recurrencia y denota el mayor desfase temporal entre iteraciones. La ecuación se denomina homogénea si b = 0 y no homogénea si b ≠ 0 .
Si la ecuación es homogénea, los coeficientes determinan el polinomio característico (también "polinomio auxiliar" o "polinomio compañero").
cuyas raíces juegan un papel crucial en la búsqueda y comprensión de las secuencias que satisfacen la recurrencia.
Si b ≠ 0 , la ecuación
se dice que no es homogénea . Para resolver esta ecuación es conveniente convertirla a forma homogénea, sin término constante. Esto se hace encontrando primero el valor de estado estable de la ecuación —un valor y * tal que, si n iteraciones sucesivas tuvieran este valor, también lo tendrían todos los valores futuros. Este valor se encuentra igualando todos los valores de y a y * en la ecuación diferencial y resolviendo, obteniendo así
suponiendo que el denominador no es 0. Si es cero, el estado estacionario no existe.
Dado el estado estacionario, la ecuación diferencial se puede reescribir en términos de desviaciones de los iterados con respecto al estado estacionario, como
que no tiene término constante, y que puede escribirse más sucintamente como
donde x es igual a y − y * . Esta es la forma homogénea.
Si no hay estado estacionario, la ecuación diferencial
se puede combinar con su forma equivalente
para obtener (resolviendo ambos para b )
en el que los términos iguales pueden combinarse para dar una ecuación homogénea de un orden superior al original.
Las raíces del polinomio característico desempeñan un papel crucial en la búsqueda y comprensión de las secuencias que satisfacen la recurrencia. Si hay raíces distintas , entonces cada solución de la recurrencia toma la forma donde los coeficientes se determinan para ajustarse a las condiciones iniciales de la recurrencia. Cuando las mismas raíces aparecen varias veces, los términos de esta fórmula correspondientes a la segunda y posteriores apariciones de la misma raíz se multiplican por potencias crecientes de . Por ejemplo, si el polinomio característico se puede factorizar como , con la misma raíz apareciendo tres veces, entonces la solución tomaría la forma [3]
Para el orden 1, la recurrencia tiene la solución con y la solución más general es con . El polinomio característico igualado a cero (la ecuación característica ) es simplemente .
Las soluciones a estas relaciones de recurrencia de orden superior se encuentran por medios sistemáticos, a menudo utilizando el hecho de que es una solución para la recurrencia exactamente cuando es una raíz del polinomio característico. Esto se puede abordar directamente o utilizando funciones generadoras ( series de potencias formales ) o matrices.
Consideremos, por ejemplo, una relación de recurrencia de la forma
¿Cuándo tiene una solución de la misma forma general que ? Sustituyendo esta suposición ( ansatz ) en la relación de recurrencia, encontramos que debe ser cierto para todos los .
Dividiendo por , obtenemos que todas estas ecuaciones se reducen a lo mismo:
que es la ecuación característica de la relación de recurrencia. Resolvemos para obtener las dos raíces , : estas raíces se conocen como raíces características o valores propios de la ecuación característica. Se obtienen diferentes soluciones dependiendo de la naturaleza de las raíces: Si estas raíces son distintas, tenemos la solución general
mientras que si son idénticos (cuando ), tenemos
Esta es la solución más general; las dos constantes y pueden elegirse en función de dos condiciones iniciales dadas y para producir una solución específica.
En el caso de valores propios complejos (que también dan lugar a valores complejos para los parámetros de la solución y ), el uso de números complejos se puede eliminar reescribiendo la solución en forma trigonométrica. En este caso, podemos escribir los valores propios como Entonces se puede demostrar que
se puede reescribir como [4] : 576–585
dónde
Aquí y (o equivalentemente, y ) son constantes reales que dependen de las condiciones iniciales.
Se puede simplificar la solución dada anteriormente como
donde y son las condiciones iniciales y
De esta manera no es necesario resolver para y .
En todos los casos (valores propios reales distintos, valores propios reales duplicados y valores propios complejos conjugados), la ecuación es estable (es decir, la variable converge a un valor fijo [específicamente, cero]) si y solo si ambos valores propios son menores que uno en valor absoluto . En este caso de segundo orden, se puede demostrar [5] que esta condición sobre los valores propios es equivalente a , que es equivalente a y .
Resolviendo la ecuación homogénea
implica primero resolver su polinomio característico
para sus raíces características λ 1 , ..., λ n . Estas raíces se pueden resolver algebraicamente si n ≤ 4 , pero no necesariamente en caso contrario . Si la solución se va a utilizar numéricamente, todas las raíces de esta ecuación característica se pueden encontrar por métodos numéricos . Sin embargo, para su uso en un contexto teórico puede ser que la única información requerida sobre las raíces sea si alguna de ellas es mayor o igual a 1 en valor absoluto .
Puede ser que todas las raíces sean reales o en cambio puede haber algunas que sean números complejos . En este último caso, todas las raíces complejas vienen en pares complejos conjugados .
Si todas las raíces características son distintas, la solución de la recurrencia lineal homogénea
se puede escribir en términos de las raíces características como
donde los coeficientes c i se pueden encontrar invocando las condiciones iniciales. Específicamente, para cada período de tiempo para el cual se conoce un valor iterativo, este valor y su valor correspondiente de t se pueden sustituir en la ecuación de solución para obtener una ecuación lineal en los n parámetros aún desconocidos; n tales ecuaciones, una para cada condición inicial, se pueden resolver simultáneamente para los n valores de los parámetros. Si todas las raíces características son reales, entonces todos los valores de los coeficientes c i también serán reales; pero con raíces complejas no reales, en general algunos de estos coeficientes también serán no reales.
Si hay raíces complejas, se presentan en pares conjugados y lo mismo ocurre con los términos complejos en la ecuación de solución. Si dos de estos términos complejos son c j λyo
y c j +1 λtj +
1, las raíces λ j se pueden escribir como
donde i es la unidad imaginaria y M es el módulo de las raíces:
Entonces los dos términos complejos en la ecuación de solución se pueden escribir como
donde θ es el ángulo cuyo coseno es alfa/METRO y cuyo seno es β/METRO ; La última igualdad aquí hizo uso de la fórmula de De Moivre .
Ahora bien, el proceso de hallar los coeficientes c j y c j +1 garantiza que también sean conjugados complejos, que pueden escribirse como γ ± δi . Al utilizar esto en la última ecuación se obtiene esta expresión para los dos términos complejos en la ecuación de solución:
que también se puede escribir como
donde ψ es el ángulo cuyo coseno es gamma/√ γ2 + δ2 y cuyo seno es del/√ γ2 + δ2 .
Dependiendo de las condiciones iniciales, incluso con todas las raíces reales, las iteraciones pueden experimentar una tendencia transitoria a ir por encima y por debajo del valor de estado estable. Pero la verdadera ciclicidad implica una tendencia permanente a fluctuar, y esto ocurre si hay al menos un par de raíces características conjugadas complejas. Esto se puede ver en la forma trigonométrica de su contribución a la ecuación de solución, que involucra cos θt y sen θt .
En el caso de segundo orden, si las dos raíces son idénticas ( λ 1 = λ 2 ), ambas pueden denotarse como λ y una solución puede tener la forma
Un método de solución alternativo implica convertir la ecuación diferencial de orden n en una ecuación diferencial matricial de primer orden . Esto se logra escribiendo w 1, t = y t , w 2, t = y t −1 = w 1, t −1 , w 3, t = y t −2 = w 2, t −1 , y así sucesivamente. Entonces, la ecuación original de orden n
se pueden reemplazar por las siguientes n ecuaciones de primer orden:
Definiendo el vector w i como
Esto se puede poner en forma de matriz como
Aquí A es una matriz n × n en la que la primera fila contiene un 1 , ..., un n y todas las demás filas tienen un solo 1 y todos los demás elementos son 0, y b es un vector columna con el primer elemento b y el resto de sus elementos son 0.
Esta ecuación matricial se puede resolver utilizando los métodos del artículo Ecuación diferencial de matrices . En el caso homogéneo, y i es un parapermanente de una matriz triangular inferior [6]
La recurrencia
se puede resolver utilizando la teoría de funciones generadoras . Primero, escribimos . La recurrencia es entonces equivalente a la siguiente ecuación de función generadora:
donde es un polinomio de grado que corrige como máximo los términos iniciales. A partir de esta ecuación podemos resolver para obtener
En otras palabras, sin preocuparse por los coeficientes exactos, se puede expresar como una función racional.
La forma cerrada se puede derivar entonces mediante la descomposición en fracciones parciales . Específicamente, si la función generadora se escribe como
entonces el polinomio determina el conjunto inicial de correcciones , el denominador determina el término exponencial y el grado junto con el numerador determinan el coeficiente del polinomio .
El método para resolver ecuaciones diferenciales lineales es similar al método anterior: la "conjetura inteligente" ( ansatz ) para ecuaciones diferenciales lineales con coeficientes constantes es donde es un número complejo que se determina sustituyendo la conjetura en la ecuación diferencial.
Esto no es una coincidencia. Considerando la serie de Taylor de la solución de una ecuación diferencial lineal:
Se puede observar que los coeficientes de la serie están dados por la derivada -ésima de evaluada en el punto . La ecuación diferencial proporciona una ecuación diferencial lineal que relaciona estos coeficientes.
Esta equivalencia se puede utilizar para resolver rápidamente la relación de recurrencia de los coeficientes en la solución de la serie de potencias de una ecuación diferencial lineal.
La regla general (para ecuaciones en las que el polinomio que multiplica el primer término no es cero en cero) es que:
y de manera más general
Ejemplo: La relación de recurrencia para los coeficientes de la serie de Taylor de la ecuación:
viene dado por
o
Este ejemplo muestra cómo los problemas que generalmente se resuelven utilizando el método de solución de series de potencias que se enseña en las clases de ecuaciones diferenciales normales se pueden resolver de una manera mucho más sencilla.
Ejemplo: La ecuación diferencial
tiene solucion
La conversión de la ecuación diferencial a una ecuación diferencial de los coeficientes de Taylor es
Es fácil ver que la derivada -ésima de evaluada en es .
Ciertas ecuaciones diferenciales (en particular, ecuaciones diferenciales lineales con coeficientes constantes ) se pueden resolver mediante transformadas z . Las transformadas z son una clase de transformadas integrales que permiten manipulaciones algebraicas más convenientes y soluciones más sencillas. Hay casos en los que obtener una solución directa sería casi imposible, pero resolver el problema mediante una transformada integral elegida cuidadosamente es sencillo.
En la ecuación de solución
Un término con raíces características reales converge a 0 a medida que t crece indefinidamente si el valor absoluto de la raíz característica es menor que 1. Si el valor absoluto es igual a 1, el término permanecerá constante a medida que t crece si la raíz es +1, pero fluctuará entre dos valores si la raíz es −1. Si el valor absoluto de la raíz es mayor que 1, el término se hará cada vez más grande con el tiempo. Un par de términos con raíces características conjugadas complejas convergerán a 0 con fluctuaciones de amortiguamiento si el valor absoluto del módulo M de las raíces es menor que 1; si el módulo es igual a 1, persistirán las fluctuaciones de amplitud constante en los términos combinados; y si el módulo es mayor que 1, los términos combinados mostrarán fluctuaciones de magnitud cada vez mayor.
Por lo tanto, la variable evolutiva x convergerá a 0 si todas las raíces características tienen magnitud menor que 1.
Si la raíz más grande tiene valor absoluto 1, no habrá convergencia a 0 ni divergencia a infinito. Si todas las raíces con magnitud 1 son reales y positivas, x convergerá a la suma de sus términos constantes c i ; a diferencia del caso estable, este valor convergente depende de las condiciones iniciales; diferentes puntos de partida conducen a diferentes puntos en el largo plazo. Si alguna raíz es −1, su término contribuirá a fluctuaciones permanentes entre dos valores. Si alguna de las raíces de magnitud unitaria es compleja, persistirán las fluctuaciones de amplitud constante de x .
Finalmente, si alguna raíz característica tiene una magnitud mayor que 1, entonces x divergirá hacia el infinito a medida que el tiempo tiende hacia el infinito, o fluctuará entre valores positivos y negativos cada vez más grandes.
Un teorema de Issai Schur establece que todas las raíces tienen magnitud menor que 1 (el caso estable) si y solo si una cadena particular de determinantes son todos positivos. [2] : 247
Si una ecuación diferencial lineal no homogénea se ha convertido a una forma homogénea que se ha analizado como se indicó anteriormente, entonces las propiedades de estabilidad y ciclicidad de la ecuación no homogénea original serán las mismas que las de la forma homogénea derivada, y la convergencia en el caso estable será al valor de estado estacionario y * en lugar de a 0.