En matemáticas , una ecuación diferencial lineal es una ecuación diferencial que se define por un polinomio lineal en la función desconocida y sus derivadas, es decir una ecuación de la forma donde a 0 ( x ) , ..., a n ( x ) y b ( x ) son funciones diferenciables arbitrarias que no necesitan ser lineales, e y ′, ..., y ( n ) son las derivadas sucesivas de una función desconocida y de la variable x .
Una ecuación de este tipo es una ecuación diferencial ordinaria (EDO). Una ecuación diferencial lineal también puede ser una ecuación diferencial parcial lineal (EDP), si la función desconocida depende de varias variables y las derivadas que aparecen en la ecuación son derivadas parciales .
Una ecuación diferencial lineal o un sistema de ecuaciones lineales tales que las ecuaciones homogéneas asociadas tienen coeficientes constantes pueden resolverse por cuadratura , lo que significa que las soluciones pueden expresarse en términos de integrales . Esto también es cierto para una ecuación lineal de orden uno, con coeficientes no constantes. Una ecuación de orden dos o superior con coeficientes no constantes no puede, en general, resolverse por cuadratura. Para el orden dos, el algoritmo de Kovacic permite decidir si hay soluciones en términos de integrales y calcularlas si las hay.
Las soluciones de ecuaciones diferenciales lineales homogéneas con coeficientes polinómicos se denominan funciones holonómicas . Esta clase de funciones es estable bajo sumas, productos, diferenciación , integración , y contiene muchas funciones usuales y funciones especiales tales como función exponencial , logaritmo , seno , coseno , funciones trigonométricas inversas , función de error , funciones de Bessel y funciones hipergeométricas . Su representación por la ecuación diferencial definitoria y condiciones iniciales permite hacer algorítmicamente (sobre estas funciones) la mayoría de las operaciones de cálculo , tales como cálculo de antiderivadas , límites , expansión asintótica , y evaluación numérica a cualquier precisión, con un límite de error certificado.
El orden más alto de derivación que aparece en una ecuación diferencial (lineal) es el orden de la ecuación. El término b ( x ) , que no depende de la función desconocida y sus derivadas, a veces se denomina término constante de la ecuación (por analogía con las ecuaciones algebraicas ), incluso cuando este término es una función no constante. Si el término constante es la función cero , entonces se dice que la ecuación diferencial es homogénea , ya que es un polinomio homogéneo en la función desconocida y sus derivadas. La ecuación obtenida al reemplazar, en una ecuación diferencial lineal, el término constante por la función cero es laecuación homogénea asociada . Una ecuación diferencial tienecoeficientes constantessi sóloaparecenfunciones constantes
ALa solución de una ecuación diferencial es una función que satisface la ecuación. Las soluciones de una ecuación diferencial lineal homogénea forman unespacio vectorial. En el caso ordinario, este espacio vectorial tiene una dimensión finita, igual al orden de la ecuación. Todas las soluciones de una ecuación diferencial lineal se encuentran sumando a una solución particular cualquier solución de la ecuación homogénea asociada.
Un operador diferencial básico de orden i es una aplicación que asigna cualquier función diferenciable a su derivada i ésima o, en el caso de varias variables, a una de sus derivadas parciales de orden i . Se denota comúnmente en el caso de funciones univariadas y en el caso de funciones de n variables. Los operadores diferenciales básicos incluyen la derivada de orden 0, que es la aplicación identidad.
Un operador diferencial lineal (abreviado, en este artículo, como operador lineal o, simplemente, operador ) es una combinación lineal de operadores diferenciales básicos, con funciones diferenciables como coeficientes. En el caso univariante, un operador lineal tiene, por tanto, la forma [1] donde a 0 ( x ), ..., a n ( x ) son funciones diferenciables, y el entero no negativo n es el orden del operador (si a n ( x ) no es la función cero ).
Sea L un operador diferencial lineal. La aplicación de L a una función f se suele denotar como Lf o Lf ( X ) , si se necesita especificar la variable (esto no debe confundirse con una multiplicación). Un operador diferencial lineal es un operador lineal , ya que convierte sumas en sumas y el producto por un escalar en el producto por el mismo escalar.
Como la suma de dos operadores lineales es un operador lineal, al igual que el producto (a la izquierda) de un operador lineal por una función diferenciable, los operadores diferenciales lineales forman un espacio vectorial sobre los números reales o sobre los números complejos (según la naturaleza de las funciones que se consideren). Forman también un módulo libre sobre el anillo de funciones diferenciables.
El lenguaje de operadores permite una escritura compacta para ecuaciones diferenciables: si es un operador diferencial lineal, entonces la ecuación puede reescribirse.
Puede haber varias variantes de esta notación; en particular, la variable de diferenciación puede aparecer explícitamente o no en y y en el lado derecho de la ecuación, como Ly ( x ) = b ( x ) o Ly = b .
El núcleo de un operador diferencial lineal es su núcleo como aplicación lineal, es decir, el espacio vectorial de las soluciones de la ecuación diferencial (homogénea) Ly = 0 .
En el caso de un operador diferencial ordinario de orden n , el teorema de existencia de Carathéodory implica que, en condiciones muy suaves, el núcleo de L es un espacio vectorial de dimensión n , y que las soluciones de la ecuación Ly ( x ) = b ( x ) tienen la forma donde c 1 , ..., c n son números arbitrarios. Típicamente, las hipótesis del teorema de Carathéodory se satisfacen en un intervalo I , si las funciones b , a 0 , ..., a n son continuas en I , y hay un número real positivo k tal que | a n ( x ) | > k para cada x en I .
Una ecuación diferencial lineal homogénea tiene coeficientes constantes si tiene la forma donde a 1 , ..., a n son números (reales o complejos). En otras palabras, tiene coeficientes constantes si está definida por un operador lineal con coeficientes constantes.
El estudio de estas ecuaciones diferenciales con coeficientes constantes se remonta a Leonhard Euler , quien introdujo la función exponencial e x , que es la única solución de la ecuación f ′ = f tal que f (0) = 1 . De ello se deduce que la derivada n ésima de e cx es c n e cx , y esto permite resolver ecuaciones diferenciales lineales homogéneas con bastante facilidad.
Sea una ecuación diferencial lineal homogénea con coeficientes constantes (es decir, a 0 , ..., a n son números reales o complejos).
Buscar soluciones de esta ecuación que tengan la forma e αx es equivalente a buscar las constantes α tales que Factorizar e αx (que nunca es cero), muestra que α debe ser una raíz del polinomio característico de la ecuación diferencial, que es el lado izquierdo de la ecuación característica.
Cuando estas raíces son todas distintas , se tienen n soluciones distintas que no son necesariamente reales, incluso si los coeficientes de la ecuación son reales. Se puede demostrar que estas soluciones son linealmente independientes , considerando el determinante de Vandermonde de los valores de estas soluciones en x = 0, ..., n – 1. Juntos forman una base del espacio vectorial de soluciones de la ecuación diferencial (es decir, el núcleo del operador diferencial).
En el caso en que el polinomio característico tenga solo raíces simples , lo anterior proporciona una base completa del espacio vectorial de soluciones. En el caso de raíces múltiples , se necesitan más soluciones linealmente independientes para tener una base. Estas tienen la forma donde k es un entero no negativo, α es una raíz del polinomio característico de multiplicidad m y k < m . Para demostrar que estas funciones son soluciones, se puede observar que si α es una raíz del polinomio característico de multiplicidad m , el polinomio característico puede factorizarse como P ( t )( t − α ) m . Por lo tanto, aplicar el operador diferencial de la ecuación es equivalente a aplicar primero m por el operador y luego el operador que tiene a P como polinomio característico. Por el teorema del desplazamiento exponencial ,
y por lo tanto se obtiene cero después de k + 1 aplicación de .
Como, por el teorema fundamental del álgebra , la suma de las multiplicidades de las raíces de un polinomio es igual al grado del polinomio, el número de soluciones anteriores es igual al orden de la ecuación diferencial y estas soluciones forman una base del espacio vectorial de las soluciones.
En el caso común en que los coeficientes de la ecuación son reales, generalmente es más conveniente tener una base de las soluciones que consiste en funciones de valor real . Dicha base se puede obtener a partir de la base anterior observando que, si a + ib es una raíz del polinomio característico, entonces a – ib es también una raíz, de la misma multiplicidad. Por lo tanto, una base real se obtiene utilizando la fórmula de Euler , y reemplazando y por y .
Se puede escribir una ecuación diferencial lineal homogénea de segundo orden y su polinomio característico es
Si a y b son reales , hay tres casos para las soluciones, dependiendo del discriminante D = a 2 − 4 b . En los tres casos, la solución general depende de dos constantes arbitrarias c 1 y c 2 .
Para hallar la solución y ( x ) que satisface y (0) = d 1 e y ′(0) = d 2 , se igualan los valores de la solución general anterior en 0 y su derivada allí a d 1 y d 2 , respectivamente. Esto da como resultado un sistema lineal de dos ecuaciones lineales en las dos incógnitas c 1 y c 2 . Al resolver este sistema se obtiene la solución para el llamado problema de Cauchy , en el que se especifican los valores en 0 para la solución de la DEQ y su derivada.
Una ecuación no homogénea de orden n con coeficientes constantes puede escribirse donde a 1 , ..., a n son números reales o complejos, f es una función dada de x , e y es la función desconocida (para simplificar, " ( x ) " se omitirá en lo sucesivo).
Existen varios métodos para resolver una ecuación de este tipo. El mejor método depende de la naturaleza de la función f que hace que la ecuación no sea homogénea. Si f es una combinación lineal de funciones exponenciales y sinusoidales, entonces se puede utilizar la fórmula de respuesta exponencial . Si, de forma más general, f es una combinación lineal de funciones de la forma x n e ax , x n cos( ax ) y x n sin( ax ) , donde n es un entero no negativo y a una constante (que no necesita ser la misma en cada término), entonces se puede utilizar el método de coeficientes indeterminados . De forma aún más general, el método del aniquilador se aplica cuando f satisface una ecuación diferencial lineal homogénea, típicamente, una función holonómica .
El método más general es la variación de constantes , que se presenta aquí.
La solución general de la ecuación homogénea asociada es donde ( y 1 , ..., y n ) es una base del espacio vectorial de las soluciones y u 1 , ..., u n son constantes arbitrarias. El método de variación de constantes toma su nombre de la siguiente idea. En lugar de considerar u 1 , ..., u n como constantes, se pueden considerar como funciones desconocidas que deben determinarse para hacer de y una solución de la ecuación no homogénea. Para este propósito, se agregan las restricciones que implican (por regla del producto e inducción ) para i = 1, ..., n – 1 , y
Reemplazando en la ecuación original y y sus derivadas por estas expresiones, y utilizando el hecho de que y 1 , ..., y n son soluciones de la ecuación homogénea original, se obtiene
Esta ecuación y las anteriores con 0 como lado izquierdo forman un sistema de n ecuaciones lineales en u ′ 1 , ..., u ′ n cuyos coeficientes son funciones conocidas ( f , y i , y sus derivadas). Este sistema se puede resolver mediante cualquier método de álgebra lineal . El cálculo de antiderivadas da u 1 , ..., u n , y luego y = u 1 y 1 + ⋯ + u n y n .
Como las antiderivadas se definen hasta la adición de una constante, se encuentra nuevamente que la solución general de la ecuación no homogénea es la suma de una solución arbitraria y la solución general de la ecuación homogénea asociada.
La forma general de una ecuación diferencial ordinaria lineal de orden 1, después de dividir el coeficiente de y ′( x ) , es:
Si la ecuación es homogénea, es decir, g ( x ) = 0 , se puede reescribir e integrar: donde k es una constante arbitraria de integración y es cualquier antiderivada de f . Por lo tanto, la solución general de la ecuación homogénea es donde c = e k es una constante arbitraria.
Para la ecuación general no homogénea, es útil multiplicar ambos lados de la ecuación por el recíproco e − F de una solución de la ecuación homogénea. [2] Esto da Como la regla del producto permite reescribir la ecuación como Por lo tanto, la solución general es donde c es una constante de integración y F es cualquier antiderivada de f (cambiando las cantidades de la antiderivada para cambiar la constante de integración).
Resolviendo la ecuación La ecuación homogénea asociada da que es
Dividiendo la ecuación original por una de estas soluciones se obtiene Es decir y Para la condición inicial se obtiene la solución particular
Un sistema de ecuaciones diferenciales lineales consta de varias ecuaciones diferenciales lineales que involucran varias funciones desconocidas. En general, se restringe el estudio a sistemas tales que el número de funciones desconocidas es igual al número de ecuaciones.
Una ecuación diferencial ordinaria lineal arbitraria y un sistema de tales ecuaciones se pueden convertir en un sistema de ecuaciones diferenciales lineales de primer orden agregando variables para todas las derivadas excepto las de orden más alto. Es decir, si aparecen en una ecuación, se pueden reemplazar por nuevas funciones desconocidas que deben satisfacer las ecuaciones y para i = 1 , ..., k – 1 .
Un sistema lineal de primer orden, que tiene n funciones desconocidas y n ecuaciones diferenciales, normalmente puede resolverse para las derivadas de las funciones desconocidas. Si no es el caso, se trata de un sistema diferencial-algebraico , y esta es una teoría diferente. Por lo tanto, los sistemas que se consideran aquí tienen la forma donde y son funciones de x . En notación matricial, este sistema puede escribirse (omitiendo " ( x ) ")
El método de resolución es similar al de una ecuación diferencial lineal de primer orden, pero con complicaciones derivadas de la no conmutatividad de la multiplicación de matrices.
Sea la ecuación homogénea asociada a la ecuación matricial anterior. Sus soluciones forman un espacio vectorial de dimensión n , y son por tanto las columnas de una matriz cuadrada de funciones , cuyo determinante no es la función cero. Si n = 1 , o A es una matriz de constantes, o, más generalmente, si A conmuta con su antiderivada , entonces se puede elegir que U sea igual a la exponencial de B . De hecho, en estos casos, se tiene En el caso general no hay una solución en forma cerrada para la ecuación homogénea, y hay que utilizar un método numérico o un método de aproximación como la expansión de Magnus .
Conociendo la matriz U , la solución general de la ecuación no homogénea es donde la matriz columna es una constante arbitraria de integración .
Si se dan las condiciones iniciales como la solución que satisface estas condiciones iniciales es
Una ecuación ordinaria lineal de orden uno con coeficientes variables puede resolverse por cuadratura , lo que significa que las soluciones pueden expresarse en términos de integrales . Este no es el caso para las de orden al menos dos. Este es el principal resultado de la teoría de Picard-Vessiot que fue iniciada por Émile Picard y Ernest Vessiot , y cuyos desarrollos recientes se denominan teoría diferencial de Galois .
La imposibilidad de resolver por cuadratura puede compararse con el teorema de Abel-Ruffini , que establece que una ecuación algebraica de grado al menos cinco no puede, en general, resolverse por radicales. Esta analogía se extiende a los métodos de demostración y motiva la denominación de teoría diferencial de Galois .
De manera similar al caso algebraico, la teoría permite decidir qué ecuaciones pueden resolverse por cuadratura y, si es posible, resolverlas. Sin embargo, para ambas teorías, los cálculos necesarios son extremadamente difíciles, incluso con los ordenadores más potentes.
Sin embargo, el caso de orden dos con coeficientes racionales ha sido completamente resuelto por el algoritmo de Kovacic .
Las ecuaciones de Cauchy-Euler son ejemplos de ecuaciones de cualquier orden, con coeficientes variables, que pueden resolverse explícitamente. Se trata de ecuaciones de la forma donde son coeficientes constantes.
Una función holonómica , también llamada función D-finita , es una función que es una solución de una ecuación diferencial lineal homogénea con coeficientes polinomiales.
La mayoría de las funciones que se consideran comúnmente en matemáticas son holonómicas o cocientes de funciones holonómicas. De hecho, las funciones holonómicas incluyen polinomios , funciones algebraicas , logaritmos , funciones exponenciales , seno , coseno , seno hiperbólico , coseno hiperbólico , funciones trigonométricas inversas e hiperbólicas inversas , y muchas funciones especiales como las funciones de Bessel y las funciones hipergeométricas .
Las funciones holonómicas tienen varias propiedades de clausura ; en particular, las sumas, productos, derivadas e integrales de funciones holonómicas son holonómicas. Además, estas propiedades de clausura son efectivas, en el sentido de que existen algoritmos para calcular la ecuación diferencial del resultado de cualquiera de estas operaciones, conociendo las ecuaciones diferenciales de la entrada. [3]
La utilidad del concepto de funciones holonómicas resulta del teorema de Zeilberger, que se detalla a continuación. [3]
Una secuencia holonómica es una secuencia de números que puede generarse mediante una relación de recurrencia con coeficientes polinómicos. Los coeficientes de la serie de Taylor en un punto de una función holonómica forman una secuencia holonómica. Por el contrario, si la secuencia de los coeficientes de una serie de potencias es holonómica, entonces la serie define una función holonómica (incluso si el radio de convergencia es cero). Existen algoritmos eficientes para ambas conversiones, es decir, para calcular la relación de recurrencia a partir de la ecuación diferencial, y viceversa . [3]
De ello se deduce que, si se representan (en un ordenador) funciones holonómicas por sus ecuaciones diferenciales definitorias y condiciones iniciales, la mayoría de las operaciones de cálculo se pueden realizar automáticamente sobre estas funciones, como la derivada , la integral indefinida y definida , el cálculo rápido de series de Taylor (gracias a la relación de recurrencia sobre sus coeficientes), la evaluación con alta precisión con acotación certificada del error de aproximación, límites , localización de singularidades , comportamiento asintótico en el infinito y cerca de singularidades, prueba de identidades, etc. [4]