En matemáticas , una ecuación diferencial ordinaria ( EDO ) es una ecuación diferencial (ED) que depende de una sola variable independiente . Al igual que con otras ED, sus incógnitas consisten en una (o más) funciones e involucran las derivadas de esas funciones. [1] El término "ordinaria" se utiliza en contraste con las ecuaciones diferenciales parciales (EDP) que pueden ser con respecto a más de una variable independiente, [2] y, con menos frecuencia, en contraste con las ecuaciones diferenciales estocásticas (EDS) donde la progresión es aleatoria. [3]
Una ecuación diferencial lineal es una ecuación diferencial que se define por un polinomio lineal en la función desconocida y sus derivadas, es decir una ecuación de la forma
donde , ..., y son funciones diferenciables arbitrarias que no necesitan ser lineales, y son las derivadas sucesivas de la función desconocida y de la variable x . [4]
Entre las ecuaciones diferenciales ordinarias, las ecuaciones diferenciales lineales desempeñan un papel destacado por varias razones. La mayoría de las funciones elementales y especiales que se encuentran en física y matemáticas aplicadas son soluciones de ecuaciones diferenciales lineales (véase Función holonómica ). Cuando los fenómenos físicos se modelan con ecuaciones no lineales, generalmente se aproximan mediante ecuaciones diferenciales lineales para una solución más sencilla. Las pocas EDO no lineales que se pueden resolver explícitamente se resuelven generalmente transformando la ecuación en una EDO lineal equivalente (véase, por ejemplo, la ecuación de Riccati ). [5]
Algunas EDO se pueden resolver explícitamente en términos de funciones e integrales conocidas . Cuando esto no es posible, puede resultar útil la ecuación para calcular la serie de Taylor de las soluciones. En el caso de problemas aplicados, los métodos numéricos para ecuaciones diferenciales ordinarias pueden proporcionar una aproximación de la solución.
Las ecuaciones diferenciales ordinarias (EDO) surgen en muchos contextos de las matemáticas y las ciencias sociales y naturales . Las descripciones matemáticas del cambio utilizan diferenciales y derivadas. Diversas diferenciales, derivadas y funciones se relacionan a través de ecuaciones, de modo que una ecuación diferencial es un resultado que describe fenómenos que cambian dinámicamente, evolución y variación. A menudo, las cantidades se definen como la tasa de cambio de otras cantidades (por ejemplo, derivadas del desplazamiento con respecto al tiempo) o gradientes de cantidades, que es como entran en las ecuaciones diferenciales. [6]
Los campos matemáticos específicos incluyen la geometría y la mecánica analítica . Los campos científicos incluyen gran parte de la física y la astronomía (mecánica celeste), la meteorología (modelado del clima), la química (velocidades de reacción), [7] la biología (enfermedades infecciosas, variación genética), la ecología y el modelado de poblaciones (competencia poblacional), la economía (tendencias bursátiles, tasas de interés y cambios en los precios de equilibrio del mercado).
Muchos matemáticos han estudiado ecuaciones diferenciales y han contribuido a este campo, incluidos Newton , Leibniz , la familia Bernoulli , Riccati , Clairaut , d'Alembert y Euler .
Un ejemplo simple es la segunda ley del movimiento de Newton : la relación entre el desplazamiento x y el tiempo t de un objeto bajo la fuerza F , está dada por la ecuación diferencial
que restringe el movimiento de una partícula de masa constante m . En general, F es una función de la posición x ( t ) de la partícula en el tiempo t . La función desconocida x ( t ) aparece en ambos lados de la ecuación diferencial y se indica en la notación F ( x ( t )). [8] [9] [10] [11]
En lo que sigue, y es una variable dependiente que representa una función desconocida y = f ( x ) de la variable independiente x . La notación para la diferenciación varía según el autor y según qué notación sea más útil para la tarea en cuestión. En este contexto, la notación de Leibniz ( morir/Dx , d 2 años/dx2 , …, d n y/dxn ) es más útil para la diferenciación y la integración , mientras que la notación de Lagrange ( y ′, y ′′, …, y ( n ) ) es más útil para representar derivadas de orden superior de forma compacta, y la notación de Newton se utiliza a menudo en física para representar derivadas de orden bajo con respecto al tiempo.
Dado F , una función de x , y , y derivadas de y . Entonces una ecuación de la forma
se llama ecuación diferencial ordinaria explícita de orden n . [12] [13]
De manera más general, una ecuación diferencial ordinaria implícita de orden n toma la forma: [14]
Existen otras clasificaciones:
Varias ecuaciones diferenciales acopladas forman un sistema de ecuaciones. Si y es un vector cuyos elementos son funciones; y ( x ) = [ y 1 ( x ), y 2 ( x ),..., y m ( x )], y F es una función vectorial de y y sus derivadas, entonces
es un sistema explícito de ecuaciones diferenciales ordinarias de orden n y dimensión m . En forma de vector columna :
No son necesariamente lineales. El análogo implícito es:
donde 0 = (0, 0, ..., 0) es el vector cero . En forma matricial
Para un sistema de la forma , algunas fuentes también requieren que la matriz jacobiana sea no singular para poder llamarlo un [sistema] de EDO implícito; un sistema de EDO implícito que satisface esta condición de no singularidad jacobiana se puede transformar en un sistema de EDO explícito. En las mismas fuentes, los sistemas de EDO implícitos con un jacobiano singular se denominan ecuaciones algebraicas diferenciales (EDD). Esta distinción no es meramente terminológica; las EAD tienen características fundamentalmente diferentes y generalmente son más complicadas de resolver que los sistemas de EDO (no singulares). [18] [19] [20] Presumiblemente para derivadas adicionales, la matriz hessiana y demás también se suponen no singulares de acuerdo con este esquema, [ cita requerida ] aunque tenga en cuenta que cualquier EDO de orden mayor que uno puede reescribirse (y generalmente lo hace) como sistema de EDO de primer orden, [21] lo que hace que el criterio de singularidad jacobiana sea suficiente para que esta taxonomía sea integral en todos los órdenes.
El comportamiento de un sistema de EDO se puede visualizar mediante el uso de un retrato de fase .
Dada una ecuación diferencial
una función u : I ⊂ R → R , donde I es un intervalo, se llama solución o curva integral para F , si u es n -veces diferenciable en I , y
Dadas dos soluciones u : J ⊂ R → R y v : I ⊂ R → R , u se llama una extensión de v si I ⊂ J y
Una solución que no tiene extensión se denomina solución máxima . Una solución definida en todo R se denomina solución global .
Una solución general de una ecuación de orden n es una solución que contiene n constantes de integración independientes arbitrarias . Una solución particular se deriva de la solución general al establecer las constantes en valores particulares, a menudo elegidos para cumplir con un conjunto de " condiciones iniciales o condiciones de contorno ". [22] Una solución singular es una solución que no se puede obtener asignando valores definidos a las constantes arbitrarias en la solución general. [23]
En el contexto de la EDO lineal, la terminología solución particular también puede referirse a cualquier solución de la EDO (que no necesariamente satisfaga las condiciones iniciales), que luego se agrega a la solución homogénea (una solución general de la EDO homogénea), que luego forma una solución general de la EDO original. Esta es la terminología utilizada en la sección del método de adivinación en este artículo, y se utiliza con frecuencia cuando se analiza el método de coeficientes indeterminados y la variación de parámetros .
Para las EDO autónomas no lineales es posible, bajo ciertas condiciones, desarrollar soluciones de duración finita, [24] lo que significa que, a partir de su propia dinámica, el sistema alcanzará el valor cero en un tiempo final y permanecerá allí en cero para siempre. Estas soluciones de duración finita no pueden ser funciones analíticas en toda la línea real y, debido a que serán funciones no Lipschitz en su tiempo final, no se incluyen en el teorema de unicidad de las soluciones de las ecuaciones diferenciales de Lipschitz.
Como ejemplo, la ecuación:
Admite la solución de duración finita:
La teoría de las soluciones singulares de ecuaciones diferenciales ordinarias y parciales fue objeto de investigación desde la época de Leibniz, pero sólo a partir de mediados del siglo XIX recibió especial atención. Un trabajo valioso pero poco conocido sobre el tema es el de Houtain (1854). Darboux (a partir de 1873) fue un líder en la teoría, y en la interpretación geométrica de estas soluciones abrió un campo trabajado por varios autores, en particular Casorati y Cayley . A este último se debe (1872) la teoría de las soluciones singulares de ecuaciones diferenciales de primer orden tal como se aceptó hacia 1900.
El intento primitivo de tratar las ecuaciones diferenciales tenía como objetivo una reducción a cuadraturas . Así como los algebristas del siglo XVIII habían tenido la esperanza de encontrar un método para resolver la ecuación general de grado n , los analistas también tenían la esperanza de encontrar un método general para integrar cualquier ecuación diferencial. Sin embargo, Gauss (1799) demostró que las ecuaciones diferenciales complejas requieren números complejos . Por lo tanto, los analistas comenzaron a sustituir el estudio de funciones, abriendo así un campo nuevo y fértil. Cauchy fue el primero en apreciar la importancia de este punto de vista. A partir de entonces, la verdadera cuestión ya no era si es posible una solución por medio de funciones conocidas o sus integrales, sino si una ecuación diferencial dada es suficiente para la definición de una función de la variable o variables independientes y, de ser así, cuáles son las propiedades características.
Dos memorias de Fuchs [25] inspiraron un enfoque novedoso, elaborado posteriormente por Thomé y Frobenius . Collet fue un destacado colaborador a partir de 1869. Su método para integrar un sistema no lineal fue comunicado a Bertrand en 1868. Clebsch (1873) atacó la teoría en líneas paralelas a las de su teoría de las integrales abelianas . Como estas últimas se pueden clasificar según las propiedades de la curva fundamental que permanece inalterada bajo una transformación racional, Clebsch propuso clasificar las funciones trascendentes definidas por ecuaciones diferenciales según las propiedades invariantes de las superficies correspondientes f = 0 bajo transformaciones racionales uno a uno.
A partir de 1870, los trabajos de Sophus Lie sentaron unas bases más sólidas para la teoría de las ecuaciones diferenciales. Demostró que las teorías de integración de los matemáticos más antiguos pueden, utilizando los grupos de Lie , remitirse a una fuente común, y que las ecuaciones diferenciales ordinarias que admiten las mismas transformaciones infinitesimales presentan dificultades de integración comparables. También hizo hincapié en el tema de las transformaciones de contacto .
La teoría de grupos de ecuaciones diferenciales de Lie ha sido certificada, a saber: (1) que unifica los muchos métodos ad hoc conocidos para resolver ecuaciones diferenciales, y (2) que proporciona nuevas y poderosas formas de encontrar soluciones. La teoría tiene aplicaciones tanto para ecuaciones diferenciales ordinarias como parciales. [26]
Un enfoque de solución general utiliza la propiedad de simetría de las ecuaciones diferenciales, las transformaciones infinitesimales continuas de soluciones a soluciones ( teoría de Lie ). La teoría de grupos continuos , las álgebras de Lie y la geometría diferencial se utilizan para comprender la estructura de las ecuaciones diferenciales lineales y no lineales (parciales) para generar ecuaciones integrables, para encontrar sus pares Lax , operadores de recursión, transformada de Bäcklund y, finalmente, encontrar soluciones analíticas exactas para ED.
Los métodos de simetría se han aplicado a ecuaciones diferenciales que surgen en matemáticas, física, ingeniería y otras disciplinas.
La teoría de Sturm-Liouville es una teoría de un tipo especial de ecuación diferencial ordinaria lineal de segundo orden. Sus soluciones se basan en valores propios y funciones propias correspondientes de operadores lineales definidos mediante ecuaciones lineales homogéneas de segundo orden . Los problemas se identifican como problemas de Sturm-Liouville (SLP) y llevan el nombre de J. C. F. Sturm y J. Liouville , quienes los estudiaron a mediados del siglo XIX. Los SLP tienen un número infinito de valores propios y las funciones propias correspondientes forman un conjunto completo y ortogonal, lo que hace posible las expansiones ortogonales. Esta es una idea clave en matemáticas aplicadas, física e ingeniería. [27] Los SLP también son útiles en el análisis de ciertas ecuaciones diferenciales parciales.
Existen varios teoremas que establecen la existencia y unicidad de soluciones a problemas de valor inicial que involucran EDO tanto a nivel local como global. Los dos teoremas principales son
En su forma básica, ambos teoremas sólo garantizan resultados locales, aunque el último puede extenderse para dar un resultado global, por ejemplo, si se cumplen las condiciones de la desigualdad de Grönwall .
Además, los teoremas de unicidad como el de Lipschitz mencionado anteriormente no se aplican a los sistemas DAE , que pueden tener múltiples soluciones derivadas únicamente de su parte algebraica (no lineal). [28]
El teorema puede enunciarse simplemente de la siguiente manera. [29] Para el problema de ecuación y valor inicial: si F y ∂ F /∂ y son continuas en un rectángulo cerrado en el plano xy , donde a y b son reales (simbólicamente: a , b ∈ R ) y × denota el producto cartesiano , los corchetes denotan intervalos cerrados , entonces hay un intervalo para algún h ∈ R donde se puede encontrar la solución a la ecuación anterior y al problema de valor inicial. Es decir, hay una solución y es única. Dado que no hay restricción para que F sea lineal, esto se aplica a ecuaciones no lineales que toman la forma F ( x , y ), y también se puede aplicar a sistemas de ecuaciones.
Cuando se cumplen las hipótesis del teorema de Picard-Lindelöf, la existencia local y la unicidad pueden extenderse a un resultado global. Más precisamente: [30]
Para cada condición inicial ( x 0 , y 0 ) existe un único intervalo abierto máximo (posiblemente infinito)
de modo que cualquier solución que satisfaga esta condición inicial es una restricción de la solución que satisface esta condición inicial con dominio .
En el caso de que , hay exactamente dos posibilidades
donde Ω es el conjunto abierto en el que se define F , y es su límite.
Nótese que el dominio máximo de la solución
Esto significa que F ( x, y ) = y 2 , que es C 1 y por lo tanto localmente Lipschitz continua, satisfaciendo el teorema de Picard-Lindelöf.
Incluso en un entorno tan simple, el dominio máximo de solución no puede ser todo, ya que la solución es
que tiene dominio máximo:
Esto muestra claramente que el intervalo máximo puede depender de las condiciones iniciales. El dominio de y podría tomarse como siendo , pero esto conduciría a un dominio que no es un intervalo, de modo que el lado opuesto a la condición inicial estaría desconectado de la condición inicial y, por lo tanto, no estaría determinado de manera única por ella.
El dominio máximo no es porque
que es uno de los dos casos posibles según el teorema anterior.
Las ecuaciones diferenciales suelen ser más fáciles de resolver si se puede reducir el orden de la ecuación.
Cualquier ecuación diferencial explícita de orden n ,
puede escribirse como un sistema de n ecuaciones diferenciales de primer orden definiendo una nueva familia de funciones desconocidas
para i = 1, 2, ..., n . El sistema n -dimensional de ecuaciones diferenciales acopladas de primer orden es entonces
De manera más compacta en notación vectorial:
dónde
Algunas ecuaciones diferenciales tienen soluciones que pueden escribirse en forma exacta y cerrada. Aquí se dan varias clases importantes.
En la tabla siguiente, P ( x ) , Q ( x ) , P ( y ) , Q ( y ) y M ( x , y ) , N ( x , y ) son funciones integrables de x , y ; b y c son constantes reales dadas; C 1 , C 2 , ... son constantes arbitrarias ( complejas en general). Las ecuaciones diferenciales están en sus formas equivalentes y alternativas que conducen a la solución a través de la integración.
En las soluciones integrales, λ y ε son variables ficticias de integración (los análogos continuos de los índices en la suma ), y la notación ∫ x F ( λ ) dλ simplemente significa integrar F ( λ ) con respecto a λ , luego después de la integración sustituir λ = x , sin agregar constantes (explícitamente establecido).
Cuando todos los demás métodos para resolver una EDO fallan, o en los casos en los que tenemos cierta intuición sobre cómo podría ser la solución a una ED, a veces es posible resolver una ED simplemente adivinando la solución y validando que sea correcta. Para utilizar este método, simplemente adivinamos una solución a la ecuación diferencial y luego introducimos la solución en la ecuación diferencial para validar si satisface la ecuación. Si es así, entonces tenemos una solución particular para la ED; de lo contrario, comenzamos de nuevo e intentamos otra suposición. Por ejemplo, podríamos adivinar que la solución a una ED tiene la forma: ya que esta es una solución muy común que se comporta físicamente de forma sinusoidal.
En el caso de una EDO de primer orden que no sea homogénea, primero debemos encontrar una solución para la parte homogénea de la ED, también conocida como ecuación homogénea asociada, y luego encontrar una solución para toda la ecuación no homogénea mediante una suposición. Finalmente, sumamos ambas soluciones para obtener la solución general de la EDO, es decir: