En matemáticas , la separación de variables (también conocida como método de Fourier ) es cualquiera de varios métodos para resolver ecuaciones diferenciales ordinarias y parciales , en los que el álgebra permite reescribir una ecuación de modo que cada una de las dos variables ocurra en un lado diferente de la ecuación. .
Una ecuación diferencial para la incógnita será separable si se puede escribir en la forma
donde y se les dan funciones. Esto quizás sea más transparente cuando se escribe usando como:
Entonces, siempre que h ( y ) ≠ 0, podemos reordenar los términos para obtener:
donde las dos variables xey han sido separadas. La nota dx (y dy ) puede verse, en un nivel simple, simplemente como una notación conveniente, que proporciona una útil ayuda mnemotécnica para ayudar con las manipulaciones. Una definición formal de dx como diferencial (infinitesimal) es algo avanzada.
Aquellos a quienes no les guste la notación de Leibniz tal vez prefieran escribir esto como
pero eso no deja tan claro por qué esto se llama "separación de variables". Integrando ambos lados de la ecuación con respecto a , tenemos
o equivalente,
debido a la regla de sustitución para integrales .
Si se pueden evaluar las dos integrales, se puede encontrar una solución a la ecuación diferencial. Observe que este proceso efectivamente nos permite tratar el derivado como una fracción que puede separarse. Esto nos permite resolver ecuaciones diferenciales separables de manera más conveniente, como se demuestra en el siguiente ejemplo.
(Tenga en cuenta que no necesitamos usar dos constantes de integración , en la ecuación ( A1 ) como en
porque una sola constante es equivalente.)
El crecimiento demográfico a menudo se modela mediante la ecuación diferencial "logística".
donde está la población con respecto al tiempo , es la tasa de crecimiento y es la capacidad de carga del medio ambiente. La separación de variables ahora conduce a
que se integra fácilmente usando fracciones parciales en el lado izquierdo, lo que produce
donde A es la constante de integración. Podemos encontrar en términos de en t=0. Observando que obtenemos
De la misma manera que se puede hablar de una EDO separable de primer orden, se puede hablar de una EDO separable de segundo orden, de tercer orden o de n -ésimo orden. Considere la EDO separable de primer orden:
Alternativamente, la derivada se puede escribir de la siguiente manera para subrayar que es un operador que trabaja en la función desconocida, y :
Por lo tanto, cuando se separan variables para ecuaciones de primer orden, de hecho se mueve el denominador dx del operador al lado de la variable x , y d ( y ) se deja al lado de la variable y . El operador de segunda derivada, por analogía, se descompone de la siguiente manera:
Los operadores de tercera, cuarta y enésima derivada se descomponen de la misma manera. Por lo tanto, al igual que una EDO separable de primer orden, se puede reducir a la forma
una EDO separable de segundo orden se puede reducir a la forma
y una EDO separable de enésimo orden es reducible a
Considere la simple ecuación diferencial no lineal de segundo orden:
El método de separación de variables también se utiliza para resolver una amplia gama de ecuaciones diferenciales parciales lineales con condiciones iniciales y de frontera, como la ecuación de calor , la ecuación de onda , la ecuación de Laplace , la ecuación de Helmholtz y la ecuación biarmónica .
El método analítico de separación de variables para resolver ecuaciones diferenciales parciales también se ha generalizado a un método computacional de descomposición en estructuras invariantes que se puede utilizar para resolver sistemas de ecuaciones diferenciales parciales. [4]
Considere la ecuación del calor unidimensional . La ecuación es
La variable u denota temperatura. La condición de contorno es homogénea, es decir
Intentemos encontrar una solución que no sea idénticamente cero que satisfaga las condiciones de contorno pero con la siguiente propiedad: u es un producto en el que la dependencia de u respecto de x , t está separada, es decir:
Sustituyendo u nuevamente en la ecuación ( 1 ) y usando la regla del producto ,
Dado que el lado derecho depende solo de x y el lado izquierdo solo de t , ambos lados son iguales a algún valor constante − λ . De este modo:
y
− λ aquí es el valor propio de ambos operadores diferenciales, y T ( t ) y X ( x ) son funciones propias correspondientes .
Ahora mostraremos que no pueden ocurrir soluciones para X ( x ) para valores de λ ≤ 0:
Supongamos que λ < 0. Entonces existen números reales B , C tales que
De ( 2 ) obtenemos
y por lo tanto B = 0 = C lo que implica que u es idénticamente 0.
Supongamos que λ = 0. Entonces existen números reales B , C tales que
De ( 7 ) concluimos de la misma manera que en 1 que u es idénticamente 0.
Por lo tanto, debe darse el caso de que λ > 0. Entonces existen números reales A , B , C tales que
y
De ( 7 ) obtenemos C = 0 y eso para algún entero positivo n ,
Esto resuelve la ecuación del calor en el caso especial de que la dependencia de u tenga la forma especial de ( 3 ).
En general, la suma de soluciones de ( 1 ) que satisfacen las condiciones de contorno ( 2 ) también satisface ( 1 ) y ( 3 ). Por tanto, se puede dar una solución completa como
donde D n son coeficientes determinados por la condición inicial.
Dada la condición inicial
nosotros podemos obtener
Ésta es la expansión en serie sinusoidal de f ( x ) que se puede aplicar al análisis de Fourier. Multiplicar ambos lados e integrar sobre [0, L ] da como resultado
Este método requiere que las funciones propias X , aquí , sean ortogonales y completas . En general esto está garantizado por la teoría de Sturm-Liouville .
Supongamos que la ecuación no es homogénea,
con la condición de frontera igual que ( 2 ).
Expanda h ( x,t ), u ( x , t ) y f ( x ) en
donde h n ( t ) y b n se pueden calcular por integración, mientras que u n ( t ) debe determinarse.
Sustituimos ( 9 ) y ( 10 ) nuevamente en ( 8 ) y considerando la ortogonalidad de las funciones seno obtenemos
que son una secuencia de ecuaciones diferenciales lineales que se pueden resolver fácilmente con, por ejemplo, la transformada de Laplace o el factor de integración . Finalmente, podemos conseguir
Si la condición de frontera no es homogénea, entonces la expansión de ( 9 ) y ( 10 ) ya no es válida. Hay que encontrar una función v que satisfaga únicamente la condición de frontera y restarla de u . La función uv entonces satisface una condición de frontera homogénea y se puede resolver con el método anterior.
Para algunas ecuaciones que involucran derivadas mixtas, la ecuación no se separa tan fácilmente como lo hizo la ecuación de calor en el primer ejemplo anterior, pero aún así se puede aplicar la separación de variables. Considere la ecuación biarmónica bidimensional.
Procediendo de la forma habitual, buscamos soluciones de la forma
y obtenemos la ecuación
Escribiendo esta ecuación en la forma
Tomar la derivada de esta expresión con respecto a da lo que significa o y de la misma manera, tomar la derivada con respecto a conduce a y por lo tanto o , por lo tanto, F ( x ) o G ( y ) deben ser una constante, digamos −λ. Esto implica además que o son constantes. Volviendo a la ecuación para X e Y , tenemos dos casos
y
cada uno de los cuales puede resolverse considerando los casos separados y observando que .
En coordenadas curvilíneas ortogonales , todavía se puede utilizar la separación de variables, pero en algunos detalles diferente a la de las coordenadas cartesianas. Por ejemplo, la regularidad o la condición periódica pueden determinar los valores propios en lugar de las condiciones de contorno. Ver armónicos esféricos, por ejemplo.
Para muchas PDE, como la ecuación de onda, la ecuación de Helmholtz y la ecuación de Schrodinger, la aplicabilidad de la separación de variables es el resultado del teorema espectral . En algunos casos, puede que no sea posible separar las variables. La separación de variables puede ser posible en algunos sistemas de coordenadas pero no en otros, [5] y qué sistemas de coordenadas permiten la separación depende de las propiedades de simetría de la ecuación. [6] A continuación se muestra un resumen de un argumento que demuestra la aplicabilidad del método a ciertas ecuaciones lineales, aunque el método preciso puede diferir en casos individuales (por ejemplo, en la ecuación biarmónica anterior).
Considere un problema de valor límite inicial para una función en dos variables:
donde es un operador diferencial con respecto a y es un operador diferencial con respecto a datos de frontera:
donde es una función conocida.
Buscamos soluciones de la forma . Dividiendo el PDE por da
El lado derecho depende sólo de y el lado izquierdo sólo de, por lo que ambos deben ser iguales a una constante , lo que da dos ecuaciones diferenciales ordinarias.
que podemos reconocer como problemas de valores propios para los operadores for y . Si es un operador compacto y autoadjunto en el espacio junto con las condiciones de contorno relevantes, entonces, según el teorema espectral, existe una base para que consta de funciones propias para . Sea el espectro de y sea una función propia con valor propio . Luego, para cualquier función que en cada momento sea integrable al cuadrado con respecto a , podemos escribir esta función como una combinación lineal de . En particular, sabemos que la solución se puede escribir como
Para algunas funciones . En la separación de variables, estas funciones están dadas por soluciones a
Por lo tanto, el teorema espectral asegura que la separación de variables (cuando sea posible) encontrará todas las soluciones.
Para muchos operadores diferenciales, como , podemos demostrar que son autojuntos mediante integración por partes. Si bien estos operadores pueden no ser compactos, sus inversos (cuando existen) pueden serlo, como en el caso de la ecuación de onda, y estos inversos tienen las mismas funciones y valores propios que el operador original (con la posible excepción de cero). [7]
La forma matricial de la separación de variables es la suma de Kronecker .
Como ejemplo, consideramos el laplaciano discreto 2D en una cuadrícula regular :
donde y son laplacianos discretos 1D en las direcciones x e y , respectivamente, y son las identidades de tamaños apropiados. Consulte el artículo principal Suma de Kronecker de laplacianos discretos para obtener más detalles.
Algunos programas matemáticos son capaces de hacer separación de variables: Xcas [8] entre otros.