En matemáticas , el cálculo diferencial es un subcampo del cálculo que estudia las velocidades a las que cambian las cantidades. [1] Es una de las dos divisiones tradicionales del cálculo, siendo la otra el cálculo integral : el estudio del área debajo de una curva. [2]
Los principales objetos de estudio en cálculo diferencial son la derivada de una función , nociones relacionadas como la diferencial y sus aplicaciones. La derivada de una función en un valor de entrada elegido describe la tasa de cambio de la función cerca de ese valor de entrada. El proceso de encontrar una derivada se llama diferenciación . Geométricamente, la derivada en un punto es la pendiente de la recta tangente a la gráfica de la función en ese punto, siempre que la derivada exista y esté definida en ese punto. Para una función con valor real de una única variable real, la derivada de una función en un punto generalmente determina la mejor aproximación lineal a la función en ese punto.
El cálculo diferencial y el cálculo integral están conectados por el teorema fundamental del cálculo , que establece que la diferenciación es el proceso inverso a la integración .
La diferenciación tiene aplicaciones en casi todas las disciplinas cuantitativas. En física , la derivada del desplazamiento de un cuerpo en movimiento con respecto al tiempo es la velocidad del cuerpo, y la derivada de la velocidad con respecto al tiempo es la aceleración . La derivada del momento de un cuerpo respecto del tiempo es igual a la fuerza aplicada al cuerpo; Reorganizar este enunciado derivado conduce a la famosa ecuación F = ma asociada con la segunda ley del movimiento de Newton . La velocidad de reacción de una reacción química es una derivada. En la investigación de operaciones , los derivados determinan las formas más eficientes de transportar materiales y diseñar fábricas.
Las derivadas se utilizan frecuentemente para encontrar los máximos y mínimos de una función. Las ecuaciones que involucran derivadas se llaman ecuaciones diferenciales y son fundamentales para describir fenómenos naturales . Las derivadas y sus generalizaciones aparecen en muchos campos de las matemáticas, como el análisis complejo , el análisis funcional , la geometría diferencial , la teoría de la medida y el álgebra abstracta .
La derivada de en el punto es la pendiente de la tangente a . [3] Para poder intuir esto, primero uno debe estar familiarizado con cómo encontrar la pendiente de una ecuación lineal, escrita en la forma . La pendiente de una ecuación es su pendiente. Se puede encontrar seleccionando dos puntos cualesquiera y dividiendo el cambio en por el cambio en , lo que significa que . Porque, la gráfica de tiene una pendiente de , como se muestra en el siguiente diagrama:
Para abreviar, a menudo se escribe como , siendo la letra griega delta, que significa "cambio en". La pendiente de una ecuación lineal es constante, lo que significa que la pendiente es la misma en todas partes. Sin embargo, muchos gráficos como este varían en su inclinación. Esto significa que ya no puedes elegir dos puntos arbitrarios y calcular la pendiente. En cambio, la pendiente de la gráfica se puede calcular considerando la línea tangente, una línea que "simplemente toca" un punto en particular. [a] La pendiente de una curva en un punto particular es igual a la pendiente de la tangente a ese punto. Por ejemplo, tiene una pendiente de porque la pendiente de la recta tangente a ese punto es igual a :
La derivada de una función es entonces simplemente la pendiente de esta recta tangente. [b] Aunque la línea tangente solo toca un punto en el punto de tangencia, se puede aproximar mediante una línea que pasa por dos puntos. Esto se conoce como recta secante . Si los dos puntos por los que pasa la recta secante están muy juntos, entonces la recta secante se parece mucho a la recta tangente y, como resultado, su pendiente también es muy similar:
La ventaja de utilizar una recta secante es que su pendiente se puede calcular directamente. Considere los dos puntos de la gráfica y , donde es un número pequeño. Como antes, la pendiente de la recta que pasa por estos dos puntos se puede calcular con la fórmula . Esto da
A medida que se acerca cada vez más a , la pendiente de la recta secante se acerca cada vez más a la pendiente de la recta tangente. Esto está formalmente escrito como
La expresión anterior significa "a medida que se acerca más y más a 0, la pendiente de la recta secante se acerca cada vez más a un cierto valor". El valor al que se está aproximando es la derivada de ; esto se puede escribir como . Si , la derivada también se puede escribir como , representando un cambio infinitesimal . Por ejemplo, representa un cambio infinitesimal en x. [c] En resumen, si , entonces la derivada de es
siempre que exista dicho límite. [4] [d] Hemos logrado así definir correctamente la derivada de una función, lo que significa que la 'pendiente de la recta tangente' ahora tiene un significado matemático preciso. Diferenciar una función usando la definición anterior se conoce como diferenciación a partir de primeros principios. Aquí hay una prueba, usando diferenciación de primeros principios, de que la derivada de es :
A medida que se acerca , se acerca . Por lo tanto, . Esta prueba se puede generalizar para demostrar que si y son constantes . Esto se conoce como la regla del poder . Por ejemplo, . Sin embargo, muchas otras funciones no se pueden diferenciar tan fácilmente como las funciones polinómicas , lo que significa que a veces se necesitan técnicas adicionales para encontrar la derivada de una función. Estas técnicas incluyen la regla de la cadena , la regla del producto y la regla del cociente . Otras funciones no pueden diferenciarse en absoluto, dando origen al concepto de diferenciabilidad .
Un concepto muy relacionado con la derivada de una función es su diferencial . Cuando x e y son variables reales, la derivada de f en x es la pendiente de la recta tangente a la gráfica de f en x . Como el origen y el destino de f son unidimensionales, la derivada de f es un número real. Si xey son vectores , entonces la mejor aproximación lineal a la gráfica de f depende de cómo f cambia en varias direcciones a la vez. Tomar la mejor aproximación lineal en una sola dirección determina una derivada parcial , que generalmente se denota∂ y/∂ x. La linealización de f en todas las direcciones a la vez se llama derivada total .
El concepto de derivada en el sentido de recta tangente es muy antiguo, familiar para los antiguos matemáticos griegos como Euclides (c. 300 a. C.), Arquímedes (c. 287-212 a. C.) y Apolonio de Perge (c. 262 a. C.). –190 a.C.). [5] Arquímedes también hizo uso de indivisibles , aunque estos se usaron principalmente para estudiar áreas y volúmenes en lugar de derivadas y tangentes (ver El método de los teoremas mecánicos ). Bhāskara II (1114-1185) desarrolló significativamente el uso de infinitesimales para calcular tasas de cambio ; de hecho, se ha argumentado [6] que muchas de las nociones clave del cálculo diferencial se pueden encontrar en su obra, como el " teorema de Rolle ". [7]
El matemático Sharaf al-Dīn al-Tūsī (1135-1213), en su Tratado sobre ecuaciones , estableció condiciones para que algunas ecuaciones cúbicas tuvieran soluciones, encontrando los máximos de polinomios cúbicos apropiados. Obtuvo, por ejemplo, que el máximo (para x positivo ) de la ecuación cúbica ax 2 – x 3 ocurre cuando x = 2 a / 3 , y concluyó de ahí que la ecuación ax 2 = x 3 + c tiene exactamente una solución positiva cuando c = 4 a 3 / 27 , y dos soluciones positivas siempre que 0 < c < 4 a 3 / 27 . [8] [ página necesaria ] El historiador de la ciencia, Roshdi Rashed , [8] [ página necesaria ] ha sostenido que al-Tūsī debe haber utilizado la derivada de la cúbica para obtener este resultado. Sin embargo, la conclusión de Rashed ha sido cuestionada por otros estudiosos, quienes argumentan que podría haber obtenido el resultado mediante otros métodos que no requieren que se conozca la derivada de la función. [8] [ página necesaria ]
El desarrollo moderno del cálculo generalmente se atribuye a Isaac Newton (1643-1727) y Gottfried Wilhelm Leibniz (1646-1716), quienes proporcionaron enfoques independientes [e] y unificados para la diferenciación y las derivadas. Sin embargo, la idea clave que les valió este crédito fue el teorema fundamental del cálculo que relaciona la diferenciación y la integración: esto dejó obsoletos la mayoría de los métodos anteriores para calcular áreas y volúmenes. [f] Para sus ideas sobre las derivadas, tanto Newton como Leibniz se basaron en importantes trabajos anteriores de matemáticos como Pierre de Fermat (1607-1665), Isaac Barrow (1630-1677), René Descartes (1596-1650), Christiaan Huygens ( 1629–1695), Blaise Pascal (1623–1662) y John Wallis (1616–1703). Respecto a la influencia de Fermat, Newton escribió una vez en una carta que " Tuve una idea de este método [de fluxiones] a partir de la forma en que Fermat dibuja tangentes, y aplicándolo a ecuaciones abstractas, directa e invertidamente, lo generalicé " . ] A Isaac Barrow generalmente se le atribuye el mérito del desarrollo inicial del derivado. [10] Sin embargo, Newton y Leibniz siguen siendo figuras clave en la historia de la diferenciación, sobre todo porque Newton fue el primero en aplicar la diferenciación a la física teórica , mientras que Leibniz desarrolló sistemáticamente gran parte de la notación que todavía se utiliza hoy en día.
Desde el siglo XVII muchos matemáticos han contribuido a la teoría de la diferenciación. En el siglo XIX, matemáticos como Augustin Louis Cauchy (1789-1857), Bernhard Riemann (1826-1866) y Karl Weierstrass (1815-1897) dieron al cálculo una base mucho más rigurosa . Fue también durante este período que la diferenciación se generalizó al espacio euclidiano y al plano complejo .
El siglo XX trajo dos pasos importantes hacia nuestra actual comprensión y práctica de la derivación: la integración de Lebesgue , además de extender el cálculo integral a muchas más funciones, aclaró la relación entre derivación e integración con la noción de continuidad absoluta . Más tarde, la teoría de las distribuciones (después de Laurent Schwartz ) amplió la derivación a funciones generalizadas (por ejemplo, la función delta de Dirac previamente introducida en Mecánica Cuántica ) y se volvió fundamental para el análisis aplicado hoy en día, especialmente mediante el uso de soluciones débiles a ecuaciones diferenciales parciales .
Si f es una función diferenciable en ℝ (o un intervalo abierto ) y x es un máximo local o un mínimo local de f , entonces la derivada de f en x es cero. Los puntos donde f' ( x ) = 0 se denominan puntos críticos o puntos estacionarios (y el valor de f en x se denomina valor crítico ). Si no se supone que f sea diferenciable en todas partes, entonces los puntos en los que no es diferenciable también se denominan puntos críticos.
Si f es dos veces diferenciable, entonces, a la inversa, un punto crítico x de f puede analizarse considerando la segunda derivada de f en x :
Esto se llama prueba de la segunda derivada . Un enfoque alternativo, llamado prueba de la primera derivada , implica considerar el signo de f' a cada lado del punto crítico.
Por lo tanto, tomar derivadas y resolver puntos críticos suele ser una forma sencilla de encontrar mínimos o máximos locales, lo que puede resultar útil en la optimización . Según el teorema del valor extremo , una función continua en un intervalo cerrado debe alcanzar sus valores mínimo y máximo al menos una vez. Si la función es diferenciable, los mínimos y máximos solo pueden ocurrir en puntos críticos o extremos.
Esto también tiene aplicaciones en el dibujo de gráficos: una vez que se han encontrado los mínimos y máximos locales de una función diferenciable, se puede obtener una gráfica aproximada del gráfico a partir de la observación de que aumentará o disminuirá entre los puntos críticos.
En dimensiones superiores , un punto crítico de una función escalar es un punto en el que el gradiente es cero. La prueba de la segunda derivada todavía se puede utilizar para analizar puntos críticos considerando los valores propios de la matriz de Hesse de las segundas derivadas parciales de la función en el punto crítico. Si todos los valores propios son positivos, entonces el punto es un mínimo local; si todos son negativos, es un máximo local. Si hay algunos valores propios positivos y algunos negativos, entonces el punto crítico se llama " punto de silla ", y si ninguno de estos casos se cumple (es decir, algunos de los valores propios son cero), entonces la prueba se considera no concluyente.
Un ejemplo de un problema de optimización es: Encuentre la curva más corta entre dos puntos en una superficie, suponiendo que la curva también debe estar en la superficie. Si la superficie es un plano, entonces la curva más corta es una línea. Pero si la superficie tiene, por ejemplo, forma de huevo, entonces el camino más corto no está inmediatamente claro. Estos caminos se llaman geodésicas , y uno de los problemas más fundamentales en el cálculo de variaciones es encontrar geodésicas. Otro ejemplo es: Encuentre la superficie de área más pequeña que llena una curva cerrada en el espacio. Esta superficie se llama superficie mínima y también se puede encontrar mediante el cálculo de variaciones.
El cálculo es de vital importancia en física: muchos procesos físicos se describen mediante ecuaciones que involucran derivadas, llamadas ecuaciones diferenciales . La física se ocupa particularmente de la forma en que las cantidades cambian y se desarrollan a lo largo del tiempo, y el concepto de " derivada del tiempo " (la tasa de cambio a lo largo del tiempo) es esencial para la definición precisa de varios conceptos importantes. En particular, las derivadas temporales de la posición de un objeto son importantes en la física newtoniana :
Por ejemplo, si la posición de un objeto en una línea está dada por
entonces la velocidad del objeto es
y la aceleración del objeto es
que es constante.
Una ecuación diferencial es una relación entre un conjunto de funciones y sus derivadas. Una ecuación diferencial ordinaria es una ecuación diferencial que relaciona funciones de una variable con sus derivadas con respecto a esa variable. Una ecuación diferencial parcial es una ecuación diferencial que relaciona funciones de más de una variable con sus derivadas parciales . Las ecuaciones diferenciales surgen naturalmente en las ciencias físicas, en los modelos matemáticos y dentro de las matemáticas mismas. Por ejemplo, la segunda ley de Newton , que describe la relación entre aceleración y fuerza, se puede expresar como la ecuación diferencial ordinaria
La ecuación del calor en una variable espacial, que describe cómo se difunde el calor a través de una varilla recta, es la ecuación diferencial parcial
Aquí u ( x , t ) es la temperatura de la varilla en la posición x y el tiempo t y α es una constante que depende de qué tan rápido se difunde el calor a través de la varilla.
El teorema del valor medio da una relación entre los valores de la derivada y los valores de la función original. Si f ( x ) es una función de valor real y a y b son números con a < b , entonces el teorema del valor medio dice que bajo hipótesis suaves, la pendiente entre los dos puntos ( a , f ( a )) y ( b , f ( b )) es igual a la pendiente de la recta tangente a f en algún punto c entre a y b . En otras palabras,
En la práctica, lo que hace el teorema del valor medio es controlar una función en términos de su derivada. Por ejemplo, supongamos que f tiene derivada igual a cero en cada punto. Esto significa que su línea tangente es horizontal en cada punto, por lo que la función también debe ser horizontal. El teorema del valor medio demuestra que esto debe ser cierto: la pendiente entre dos puntos cualesquiera en la gráfica de f debe ser igual a la pendiente de una de las rectas tangentes de f . Todas esas pendientes son cero, por lo que cualquier línea desde un punto de la gráfica hasta otro punto también tendrá pendiente cero. Pero eso dice que la función no se mueve hacia arriba ni hacia abajo, por lo que debe ser una línea horizontal. Condiciones más complicadas sobre la derivada conducen a información menos precisa pero aún muy útil sobre la función original.
La derivada proporciona la mejor aproximación lineal posible de una función en un punto dado, pero puede ser muy diferente de la función original. Una forma de mejorar la aproximación es realizar una aproximación cuadrática. Es decir, la linealización de una función de valor real f ( x ) en el punto x 0 es un polinomio lineal a + b ( x − x 0 ) , y es posible obtener una mejor aproximación considerando una ecuación cuadrática polinomio a + b ( x - x 0 ) + c ( x - x 0 ) 2 . Aún mejor podría ser un polinomio cúbico a + b ( x − x 0 ) + c ( x − x 0 ) 2 + d ( x − x 0 ) 3 , y esta idea se puede extender a polinomios de grado arbitrariamente alto. Para cada uno de estos polinomios, debe haber la mejor elección posible de coeficientes a , b , c y d que haga que la aproximación sea lo mejor posible.
En la vecindad de x 0 , para a la mejor elección posible es siempre f ( x 0 ) , y para b la mejor elección posible es siempre f' ( x 0 ) . Para c , d y coeficientes de grado superior, estos coeficientes están determinados por derivadas superiores de f . c siempre debería serf'' ( x 0 )/2, y d siempre debe serf''' ( x 0 )/3!. Usando estos coeficientes se obtiene el polinomio de Taylor de f . El polinomio de Taylor de grado d es el polinomio de grado d que mejor se aproxima a f , y sus coeficientes se pueden encontrar mediante una generalización de las fórmulas anteriores. El teorema de Taylor da un límite preciso de qué tan buena es la aproximación. Si f es un polinomio de grado menor o igual a d , entonces el polinomio de Taylor de grado d es igual a f .
El límite de los polinomios de Taylor es una serie infinita llamada serie de Taylor . La serie de Taylor suele ser una muy buena aproximación a la función original. Las funciones que son iguales a su serie de Taylor se llaman funciones analíticas . Es imposible que funciones con discontinuidades o aristas vivas sean analíticas; además, existen funciones fluidas que tampoco son analíticas.
Algunas formas geométricas naturales, como los círculos , no se pueden dibujar como gráfica de una función . Por ejemplo, si f ( x , y ) = x 2 + y 2 − 1 , entonces el círculo es el conjunto de todos los pares ( x , y ) tales que f ( x , y ) = 0 . Este conjunto se llama conjunto cero de f , y no es lo mismo que la gráfica de f , que es un paraboloide . El teorema de la función implícita convierte relaciones como f ( x , y ) = 0 en funciones. Afirma que si f es continuamente diferenciable , entonces, alrededor de la mayoría de los puntos, el conjunto cero de f parece gráficas de funciones pegadas. Los puntos donde esto no es cierto están determinados por una condición sobre la derivada de f . El círculo, por ejemplo, se puede pegar a partir de las gráficas de las dos funciones ± √ 1 - x 2 . En una vecindad de cada punto del círculo excepto (−1, 0) y (1, 0) , una de estas dos funciones tiene una gráfica que se parece al círculo. (Estas dos funciones también cumplen (−1, 0) y (1, 0) , pero esto no está garantizado por el teorema de la función implícita).
El teorema de la función implícita está estrechamente relacionado con el teorema de la función inversa , que establece cuándo una función parece gráficas de funciones invertibles pegadas.