Cálculo en una variable/Cálculo diferencial

De Wikilibros, la colección de libros de texto de contenido libre.
Saltar a: navegación, buscar
En matemáticas, la derivada de una función es uno de los dos conceptos centrales del cálculo. La inversa de una derivada se llama antiderivada, o integral indefinida.

La derivada de una función en un cierto punto es una medida de la tasa en la cual una función cambia conforme un argumento se modifica. Esto es, una derivada involucra, en términos matemáticos, una tasa de cambio. Una derivada es el cálculo de las pendientes instantáneas de f(x) en cada punto x. Esto se corresponde a las pendientes de las tangentes de la gráfica de dicha función en el punto dado; las pendientes de dichas tangentes pueden ser aproximadas por una secante. Las derivadas también pueden ser utilizadas para calcular la concavidad.

Las funciones no tienen derivadas en los puntos en donde hay una tangente vertical o una discontinuidad.

Diferenciación y diferenciabilidad[editar]

La Diferenciación puede ser usada para determinar el cambio que se produce como resultado de otro cambio, si está determinada una relación matemática entre dos objetos. La derivada de f(x) se puede escribir de varias formas: f ′(x) (se pronuncia f prima de x), d/dx[f(x)] (se pronuncia d en d x de f de x), df/dx (se pronuncia d f en d x), o Dxf (se pronuncia d sub x de f). Los últimos tres simbolismos son útiles cuando se considera a la diferenciación como una operación entre funciones. En ese contexto, los símbolos d/dx y Dx se llaman operadores diferenciales.

Una función es diferenciable en un punto x si su derivada existe en ese punto; una función es diferenciable en un intervalo si lo es en cada punto x perteneciente al intervalo. Si una función no es contínua en c, entonces no puede ser diferenciable en c; sin embargo, aunque una función sea contínua en c, puede no ser diferenciable.

La derivada de una función diferenciable puede a su vez ser diferenciable, hablándose entonces de segunda derivada de la función diferenciable como la derivada de la derivada de ésta. Análogamente, la derivada de la segunda derivada recibe el nombre de tercera derivada, y así sucesivamente.

Notaciones para la diferenciación[editar]

La notación más simple para la diferenciación que se utiliza en la actualidad se debe a Lagrange y utiliza la prima, ′. Para tomar las derivadas de f(x) en el punto a, se escribe:

f'(a) para la primera derivada,
f''(a) para la segunda derivada,
f'''(a) para la tercera derivada, y luego,
f^{(n)}(a) para la n-ésima derivada (n > 3).

Para la función cuyo valor en cada x es la derivada de f(x), se escribe f′(x). De forma similar, para la segunda derivada de f se escribe f ″(x), y así sucesivamente.

La otra notación común para la diferenciación se debe a Leibniz. Para la función cuyo valor en x es la derivada de f en x, se escribe:

\frac{d\left(f(x)\right)}{dx}

Se puede escribir la derivada de f en el punto a de dos formas distintas:


\frac{d\left(f(x)\right)}{dx}\left.{\!\!\frac{}{}}\right|_{x=a} = \left(\frac{d\left(f(x)\right)}{dx}\right)(a)

Si la resultante de f(x) es otra variable, por ejemplo, si y=f(x), se puede escribir la derivada como:

\frac{dy}{dx}

Las derivadas de orden superior se expresan así

\frac{d^n\left(f(x)\right)}{dx^n} o \frac{d^ny}{dx^n}

para la n-ésima derivada de f(x) o y respectivamente. Históricamente, ésto proviene de el hecho de que, por ejemplo, la tercera derivada es:

\frac{d \left(\frac{d \left( \frac{d \left(f(x)\right)} {dx}\right)} {dx}\right)} {dx}

que se puede escribir sin mucho rigor como:

\left(\frac{d}{dx}\right)^3 \left(f(x)\right) =
\frac{d^3}{\left(dx\right)^3} \left(f(x)\right)

Eliminando las llaves nos da la notación que está arriba.

La notación de Leibniz es tan versátil que permite especificar la variable que se utilizará para la diferenciación (en el denominador). Esto es específicamente relevante para la diferenciación parcial. Y también hace más fácil de recordar la regla de la cadena, debido a que los términos "d" se cancelan simbólicamente:

\frac{dy}{dx} = \frac{dy}{du} \cdot \frac{du}{dx}.

Sin embargo, es importante recordar que los términos "d" no se pueden cancelar literalmente, debido a que son un operador diferencial. Sólo se utilizan cuando se usan en conjunto para expresar una derivada.

La notación de Newton para la diferenciación consiste en poner un punto sobre el nombre de la función:

\dot{x} = \frac{dx}{dt} = x'(t)
\ddot{x} = x''(t)

y así sucesivamente.

La notación de Newton se utiliza principalmente en la mecánica, normalmente para las derivadas con respecto al tiempo tales como la velocidad y la aceleración y en la teoría ODE. Normalmente sólo se utilizan para la primera y segunda derivadas.

Definición. Cociente diferencial de Newton[editar]

Derivative.png

Las derivadas se defineno el límite de la pendiente de las rectas secantes conforme se van aproximando a la recta tangente.

Es difícil hallar directamente la pendiente de la recta tangente de una función porque sólo conocemos un punto de ésta, el punto donde ha de ser tangente a la función. Por ello, aproximaremos la recta tangente por rectas secantes. Cuando tomemos el límite de las pendientes de las secantes próximas, obtendremos la pendiente de la recta tangente.

Para obtener estas pendientes, tomemos un número arbitrariamente pequeño que llamaremos h. h representa una pequeña variación en x, y puede ser tanto positivo como negativo. La pendiente de la recta entre los puntos (x,f(x)) y (x+h,f(x+h)) es

f(x+h)-f(x)\over h

Esta expresión es un cociente diferencial de Newton. La derivada de f en x es el límite del valor del cociente diferencial conforme las líneas secantes se acercan más a la tangente:

f'(x)=\lim_{h\to 0}{f(x+h)-f(x)\over h}

Si la derivada de f existe en cada punto x, podemos definir la derivada de f como la función cuyo valor en el punto x es la derivada de f en x.

Puesto que la inmediata sustitución de h por 0 da como resultado una división por cero, calcular la derivada directamente puede ser poco intuitivo. Una técnica es simplificar el numerador de modo que la h del denominador pueda ser cancelada. Esto resulta muy sencillo con funciones polinómicas, pero para la mayoría de las funciones resulta demasiado complicado. Afortunadmente, hay reglas generales que facilitan la diferenciación de la mayoría de las funciones descritas; ver abajo.

Algunos ejemplos de cómo utilizar este cociente:

Ejemplo 1[editar]

Consideremos f(x) = 5

f'(x)=\lim_{h\rightarrow 0} \frac{f(x+h)-f(x)}{h} = \lim_{h\rightarrow 0} \frac{5-5}{h} = 0

La derivada de una constante vale cero.

Ejemplo 2[editar]

Consideremos la gráfica de f(x)=2x-3. Esta recta tiene una pendiente igual a 2 en cada punto. Utilizando el cociente mostrado arriba (junto a los conceptos de límite, secante, y tangente) podremos determinar las pendientes en (4,5):

f'(4)  =  \lim_{h\rightarrow 0}\frac{f(4+h)-f(4)}{h} = \lim_{h\rightarrow 0}\frac{2(4+h)-3-(2\cdot 4-3)}{h}
 =  \lim_{h\rightarrow 0}\frac{8+2h-3-8+3}{h} =  \lim_{h\rightarrow 0}\frac{2h}{h} =  2

La derivada y la pendiente son equivalentes.

Ejemplo 3[editar]

Mediante diferenciación, se puede calcular la pendiente de una curva. Consideremos f(x)=x^2:

 f'(x) = \lim_{h\rightarrow 0}\frac{f(x+h)-f(x)}{h} = \lim_{h\rightarrow 0}\frac{(x+h)^2-x^2}{h} = \lim_{h\rightarrow 0}\frac{x^2 + 2xh + h^2 - x^2}{h}
 = \lim_{h\rightarrow 0}\frac{2xh + h^2}{h} = \lim_{h\rightarrow 0}\frac{h(2x + h)}{h} = \lim_{h\rightarrow 0}(2x + h) = 2x

Para cualquier punto x, la pendiente de la función f(x)=x^2 es f'(x)=2x.

Ejemplo 4[editar]

Consideremos f(x)=\sqrt{x}

 f'(x) = \lim_{h\rightarrow 0}\frac{f(x+h)-f(x)}{h} = \lim_{h\rightarrow 0}\frac{\sqrt{x+h} - \sqrt{x}}{h}
 = \lim_{h\rightarrow 0}\frac{(\sqrt{x+h} - \sqrt{x})(\sqrt{x+h} + \sqrt{x})}{h(\sqrt{x+h} + \sqrt{x})} = \lim_{h\rightarrow 0}\frac{x+h - x}{h(\sqrt{x+h} + \sqrt{x})}
 = \lim_{h\rightarrow 0}\frac{1}{\sqrt{x+h} + \sqrt{x}} = \frac{1}{2 \sqrt{x}}

Derivadas notables[editar]

Usos[editar]

Física[editar]

Es posible que la aplicación más importante del cálculo en la física sea el concepto de "derivada temporal" -- la tasa de cambio en el tiempo -- que se requiere para la definición precisa de varios importantes conceptos. En particular, las derivadas con respecto al tiempo de la posición de un objeto son significativas en la física Newtoniana:

  • La velocidad (velocidad instantánea; el concepto de la velocidad promedio que prevalece en el cálculo) es la derivada, con respecto al tiempo, de la posición de un objeto.
  • La aceleración es la derivada, con respecto al tiempo, de la velocidad de un objeto.
  • El tirón es la derivada, con respecto al tiempo, de la aceleración de un objeto.

Por ejemplo, si la posición de un objeto está determinada por la ecuación p(t) = -16t^2 + 16t + 32, entonces la velocidad del objeto es \dot p(t) = p'(t) = -32t + 16; la aceleración del objeto es \ddot p(t) = p''(t) = -32; y el tirón del objeto es p'''(t) = 0.

Si la velocidad de un auto está dada como una función del tiempo, entonces la derivada de dicha función con respecto al tiempo, describe la aceleración del auto como una función del tiempo.

Uso de las derivadas para graficar funciones[editar]

Las derivadas son una útil herramienta para examinar las gráficas de funciones. En particular, los puntos en el interior de un dominio de una función de valores reales que llevan a dicha función a un extremo local tendrán una primera derivada de cero. Sin embargo, no todos los puntos críticos son extermos locales. Por ejemplo, f(x)=x3 tiene un punto crítico en x=0, pero en ese punto no hay un máximo ni un mínimo. La prueba de la primera derivada y la prueba de la segunda derivada permiten determinar si los puntos críticos son máximos, mínimos o ninguno.

En el caso de dominios multidimensionales, la función tendrá una derivada parcial de cero con respecto a cada dimensión en un extremo local. En este caso, la prueba de la segunda derivada se puede seguir utilizando para caracterizar a los puntos críticos, considerando el eigenvalor de la matriz Hessiana de las segundas derivadas parciales de la función en el punto crítico. Si todos los eigenvalores son positivos, entonces el punto es un mínimo local; si todos son negativos es un máximo local. Si hay algunos eigenvalores positivos y algunos negativos, entonces el punto crítico es un punto silla, y si no se cumple ninguno de estos casos, la prueba es no concluyente (e.g., los engeivalores son 0 y 3).

Una vez que se encuentran los extremos locales, es mucho más fácil hacerse de una burda idea de la gráfica general de la función, ya que (en el caso del dominio mono dimensional) se incrementará o decrementará uniformemente excepto en los puntos críticos, y por ello (suponiendo su continuidad tendrá valores intermedios entre los valores en los puntos críticos de cada lado.

Aproximación local de Taylor[editar]

Hemos visto que podemos aproximar mediante su recta tangente a una función derivable localmente en un punto. Si se cumple que la función es suficientemente suave en el punto o dominio de estudio (esto es, la función es de clase C^\infty) cabe la posibilidad de intentar aproximar a la función no por polinomios de grado uno, sino por polinomios de grado dos, tres, cuatro y sucesivamente. Esta aproximación recibe el nombre de "desarrollo polinómico de Taylor" y se define de la siguiente manera:

P(x) = f(a)+\frac{f'(a)}{1!}(x-a)+\frac{f''(a)}{2!}(x-a)^2+\frac{f'''(a)}{3!}(x-a)^3+\cdots + \frac{f^{n}(a)}{n!}(x-a)^n

Donde P(x) es el polinomio de grado n que mejor aproxima a la función en el punto x=a. Nótese que si evaluamos P(x) en x=a todos los términos salvo el f(a) se anulan, luego P(a) = f(a). Nótese también que la ecuación de la recta tangente del apartado anterior corresponde al caso en el que n=1.

El polinomio de Taylor es un polinomio "osculador". De entre todos los polinomios de orden no mayor que n y que pasan por f(a) el desarrollo polinómico de Taylor de f(x) en x=a es el que posee el contacto de mayor orden con f(x)en a. Se basa en la idea de que si dos funciones comparten en x=a el mismo valor, la misma primera derivada, la misma segunda derivada etc, la misma i-ésima derivada, (lo que brevemente se expresa diciendo que las dos funciones tienen un contacto de orden i) entonces dichas funciones serán muy parecidas cerca de x=a, queriendo decir por parecidas que podemos aproximar a una de las dos por la otra cometiendo un error despreciable.

Cuando a=0 el desarrollo se denomina desarrollo de MacLaurin. En la práctica la mayoría de las veces se emplean desarrollos de MacLaurin. Ejemplos de desarrollos importantes de MacLaurin son:

e^x \approx 1 + \frac{x}{1!} + \frac{x^2}{2!} + \frac{x^3}{3!} + \frac{x^4}{4!} + \frac{x^5}{5!}+ \cdots
\sin\left( x \right) \approx x - \frac{x^3}{3!} + \frac{x^5}{5!} - \frac{x^7}{7!} + \cdots
\ln(1+x)\approx x -\frac{x^2}2+\frac{x^3}3-\frac{x^4}4+\cdots

Nótese el símbolo \approx que denota aproximación que no igualdad. Si la función a aproximar es infinitamente derivable y agregamos infinitos términos al desarrollo entonces el \approx se convierte en un =.

Este último paso de agregar infinitos términos no se puede tomar a la ligera. Hemos dicho que la aproximación de grado uno, dos, tres etc es una aproximación local en el punto en que se evalúa la función, esto es, si nos alejamos mucho del punto la aproximación dejará de ser precisa. Cuantos más términos agreguemos al desarrollo en serie de Taylor tanto más precisa será nuestra aproximación si estamos en un entorno del punto. Podríamos pensar pues que al añadir infinitos términos podemos evaluar la función aproximada en cualquier punto de su dominio de definición con precisión absoluta. Esto no siempre es cierto, pues dependerá del carácter de la serie de Taylor en el punto en que la evaluamos.

El estudio del carácter de una serie es un problema frecuentemente complejo. Se trata de definir los valores para los cuales la serie es convergente, esto es, determinar el radio de convergencia de la misma. Dentro del intervalo de convergencia de la serie sí que podemos tomar infinitos términos y admitir que la serie nos da el valor "exacto" de la función en el punto. Sin embargo, fuera del intervalo de convergencia la serie no proporcionará el valor exacto de la función aunque agreguemos infinitos términos.

Los desarrollos en serie de Taylor presentan grandes ventajas a la hora de operar funciones cuyas ecuaciones involucran expresiones complicadas tales como funciones trascendentes (senos, logaritmos, etc). Sin embargo también presentan ciertos inconvenientes. Un inconveniente importante es que el número de términos necesarios para aproximar con precisión razonable a la función en un punto alejado del evaluado (pero siempre dentro del intervalo de convergencia de la serie) se dispara al infinito. Otro inconveniente es que la expresión polinómica de la función puede hacer difícil detectar sus propiedades elementales, por ejemplo, no es obvio deducir del desarrollo del seno que se trata de una función periódica.

Conociendo el desarrollo en serie de una función f(x) en x=a es inmediato obtener sus derivadas sucesivas f '(a), f ''(a), f '''(a) etc . Según se desprende de la definición, sin más que multiplicar el i-ésimo coeficiente (correspondiente al término de grado i) por i! obtenemos la derivada i-ésima en el punto a de la función. Asimismo calcular una integral definida sobre un intervalo perteneciente a un entorno del punto a es también inmediato, pues la función primitiva se obtiene fácilmente integrando cada término del desarrollo. Si bien cabe señalar que dicha integral no será exacta, sino aproximada, y será tanto más precisa cuanto más pequeño sea el intervalo de integración y cuanto más centrado esté dicho intervalo en el punto x=a.

Los desarrollos en serie son una potente herramienta en el cálculo de límites. Un límite aparentemente complejo puede convertirse en trivial sin más que sustituir cada función por su desarrollo en serie y realizar las operaciones correspondientes de simplificación.

Puntos críticos[editar]

Reciben el nombre de puntos críticos aquellos puntos de una función en los que la derivada tiene valor nulo; también pueden recibir el nombre de puntos estacionarios.

Si la segunda derivada es positiva en un punto crítico, se dice que el punto es un mínimo local; si es negativa, se dice que el punto es un máximo local; si vale cero, puede ser un punto de inflexión. Derivar y resolver en los puntos críticos es a menudo una forma simple de encontrar máximos y mínimos locales, que pueden ser empleados en optimización.

Más información[editar]

Cuando una función depende de más de una variable, se utiliza el concepto de derivada parcial. Las derivadas parciales se pueden pensar informalmente como tomar la derivada de una función con respecto a todas, excepto una variable que se mantiene constante cerca de un punto. Las derivadas parciales se representan como ∂/∂x (en donde ∂ es una 'd' redondeada conocida como 'símbolo de la derivada parcial').

El concepto de derivada puede ser extendido de forma más general. El hilo común es que la derivada en un punto sirve como una aproximación lineal a la función en dicho punto. Quizá la situación más natural es que las funciones sean difrenciables en las variedades. La derivada en un cierto punto entonces se convierte en una transformación lineal entre los correspondientes espacios tangenciales y la derivada de la función se convierte en un mapeo entre los grupos tangenciales.

Para diferenciar todas las funciones continuas y mucho más, se puede definir el concepto de distribución.

Para las funciones complejas de una variable compleja, la diferenciabilidad es una condición mucho más fuerte que la simple parte real e imaginaria de la función diferenciada con respecto a la parte real e imaginaria del argumento. Por ejemplo, la función f(x+iy)=x+2iy satisface lo segundo, pero no lo primero. Vea también Función holomórfica.

Vea también: diferintegral.

Referencias[editar]

Enlaces externos[editar]