Saltar al contenido principal

Unidad 3B: Aplicaciones Básicas del Cálculo Diferencial

🎯 Objetivos de Aprendizaje

Objetivo General

Desarrollar las aplicaciones fundamentales del cálculo diferencial en varias variables, incluyendo la regla de la cadena, derivación implícita, análisis de extremos y aproximaciones de Taylor.

Objetivos Específicos

Al finalizar esta unidad, el estudiante será capaz de:

  • Aplicar la regla de la cadena para funciones compuestas multivariables
  • Realizar derivación implícita en sistemas de ecuaciones
  • Calcular derivadas de funciones inversas
  • Determinar tangentes y normales a gráficos, conjuntos de nivel e imágenes
  • Estimar variaciones de funciones usando diferenciales
  • Aplicar desarrollos de Taylor en varias variables
  • Clasificar extremos libres y ligados de funciones multivariables

📋 Contenidos y recursos

3B.1 Función Compuesta y Regla de la Cadena

  • 3B.1.1 Derivación compuesta
  • 3B.1.2 Regla de la cadena en una variable (repaso)
  • 3B.1.3 Teorema de la función compuesta (regla de la cadena en varias variables)

3B.2 Función Implícita e Inversa

  • 3B.2.1 Derivación implícita
  • 3B.2.2 Teorema de la función implícita
  • 3B.2.3 Derivación inversa
  • 3B.2.4 Teorema de la función inversa

3B.3 Tangentes, Normales y Variaciones

  • 3B.3.1 Tangentes y normales a gráficos, conjuntos de nivel e imágenes
  • 3B.3.2 Diferencial total y estimación de pequeñas variaciones
  • 3B.3.3 Variaciones máximas y dirección del gradiente

3B.4 Desarrollo de Taylor y Extremos

  • 3B.4.1 Taylor en una y varias variables
  • 3B.4.2 Extremos libres: condiciones necesarias y suficientes
  • 3B.4.3 Extremos ligados: multiplicadores de Lagrange

Primer tema: 3B.1 Función Compuesta y Regla de la Cadena

3B.1.1 Derivación Compuesta

En general, tenemos un mapa de dependencias de la forma:

z=f(y)=f(y1,,yp)z = f(\overline{y}) = f(y_1, \ldots, y_p)

donde

y=(y1yp)=(g1(x1,,xn)gp(x1,,xn))=g(x)\overline{y} = \begin{pmatrix} y_1 \\ \vdots \\ y_p \end{pmatrix} = \begin{pmatrix} g_1(x_1, \ldots, x_n) \\ \vdots \\ g_p(x_1, \ldots, x_n) \end{pmatrix} = \overline{g}(\overline{x})

Es decir, zz depende de las variables yjy_j a través de la función ff, y estas, a su vez, dependen de las xix_i a través de la función g\overline{g}.

3B.1.2 Regla de la Cadena en Una Variable (Repaso)

Para funciones de una variable, si z=f(y)z = f(y) y y=g(x)y = g(x), entonces:

dzdx=dzdydydx\frac{dz}{dx} = \frac{dz}{dy} \cdot \frac{dy}{dx}

3B.1.3 Teorema de la Función Compuesta (Regla de la Cadena en VV)

Enunciado: Sean g:DgRnRp\overline{g}: D_{\overline{g}} \subseteq \mathbb{R}^n \rightarrow \mathbb{R}^p y f:DfRpRf: D_f \subseteq \mathbb{R}^p \rightarrow \mathbb{R} funciones tales que Im(g)Df\text{Im}(\overline{g}) \subseteq D_f. Si g\overline{g} es diferenciable en x0\overline{x}_0 y ff es diferenciable en y0=g(x0)\overline{y}_0 = \overline{g}(\overline{x}_0), entonces la función compuesta h=fgh = f \circ \overline{g} es diferenciable en x0\overline{x}_0 y:

hxi(x0)=j=1pfyj(y0)gjxi(x0)\frac{\partial h}{\partial x_i}(\overline{x}_0) = \sum_{j=1}^{p} \frac{\partial f}{\partial y_j}(\overline{y}_0) \cdot \frac{\partial g_j}{\partial x_i}(\overline{x}_0)

En notación matricial: h(x0)=f(y0)Jg(x0)\nabla h(\overline{x}_0) = \nabla f(\overline{y}_0) \cdot J_{\overline{g}}(\overline{x}_0)

Segundo tema: 3B.2 Función Implícita e Inversa

3B.2.1 Derivación Implícita

La derivación implícita permite encontrar las derivadas de variables dependientes cuando las relaciones están dadas en forma implícita a través de ecuaciones.

3B.2.2 Teorema de la Función Implícita

Problema general: Dada una ecuación F(x,y)=0F(x, y) = 0, ¿cuándo define yy como función de xx localmente?

Teorema: Sea F:DFRn+1RF: D_F \subseteq \mathbb{R}^{n+1} \rightarrow \mathbb{R} una función de clase C1C^1 y (x0,y0)DF(\overline{x}_0, y_0) \in D_F tal que:

  1. F(x0,y0)=0F(\overline{x}_0, y_0) = 0
  2. Fy(x0,y0)0\frac{\partial F}{\partial y}(\overline{x}_0, y_0) \neq 0

Entonces existe un entorno UU de x0\overline{x}_0 y una función y=φ(x)y = \varphi(\overline{x}) de clase C1C^1 tal que F(x,φ(x))=0F(\overline{x}, \varphi(\overline{x})) = 0 para todo xU\overline{x} \in U.

3B.2.3 Derivación Inversa

Para funciones inversas, si y=f(x)\overline{y} = \overline{f}(\overline{x}) tiene inversa x=f1(y)\overline{x} = \overline{f}^{-1}(\overline{y}), entonces:

Jf1(y0)=[Jf(x0)]1J_{\overline{f}^{-1}}(\overline{y}_0) = [J_{\overline{f}}(\overline{x}_0)]^{-1}

3B.2.4 Teorema de la Función Inversa

Teorema: Sea f:DfRnRn\overline{f}: D_{\overline{f}} \subseteq \mathbb{R}^n \rightarrow \mathbb{R}^n una función de clase C1C^1 y x0Df\overline{x}_0 \in D_{\overline{f}} tal que Jf(x0)J_{\overline{f}}(\overline{x}_0) es invertible. Entonces f\overline{f} es localmente invertible en un entorno de x0\overline{x}_0.

Tercer tema: 3B.3 Tangentes, Normales y Variaciones

3B.3.1 Tangentes y Normales

Problema general: Determinar tangentes y normales a:

  • Gráficos de funciones
  • Conjuntos de nivel
  • Imágenes de funciones paramétricas

Para gráficos: Si z=f(x,y)z = f(x, y), el plano tangente en (x0,y0,f(x0,y0))(x_0, y_0, f(x_0, y_0)) es:

zf(x0,y0)=fx(x0,y0)(xx0)+fy(x0,y0)(yy0)z - f(x_0, y_0) = \frac{\partial f}{\partial x}(x_0, y_0)(x - x_0) + \frac{\partial f}{\partial y}(x_0, y_0)(y - y_0)

3B.3.2 Diferencial Total

Para una función escalar f:DfRnRf: D_f \subseteq \mathbb{R}^n \rightarrow \mathbb{R} diferenciable en un punto x0Df\overline{x}_0 \in D_f, la diferencial total es la aplicación lineal df(x0):RnRdf(\overline{x}_0): \mathbb{R}^n \rightarrow \mathbb{R} definida como:

df(x0)(h)=f(x0)hdf(\overline{x}_0)(\overline{h}) = \nabla f(\overline{x}_0) \cdot \overline{h}

Estimación de pequeñas variaciones:

Δfdf(x0)fx1(x0)Δx1++fxn(x0)Δxn\Delta f \approx df(\overline{x}_0) \approx \frac{\partial f}{\partial x_1}(\overline{x}_0)\Delta x_1 + \cdots + \frac{\partial f}{\partial x_n}(\overline{x}_0)\Delta x_n

3B.3.3 Variaciones Máximas

Dirección de máximo crecimiento: La dirección de máximo crecimiento de la función en un punto x0\overline{x}_0 es la dirección del gradiente, f(x0)\nabla f(\overline{x}_0). La dirección de máximo decrecimiento es la de f(x0)-\nabla f(\overline{x}_0).

Teorema: Sean fC1(Df)f \in C^1(D_f) y x0Int(Df)\overline{x}_0 \in \text{Int}(D_f) tales que f(x0)0\nabla f(\overline{x}_0) \neq \overline{0}. El máximo valor de la derivada direccional Duf(x0)D_{\overline{u}} f(\overline{x}_0) se produce en la dirección del vector unitario:

u=f(x0)f(x0)\overline{u} = \frac{\nabla f(\overline{x}_0)}{||\nabla f(\overline{x}_0)||}

Demostración:

Duf(x0)=f(x0)u=f(x0)ucosθ=f(x0)cosθD_{\overline{u}} f(\overline{x}_0) = \nabla f(\overline{x}_0) \cdot \overline{u} = ||\nabla f(\overline{x}_0)|| \cdot ||\overline{u}|| \cdot \cos\theta = ||\nabla f(\overline{x}_0)|| \cos\theta

El valor máximo de cosθ\cos\theta es 1 (cuando θ=0\theta = 0), y el mínimo es -1 (cuando θ=π\theta = \pi).

Cuarto tema: 3B.4 Desarrollo de Taylor y Extremos

3B.4.1 Desarrollo de Taylor

Taylor en una variable (repaso):

f(x)=f(x0)+f(x0)(xx0)+f(x0)2!(xx0)2+f(x) = f(x_0) + f'(x_0)(x - x_0) + \frac{f''(x_0)}{2!}(x - x_0)^2 + \cdots

Taylor en varias variables:

f(x)=f(x0)+f(x0)(xx0)+12(xx0)TH(x0)(xx0)+f(\overline{x}) = f(\overline{x}_0) + \nabla f(\overline{x}_0) \cdot (\overline{x} - \overline{x}_0) + \frac{1}{2}(\overline{x} - \overline{x}_0)^T H(\overline{x}_0) (\overline{x} - \overline{x}_0) + \cdots

3B.4.2 Extremos en Varias Variables

Definición: Sea f:DfRnRf: D_f \subseteq \mathbb{R}^n \rightarrow \mathbb{R} y x0Df\overline{x}_0 \in D_f.

  • x0\overline{x}_0 es un máximo local de ff si existe una bola Br(x0)B_r(\overline{x}_0) tal que para todo xBr(x0)Df\overline{x} \in B_r(\overline{x}_0) \cap D_f, f(x)f(x0)f(\overline{x}) \leq f(\overline{x}_0).
  • x0\overline{x}_0 es un mínimo local de ff si existe una bola Br(x0)B_r(\overline{x}_0) tal que para todo xBr(x0)Df\overline{x} \in B_r(\overline{x}_0) \cap D_f, f(x)f(x0)f(\overline{x}) \geq f(\overline{x}_0).

Los extremos locales se conocen como extremos relativos. Si las desigualdades son estrictas, se habla de extremos estrictos.

3B.4.3 Criterios para Extremos Libres

Criterio de la Primera Derivada (CN):

Sea f:DfRnRf: D_f \subseteq \mathbb{R}^n \rightarrow \mathbb{R} diferenciable en x0Int(Df)\overline{x}_0 \in \text{Int}(D_f). Si x0\overline{x}_0 es un extremo local de ff, entonces el gradiente de ff en x0\overline{x}_0 es el vector nulo:

f(x0)=0\nabla f(\overline{x}_0) = \overline{0}

Los puntos que satisfacen esta condición son los puntos críticos de ff.

Observación: La condición es necesaria pero no suficiente. No todo punto crítico es un extremo.

Criterio de la Segunda Derivada (CS):

Sea fC2(Df)f \in C^2(D_f) y x0Int(Df)\overline{x}_0 \in \text{Int}(D_f) un punto crítico de ff (f(x0)=0\nabla f(\overline{x}_0) = \overline{0}).

Se analiza la matriz hessiana H(x0)H(\overline{x}_0):

  • Si H(x0)H(\overline{x}_0) es definida positiva, x0\overline{x}_0 es un mínimo local estricto
  • Si H(x0)H(\overline{x}_0) es definida negativa, x0\overline{x}_0 es un máximo local estricto
  • Si H(x0)H(\overline{x}_0) es indefinida, x0\overline{x}_0 es un punto de silla
  • Si H(x0)H(\overline{x}_0) es semidefinida, el criterio no decide

Criterio de Sylvester para la definición de la matriz Hessiana:

  • Definida positiva: Todos los menores principales (determinantes de las submatrices superiores izquierdas) son positivos.
  • Definida negativa: Los signos de los menores principales se alternan, empezando por negativo: d1<0,d2>0,d3<0,d_1 < 0, d_2 > 0, d_3 < 0, \ldots