📋 RESUM: Diferencial i aplicacions
• En 1 variable: si f és derivable en a, df_a(h)=f'(a)h i f(a+h)=f(a)+f'(a)h+o(h).
• Aproximació lineal: Δf≈df; error sovint O(h²) si f'' acotada.
• En ℝⁿ→ℝᵐ: f és diferenciable en a si existeix L lineal amb f(a+h)=f(a)+L(h)+o(‖h‖). L és el diferencial Df(a).
• Jacobiana: J_f(a)=(∂f_i/∂x_j)(a) i df_a(h)=J_f(a)h.
• Condició suficient: derivades parcials contínues (C¹) ⇒ diferenciabilitat.
• Derivada direccional: D_u f(a)=∇f(a)·u; màxim = ‖∇f‖.
• Pla tangent a z=f(x,y): z=f(a,b)+f_x(a,b)(x-a)+f_y(a,b)(y-b).
• Regla de la cadena: D(f∘g)(a)=Df(g(a))·Dg(a).
• Propagació d’errors: Δy≈Σ f_{x_i}(a)Δx_i.
• Taylor multivariable: f(a+h)=f(a)+∇f(a)·h+½ hᵀH_f(a)h+o(‖h‖²).
Desarrollo del tema
# DIFERENCIAL. APLICACIONS
## 1. Introducció
El concepte de **diferencial** formalitza l’aproximació lineal d’una funció en un punt i és una peça clau del càlcul en una i diverses variables. En una variable, el diferencial està íntimament lligat a la derivada i a l’aproximació de Taylor. En diverses variables, la diferenciabilitat es tradueix en l’existència d’una aplicació lineal (el **diferencial**) que aproxima la funció. Aquesta idea és la base de mètodes d’optimització, propagació d’errors, anàlisi local i geometria diferencial elemental.
## 2. Diferencial en una variable
### 2.1 Definició
Sigui $f: I\subset\mathbb{R}\to\mathbb{R}$ derivable en $a$. Definim el **diferencial** de $f$ en $a$ com l’aplicació lineal:
### 3.1 Derivada (diferencial) com a aplicació lineal
Sigui $f:U\subset\mathbb{R}^n\to\mathbb{R}^m$ i $\mathbf{a}\in U$. Direm que $f$ és **diferenciable** en $\mathbf{a}$ si existeix una aplicació lineal $L: \mathbb{R}^n\to\mathbb{R}^m$ tal que:
**Teorema:** Si totes les derivades parcials de $f$ existeixen en un entorn de $\mathbf{a}$ i són **contínues** en $\mathbf{a}$, aleshores $f$ és diferenciable en $\mathbf{a}$.
## 7. Aplicacions: Optimització amb restriccions (esbós)
El diferencial és la base del mètode dels **multiplicadors de Lagrange**.
Per maximitzar/minimitzar $f(x,y)$ sota la restricció $g(x,y)=0$, en punts regulars ($\nabla g\neq 0$):
$$\nabla f=\lambda\,\nabla g.$$
Interpretem que el gradient (direcció de màxim creixement) de $f$ és paral·lel al de la restricció: en el punt òptim, el moviment permès és tangent a la corba de nivell de $g$ i el diferencial de $f$ s’anul·la en direccions tangents.
## 8. Diferencial i desenvolupament de Taylor multivariable
on $H_f$ és la **hessiana**. El terme lineal és el diferencial, i el terme quadràtic explica la curvatura (clau per classificar extrems).
## 9. Conclusions
El diferencial és l’eina que generalitza la derivada com a aproximació lineal. En una variable, condueix a l’aproximació de Taylor i a l’estimació d’errors. En diverses variables, es concreta en el jacobià i el gradient, i permet formular de manera elegant la regla de la cadena, el pla tangent i la propagació d’incerteses. Dominar el diferencial és essencial per comprendre l’anàlisi local i les aplicacions a optimització i modelització.
Estudia este tema con OPOSGRATIS
Has leído el desarrollo del tema. Para consolidar tu aprendizaje, estudia las flashcards asociadas con repetición espaciada (algoritmo SM-2), realiza simulacros de examen, y practica el supuesto práctico. Todo gratis y sin registro previo.