Analisi 2 - Teoremi in \(R^n\)
Table of Contents
- 1. Definizione di Limite in \(\mathbb{R}^n\)
- 2. Derivata in \(\mathbb{R}^n\) (Derivata Direzionale e Parziale)
- 3. Matrice Jacobiana
- 4. Differenziabilità in \(\mathbb{R}^n\)
- 5. Teorema degli Zeri (Bolzano) in \(\mathbb{R}^n\)
- 6. Teorema di Bolzano-Weierstrass in \(\mathbb{R}^n\)
- 7. Teorema di Weierstrass in \(\mathbb{R}^n\)
- 8. Teorema di Fermat in \(\mathbb{R}^n\)
- 9. Teorema di Rolle in \(\mathbb{R}^n\)
- 10. Teorema di Lagrange (Valor Medio) in \(\mathbb{R}^n\)
- 11. Teorema di Cauchy in \(\mathbb{R}^n\)
- 12. Teorema dei moltiplicatori di Lagrange
- 13. Riepilogo Grafico in \(\mathbb{R}^2\)
1. Definizione di Limite in \(\mathbb{R}^n\)
Definizione: Sia \(f: A \subseteq \mathbb{R}^n \to \mathbb{R}^m\) e \(\mathbf{x}_0\) un punto di accumulazione per \(A\). Si dice che:
\[\lim_{\mathbf{x} \to \mathbf{x}_0} f(\mathbf{x}) = \mathbf{L} \in \mathbb{R}^m\]
se per ogni \(\epsilon > 0\) esiste \(\delta > 0\) tale che:
\[\forall \mathbf{x} \in A, \quad 0 < \|\mathbf{x} - \mathbf{x}_0\| < \delta \implies \|f(\mathbf{x}) - \mathbf{L}\| < \epsilon.\]
Dimostrazione (Esempio in \(\mathbb{R}^2\)):
Per \(f(x,y) = x + y\) e \(\mathbf{x}_0 = (0,0)\):
- Fissato \(\epsilon > 0\), scegli \(\delta = \epsilon/2\).
- Se \(\sqrt{x^2 + y^2} < \delta\), allora \(|x + y| \leq |x| + |y| < 2\delta = \epsilon\).
2. Derivata in \(\mathbb{R}^n\) (Derivata Direzionale e Parziale)
La derivata parziale di \(f: \mathbb{R}^n \to \mathbb{R}\) rispetto a \(x_i\) è:
\[\frac{\partial f}{\partial x_i}(\mathbf{x}_0) = \lim_{h \to 0} \frac{f(\mathbf{x}_0 + h\mathbf{e}_i) - f(\mathbf{x}_0)}{h},\]
dove \(\mathbf{e}_i\) è il versore dell'asse \(i\)-esimo.
Esempio in \(\mathbb{R}^2\): Per \(f(x,y) = x^2 y\), \(\frac{\partial f}{\partial x} = 2xy\), \(\frac{\partial f}{\partial y} = x^2\).
3. Matrice Jacobiana
La matrice Jacobiana è uno strumento fondamentale in analisi multivariata che generalizza il concetto di derivata per funzioni \( \mathbf{f}: \mathbb{R}^n \to \mathbb{R}^m \). Descrive il tasso di variazione della funzione in ogni direzione.
3.1. Definizione Formale
Sia \( \mathbf{f}: \mathbb{R}^n \to \mathbb{R}^m \) una funzione vettoriale con componenti:
\[\mathbf{f}(\mathbf{x}) = \begin{pmatrix} f_1(x_1, \dots, x_n) \\ \vdots \\ f_m(x_1, \dots, x_n) \end{pmatrix}.\]
La matrice Jacobiana \( J_{\mathbf{f}}(\mathbf{x}) \) è una matrice \( m \times n \) definita come:
\[ J_{\mathbf{f}}(\mathbf{x}) = \begin{pmatrix} \frac{\partial f_1}{\partial x_1} & \cdots & \frac{\partial f_1}{\partial x_n} \\ \vdots & \ddots & \vdots \\ \frac{\partial f_m}{\partial x_1} & \cdots & \frac{\partial f_m}{\partial x_n} \end{pmatrix}. \]
- Ogni riga è il gradiente di una componente \( f_i \).
- Se \( m = n \), la Jacobiana è quadrata e il suo determinante è detto Jacobiano.
3.2. Interpretazione Geometrica
- Funzioni \( \mathbb{R}^2 \to \mathbb{R}^2 \) (es. trasformazioni del piano):
- La Jacobiana descrive come la funzione deforma lo spazio (rotazioni, dilatazioni, shear).
- Lo Jacobiano (determinante) misura il cambio di area/volume.
Esempio: Per \( \mathbf{f}(x,y) = (x^2 y, \sin y) \), la Jacobiana è:
\[J_{\mathbf{f}}(x,y) = \begin{pmatrix} 2xy & x^2 \\ 0 & \cos y \end{pmatrix}.\]
- Se \( \det(J) = 2xy \cos y \), la trasformazione preserva l'orientamento dove \( \det(J) > 0 \).
3.3. Differenziabilità e Approssimazione Lineare
La Jacobiana è la migliore approssimazione lineare di \( \mathbf{f} \) intorno a \( \mathbf{x}_0 \):
\[\mathbf{f}(\mathbf{x}_0 + \mathbf{h}) \approx \mathbf{f}(\mathbf{x}_0) + J_{\mathbf{f}}(\mathbf{x}_0) \mathbf{h} + o(\|\mathbf{h}\|).\]
- Se \( J_{\mathbf{f}}(\mathbf{x}_0) \) esiste e è continua, \( \mathbf{f} \) è differenziabile in \( \mathbf{x}_0 \).
3.4. Esempi in Dettaglio
Sia \( f(x,y) = e^{xy} \). La Jacobiana è il gradiente:
\[J_f(x,y) = \begin{pmatrix} ye^{xy} & xe^{xy} \end{pmatrix}.\]
Per \( \mathbf{f}(r,\theta) = (r \cos \theta, r \sin \theta) \):
\[J_{\mathbf{f}}(r,\theta) = \begin{pmatrix} \cos \theta & -r \sin \theta \\ \sin \theta & r \cos \theta \end{pmatrix}.\]
- Jacobiano: \( \det(J) = r(\cos^2 \theta + \sin^2 \theta) = r \) (usato negli integrali doppi).
3.5. Applicazioni
- Ottimizzazione: Trova punti critici risolvendo \( J_{\mathbf{f}}(\mathbf{x}) = \mathbf{0} \).
- Sistemi Dinamici: Linearizzazione di equazioni differenziali.
- Integrazione: Cambio di variabili con lo Jacobiano.
4. Differenziabilità in \(\mathbb{R}^n\)
\(f: \mathbb{R}^n \to \mathbb{R}^m\) è differenziabile in \(\mathbf{x}_0\) se esiste una trasformazione lineare \(J: \mathbb{R}^n \to \mathbb{R}^m\) (la matrice jacobiana) tale che:
\[\lim_{\mathbf{h} \to \mathbf{0}} \frac{\|f(\mathbf{x}_0 + \mathbf{h}) - f(\mathbf{x}_0) - J\mathbf{h}\|}{\|\mathbf{h}\|} = 0.\]
Dimostrazione (Caso \(n=2, m=1\)):
Se \(\frac{\partial f}{\partial x}\) e \(\frac{\partial f}{\partial y}\) esistono e sono continue in \(\mathbf{x}_0\), allora \(f\) è differenziabile e \(J = \nabla f(\mathbf{x}_0)\).
5. Teorema degli Zeri (Bolzano) in \(\mathbb{R}^n\)
Sia \(f: K \subseteq \mathbb{R}^n \to \mathbb{R}\) continua, con \(K\) connesso. Se \(f(\mathbf{a}) < 0\) e \(f(\mathbf{b}) > 0\) per \(\mathbf{a}, \mathbf{b} \in K\), esiste \(\mathbf{c} \in K\) tale che \(f(\mathbf{c}) = 0\).
Dimostrazione: Usa la proprietà dei connessi: l'immagine \(f(K)\) è un intervallo in \(\mathbb{R}\) che contiene \([f(\mathbf{a}), f(\mathbf{b})]\), quindi deve contenere \(0\).
6. Teorema di Bolzano-Weierstrass in \(\mathbb{R}^n\)
Ogni successione limitata in \(\mathbb{R}^n\) ha una sottosuccessione convergente.
Dimostrazione:
- Si applica iterativamente il caso \(n=1\) a ciascuna componente.
7. Teorema di Weierstrass in \(\mathbb{R}^n\)
Una funzione continua \(f: K \subseteq \mathbb{R}^n \to \mathbb{R}\), con \(K\) compatto (chiuso e limitato), ammette massimo e minimo assoluti.
Dimostrazione:
- \(f(K)\) è compatto in \(\mathbb{R}\) (per continuità), quindi ha estremi.
8. Teorema di Fermat in \(\mathbb{R}^n\)
Se \(f: \mathbb{R}^n \to \mathbb{R}\) ha un estremo locale in \(\mathbf{x}_0\) ed è differenziabile in \(\mathbf{x}_0\), allora \(\nabla f(\mathbf{x}_0) = \mathbf{0}\).
Dimostrazione:
- Se \(\nabla f(\mathbf{x}_0) \neq \mathbf{0}\), esiste una direzione lungo cui \(f\) cresce/decresce, contraddicendo l'estremo.
9. Teorema di Rolle in \(\mathbb{R}^n\)
Sia \(f: \overline{B}(\mathbf{a}, r) \subseteq \mathbb{R}^n \to \mathbb{R}\) continua, differenziabile nella palla aperta \(B(\mathbf{a}, r)\), e \(f(\mathbf{x}) = c\) costante sulla frontiera. Allora esiste \(\mathbf{x}_0 \in B(\mathbf{a}, r)\) con \(\nabla f(\mathbf{x}_0) = \mathbf{0}\).
Dimostrazione:
- Se \(f\) non è costante, ha un massimo/minimo interno per Weierstrass, e Fermat implica \(\nabla f = \mathbf{0}\).
10. Teorema di Lagrange (Valor Medio) in \(\mathbb{R}^n\)
Sia \(f: \mathbb{R}^n \to \mathbb{R}\) differenziabile. Per ogni \(\mathbf{a}, \mathbf{b} \in \mathbb{R}^n\), esiste \(\mathbf{c}\) sul segmento \([\mathbf{a}, \mathbf{b}]\) tale che:
\[f(\mathbf{b}) - f(\mathbf{a}) = \nabla f(\mathbf{c}) \cdot (\mathbf{b} - \mathbf{a}).\]
Dimostrazione:
- Si applica il teorema di Lagrange alla funzione \(g(t) = f(\mathbf{a} + t(\mathbf{b} - \mathbf{a}))\) su \([0,1]\).
11. Teorema di Cauchy in \(\mathbb{R}^n\)
Siano \(f, g: \mathbb{R}^n \to \mathbb{R}\) differenziabili. Per ogni \(\mathbf{a}, \mathbf{b} \in \mathbb{R}^n\), esiste \(\mathbf{c}\) sul segmento \([\mathbf{a}, \mathbf{b}]\) tale che:
\[(f(\mathbf{b}) - f(\mathbf{a})) \cdot \nabla g(\mathbf{c}) = (g(\mathbf{b}) - g(\mathbf{a})) \cdot \nabla f(\mathbf{c}).\]
Dimostrazione:
- Si considera \(h(\mathbf{x}) = (f(\mathbf{b}) - f(\mathbf{a}))g(\mathbf{x}) - (g(\mathbf{b}) - g(\mathbf{a}))f(\mathbf{x})\) e si applica Rolle.
12. Teorema dei moltiplicatori di Lagrange
Caso per lo spazio \(R^2\) cioe' \(f(x,y) \rightarrow z\)
I moltiplicatori di Lagrange sono uno strumento fondamentale per ottimizzare una funzione \( f(x, y) \) soggetta a un vincolo \( g(x, y) = 0 \). Ecco una spiegazione dettagliata con esempi e interpretazioni geometriche.
12.0.1. Introduzione al Problema
Supponiamo di voler trovare i massimi e minimi di una funzione \( f(x, y) \), ma solo tra i punti che soddisfano un vincolo \( g(x, y) = 0 \).
Esempio classico:
- \( f(x, y) = xy \) (funzione da massimizzare).
- \( g(x, y) = x^2 + y^2 - 1 = 0 \) (vincolo: punti sul cerchio unitario).
Obiettivo: Trovare i punti \((x, y)\) sul cerchio dove \( f(x, y) \) assume valori estremi.
12.0.2. Teorema dei Moltiplicatori di Lagrange
Se \( f \) e \( g \) sono differenziabili e \( \nabla g \neq \mathbf{0} \) sul vincolo, allora ogni punto di estremo vincolato soddisfa:
\[\nabla f(x, y) = \lambda \nabla g(x, y)\]
dove \( \lambda \) è un moltiplicatore di Lagrange.
Interpretazione Geometrica
- \( \nabla f \) è il vettore gradiente di \( f \), che punta nella direzione di massima crescita.
- \( \nabla g \) è ortogonale alla curva \( g(x, y) = 0 \).
- La condizione \( \nabla f = \lambda \nabla g \) significa che i gradienti sono paralleli, cioè le curve di livello di \( f \) sono tangenti al vincolo \( g \).
12.0.3. Procedura Passo-Passo
Scrivi il sistema di equazioni:
\begin{cases} \frac{\partial f}{\partial x} = \lambda \frac{\partial g}{\partial x}, \\ \frac{\partial f}{\partial y} = \lambda \frac{\partial g}{\partial y}, \\ g(x, y) = 0. \end{cases}- Risolvi per \( x, y, \lambda \).
- Verifica i punti trovati (massimi/minimi/selle).
13. Riepilogo Grafico in \(\mathbb{R}^2\)
- Limite: Approssimazione a \(\mathbf{L}\) in un intorno di \(\mathbf{x}_0\).
- Differenziabilità: Piano tangente che approssima \(f\).
- Teoremi: Collegamenti tra continuità, derivabilità e proprietà topologiche (compattezza, connessione).