UP | HOME

Analisi 2 - Teoremi in \(R^n\)

Table of Contents

1. Definizione di Limite in \(\mathbb{R}^n\)

Definizione: Sia \(f: A \subseteq \mathbb{R}^n \to \mathbb{R}^m\) e \(\mathbf{x}_0\) un punto di accumulazione per \(A\). Si dice che:

\[\lim_{\mathbf{x} \to \mathbf{x}_0} f(\mathbf{x}) = \mathbf{L} \in \mathbb{R}^m\]

se per ogni \(\epsilon > 0\) esiste \(\delta > 0\) tale che:

\[\forall \mathbf{x} \in A, \quad 0 < \|\mathbf{x} - \mathbf{x}_0\| < \delta \implies \|f(\mathbf{x}) - \mathbf{L}\| < \epsilon.\]

Dimostrazione (Esempio in \(\mathbb{R}^2\)):

Per \(f(x,y) = x + y\) e \(\mathbf{x}_0 = (0,0)\):

  • Fissato \(\epsilon > 0\), scegli \(\delta = \epsilon/2\).
  • Se \(\sqrt{x^2 + y^2} < \delta\), allora \(|x + y| \leq |x| + |y| < 2\delta = \epsilon\).

2. Derivata in \(\mathbb{R}^n\) (Derivata Direzionale e Parziale)

La derivata parziale di \(f: \mathbb{R}^n \to \mathbb{R}\) rispetto a \(x_i\) è:

\[\frac{\partial f}{\partial x_i}(\mathbf{x}_0) = \lim_{h \to 0} \frac{f(\mathbf{x}_0 + h\mathbf{e}_i) - f(\mathbf{x}_0)}{h},\]

dove \(\mathbf{e}_i\) è il versore dell'asse \(i\)-esimo.

Esempio in \(\mathbb{R}^2\): Per \(f(x,y) = x^2 y\), \(\frac{\partial f}{\partial x} = 2xy\), \(\frac{\partial f}{\partial y} = x^2\).

3. Matrice Jacobiana

La matrice Jacobiana è uno strumento fondamentale in analisi multivariata che generalizza il concetto di derivata per funzioni \( \mathbf{f}: \mathbb{R}^n \to \mathbb{R}^m \). Descrive il tasso di variazione della funzione in ogni direzione.

3.1. Definizione Formale

Sia \( \mathbf{f}: \mathbb{R}^n \to \mathbb{R}^m \) una funzione vettoriale con componenti:

\[\mathbf{f}(\mathbf{x}) = \begin{pmatrix} f_1(x_1, \dots, x_n) \\ \vdots \\ f_m(x_1, \dots, x_n) \end{pmatrix}.\]

La matrice Jacobiana \( J_{\mathbf{f}}(\mathbf{x}) \) è una matrice \( m \times n \) definita come:

\[ J_{\mathbf{f}}(\mathbf{x}) = \begin{pmatrix} \frac{\partial f_1}{\partial x_1} & \cdots & \frac{\partial f_1}{\partial x_n} \\ \vdots & \ddots & \vdots \\ \frac{\partial f_m}{\partial x_1} & \cdots & \frac{\partial f_m}{\partial x_n} \end{pmatrix}. \]

  • Ogni riga è il gradiente di una componente \( f_i \).
  • Se \( m = n \), la Jacobiana è quadrata e il suo determinante è detto Jacobiano.

3.2. Interpretazione Geometrica

  • Funzioni \( \mathbb{R}^2 \to \mathbb{R}^2 \) (es. trasformazioni del piano):
    • La Jacobiana descrive come la funzione deforma lo spazio (rotazioni, dilatazioni, shear).
    • Lo Jacobiano (determinante) misura il cambio di area/volume.

Esempio: Per \( \mathbf{f}(x,y) = (x^2 y, \sin y) \), la Jacobiana è:

\[J_{\mathbf{f}}(x,y) = \begin{pmatrix} 2xy & x^2 \\ 0 & \cos y \end{pmatrix}.\]

  • Se \( \det(J) = 2xy \cos y \), la trasformazione preserva l'orientamento dove \( \det(J) > 0 \).

3.3. Differenziabilità e Approssimazione Lineare

La Jacobiana è la migliore approssimazione lineare di \( \mathbf{f} \) intorno a \( \mathbf{x}_0 \):

\[\mathbf{f}(\mathbf{x}_0 + \mathbf{h}) \approx \mathbf{f}(\mathbf{x}_0) + J_{\mathbf{f}}(\mathbf{x}_0) \mathbf{h} + o(\|\mathbf{h}\|).\]

  • Se \( J_{\mathbf{f}}(\mathbf{x}_0) \) esiste e è continua, \( \mathbf{f} \) è differenziabile in \( \mathbf{x}_0 \).

3.4. Esempi in Dettaglio

Sia \( f(x,y) = e^{xy} \). La Jacobiana è il gradiente:

\[J_f(x,y) = \begin{pmatrix} ye^{xy} & xe^{xy} \end{pmatrix}.\]

Per \( \mathbf{f}(r,\theta) = (r \cos \theta, r \sin \theta) \):

\[J_{\mathbf{f}}(r,\theta) = \begin{pmatrix} \cos \theta & -r \sin \theta \\ \sin \theta & r \cos \theta \end{pmatrix}.\]

  • Jacobiano: \( \det(J) = r(\cos^2 \theta + \sin^2 \theta) = r \) (usato negli integrali doppi).

3.5. Applicazioni

  1. Ottimizzazione: Trova punti critici risolvendo \( J_{\mathbf{f}}(\mathbf{x}) = \mathbf{0} \).
  2. Sistemi Dinamici: Linearizzazione di equazioni differenziali.
  3. Integrazione: Cambio di variabili con lo Jacobiano.

4. Differenziabilità in \(\mathbb{R}^n\)

\(f: \mathbb{R}^n \to \mathbb{R}^m\) è differenziabile in \(\mathbf{x}_0\) se esiste una trasformazione lineare \(J: \mathbb{R}^n \to \mathbb{R}^m\) (la matrice jacobiana) tale che:

\[\lim_{\mathbf{h} \to \mathbf{0}} \frac{\|f(\mathbf{x}_0 + \mathbf{h}) - f(\mathbf{x}_0) - J\mathbf{h}\|}{\|\mathbf{h}\|} = 0.\]

Dimostrazione (Caso \(n=2, m=1\)):

Se \(\frac{\partial f}{\partial x}\) e \(\frac{\partial f}{\partial y}\) esistono e sono continue in \(\mathbf{x}_0\), allora \(f\) è differenziabile e \(J = \nabla f(\mathbf{x}_0)\).

5. Teorema degli Zeri (Bolzano) in \(\mathbb{R}^n\)

Sia \(f: K \subseteq \mathbb{R}^n \to \mathbb{R}\) continua, con \(K\) connesso. Se \(f(\mathbf{a}) < 0\) e \(f(\mathbf{b}) > 0\) per \(\mathbf{a}, \mathbf{b} \in K\), esiste \(\mathbf{c} \in K\) tale che \(f(\mathbf{c}) = 0\).

Dimostrazione: Usa la proprietà dei connessi: l'immagine \(f(K)\) è un intervallo in \(\mathbb{R}\) che contiene \([f(\mathbf{a}), f(\mathbf{b})]\), quindi deve contenere \(0\).

6. Teorema di Bolzano-Weierstrass in \(\mathbb{R}^n\)

Ogni successione limitata in \(\mathbb{R}^n\) ha una sottosuccessione convergente.

Dimostrazione:

  • Si applica iterativamente il caso \(n=1\) a ciascuna componente.

7. Teorema di Weierstrass in \(\mathbb{R}^n\)

Una funzione continua \(f: K \subseteq \mathbb{R}^n \to \mathbb{R}\), con \(K\) compatto (chiuso e limitato), ammette massimo e minimo assoluti.

Dimostrazione:

  • \(f(K)\) è compatto in \(\mathbb{R}\) (per continuità), quindi ha estremi.

8. Teorema di Fermat in \(\mathbb{R}^n\)

Se \(f: \mathbb{R}^n \to \mathbb{R}\) ha un estremo locale in \(\mathbf{x}_0\) ed è differenziabile in \(\mathbf{x}_0\), allora \(\nabla f(\mathbf{x}_0) = \mathbf{0}\).

Dimostrazione:

  • Se \(\nabla f(\mathbf{x}_0) \neq \mathbf{0}\), esiste una direzione lungo cui \(f\) cresce/decresce, contraddicendo l'estremo.

9. Teorema di Rolle in \(\mathbb{R}^n\)

Sia \(f: \overline{B}(\mathbf{a}, r) \subseteq \mathbb{R}^n \to \mathbb{R}\) continua, differenziabile nella palla aperta \(B(\mathbf{a}, r)\), e \(f(\mathbf{x}) = c\) costante sulla frontiera. Allora esiste \(\mathbf{x}_0 \in B(\mathbf{a}, r)\) con \(\nabla f(\mathbf{x}_0) = \mathbf{0}\).

Dimostrazione:

  • Se \(f\) non è costante, ha un massimo/minimo interno per Weierstrass, e Fermat implica \(\nabla f = \mathbf{0}\).

10. Teorema di Lagrange (Valor Medio) in \(\mathbb{R}^n\)

Sia \(f: \mathbb{R}^n \to \mathbb{R}\) differenziabile. Per ogni \(\mathbf{a}, \mathbf{b} \in \mathbb{R}^n\), esiste \(\mathbf{c}\) sul segmento \([\mathbf{a}, \mathbf{b}]\) tale che:

\[f(\mathbf{b}) - f(\mathbf{a}) = \nabla f(\mathbf{c}) \cdot (\mathbf{b} - \mathbf{a}).\]

Dimostrazione:

  • Si applica il teorema di Lagrange alla funzione \(g(t) = f(\mathbf{a} + t(\mathbf{b} - \mathbf{a}))\) su \([0,1]\).

11. Teorema di Cauchy in \(\mathbb{R}^n\)

Siano \(f, g: \mathbb{R}^n \to \mathbb{R}\) differenziabili. Per ogni \(\mathbf{a}, \mathbf{b} \in \mathbb{R}^n\), esiste \(\mathbf{c}\) sul segmento \([\mathbf{a}, \mathbf{b}]\) tale che:

\[(f(\mathbf{b}) - f(\mathbf{a})) \cdot \nabla g(\mathbf{c}) = (g(\mathbf{b}) - g(\mathbf{a})) \cdot \nabla f(\mathbf{c}).\]

Dimostrazione:

  • Si considera \(h(\mathbf{x}) = (f(\mathbf{b}) - f(\mathbf{a}))g(\mathbf{x}) - (g(\mathbf{b}) - g(\mathbf{a}))f(\mathbf{x})\) e si applica Rolle.

12. Teorema dei moltiplicatori di Lagrange

Caso per lo spazio \(R^2\) cioe' \(f(x,y) \rightarrow z\)

I moltiplicatori di Lagrange sono uno strumento fondamentale per ottimizzare una funzione \( f(x, y) \) soggetta a un vincolo \( g(x, y) = 0 \). Ecco una spiegazione dettagliata con esempi e interpretazioni geometriche.

12.0.1. Introduzione al Problema

Supponiamo di voler trovare i massimi e minimi di una funzione \( f(x, y) \), ma solo tra i punti che soddisfano un vincolo \( g(x, y) = 0 \).

Esempio classico:

  • \( f(x, y) = xy \) (funzione da massimizzare).
  • \( g(x, y) = x^2 + y^2 - 1 = 0 \) (vincolo: punti sul cerchio unitario).

Obiettivo: Trovare i punti \((x, y)\) sul cerchio dove \( f(x, y) \) assume valori estremi.

12.0.2. Teorema dei Moltiplicatori di Lagrange

Se \( f \) e \( g \) sono differenziabili e \( \nabla g \neq \mathbf{0} \) sul vincolo, allora ogni punto di estremo vincolato soddisfa:

\[\nabla f(x, y) = \lambda \nabla g(x, y)\]

dove \( \lambda \) è un moltiplicatore di Lagrange.

Interpretazione Geometrica

  • \( \nabla f \) è il vettore gradiente di \( f \), che punta nella direzione di massima crescita.
  • \( \nabla g \) è ortogonale alla curva \( g(x, y) = 0 \).
  • La condizione \( \nabla f = \lambda \nabla g \) significa che i gradienti sono paralleli, cioè le curve di livello di \( f \) sono tangenti al vincolo \( g \).

12.0.3. Procedura Passo-Passo

  1. Scrivi il sistema di equazioni:

    \begin{cases} \frac{\partial f}{\partial x} = \lambda \frac{\partial g}{\partial x}, \\ \frac{\partial f}{\partial y} = \lambda \frac{\partial g}{\partial y}, \\ g(x, y) = 0. \end{cases}
  2. Risolvi per \( x, y, \lambda \).
  3. Verifica i punti trovati (massimi/minimi/selle).

13. Riepilogo Grafico in \(\mathbb{R}^2\)

  • Limite: Approssimazione a \(\mathbf{L}\) in un intorno di \(\mathbf{x}_0\).
  • Differenziabilità: Piano tangente che approssima \(f\).
  • Teoremi: Collegamenti tra continuità, derivabilità e proprietà topologiche (compattezza, connessione).

Author: andrea venuti

Created: 2025-07-31 gio 09:32

Validate