Differenziale (matematica)

In matematica, in particolare nel calcolo infinitesimale, il differenziale di una funzione quantifica la variazione infinitesimale della funzione rispetto ad una variabile indipendente. Per una funzione y = f ( x ) {\displaystyle y=f(x)} di una sola variabile x {\displaystyle x} , per esempio, il differenziale d y {\displaystyle dy} di f {\displaystyle f} è definito dalla 1-forma:

d y ( x , d x ) = f ( x ) d x , {\displaystyle dy(x,dx)=f'(x)dx,}

dove f {\displaystyle f'} denota la derivata di f {\displaystyle f} rispetto a x {\displaystyle x} , ovvero il limite del rapporto incrementale Δ f / Δ x {\displaystyle \Delta f/\Delta x} per Δ x {\displaystyle \Delta x} indefinitamente piccolo, e d x {\displaystyle dx} l'incremento della variabile indipendente.

Se si considera una funzione f : U R {\displaystyle f:U\to \mathbb {R} } derivabile, con U {\displaystyle U} aperto in R {\displaystyle \mathbb {R} } , essa può essere approssimata in un intorno di un qualsiasi punto x 0 {\displaystyle x_{0}} del dominio mediante la funzione

l ( x ) = f ( x 0 ) ( x x 0 ) + f ( x 0 ) {\displaystyle l(x)=f'(x_{0})(x-x_{0})+f(x_{0})}

il cui grafico è la retta tangente al grafico di f {\displaystyle f} in ( x 0 , f ( x 0 ) ) {\displaystyle (x_{0},f(x_{0}))} . La funzione l {\displaystyle l} è un'applicazione affine da R {\displaystyle \mathbb {R} } in sé, cioè un'applicazione lineare sulla distanza da x 0 {\displaystyle x_{0}} composta con una traslazione (l'aggiunta del termine + f ( x 0 ) {\displaystyle +f(x_{0})} ). Il differenziale è allora la parte lineare di l {\displaystyle l} .

Le derivate direzionali di una funzione indicano di quanto varia la funzione al primo ordine lungo un determinato vettore, mentre il differenziale è l'applicazione lineare che associa a quel vettore la variazione al primo ordine. Si tratta pertanto di un oggetto utile per avere informazioni locali sulla funzione di partenza, ad esempio mostra se è localmente invertibile.

Definizione

Nella trattazione moderna del calcolo differenziale, il differenziale di una funzione f ( x ) {\displaystyle f(x)} di una sola variabile x {\displaystyle x} è la funzione d f {\displaystyle df} di due variabili indipendenti x {\displaystyle x} e h {\displaystyle h} data da:

d f ( x , h ) = d e f f ( x ) h , {\displaystyle df(x,h){\stackrel {\rm {def}}{=}}f'(x)h,}

dove f {\displaystyle f'} è la derivata di f {\displaystyle f} . Tale nozione trova la sua principale applicazione nell'approssimazione lineare di una funzione.

Siano E {\displaystyle E} e F {\displaystyle F} due spazi di Banach (ad esempio E {\displaystyle E} può coincidere con R m {\displaystyle \mathbb {R} ^{m}} e F {\displaystyle F} con R n {\displaystyle \mathbb {R} ^{n}} ) ed U E {\displaystyle U\subset E} aperto.

Una funzione f : U F {\displaystyle f\colon U\to F} si dice differenziabile in x U {\displaystyle x\in U} se la sua variazione quando si allontana da x {\displaystyle x} è approssimabile tramite una applicazione lineare continua (se E {\displaystyle E} ha dimensione finita la continuità è assicurata). In modo esplicito, esistono ϕ : E F {\displaystyle \phi :E\to F} lineare e σ : U F {\displaystyle \sigma \colon U\to F} tali che:[1]

f ( x + h ) f ( x ) = ϕ ( h ) + h σ ( h ) , con  lim h 0 σ ( h ) = 0 , {\displaystyle f(x+h)-f(x)=\phi (h)+\|h\|\sigma (h),\qquad {\text{con }}\lim _{h\to 0}\sigma (h)=0,}

usando la notazione con o-piccolo si ha, in modo equivalente:

f ( x + h ) = f ( x ) + ϕ ( h ) + o ( h ) . {\displaystyle f(x+h)=f(x)+\phi (h)+o(\|h\|).}

Se f {\displaystyle f} è differenziabile in x {\displaystyle x} , l'applicazione lineare ϕ {\displaystyle \phi } si chiama differenziale di f {\displaystyle f} in x {\displaystyle x} ed è talvolta denotata con d f ( x ) {\displaystyle df(x)} , f ( x ) {\displaystyle f'(x)} o anche D f ( x ) {\displaystyle Df(x)} .

Il differenziale è la parte lineare dell'applicazione affine che ha il grafico tangente a quello della funzione

La presenza dell'o-piccolo indica che i grafici di f {\displaystyle f} e f ( x ) + d f ( x ) {\displaystyle f(x)+df(x)} sono tangenti in x {\displaystyle x} . Intuitivamente si può pensare che f {\displaystyle f} sia una funzione da R 2 {\displaystyle \mathbb {R} ^{2}} in R {\displaystyle \mathbb {R} } , e quindi che il grafico di f {\displaystyle f} sia una superficie e quello di f ( x ) + d f ( x ) {\displaystyle f(x)+df(x)} un piano. In tal caso, se i due grafici incontrandosi in x {\displaystyle x} formassero un angolo θ {\displaystyle \theta } allora la differenza:

ε ( h ) = f ( x + h ) ( f ( x ) + d f ( x ) ( h ) ) {\displaystyle \varepsilon (h)=f(x+h)-(f(x)+df(x)(h))}

dovrebbe essere lineare avvicinandosi ad x {\displaystyle x} in una certa direzione e il rapporto ε / h {\displaystyle \varepsilon /{\|h\|}} tenderebbe alla tangente dell'angolo θ {\displaystyle \theta } formato tra il piano e la superficie nella direzione considerata.

Segue che se f {\displaystyle f} è differenziabile in x {\displaystyle x} il differenziale d f ( x ) {\displaystyle df(x)} è la parte lineare della applicazione affine il cui grafico è tangente a quello di f {\displaystyle f} in x {\displaystyle x} .

In modo equivalente, se f {\displaystyle f} è differenziabile in x {\displaystyle x} si può scrivere:

f ( x + h ) f ( x ) ϕ ( h ) = o ( h ) {\displaystyle f(x+h)-f(x)-\phi (h)=o(\|h\|)}

e per definizione di o-piccolo:

f ( x + h ) f ( x ) ϕ ( h ) h 0 , per  h 0. {\displaystyle {\frac {f(x+h)-f(x)-\phi (h)}{\|h\|}}\to 0,\qquad {\text{per }}h\to 0.}

Considerando tale espressione come definizione, f {\displaystyle f} è differenziabile in x {\displaystyle x} se esiste ϕ {\displaystyle \phi } tale per cui il limite sia nullo (l'altra implicazione per dimostrarne l'equivalenza si ottiene prendendo

σ ( h ) = h 1 ( f ( x + h ) f ( x ) ϕ ( h ) ) ) . {\displaystyle \sigma (h)=\|h\|^{-1}(f(x+h)-f(x)-\phi (h))).}

Scelte delle basi per E {\displaystyle E} e F {\displaystyle F} , se questi sono di dimensione finita, allora si può rappresentare ϕ {\displaystyle \phi } con una matrice detta matrice jacobiana. Si possono distinguere, in particolare, tre sottocasi:

  • Sia f : D R R {\displaystyle f\colon D\subset \mathbb {R} \to \mathbb {R} } . Il concetto di differenziale coincide con quello di derivata, essendo il differenziale di f {\displaystyle f} in x {\displaystyle x} un'applicazione lineare d f : R R {\displaystyle df\colon \mathbb {R} \to \mathbb {R} } e quindi una funzione del tipo d f ( x ) ( h ) = a h {\displaystyle df(x)(h)=ah} per qualche numero reale a {\displaystyle a} (tutte le applicazioni lineari R R {\displaystyle \mathbb {R} \to \mathbb {R} } sono di tale forma fissata la base canonica). Il numero a {\displaystyle a} è la derivata di f {\displaystyle f} in x {\displaystyle x} , infatti per definizione:
f ( x + h ) f ( x ) = a h + σ ( h ) h . {\displaystyle f(x+h)-f(x)=ah+\sigma (h)\|h\|.}
Dividendo per h {\displaystyle h} e considerando il limite h 0 {\displaystyle h\to 0} si ottiene f ( x ) = a {\displaystyle f'(x)=a} in quanto lim h 0 σ ( h ) = 0 {\displaystyle \lim _{h\to 0}\sigma (h)=0} .
  • Sia f : D R n R {\displaystyle f\colon D\subset \mathbb {R} ^{n}\to \mathbb {R} } . La jacobiana è in tal caso una matrice 1 × n {\displaystyle 1\times n} perché rappresenta un'applicazione lineare R n R {\displaystyle \mathbb {R} ^{n}\to \mathbb {R} } (prese sempre le basi canoniche per dominio e codominio), ed è pertanto un vettore riga detto gradiente. Tale vettore può essere considerato un vettore colonna (prendendone la trasposta), ed in questo caso si calcola l'immagine di h {\displaystyle h} tramite il gradiente di f {\displaystyle f} facendone il prodotto scalare, e non la moltiplicazione tra matrici.
Solitamente si usano funzioni f : D R n R {\displaystyle f\colon D\subset \mathbb {R} ^{n}\to \mathbb {R} } per definire implicitamente delle ipersuperfici su D {\displaystyle D} . Ad esempio, per n = 2 {\displaystyle n=2} si può definire una curva γ {\displaystyle \gamma } come l'insieme degli x D {\displaystyle x\in D} per cui f ( x ) = 0 {\displaystyle f(x)=0} , mentre per n = 3 {\displaystyle n=3} si avrebbe una superficie. È inoltre possibile dimostrare che se il gradiente di una funzione non è nullo il nucleo della funzione, opportunamente traslato, è il sottospazio affine tangente all'ipersuperficie in x {\displaystyle x} (quando si prende come gradiente il vettore colonna il nucleo è il sottospazio ortogonale al gradiente).
  • Sia f : [ a , b ] R R n {\displaystyle f\colon [a,b]\subset \mathbb {R} \to \mathbb {R} ^{n}} . L'immagine di f {\displaystyle f} è una curva in R n {\displaystyle \mathbb {R} ^{n}} . La jacobiana n × 1 {\displaystyle n\times 1} ha le stesse componenti del vettore che si ottiene come limite del rapporto incrementale. Quando f {\displaystyle f} rappresenta la posizione di un punto materiale nello spazio, per esempio, f {\displaystyle f'} è la velocità. Così d f ( t ) = f d t = f ( t t 0 ) {\displaystyle df(t)=f'dt=f'(t-t_{0})} è una retta che opportunamente traslata è tangente in f ( t 0 ) {\displaystyle f(t_{0})} alla curva.

La notazione di Leibniz nel caso di funzioni reali

Giustificazione della notazione di Leibniz in termini del differenziale della funzione

La funzione identità associa x {\displaystyle x} a sé stesso ed è lineare e differenziabile. Come ogni funzione lineare, il suo differenziale è uguale alla funzione stessa e indipendente dal punto x {\displaystyle x} in cui lo si calcola. Se lo si indica con d x ( x ) {\displaystyle dx(x)} si ha, indipendentemente da x {\displaystyle x} :

d x ( x ) ( h ) = h . {\displaystyle dx(x)(h)=h.}

Dal momento che la derivata è la jacobiana del differenziale per funzioni da R {\displaystyle \mathbb {R} } in R {\displaystyle \mathbb {R} } si ottiene:

d f ( x ) ( h ) = f ( x ) h = f ( x ) d x ( h ) , {\displaystyle df(x)(h)=f'(x)h=f'(x)dx(h),}

da cui:

f ( x ) = d f ( x ) ( h ) d x ( h ) . {\displaystyle f'(x)={\frac {df(x)(h)}{dx(h)}}.}

Quindi, il rapporto delle due funzioni lineari (i due differenziali) è costante ed è uguale alla derivata nel punto. In questo modo è possibile dare un senso rigoroso alla notazione di Leibniz, che esprime la derivata di una funzione come il quoziente tra il differenziale della funzione e quello della variabile indipendente. Tuttavia, la trattazione svolta in questa forma non è in grado di giustificare le operazioni aritmetiche sui differenziali che, nella notazione di Leibniz, nonostante la mancanza di una base rigorosa forniscono un metodo mnemonico semplice per la scrittura di proprietà delle derivate. Per un recupero rigoroso dei metodi leibniziani è invece necessario rifarsi a metodi che appartengono all'analisi non standard, formulata da Abraham Robinson negli anni sessanta.

Differenziale in più variabili

Data una funzione y = f ( x 1 , , x n ) {\displaystyle y=f(x_{1},\dots ,x_{n})} , il differenziale parziale di y {\displaystyle y} rispetto ad ognuna delle variabili x 1 , , x n {\displaystyle x_{1},\dots ,x_{n}} è ( y / x i ) d x i {\displaystyle (\partial y/\partial x_{i})dx_{i}} , dove y / x i {\displaystyle \partial y/\partial x_{i}} è la derivata parziale rispetto all' i {\displaystyle i} -esima coordinata. Il differenziale totale della funzione è dato dalla somma dei differenziali parziali relativi a tutte le variabili indipendenti:

d y = y x 1 d x 1 + + y x n d x n = i = 1 n y x i d x i . {\displaystyle dy={\frac {\partial y}{\partial x_{1}}}dx_{1}+\cdots +{\frac {\partial y}{\partial x_{n}}}dx_{n}=\sum _{i=1}^{n}{\frac {\partial y}{\partial x_{i}}}dx_{i}.}

In maniera più compatta si può indicare come:

d y = y d x , {\displaystyle dy=\nabla y\cdot d\mathbf {x} ,}

dove con y {\displaystyle \nabla y} si indica il gradiente di y {\displaystyle y} , con d x {\displaystyle d\mathbf {x} } la variazione infinitesima che è un vettore con componenti infinitesime e con {\displaystyle \cdot } il prodotto scalare.

In un contesto più formale, se f {\displaystyle f} è una funzione differenziabile l'incremento è dato da:

Δ y f ( x 1 + Δ x 1 , , x n + Δ x n ) f ( x 1 , , x n ) , {\displaystyle \Delta y\equiv f(x_{1}+\Delta x_{1},\dots ,x_{n}+\Delta x_{n})-f(x_{1},\dots ,x_{n}),}
= y x 1 Δ x 1 + + y x n Δ x n + ε 1 Δ x 1 + + ε n Δ x n , {\displaystyle ={\frac {\partial y}{\partial x_{1}}}\Delta x_{1}+\cdots +{\frac {\partial y}{\partial x_{n}}}\Delta x_{n}+\varepsilon _{1}\Delta x_{1}+\cdots +\varepsilon _{n}\Delta x_{n},}

dove i termini di errore ε i {\displaystyle \varepsilon _{i}} si annullano all'annullarsi di Δ x i {\displaystyle \Delta x_{i}} . In modo rigoroso si definisce quindi il differenziale totale nel modo seguente:

d y = y x 1 Δ x 1 + + y x n Δ x n . {\displaystyle dy={\frac {\partial y}{\partial x_{1}}}\Delta x_{1}+\cdots +{\frac {\partial y}{\partial x_{n}}}\Delta x_{n}.}

Con tale definizione si ha:

d x i ( Δ x 1 , , Δ x n ) = Δ x i {\displaystyle dx_{i}(\Delta x_{1},\dots ,\Delta x_{n})=\Delta x_{i}}

e quindi si può scrivere:

d y = y x 1 d x 1 + + y x n d x n . {\displaystyle dy={\frac {\partial y}{\partial x_{1}}}\,dx_{1}+\cdots +{\frac {\partial y}{\partial x_{n}}}\,dx_{n}.}

Analogamente al caso di una sola variabile vale l'approssimazione

d y Δ y {\displaystyle dy\approx \Delta y}

in cui l'errore totale può essere reso piccolo a piacere relativamente a Δ x 1 2 + + Δ x n 2 {\displaystyle {\sqrt {\Delta x_{1}^{2}+\cdots +\Delta x_{n}^{2}}}} considerato incrementi sufficientemente piccoli.

Differenziali di ordine superiore

I differenziali di ordine superiore di una funzione y = f ( x ) {\displaystyle y=f(x)} di una sola variabile x {\displaystyle x} possono essere definiti nel modo seguente:

d 2 y = d ( d y ) = d ( f ( x ) d x ) = f ( x ) ( d x ) 2 {\displaystyle d^{2}y=d(dy)=d(f'(x)dx)=f''(x)\,(dx)^{2}}

e più in generale:

d n y = f ( n ) ( x ) ( d x ) n . {\displaystyle d^{n}y=f^{(n)}(x)\,(dx)^{n}.}

Informalmente, questo giustifica l'utilizzo della notazione di Leibniz per derivate di ordine superiore:

f ( n ) ( x ) = d n f d x n . {\displaystyle f^{(n)}(x)={\frac {d^{n}f}{dx^{n}}}.}

Quando la variabile indipendente x {\displaystyle x} dipende da altre variabili l'espressione diventa più complessa, ad esempio:

d 2 y = f ( x ) ( d x ) 2 + f ( x ) d 2 x ; {\displaystyle d^{2}y=f''(x)(dx)^{2}+f'(x)d^{2}x;}
d 3 y = f ( x ) ( d x ) 3 + 3 f ( x ) d x d 2 x + f ( x ) d 3 x . {\displaystyle d^{3}y=f'''(x)(dx)^{3}+3f''(x)dx\,d^{2}x+f'(x)d^{3}x.}

Considerazioni simili permettono di definire differenziali di ordine superiore di funzioni in più variabili. Ad esempio, se f {\displaystyle f} dipende da due variabili x {\displaystyle x} e y {\displaystyle y} si ha:

d n f = k = 0 n ( n k ) n f x k y n k ( d x ) k ( d y ) n k , {\displaystyle d^{n}f=\sum _{k=0}^{n}{\binom {n}{k}}{\frac {\partial ^{n}f}{\partial x^{k}\partial y^{n-k}}}(dx)^{k}(dy)^{n-k},}

dove ( n k ) {\displaystyle \scriptstyle {\binom {n}{k}}} è il coefficiente binomiale. In più variabili l'espressione è analoga a patto di utilizzare l'appropriata espansione multinomiale.

I differenziali di ordine superiore in più variabili diventano ulteriormente complessi quando le variabili indipendenti dipendono a loro volta da altre variabili. Ad esempio, se x {\displaystyle x} e y {\displaystyle y} dipendono da altre variabili:

d 2 f = ( 2 f x 2 ( d x ) 2 + 2 2 f x y d x d y + 2 f y 2 ( d y ) 2 ) + f x d 2 x + f y d 2 y . {\displaystyle d^{2}f=\left({\frac {\partial ^{2}f}{\partial x^{2}}}(dx)^{2}+2{\frac {\partial ^{2}f}{\partial x\partial y}}dx\,dy+{\frac {\partial ^{2}f}{\partial y^{2}}}(dy)^{2}\right)+{\frac {\partial f}{\partial x}}d^{2}x+{\frac {\partial f}{\partial y}}d^{2}y.}

Il differenziale dell'n-esimo ordine di una funzione f {\displaystyle f} ed un incremento Δ x {\displaystyle \Delta x} può essere anche definito come:

d n f ( x , Δ x ) = d n d t n f ( x + t Δ x ) | t = 0 {\displaystyle d^{n}f(x,\Delta x)=\left.{\frac {d^{n}}{dt^{n}}}f(x+t\Delta x)\right|_{t=0}}

o, in modo equivalente, come lim t 0 Δ t Δ x n f t n {\displaystyle \lim _{t\to 0}{\frac {\Delta _{t\Delta x}^{n}f}{t^{n}}}} , dove Δ t Δ x n f {\displaystyle \Delta _{t\Delta x}^{n}f} è una differenza finita in avanti con incremento t Δ x {\displaystyle t\Delta x} . Tale definizione ha senso anche per una f {\displaystyle f} di più variabili.

Push-forward di una curva

Differenziale di morfismi tra varietà

Si considerino due varietà lisce M {\displaystyle M} e N {\displaystyle N} , ed un morfismo tra esse, ovvero una applicazione differenziabile f : M N {\displaystyle f\colon M\to N} . Si può definire il differenziale d f m {\displaystyle df_{m}} di f {\displaystyle f} in m M {\displaystyle m\in M} come l'applicazione lineare dallo spazio tangente T m M {\displaystyle T_{m}M} a M {\displaystyle M} in m {\displaystyle m} allo spazio tangente T f ( m ) N {\displaystyle T_{f(m)}N} a N {\displaystyle N} in f ( m ) {\displaystyle f(m)} che manda v T m M {\displaystyle v\in T_{m}M} in d f m ( v ) T f ( m ) N {\displaystyle df_{m}(v)\in T_{f(m)}N} , con

d f m ( v ) ( g ) = v ( g f ) , {\displaystyle df_{m}(v)(g)=v(g\circ f),}

per ogni g C ( f ( m ) ) {\displaystyle g\in {C^{\infty }}(f(m))} , dove si sono considerati i vettori tangenti come derivazioni.[2] Considerando i vettori tangenti come classi di equivalenza di curve passanti per m {\displaystyle m} si ottiene la definizione corrispondente:

d f m ( [ γ ] ) = [ f γ ] = [ f γ ] . {\displaystyle df_{m}([\gamma ])=[f_{*}\gamma ]=[f\circ \gamma ].}

La mappa d f p {\displaystyle df_{p}} (scritta anche come T f p {\displaystyle Tf_{p}} , D f p {\displaystyle Df_{p}} , f {\displaystyle f_{*}} , f ( p ) {\displaystyle f'(p)} ) è detta anche mappa tangente, perché il simbolo T {\displaystyle T} definisce un funtore covariante dalla categoria delle varietà differenziabili in quella dei fibrati vettoriali.

Differenziale esatto

Lo stesso argomento in dettaglio: Differenziale esatto.

Un differenziale esatto è una 1-forma:

d Q = A 1 ( x 1 , x 2 , ) d x 1 + A 2 ( x 1 , x 2 , ) d x 2 + {\displaystyle \mathrm {d} Q=A_{1}(x_{1},x_{2},\dots )dx_{1}+A_{2}(x_{1},x_{2},\dots )dx_{2}+\cdots }

tale per cui esiste una funzione Q ( x 1 , x 2 , ) {\displaystyle Q(x_{1},x_{2},\dots )} , detta potenziale, che soddisfa:[3]

A 1 = Q x 1 , A 2 = Q x 2 , {\displaystyle A_{1}={\frac {\partial Q}{\partial x_{1}}},\qquad A_{2}={\frac {\partial Q}{\partial x_{2}}},\qquad \dots }

In altri termini, considerando uno spazio tridimensionale e una forma differenziale A ( x , y , z ) d x + B ( x , y , z ) d y + C ( x , y , z ) d z {\displaystyle A(x,y,z)dx+B(x,y,z)dy+C(x,y,z)dz} , essa è una forma esatta su un dominio D R 3 {\displaystyle D\subset \mathbb {R} ^{3}} se esiste una qualche funzione scalare Q = Q ( x , y , z ) {\displaystyle Q=Q(x,y,z)} definita su D {\displaystyle D} tale che:

d Q ( Q x ) y , z d x + ( Q y ) z , x d y + ( Q z ) x , y d z = A d x + B d y + C d z {\displaystyle dQ\equiv \left({\frac {\partial Q}{\partial x}}\right)_{y,z}dx+\left({\frac {\partial Q}{\partial y}}\right)_{z,x}dy+\left({\frac {\partial Q}{\partial z}}\right)_{x,y}dz=Adx+Bdy+Cdz}

su tutto D {\displaystyle D} . Questo è equivalente a dire a che il campo vettoriale ( A , B , C ) {\displaystyle (A,B,C)} è un campo vettoriale conservativo, corrispondente al gradiente di un campo scalare (chiamato potenziale) Q {\displaystyle Q} .

In una dimensione, una forma differenziale A ( x ) d x {\displaystyle A(x)dx} è esatta se A {\displaystyle A} ha una primitiva. Altrimenti, se A {\displaystyle A} non possiede primitiva non si può scrivere d Q = A ( x ) d x {\displaystyle dQ=A(x)dx} e la forma non è esatta.

Note

  1. ^ W. Rudin, Pag. 213.
  2. ^ M. Abate, F. Tovena, p. 83.
  3. ^ Differenziale, in Treccani.it – Enciclopedie on line, Roma, Istituto dell'Enciclopedia Italiana.

Bibliografia

  • Nicola Fusco, Paolo Marcellini, Carlo Sbordone, Lezioni di Analisi Matematica Due, Bologna, Zanichelli, 2020, ISBN 9788808520203. (capitolo 3, paragrafo 29)
  • Nicola Fusco, Paolo Marcellini, Carlo Sbordone, Elementi di Analisi Matematica Due, Napoli, Liguori Editore, 2001, ISBN 9788820731373. (capitolo 2, paragrafo 13)
  • M. Abate, F. Tovena, Geometria Differenziale, Springer, 2011, ISBN 978-88-470-1919-5.
  • Walter Rudin, Principi di analisi matematica, Milano, McGraw-Hill, 1991, ISBN 88-386-0647-1.
  • Giuseppe De Marco, Analisi Due, Decibel-Zanichelli, 1999.
  • (EN) Serge Lang, Undergraduate Analysis, Springer, 1997.
  • (EN) Serge Lang, Real and Functional Analysis, Springer, 1993.
  • (EN) James Munkres, Analysis on Manifolds, Westview Press, 1991.
  • (EN) Frank Warner, Foundations of Differentiable Manifolds and Lie Groups, Springer, 1983.

Voci correlate

Altri progetti

Altri progetti

  • Wikibooks
  • Wikizionario
  • Collabora a Wikibooks Wikibooks contiene testi o manuali sul differenziale
  • Collabora a Wikizionario Wikizionario contiene il lemma di dizionario «differenziale»

Collegamenti esterni

Controllo di autoritàThesaurus BNCF 33889 · GND (DE) 4149768-5
  Portale Matematica: accedi alle voci di Wikipedia che trattano di matematica