Propagazione degli errori

In fisica, per propagazione degli errori si intende l'effetto dell'errore (o variabilità) di un vettore di variabili aleatorie sull'errore associato ad una funzione di esso. Tali variabili, quando oggetto di rilevazione sperimentale, sono inoltre soggette a variabilità osservazionale dovuta a limitazioni nella misura (dovuta ad esempio alla precisione degli strumenti di misura), che si propaga alla funzione delle osservazioni.

Ad una variabile X {\displaystyle X} è possibile associare un errore aleatorio Δ X {\displaystyle \Delta X} detto errore assoluto, che esprime il grado di incertezza nella misura del valore di X {\displaystyle X} , anche se più spesso tale errore è espresso tramite la deviazione standard σ {\displaystyle \sigma } o, in caso di analisi chimiche, l'incertezza composta u c ( x ) {\displaystyle u_{c}(x)} . Una misura frequentemente usata è l'errore relativo Δ X X {\displaystyle {\frac {\Delta X}{X}}} , esprimibile anche in via percentuale, o più in generale il coefficiente di variazione, espresso mediante il rapporto Δ X | μ | {\displaystyle {\frac {\Delta X}{|\mu |}}} , dove con μ {\displaystyle \mu } s'intende il valore atteso (media, o ancora valore vero) di X {\displaystyle X} .

Se si conosce o si può ipotizzare la distribuzione di probabilità della variabile oggetto di misura, è possibile inoltre probabilizzare intervalli di valori in cui possa essere inclusa la variabile. Spesso si assume normalità in distribuzione per tale quantità, con media nulla in assenza di errori sistematici (bias) e con deviazione standard pari proprio all'errore assoluto. Sotto tale ipotesi, l'intervallo di ampiezza σ {\displaystyle \sigma } [ X Δ X , X + Δ X ] {\displaystyle [X-\Delta X,X+\Delta X]} ha associata una probabilità approssimativamente 0.68, mentre l'intervallo 2σ [ X 2 Δ X , X + 2 Δ X ] {\displaystyle [X-2\Delta X,X+2\Delta X]} una probabilità approssimativamente pari a 0.96.

Formula generale

Andamento grafico della formula di propagazione degli errori

Sia f ( x 1 , x 2 , . . . , x n ) {\displaystyle f(x_{1},x_{2},...,x_{n})} una funzione dipendente da n {\displaystyle n} variabili del tipo x 1 , x 2 , . . . , x n {\displaystyle x_{1},x_{2},...,x_{n}} ; l'incertezza di ciascuna variabile è data da Δ x i {\displaystyle \Delta x_{i}} :

x i ± Δ x i . {\displaystyle x_{i}\pm \Delta x_{i}\,.}

Se le variabili non sono correlate, si può calcolare l'errore Δ f {\displaystyle \Delta f} di f {\displaystyle f} partendo dalle incertezze delle singole variabili:

Δ f = Δ f ( x 1 , x 2 , . . . , x n , Δ x 1 , Δ x 2 , . . . , Δ x n ) = i = 1 n ( f x i Δ x i ) 2 , {\displaystyle \Delta f=\Delta f\left(x_{1},x_{2},...,x_{n},\Delta x_{1},\Delta x_{2},...,\Delta x_{n}\right)={\sqrt {\sum _{i=1}^{n}\left({\frac {\partial f}{\partial x_{i}}}\Delta x_{i}\right)^{2}}}\,,}

dove f x i {\displaystyle {\frac {\partial f}{\partial x_{i}}}} è la derivata parziale di f {\displaystyle f} per la i {\displaystyle i} -esima variabile.

Se le variabili sono invece correlate, si inserisce la covarianza tra coppie di variabili C i , k = c o v ( x i , x k ) {\displaystyle C_{i,k}=cov(x_{i},x_{k})} come una doppia somma tra ogni coppia ( i , k ) {\displaystyle (i,k)} :

Δ f = i = 1 n k = 1 n ( f x i f x k C i , k ) . {\displaystyle \Delta f={\sqrt {\sum _{i=1}^{n}\sum _{k=1}^{n}\left({\frac {\partial f}{\partial x_{i}}}{\frac {\partial f}{\partial x_{k}}}C_{i,k}\right)}}.}

Dopo aver calcolato Δ f {\displaystyle \Delta f} , si può quindi affermare che il valore della funzione con la sua incertezza è pari a:

f ± Δ f . {\displaystyle f\pm \Delta f\,.}

Non è certo un risultato sorprendente: le incertezze sulle x {\displaystyle x} influiscono sulla variabile y {\displaystyle y} a seconda di come le variabili siano tra loro correlate. Sviluppando mediante un polinomio di Taylor la funzione f ( x ) {\displaystyle f(x)} fino al primo ordine (nell'ipotesi che tutti i termini di ordine superiore al primo siano trascurabili), le derivate del primo ordine descrivono bene[1] l'andamento stesso della funzione.

Si forniscono dunque alcune formule per il calcolo dell'incertezza di funzioni particolari assumendo sempre la presenza di covarianza tra le variabili come C i , k {\displaystyle C_{i,k}} , dove i {\displaystyle i} e k {\displaystyle k} sono due generiche variabili, espressa negli esempi come A {\displaystyle A} , B {\displaystyle B} o C {\displaystyle C} .

Esempi

Funzione

Incertezza

X = A ± B {\displaystyle X=A\pm B} ( Δ X ) 2 = ( Δ A ) 2 + ( Δ B ) 2 ± 2 C A , B {\displaystyle (\Delta X)^{2}=(\Delta A)^{2}+(\Delta B)^{2}\pm 2\cdot C_{A,B}}
X = c A {\displaystyle X=cA} Δ X = | c | Δ A {\displaystyle \Delta X=|c|\cdot \Delta A}
X = A B {\displaystyle X=A\cdot B\,} ( Δ X ) 2 = B 2 ( Δ A ) 2 + A 2 ( Δ B ) 2 + A B 2 C A , B {\displaystyle (\Delta X)^{2}=B^{2}(\Delta A)^{2}+A^{2}(\Delta B)^{2}+AB\cdot 2\cdot C_{A,B}}
X = A B C {\displaystyle X=A\cdot B\cdot C} ( Δ X ) 2 = ( B C ) 2 ( Δ A ) 2 + ( A C ) 2 ( Δ B ) 2 + ( A B ) 2 ( Δ C ) 2 + 2 B C A C {\displaystyle (\Delta X)^{2}=(BC)^{2}(\Delta A)^{2}+(AC)^{2}(\Delta B)^{2}+(AB)^{2}(\Delta C)^{2}+2\cdot BC\cdot AC\cdot }

C A , B + 2 B C A B C A , C + 2 A C A B C B , C {\displaystyle \cdot C_{A,B}+2\cdot BC\cdot AB\cdot C_{A,C}+2\cdot AC\cdot AB\cdot C_{B,C}}

X = A i B j {\displaystyle X=A^{i}\cdot B^{j}} ( Δ X ) 2 = i 2 A 2 i 2 B 2 j ( Δ A ) 2 + j 2 A 2 i B 2 j 2 ( Δ B ) 2 + 2 i A 2 i 1 j B 2 j 1 C A , B {\displaystyle (\Delta X)^{2}=i^{2}A^{2i-2}B^{2j}(\Delta A)^{2}+j^{2}A^{2i}B^{2j-2}(\Delta B)^{2}+2\cdot iA^{2i-1}\cdot jB^{2j-1}\cdot C_{A,B}}
X = A B {\displaystyle X={\frac {A}{B}}} ( Δ X ) 2 = ( Δ A ) 2 B 2 + A 2 B 4 ( Δ B ) 2 2 A B 2 1 B C A , B {\displaystyle (\Delta X)^{2}={\frac {(\Delta A)^{2}}{B^{2}}}+{\frac {A^{2}}{B^{4}}}\cdot (\Delta B)^{2}-2\cdot {\frac {A}{B^{2}}}\cdot {\frac {1}{B}}\cdot C_{A,B}}
X = ln ( A ) {\displaystyle X=\ln(A)} Δ X = Δ A A {\displaystyle \Delta X={\frac {\Delta A}{A}}}
X = e A {\displaystyle X=e^{A}} Δ X = e A Δ A {\displaystyle \Delta X=e^{A}\cdot \Delta A}

Applicazioni

Calcolo degli estremi

Una prima semplice applicazione consiste nell'inserire nei calcoli gli estremi dell'intervallo dell'errore; se la misura vale:

x ± Δx

allora il « valore reale » è compreso nell'intervallo [xx;xx].

Si calcola quindi:

y1 = ƒ(xx)
y2 = ƒ(xx)

e, secondo l'ordine di y1 e y2, si considera [y1;y2] o [y2;y1] come l'intervallo dell'errore.

Questo metodo può essere utilizzato solo se la funzione è monotòna nell'intervallo [xx;xx].

Calcolo della derivata

Un metodo semplice utilizzato spesso nella Fisica prevede l'utilizzo del polinomio di Taylor arrestato al primo ordine, ovvero la sostituzione della funzione ƒ con la sua retta tangente per stimare l'errore. Si ha:

f ( x ) = f ( a ) + f ( a ) ( x a ) + o ( x ) {\displaystyle f(x)=f(a)+f'(a)(x-a)+o(x)}

dove o(x) è una funzione tendente a zero. Se si sostituisce x con a + Δa, si ottiene:

f ( a + Δ a ) = f ( a ) + f ( a ) Δ a + o ( a + Δ a ) {\displaystyle f(a+\Delta a)=f(a)+f'(a)\Delta a+o(a+\Delta a)}

Si può dunque ricavare che:

Δ y f ( a ) Δ a {\displaystyle \Delta y\approx f'(a)\Delta a}

Calcolo dei differenziali

Si può utilizzare la legge dei gas perfetti come esempio:

P × V = n × R × T {\displaystyle P\times V=n\times R\times T}

dove

La pressione in funzione di n, R, T e V si esprime come:

P = n × R × T V {\displaystyle P={\frac {n\times R\times T}{V}}}

e scrivendo i rispettivi differenziali si ha:

d P = n × R V d T + n × T V d R + R × T V d n n × R × T V 2 d V {\displaystyle dP={\frac {n\times R}{V}}dT+{\frac {n\times T}{V}}dR+{\frac {R\times T}{V}}dn-{\frac {n\times R\times T}{V^{2}}}dV}

Se si sostituiscono i vari dx con i rispettivi errori, si ottiene:

δ P = n × R V δ T + n × T V δ R + R × T V δ n n × R × T V 2 δ V {\displaystyle \delta P={\frac {n\times R}{V}}\delta T+{\frac {n\times T}{V}}\delta R+{\frac {R\times T}{V}}\delta n-{\frac {n\times R\times T}{V^{2}}}\delta V}

che fornisce l'errore assoluto del valore di P conoscendo gli errori di T, R, n e V. Da questa formula, inoltre, si ricava:

δ P P = δ T T + δ R R + δ n n δ V V {\displaystyle {\frac {\delta P}{P}}={\frac {\delta T}{T}}+{\frac {\delta R}{R}}+{\frac {\delta n}{n}}-{\frac {\delta V}{V}}}

che mostra come l'errore relativo su P sia uguale alla somma degli errori relativi sulle singole grandezze che concorrono al suo calcolo.

Altri esempi in questo senso sono:

  • il calcolo dell'area di un rettangolo:
S = L l {\displaystyle S=Ll} e S + d S = ( L + d L ) ( l + d l ) = L l + L d l + l d L + d l d L {\displaystyle S+dS=(L+dL)(l+dl)=Ll+Ldl+ldL+dldL}
si può scrivere come:
d S = ( ( L + d L ) ( l + d l ) L l ) = L d l + l d L + d L d l {\displaystyle dS=((L+dL)(l+dl)-Ll)=Ldl+ldL+dLdl}
approssimabile in:
d S = L d l + l d L {\displaystyle dS=Ldl+ldL}
  • il calcolo di un volume V = x · y · z:
V ( x + d x , y + d y , z + d z ) = ( x + d x ) ( y + d y ) ( z + d z ) = {\displaystyle V(x+dx,y+dy,z+dz)=(x+dx)(y+dy)(z+dz)=}
= x y z + d x y z + x d y z + x y d z + x d y d z + y d x d z + z d x d y + d x d y d z {\displaystyle =xyz+dxyz+xdyz+xydz+xdydz+ydxdz+zdxdy+dxdydz}
diventa:
d V = y z d x + z x d y + x y d z + d x d y d z {\displaystyle dV=yzdx+zxdy+xydz+dxdydz}
approssimabile in d V = y z d x + z x d y + x y d z {\displaystyle dV=yzdx+zxdy+xydz}
notando che:
d V = y z d x + z x d y + x y d z = ( x y z ) x d x + ( x y z ) y d y + ( x y z ) z d z {\displaystyle dV=yzdx+zxdy+xydz={\frac {\partial (xyz)}{\partial x}}dx+{\frac {\partial (xyz)}{\partial y}}dy+{\frac {\partial (xyz)}{\partial z}}dz}
dove: ( x y z ) x = y z ; ( x y z ) y = x z ; ( x y z ) z = x y {\displaystyle {\frac {\partial (xyz)}{\partial x}}=yz;{\frac {\partial (xyz)}{\partial y}}=xz;{\frac {\partial (xyz)}{\partial z}}=xy}
  • in generale il calcolo della variazione di una funzione ƒ(x,y,z).
d f ( x , y , z ) = f ( x , y , z ) x d x + f ( x , y , z ) y d y + f ( x , y , z ) z d z {\displaystyle df(x,y,z)={\frac {\partial f(x,y,z)}{\partial x}}dx+{\frac {\partial f(x,y,z)}{\partial y}}dy+{\frac {\partial f(x,y,z)}{\partial z}}dz}

Calcolo della funzione tangente inversa

Si può calcolare la propagazione dell'errore per la funzione tangente inversa come esempio dell'uso delle derivate parziali. Si definisce quindi la funzione:

f ( θ ) = arctan θ {\displaystyle f(\theta )=\arctan {\theta }} ,

mentre σ θ {\displaystyle \sigma _{\theta }} è l'incertezza assoluta della misura di θ {\displaystyle \theta } .

La derivata parziale di f ( θ ) {\displaystyle f(\theta )} rispetto a θ {\displaystyle \theta } è:

f θ = 1 1 + θ 2 {\displaystyle {\frac {\partial f}{\partial \theta }}={\frac {1}{1+\theta ^{2}}}} .

Quindi, la propagazione dell'errore σ f {\displaystyle \sigma _{f}} è pari a:

σ f = σ θ 1 + θ 2 {\displaystyle \sigma _{f}={\frac {\sigma _{\theta }}{1+\theta ^{2}}}} ,

Calcolo della resistenza elettrica

Un'applicazione pratica si ritrova nella misurazione della corrente elettrica I e del voltaggio V di un resistore con l'obiettivo di determinare la resistenza elettrica R utilizzando la legge di Ohm:

R = V / I . {\displaystyle R=V/I.}

Esprimendo le quantità misurate con le rispettive incertezze (I±ΔI e V±ΔV), l'incertezza ΔR del risultato è pari a:

Δ R = ( ( Δ V I ) 2 + ( V I 2 Δ I ) 2 ) 1 / 2 = R ( Δ V V ) 2 + ( Δ I I ) 2 . {\displaystyle \Delta R=\left(\left({\frac {\Delta V}{I}}\right)^{2}+\left({\frac {V}{I^{2}}}\Delta I\right)^{2}\right)^{1/2}=R{\sqrt {\left({\frac {\Delta V}{V}}\right)^{2}+\left({\frac {\Delta I}{I}}\right)^{2}}}.}

Quindi, in questo semplice caso, l'errore relativo ΔR/R è pari alla radice quadrata della somma dei quadrati degli errori relativi delle due quantità misurate.

Note

  1. ^ Taylor, pp. 64-65.

Bibliografia

  • (EN) John R. Taylor, An Introduction to Error Analysis, University Science Books, 1997, ISBN 978-0-935702-75-0.
  • (EN) Mathieu Rouaud, Probability, Statistics and Estimation: Propagation of Uncertainties in Experimental Measurement (PDF), 2013.
    • (FR) Mathieu Rouaud, Calcul d'incertitudes (PDF), 2013.

Voci correlate

Controllo di autoritàGND (DE) 4479158-6
  Portale Fisica
  Portale Matematica
  Portale Metrologia
  Portale Scienza e tecnica