Distribuzione normale multivariata

Niente fonti!
Questa voce o sezione sugli argomenti matematica e statistica non cita le fonti necessarie o quelle presenti sono insufficienti.
Funzione di densità di una normale multivariata

In teoria della probabilità e statistica, la distribuzione normale multivariata o distribuzione gaussiana multivariata o vettore gaussiano è una generalizzazione della distribuzione normale (univariata) a dimensioni più elevate. Una definizione è che un vettore di variabili aleatorie ha una distribuzione normale k-variata se ogni combinazione lineare delle sue k componenti ha distribuzione normale univariata. La sua importanza deriva principalmente dal teorema del limite centrale multivariato. La distribuzione normale multivariata è spesso utilizzata per descrivere, almeno approssimativamente, un qualunque insieme di variabili aleatorie a valori reali (possibilmente) correlate, ognuna delle quali è clusterizzata attorno ad un valore medio.

Definizioni

Notazione e parametrizzazione

La distribuzione normale multivariata di un vettore aleatorio k-dimensionale X = ( X 1 , , X k ) T {\displaystyle \mathbf {X} =(X_{1},\ldots ,X_{k})^{\mathrm {T} }} può essere scritta secondo la notazione:

X     N ( μ , Σ ) , {\displaystyle \mathbf {X} \ \sim \ {\mathcal {N}}({\boldsymbol {\mu }},\,{\boldsymbol {\Sigma }}),}

o, per rendere esplicito il fatto che X {\displaystyle \mathbf {X} } sia k-dimensionale,

X     N k ( μ , Σ ) , {\displaystyle \mathbf {X} \ \sim \ {\mathcal {N}}_{k}({\boldsymbol {\mu }},\,{\boldsymbol {\Sigma }}),}

con un vettore della media di dimensione k

μ = E [ X ] = ( E [ X 1 ] , E [ X 2 ] , , E [ X k ] ) T , {\displaystyle {\boldsymbol {\mu }}=\operatorname {E} [\mathbf {X} ]=(\operatorname {E} [X_{1}],\operatorname {E} [X_{2}],\ldots ,\operatorname {E} [X_{k}])^{\textbf {T}},}

e matrice di covarianza di dimensione k × k {\displaystyle k\times k}

Σ i , j := E [ ( X i μ i ) ( X j μ j ) ] = Cov [ X i , X j ] {\displaystyle \Sigma _{i,j}:=\operatorname {E} [(X_{i}-\mu _{i})(X_{j}-\mu _{j})]=\operatorname {Cov} [X_{i},X_{j}]}

per cui 1 i , j k . {\displaystyle 1\leq i,j\leq k.} La matrice inversa della matrice di covarianza è chiamata matrice di precisione, e si indica come Q = Σ 1 {\displaystyle {\boldsymbol {Q}}={\boldsymbol {\Sigma }}^{-1}} .

Vettore aleatorio normale standard

Un vettore aleatorio a valori reali X = ( X 1 , , X k ) T {\displaystyle \mathbf {X} =(X_{1},\ldots ,X_{k})^{\mathrm {T} }} è detto vettore aleatorio normale standard se tutte le sue componenti X n {\displaystyle X_{n}} sono indipendenti e ognuna è una variabile aleatoria normale di valore medio nullo e varianza unitaria, cioè se X n   N ( 0 , 1 ) {\displaystyle X_{n}\sim \ {\mathcal {N}}(0,1)} per tutti i valori di n {\displaystyle n} .[1]p. 454

Vettore aleatorio normale centrato

Un vettore aleatorio a valori reali X = ( X 1 , , X k ) T {\displaystyle \mathbf {X} =(X_{1},\ldots ,X_{k})^{\mathrm {T} }} è chiamato vettore aleatorio normale centrato se esiste una matrice deterministica A {\displaystyle {\boldsymbol {A}}} di dimensione k × {\displaystyle k\times \ell } tale per cui A Z {\displaystyle {\boldsymbol {A}}\mathbf {Z} } ha la stessa distribuzione di X {\displaystyle \mathbf {X} } dove Z {\displaystyle \mathbf {Z} } è un vettore aleatorio normale standard con {\displaystyle \ell } componenti.[1]p. 454

Vettore aleatorio normale

Un vettore aleatorio a valori reali X = ( X 1 , , X k ) T {\displaystyle \mathbf {X} =(X_{1},\ldots ,X_{k})^{\mathrm {T} }} è detto vettore aleatorio normale se esistono un vettore aleatorio {\displaystyle \ell } -dimensionale Z {\displaystyle \mathbf {Z} } , che è un vettore aleatorio normale standard, un vettore k {\displaystyle k} -dimensionale μ {\displaystyle \mathbf {\mu } } , e una matrice A {\displaystyle {\boldsymbol {A}}} di dimensione k × {\displaystyle k\times \ell } , tale per cui X = A Z + μ {\displaystyle \mathbf {X} ={\boldsymbol {A}}\mathbf {Z} +\mathbf {\mu } } .[1]p. 455[2]p. 454

Formalmente:

X     N ( μ , Σ ) esiste  μ R k , A R k ×  tale per cui  X = A Z + μ  per  Z n   N ( 0 , 1 ) , i.i.d. {\displaystyle \mathbf {X} \ \sim \ {\mathcal {N}}(\mathbf {\mu } ,{\boldsymbol {\Sigma }})\quad \iff \quad {\text{esiste }}\mathbf {\mu } \in \mathbb {R} ^{k},{\boldsymbol {A}}\in \mathbb {R} ^{k\times \ell }{\text{ tale per cui }}\mathbf {X} ={\boldsymbol {A}}\mathbf {Z} +\mathbf {\mu } {\text{ per }}Z_{n}\sim \ {\mathcal {N}}(0,1),{\text{i.i.d.}}}

Da qui la matrice delle covarianze è Σ = A A T {\displaystyle {\boldsymbol {\Sigma }}={\boldsymbol {A}}{\boldsymbol {A}}^{\mathrm {T} }} .

Nel caso degenere in cui la matrice delle covarianze fosse singolare, la distribuzione corrispondente non ha densità; vedi la sezione seguente per dettagli. Questa situazione capita frequentemente in statistica; per esempio, nella distribuzione dei vettori dei residui nel metodo di regressione dei minimi quadrati ordinario. Le X i {\displaystyle X_{i}} in genere non sono indipendenti; possono essere visti come il risultato dell'applicazione della matrice A {\displaystyle {\boldsymbol {A}}} all'insieme delle variabili gaussiane indipendenti Z {\displaystyle \mathbf {Z} } .

Definizioni equivalenti

Le seguenti definizioni sono equivalenti alla definizione data in precedenza. Un vettore aleatorio X = ( X 1 , , X k ) T {\displaystyle \mathbf {X} =(X_{1},\ldots ,X_{k})^{T}} ha una distribuzione normale multivariata se soddisfa una delle seguenti condizioni equivalenti.

  • Ogni combinazione lineare Y = a 1 X 1 + + a k X k {\displaystyle Y=a_{1}X_{1}+\cdots +a_{k}X_{k}} delle proprie componenti è normalmente distribuita. Cioè, per un qualunque vettore costante a R k {\displaystyle \mathbf {a} \in \mathbb {R} ^{k}} , il valore aleatorio Y = a T X {\displaystyle Y=\mathbf {a} ^{\mathrm {T} }\mathbf {X} } ha una distribuzione normale univariata, dove una distribuzione normale univariata con varianza nulla è un punto materiale sulla sua media.
  • Esistono un vettore k-dimensionale μ {\displaystyle \mathbf {\mu } } e una matrice di dimensione k × k {\displaystyle k\times k} simmetrica e positiva semidefinita Σ {\displaystyle {\boldsymbol {\Sigma }}} , tali per cui la funzione caratteristica di X {\displaystyle \mathbf {X} } è
φ X ( u ) = exp ( i u T μ 1 2 u T Σ u ) . {\displaystyle \varphi _{\mathbf {X} }(\mathbf {u} )=\exp {\Big (}i\mathbf {u} ^{T}{\boldsymbol {\mu }}-{\tfrac {1}{2}}\mathbf {u} ^{T}{\boldsymbol {\Sigma }}\mathbf {u} {\Big )}.}

La distribuzione normale sferica può essere caratterizzata come l'unica distribuzione in cui le componenti siano indipendenti in un qualunque sistema di coordinate cartesiano.[3][4]

Note

  1. ^ a b c Amos Lapidoth, A Foundation in Digital Communication, Cambridge University Press, 2009, ISBN 978-0-521-19395-5.
  2. ^ Allan Gut, An Intermediate Course in Probability, Springer, 2009, ISBN 978-1-4419-0161-3.
  3. ^ M. Kac, On a characterization of the normal distribution, in American Journal of Mathematics, vol. 61, n. 3, 1939, pp. 726–728, DOI:10.2307/2371328, JSTOR 2371328.
  4. ^ Fabian Sinz, Sebastian Gerwinn e Matthias Bethge, Characterization of the p-generalized normal distribution, in Journal of Multivariate Analysis, vol. 100, n. 5, 2009, pp. 817–820, DOI:10.1016/j.jmva.2008.07.006.

Voci correlate

Collegamenti esterni

  • (EN) Eric W. Weisstein, Distribuzione normale multivariata, su MathWorld, Wolfram Research. Modifica su Wikidata
Controllo di autoritàGND (DE) 4227589-1
  Portale Matematica
  Portale Statistica