Distribució normal multivariable

Infotaula distribució de probabilitatDistribució normal multivariable

Mostres d'una distribució normal bivariable, dibuixades juntament amb l'el·lipse 3-sigma, les dues distribucions marginals i els dos histogrames unidimensionals
TipusDistribució el·líptica, distribució conjunta i Distribució normal matricial Modifica el valor a Wikidata
Notació N ( μ , Σ ) {\displaystyle {\mathcal {N}}({\boldsymbol {\mu }},\,{\boldsymbol {\Sigma }})}
ParàmetresμRd — posició
ΣRd×d — matriu de variàncies-covariància (matriu semidefinida positiva)
SuportRd, si Σ és definida positiva,
μ+span(Σ) ⊆ Rd, cas general.
fdp ( 2 π ) d 2 | Σ | 1 2 e 1 2 ( x μ ) Σ 1 ( x μ ) , {\displaystyle (2\pi )^{-{\frac {d}{2}}}|{\boldsymbol {\Sigma }}|^{-{\frac {1}{2}}}\,e^{-{\frac {1}{2}}(\mathbf {x} -{\boldsymbol {\mu }})'{\boldsymbol {\Sigma }}^{-1}(\mathbf {x} -{\boldsymbol {\mu }})},}
existeix tan sols quan Σ és definida positiva
FD(no té expressió analítica)
Esperança matemàticaμ
Modaμ
VariànciaΣ
Entropia d 2 ( 1 + ln ( 2 π ) ) + 1 2 ln | Σ | {\displaystyle {\frac {d}{2}}(1+\ln(2\pi ))+{\frac {1}{2}}\ln |{\boldsymbol {\Sigma }}|}
FC exp ( i μ t 1 2 t Σ t ) {\displaystyle \exp \!{\Big (}i{\boldsymbol {\mu }}'\mathbf {t} -{\tfrac {1}{2}}\mathbf {t} '{\boldsymbol {\Sigma }}\mathbf {t} {\Big )}}
MathworldMultivariateNormalDistribution Modifica el valor a Wikidata

En teoria de probabilitat i estadística, la distribució normal multivariable o multidimensional o distribució gaussiana multivariable o multidimensional és una generalització de la distribució normal unidimensional (univariable) en dimensions superiors. Una definició possible és que un vector aleatori té distribució normal d-variable si totes les combinacions lineals de les seves components segueixen una distribució normal univariable. La seva importància es deriva principalment del teorema del límit central multivariable i les seves aplicacions, tant en Teoria de la probabilitat com en Estadística multivariant. La distribució normal multivariable s'utilitza sovint per descriure, almenys aproximadament, qualsevol conjunt de variables aleatòries reals (possiblement) correlacionades cadascuna de les quals es concentra al voltant d'un valor mitjà.

Les referències bàsiques d'aquest article són Tong [1] i Bryc [2] per a la part probabilistica, i Anderson [3] i Seber [4] [5] per a les aplicacions estadístiques.

Vector aleatori normal amb funció de densitat

Notacions. Seguint les convencions de l'àlgebra lineal, escriurem tots els vectors en columna i identificarem R d {\displaystyle \mathbb {R} ^{d}} amb el conjunt de vectors reals d {\displaystyle d} -dimensionals. Denotarem per U {\displaystyle {\boldsymbol {U}}'} la transposada de la matriu o del vector U {\displaystyle {\boldsymbol {U}}} .

Començarem pel cas més senzill i habitual en què el vector aleatori normal té densitat, també anomenat vector aleatori normal no singular o no degenerat. Més endavant veurem el cas general.

Definició. Un vector aleatori X = ( X 1 , , X d ) {\displaystyle {\boldsymbol {X}}=(X_{1},\dots ,X_{d})'} es diu que és normal (no singular) [6] o que té distribució normal multidimensional o multivariable (no singular) si té funció de densitat

f ( x ) = 1 ( 2 π ) d / 2 ( det   Σ ) 1 / 2 e 1 2 ( x μ ) Σ 1 ( x μ ) , x = ( x 1 , , x d ) R d , ( 1 ) {\displaystyle f({\boldsymbol {x}})={\frac {1}{(2\pi )^{d/2}({\text{det}}\ {\boldsymbol {\Sigma }})^{1/2}}}\,e^{-{\tfrac {1}{2}}({\boldsymbol {x}}-{\boldsymbol {\mu }})'{\boldsymbol {\Sigma }}^{-1}({\boldsymbol {x}}-{\boldsymbol {\mu }})},\quad {\boldsymbol {x}}=(x_{1},\dots ,x_{d})'\in \mathbb {R} ^{d},\quad \quad \quad (1)}

on μ = ( μ 1 , , μ d ) R d {\displaystyle {\boldsymbol {\mu }}=(\mu _{1},\dots ,\mu _{d})'\in \mathbb {R} ^{d}} , Σ {\displaystyle {\boldsymbol {\Sigma }}} és una matriu (real) d × d {\displaystyle d\times d} definida positiva [7] i det   Σ > 0 {\displaystyle {\text{det}}\ {\boldsymbol {\Sigma }}>0} és el seu determinant. S'escriu X N ( μ , Σ ) {\displaystyle {\boldsymbol {X}}\sim {\mathcal {N}}({\boldsymbol {\mu }},{\boldsymbol {\Sigma }})} , o bé X N d ( μ , Σ ) {\displaystyle {\boldsymbol {X}}\sim {\mathcal {N}}_{d}({\boldsymbol {\mu }},{\boldsymbol {\Sigma }})} si es vol remarcar la dimensió del vector; en aquest article utilitzarem aquesta segona notació. Quan d = 1 {\displaystyle d=1} , es tracta d'una variable aleatòria normal amb mitjana μ {\displaystyle \mu } i variància σ 2 = Σ {\displaystyle \sigma ^{2}={\boldsymbol {\Sigma }}} , i s'escriu N ( μ , σ 2 ) {\displaystyle {\mathcal {N}}(\mu ,\sigma ^{2})} en lloc de N 1 ( μ , σ 2 ) {\displaystyle {\mathcal {N}}_{1}(\mu ,\sigma ^{2})} .

Com demostrarem més endavant, el vector μ {\displaystyle {\boldsymbol {\mu }}} és el vector d'esperances de X {\displaystyle {\boldsymbol {X}}} i Σ {\displaystyle {\boldsymbol {\Sigma }}} la seva matriu de variàncies-covariàncies:

μ = E [ X ] = ( E [ X 1 ] , , E [ X d ] ) i Σ = ( σ i j ) i , j = 1 , d = ( Cov ( X i , X j ) ) i , j = 1 , d . {\displaystyle {\boldsymbol {\mu }}=E[{\boldsymbol {X}}]={\big (}E[X_{1}],\dots ,E[X_{d}]{\big )}'\quad {\text{i}}\quad {\boldsymbol {\Sigma }}={\big (}\sigma _{ij}{\big )}_{i,j=1\dots ,d}={\big (}{\text{Cov}}(X_{i},X_{j}){\big )}_{i,j=1\dots ,d}.}

Exemple. Vector aleatori normal estàndard [8]. Siguin Z 1 , , Z n {\displaystyle Z_{1},\dots ,Z_{n}} variables aleatòries independents, totes amb distribució normal estàndard N ( 0 , 1 ) {\displaystyle {\mathcal {N}}(0,1)} . Considerem el vector aleatori Z = ( Z 1 , , Z d ) {\displaystyle {\boldsymbol {Z}}=(Z_{1},\dots ,Z_{d})'} . Atès que les variables són independents, la funció de densitat del vector serà el producte de les funcions de densitat de les components: Per a x = ( x 1 , , x d ) R d {\displaystyle {\boldsymbol {x}}=(x_{1},\dots ,x_{d})'\in \mathbb {R} ^{d}}

f Z ( x ) = f Z 1 ( x 1 ) f Z d ( x d ) = 1 2 π e x 1 2 / 2 1 2 π e x d 2 / 2 = 1 ( 2 π ) d / 2 exp { 1 2 j = 1 d x j 2 } = 1 ( 2 π ) d / 2 e x x / 2 . {\displaystyle f_{\boldsymbol {Z}}({\boldsymbol {x}})=f_{Z_{1}}(x_{1})\cdots f_{Z_{d}}(x_{d})={\frac {1}{\sqrt {2\pi }}}e^{-x_{1}^{2}/2}\cdots {\frac {1}{\sqrt {2\pi }}}e^{-x_{d}^{2}/2}={\frac {1}{(2\pi )^{d/2}}}\,{\text{exp}}{\Big \{}-{\frac {1}{2}}\sum _{j=1}^{d}x_{j}^{2}{\Big \}}={\frac {1}{(2\pi )^{d/2}}}\,e^{-{\boldsymbol {x}}'{\boldsymbol {x}}/2}.}
Així,

f Z ( x ) = 1 ( 2 π ) d / 2 e x x / 2 . ( 2 ) {\displaystyle f_{\boldsymbol {Z}}({\boldsymbol {x}})={\frac {1}{(2\pi )^{d/2}}}\,e^{-{\boldsymbol {x}}'{\boldsymbol {x}}/2}.\qquad \qquad (2)}

Per tant, Z {\displaystyle {\boldsymbol {Z}}} és un vector aleatori normal, amb μ = 0 = ( 0 , , 0 ) {\displaystyle {\boldsymbol {\mu }}={\boldsymbol {0}}=(0,\dots ,0)^{\prime }} i Σ = I d {\displaystyle {\boldsymbol {\Sigma }}={\boldsymbol {I}}_{d}} (matriu identitat). Així, Z N d ( 0 , I d ) {\displaystyle {\boldsymbol {Z}}\sim {\mathcal {N}}_{d}({\boldsymbol {0}},{\boldsymbol {I}}_{d})} . Noteu que aquests valors de μ {\displaystyle {\boldsymbol {\mu }}} i Σ {\displaystyle {\boldsymbol {\Sigma }}} són coherents amb el fet que E [ Z i ] = 0 {\displaystyle E[Z_{i}]=0} i Var ( Z i ) = 1 {\displaystyle {\text{Var}}(Z_{i})=1} , i = 1 , , d {\displaystyle i=1,\dots ,d} , i Cov ( Z i , Z j ) = 0 ,   i j {\displaystyle {\text{Cov}}(Z_{i},Z_{j})=0,\ i\neq j} .

Per posterior us, comentem que la funció característica de Z {\displaystyle {\boldsymbol {Z}}} és el producte de les funcions característiques de les components i val

φ Z ( t ) = E [ e i t Z ] = e t t / 2 , t R d . ( 3 ) {\displaystyle \varphi _{\boldsymbol {Z}}({\boldsymbol {t}})=E[e^{i{\boldsymbol {t}}'{\boldsymbol {Z}}}]=e^{-{\boldsymbol {t}}'{\boldsymbol {\boldsymbol {t}}}/2},\quad {\boldsymbol {t}}\in \mathbb {R} ^{d}.\qquad (3)}

El·lipsoides d'equidensitat. [9] La funció de densitat (1) és constant sobre els el·lipsoides d {\displaystyle d} -dimensionals de la forma

( x μ ) Σ 1 ( x μ ) = c 2 , {\displaystyle ({\boldsymbol {x}}-{\boldsymbol {\mu }})'{\boldsymbol {\Sigma }}^{-1}({\boldsymbol {x}}-{\boldsymbol {\mu }})=c^{2},}
per a qualsevol c R {\displaystyle c\in \mathbb {R} } . És diu que és una distribució amb simetria el·líptica . Quan Σ = σ I d {\displaystyle {\boldsymbol {\Sigma }}=\sigma {\boldsymbol {I}}_{d}} aleshores els el·lipsoides anteriors són esferes i es diu que la distribució té simetria esfèrica. Vegeu al següent apartat el cas bidimensional. Vegeu [10] per un estudi complet de les distribucions amb simetria el·líptica i simetria esfèrica.

Vector aleatori normal bidimensional

Vegem l'expressió de la funció de densitat (1) quan d = 2 {\displaystyle d=2} [11]. Sigui X = ( X 1 , X 2 ) N 2 ( μ , Σ ) {\displaystyle {\boldsymbol {X}}=(X_{1},X_{2})'\sim {\mathcal {N}}_{2}({\boldsymbol {\mu }},{\boldsymbol {\Sigma }})} . Tindrem

E ( X 1 X 2 ) = ( μ 1 μ 2 ) . {\displaystyle E{\begin{pmatrix}X_{1}\\X_{2}\end{pmatrix}}={\begin{pmatrix}\mu _{1}\\\mu _{2}\end{pmatrix}}.}
La matriu de variàncies covariàncies serà
Σ = ( σ 11 σ 12 σ 21 σ 22 ) = ( σ 1 2 ρ σ 1 σ 2 ρ σ 1 σ 2 σ 2 2 ) , {\displaystyle {\boldsymbol {\Sigma }}={\begin{pmatrix}\sigma _{11}&\sigma _{12}\\\sigma _{21}&\sigma _{22}\end{pmatrix}}={\begin{pmatrix}\sigma _{1}^{2}&\rho \sigma _{1}\sigma _{2}\\\rho \sigma _{1}\sigma _{2}&\sigma _{2}^{2}\end{pmatrix}},}
on
σ 11 = σ 1 2 = Var ( X 1 ) = E [ X 1 2 ] μ 1 2 , {\displaystyle \sigma _{11}=\sigma _{1}^{2}={\text{Var}}(X_{1})=E[X_{1}^{2}]-\mu _{1}^{2},}
anàlogament σ 22 = σ 2 2 {\displaystyle \sigma _{22}=\sigma _{2}^{2}} és la variància de X 2 {\displaystyle X_{2}} , i ρ {\displaystyle \rho } és el coeficient de correlació entre X 1 {\displaystyle X_{1}} i X 2 {\displaystyle X_{2}} :
ρ = Cov ( X 1 , X 2 ) Var ( X 1 ) Var ( X 2 ) = σ 12 σ 1 σ 2 , {\displaystyle \rho ={\frac {{\text{Cov}}(X_{1},X_{2})}{\sqrt {{\text{Var}}(X_{1})\,{\text{Var}}(X_{2})}}}={\frac {\sigma _{12}}{\sigma _{1}\sigma _{2}}},}
i cal suposar 1 < ρ < 1 {\displaystyle -1<\rho <1} per tal que det   Σ > 0 {\displaystyle {\text{det}}\ {\boldsymbol {\Sigma }}>0} .

La inversa de Σ {\displaystyle {\boldsymbol {\Sigma }}} és

Σ 1 = 1 1 ρ 2 ( 1 / σ 1 2 ρ / ( σ 1 σ 2 ) ρ / ( σ 1 σ 2 ) 1 / σ 2 2 ) . {\displaystyle {\boldsymbol {\Sigma }}^{-1}={\frac {1}{1-\rho ^{2}}}\,{\begin{pmatrix}1/\sigma _{1}^{2}&-\rho /(\sigma _{1}\sigma _{2})\\-\rho /(\sigma _{1}\sigma _{2})&1/\sigma _{2}^{2}\end{pmatrix}}.}
Llavors, la funció de densitat de X {\displaystyle {\boldsymbol {X}}} és

f ( x 1 , x 2 ) = 1 2 π σ 1 σ 2 1 ρ 2 exp { 1 2 ( 1 ρ 2 ) [ ( x 1 μ 1 ) 2 σ 1 2 2 ρ ( x 1 μ 1 ) ( x 2 μ 2 ) σ 1 σ 2 + ( x 2 μ 2 ) 2 σ 2 2 ] } . {\displaystyle f(x_{1},x_{2})={\frac {1}{2\pi \sigma _{1}\sigma _{2}{\sqrt {1-\rho ^{2}}}}}\,{\text{exp}}{\Big \{}-{\frac {1}{2(1-\rho ^{2})}}{\Big [}{\frac {(x_{1}-\mu _{1})^{2}}{\sigma _{1}^{2}}}-2\rho \,{\frac {(x_{1}-\mu _{1})(x_{2}-\mu _{2})}{\sigma _{1}\sigma _{2}}}+{\frac {(x_{2}-\mu _{2})^{2}}{\sigma _{2}^{2}}}{\Big ]}{\Big \}}.}

Figura 1. Funció de densitat d'un vector aleatori normal bidimensional


Podem pensar en aquesta funció de densitat com una superfície a l'espai, amb forma de campana i màxim en el punt ( μ 1 , μ 2 ) {\displaystyle (\mu _{1},\mu _{2})} . Vegeu a la Figura 1 una representació de la funció z = f ( x , y ) {\displaystyle z=f(x,y)}


Els el·lipsoides d'equidensitat són ara les el·lipses [9].

( x 1 μ 1 ) 2 σ 1 2 2 ρ ( x 1 μ 1 ) ( x 2 μ 2 ) σ 1 σ 2 + ( x 2 μ 2 ) 2 σ 2 2 = c 2 . {\displaystyle {\frac {(x_{1}-\mu _{1})^{2}}{\sigma _{1}^{2}}}-2\rho \,{\frac {(x_{1}-\mu _{1})(x_{2}-\mu _{2})}{\sigma _{1}\sigma _{2}}}+{\frac {(x_{2}-\mu _{2})^{2}}{\sigma _{2}^{2}}}=c^{2}.}

Aquestes el·lipses serien les corbes de nivell (no dibuixades a la Figura 1) en un mapa topogràfic .

Quan ρ = 0 {\displaystyle \rho =0} (és a dir, les variables són independents) i σ 1 = σ 2 {\displaystyle \sigma _{1}=\sigma _{2}} , aleshores les el·lipses esdevenen circumferències.




Definició: cas general

En aplicacions importants, com per exemple la distribució dels residus en models de regressió lineal o la distribució asimptòtica de la distribució multinomial que dóna lloc al test de la χ 2 {\displaystyle \chi ^{2}} de Pearson, es fa palesa la necessitat d'utilitzar vectors aletoris normals que tenen matriu de variàncies-covariàncies amb determinant nul (matriu singular), que s'anomenen vectors aleatoris normals singulars o degenerats;[8] necessàriament aquests vectors no tenen funció de densitat i per tant, cal donar una definició que no utilitzi aquesta funció.

En aquest context, els llibres donen diverses definicions (equivalents) de vector aleatori normal multidimensional general. Aquí citarem les tres més habituals; la definició (a) es troba a Bryc [2], la (b) a Nualart-Sanz [12] i la (c) a Seber.[13]

(a) Es diu que un vector aleatori X {\displaystyle {\boldsymbol {X}}} és normal si qualsevol combinació lineal de les seves components és una variable aleatòria normal.
(b) Sigui Σ {\displaystyle {\boldsymbol {\Sigma }}} una matriu d × d {\displaystyle d\times d} semidefinida positiva i μ R d {\displaystyle {\boldsymbol {\mu }}\in \mathbb {R} ^{d}} . Un vector aleatori X {\displaystyle {\boldsymbol {X}}} es diu que és normal X N d ( μ , Σ ) {\displaystyle {\boldsymbol {X}}\sim {\mathcal {N}}_{d}({\boldsymbol {\mu }},{\boldsymbol {\Sigma }})} si té funció característica

φ X ( t ) = e i t μ t Σ t / 2 , t R d . ( 4 ) {\displaystyle \varphi _{\boldsymbol {X}}({\boldsymbol {t}})=e^{i\,{\boldsymbol {t}}'{\boldsymbol {\mu }}-{\boldsymbol {t}}'{\boldsymbol {\Sigma }}{\boldsymbol {t}}/2},\quad {\boldsymbol {t}}\in \mathbb {R} ^{d}.\qquad \qquad (4)}

(c) Sigui Σ {\displaystyle {\boldsymbol {\Sigma }}} una matriu d × d {\displaystyle d\times d} semidefinida positiva i μ R d {\displaystyle {\boldsymbol {\mu }}\in \mathbb {R} ^{d}} . Un vector aleatori X {\displaystyle {\boldsymbol {X}}} es diu que és normal X N d ( μ , Σ ) {\displaystyle {\boldsymbol {X}}\sim {\mathcal {N}}_{d}({\boldsymbol {\mu }},{\boldsymbol {\Sigma }})} si té la mateixa llei que B Z + μ , {\displaystyle {\boldsymbol {BZ}}+{\boldsymbol {\mu }},} on Z N k ( 0 , I k ) {\displaystyle {\boldsymbol {Z}}\sim {\mathcal {N}}_{k}({\boldsymbol {0}},{\boldsymbol {I}}_{k})} (és dir, té funció de densitat (2)), i B {\displaystyle {\boldsymbol {B}}} és qualsevol matriu d × k {\displaystyle d\times k} tal que B B = Σ {\displaystyle {\boldsymbol {BB'}}={\boldsymbol {\Sigma }}} (sempre existeix almenys una matriu B {\displaystyle B} amb aquestes característiques [14]).

Notació i nomenclatura. A partir d'ara, utilitzarem la notació X = ( X 1 , , X d ) N d ( μ , Σ ) {\displaystyle {\boldsymbol {X}}=(X_{1},\dots ,X_{d})^{\prime }\sim {\mathcal {N}}_{d}({\boldsymbol {\mu }},{\boldsymbol {\Sigma }})} per referir-nos a un vector aleatori normal d {\displaystyle d} -dimensional, ja sigui singular o no singular. També es diu que les variables aleatòries X 1 , , X d {\displaystyle X_{1},\dots ,X_{d}} tenen distribució conjunta normal o que són conjuntament normals.

Cas singular i cas no singular. Sigui X N d ( μ , Σ ) {\displaystyle {\boldsymbol {X}}\sim {\mathcal {N}}_{d}({\boldsymbol {\mu }},{\boldsymbol {\Sigma }})} , amb Σ {\displaystyle {\boldsymbol {\Sigma }}} semidefinida positiva.

(i) Si Σ {\displaystyle {\boldsymbol {\Sigma }}} és definida positiva (cas no singular), això és, det   Σ > 0 {\displaystyle {\text{det}}\ {\boldsymbol {\Sigma }}>0} , aleshores X {\displaystyle {\boldsymbol {X}}} té funció de densitat donada per (1). El suport de X {\displaystyle {\boldsymbol {X}}} és R d {\displaystyle \mathbb {R} ^{d}} .
(ii) Si det   Σ = 0 {\displaystyle {\text{det}}\ {\boldsymbol {\Sigma }}=0} (cas singular), aleshores X {\displaystyle {\boldsymbol {X}}} no té funció de densitat. Si el rang de Σ {\displaystyle {\boldsymbol {\Sigma }}} és r < d {\displaystyle r<d} , llavors X {\displaystyle {\boldsymbol {X}}} està concentrada en una varietat lineal de R d {\displaystyle \mathbb {R} ^{d}} de dimensió r {\displaystyle r} [15], concretament en μ + Span ( Σ ) {\displaystyle \mu +{\text{Span}}({\boldsymbol {\Sigma }})} , on Span ( Σ ) {\displaystyle {\text{Span}}({\boldsymbol {\Sigma }})} designa el subespai vectorial de R d {\displaystyle \mathbb {R} ^{d}} generat per les columnes de Σ {\displaystyle {\boldsymbol {\Sigma }}} .
Cal notar que si det   Σ > 0 {\displaystyle {\text{det}}\ {\boldsymbol {\Sigma }}>0} , aleshores μ + Span ( Σ ) = R d {\displaystyle \mu +{\text{Span}}({\boldsymbol {\Sigma }})=\mathbb {R} ^{d}} .
Vegeu la demostració d'aquestes propietats al final de la següent secció de Propietats.
Exemple d'un vector aleatori normal singular
Considerem una variable aleatòria normal estàndard Z N ( 0 , 1 ) {\displaystyle Z\sim {\mathcal {N}}(0,1)} . Definim el vector aleatori
X = (     Z Z ) = (     1 1 ) Z . {\displaystyle {\boldsymbol {X}}={\begin{pmatrix}~~Z\\-Z\end{pmatrix}}={\begin{pmatrix}~~1\\-1\end{pmatrix}}Z.}
La seva matriu de variàncies-covariàncies és
Σ = (     1 1 1     1 ) , {\displaystyle {\boldsymbol {\Sigma }}={\begin{pmatrix}~~1&-1\\-1&~~1\end{pmatrix}},}
que té rang 1.

D'altra banda, aquest vector està concentrat en la recta r = { ( x , y ) :   y = x } {\displaystyle r=\{(x,y):\ y=-x\}} , és a dir, P ( ( Z , Z ) r ) = 1 {\displaystyle P{\big (}(Z,-Z)\in r{\big )}=1} ; però llavors, no pot tenir funció de densitat, ja que si existís una funció f ( x , y ) {\displaystyle f(x,y)} no negativa tal que per a qualsevol conjunt borelià B R 2 {\displaystyle B\subset \mathbb {R} ^{2}} tinguéssim

P ( ( Z , Z ) B ) = B f ( x , y ) d x d y , {\displaystyle P{\big (}(Z,-Z)\in B{\big )}=\iint _{B}f(x,y)\,dx\,dy,}
aleshores
P ( ( Z , Z ) r ) = r f ( x , y ) d x d y = 0 , {\displaystyle P{\big (}(Z,-Z)\in r{\big )}=\iint _{r}f(x,y)\,dx\,dy=0,}
ja que r {\displaystyle r} té mesura de Lebesgue 0 en el pla, la qual cosa és contradictori amb P ( ( Z , Z ) r ) = 1 {\displaystyle P{\big (}(Z,-Z)\in r{\big )}=1} .


És clar que tota combinació lineal de les components de X {\displaystyle {\boldsymbol {X}}} és una variable normal.


Respecte la segona definició, la seva funció característica és

φ X ( s , t ) = e ( s t ) 2 / 2 , {\displaystyle \varphi _{\boldsymbol {X}}(s,t)=e^{-(s-t)^{2}/2},}
però
( s , t ) (     1 1 1     1 ) ( s t ) = ( s t ) 2 , {\displaystyle (s,t){\begin{pmatrix}~~1&-1\\-1&~~1\end{pmatrix}}{\begin{pmatrix}s\\t\end{pmatrix}}=(s-t)^{2},}
i, per tant, la funció característica té la forma (4).

Finalment, tal com hem vist, X = B Z {\displaystyle {\boldsymbol {X}}={\boldsymbol {B}}Z} , amb B = ( 1 , 1 ) {\displaystyle {\boldsymbol {B}}=(1,-1)^{\prime }} , que satisfà B B = Σ {\displaystyle {\boldsymbol {BB'}}={\boldsymbol {\Sigma }}} i per tant també es compleix la condició donada a la definició (c).

En resum, partint de qualsevol de les definicions que hem donat, X {\displaystyle {\boldsymbol {X}}} és un vector aleatori normal bidimensional.
Demostració de l'equivalència de les tres definicions de vector aleatori normal
Vegem que (a) {\displaystyle \Rightarrow } (b). Suposem que X {\displaystyle {\boldsymbol {X}}} compleix la condició expressada a (a). En primer lloc, cada component d'aquest vector té esperança i variància ja que, per exemple, X 1 = ( 1 , 0 , , 0 ) X {\displaystyle X_{1}=(1,0,\dots ,0){\boldsymbol {X}}} , i, per hipòtesi, és normal. Llavors X {\displaystyle {\boldsymbol {X}}} tindrà esperança, que designem per μ {\displaystyle {\boldsymbol {\mu }}} i matriu de variàncies-covariàncies que denotarem per Σ {\displaystyle {\boldsymbol {\Sigma }}} . Fixem t R d {\displaystyle {\boldsymbol {t}}\in \mathbb {R} ^{d}} i sigui T = t X N ( μ T , σ T 2 ) {\displaystyle T=t'{\boldsymbol {X}}\sim {\mathcal {N}}(\mu _{T},\sigma _{T}^{2})} ; anem a calcular μ T {\displaystyle \mu _{T}} i σ T {\displaystyle \sigma _{T}} : per les propietats de l'esperança d'un vector aleatori i de la matriu de variàncies-covariàncies,
μ T = E [ T ] = t E [ X ] = t μ i σ Y 2 = Var ( t X ) = t Σ t . {\displaystyle \mu _{T}=E[T]={\boldsymbol {t}}'E[{\boldsymbol {X}}]={\boldsymbol {t'\mu }}\quad {\text{i}}\quad \sigma _{Y}^{2}={\text{Var}}({\boldsymbol {t}}'{\boldsymbol {X}})={\boldsymbol {t'\Sigma t}}.}
Aleshores, podem calcular la funció característica de X {\displaystyle {\boldsymbol {X}}} de la següent manera:
φ X ( t ) = E [ e i t X ] = E [ e i T ] = φ T ( 1 ) = e i μ T σ T 2 / 2 = e i t μ t Σ t / 2 , {\displaystyle \varphi _{\boldsymbol {X}}({\boldsymbol {t}})=E[e^{i{\boldsymbol {t}}'{\boldsymbol {X}}}]=E[e^{iT}]=\varphi _{T}(1)=e^{i\mu _{T}-\sigma _{T}^{2}/2}=e^{i\,{\boldsymbol {t}}'{\boldsymbol {\mu }}-{\boldsymbol {t}}'{\boldsymbol {\Sigma }}{\boldsymbol {t}}/2},}
que és el que volíem demostrar.


Vegem que (b) {\displaystyle \Rightarrow } (c). En efecte, suposem Σ {\displaystyle {\boldsymbol {\Sigma }}} te rang k {\displaystyle k} . Aleshores, existeix una matriu B {\displaystyle {\boldsymbol {B}}} d × k {\displaystyle d\times k} de rang k {\displaystyle k} tal que B B = Σ {\displaystyle {\boldsymbol {BB'}}={\boldsymbol {\Sigma }}} [14].Sigui Z N k ( 0 , I k ) {\displaystyle {\boldsymbol {Z}}\sim {\mathcal {N}}_{k}({\boldsymbol {0}},{\boldsymbol {I}}_{k})} i definim U = B Z + μ {\displaystyle {\boldsymbol {U}}={\boldsymbol {BZ}}+{\boldsymbol {\mu }}} . El vector U {\displaystyle {\boldsymbol {U}}} té la mateixa distribució que X {\displaystyle {\boldsymbol {X}}} , ja que la funció característica de U {\displaystyle {\boldsymbol {U}}} és (vegeu les propietats de les funcions característiques multidimensionals)

φ U ( t ) = e i t μ φ Z ( B t ) = e i t μ exp { t B I d B t / 2 } = φ X ( t ) , t R d , {\displaystyle \varphi _{\boldsymbol {U}}({\boldsymbol {t}})=e^{i{\boldsymbol {t'\mu }}}\varphi _{\boldsymbol {Z}}({\boldsymbol {B't}})=e^{i{\boldsymbol {t'\mu }}}\exp\{-{\boldsymbol {t'BI_{d}B't}}/2\}=\varphi _{\boldsymbol {X}}({\boldsymbol {t}}),\quad {\boldsymbol {t}}\in \mathbb {R} ^{d},}
on hem utilitzat la funció característica de Z {\displaystyle {\boldsymbol {Z}}} donada a (3).


Finalment, vegem que (c) {\displaystyle \Rightarrow } (a). Sigui λ R d {\displaystyle {\boldsymbol {\lambda }}\in \mathbb {R} ^{d}} . Aleshores λ X {\displaystyle {\boldsymbol {\lambda 'X}}} tindrà la mateixa llei (amb les notacions anteriors) que
λ U = λ B Z + λ μ {\displaystyle {\boldsymbol {\lambda 'U}}={\boldsymbol {\lambda 'BZ}}+{\boldsymbol {\lambda '\mu }}}
i llavors, per a t R {\displaystyle t\in \mathbb {R} } ,
φ λ U ( t ) = e i t λ μ φ λ B Z ( t ) = e i t λ μ φ Z ( B λ t ) = e i t λ μ exp { ( B λ t ) B λ t / 2 } = e i t λ μ e λ Σ λ t 2 / 2 , {\displaystyle \varphi _{\boldsymbol {\lambda 'U}}(t)=e^{it{\boldsymbol {\lambda '\mu }}}\varphi _{\boldsymbol {\lambda 'BZ}}(t)=e^{it{\boldsymbol {\lambda '\mu }}}\varphi _{\boldsymbol {Z}}({\boldsymbol {B'\lambda t}})=e^{it{\boldsymbol {\lambda '\mu }}}\,\exp\{-({\boldsymbol {B'\lambda }}t)'{\boldsymbol {B'\lambda }}t/2\}=e^{it{\boldsymbol {\lambda '\mu }}}\,e^{-{\boldsymbol {\lambda '\Sigma \lambda }}\,t^{2}/2},}
on reconeixem la funció característica d'una variable aleatòria normal. Per tant λ U {\displaystyle {\boldsymbol {\lambda 'U}}} (i, llavors λ X {\displaystyle {\boldsymbol {\lambda 'X}}} ) té una distribució normal.
Existència de vectors aleatoris normals
En el cas no singular, l'existència de vectors aleatoris normals ve donada per resultats generals de la teoria de la probabilitat. Concretament, existeix un espai de probabilitat ( Ω , A , P ) {\displaystyle (\Omega ,{\mathcal {A}},P)} i un vector aleatori X : R d R {\displaystyle {\boldsymbol {X}}:\mathbb {R^{d}} \to \mathbb {R} } que té funció de densitat (1).[16]
En relació amb la definició general, utilitzant la terminologia de Loeve,[17] les definicions (a) i (b) són descriptives, mentre que (c) és constructiva. Si es parteix d'(a) o (b) cal demostrar l'existència de l'objecte matemàtic que compleix aquesta propietat: ¿existeix un vector aleatori que complexi la propietat enunciada a (a)? ¿Existeix un vector aleatori tal que tingui (4) per funció característica? la resposta a ambdues preguntes ve donada per l'equivalència amb la definició (c).

Propietats

1. Esperança i matriu de variàncies covariàncies d'un vector aleatori normal. Sigui X N d ( μ , Σ ) {\displaystyle {\boldsymbol {X}}\sim {\mathcal {N}}_{d}({\boldsymbol {\mu }},{\boldsymbol {\Sigma }})} . Aleshores el seu vector d'esperances és μ {\displaystyle {\boldsymbol {\mu }}} i la seva matriu de variàncies-covariàncies és Σ {\displaystyle {\boldsymbol {\Sigma }}} :

μ = E [ X ] = ( E [ X 1 ] , , E [ X d ] ) i Σ = ( σ i j ) i , j = 1 , d = ( Cov ( X i , X j ) ) i , j = 1 , d . {\displaystyle {\boldsymbol {\mu }}=E[{\boldsymbol {X}}]={\big (}E[X_{1}],\dots ,E[X_{d}]{\big )}'\quad {\text{i}}\quad {\boldsymbol {\Sigma }}={\big (}\sigma _{ij}{\big )}_{i,j=1\dots ,d}={\big (}{\text{Cov}}(X_{i},X_{j}){\big )}_{i,j=1\dots ,d}.}

Demostració
Utilitzarem la representació de la definició (c) i les propietats del vector d'esperances. Amb les notacions de la definició (c),
E [ X ] = E [ B Z + μ ] = B E [ Z ] + μ = μ , {\displaystyle E[{\boldsymbol {X}}]=E[{\boldsymbol {BZ}}+{\boldsymbol {\mu }}]={\boldsymbol {B}}E[{\boldsymbol {Z}}]+{\boldsymbol {\mu }}={\boldsymbol {\mu }},}
ja que, segons havíem comentat a la primera secció, E [ Z ] = 0 {\displaystyle E[{\boldsymbol {Z}}]={\boldsymbol {0}}} .
Designem per V ( M ) {\displaystyle {\boldsymbol {V}}({\boldsymbol {M}})} la matriu de variàncies-covariàncies d'un vector aleatori M {\displaystyle {\boldsymbol {M}}} . Llavors, per les propietat de la matriu de variàncies-covariàncies,
V ( X ) = V ( B Z + μ ) = B V ( Z ) B = Σ , {\displaystyle {\boldsymbol {V}}({\boldsymbol {X}})={\boldsymbol {V}}({\boldsymbol {B}}Z+{\boldsymbol {\mu }})={\boldsymbol {B}}{\boldsymbol {V}}({\boldsymbol {Z}}){\boldsymbol {B}}'={\boldsymbol {\Sigma }},}
ja que V ( Z ) = I k {\displaystyle {\boldsymbol {V}}({\boldsymbol {Z}})={\boldsymbol {I}}_{k}} .


2. Transformacions lineals [18]. Sigui X N d ( μ , Σ ) {\displaystyle {\boldsymbol {X}}\sim {\mathcal {N}}_{d}({\boldsymbol {\mu }},{\boldsymbol {\Sigma }})} , amb Σ {\displaystyle {\boldsymbol {\Sigma }}} semidefinida positiva, C {\displaystyle {\boldsymbol {C}}} una matriu k × d {\displaystyle k\times d} i b R k {\displaystyle {\boldsymbol {b}}\in \mathbb {R} ^{k}} . Definim

Y = C X + b . {\displaystyle {\boldsymbol {Y}}={\boldsymbol {CX}}+{\boldsymbol {b}}.}
Aleshores Y N k ( μ Y , Σ Y ) {\displaystyle {\boldsymbol {Y}}\sim {\mathcal {N}}_{k}({\boldsymbol {\mu _{Y}}},{\boldsymbol {\Sigma _{Y}}})} amb
μ Y = C μ + b i Σ Y = C Σ C . {\displaystyle {\boldsymbol {\mu _{Y}}}={\boldsymbol {C\mu }}+{\boldsymbol {b}}\quad {\text{i}}\quad {\boldsymbol {\Sigma _{Y}}}={\boldsymbol {C\Sigma C'}}.}
Suposem ara que k d {\displaystyle k\leq d} . Si X {\displaystyle {\boldsymbol {X}}} és no singular i r a n g C = k {\displaystyle {\rm {rang}}\,{\boldsymbol {C}}=k} , aleshores Y {\displaystyle {\boldsymbol {Y}}} és no singular.

Demostració
La funció característica de Y {\displaystyle {\boldsymbol {Y}}} és (vegeu les propietats de les funcions característiques multidimensionals)
φ Y ( t ) = e i t b φ X ( C t ) = e i t b e i t C μ e t C Σ C t / 2 = e i t μ Y + t Σ Y t / 2 , t R k . {\displaystyle \varphi _{\boldsymbol {Y}}({\boldsymbol {t}})=e^{i{\boldsymbol {t'b}}}\,\varphi _{\boldsymbol {X}}({\boldsymbol {C't}})=e^{i{\boldsymbol {t'b}}}e^{i{\boldsymbol {t'C\mu }}}e^{{\boldsymbol {t'C\Sigma C't}}/2}=e^{i{\boldsymbol {t'\mu _{Y}}}+{\boldsymbol {t'\Sigma _{Y}t}}/2},\qquad {\boldsymbol {t}}\in \mathbb {R} ^{k}.}
Per tant, identifiquem un vector normal multidimensional amb vector d'esperances C μ + b {\displaystyle {\boldsymbol {C\mu }}+{\boldsymbol {b}}} i matriu de variàncies covariàncies C Σ C {\displaystyle {\boldsymbol {C\Sigma C'}}} .
Per veure que si X {\displaystyle {\boldsymbol {X}}} és no singular i r a n g C = k {\displaystyle {\rm {rang}}\,{\boldsymbol {C}}=k} , aleshores Y {\displaystyle {\boldsymbol {Y}}} és no singular, s'utilitza que en aquestes condicions C Σ C {\displaystyle {\boldsymbol {C\Sigma C'}}} és definida positiva [19].

3. Reducció a un vector aleatori normal estàndard [20]. Com a conseqüència de la propietat anterior tenim: Suposem que X N d ( μ , Σ ) {\displaystyle {\boldsymbol {X}}\sim {\mathcal {N}}_{d}({\boldsymbol {\mu }},{\boldsymbol {\Sigma }})} és no singular. Atès que existeix una única matriu definida positiva Σ 1 / 2 {\displaystyle {\boldsymbol {\Sigma }}^{1/2}} tal que ( Σ 1 / 2 ) 2 = Σ {\displaystyle {\boldsymbol {(}}\Sigma ^{1/2})^{2}={\boldsymbol {\Sigma }}} [21], anomenada arrel quadrada de Σ {\displaystyle {\boldsymbol {\Sigma }}} , i designem per Σ 1 / 2 {\displaystyle {\boldsymbol {\Sigma }}^{-1/2}} la seva inversa,[22] aleshores

Σ 1 / 2 ( X μ ) N d ( 0 , I d ) . ( 5 ) {\displaystyle {\boldsymbol {\Sigma }}^{-1/2}{\big (}{\boldsymbol {X}}-{\boldsymbol {\mu }}{\big )}\sim {\mathcal {N}}_{d}({\boldsymbol {0}},{\boldsymbol {I}}_{d}).\qquad \qquad (5)}
Recíprocament, si Z N d ( 0 , I d ) {\displaystyle {\boldsymbol {Z}}\sim {\mathcal {N}}_{d}({\boldsymbol {0}},{\boldsymbol {I}}_{d})} , aleshores
μ + Σ 1 / 2 Z N d ( μ , Σ ) . {\displaystyle {\boldsymbol {\mu }}+{\boldsymbol {\Sigma }}^{1/2}{\boldsymbol {Z}}\sim {\mathcal {N}}_{d}({\boldsymbol {\mu }},{\boldsymbol {\Sigma }}).}


4. Distribucions marginals [23]. Sigui X N d ( μ , Σ ) {\displaystyle {\boldsymbol {X}}\sim {\mathcal {N}}_{d}({\boldsymbol {\mu }},{\boldsymbol {\Sigma }})} . Aleshores qualsevol subvector és normal.

Demostració
Només cal utilitzar que qualsevol subvector es pot escriure de la forma C X {\displaystyle {\boldsymbol {CX}}} per a una matriu convenient C {\displaystyle {\boldsymbol {C}}} i aplicar la propietat 2.



Observació: El recíproc no és cert: un vector aleatori pot tenir totes les components normals, però no ser un vector aleatori normal.
Contraexemple. Un vector aleatori amb les components normals, que no és normal bidimensional
Aquest contraexemple és de Tong.[24] Considerem un vector aleatori X = ( X 1 , X 2 ) {\displaystyle {\boldsymbol {X}}=(X_{1},X_{2})^{\prime }} amb funció de densitat
f ( x 1 , x 2 ) = { 1 π e ( x 1 2 + x 2 2 ) / 2 , si  ( x 1 , x 2 ) [ 1 , 0 ] 2 [ 0 , 1 ] 2 , 0 , si  ( x 1 , x 2 ) ( [ 1 , 0 ] × [ 0 , 1 ] ) ( [ 0 , 1 ] × [ 1 , 0 ] ) , 1 2 π e ( x 1 2 + x 2 2 ) / 2 , altrament . {\displaystyle f(x_{1},x_{2})={\begin{cases}{\tfrac {1}{\pi }}e^{-(x_{1}^{2}+x_{2}^{2})/2},&{\text{si }}(x_{1},x_{2})\in [-1,0]^{2}\cup [0,1]^{2},\\0,&{\text{si }}(x_{1},x_{2})\in ([-1,0]\times [0,1])\cup ([0,1]\times [-1,0]),\\{\tfrac {1}{2\pi }}e^{-(x_{1}^{2}+x_{2}^{2})/2},&{\text{altrament}}.\end{cases}}}
Llavors, es comprova que X 1 {\displaystyle X_{1}} i X 2 {\displaystyle X_{2}} són ambdues N ( 0 , 1 ) {\displaystyle {\mathcal {N}}(0,1)} , però és clar que X {\displaystyle {\boldsymbol {X}}} no és un vector aleatori normal bidimensional.

5. Funció generatriu de moments [25] Sigui X N d ( μ , Σ ) {\displaystyle {\boldsymbol {X}}\sim {\mathcal {N}}_{d}({\boldsymbol {\mu }},{\boldsymbol {\Sigma }})} . Aleshores X {\displaystyle {\boldsymbol {X}}} té funció generatriu de moments en tot R d {\displaystyle \mathbb {R} ^{d}} i val

M X ( t ) = E [ e t X ] = e t μ + t Σ t / 2 , t R d . {\displaystyle M_{\boldsymbol {X}}({\boldsymbol {t}})=E[e^{{\boldsymbol {t}}'{\boldsymbol {X}}}]=e^{\,{\boldsymbol {t}}'{\boldsymbol {\mu }}+{\boldsymbol {t}}'{\boldsymbol {\Sigma }}{\boldsymbol {t}}/2},\quad {\boldsymbol {t}}\in \mathbb {R} ^{d}.}

6. Independència. És ben conegut que si dues variables aleatòries són independents llavors són incorrelacionades, o sigui, la seva covariància és zero. En general el recíproc no és cert. però és veritat quan les variables tenen distribució conjunta normal.

(i) Sigui X = ( X 1 , , X d ) N d ( μ , Σ ) {\displaystyle {\boldsymbol {X}}=(X_{1},\dots ,X_{d})'\sim {\mathcal {N}}_{d}({\boldsymbol {\mu }},{\boldsymbol {\Sigma }})} . Aleshores les variables aleatòries X 1 , , X d {\displaystyle X_{1},\dots ,X_{d}} són independents si i només si C o v ( X i , X j ) = 0 ,   i j {\displaystyle {\rm {Cov}}(X_{i},X_{j})=0,\ i\neq j} .[26] Equivalentment, si la matriu Σ {\displaystyle {\boldsymbol {\Sigma }}} és diagonal.
(ii) Sigui X = ( X 1 , , X d ) N d ( μ , Σ ) {\displaystyle {\boldsymbol {X}}=(X_{1},\dots ,X_{d})'\sim {\mathcal {N}}_{d}({\boldsymbol {\mu }},{\boldsymbol {\Sigma }})} , i 2 r d {\displaystyle 2\leq r\leq d} . Escrivim
X 1 = ( X 1 , , X r 1 ) i X 2 = ( X r , , X d ) {\displaystyle {\boldsymbol {X}}_{1}=(X_{1},\dots ,X_{r-1})'\quad {\text{i}}\quad {\boldsymbol {X}}_{2}=(X_{r},\dots ,X_{d})'}
μ 1 = E [ X 1 ] = ( μ 1 , , μ r 1 ) i μ 2 = E [ X 2 ] = ( μ r , , μ d ) . {\displaystyle {\boldsymbol {\mu }}_{1}=E[{\boldsymbol {X}}_{1}]=(\mu _{1},\dots ,\mu _{r-1})'\quad {\text{i}}\quad {\boldsymbol {\mu }}_{2}=E[{\boldsymbol {X}}_{2}]=(\mu _{r},\dots ,\mu _{d})'.}
D'altra banda, partim la matriu Σ {\displaystyle {\boldsymbol {\Sigma }}} de la següent manera:
Σ = ( Σ 11 Σ 12 Σ 21 Σ 22 ) , {\displaystyle {\boldsymbol {\Sigma }}={\begin{pmatrix}{\boldsymbol {\Sigma }}_{11}&{\boldsymbol {\Sigma }}_{12}\\\Sigma _{21}&{\boldsymbol {\Sigma }}_{22}\end{pmatrix}},}
on Σ 12 {\displaystyle {\boldsymbol {\Sigma }}_{12}} és matriu de covariàncies dels vectors X 1 {\displaystyle {\boldsymbol {X}}_{1}} i X 2 {\displaystyle {\boldsymbol {X}}_{2}} ,
Σ 12 = C ( X 1 , X 2 ) = ( C o v ( X n , X m ) n = 1 , , r 1 m = r , , d     . {\displaystyle {\boldsymbol {\Sigma }}_{12}={\boldsymbol {C}}({\boldsymbol {X}}_{1},{\boldsymbol {X}}_{2})={\big (}{\rm {Cov}}(X_{n},X_{m}{\big )}_{n=1,\dots ,r-1 \atop m=r,\dots ,d~~}.}
Noteu que Σ 21 = Σ 12 {\displaystyle {\boldsymbol {\Sigma }}_{21}={\boldsymbol {\Sigma }}_{12}'} . Aleshores X 1 {\displaystyle {\boldsymbol {X}}_{1}} i X 2 {\displaystyle {\boldsymbol {X}}_{2}} són independents si i només si Σ 12 = 0 {\displaystyle {\boldsymbol {\Sigma }}_{12}={\boldsymbol {0}}} [27].
(iii) La propietat anterior es generalitza a qualsevol partició del vector X N d ( μ , Σ ) {\displaystyle {\boldsymbol {X}}\sim {\mathcal {N}}_{d}({\boldsymbol {\mu }},{\boldsymbol {\Sigma }})} en vectors X 1 , , X k {\displaystyle {\boldsymbol {X}}_{1},\dots ,{\boldsymbol {X}}_{k}} : aquests vectors són independents si i només si les matrius de covariàncies compleixen que C ( X i , X j ) = 0 ,   i j {\displaystyle {\boldsymbol {C}}({\boldsymbol {X}}_{i},{\boldsymbol {X}}_{j})={\boldsymbol {0}},\ i\neq j} [28].
Demostració
La demostració de les tres propietats es basa en el fet que quan les covariàncies són zero, aleshores la funció característica del vector descomposa en producte de les funcions característiques de les components, i recíprocament. Vegeu les referències esmentades.



Estudi del casos singular i no singular
Anem a demostrar les dues propietats que hem esmentat després de donar les tres definicions de vector aleatori normal general; concretament, sigui X N d ( μ , Σ ) {\displaystyle {\boldsymbol {X}}\sim {\mathcal {N}}_{d}({\boldsymbol {\mu }},{\boldsymbol {\Sigma }})} , amb Σ {\displaystyle {\boldsymbol {\Sigma }}} semidefinida positiva.
(i) Si Σ {\displaystyle {\boldsymbol {\Sigma }}} és definida positiva (cas no singular), això és, det   Σ > 0 {\displaystyle {\text{det}}\ {\boldsymbol {\Sigma }}>0} , aleshores X {\displaystyle {\boldsymbol {X}}} té funció de densitat donada per (1). El suport de la distribució és R d {\displaystyle \mathbb {R} ^{d}} .
(ii) Si det   Σ = 0 {\displaystyle {\text{det}}\ {\boldsymbol {\Sigma }}=0} (cas singular), aleshores X {\displaystyle {\boldsymbol {X}}} no té funció de densitat. Si el rang de Σ {\displaystyle {\boldsymbol {\Sigma }}} és r < d {\displaystyle r<d} , llavors X {\displaystyle {\boldsymbol {X}}} està concentrada en un subespai lineal de R d {\displaystyle \mathbb {R} ^{d}} de dimensió r {\displaystyle r}


; concretament en μ + Span ( Σ ) {\displaystyle {\boldsymbol {\mu }}+{\text{Span}}({\boldsymbol {\Sigma }})} , on Span ( Σ ) {\displaystyle {\text{Span}}({\boldsymbol {\Sigma }})} és l'espai generat per les columnes de Σ {\displaystyle {\boldsymbol {\Sigma }}} .
La demostració de (i) es basa en la representació (5) que hem vist a la propietat 2. Concretament, definim el vector Z {\displaystyle {\boldsymbol {Z}}} de la següent manera:

Z = Σ 1 / 2 ( X μ ) N d ( 0 , I d ) . {\displaystyle {\boldsymbol {Z}}={\boldsymbol {\Sigma }}^{-1/2}{\big (}{\boldsymbol {X}}-{\boldsymbol {\mu }}{\big )}\sim {\mathcal {N}}_{d}({\boldsymbol {0}},{\boldsymbol {I}}_{d}).}
Tal com hem vist a (2), Z {\displaystyle {\boldsymbol {Z}}} té densitat
f Z ( z ) = 1 ( 2 π ) d / 2 e z z / 2 . {\displaystyle f_{\boldsymbol {Z}}({\boldsymbol {z}})={\frac {1}{(2\pi )^{d/2}}}\,e^{-{\boldsymbol {z}}'{\boldsymbol {z}}/2}.}
Aïllant X {\displaystyle {\boldsymbol {X}}} tenim,
X = μ + Σ 1 / 2 Z N d ( μ , Σ ) . {\displaystyle {\boldsymbol {X}}={\boldsymbol {\mu }}+{\boldsymbol {\Sigma }}^{1/2}{\boldsymbol {Z}}\sim {\mathcal {N}}_{d}({\boldsymbol {\mu }},{\boldsymbol {\Sigma }}).}
Ara aplicarem la fórmula de la transformació d'un vector aleatori amb densitat, utilitzant l'aplicació h : R d R d {\displaystyle h:\mathbb {R} ^{d}\to \mathbb {R} ^{d}} definida per
x = h ( z ) = μ + Σ 1 / 2 z . {\displaystyle {\boldsymbol {x}}=h({\boldsymbol {z}})={\boldsymbol {{\boldsymbol {\mu }}+\Sigma ^{1/2}z}}.}
L'aplicació inversa és
z = g ( x ) = h 1 ( x ) = Σ 1 / 2 ( x μ ) . {\displaystyle {\boldsymbol {z}}=g({\boldsymbol {x}})=h^{-1}({\boldsymbol {x}})={\boldsymbol {\Sigma }}^{-1/2}({\boldsymbol {x}}-{\boldsymbol {\mu }}).}
La matriu jacobiana de g {\displaystyle g} és J g = Σ 1 / 2 {\displaystyle J_{g}={\boldsymbol {\Sigma }}^{-1/2}} . Llavors, la densitat de X {\displaystyle {\boldsymbol {X}}} és
f X ( x ) = 1 ( 2 π ) d / 2 exp { 1 2 ( x μ ) Σ 1 / 2 Σ 1 / 2 ( x μ ) } | det Σ 1 / 2 | , {\displaystyle f_{\boldsymbol {X}}({\boldsymbol {x}})={\frac {1}{(2\pi )^{d/2}}}\,{\text{exp}}{\Big \{}-{\tfrac {1}{2}}({\boldsymbol {x}}-{\boldsymbol {\mu }})^{\prime }{\boldsymbol {\Sigma }}^{-1/2}{\boldsymbol {\Sigma }}^{-1/2}({\boldsymbol {x}}-{\boldsymbol {\mu }})\}\,\vert {\text{det}}\,{\boldsymbol {\Sigma }}^{-1/2}\vert ,}
d'on s'obté l'expressió (1). Aquesta funció de densitat és estrictament positiva a tot R d {\displaystyle \mathbb {R} ^{d}} , d'on el suport del vector és R d {\displaystyle \mathbb {R} ^{d}} .

Demostració de (ii). Aquesta demostració es basa en l'anomenat Teorema de descomposició espectral de matrius semidefinides positives, vegeu [29]. Siguin λ 1 , , λ r {\displaystyle \lambda _{1},\dots ,\lambda _{r}} els valors propis no nuls de Σ {\displaystyle {\boldsymbol {\Sigma }}} . Existeix una matriu ortogonal d × d {\displaystyle d\times d} Q {\displaystyle {\boldsymbol {Q}}} tal que

Q Σ Q = D = ( λ 1 λ 2 λ r 0 0 ) . {\displaystyle {\boldsymbol {Q'\Sigma Q}}={\boldsymbol {D}}={\begin{pmatrix}\lambda _{1}\\&\lambda _{2}\\&&\ddots \\&&&\lambda _{r}\\&&&&0\\&&&&&\ddots \\&&&&&&0\end{pmatrix}}.}
Definim
Y = Q ( X μ ) , ( ) {\displaystyle {\boldsymbol {Y}}={\boldsymbol {Q}}'({\boldsymbol {X}}-{\boldsymbol {\mu }}),\qquad \qquad (*)}
que és un vector normal amb vector d'esperances 0 {\displaystyle {\boldsymbol {0}}} i matriu de variàncies-covariàncies
V a r ( Y ) = Q Σ Q = D . {\displaystyle {\rm {\bf {Var}}}({\boldsymbol {Y}})={\boldsymbol {Q'\Sigma Q}}={\boldsymbol {D}}.}
Per tant, Y = ( Y 1 , , Y r , 0 , , 0 ) {\displaystyle {\boldsymbol {Y}}=(Y_{1},\dots ,Y_{r},0,\dots ,0)^{\prime }} . Definim V ~ = ( Y 1 , , Y r ) {\displaystyle {\widetilde {\boldsymbol {V}}}=(Y_{1},\dots ,Y_{r})^{\prime }} , que segons la propietat anterior serà normal no singular N r ( 0 , D ~ ) {\displaystyle {\mathcal {N}}_{r}({\boldsymbol {0}},{\widetilde {\boldsymbol {D}}})} on
D ~ = ( λ 1 λ 2 λ r ) . {\displaystyle {\widetilde {\boldsymbol {D}}}={\begin{pmatrix}\lambda _{1}\\&\lambda _{2}\\&&\ddots \\&&&\lambda _{r}\\\end{pmatrix}}.}
Sigui Q ~ {\displaystyle {\widetilde {\boldsymbol {Q}}}} la matriu d × r {\displaystyle d\times r} formada per les primeres r {\displaystyle r} columnes de la matriu Q {\displaystyle {\boldsymbol {Q}}} . Llavors, aïllant a (*) tenim
X = Q Y + μ = Q ~ Y ~ + μ . {\displaystyle {\boldsymbol {X}}={\boldsymbol {Q}}{\boldsymbol {Y}}+{\boldsymbol {\mu }}={\widetilde {\boldsymbol {Q}}}{\widetilde {\boldsymbol {Y}}}+{\boldsymbol {\mu }}.}
Això implica que el vector X {\displaystyle {\boldsymbol {X}}} està concentrat en el espai lineal de R d {\displaystyle \mathbb {R} ^{d}} de dimensió r {\displaystyle r} :
{ x = Q y + μ , y R d } = { x = Q ~ u + μ , u R r } . {\displaystyle \{{\boldsymbol {x}}={\boldsymbol {Q}}{\boldsymbol {y}}+{\boldsymbol {\mu }},\,{\boldsymbol {y}}\in \mathbb {R} ^{d}\}=\{{\boldsymbol {x}}={\widetilde {\boldsymbol {Q}}}{\boldsymbol {u}}+{\boldsymbol {\mu }},\,{\boldsymbol {u}}\in \mathbb {R} ^{r}\}.}
Finalment, veiem que aquesta varietat lineal coincideix amb μ + Span ( Σ ) {\displaystyle {\boldsymbol {\mu }}+{\text{Span}}({\boldsymbol {\Sigma }})} , on Span ( Σ ) {\displaystyle {\text{Span}}({\boldsymbol {\Sigma }})} és l'espai generat per les columnes de Σ {\displaystyle {\boldsymbol {\Sigma }}} . Això consisteix en demostrar que Span ( Σ ) = Span ( Q ~ ) {\displaystyle {\text{Span}}({\boldsymbol {\Sigma }})={\text{Span}}({\widetilde {\boldsymbol {Q}}})} . Recordem que per una matriu A {\displaystyle {\boldsymbol {A}}} de dimensions m × n {\displaystyle m\times n} , el conjunt generat per les seves columnes, Span ( A ) {\displaystyle {\text{Span}}({\boldsymbol {A}})} ,consisteix en els vectors de R m {\displaystyle \mathbb {R} ^{m}} de la forma A w ,   w R n {\displaystyle {\boldsymbol {A}}{\boldsymbol {w}},\ {\boldsymbol {w}}\in \mathbb {R} ^{n}} . Atès que Σ = Q D Q {\displaystyle {\boldsymbol {\Sigma }}={\boldsymbol {QDQ'}}} , per a qualsevol v R d {\displaystyle {\boldsymbol {v}}\in \mathbb {R} ^{d}} ,
Σ v = Q ( D Q v ) = Q ~ u ~ , {\displaystyle {\boldsymbol {\Sigma v}}={\boldsymbol {Q}}({\boldsymbol {DQ'v}})={\widetilde {\boldsymbol {Q}}}{\widetilde {\boldsymbol {u}}},}

on u ~ {\displaystyle {\widetilde {\boldsymbol {u}}}} és el vector format per les primeres r {\displaystyle r} components del vector u = D Q v {\displaystyle {\boldsymbol {u}}={\boldsymbol {DQ'v}}} . En conseqüència, Span ( Σ ) Span ( Q ~ ) {\displaystyle {\text{Span}}({\boldsymbol {\Sigma }})\subset {\text{Span}}({\widetilde {\boldsymbol {Q}}})} . Del fet que rang ( Σ ) = r = rang ( Q ~ ) {\displaystyle {\text{rang}}({\boldsymbol {\Sigma }})=r={\text{rang}}({\widetilde {\boldsymbol {Q}}})} es dedueix la igualtat entre els dos subespais vectorials.


Moments. Fórmula d'Isserlis o de Wick

Atès que un vector aleatori normal té funció generatriu de moments, tindrà moments de tots els ordres, i com que la distribució del vector normal només depèn de les mitjanes i les covariàncies de les components, els moments només deprendran d'aquestes quantitats; tot i aquesta consideració apriorística, és sorprenent que es pugui trobar una fórmula per als moments tan elegant i simple com la que presentem a continuació.


Sigui X = ( X 1 , , X d ) N d ( 0 , Σ ) {\displaystyle {\boldsymbol {X}}=(X_{1},\dots ,X_{d})'\sim {\mathcal {N}}_{d}({\boldsymbol {0}},{\boldsymbol {\Sigma }})} (les components poden ser iguals). Aleshores [30]

E [ X 1 X d ] = k E [ X i k X j k ] , {\displaystyle E[X_{1}\cdots X_{d}]=\sum \prod _{k}E[X_{i_{k}}X_{j_{k}}],}

on la suma es fa sobre totes les descomposicions del conjunt { 1 , 2 , , d } {\displaystyle \{1,2,\dots ,d\}} en parelles disjuntes { i k , j k } {\displaystyle \{i_{k},\,j_{k}\}} .
Per exemple,

E [ X 1 X 2 X 3 X 4 ] = E [ X 1 X 2 ] E [ X 3 X 4 ] + E [ X 1 X 3 ] E [ X 2 X 4 ] + E [ X 1 X 4 ] E [ X 2 X 3 ] , {\displaystyle E[X_{1}X_{2}X_{3}X_{4}]=E[X_{1}X_{2}]\,E[X_{3}X_{4}]+E[X_{1}X_{3}]\,E[X_{2}X_{4}]+E[X_{1}X_{4}]\,E[X_{2}X_{3}],}
ja que el conjunt { 1 , 2 , 3 , 4 } {\displaystyle \{1,2,3,4\}} es pot descompondre de 3 maneres en parelles: les parelles { 1 , 2 } , { 3 , 4 } {\displaystyle \{1,2\},\,\{3,4\}} , les parelles { 1 , 3 } , { 2 , 4 } {\displaystyle \{1,3\},\,\{2,4\}} i les parelles { 1 , 4 } , { 2 , 3 } {\displaystyle \{1,4\},\,\{2,3\}} .

Quan hi ha variables repetides, es fan les identificacions a la fórmula anterior: per exemple, per calcular E [ X 1 2 X 2 2 ] {\displaystyle E[X_{1}^{2}X_{2}^{2}]} , prenem X 3 = X 1 {\displaystyle X_{3}=X_{1}} i X 4 = X 2 {\displaystyle X_{4}=X_{2}} . Llavors,

E [ X 1 2 X 2 2 ] = E [ X 1 2 ] E [ X 2 2 ] + 2 ( E [ X 1 X 2 ] ) 2 . {\displaystyle E[X_{1}^{2}X_{2}^{2}]=E[X_{1}^{2}]\,E[X_{2}^{2}]+2(E[X_{1}X_{2}])^{2}.}

Anàlogament,

E [ X 1 2 X 2 X 3 ] = E [ X 1 2 ] E [ X 2 X 3 ] + 2 E [ X 1 X 2 ] E [ X 1 X 3 ] . {\displaystyle E[X_{1}^{2}X_{2}X_{3}]=E[X_{1}^{2}]\,E[X_{2}X_{3}]+2\,E[X_{1}X_{2}]\,E[X_{1}X_{3}].}
E [ X 1 3 X 2 ] = 3 E [ X 1 2 ] E [ X 1 X 2 ] . {\displaystyle E[X_{1}^{3}X_{2}]=3E[X_{1}^{2}]\,E[X_{1}X_{2}].}
E [ X 1 4 ] = 3 ( E [ X 1 2 ] ) 2 . {\displaystyle E[X_{1}^{4}]=3(E[X_{1}^{2}])^{2}.}

Observacions.

  1. Si d {\displaystyle d} és senar, aleshores E [ X 1 X d ] = 0 {\displaystyle E[X_{1}\cdots X_{d}]=0} , ja que { 1 , 2 , , d } {\displaystyle \{1,2,\dots ,d\}} no pot descompondre-se en parelles. D'altra banda, aquesta propietat pot demostrar-se directament del fet que totes les variables tenen esperanza 0, i llavors el vector ( X 1 , , X d ) {\displaystyle (X_{1},\dots ,X_{d})} té la mateixa distribució que el vector ( X 1 , , X d ) {\displaystyle (-X_{1},\dots ,-X_{d})} . En ser d {\displaystyle d} senar, tenim que E [ X 1 X d ] = E [ X 1 X d ] {\displaystyle E[X_{1}\cdots X_{d}]=-E[X_{1}\cdots X_{d}]} .
  2. Com que totes les variables tenen esperança zero, E [ X i X j ] = C o v [ X i , X j ] {\displaystyle E[X_{i}X_{j}]={\rm {Cov}}[X_{i},X_{j}]} . Sovint s'escriu la fórmula anterior usant la notació σ i j = C o v ( X i , X j ) {\displaystyle \sigma _{ij}={\rm {Cov}}(X_{i},X_{j})} amb σ i i = σ i 2 = V a r ( X i ) {\displaystyle \sigma _{ii}=\sigma _{i}^{2}={\rm {Var}}(X_{i})} .
  3. Per a un nombre parell d = 2 k {\displaystyle d=2k} , el nombre de parelles en que descompon { 1 , 2 , , d } {\displaystyle \{1,2,\dots ,d\}} és
    ( 2 k ) ! 2 k k ! = ( 2 k 1 ) ! 2 k 1 ( k 1 ) ! = ( 2 k 1 ) ( 2 k 3 ) 1 = ( 2 k 1 ) ! ! = ( d 1 ) ! ! , {\displaystyle {\frac {(2k)!}{2^{k}\,k!}}={\frac {(2k-1)!}{2^{k-1}\,(k-1)!}}=(2k-1)(2k-3)\cdots 1=(2k-1)!!=(d-1)!!,}
    on n ! ! {\displaystyle n!!} denota el doble factorial de n {\displaystyle n} . Així, per exemple, per a d = 4 {\displaystyle d=4} , tenim que el nombre de parelles és 3 ! ! = 3 1 = 3 {\displaystyle 3!!=3\cdot 1=3} ; per d = 6 {\displaystyle d=6} tenim 5 ! ! = 5 3 1 = 15 {\displaystyle 5!!=5\cdot 3\cdot 1=15} .
  4. Aquesta fórmula va ser descoberta per Isserlis[31] però també és coneguda com a fórmula de Wick a partir del seu treball de Física teòrica.[32] Isserlis va demostrar la fórmula per inducció; veieu una demostració utilitzant funcions característiques a Janson [30]
  5. Quan totes les variables són iguals, X 1 = = X d = X N ( 0 , σ 2 ) {\displaystyle X_{1}=\dots =X_{d}=X\sim {\cal {N}}(0,\sigma ^{2})} aleshores tenim la coneguda fórmula pels moments de les variables normals centrades [33]
    E [ X d ] = { ( d 1 ) ! ! σ d , si   d   és parell , 0 , si   d   és senar . {\displaystyle E[X^{d}]={\begin{cases}(d-1)!!\,\sigma ^{d},&{\text{si}}\ d\ {\text{és parell}},\\0,&{\text{si}}\ d\ {\text{és senar}}.\end{cases}}}
  6. Per una extensió als moments d'un vector normal amb vector d'esperances no nul veieu Withers [34]
  7. Per a altres fórmules pels moments d'un vector normal, vegeu Graybill,[35] secció 10.9.

Distribucions condicionades i regressió

Sigui X N d ( μ , Σ ) {\displaystyle {\boldsymbol {X}}\sim {\mathcal {N}}_{d}({\boldsymbol {\mu }},{\boldsymbol {\Sigma }})} no singular. Amb les notacions anteriors de la propietat 5, tenim [36] que la distribució ( X 1 , , X r 1 ) {\displaystyle (X_{1},\dots ,X_{r-1})'} condicionada per X r = x r , , X d = x d {\displaystyle X_{r}=x_{r},\dots ,X_{d}=x_{d}} és normal mutidimensional N r 1 ( μ , Σ ) {\displaystyle {\mathcal {N}}_{r-1}({\boldsymbol {\mu }}^{*},{\boldsymbol {\Sigma }}^{*})} on

μ = μ 1 + Σ 12 Σ 22 1 ( x 2 μ 2 ) i Σ = Σ 11 Σ 12 Σ 22 1 Σ 21 . {\displaystyle {\boldsymbol {\mu }}^{*}={\boldsymbol {\mu }}_{1}+{\boldsymbol {\Sigma }}_{12}{\boldsymbol {\Sigma }}_{22}^{-1}({\boldsymbol {x}}_{2}-{\boldsymbol {\mu }}_{2})\quad {\text{i}}\quad {\boldsymbol {\Sigma }}^{*}={\boldsymbol {\Sigma }}_{11}-{\boldsymbol {\Sigma }}_{12}{\boldsymbol {\Sigma }}_{22}^{-1}{\boldsymbol {\Sigma }}_{21}.}

La matriu Σ 12 Σ 22 1 {\displaystyle {\boldsymbol {\Sigma }}_{12}{\boldsymbol {\Sigma }}_{22}^{-1}} s'anomena [37] matriu de coeficients de regressió de ( X 1 , , X r 1 ) {\displaystyle (X_{1},\dots ,X_{r-1})'} sobre X r = x r , , X d = x d {\displaystyle X_{r}=x_{r},\dots ,X_{d}=x_{d}} . Cal notar que μ {\displaystyle {\boldsymbol {\mu }}^{*}} és lineal en x 2 {\displaystyle {\boldsymbol {x}}_{2}} i que la matriu Σ {\displaystyle {\boldsymbol {\Sigma }}^{*}} no depèn de x 2 {\displaystyle {\boldsymbol {x}}_{2}} . Aquesta propietat també és certa quan X {\displaystyle {\boldsymbol {X}}} és singular canviant Σ 22 1 {\displaystyle {\boldsymbol {\Sigma }}_{22}^{-1}} per una pseudoinversa (o inversa generalitzada) Σ 22 {\displaystyle {\boldsymbol {\Sigma }}_{22}^{-}} [38].

Per a la demostració, vegeu les referències citades.


L'expressió de la mitjana de la distribució condicionada la podem escriure com una esperança condicionada:

E [ X 1 | X 2 = x 2 ] = μ 1 + Σ 12 Σ 22 1 ( x 2 μ 2 ) . {\displaystyle E[{\boldsymbol {X}}_{1}\,\vert \,{\boldsymbol {X}}_{2}={\boldsymbol {x}}_{2}]={\boldsymbol {\mu }}_{1}+{\boldsymbol {\Sigma }}_{12}{\boldsymbol {\Sigma }}_{22}^{-1}({\boldsymbol {x}}_{2}-{\boldsymbol {\mu }}_{2}).}

Com abans, remarquem que E [ X 1 | X 2 = x 2 ] {\displaystyle E[{\boldsymbol {X}}_{1}\,\vert \,{\boldsymbol {X}}_{2}={\boldsymbol {x}}_{2}]} és una funció lineal de x 2 {\displaystyle {\boldsymbol {x}}_{2}} i que la variància condicionada no depèn de x 2 {\displaystyle {\boldsymbol {x}}_{2}} .

Considerem ara el cas que X 1 {\displaystyle {\boldsymbol {X}}_{1}} només té una component és a dir, X 1 = X 1 {\displaystyle {\boldsymbol {X}}_{1}=X_{1}} i X 2 = ( X 2 , , X d ) {\displaystyle {\boldsymbol {X}}_{2}=(X_{2},\dots ,X_{d})} . Llavors,

E [ X 1 | X 2 = x 2 ] = μ 1 + Σ 12 Σ 22 1 ( x 2 μ 2 ) i Var ( X 1 | X 2 = x 2 ) = σ 11 Σ 12 Σ 22 1 Σ 12 , {\displaystyle E[{\boldsymbol {X}}_{1}\,\vert \,{\boldsymbol {X}}_{2}={\boldsymbol {x}}_{2}]=\mu _{1}+{\boldsymbol {\Sigma }}_{12}{\boldsymbol {\Sigma }}_{22}^{-1}({\boldsymbol {x}}_{2}-{\boldsymbol {\mu }}_{2})\quad {\text{i}}\quad {\text{Var}}(X_{1}\,\vert \,{\boldsymbol {X}}_{2}={\boldsymbol {x}}_{2})=\sigma _{11}-{\boldsymbol {\Sigma }}_{12}{\boldsymbol {\Sigma }}_{22}^{-1}{\boldsymbol {\Sigma }}_{12}^{\prime },}
on ara Σ 12 = ( σ 12 , , σ 1 d ) {\displaystyle {\boldsymbol {\Sigma }}_{12}=(\sigma _{12},\dots ,\sigma _{1d})} .

Atès que el predictor òptim d'una variable aleatòria en termes d'unes altres variables (en el sentit dels mínims quadrats) és l'esperança condicionada,[39] tenim el fet notable que en el cas que totes les variables involucrades siguin conjuntament normals, el predictor òptim coincideix amb el predictor lineal òptim.

Per a d = 2 {\displaystyle d=2} , tenim que X 1 {\displaystyle X_{1}} condicionada per X 2 = x 2 {\displaystyle X_{2}=x_{2}} té una distribució normal N ( μ , σ 2 ) {\displaystyle {\mathcal {N}}(\mu ,\sigma ^{2})} on

μ = μ 1 + ρ σ 1 σ 2 ( x 2 μ 2 ) i σ 2 = σ 1 2 ( 1 ρ 2 ) . {\displaystyle \mu =\mu _{1}+\rho \,{\frac {\sigma _{1}}{\sigma _{2}}}(x_{2}-\mu _{2})\quad {\text{i}}\quad \sigma ^{2}=\sigma _{1}^{2}(1-\rho ^{2}).}
En el llenguatge de la regressió, la recta de regressió de X 1 {\displaystyle X_{1}} sobre X 2 {\displaystyle X_{2}} és [40]

x 1 = μ 1 + ρ σ 1 σ 2 ( x 2 μ 2 ) . {\displaystyle x_{1}=\mu _{1}+\rho \,{\frac {\sigma _{1}}{\sigma _{2}}}(x_{2}-\mu _{2}).}

Formes quadràtiques en variables normals

Sigui X N d ( μ , Σ ) {\displaystyle {\boldsymbol {X}}\sim {\mathcal {N}}_{d}({\boldsymbol {\mu }},{\boldsymbol {\Sigma }})} i A = ( a i j ) {\displaystyle {\boldsymbol {A}}=(a_{ij})} una matriu d × d {\displaystyle d\times d} simètrica. Una expressió de forma

X A X = i , j = 1 , , d a i j X i X j {\displaystyle {\boldsymbol {X'AX}}=\sum _{i,j=1,\dots ,d}a_{ij}X_{i}X_{j}}
s'anomena una forma quadràtica en X {\displaystyle {\boldsymbol {X}}} .

L'exemple més senzill és quan μ = 0 {\displaystyle {\boldsymbol {\mu }}={\boldsymbol {0}}} , Σ = I d {\displaystyle {\boldsymbol {\Sigma }}={\boldsymbol {I}}_{d}} i A = I d {\displaystyle {\boldsymbol {A}}={\boldsymbol {I}}_{d}} . Llavors, la forma quadràtica té una distribució ji-quadrat amb d {\displaystyle d} graus de llibertat, χ d 2 {\displaystyle \chi _{d}^{2}} , ja que llavors X 1 , , X n {\displaystyle X_{1},\dots ,X_{n}} tenen distribució N ( 0 , 1 ) {\displaystyle {\mathcal {N}}(0,1)} i són independents, i llavors

X A X = i = 1 d X i 2 χ 2 ( d ) . {\displaystyle {\boldsymbol {X^{\prime }AX}}=\sum _{i=1}^{d}X_{i}^{2}\sim \chi ^{2}(d).}
Les formes quadràtiques en variables normals tenen un paper important en Estadística. Per un tractament en profunditat, veieu, per exemple, Seber, cap. 20.[5]

Propietats.

  1. Sigui X N d ( μ , Σ ) {\displaystyle {\boldsymbol {X}}\sim {\mathcal {N}}_{d}({\boldsymbol {\mu }},{\boldsymbol {\Sigma }})} no singular. Aleshores ( X μ ) Σ 1 ( X μ ) χ d 2 {\displaystyle {\boldsymbol {(X-\mu )'\Sigma ^{-1}(X-\mu )}}\sim \chi _{d}^{2}} i X Σ 1 X χ d 2 ( δ ) {\displaystyle {\boldsymbol {X'\Sigma ^{-1}X}}\sim \chi _{d}^{2}(\delta )} , on χ d 2 ( δ ) {\displaystyle \chi _{d}^{2}(\delta )} és una una distribució khi-quadrat no-central amb d {\displaystyle d} graus de llibertat i paràmetre de no centralitat δ = μ Σ 1 μ {\displaystyle \delta ={\boldsymbol {\mu '\Sigma ^{-1}\mu }}} .
  2. Sigui X N d ( μ , Σ ) {\displaystyle {\boldsymbol {X}}\sim {\mathcal {N}}_{d}({\boldsymbol {\mu }},{\boldsymbol {\Sigma }})} no singular i A {\displaystyle {\boldsymbol {A}}} una matriu d × d {\displaystyle d\times d} simètrica de rang r {\displaystyle r} . Aleshores X A X χ r 2 ( δ ) {\displaystyle {\boldsymbol {X'AX}}\sim \chi _{r}^{2}(\delta )} amb δ = μ A μ {\displaystyle \delta ={\boldsymbol {\mu 'A\mu }}} si i només si la matriu A Σ {\displaystyle {\boldsymbol {A\Sigma }}} és idempotent: A Σ A Σ = A Σ {\displaystyle {\boldsymbol {A\Sigma A\Sigma }}={\boldsymbol {A\Sigma }}} .


Notes

  1. Tong, 1990.
  2. 2,0 2,1 Bryc, 1995.
  3. Anderson, 2003.
  4. Seber, 2003.
  5. 5,0 5,1 Seber, 2008.
  6. Seber, 2008, p. 435, definició 20.11.
  7. Per definició, una matriu definida positiva o semidefinida positiva és simétrica.
  8. 8,0 8,1 Tong, 1990, p. 27.
  9. 9,0 9,1 Anderson, 2003, p. 22.
  10. Fang, Kaitai. Symmetric multivariate and related distributions. Londres: Chapman and Hall, 1990. ISBN 0-412-31430-4. 
  11. Anderson, 2003, p. 21.
  12. Nualart i Sanz, 1990.
  13. Seber, 2008, p. 436.
  14. 14,0 14,1 Seber, 2008, p. 221, propietat 10.10.
  15. Nualart i Sanz, 1990, p. 128.
  16. Una funció de densitat multidimensional determina de forma única una funció de distribució multidimensional, a partir de la qual pot construir-se un espai de probabilitat i un vector aleatori amb les propietats desitjades. Vegeu Hoffmann-Jørgensen, J. Probability with a view toward statistics. New York, NY: Chapman & Hall, 1994, p. 111. ISBN 0-412-05221-0. 
  17. Loeve, Michel. Teoría de la probabilidad. Madrid: Tecnos, D.L. 1976. ISBN 84-309-0663-0. . Vegeu, per exemple, les pàgines 331 i següents.
  18. Tong, 1990, p. 26, Theorem 3.2.1.
  19. Seber, 2003, p. 461, prop. A.4.5.
  20. Seber, 2003, p. 18.
  21. Seber, 2008, p. 221, item 10.8.
  22. No hi ha ambiguitat en la notació ja que ( Σ 1 / 2 ) 1 = ( Σ 1 ) 1 / 2 {\displaystyle ({\boldsymbol {\Sigma }}^{1/2})^{-1}=({\boldsymbol {\Sigma }}^{-1})^{1/2}} . Vegeu Seber, 2008, pàgina 221, item 10.8 (f)
  23. Seber, 2008, p. 436, item 20.23 (c).
  24. Tong, 1990, p. 29.
  25. Seber, 2008, p. 436, ítem 20.23(a).
  26. Ash, Robert B. Probability and measure theory. 2a edició. San Diego: Harcourt/Academic Press, 2000, p. 453. ISBN 0-12-065202-1. 
  27. Tong, 1990, p. 30.
  28. Seber, 1984, p. 18.
  29. Seber, 2008, p. 342.
  30. 30,0 30,1 Janson, Svante. Gaussian Hilbert spaces. Cambridge, U.K.: Cambridge University Press, 1997, p. 11-12. ISBN 0-521-56128-0. 
  31. Isserlis, L. «ON A FORMULA FOR THE PRODUCT-MOMENT COEFFICIENT OF ANY ORDER OF A NORMAL FREQUENCY DISTRIBUTION IN ANY NUMBER OF VARIABLES» (en anglès). Biometrika, 12, 1-2, 01-11-1918, pàg. 134–139. DOI: 10.1093/biomet/12.1-2.134. ISSN: 0006-3444.
  32. Wick, G. C. «The Evaluation of the Collision Matrix» (en anglès). Physical Review, 80, 2, 15-10-1950, pàg. 268–272. DOI: 10.1103/PhysRev.80.268. ISSN: 0031-899X.
  33. Papoulis, Athanasios. Probability, random variables, and stochastic processes. 4th ed. Boston: McGraw-Hill, 2002, p. 148. ISBN 0-07-366011-6. 
  34. Withers, C. S. «The moments of the multivariate normal» (en anglès). Bulletin of the Australian Mathematical Society, 32, 1, 1985-08, pàg. 103–107. DOI: 10.1017/S000497270000976X. ISSN: 1755-1633.
  35. Graybill, Franklin A. «Secció 10.9». A: Matrices with applications in statistics. 2a edició. Belmont, Calif.: Wadsworth International Group, 1983. ISBN 0-534-98038-4. 
  36. Seber, 2008, p. 439.
  37. Anderson, 2003, p. 36.
  38. Seber, 2008, p. 437.
  39. Tong, 1990, p. 36.
  40. Wilks, S. S.. Mathematical statistics. Nova York: Wiley, 1962, p. 163. ISBN 0-471-94644-3. 

Bibliografia

  • Anderson, T. W.. An introduction to multivariate statistical analysis. 3a edició. Hoboken, N.J.: Wiley-Interscience, 2003. ISBN 0-471-36091-0. 
  • Bryc, Wlodzimierz. The Normal Distribution : Characterizations with Applications. New York, NY: Springer New York, 1995. ISBN 978-1-4612-2560-7. 
  • Kotz, S.; Balakrishnan, N.; Johnson, N.L.. Continuous multivariate distributions. Vol. 1, Models and applications.. 2nd ed.. Nova York: Wiley, 2000. ISBN 0-471-65403-5. 
  • Nualart, David; Sanz, Marta. Curs de probabilitats. Barcelona: PPU, 1990. ISBN 84-7665-718-8. 
  • Seber, G. A. F.. Multivariate observations. Nova York: John Wiley & Sons, Inc, 1984. ISBN 0-471-88104-X. 
  • Seber, G. A. F.. Linear regression analysis. 2a edició. Hoboken, N.J.: Wiley-Interscience, 2003. ISBN 0-471-41540-5. 
  • Seber, G. A. F.. A matrix handbook for statisticians. Hoboken, N.J.: Wiley-Interscience, 2008. ISBN 978-0-470-22678-0. 
  • Tong, Y. L.. The multivariate normal distribution. Nova York: Springer-Verlag, 1990. ISBN 0-387-97062-2. 


Vegeu també

  • Vegeu aquesta plantilla
Distribucions discretes
amb suport finit
Distribucions discretes
amb suport infinit
Distribucions contínues
suportades sobre un interval acotat
Distribucions contínues
suportades sobre un interval semi-infinit
Distribucions contínues
suportades en tota la recta real
Distribucions contínues
amb el suport de varis tipus
Barreja de distribució variable-contínua
Distribució conjunta
Discreta
Ewens
Multinomial
Multinomial de Dirichlet
Multinomial negativa
Contínua
Dirichlet
Dirichlet generalitzada
Estable multivariant
Gamma normal
Gamma normal inversa
Normal multivariable
t multivariable
Matriu de valor
Matriu gamma
Matriu gamma inversa
Matriu normal
Normal de Wishart
Normal de Wishart inversa
t matriu
Wishart
Wishart inversa
Direccionals
Univariada (circular)
Asimètrica de Laplace envoltada
Cauchy envoltada
Exponencial envoltada
Lévy envoltada
Normal envoltada
Circular uniforme
Univariada de von Mises
Bivariada (esfèrica)
Kent
Bivariada (toroidal)
Bivariada de von Mises
Multivariada
von Mises-Fisher
Bingham
Degenerada i singular
Degenerada
Delta de Dirac
Singular
Cantor
Famílies