Vícerozměrná náhodná proměnná

Vícerozměrná náhodná proměnná nebo náhodný vektor je v teorii pravděpodobnosti a statistice seznam matematických proměnných, jehož žádná hodnota není známa, buď protože zatím nebyla pozorována, nebo protože její hodnotu neznáme přesně. Jednotlivé proměnné jsou sdružené v náhodném vektoru, protože tvoří části jednoho matematického systému – často reprezentují různé vlastnosti určité statistické jednotky. Pokud například chceme zachytit, že každá osoba má určitý věk, výšku a hmotnost, lze tyto vlastnosti blíže neurčené osoby z určité skupiny reprezentovat náhodným vektorem. Prvky náhodných vektorů jsou obvykle reálná čísla.

Náhodné vektory se často používají jako podkladová implementace různých typů agregátů náhodných proměnných, například náhodných matic, náhodných stromů, náhodných posloupností, náhodných procesů apod.

Formálněji vícerozměrná náhodná proměnná je sloupcový vektor X = ( X 1 , . . . , X n ) T {\displaystyle \mathbf {X} =(X_{1},...,X_{n})^{T}} (nebo řádkový vektor, který je jeho transpozicí), jehož složkami jsou skalární náhodné proměnné, všechny na stejném pravděpodobnostním prostoru ( Ω , F , P ) {\displaystyle (\Omega ,{\mathcal {F}},P)} , kde Ω {\displaystyle \Omega } je prostor elementárních jevů, F {\displaystyle {\mathcal {F}}} je sigma algebra (kolekce všech událostí) a P {\displaystyle P} je pravděpodobnostní míra (funkce vracející pravděpodobnost každé události).

Pravděpodobnost rozdělení

Hodnoty náhodného vektoru vytváří pravděpodobnostní míru na R n {\displaystyle \mathbb {R} ^{n}} s borelovskou algebrou jako podkladovou sigma-algebrou, která definuje sdružené rozdělení pravděpodobnosti, sdružené rozdělení nebo vícerozměrné rozdělení náhodného vektoru.

Rozdělení pravděpodobnosti každé složky náhodného vektoru X i {\displaystyle X_{i}} se nazývají marginální rozdělení. Podmíněné rozdělení pravděpodobnosti X i {\displaystyle X_{i}} pro dané X j {\displaystyle X_{j}} je rozdělení pravděpodobnosti X i {\displaystyle X_{i}} , je-li X j {\displaystyle X_{j}} známé, aby byla určitý hodnota.

Distribuční funkce F X : R n 0 , 1 {\displaystyle F_{\mathbf {X} }:\mathbb {R} ^{n}\mapsto \langle 0,1\rangle } náhodného vektoru X = ( X 1 , . . . , X n ) T {\displaystyle \mathbf {X} =(X_{1},...,X_{n})^{T}} je definována jako[1]:s.15

F X ( x ) = P ( X 1 x 1 , , X n x n ) {\displaystyle F_{\mathbf {X} }(\mathbf {x} )=\operatorname {P} (X_{1}\leq x_{1},\ldots ,X_{n}\leq x_{n})}

 

 

 

 

(1)

kde x = ( x 1 , . . . , x n ) T {\displaystyle \mathbf {x} =(x_{1},...,x_{n})^{T}} .

Operace s náhodnými vektory

S náhodnými vektory lze provádět stejné algebraické operace jako s obyčejnými vektory: sčítání, odčítání, násobení skalárem a skalární součin.

Afinní transformace

Podobně nový náhodný vektor Y {\displaystyle \mathbf {Y} } lze definovat aplikací afinní transformace g : R n R n {\displaystyle g\colon \mathbb {R} ^{n}\to \mathbb {R} ^{n}} na náhodný vektor X {\displaystyle \mathbf {X} } :

Y = A X + b {\displaystyle \mathbf {Y} ={\mathcal {A}}\mathbf {X} +b} , kde A {\displaystyle {\mathcal {A}}} je matice n × n {\displaystyle n\times n} a b {\displaystyle b} je sloupcový vektor n × 1 {\displaystyle n\times 1} .

Pokud A {\displaystyle {\mathcal {A}}} je invertovatelná matice a X {\displaystyle \textstyle \mathbf {X} } má hustotu pravděpodobnosti f X {\displaystyle f_{\mathbf {X} }} , pak hustota pravděpodobnosti Y {\displaystyle \mathbf {Y} } je

f Y ( y ) = f X ( A 1 ( y b ) ) | det A | {\displaystyle f_{\mathbf {Y} }(y)={\frac {f_{\mathbf {X} }({\mathcal {A}}^{-1}(y-b))}{|\det {\mathcal {A}}|}}} .

Invertovatelná zobrazení

Obecněji můžeme studovat invertovatelná zobrazení náhodných vektorů.[2]:s.290–291

Nechť g {\displaystyle g} je bijektivní zobrazení z otevřené podmnožiny D R n {\displaystyle {\mathcal {D}}\subseteq \mathbb {R} ^{n}} na podmnožinu R R n {\displaystyle {\mathcal {R}}\subseteq \mathbb {R} ^{n}} , nechť g {\displaystyle g} má spojité parciální derivace v D {\displaystyle {\mathcal {D}}} a nechť Jacobián g {\displaystyle g} není nulový v žádném bodě D {\displaystyle {\mathcal {D}}} . Předpokládejme, že reálný náhodný vektor X {\displaystyle \mathbf {X} } má hustotu pravděpodobnosti f X ( x ) {\displaystyle f_{\mathbf {X} }(\mathbf {x} )} a vyhovuje P ( X D ) = 1 {\displaystyle P(\mathbf {X} \in {\mathcal {D}})=1} . Pak náhodný vektor Y = g ( X ) {\displaystyle \mathbf {Y} =g(\mathbf {X} )} má hustotu pravděpodobnosti

f Y ( y ) = f X ( x ) | det g ( x ) x | | x = g 1 ( y ) 1 ( y R Y ) {\displaystyle \left.f_{\mathbf {Y} }(\mathbf {y} )={\frac {f_{\mathbf {X} }(\mathbf {x} )}{\left|\det {\frac {\partial g(\mathbf {x} )}{\partial \mathbf {x} }}\right|}}\right|_{\mathbf {x} =g^{-1}(\mathbf {y} )}\mathbf {1} (\mathbf {y} \in R_{\mathbf {Y} })}

kde 1 {\displaystyle \mathbf {1} } označuje charakteristickou funkci a množina R Y = { y = g ( x ) : f X ( x ) > 0 } R {\displaystyle R_{\mathbf {Y} }=\{\mathbf {y} =g(\mathbf {x} ):f_{\mathbf {X} }(\mathbf {x} )>0\}\subseteq {\mathcal {R}}} označuje nosič Y {\displaystyle \mathbf {Y} } .

Střední hodnota

Střední hodnota nebo očekávaná hodnota náhodného vektoru X {\displaystyle \mathbf {X} } je pevný vektor E [ X ] {\displaystyle \operatorname {E} [\mathbf {X} ]} , jehož prvky jsou střední hodnoty příslušné náhodné proměnné.[3]:s.333

E [ X ] = ( E [ X 1 ] , . . . , E [ X n ] ) T {\displaystyle \operatorname {E} [\mathbf {X} ]=(\operatorname {E} [X_{1}],...,\operatorname {E} [X_{n}])^{\mathrm {T} }}

 

 

 

 

(2)

Kovariance a křížová kovariance

Definice

Kovarianční matice (také nazývaná druhý centrální moment) náhodného vektoru n × 1 {\displaystyle n\times 1} je matice, n × n {\displaystyle n\times n} jejíž prvek (i,j) je kovariance mezi i-tou a j-tou náhodnou proměnnou. Kovarianční matice je střední hodnota, prvek po prvku, matice n × n {\displaystyle n\times n} vypočítané jako [ X E [ X ] ] [ X E [ X ] ] T {\displaystyle [\mathbf {X} -\operatorname {E} [\mathbf {X} ]][\mathbf {X} -\operatorname {E} [\mathbf {X} ]]^{T}} , kde horní index T je transpozice vektoru:[2]:s.464[3]:s.335

K X X = Var [ X ] = E [ ( X E [ X ] ) ( X E [ X ] ) T ] = E [ X X T ] E [ X ] E [ X ] T {\displaystyle \operatorname {K} _{\mathbf {X} \mathbf {X} }=\operatorname {Var} [\mathbf {X} ]=\operatorname {E} [(\mathbf {X} -\operatorname {E} [\mathbf {X} ])(\mathbf {X} -\operatorname {E} [\mathbf {X} ])^{T}]=\operatorname {E} [\mathbf {X} \mathbf {X} ^{T}]-\operatorname {E} [\mathbf {X} ]\operatorname {E} [\mathbf {X} ]^{T}}

 

 

 

 

(3)

Rozšířením křížová kovarianční matice mezi dvěma náhodnými vektory X {\displaystyle \mathbf {X} } a Y {\displaystyle \mathbf {Y} } ( X {\displaystyle \mathbf {X} } s n {\displaystyle n} prvky a Y {\displaystyle \mathbf {Y} } s p {\displaystyle p} prvky) je matice n × p {\displaystyle n\times p} [3]:s.336

K X Y = Cov [ X , Y ] = E [ ( X E [ X ] ) ( Y E [ Y ] ) T ] = E [ X Y T ] E [ X ] E [ Y ] T {\displaystyle \operatorname {K} _{\mathbf {X} \mathbf {Y} }=\operatorname {Cov} [\mathbf {X} ,\mathbf {Y} ]=\operatorname {E} [(\mathbf {X} -\operatorname {E} [\mathbf {X} ])(\mathbf {Y} -\operatorname {E} [\mathbf {Y} ])^{T}]=\operatorname {E} [\mathbf {X} \mathbf {Y} ^{T}]-\operatorname {E} [\mathbf {X} ]\operatorname {E} [\mathbf {Y} ]^{T}}

 

 

 

 

(4)

kde střední hodnota matice se opět bere po složkách. Prvek (i,j) je kovariance mezi i-tým prvkem X {\displaystyle \mathbf {X} } a j-tým prvkem Y {\displaystyle \mathbf {Y} } .

Vlastnosti

Kovarianční matice je symetrická matice, tj.[2].:s.466

K X X T = K X X {\displaystyle \operatorname {K} _{\mathbf {X} \mathbf {X} }^{T}=\operatorname {K} _{\mathbf {X} \mathbf {X} }} .

Kovarianční matice je kladně semidefinitní matice, i.e[2].:s.465

a T K X X a 0 a R n {\displaystyle \mathbf {a} ^{T}\operatorname {K} _{\mathbf {X} \mathbf {X} }\mathbf {a} \geq 0\quad \forall \mathbf {a} \in \mathbb {R} ^{n}} .

Křížová kovarianční matice Cov [ Y , X ] {\displaystyle \operatorname {Cov} [\mathbf {Y} ,\mathbf {X} ]} je transpozicí matice Cov [ X , Y ] {\displaystyle \operatorname {Cov} [\mathbf {X} ,\mathbf {Y} ]} , tj.

K Y X = K X Y T {\displaystyle \operatorname {K} _{\mathbf {Y} \mathbf {X} }=\operatorname {K} _{\mathbf {X} \mathbf {Y} }^{T}} .

Nekorelovanost

Dva náhodné vektory X = ( X 1 , . . . , X m ) T {\displaystyle \mathbf {X} =(X_{1},...,X_{m})^{T}} a Y = ( Y 1 , . . . , Y n ) T {\displaystyle \mathbf {Y} =(Y_{1},...,Y_{n})^{T}} se nazývají nekorelované, pokud

E [ X Y T ] = E [ X ] E [ Y ] T {\displaystyle \operatorname {E} [\mathbf {X} \mathbf {Y} ^{T}]=\operatorname {E} [\mathbf {X} ]\operatorname {E} [\mathbf {Y} ]^{T}} .

Jsou nekorelované právě tehdy, když jejich křížová kovarianční matice K X Y {\displaystyle \operatorname {K} _{\mathbf {X} \mathbf {Y} }} je nulová.[3]:s.337

Korelace a křížová korelace

Definice

Autokorelační matice (také nazývaná druhý moment) náhodného vektoru n × 1 {\displaystyle n\times 1} je matice n × n {\displaystyle n\times n} , jejíž prvek (i,j) je korelace mezi náhodnými proměnnými i th a j th. Korelační matice je očekávaná hodnota, prvek po prvku, matice n × n {\displaystyle n\times n} vypočítané jako X X T {\displaystyle \mathbf {X} \mathbf {X} ^{T}} , kde horní index T znamená transpozici příslušného vektoru:[4]:s.190[3]:s.334

R X X = E [ X X T ] {\displaystyle \operatorname {R} _{\mathbf {X} \mathbf {X} }=\operatorname {E} [\mathbf {X} \mathbf {X} ^{\mathrm {T} }]}

 

 

 

 

(5)

Rozšířením křížové korelační matice mezi dvěma náhodnými vektory X {\displaystyle \mathbf {X} } a Y {\displaystyle \mathbf {Y} } ( X {\displaystyle \mathbf {X} } s n {\displaystyle n} prvky a Y {\displaystyle \mathbf {Y} } s p {\displaystyle p} prvky) je matice n × p {\displaystyle n\times p}

R X Y = E [ X Y T ] {\displaystyle \operatorname {R} _{\mathbf {X} \mathbf {Y} }=\operatorname {E} [\mathbf {X} \mathbf {Y} ^{T}]}

 

 

 

 

(6)

Vlastnosti

Korelační matice má souvislost s kovarianční matice by

R X X = K X X + E [ X ] E [ X ] T {\displaystyle \operatorname {R} _{\mathbf {X} \mathbf {X} }=\operatorname {K} _{\mathbf {X} \mathbf {X} }+\operatorname {E} [\mathbf {X} ]\operatorname {E} [\mathbf {X} ]^{T}} .

Podobně pro křížová korelace matice a křížová kovarianční matice:

R X Y = K X Y + E [ X ] E [ Y ] T {\displaystyle \operatorname {R} _{\mathbf {X} \mathbf {Y} }=\operatorname {K} _{\mathbf {X} \mathbf {Y} }+\operatorname {E} [\mathbf {X} ]\operatorname {E} [\mathbf {Y} ]^{T}}

Ortogonalita

Dva náhodné vektory stejné velikosti X = ( X 1 , . . . , X n ) T {\displaystyle \mathbf {X} =(X_{1},...,X_{n})^{T}} a Y = ( Y 1 , . . . , Y n ) T {\displaystyle \mathbf {Y} =(Y_{1},...,Y_{n})^{T}} se nazývají ortogonální, jestliže

E [ X T Y ] = 0 {\displaystyle \operatorname {E} [\mathbf {X} ^{T}\mathbf {Y} ]=0} .

Nezávislost

Podrobnější informace naleznete v článku Nezávislost (teorie pravděpodobnosti).

Dva náhodné vektory X {\displaystyle \mathbf {X} } a Y {\displaystyle \mathbf {Y} } se nazývají nezávislé, jestliže pro všechny x {\displaystyle \mathbf {x} } a y {\displaystyle \mathbf {y} }

F X , Y ( x , y ) = F X ( x ) F Y ( y ) {\displaystyle F_{\mathbf {X,Y} }(\mathbf {x,y} )=F_{\mathbf {X} }(\mathbf {x} )\cdot F_{\mathbf {Y} }(\mathbf {y} )}

kde F X ( x ) {\displaystyle F_{\mathbf {X} }(\mathbf {x} )} a F Y ( y ) {\displaystyle F_{\mathbf {Y} }(\mathbf {y} )} značí kumulativní rozdělení funkce X {\displaystyle \mathbf {X} } a Y {\displaystyle \mathbf {Y} } a F X , Y ( x , y ) {\displaystyle F_{\mathbf {X,Y} }(\mathbf {x,y} )} označuje jejich sdružené distribuční funkce. Nezávislost X {\displaystyle \mathbf {X} } a Y {\displaystyle \mathbf {Y} } se často značí X Y {\displaystyle \mathbf {X} \perp \!\!\!\perp \mathbf {Y} } . Rozepsáno po složkách, o X {\displaystyle \mathbf {X} } a Y {\displaystyle \mathbf {Y} } říkáme, že jsou nezávislé, pokud pro všechny x 1 , , x m , y 1 , , y n {\displaystyle x_{1},\ldots ,x_{m},y_{1},\ldots ,y_{n}}

F X 1 , , X m , Y 1 , , Y n ( x 1 , , x m , y 1 , , y n ) = F X 1 , , X m ( x 1 , , x m ) F Y 1 , , Y n ( y 1 , , y n ) {\displaystyle F_{X_{1},\ldots ,X_{m},Y_{1},\ldots ,Y_{n}}(x_{1},\ldots ,x_{m},y_{1},\ldots ,y_{n})=F_{X_{1},\ldots ,X_{m}}(x_{1},\ldots ,x_{m})\cdot F_{Y_{1},\ldots ,Y_{n}}(y_{1},\ldots ,y_{n})} .

Charakteristická funkce

Charakteristická funkce náhodného vektoru X {\displaystyle \mathbf {X} } s n {\displaystyle n} složkami je funkce R n C {\displaystyle \mathbb {R} ^{n}\to \mathbb {C} } které převádí každý vektor ω = ( ω 1 , , ω n ) T {\displaystyle \mathbf {\omega } =(\omega _{1},\ldots ,\omega _{n})^{T}} na složitý rumber. je definovaný by[2]:s.468

φ X ( ω ) = E [ e i ( ω T X ) ] = E [ e i ( ω 1 X 1 + + ω n X n ) ] {\displaystyle \varphi _{\mathbf {X} }(\mathbf {\omega } )=\operatorname {E} \left[e^{i(\mathbf {\omega } ^{T}\mathbf {X} )}\right]=\operatorname {E} \left[e^{i(\omega _{1}X_{1}+\ldots +\omega _{n}X_{n})}\right]} .

Další vlastnosti

Střední kvadratická forma

Střední hodnotu kvadratické formy můžeme vyjádřit náhodným vektorem X {\displaystyle \mathbf {X} } takto:[5]:s.170–171

E [ X T A X ] = E [ X ] T A E [ X ] + tr ( A K X X ) , {\displaystyle \operatorname {E} [\mathbf {X} ^{T}A\mathbf {X} ]=\operatorname {E} [\mathbf {X} ]^{T}A\operatorname {E} [\mathbf {X} ]+\operatorname {tr} (AK_{\mathbf {X} \mathbf {X} }),}

kde K X X {\displaystyle K_{\mathbf {X} \mathbf {X} }} je kovarianční matice X {\displaystyle \mathbf {X} } a tr {\displaystyle \operatorname {tr} } je stopa matice – tj. součet prvků na její hlavní diagonále (shora zleva dolů doprava). Protože kvadratická forma je skalární, bude skalár i její střední hodnota.

Důkaz: Nechť z {\displaystyle \mathbf {z} } jsou náhodný vektor m × 1 {\displaystyle m\times 1} s E [ z ] = μ {\displaystyle \operatorname {E} [\mathbf {z} ]=\mu } a Cov [ z ] = V {\displaystyle \operatorname {Cov} [\mathbf {z} ]=V} a nechť A {\displaystyle A} je nestochastická matice m × m {\displaystyle m\times m} .

Pak podle vzorce pro kovarianci, jestliže označíme z T = X {\displaystyle \mathbf {z} ^{T}=\mathbf {X} } a z T A T = Y {\displaystyle \mathbf {z} ^{T}A^{T}=\mathbf {Y} } , vidíme, že:

Cov [ X , Y ] = E [ X Y T ] E [ X ] E [ Y ] T {\displaystyle \operatorname {Cov} [\mathbf {X} ,\mathbf {Y} ]=\operatorname {E} [\mathbf {X} \mathbf {Y} ^{T}]-\operatorname {E} [\mathbf {X} ]\operatorname {E} [\mathbf {Y} ]^{T}}

Tudíž

E [ X Y T ] = Cov [ X , Y ] + E [ X ] E [ Y ] T E [ z T A z ] = Cov [ z T , z T A T ] + E [ z T ] E [ z T A T ] T = Cov [ z T , z T A T ] + μ T ( μ T A T ) T = Cov [ z T , z T A T ] + μ T A μ , {\displaystyle {\begin{aligned}\operatorname {E} [XY^{T}]&=\operatorname {Cov} [X,Y]+\operatorname {E} [X]\operatorname {E} [Y]^{T}\\\operatorname {E} [z^{T}Az]&=\operatorname {Cov} [z^{T},z^{T}A^{T}]+\operatorname {E} [z^{T}]\operatorname {E} [z^{T}A^{T}]^{T}\\&=\operatorname {Cov} [z^{T},z^{T}A^{T}]+\mu ^{T}(\mu ^{T}A^{T})^{T}\\&=\operatorname {Cov} [z^{T},z^{T}A^{T}]+\mu ^{T}A\mu ,\end{aligned}}}

nyní zbývá pouze ukázat, že

Cov [ z T , z T A T ] = tr ( A V ) . {\displaystyle \operatorname {Cov} [z^{T},z^{T}A^{T}]=\operatorname {tr} (AV).}

To je splněno díky tomu, že můžeme cyklicky permutovat matici bez změny konečného výsledku (např.: tr ( A B ) = tr ( B A ) {\displaystyle \operatorname {tr} (AB)=\operatorname {tr} (BA)} ).

Vidíme, že

Cov [ z T , z T A T ] = E [ ( z T E ( z T ) ) ( z T A T E ( z T A T ) ) T ] = E [ ( z T μ T ) ( z T A T μ T A T ) T ] = E [ ( z μ ) T ( A z A μ ) ] . {\displaystyle {\begin{aligned}\operatorname {Cov} [z^{T},z^{T}A^{T}]&=\operatorname {E} \left[\left(z^{T}-E(z^{T})\right)\left(z^{T}A^{T}-E\left(z^{T}A^{T}\right)\right)^{T}\right]\\&=\operatorname {E} \left[(z^{T}-\mu ^{T})(z^{T}A^{T}-\mu ^{T}A^{T})^{T}\right]\\&=\operatorname {E} \left[(z-\mu )^{T}(Az-A\mu )\right].\end{aligned}}}

Protože

( z μ ) T ( A z A μ ) {\displaystyle \left({z-\mu }\right)^{T}\left({Az-A\mu }\right)}

je skalár, pak

( z μ ) T ( A z A μ ) = tr ( ( z μ ) T ( A z A μ ) ) = tr ( ( z μ ) T A ( z μ ) ) {\displaystyle (z-\mu )^{T}(Az-A\mu )=\operatorname {tr} \left({(z-\mu )^{T}(Az-A\mu )}\right)=\operatorname {tr} \left((z-\mu )^{T}A(z-\mu )\right)}

triviálně. Při použití permutace dostaneme:

tr ( ( z μ ) T A ( z μ ) ) = tr ( A ( z μ ) ( z μ ) T ) , {\displaystyle \operatorname {tr} \left({(z-\mu )^{T}A(z-\mu )}\right)=\operatorname {tr} \left({A(z-\mu )(z-\mu )^{T}}\right),}

a dosazením do původní formule dostaneme:

Cov [ z T , z T A T ] = E [ ( z μ ) T ( A z A μ ) ] = E [ tr ( A ( z μ ) ( z μ ) T ) ] = tr ( A E ( ( z μ ) ( z μ ) T ) ) = tr ( A V ) . {\displaystyle {\begin{aligned}\operatorname {Cov} \left[{z^{T},z^{T}A^{T}}\right]&=E\left[{\left({z-\mu }\right)^{T}(Az-A\mu )}\right]\\&=E\left[\operatorname {tr} \left(A(z-\mu )(z-\mu )^{T}\right)\right]\\&=\operatorname {tr} \left({A\cdot \operatorname {E} \left((z-\mu )(z-\mu )^{T}\right)}\right)\\&=\operatorname {tr} (AV).\end{aligned}}}

Střední hodnota součinu dvou různých kvadratických forem

Můžeme vzít střední hodnotu součinu ze dvou různý kvadratických forem náhodný vektor X {\displaystyle \mathbf {X} } ve vícerozměrném normálním rozdělení s nulovou střední hodnotou takto:[5]:s.stránky 162–176

E [ ( X T A X ) ( X T B X ) ] = 2 tr ( A K X X B K X X ) + tr ( A K X X ) tr ( B K X X ) {\displaystyle \operatorname {E} \left[(\mathbf {X} ^{T}A\mathbf {X} )(\mathbf {X} ^{T}B\mathbf {X} )\right]=2\operatorname {tr} (AK_{\mathbf {X} \mathbf {X} }BK_{\mathbf {X} \mathbf {X} })+\operatorname {tr} (AK_{\mathbf {X} \mathbf {X} })\operatorname {tr} (BK_{\mathbf {X} \mathbf {X} })}

kde opět K X X {\displaystyle K_{\mathbf {X} \mathbf {X} }} je kovarianční matice X {\displaystyle \mathbf {X} } . Opět, protože obě kvadratické formy jsou skaláry a tedy jejich součin je skalár, střední hodnota jejich součinu je také skalární.

Aplikace

Teorie portfolia

V teorii portfolia ve finančnictví často slouží účelová funkce k výběru portfolia rizikového majetku tak, aby rozdělení výnosu náhodného portfolia mělo požadované vlastnosti. Můžeme například chtít vybrat výnos portfolia, který bude mít nejnižší rozptyl pro danou střední hodnotu. Náhodný vektor je zde vektor r {\displaystyle \mathbf {r} } náhodných výnosů z určitého majetku a výnos portfolia p (náhodná skalární hodnota) je skalárním součinem vektoru náhodných výnosů s vektorem w vah portfolia – části portfolia alokovaného na příslušný majetek. Protože p = wT r {\displaystyle \mathbf {r} } , střední hodnota výnosu portfolia je wTE( r {\displaystyle \mathbf {r} } ) a rozptyl výnosu portfolia bude wTCw, kde C je kovarianční matice r {\displaystyle \mathbf {r} } .

Teorie regrese

V teorii lineární regrese máme data z n pozorování závislé proměnné y a n pozorování každé z k nezávislých proměnných xj. Pozorování závislých proměnných jsou uspořádána do sloupcového vektoru y; pozorování každé nezávislé proměnné jsou uspořádána do sloupcových vektorů, které tvoří regresní matici X (neznamenající v tomto kontextu náhodný vektor) pozorování nezávislé proměnné. Pak následující regresní rovnice prohlásíme za popis procesu, který generoval data:

y = X β + e , {\displaystyle y=X\beta +e,}

kde β je pevný, ale neznámý vektor k koeficientů odezvy a e je neznámý náhodný vektor odrážející náhodné vlivy na závislou proměnnou. Nějakou zvolenou technikou jako například pomocí obyčejných nejmenších čtverců dostaneme vektor β ^ {\displaystyle {\hat {\beta }}} , který je odhadem β, pomocí něhož vypočítáme e ^ {\displaystyle {\hat {e}}} , odhad vektoru e

e ^ = y X β ^ . {\displaystyle {\hat {e}}=y-X{\hat {\beta }}.}

Statistik pak musí analyzovat vlastnosti β ^ {\displaystyle {\hat {\beta }}} a e ^ {\displaystyle {\hat {e}}} , na které pohlížíme jako na náhodné vektory, protože náhodný výběr n pozorovaných případů způsobuje, že budou mít různé hodnoty.

Vektorová časová řada

Vývoj náhodného vektoru k×1 X {\displaystyle \mathbf {X} } v čase lze modelovat jako vektorovou autoregresi (VAR) takto:

X t = c + A 1 X t 1 + A 2 X t 2 + + A p X t p + e t , {\displaystyle \mathbf {X} _{t}=c+A_{1}\mathbf {X} _{t-1}+A_{2}\mathbf {X} _{t-2}+\cdots +A_{p}\mathbf {X} _{t-p}+\mathbf {e} _{t},\,}

kde vektor pozorování X t i {\displaystyle \mathbf {X} _{t-i}} o i period zpět se nazývá i-té zpoždění X {\displaystyle \mathbf {X} } , c je k × 1 vektor konstant, Ai je časově invariantní matice k × k a e t {\displaystyle \mathbf {e} _{t}} je náhodný vektor k × 1 chybových členů.

Odkazy

Reference

V tomto článku byl použit překlad textu z článku Multivariate random variable na anglické Wikipedii.

  1. GALLAGER, Robert G. Stochastic Processes Theory for Applications. [s.l.]: Cambridge University Press, 2013. ISBN 978-1-107-03975-9. 
  2. a b c d e LAPIDOTH, Amos. A foundation in Digital Communication. [s.l.]: Cambridge University Press, 2009. 
  3. a b c d e GUBNER, John A. Probability and Random Processes for Electrical and Computer Engineers. [s.l.]: Cambridge University Press, 2006. ISBN 978-0-521-86470-1. 
  4. PAPOULIS, Athanasius. Probability, Random variables and Stochastic processes. [s.l.]: McGraw-Hill, 1991. 
  5. a b KENDRICK, David. Stochastic Control for Economic Models. [s.l.]: McGraw-Hill, 1981. 

Související články