Mehrdimensionale Normalverteilung

Dichte einer zweidimensionalen (bivariaten) Normalverteilung im dreidimensionalen Raum

Die mehrdimensionale oder multivariate Normalverteilung ist eine multivariate Verteilung in der multivariaten Statistik. Sie stellt eine Verallgemeinerung der (eindimensionalen) Normalverteilung auf mehrere Dimensionen dar.[1] Eine zweidimensionale Normalverteilung wird auch bivariate Normalverteilung genannt.

Bestimmt wird eine mehrdimensionale Normalverteilung durch zwei Verteilungsparameter – den Erwartungswertvektor μ {\displaystyle {\boldsymbol {\mu }}} und durch die Kovarianzmatrix Σ {\displaystyle \mathbf {\Sigma } } , welche den Parametern μ {\displaystyle \mu } (Erwartungswert) und σ 2 {\displaystyle \sigma ^{2}} (Varianz) der eindimensionalen Normalverteilungen entsprechen.

Mehrdimensional normalverteilte Zufallsvariablen treten als Grenzwerte bestimmter Summen unabhängiger mehrdimensionaler Zufallsvariablen auf. Dies ist die Verallgemeinerung des zentralen Grenzwertsatz zum mehrdimensionalen zentralen Grenzwertsatz.

Weil sie entsprechend dort auftreten, wo mehrdimensionale zufällige Größen als Überlagerung vieler voneinander unabhängiger Einzeleffekte angesehen werden können, haben sie für die Praxis eine große Bedeutung.

Aufgrund der sogenannten Reproduktivitätseigenschaft der mehrdimensionalen Normalverteilung lässt sich die Verteilung von Summen (und Linearkombinationen) mehrdimensional normalverteilter Zufallsvariablen konkret angeben.

Die mehrdimensionale Normalverteilung

Die mehrdimensionale Normalverteilung kann auf verschiedene Arten definiert werden. Zu unterscheiden sind die Fälle, wenn es sich bei der Kovarianz-Matrix um eine reguläre oder singuläre Matrix handelt.

Allgemeiner Fall

Ein p {\displaystyle p} -dimensionaler reeller Zufallsvektor X {\displaystyle \mathbf {X} } folgt einer mehrdimensionalen Normalverteilung, geschrieben X N ( μ , Σ ) {\displaystyle \mathbf {X} \sim {\mathcal {N}}({\boldsymbol {\mu }},{\boldsymbol {\Sigma }})} , wenn ein d {\displaystyle d} -dimensionaler standardnormalverteilter Zufallsvektor Z {\displaystyle \mathbf {Z} } , ein p {\displaystyle p} -dimensionaler Vektor μ {\displaystyle {\boldsymbol {\mu }}} sowie eine p × d {\displaystyle p\times d} -Matrix A {\displaystyle {\boldsymbol {A}}} existiert, so dass

X = ( d ) μ + A Z {\displaystyle \mathbf {X} \;{\stackrel {(d)}{=}}\;{\boldsymbol {\mu }}+{\boldsymbol {A}}\mathbf {Z} } .

Dabei bezeichnet das Symbol = ( d ) {\displaystyle {\stackrel {(d)}{=}}} die Gleichheit in Verteilung, d. h., dass die Zufallsvektoren auf der rechten und linken Seite des Symbols dieselbe Wahrscheinlichkeitsverteilung besitzen. Es gilt dann Σ = A A T {\displaystyle {\boldsymbol {\Sigma }}={\boldsymbol {A}}{\boldsymbol {A}}^{\mathrm {T} }} , wobei Index T {\displaystyle ^{\mathrm {T} }} die Transponierung bezeichnet.

Oder in Formeln:

X N ( μ , Σ ) μ R p , A R p × d : X = ( d ) μ + A Z  und  n = 1 , , p : Z n   N ( 0 , 1 ) , i.i.d. {\displaystyle \mathbf {X} \sim {\mathcal {N}}(\mathbf {\mu } ,{\boldsymbol {\Sigma }})\iff \exists {\boldsymbol {\mu }}\in \mathbb {R} ^{p},{\boldsymbol {A}}\in \mathbb {R} ^{p\times d}\colon \;\mathbf {X} {\stackrel {(d)}{=}}\;{\boldsymbol {\mu }}+{\boldsymbol {A}}\mathbf {Z} {\text{ und }}\forall n=1,\ldots ,p:Z_{n}\sim \ {\mathcal {N}}(0,1),{\text{i.i.d.}}}

Regulärer Fall

10000 Stichproben einer zweidimensionalen Normalverteilung mit σ 1 = 1 {\displaystyle \sigma _{1}=1} , σ 2 = 2 {\displaystyle \sigma _{2}=2} und ρ = 0.7

Eine p {\displaystyle p} -dimensionale reelle Zufallsvariable X {\displaystyle \mathbf {X} } ist mehrdimensional normalverteilt mit Erwartungswertvektor μ {\displaystyle {\boldsymbol {\mu }}} und symmetrischer, positiv definiter (also regulärer) Kovarianzmatrix Σ {\displaystyle \mathbf {\Sigma } } , wenn sie eine Dichtefunktion der Form[2]

f X ( x ) = 1 ( 2 π ) p det ( Σ ) exp ( 1 2 ( x μ ) Σ 1 ( x μ ) ) {\displaystyle f_{X}(\mathbf {x} )={\frac {1}{\sqrt {(2\pi )^{p}\det(\mathbf {\Sigma } )}}}\exp \left(-{\frac {1}{2}}({\mathbf {x} }-{\boldsymbol {\mu }})^{\top }{\mathbf {\Sigma } }^{-1}({\mathbf {x} }-{\boldsymbol {\mu }})\right)}

besitzt. Dabei bezeichnen det ( Σ ) {\displaystyle \det(\mathbf {\Sigma } )} die Determinante der Matrix Σ {\displaystyle \mathbf {\Sigma } } , der Index {\displaystyle ^{\top }} die Transponierung und Σ 1 {\displaystyle \mathbf {\Sigma } ^{-1}} die Inverse der Matrix Σ {\displaystyle \mathbf {\Sigma } } .

Man schreibt

X N p ( μ , Σ ) {\displaystyle \mathbf {X} \sim {\mathcal {N}}_{p}({\boldsymbol {\mu }},\mathbf {\Sigma } )} .

Das Subskript p {\displaystyle p} ist die Dimension der p {\displaystyle p} -dimensionalen Normalverteilung und zeigt die Anzahl der Variablen an, d. h., X {\displaystyle \mathbf {X} } ist p × 1 {\displaystyle p\times 1} , μ {\displaystyle {\boldsymbol {\mu }}} ist p × 1 {\displaystyle p\times 1} und Σ {\displaystyle \mathbf {\Sigma } } ist p × p {\displaystyle p\times p} .[3] Für die zugehörige Verteilungsfunktion F {\displaystyle F} gibt es keine geschlossene Form. Die entsprechenden Integrale müssen numerisch berechnet werden.

Der Wert im Exponentialteil der Dichtefunktion ( x μ ) T Σ 1 ( x μ ) {\displaystyle ({\mathbf {x} }-{\boldsymbol {\mu }})^{\mathrm {T} }{\mathbf {\Sigma } }^{-1}({\mathbf {x} }-{\boldsymbol {\mu }})} entspricht dem Mahalanobis-Abstand, welcher den Abstand vom Testpunkt x {\displaystyle {\mathbf {x} }} zum Mittelwert μ {\displaystyle {\boldsymbol {\mu }}} darstellt. Im Vergleich mit der Dichtefunktion der eindimensionalen Normalverteilung spielt bei der mehrdimensionalen Normalverteilung die Kovarianzmatrix Σ {\displaystyle \mathbf {\Sigma } } die Rolle der skalaren Varianz σ 2 {\displaystyle \sigma ^{2}} .

Singulärer Fall

Wenn die Kovarianzmatrix Σ {\displaystyle \mathbf {\Sigma } } singulär ist, kann man Σ {\displaystyle \mathbf {\Sigma } } nicht invertieren, dann gibt es keine Dichte in der oben angegebenen Form. Gleichwohl kann man auch dann die mehrdimensionale Normalverteilung definieren, jetzt allerdings über die charakteristische Funktion.

Eine p {\displaystyle p} -dimensionale reelle Zufallsvariable X {\displaystyle \mathbf {X} } heißt normalverteilt mit Erwartungswertvektor μ {\displaystyle {\boldsymbol {\mu }}} und symmetrischer, positiv semidefiniter (also nicht notwendig regulärer) Kovarianzmatrix Σ {\displaystyle \mathbf {\Sigma } } , wenn sie eine charakteristische Funktion der folgenden Form hat:

ϕ ( t ) = exp ( i t μ 1 2 t Σ t ) , t R p {\displaystyle \phi (\mathbf {t} )=\exp \left(i\mathbf {t} ^{\top }{\boldsymbol {\mu }}-{\frac {1}{2}}\mathbf {t} ^{\top }\mathbf {\Sigma } \mathbf {t} \right),\quad \mathbf {t} \in \mathbb {R} ^{p}} .

Wenn Σ {\displaystyle \mathbf {\Sigma } } regulär ist, existiert eine Wahrscheinlichkeitsdichte in obiger Form, wenn Σ {\displaystyle \mathbf {\Sigma } } singulär ist, dann existiert im p {\displaystyle p} -dimensionalen Raum R p {\displaystyle \mathbb {R} ^{p}} keine Dichte bzgl. des Lebesgue-Maßes. Sei Rang Σ = q < p {\displaystyle \operatorname {Rang} \mathbf {\Sigma } =q<p} , dann gibt es allerdings eine q {\displaystyle q} -dimensionale Linearform Y = A X {\displaystyle \mathbf {Y} =\mathbf {A} \mathbf {X} } , wobei A {\displaystyle \mathbf {A} } eine ( q × p ) {\displaystyle (q\times p)} -Matrix ist, die einer q {\displaystyle q} -dimensionalen Normalverteilung mit existierender Dichte im R q {\displaystyle \mathbb {R} ^{q}} genügt.

Eigenschaften

Die mehrdimensionale Normalverteilung hat die folgenden Eigenschaften:

  • Sind die Komponenten von X {\displaystyle \mathbf {X} } paarweise unkorreliert, so sind sie auch stochastisch unabhängig.
  • Die affine Transformation Y = a + B X {\displaystyle \mathbf {Y} =\mathbf {a} +\mathbf {B} \,\mathbf {X} } mit einer Matrix B R q × p {\displaystyle \mathbf {B} \in \mathbb {R} ^{q\times p}} und a R q {\displaystyle \mathbf {a} \in \mathbb {R} ^{q}} ist q {\displaystyle q} -dimensional normalverteilt: Y N q ( a + B μ , B Σ B ) {\displaystyle \mathbf {Y} \sim {\mathcal {N}}_{q}(\mathbf {a} +\mathbf {B} {\boldsymbol {\mu }},\mathbf {B} \mathbf {\Sigma } \mathbf {B} ^{\top })} . Für die Definition des regulären Falles muss aber zusätzlich q p {\displaystyle q\leq p} und B Σ B {\displaystyle \mathbf {B} \mathbf {\Sigma } \mathbf {B} ^{\top }\,} nichtsingulär sein.
  • Die affine Transformation
Y = Σ 1 2 ( X μ ) {\displaystyle \mathbf {Y} =\mathbf {\Sigma } ^{-{\frac {1}{2}}}(\mathbf {X} -{\boldsymbol {\mu }})}
standardisiert den Zufallsvektor X {\displaystyle \mathbf {X} \,} : es ist Y N p ( 0 , I ) {\displaystyle \mathbf {Y} \sim {\mathcal {N}}_{p}({\boldsymbol {0}},\mathbf {I} )\,} (mit Einheitsmatrix I {\displaystyle \mathbf {I} } ).
  • Bedingte Verteilung bei partieller Kenntnis des Zufallsvektors: Bedingt man einen mehrdimensional normalverteilten Zufallsvektor auf einen Teilvektor, so ist das Ergebnis selbst wieder mehrdimensional normalverteilt, für
X = ( X 1 X 2 ) N ( ( μ 1 μ 2 ) , ( Σ 11 Σ 12 Σ 21 Σ 22 ) ) {\displaystyle \mathbf {X} ={\binom {\mathbf {X} _{1}}{\mathbf {X} _{2}}}\sim {\mathcal {N}}\left({\binom {{\boldsymbol {\mu }}_{1}}{{\boldsymbol {\mu }}_{2}}},{\begin{pmatrix}{\mathbf {\Sigma } }_{11}&{\mathbf {\Sigma } }_{12}\\{\mathbf {\Sigma } }_{21}&{\mathbf {\Sigma } }_{22}\end{pmatrix}}\right)}
gilt
X 1 X 2 N ( μ 1 + Σ 12 Σ 22 1 ( X 2 μ 2 ) , Σ 11 Σ 12 Σ 22 1 Σ 21 ) {\displaystyle \mathbf {X} _{1}\mid \mathbf {X} _{2}\sim {\mathcal {N}}\left({\boldsymbol {\mu }}_{1}+\mathbf {\Sigma } _{12}\mathbf {\Sigma } _{22}^{-1}(\mathbf {X} _{2}-{\boldsymbol {\mu }}_{2}),\mathbf {\Sigma } _{11}-\mathbf {\Sigma } _{12}\mathbf {\Sigma } _{22}^{-1}\mathbf {\Sigma } _{21}\right)} .
Insbesondere hängt der bedingte Erwartungswert linear vom Wert x 2 {\displaystyle \mathbf {x} _{2}} des Zufallsvektors X 2 {\displaystyle \mathbf {X} _{2}} ab, denn es gilt
E [ X 1 X 2 = x 2 ] = μ 1 + Σ 12 Σ 22 1 ( x 2 μ 2 ) {\displaystyle \mathbb {E} [\mathbf {X} _{1}\mid \mathbf {X} _{2}=\mathbf {x} _{2}]={\boldsymbol {\mu }}_{1}+\mathbf {\Sigma } _{12}\mathbf {\Sigma } _{22}^{-1}(\mathbf {x} _{2}-{\boldsymbol {\mu }}_{2})} .
und die bedingte Kovarianzmatrix ist unabhängig vom Wert von X 2 {\displaystyle \mathbf {X} _{2}} , denn es gilt
V [ X 1 X 2 = x 2 ] = Σ 11 Σ 12 Σ 22 1 Σ 21 {\displaystyle \mathbb {V} [\mathbf {X} _{1}\mid \mathbf {X} _{2}=\mathbf {x} _{2}]=\mathbf {\Sigma } _{11}-\mathbf {\Sigma } _{12}\mathbf {\Sigma } _{22}^{-1}\mathbf {\Sigma } _{21}} .

Charakteristische Funktion

Die charakteristische Funktion von X N p ( μ , Σ ) {\displaystyle X\sim {\mathcal {N}}_{p}({\boldsymbol {\mu }},\mathbf {\Sigma } )} ist gegeben durch

ϕ X ( t ) = exp ( i t μ 1 2 t Σ t ) {\displaystyle \phi _{X}(\mathbf {t} )=\exp \left(i\mathbf {t} ^{\top }{\boldsymbol {\mu }}-{\frac {1}{2}}\mathbf {t} ^{\top }\mathbf {\Sigma } \mathbf {t} \right)}

für t = ( t 1 , , t p ) R p {\displaystyle \mathbf {t} =(t_{1},\dots ,t_{p})^{\top }\in \mathbb {R} ^{p}} .

Momenterzeugende Funktion

Die momenterzeugende Funktion von X N p ( μ , Σ ) {\displaystyle X\sim {\mathcal {N}}_{p}({\boldsymbol {\mu }},\mathbf {\Sigma } )} ist gegeben durch

M X ( t ) = exp ( t μ + 1 2 t Σ t ) {\displaystyle M_{X}(\mathbf {t} )=\exp \left(\mathbf {t} ^{\top }{\boldsymbol {\mu }}+{\frac {1}{2}}\mathbf {t} ^{\top }\mathbf {\Sigma } \mathbf {t} \right)}

für t = ( t 1 , , t p ) R p {\displaystyle \mathbf {t} =(t_{1},\dots ,t_{p})^{\top }\in \mathbb {R} ^{p}} .

Die Randverteilung der mehrdimensionalen Normalverteilung

Bivariate Normalverteilung mit Randverteilungen

Sei X N p ( μ , Σ ) {\displaystyle \mathbf {X} \sim {\mathcal {N}}_{p}({\boldsymbol {\mu }},\mathbf {\Sigma } )} mehrdimensional normalverteilt. Für eine beliebige Partition X =: ( X 1 , X 2 ) {\displaystyle \mathbf {X} =:(\mathbf {X} _{1},\mathbf {X} _{2})} mit X 1 R k {\displaystyle \mathbf {X} _{1}\in \mathbb {R} ^{k}} und X 2 R p k {\displaystyle \mathbf {X} _{2}\in \mathbb {R} ^{p-k}} , k < p {\displaystyle k<p} , gilt, dass die Randverteilungen P X 1 {\displaystyle \mathrm {P} _{\mathbf {X} _{1}}} und P X 2 {\displaystyle \mathrm {P} _{\mathbf {X} _{2}}} (mehrdimensionale) Normalverteilungen sind.

Die Umkehrung gilt allerdings nicht, wie folgendes Beispiel zeigt:

Sei X 1 N k ( 0 , I k ) {\displaystyle \mathbf {X} _{1}\sim {\mathcal {N}}_{k}(\mathbf {0} ,\mathbf {I} _{k})} und sei X 2 {\displaystyle \mathbf {X} _{2}} definiert durch

X 2 := { X 1  mit Wahrscheinlichkeit  p 1 X 1  mit Wahrscheinlichkeit  p 2 , {\displaystyle \mathbf {X} _{2}:=\left\{{\begin{array}{rl}\mathbf {X} _{1}&{\text{ mit Wahrscheinlichkeit }}p_{1}\\-\mathbf {X} _{1}&{\text{ mit Wahrscheinlichkeit }}p_{2},\end{array}}\right.}

wobei p 1 + p 2 = 1 {\displaystyle p_{1}+p_{2}=1} . Dann ist ebenso X 2 N k ( 0 , I k ) {\displaystyle \mathbf {X} _{2}\sim {\mathcal {N}}_{k}(\mathbf {0} ,\mathbf {I} _{k})} und

Cov ( X 1 , X 2 ) = ( I k ( p 1 p 2 ) I k ( p 1 p 2 ) I k I k ) {\displaystyle \operatorname {Cov} \left(\mathbf {X} _{1},\mathbf {X} _{2}\right)=\left({\begin{array}{cc}\mathbf {I} _{k}&\left(p_{1}-p_{2}\right)\mathbf {I} _{k}\\\left(p_{1}-p_{2}\right)\mathbf {I} _{k}&\mathbf {I} _{k}\end{array}}\right)} .

Demnach ist die Kovarianz (und damit der Korrelationskoeffizient) von X 1 {\displaystyle \mathbf {X} _{1}} und X 2 {\displaystyle \mathbf {X} _{2}} gleich null genau dann, wenn p 1 = p 2 = 1 2 {\displaystyle p_{1}=p_{2}={\tfrac {1}{2}}} . Aus der Unkorreliertheit zweier Zufallsvariablen X 1 {\displaystyle \mathbf {X} _{1}} und X 2 {\displaystyle \mathbf {X} _{2}} würde im mehrdimensional normalverteilten Fall sofort die Unabhängigkeit folgen (Besonderheit der mehrdimensionalen Normalverteilung), da aber X 1 {\displaystyle \mathbf {X} _{1}} und X 2 {\displaystyle \mathbf {X} _{2}} nach Definition nicht unabhängig sind ( X 2 {\displaystyle \mathbf {X} _{2}} immer gleich ± X 1 {\displaystyle \pm \mathbf {X} _{1}} ), kann insbesondere X := ( X 1 , X 2 ) {\displaystyle \mathbf {X} :=(\mathbf {X} _{1},\mathbf {X} _{2})} nicht mehrdimensional normalverteilt sein.

Die p-dimensionale Standardnormalverteilung

Das Wahrscheinlichkeitsmaß auf R p {\displaystyle \mathbb {R} ^{p}} , das durch die Dichtefunktion

f X : R p R , ( x 1 , , x p ) 1 ( 2 π ) p exp ( 1 2 i = 1 p x i 2 ) {\displaystyle f_{X}:\mathbb {R} ^{p}\to \mathbb {R} ,\,(x_{1},\ldots ,x_{p})\mapsto {\frac {1}{\sqrt {(2\pi )^{p}}}}\exp \left(-{\frac {1}{2}}\sum _{i=1}^{p}x_{i}^{2}\right)}

definiert wird, heißt Standardnormalverteilung der Dimension p {\displaystyle p} . Die p {\displaystyle p} -dimensionale Standardnormalverteilung ist abgesehen von Translationen (d. h. Erwartungswert μ 0 {\displaystyle \mu \neq 0} ) und uniformer Skalierung (d. h. Kovarianzmatrix Σ = σ 2 E {\displaystyle \Sigma =\sigma ^{2}E} ) die einzige mehrdimensionale Verteilung, deren Komponenten stochastisch unabhängig sind und deren Dichte zugleich rotationssymmetrisch ist.

Momente und Kumulanten

Wie im eindimensionalen Fall, sind alle Momente der mehrdimensionalen Normalverteilung durch die ersten beiden Momente definiert. Alle Kumulanten außer den ersten beiden sind null. Die ersten beiden Kumulanten sind dabei der Erwartungswertvektor μ {\displaystyle {\boldsymbol {\mu }}} und die Kovarianzmatrix Σ {\displaystyle \mathbf {\Sigma } } . In Bezug auf das mehrdimensionale Momentenproblem hat die Normalverteilung die Eigenschaft, dass sie durch ihre Momente eindeutig definiert ist. Das heißt, wenn alle Momente einer mehrdimensionalen Wahrscheinlichkeitsverteilung existieren und den Momenten einer mehrdimensionalen Normalverteilung entsprechen, ist die Verteilung die eindeutige mehrdimensionale Normalverteilung mit diesen Momenten.[4]

Verallgemeinerungen

Es gibt unterschiedliche Wege die mehrdimensionale Normalverteilung zu verallgemeinern.

  • Eine Zufallsmatrix, deren Einträge der Normalverteilung folgen, folgt der matrixwertigen Normalverteilung.
  • Es existiert eine komplexe mehrdimansionale Normalverteilung.
  • Es existiert eine mehrdimensionale Verteilung der verallgemeinerten Normalverteilung.
  • Die multivariate Normalverteilung gehört zu den elliptischen Verteilung, welche eine Dichte der Form
f X ( x ) = c h ( ( x μ ) Σ 1 ( x μ ) ) {\displaystyle f_{X}(\mathbf {x} )=ch((\mathbf {x} -{\boldsymbol {\mu }})^{\top }{\boldsymbol {\Sigma ^{-1}}}(\mathbf {x} -{\boldsymbol {\mu }}))}
besitzen.

Dichte der zweidimensionalen Normalverteilung

Die Dichtefunktion der zweidimensionalen oder bivariaten Normalverteilung mit Mittelwerten μ 1 = μ 2 = 0 {\displaystyle \mu _{1}=\mu _{2}=0} und σ 1 2 = σ 2 2 = 1 {\displaystyle \sigma _{1}^{2}=\sigma _{2}^{2}=1} und Korrelationskoeffizient ϱ {\displaystyle \varrho } ist

f X ( x 1 , x 2 ) = 1 2 π 1 ϱ 2 exp ( 1 2 ( 1 ϱ 2 ) ( x 1 2 2 ϱ x 1 x 2 + x 2 2 ) ) . {\displaystyle f_{X}(x_{1},x_{2})={\frac {1}{2\pi {\sqrt {1-\varrho ^{2}}}}}\exp \left(-{\frac {1}{2(1-\varrho ^{2})}}(x_{1}^{2}-2\varrho \,x_{1}x_{2}+x_{2}^{2})\right).}
Jeweils 10.000 Stichproben zweidimensionaler Normalverteilungen mit ρ = −0.8, 0, 0.8 (alle Varianzen sind 1).

Im zweidimensionalen Fall mit Mittelwerten μ 1 = μ 2 = 0 {\displaystyle \mu _{1}=\mu _{2}=0} und beliebigen Varianzen ist die Dichtefunktion

f X ( x 1 , x 2 ) = 1 2 π σ 1 σ 2 1 ϱ 2 exp ( 1 2 ( 1 ϱ 2 ) [ x 1 2 σ 1 2 + x 2 2 σ 2 2 2 ϱ x 1 x 2 σ 1 σ 2 ] ) . {\displaystyle f_{X}(x_{1},x_{2})={\frac {1}{2\pi \sigma _{1}\sigma _{2}{\sqrt {1-\varrho ^{2}}}}}\,\exp \left(-{\frac {1}{2(1-\varrho ^{2})}}\left[{\frac {x_{1}^{2}}{\sigma _{1}^{2}}}+{\frac {x_{2}^{2}}{\sigma _{2}^{2}}}-{\frac {2\varrho x_{1}x_{2}}{\sigma _{1}\sigma _{2}}}\right]\right).}

Den allgemeinen Fall mit beliebigen Mittelwerten und Varianzen bekommt man durch Translation (ersetze x 1 {\displaystyle x_{1}} durch x 1 μ 1 {\displaystyle x_{1}-\mu _{1}} und x 2 {\displaystyle x_{2}} durch x 2 μ 2 {\displaystyle x_{2}-\mu _{2}} )

f X ( x 1 , x 2 ) = 1 2 π σ 1 σ 2 1 ϱ 2 exp ( 1 2 ( 1 ϱ 2 ) [ ( x 1 μ 1 ) 2 σ 1 2 + ( x 2 μ 2 ) 2 σ 2 2 2 ϱ ( x 1 μ 1 ) ( x 2 μ 2 ) σ 1 σ 2 ] ) . {\displaystyle f_{X}(x_{1},x_{2})={\frac {1}{2\pi \sigma _{1}\sigma _{2}{\sqrt {1-\varrho ^{2}}}}}\,\exp \left(-{\frac {1}{2(1-\varrho ^{2})}}\left[{\frac {\left(x_{1}-\mu _{1}\right)^{2}}{\sigma _{1}^{2}}}+{\frac {\left(x_{2}-\mu _{2}\right)^{2}}{\sigma _{2}^{2}}}-{\frac {2\varrho \left(x_{1}-\mu _{1}\right)\left(x_{2}-\mu _{2}\right)}{\sigma _{1}\sigma _{2}}}\right]\right).}

Beispiel für eine mehrdimensionale Normalverteilung

Betrachtet wird eine Apfelbaumplantage mit sehr vielen gleich alten, also vergleichbaren Apfelbäumen. Man interessiert sich für die Merkmale Größe der Apfelbäume, die Zahl der Blätter und die Erträge. Es werden also die Zufallsvariablen definiert:

X 1 {\displaystyle X_{1}} : Höhe eines Baumes [m]; X 2 {\displaystyle X_{2}} : Ertrag [100 kg]; X 3 {\displaystyle X_{3}} : Zahl der Blätter [1000 Stück].

Die Variablen sind jeweils normalverteilt wie

X 1 N ( 4 ; 1 ) ; X 2 N ( 20 ; 100 ) ; X 3 N ( 20 ; 225 ) {\displaystyle X_{1}\sim {\mathcal {N}}(4;1);\quad X_{2}\sim {\mathcal {N}}(20;100);\quad X_{3}\sim {\mathcal {N}}(20;225)} .

Die meisten Bäume sind also um 4 ± 1 m {\displaystyle 4\pm 1\,\operatorname {m} } groß, sehr kleine oder sehr große Bäume sind eher selten. Bei einem großen Baum ist der Ertrag tendenziell größer als bei einem kleinen Baum, aber es gibt natürlich hin und wieder einen großen Baum mit wenig Ertrag. Ertrag und Größe sind korreliert, die Kovarianz beträgt Cov ( X 1 , X 2 ) = 9 {\displaystyle \operatorname {Cov} (X_{1},X_{2})=9} und der Korrelationskoeffizient ϱ 12 = 0 , 9 {\displaystyle \varrho _{12}=0{,}9} .

Ebenso ist Cov ( X 1 , X 3 ) = 12 , 75 {\displaystyle \operatorname {Cov} (X_{1},X_{3})=12{,}75} mit dem Korrelationskoeffizienten ϱ 13 = 0 , 85 {\displaystyle \varrho _{13}=0{,}85} , und Cov ( X 2 , X 3 ) = 120 {\displaystyle \operatorname {Cov} (X_{2},X_{3})=120} mit dem Korrelationskoeffizienten ϱ 23 = 0 , 8 {\displaystyle \varrho _{23}=0{,}8} .

Fasst man die drei Zufallsvariablen im Zufallsvektor X := ( X 1 , X 2 , X 3 ) {\displaystyle \mathbf {X} :=(X_{1},X_{2},X_{3})} zusammen, ist X {\displaystyle \mathbf {X} } mehrdimensional normalverteilt. Dies gilt allerdings nicht im Allgemeinen (vgl. Die Randverteilung der mehrdimensionalen Normalverteilung). Im vorliegenden Fall gilt dann für die gemeinsame Verteilung von X {\displaystyle \mathbf {X} }

μ = ( 4 20 20 ) {\displaystyle {\boldsymbol {\mu }}={\begin{pmatrix}4\\20\\20\end{pmatrix}}}

und

Σ = ( 1 9 12 , 75 9 100 120 12 , 75 120 225 ) . {\displaystyle \mathbf {\Sigma } ={\begin{pmatrix}1&9&12{,}75\\9&100&120\\12{,}75&120&225\end{pmatrix}}.}

Die entsprechende Stichproben-Korrelationsmatrix lautet

R = ( 1 0 , 9 0 , 85 0 , 9 1 0 , 8 0 , 85 0 , 8 1 ) . {\displaystyle \mathbf {R} ={\begin{pmatrix}1&0{,}9&0{,}85\\0{,}9&1&0{,}8\\0{,}85&0{,}8&1\end{pmatrix}}.}

Schätzung der Parameter der mehrdimensionalen Normalverteilung

Bei Anwedungen ist der Statistik sind in der Regel die Verteilungsparameter einer p {\displaystyle p} -dimensionalen Normalverteilung nicht bekannt sein. Diese Parameter müssen also geschätzt werden.

Man zieht eine Stichprobe vom Umfang T {\displaystyle T} . Jede Realisierung t { 1 , , T } {\displaystyle t\in \{1,\ldots ,T\}} des Zufallsvektors x {\displaystyle \mathbf {x} } könnte man als Punkt in einem K {\displaystyle K} -dimensionalen Hyperraum auffassen. Man erhält so die X {\displaystyle \mathbf {X} } eine T × p {\displaystyle T\times p} -Matrix (Versuchsplan- oder Datenmatrix):

X = ( x 11 x 12 x 1 k x 1 p x 21 x 22 x 2 k x 2 p x t 1 x t 2 x t k x t p x T 1 x T 2 x T k x T p ) ( T × p ) = (   x 1   x 2   x t x T ) ( T × p ) = ( x ( 1 ) x ( 2 ) x ( k ) x ( K ) ) ( T × p ) {\displaystyle \mathbf {X} ={\begin{pmatrix}x_{11}&x_{12}&\cdots &x_{1k}&\cdots &x_{1p}\\x_{21}&x_{22}&\cdots &x_{2k}&\cdots &x_{2p}\\\vdots &\vdots &\ddots &\vdots &\ddots &\vdots \\x_{t1}&x_{t2}&\cdots &x_{tk}&\cdots &x_{tp}\\\vdots &\vdots &\ddots &\vdots &\ddots &\vdots \\x_{T1}&x_{T2}&\cdots &x_{Tk}&\cdots &x_{Tp}\end{pmatrix}}_{(T\times p)}={\begin{pmatrix}\ \mathbf {x} _{1}^{\top }\\\ \mathbf {x} _{2}^{\top }\\\vdots \\\ \mathbf {x} _{t}^{\top }\\\vdots \\\\\mathbf {x} _{T}^{\top }\end{pmatrix}}_{(T\times p)}={\begin{pmatrix}\mathbf {x} _{(1)}\mathbf {x} _{(2)}&\cdots &\mathbf {x} _{(k)}&\cdots &\mathbf {x} _{(K)}\end{pmatrix}}_{(T\times p)}\quad } , wobei x ( 1 ) 1 1 T = ( 1 1 1 1 ) ( T × 1 ) {\displaystyle \quad \mathbf {x} _{(1)}\equiv 1\!\!1_{T}={\begin{pmatrix}1\\1\\\vdots \\1\\\vdots \\1\end{pmatrix}}_{(T\times 1)}}

die in jeder Zeile die Koordinaten eines Punktes enthält (siehe multiplen linearen Modell in Matrixschreibweise).

Der Erwartungswertvektor wird geschätzt durch den Mittelwertvektor der K {\displaystyle K} arithmetischen Mittelwerte der Spalten von X {\displaystyle \mathbf {X} }

E ( x ) ^ = x ¯ = ( x ¯ 1 x ¯ 2 x ¯ k x ¯ p ) {\displaystyle {\widehat {\operatorname {E} (\mathbf {x} )}}={\overline {\mathbf {x} }}={\begin{pmatrix}{\overline {x}}_{1}\\{\overline {x}}_{2}\\\vdots \\{\overline {x}}_{k}\\\vdots \\{\overline {x}}_{p}\end{pmatrix}}}

mit den Komponenten

x ¯ k = 1 T t = 1 T x t k {\displaystyle {\overline {x}}_{k}={\frac {1}{T}}\sum _{t=1}^{T}x_{tk}} .

Dieser Schätzer ist bzgl. der mittleren quadratischen Abweichung der beste erwartungstreue Schätzer für den Erwartungswertvektor. Allerdings ist er für K > 2 {\displaystyle K>2} nicht zulässig im Sinne der Entscheidungstheorie. Es gibt dann bessere Schätzer, z. B. den James-Stein-Schätzer.

Für die Schätzung der Kovarianzmatrix erweist sich die bezüglich der arithmetischen Mittelwerte zentrierte Datenmatrix X {\displaystyle \mathbf {X} ^{*}} als nützlich. Sie berechnet sich als

X = X X ( 1 ) = 1 1 T x ¯ {\displaystyle \mathbf {X} ^{*}=\mathbf {X} -\mathbf {X} _{(1)}=1\!\!1_{T}\cdot {\overline {\mathbf {x} }}^{\top }} ,

mit den Elementen x t k {\displaystyle x_{tk}^{*}} , wobei x ( 1 ) = 1 1 T {\displaystyle \mathbf {x} _{(1)}=1\!\!1_{T}} den Einsvektor, einen Spaltenvektor der Länge T {\displaystyle T} mit lauter Einsen, darstellt. Es wird also bei allen Einträgen das arithmetische Mittel der zugehörigen Spalte subtrahiert.

Die geschätzte ( p × p ) {\displaystyle (p\times p)} -Kovarianzmatrix ergibt sich als

Σ ^ = S = 1 T 1 X X {\displaystyle {\hat {\mathbf {\Sigma } }}=\mathbf {S} ={\frac {1}{T-1}}\mathbf {X} ^{*\top }\mathbf {X} ^{*}}

mit den Komponenten

s j k = 1 T 1 t = 1 x t j x t k für j , k = 1 , , p {\displaystyle s_{jk}={\frac {1}{T-1}}\sum _{t=1}^{\top }x_{tj}^{*}x_{tk}^{*}\quad {\text{für}}j,k=1,\ldots ,p} .

Die Korrelationsmatrix in der Grundgesamtheit P {\displaystyle \mathbf {P} } wird geschätzt durch die paarweisen Korrelationskoeffizienten

r j k = t = 1 x t j x t k t = 1 x t j 2 t = 1 x t k 2 {\displaystyle r_{jk}={\frac {\sum \limits _{t=1}^{\top }x_{tj}^{*}x_{tk}^{*}}{{\sqrt {\sum \limits _{t=1}^{\top }{x_{tj}^{*}}^{2}}}{\sqrt {\sum \limits _{t=1}^{\top }{x_{tk}^{*}}^{2}}}}}} ,

auf ihrer Hauptdiagonalen stehen Einsen.

Beispiel zu Stichproben

Es wurden 10 Apfelbäume zufällig ausgewählt und jeweils 3 Eigenschaften gemessen: X 1 {\displaystyle X_{1}} : Höhe eines Baumes [m]; X 2 {\displaystyle X_{2}} : Ertrag [100 kg]; X 3 {\displaystyle X_{3}} : Zahl der Blätter [1000 Stück]. Diese 10 {\displaystyle 10} Beobachtungen werden in der Datenmatrix X {\displaystyle \mathbf {X} } zusammengefasst:

X = ( 3 , 3 24 27 4 , 9 41 55 5 , 9 46 52 5 , 2 49 54 3 , 6 29 34 4 , 2 33 51 5 , 0 42 43 5 , 1 35 54 6 , 8 60 70 5 , 0 41 50 ) {\displaystyle \mathbf {X} ={\begin{pmatrix}3{,}3&24&27\\4{,}9&41&55\\5{,}9&46&52\\5{,}2&49&54\\3{,}6&29&34\\4{,}2&33&51\\5{,}0&42&43\\5{,}1&35&54\\6{,}8&60&70\\5{,}0&41&50\end{pmatrix}}} .

Die Mittelwerte berechnen sich, wie beispielhaft an x ¯ 1 {\displaystyle {\overline {x}}_{1}} gezeigt, als

x ¯ 1 = 1 10 ( 3 , 3 + 4 , 9 + + 5 , 0 ) = 4 , 9 {\displaystyle {\overline {x}}_{1}={\frac {1}{10}}(3{,}3+4{,}9+\ldots +5{,}0)=4{,}9} .

Sie ergeben den Mittelwertvektor

x ¯ = ( 4 , 9 40 49 ) {\displaystyle {\overline {\mathbf {x} }}={\begin{pmatrix}4{,}9\\40\\49\end{pmatrix}}} .

Für die zentrierte Datenmatrix X {\displaystyle \mathbf {X} ^{*}} erhält man die zentrierten Beobachtungen, indem von den Spalten der entsprechende Mittelwert abzogen wird:

3 , 3 4 , 9 = 1 , 6 24 40 = 16 27 49 = 22 4 , 9 4 , 9 = 0 41 40 = 1 55 49 = 6 {\displaystyle {\begin{array}{lll}3{,}3-4{,}9=-1{,}6&24-40=-16&27-49=-22\\4{,}9-4{,}9=0&41-40=1&55-49=6\\\vdots \end{array}}} ,

also

X = ( 1 , 6 16 22 0 , 0 1 6 1 , 0 6 3 0 , 3 9 5 1 , 3 11 15 0 , 7 7 2 0 , 1 2 6 0 , 2 5 5 1 , 9 20 21 0 , 1 1 1 ) {\displaystyle \mathbf {X} ^{*}={\begin{pmatrix}-1{,}6&-16&-22\\0{,}0&1&6\\1{,}0&6&3\\0{,}3&9&5\\-1{,}3&-11&-15\\-0{,}7&-7&2\\0{,}1&2&-6\\0{,}2&-5&5\\1{,}9&20&21\\0{,}1&1&1\end{pmatrix}}} .

Man berechnet für die Stichprobenkovarianzmatrix die Kovarianzen, wie im Beispiel,

s 12 = Cov ^ ( X 1 , X 2 ) = 1 9 ( 1 , 6 ( 16 ) + 0 1 + + 0 , 1 1 ) = 90 , 80 9 10 , 09 {\displaystyle s_{12}={\widehat {\operatorname {Cov} }}(X_{1},X_{2})={\frac {1}{9}}(-1{,}6\cdot (-16)+0\cdot 1+\ldots +0{,}1\cdot 1)={\frac {90{,}80}{9}}\approx 10{,}09}

und entsprechend die Varianzen

s 22 = Var ^ ( X 2 ) = 1 9 ( ( 16 ) 2 + 1 2 + + 1 2 ) = 974 9 108 , 22 {\displaystyle s_{22}={\widehat {\operatorname {Var} }}(X_{2})={\frac {1}{9}}((-16)^{2}+1^{2}+\ldots +1^{2})={\frac {974}{9}}\approx 108{,}22} ,

so dass sich die Stichproben-Kovarianzmatrix

S = ( 1 , 06 10 , 09 10 , 91 10 , 09 108 , 22 106 , 22 10 , 91 106 , 22 142 , 89 ) {\displaystyle \mathbf {S} ={\begin{pmatrix}1{,}06&10{,}09&10{,}91\\10{,}09&108{,}22&106{,}22\\10{,}91&106{,}22&142{,}89\end{pmatrix}}}

ergibt.

Entsprechend erhält man für die Stichproben-Korrelationsmatrix zum Beispiel

r 12 = 10 , 09 1 , 06 108 , 22 0,943 9 {\displaystyle r_{12}={\frac {10{,}09}{\sqrt {1{,}06\cdot 108{,}22}}}\approx 0{,}9439}

bzw. insgesamt

R = ( 1 0,943 9 0,888 4 0,943 9 1 0,854 2 0,888 4 0,854 2 1 ) {\displaystyle \mathbf {R} ={\begin{pmatrix}1&0{,}9439&0{,}8884\\0{,}9439&1&0{,}8542\\0{,}8884&0{,}8542&1\end{pmatrix}}} .

Erzeugung mehrdimensionaler, normalverteilter Zufallszahlen

Eine oft verwendete Methode zur Erzeugung eines Zufallsvektors X {\displaystyle \mathbf {X} } einer p {\displaystyle p} -dimensionalen Normalverteilung mit gegebenem Erwartungswertvektor μ R p {\displaystyle {\boldsymbol {\mu }}\in \mathbb {R} ^{p}} und gegebener (symmetrischer und positiv definiter) Kovarianzmatrix Σ R p × p {\displaystyle \mathbf {\Sigma } \in \mathbb {R} ^{p\times p}} kann wie folgt angegeben werden:

  1. Bestimme eine Matrix A {\displaystyle \mathbf {A} } , so dass A A = Σ {\displaystyle \mathbf {A} \mathbf {A} ^{\top }=\mathbf {\Sigma } } . Dazu kann die Cholesky-Zerlegung von Σ {\displaystyle \mathbf {\Sigma } } oder die Quadratwurzel von Σ {\displaystyle \mathbf {\Sigma } } verwendet werden.
  2. Sei Z = ( Z 1 , , Z p ) {\displaystyle \mathbf {Z} =(Z_{1},\ldots ,Z_{p})^{\top }} ein Vektor, dessen p {\displaystyle p} Komponenten stochastisch unabhängige, standardnormalverteilte Zufallsvariablen sind. Standardnormalverteilte Zufallszahlen können beispielsweise mit Hilfe der Box-Muller-Methode generiert werden.
  3. Mit der affinen Transformation X = μ + A Z {\displaystyle \mathbf {X} ={\boldsymbol {\mu }}+\mathbf {A} \mathbf {Z} } ergibt sich die gewünschte p {\displaystyle p} -dimensionale Normalverteilung.

Streuregionen der mehrdimensionalen Normalverteilung

Siehe auch: Streukreisradius

Für eindimensionale normalverteilte Zufallsvariablen liegen ungefähr 68,27 % der Realisierungen im Intervall μ ± σ {\displaystyle \mu \pm \sigma } , für mehrdimensionale normalverteilte Zufallsvariablen sind die Regionen konstanter Wahrscheinlichkeit durch Ellipsen (die Standardabweichungsellipsen) gegeben, welche um den Mittelwert zentriert sind. Die Hauptachsen der Ellipse sind durch die Eigenvektoren der Kovarianzmatrix Σ {\displaystyle \Sigma } gegeben, die Länge der Halbachsen ist die Quadratwurzel des zur jeweiligen Hauptachse gehörenden Eigenwertes σ i {\displaystyle \sigma _{i}} . Eine Realisierung der Zufallsvariablen in der Region anzutreffen, welche durch die (mehrdimensionale) Standardabweichungsellipse begrenzt wird, ist für eine mehrdimensional normalverteilte Zufallsvariable weniger wahrscheinlich.[5]

Darstellung der Standardabweichungsellipse einer zweidimensionalen Normalverteilung, sowie der beiden Marginalverteilungen.

Nach einer Hauptachsentransformation können die Achsen mit ihren jeweiligen σ i {\displaystyle \sigma _{i}} normiert werden. Dann lässt sich die Wahrscheinlichkeit mit der ein Messwert innerhalb eines Radius r {\displaystyle r} liegt berechnen. Mit

r 2 = i = 1 p ( x i μ i ) 2 / σ i 2 {\displaystyle r'^{2}=\sum _{i=1}^{p}(x_{i}-\mu _{i})^{2}/\sigma _{i}^{2}}

ist der Anteil

π ( r ) = 0 r f X ( r ) r p 1 d r 0 f X ( r ) r p 1 d r = P ( p 2 , r 2 2 ) {\displaystyle \pi (r)={\frac {\int _{0}^{r}f_{X}(r')r'^{p-1}dr'}{\int _{0}^{\infty }f_{X}(r')r'^{p-1}dr'}}=P\left({\frac {p}{2}},{\frac {r^{2}}{2}}\right)}

der Messwerte höchstens im Abstand r {\displaystyle r} vom Mittelwert einer p-dimensionalen Normalverteilung. Dabei ist P {\displaystyle P} die regularisierte unvollständige Gammafunktion der oberen Grenze.

π {\displaystyle \pi } in % r = σ {\displaystyle r=\sigma } [6] r = 2 σ {\displaystyle r=2\sigma } r = 3 σ {\displaystyle r=3\sigma }
p = 1 {\displaystyle p=1} 68,27 95,45 99,73
p = 2 {\displaystyle p=2} 39,35 86,47 98,89
p = 3 {\displaystyle p=3} 19,87 73,85 97,07

Entsprechend kann mit der Umkehrfunktion der Streuradius r angegeben werden, in der ein vorgegebener Anteil an Messwerten liegt:

r = 2 P 1 ( p 2 , π ) {\displaystyle r={\sqrt {2P^{-1}\left({\frac {p}{2}},\pi \right)}}}
r {\displaystyle r} in σ {\displaystyle \sigma } π = 50 % {\displaystyle \pi =50\%} π = 90 % {\displaystyle \pi =90\%} π = 99 % {\displaystyle \pi =99\%}
p = 1 {\displaystyle p=1} 0,675 1,645 2,576
p = 2 {\displaystyle p=2} 1,177 2,146 3,035
p = 3 {\displaystyle p=3} 1,538 2,500 3,368

Literatur

  • K. V. Mardia, J. T. Kent, J. M. Bibby: Multivariate Analysis. New York 1979.
  • Ludwig Fahrmeir, Alfred Hamerle, Gerhard Tutz (Hrsg.): Multivariate statistische Verfahren. New York 1996.
  • Joachim Hartung, Bärbel Elpelt: Multivariate Statistik. München/ Wien 1999.
  • Bernhard Flury: A first course in multivariate statistics. New York 1997.

Anmerkungen

  1. Mehrdimensionale und multivariate Normalverteilung werden in diesem Artikel synonym verwendet. Bei Hartung/Elpelt: Multivariate Statistik haben sie aber (in Kapitel 1, Abschnitt 5) unterschiedliche Bedeutungen: hier ist die multivariate Normalverteilung eine Matrix-Verteilung.
  2. Alvin C. Rencher, G. Bruce Schaalje: Linear models in statistics. John Wiley & Sons, 2008, S. 89. (utstat.toronto.edu)
  3. Alvin C. Rencher, G. Bruce Schaalje: Linear models in statistics. John Wiley & Sons, 2008, S. 90. (utstat.toronto.edu)
  4. Christian Kleiber, Jordan Stoyanov: Multivariate distributions and the moment problem. In: Journal of Multivariate Analysis. Vol. 113, Januar 2013, S. 7–18, doi:10.1016/j.jmva.2011.06.001.
  5. Bin Wang, Wenzhong Shi, Zelang Miao: Confidence Analysis of Standard Deviational Ellipse and Its Extension into Higher Dimensional Euclidean Space. In: PLOS ONE. Band 10, Nr. 3, 13. März 2015, ISSN 1932-6203, S. 11, doi:10.1371/journal.pone.0118537. 
  6. In der beschriebenen Normierung wäre σ = 1 {\displaystyle \sigma =1} .
Diskrete univariate Verteilungen

Diskrete univariate Verteilungen für endliche Mengen:
Benford | Bernoulli | beta-binomial | binomial | Dirac | diskret uniform | empirisch | hypergeometrisch | kategorial | negativ hypergeometrisch | Rademacher | verallgemeinert binomial | Zipf | Zipf-Mandelbrot | Zweipunkt

Diskrete univariate Verteilungen für unendliche Mengen:
Boltzmann | Conway-Maxwell-Poisson | discrete-Phase-Type | erweitert negativ binomial | Gauss-Kuzmin | gemischt Poisson | geometrisch | logarithmisch | negativ binomial | parabolisch-fraktal | Poisson | Skellam | verallgemeinert Poisson | Yule-Simon | Zeta

Kontinuierliche univariate Verteilungen

Kontinuierliche univariate Verteilungen mit kompaktem Intervall:
Beta | Cantor | Kumaraswamy | raised Cosine | Dreieck | Trapez | U-quadratisch | stetig uniform | Wigner-Halbkreis

Kontinuierliche univariate Verteilungen mit halboffenem Intervall:
Beta prime | Bose-Einstein | Burr | Chi | Chi-Quadrat | Coxian | Erlang | Exponential | Extremwert | F | Fermi-Dirac | Folded normal | Fréchet | Gamma | Gamma-Gamma | verallgemeinert invers Gauß | halblogistisch | halbnormal | Hartman-Watson | Hotellings T-Quadrat | hyper-exponentiale | hypoexponential | invers Chi-Quadrat | scale-invers Chi-Quadrat | Invers Normal | Invers Gamma | Kolmogorow-Verteilung | Lévy | log-normal | log-logistisch | Maxwell-Boltzmann | Maxwell-Speed | Nakagami | nichtzentriert Chi-Quadrat | Pareto | Phase-Type | Rayleigh | relativistisch Breit-Wigner | Rice | Rosin-Rammler | shifted Gompertz | truncated normal | Type-2-Gumbel | Weibull | Wilks’ Lambda

Kontinuierliche univariate Verteilungen mit unbeschränktem Intervall:
Cauchy | Extremwert | exponential Power | Fishers z | Fisher-Tippett (Gumbel) | generalized hyperbolic | Hyperbolic-secant | Landau | Laplace | alpha-stabil | logistisch | normal (Gauß) | normal-invers Gauß’sch | Skew-normal | Studentsche t | Type-1-Gumbel | Variance-Gamma | Voigt

Multivariate Verteilungen

Diskrete multivariate Verteilungen:
Dirichlet compound multinomial | Ewens | gemischt Multinomial | multinomial | multivariat hypergeometrisch | multivariat Poisson | negativmultinomial | Pólya/Eggenberger | polyhypergeometrisch

Kontinuierliche multivariate Verteilungen:
Dirichlet | GEM | generalized Dirichlet | multivariat normal | multivariat Student | normalskaliert invers Gamma | Normal-Gamma | Poisson-Dirichlet

Multivariate Matrixverteilungen:
Gleichverteilung auf der Stiefel-Mannigfaltigkeit | Invers Wishart | Matrix Beta | Matrix Gamma | Matrix invers Beta | Matrix invers Gamma | Matrix Normal | Matrix Student-t | Matrix-Von-Mises-Fisher-Verteilung | Normal-invers-Wishart | Normal-Wishart | Wishart