Dualität von Tests und Konfidenzbereichen

Die Dualität von Tests und Konfidenzbereichen, auch Dualität von Tests und Konfidenzintervallen, ist in der mathematischen Statistik eine Verbindung zwischen Konfidenzbereichen und statistischen Tests, die es ermöglicht, aus Konfidenzbereichen Tests zu konstruieren und umgekehrt. Somit können auch Konstruktionsverfahren aus dem einen Themengebiet in das andere übertragen werden. Des Weiteren wird diese Dualität beispielsweise zur Beschreibung von Optimalitätseigenschaften von Konfidenzbereichen verwendet.[1]

Einführendes Beispiel

Gegeben sei ein statistisches Modell ( X , A , ( P ϑ ) ϑ Θ ) {\displaystyle ({\mathcal {X}},{\mathcal {A}},(P_{\vartheta })_{\vartheta \in \Theta })} sowie ein Messraum ( Γ , A Γ ) {\displaystyle (\Gamma ,{\mathcal {A}}_{\Gamma })} . Ein wesentlicher Unterschied zwischen statistischen Tests und Konfidenzintervallen ist, dass ein Test als Funktionswerte 0 oder 1 annimmt bzw. im Falle eines randomisierten Tests Werte zwischen null und eins. Ein Test ist also eine Abbildung

T : ( X , A ) ( [ 0 , 1 ] , B ( [ 0 , 1 ] ) ) {\displaystyle T\colon ({\mathcal {X}},{\mathcal {A}})\to ([0,1],{\mathcal {B}}([0,1]))} .

Konfidenzintervalle hingegen nehmen als Werte Mengen an, also Elemente aus A Γ {\displaystyle A_{\Gamma }} , sind also Abbildungen

C : X A Γ {\displaystyle C\colon {\mathcal {X}}\to {\mathcal {A}}_{\Gamma }}

mit zusätzlichen Messbarkeitseigenschaften, für Details siehe Bereichsschätzer.

Angenommen es handelt sich um ein parametrisches Modell und der Parameter soll geschätzt werden. Dann ist Γ = Θ {\displaystyle \Gamma =\Theta } und die zu schätzende Funktion (Parameterfunktion) ist

g ( ϑ ) = ϑ {\displaystyle g(\vartheta )=\vartheta } .

Per Definition eines Konfidenzintervalls C ( X ) {\displaystyle C(X)} mit Konfidenzniveau 1 α {\displaystyle 1-\alpha } gilt

P ϑ ( { x X ϑ C ( X ) } ) 1 α f u ¨ r a l l e ϑ Θ {\displaystyle P_{\vartheta }(\{x\in {\mathcal {X}}\mid \vartheta \in C(X)\})\geq 1-\alpha \quad \mathrm {f{\ddot {u}}r\;alle\;} \vartheta \in \Theta } .

Wählt man nun konkret ein fixes ϑ 0 {\displaystyle \vartheta _{0}} aus Θ {\displaystyle \Theta } , so ist

P ϑ 0 ( { x X ϑ 0 C ( X ) } ) α {\displaystyle P_{\vartheta _{0}}(\{x\in {\mathcal {X}}\mid \vartheta _{0}\notin C(X)\})\leq \alpha \qquad } (1)

und

P ϑ ( { x X ϑ C ( X ) } ) 1 α f u ¨ r a l l e ϑ Θ { ϑ 0 } {\displaystyle P_{\vartheta }(\{x\in {\mathcal {X}}\mid \vartheta \in C(X)\})\geq 1-\alpha \quad \mathrm {f{\ddot {u}}r\;alle\;} \vartheta \in \Theta \setminus \{\vartheta _{0}\}} .

Definiert man nun einen statistischen Test

T C : X [ 0 , 1 ] {\displaystyle T_{C}\colon {\mathcal {X}}\to [0,1]}

durch

T C ( X ) = 1 { x X ϑ 0 C ( X ) } ( X ) {\displaystyle T_{C}(X)=\mathbf {1} _{\{x\in {\mathcal {X}}\mid \vartheta _{0}\notin C(X)\}}(X)} ,

wobei 1 A {\displaystyle \mathbf {1} _{A}} die Indikatorfunktion auf der Menge A {\displaystyle A} bezeichnet, so ist dies ein statistischer Test der Hypothese H 0 = ϑ 0 {\displaystyle H_{0}=\vartheta _{0}} gegen die Alternative H 1 = Θ { ϑ 0 } {\displaystyle H_{1}=\Theta \setminus \{\vartheta _{0}\}} . Nach der Gleichung (1) hält er das Signifikanzniveau α {\displaystyle \alpha } ein.[2]

Als konkretes Beispiel betrachte man das Normalverteilungsmodell mit bekannter Varianz σ 0 2 {\displaystyle \sigma _{0}^{2}} und unbekanntem Erwartungswert μ {\displaystyle \mu } , also das statistische Modell ( R n , B ( R n ) , ( N ( μ , σ 0 2 ) ) μ R ) {\displaystyle (\mathbb {R} ^{n},{\mathcal {B}}(\mathbb {R} ^{n}),({\mathcal {N}}(\mu ,\sigma _{0}^{2}))_{\mu \in \mathbb {R} })} . Ein rechtsseitig unbeschränktes Konfidenzintervall für den unbekannten Erwartungswert zum Konfidenzniveau 1 α {\displaystyle 1-\alpha } ist gegeben durch

C ( X ) = [ X ¯ σ 0 n u 1 α ; ) {\displaystyle C(X)=\left[{\overline {X}}-{\tfrac {\sigma _{0}}{\sqrt {n}}}u_{1-\alpha };\infty \right)} .

Hierbei bezeichnet u α {\displaystyle u_{\alpha }} das α {\displaystyle \alpha } -Quantil der Standardnormalverteilung, welches aus der Quantiltabelle der Standardnormalverteilung entnommen werden kann und

X ¯ = 1 n i = 1 n X i {\displaystyle {\overline {X}}={\frac {1}{n}}\sum _{i=1}^{n}X_{i}}

das Stichprobenmittel. Es folgt für einen festen Mittelwert μ 0 R {\displaystyle \mu _{0}\in \mathbb {R} }

μ 0 C ( X ) μ 0 < X ¯ σ 0 n u 1 α μ 0 + σ 0 n u 1 α < X ¯ {\displaystyle \mu _{0}\notin C(X)\iff \mu _{0}<{\overline {X}}-{\tfrac {\sigma _{0}}{\sqrt {n}}}u_{1-\alpha }\iff \mu _{0}+{\tfrac {\sigma _{0}}{\sqrt {n}}}u_{1-\alpha }<{\overline {X}}} .

Somit ergibt sich als statistischer Test zum Niveau α {\displaystyle \alpha } von H 0 = μ 0 {\displaystyle H_{0}=\mu _{0}} gegen H 1 = R { μ 0 } {\displaystyle H_{1}=\mathbb {R} \setminus \{\mu _{0}\}}

T ( X , μ 0 ) = { 1  falls  μ 0 + σ 0 n u 1 α < X ¯ 0  sonst. {\displaystyle T(X,\mu _{0})={\begin{cases}1&{\text{ falls }}\quad \mu _{0}+{\tfrac {\sigma _{0}}{\sqrt {n}}}u_{1-\alpha }<{\overline {X}}\\0&{\text{ sonst.}}\end{cases}}}

Dualität mittels Formhypothesen

Allgemeiner kann eine Bijektion zwischen den Konfidenzbereichen und den nichtrandomisierten Tests mittels des Konzepts der Formhypothesen hergestellt werden. Gegeben seien Formhypothesen ( H ~ ϑ , K ~ ϑ ) ϑ Θ {\displaystyle ({\tilde {H}}_{\vartheta },{\tilde {K}}_{\vartheta })_{\vartheta \in \Theta }} und korrespondierende Testhypothesen ( H γ , K γ ) γ Γ {\displaystyle (H_{\gamma },K_{\gamma })_{\gamma \in \Gamma }} zu einem statistischen Modell ( X , A , ( P ϑ ) ϑ Θ ) {\displaystyle ({\mathcal {X}},{\mathcal {A}},(P_{\vartheta })_{\vartheta \in \Theta })} und einem Entscheidungsraum ( Γ , A Γ ) {\displaystyle (\Gamma ,{\mathcal {A}}_{\Gamma })} .

Nichtrandomisierte Tests aus Konfidenzbereichen

Sei C {\displaystyle C} ein Konfidenzbereich zu den Formhypothesen ( H ~ ϑ , K ~ ϑ ) ϑ Θ {\displaystyle ({\tilde {H}}_{\vartheta },{\tilde {K}}_{\vartheta })_{\vartheta \in \Theta }} zum Konfidenzniveau 1 α {\displaystyle 1-\alpha } . Definiere für jedes γ {\displaystyle \gamma } die Menge

A C , γ := { x X γ C ( x ) } {\displaystyle A_{C,\gamma }:=\{x\in {\mathcal {X}}\mid \gamma \in C(x)\}} .

Dann ist für jedes γ {\displaystyle \gamma }

φ γ ( x ) = { 1 falls x A C , γ 0  falls x A C , γ {\displaystyle \varphi _{\gamma }(x)={\begin{cases}1&{\text{falls}}\quad x\notin A_{C,\gamma }\\0&{\text{ falls}}\quad x\in A_{C,\gamma }\end{cases}}}

ein Test zum Niveau α {\displaystyle \alpha } für die Nullhypothese H γ {\displaystyle H_{\gamma }} gegen die Alternative K γ {\displaystyle K_{\gamma }} . Die Menge A C , γ {\displaystyle A_{C,\gamma }} ist somit genau der Annahmebereich des Tests φ γ {\displaystyle \varphi _{\gamma }} .

Konfidenzbereiche aus nichtrandomisierten Tests

Gegeben sei für jedes γ {\displaystyle \gamma } ein nichtrandomisierter Test zum Niveau α {\displaystyle \alpha } der Nullhypothese H γ {\displaystyle H_{\gamma }} gegen die Alternative K γ {\displaystyle K_{\gamma }} mit dem Annahmebereich A γ {\displaystyle A_{\gamma }} . Die Tests sind also von der Form

φ γ ( x ) = { 1  falls  x A γ 0  falls  x A γ {\displaystyle \varphi _{\gamma }(x)={\begin{cases}1&{\text{ falls }}\quad x\notin A_{\gamma }\\0&{\text{ falls }}\quad x\in A_{\gamma }\end{cases}}} .

Dann ist

C ( x ) := { γ Γ x A γ } {\displaystyle C(x):=\{\gamma \in \Gamma \mid x\in A_{\gamma }\}}

ein Konfidenzbereich zum Konfidenzniveau 1 α {\displaystyle 1-\alpha } zu den Formhypothesen ( H ~ ϑ , K ~ ϑ ) ϑ Θ {\displaystyle ({\tilde {H}}_{\vartheta },{\tilde {K}}_{\vartheta })_{\vartheta \in \Theta }}

Korrespondenz der Optimalitätsbegriffe

Über die Formhypothesen und die korrespondierenden Testhypothesen lassen sich nicht nur Tests konstruieren, sondern es lassen sich auch Optimalitätsaussagen von Tests auf Konfidenzbereiche übertragen und umgekehrt. Es gilt:

Ein Konfidenzbereich zu den Formhypothesen ( H ~ ϑ , K ~ ϑ ) ϑ Θ {\displaystyle ({\tilde {H}}_{\vartheta },{\tilde {K}}_{\vartheta })_{\vartheta \in \Theta }} und dem Konfidenzniveau 1 α {\displaystyle 1-\alpha } ist genau dann ein gleichmäßig bester Konfidenzbereich (bzw. ein gleichmäßig bester unverfälschter Konfidenzbereich), wenn für jedes γ {\displaystyle \gamma } der Test φ γ {\displaystyle \varphi _{\gamma }} wie er oben beschrieben wurde eine gleichmäßig bester Test (bzw. ein gleichmäßig bester unverfälschter Test) zum Niveau α {\displaystyle \alpha } für die Nullhypothese H γ {\displaystyle H_{\gamma }} gegen die Alternative K γ {\displaystyle K_{\gamma }} ist.

Literatur

  • Ludger Rüschendorf: Mathematische Statistik. Springer Verlag, Berlin Heidelberg 2014, ISBN 978-3-642-41996-6, doi:10.1007/978-3-642-41997-3. 
  • Claudia Czado, Thorsten Schmidt: Mathematische Statistik. Springer-Verlag, Berlin Heidelberg 2011, ISBN 978-3-642-17260-1, doi:10.1007/978-3-642-17261-8. 

Einzelnachweise

  1. Ludger Rüschendorf: Mathematische Statistik. Springer Verlag, Berlin Heidelberg 2014, ISBN 978-3-642-41996-6, S. 240, doi:10.1007/978-3-642-41997-3. 
  2. Claudia Czado, Thorsten Schmidt: Mathematische Statistik. Springer-Verlag, Berlin Heidelberg 2011, ISBN 978-3-642-17260-1, S. 158, doi:10.1007/978-3-642-17261-8.