Model statystyczny

Model statystyczny – hipoteza lub układ hipotez, sformułowanych w sposób matematyczny (odpowiednio w postaci równania lub układu równań), który przedstawia zasadnicze powiązania występujące pomiędzy rozpatrywanymi zjawiskami rzeczywistymi.

Bardziej formalnie jest to parametryzowana rodzina rozkładów łącznych rozważanych zmiennych, stąd druga nazwa przestrzeń statystyczna.

Modele statystyczne używane w ekonometrii noszą nazwę modeli ekonometrycznych.

Formalna definicja matematyczna

Niech

P = { P θ : θ Θ } {\displaystyle {\mathcal {P}}=\{P_{\theta }:\theta \in \Theta \}}

będzie rodziną rozkładów prawdopodobieństwa określonych na przestrzeni próby X , {\displaystyle {\mathcal {X}},} indeksowaną parametrem θ {\displaystyle \theta } (w szczególności może to być wektor parametrów rzeczywistych). P θ {\displaystyle P_{\theta }} opisuje wielowymiarowy łączny rozkład wszystkich obserwacji w próbie X . {\displaystyle X.}

Formalnie model statystyczny to para:

( X , { P θ : θ Θ } ) . {\displaystyle ({\mathcal {X}},\{P_{\theta }:\theta \in \Theta \}).}

Niech próba opisywana przez rozkład P θ {\displaystyle P_{\theta }} będzie wektorem X = ( X 1 , X 2 , , X n ) {\displaystyle X=(X_{1},X_{2},\dots ,X_{n})} niezależnych zmiennych losowych z których każda ma rozkład P θ {\displaystyle P_{\theta }'} a jej zbiorem wartości jest X . {\displaystyle {\mathcal {X}}'.} X {\displaystyle X} nazywany jest n {\displaystyle n} -elementową próbą z rozkładu P θ . {\displaystyle P_{\theta }'.}

W takim przypadku stosowany jest również zapis

( X , { P θ : θ Θ } ) n . {\displaystyle ({\mathcal {X}}',\{P_{\theta }':\theta \in \Theta \})^{n}.}

W praktycznych zastosowaniach podaje się po prostu warunek, jaki spełniają rozkłady z rodziny P . {\displaystyle {\mathcal {P}}.} Zmienne losowe występujące w tym warunku determinują przestrzeń próby X , {\displaystyle {\mathcal {X}},} a parametry tworzą wektor θ . {\displaystyle \theta .}

Model nieparametryczny

Model nieparametryczny to model w którym nie istnieje skończenie wymiarowa parametryzacja rodziny rozkładów, czyli nie da się go zapisać w takiej postaci, że

Θ R k , k N . {\displaystyle \Theta \subseteq \mathbb {R} ^{k},k\in \mathbb {N} .}

Nie oznacza to braku jakiejkolwiek parametryzacji – to byłoby sprzeczne z definicją modelu statystycznego – np. Θ {\displaystyle \Theta } może być rodziną dystrybuant.

Model identyfikowalny

Jeśli zachodzi:

θ 1 θ 2 P θ 1 P θ 2 , {\displaystyle \theta _{1}\neq \theta _{2}\Rightarrow P_{\theta _{1}}\neq P_{\theta _{2}},}

to model nazywany jest identyfikowalnym. Oznacza to, że parametr θ {\displaystyle \theta } jest jednoznacznie wyznaczony przez rozkład P θ . {\displaystyle P_{\theta }.}

Modele liniowe

Ogólna postać liniowego modelu o G równaniach łącznie współzależnych i tylu zmiennych endogenicznych (objaśnianych) oraz K dodatkowych zmiennych egzogenicznych (objaśniających) przy liczbie t obserwacji:

Y 1 t = α 10 + α 11 X 1 t + α 12 X 2 t + + α 1 K X K t + β 12 Y 2 t + β 13 Y 3 t + + β 1 G Y G t + ξ 1 t {\displaystyle Y_{1t}=\alpha _{10}+\alpha _{11}X_{1t}+\alpha _{12}X_{2t}+\ldots +\alpha _{1K}X_{Kt}+\beta _{12}Y_{2t}+\beta _{13}Y_{3t}+\ldots +\beta _{1G}Y_{Gt}+\xi _{1t}}

Y 2 t = α 20 + α 21 X 1 t + α 22 X 2 t + + α 2 K X K t + β 21 Y 1 t + β 23 Y 3 t + + β 2 G Y G t + ξ 2 t {\displaystyle Y_{2t}=\alpha _{20}+\alpha _{21}X_{1t}+\alpha _{22}X_{2t}+\ldots +\alpha _{2K}X_{Kt}+\beta _{21}Y_{1t}+\beta _{23}Y_{3t}+\ldots +\beta _{2G}Y_{Gt}+\xi _{2t}}

{\displaystyle {}\qquad \vdots }

Y G t = α G 0 + α G 1 X 1 t + α G 2 X 2 t + + α G K X K t + β G 1 Y 1 t + β G 2 Y 2 t + + β G G 1 Y G 1 t + ξ G t {\displaystyle Y_{Gt}=\alpha _{G0}+\alpha _{G1}X_{1t}+\alpha _{G2}X_{2t}+\ldots +\alpha _{GK}X_{Kt}+\beta _{G1}Y_{1t}+\beta _{G2}Y_{2t}+\ldots +\beta _{GG-1}Y_{G-1t}+\xi _{Gt}}

Linia trendu

Najprostszym modelem stosowanym w prognozie jest linia trendu, w której zakładamy następującą zależność między zmienną objaśniającą t {\displaystyle t} (oznaczającą czas) a zmienną objaśnianą Y : {\displaystyle Y{:}}

Y = a t + b + ε , {\displaystyle Y=at+b+\varepsilon ,}

gdzie:

a , b {\displaystyle a,b} – stałe współczynniki,
ε {\displaystyle \varepsilon } błąd losowy o rozkładzie normalnym i wartości oczekiwanej zero.

Liniowy model prawdopodobieństwa

Jako przykład klasycznych modeli liniowych rozpatrywanych w statystyce wskazać można również liniowy model prawdopodobieństwa (LMP), tj. najprostszy model regresji pozwalający prognozować występowalność rozpatrywanego zdarzenia. Model ten przyjmuje postać:

y t = β 0 + β 1 x t 1 + β 2 x t 2 + + β k x t k + ξ t , {\displaystyle y_{t}=\beta _{0}+\beta _{1}x_{t1}+\beta _{2}x_{t2}+\ldots +\beta _{k}x_{tk}+\xi _{t},}

gdzie:

y t {\displaystyle y_{t}} – reprezentująca rozpatrywane zjawisko zmienna objaśniana,
x t 1 , x t 2 , , x t k {\displaystyle x_{t1},x_{t2},\dots ,x_{tk}} – zmienne objaśniające,
β 1 , β 2 , , β k {\displaystyle \beta _{1},\beta _{2},\dots ,\beta _{k}} – parametry modelu,
ξ t {\displaystyle \xi _{t}} – odchylenie losowe modelu.

LMP szacować metodą najmniejszych kwadratów (MNK), jednakże nie zostaną w jego przypadku spełnione klasyczne warunki stosowalności MNK – determinuje to podstawowe wady modelu, do których zalicza się:

  • możliwość wykroczenia zmiennej zależnej poza wartości z przedziału <0; 1>;
  • heteroskedastyczność – brak homoskedastyczności przekłada się na błędne wyniki statystyki testowej (oszacowania modelu mogą zostać skorygowane w tym zakresie za pomocą uogólnionej metody najmniejszych kwadratów);
  • niespełnienie warunku normalności rozkładu reszt – reszty modelu nie mają rozkładu zgodnego z rozkładem normalnym[1].

Modele nieliniowe

Przykładowym równaniem nieliniowym może być znany w ekonomii model (typu) Cobba-Douglasa.

Systematyka

Sprzątanie Wikipedii
Tę sekcję należy dopracować:
ta systematyka jest przybliżona i nie obejmuje mnóstwa przypadków.
Po wyeliminowaniu niedoskonałości należy usunąć szablon {{Dopracować}} z tej sekcji.

Modele statystyczne dzielą się m.in. na:

  • jedno- i wielorównaniowe (z więcej niż jedną zmienną endogeniczną)
  • przyczynowo-skutkowe i symptomatyczne
  • statyczne i dynamiczne (autoregresyjne, trendu)
  • proste, rekurencyjne i o równaniach łącznie współzależnych.
  • liniowe i nieliniowe
  • klasyczne i bayesowskie

Można wyróżnić następujące typy modeli:

  • modele klasy ARMA (auto-regression with moving average) i ARIMA (auto-regression integrated with moving average)
  • modele korekty błędem (ECM – error correction model)
  • VAR (modele wektorowej autoregresji) i modyfikacje
    • VAR (vector auto-regression)
    • VARMA (vector autoregression with moving average)
    • VEC (vector error correction)
  • modele panelowe
  • Modele równowagi ogólnej
    • CGE (computable general equilibrium)
    • DCGE (dynamic computable general equilibrium)

Metody doboru zmiennych i postaci modelu

Sprzątanie Wikipedii
Tę sekcję należy dopracować:
to tylko część metod. Metody te są stosowane wyłącznie w polskiej ekonometrii.
Po wyeliminowaniu niedoskonałości należy usunąć szablon {{Dopracować}} z tej sekcji.

Powyższe metody wykorzystywane przy specyfikacji modeli ekonometrycznych są kontrowersyjne a ich naukowość jest kwestionowana.

W praktyce przy doborze zmiennych objaśniających należy kierować się na wstępie zdrowym rozsądkiem i teorią dotyczącą badanego zagadnienia.

Dobór zmiennych zależy również od jakości oszacowania modelu przy danych zmiennych (wykazany brak spełnienia założeń użytej metody estymacji, takie jak dla KMNK heteroskedastyczność, autoregresyjność czy brak rozkładu normalnego reszt, wskazuje na konieczność użycia innego zestawu zmiennych objaśniających). W ten sposób budowa finalnego modelu ma charakter iteracyjny.

Specyficznym przypadkiem są modele trendu, których postać ustalana jest w sposób najbardziej techniczny, w oparciu o parametry dopasowania modelu oraz tak zwane kryteria informacyjne (najbardziej znane z nich: Akaike i Schwarza).

Metody estymacji parametrów modelu

Do estymacji parametrów modelu często stosowane są metody regresji statystycznej.

 Ta sekcja jest niekompletna. Jeśli możesz, rozbuduj ją.

Badanie jakości modelu regresyjnego

W celu oceny jakości modelu stosuje się rozmaite testy statystyczne badające jego własności. Dobór testów powinien zależeć od przewidywanego zastosowania modelu (najczęstsze to wyjaśnianie oraz prognozowanie).

Najczęstszym zadaniem testów jest sprawdzenie spełnienia założeń przyjętych w użytej metodzie estymacji (najczęściej dotyczą one rozkładu błędów losowych). Inne testy mają za zadanie ocenę stabilności czy dopasowania modelu.

W szczególności, można wyróżnić następujące własności modelu najczęściej badane za pomocą testów statystycznych:

  • rozkład błędów losowych
    • autokorelacja
    • homoskedastyczność
    • niezależność
  • dopasowanie
  • postać modelu (np. liniowa)
  • jakość prognoz
  • stabilność

Mierniki dopasowania

Współczynnik determinacji

R 2 = t = 1 n ( y ^ t y ¯ ) 2 t = 1 n ( y t y ¯ ) 2 , {\displaystyle R^{2}={\frac {\sum \limits _{t=1}^{n}{({\hat {y}}_{t}-{\overline {y}})^{2}}}{\sum \limits _{t=1}^{n}{(y_{t}-{\overline {y}})^{2}}}},}

gdzie:

y t {\displaystyle y_{t}} – wartość zmiennej Y {\displaystyle Y} w momencie t , {\displaystyle t,}
y ^ t {\displaystyle {\hat {y}}_{t}} – wartość teoretyczna zmiennej Y {\displaystyle Y} w momencie t , {\displaystyle t,}
y ¯ {\displaystyle {\overline {y}}} – wartość średnia zmiennej Y {\displaystyle Y} w szeregu czasowym.

Współczynnik determinacji informuje o dopasowaniu liniowego modelu regresji do danych empirycznych. Przyjmuje wartości z przedziału [ 0 ; 1 ] {\displaystyle [0;1]} jeśli w modelu występuje wyraz wolny, a do estymacji parametrów wykorzystano metodę najmniejszych kwadratów. Im wartość bliższa jedności, tym lepsze dopasowanie.

Skorygowany współczynnik determinacji

Kiedy wartość R 2 {\displaystyle R^{2}} chce się wykorzystać do porównywania jakości kilku modeli, w których liczba zmiennych objaśniających jest różna, stosuje się skorygowany współczynnik determinacji:

R ~ 2 = 1 n 1 n m 1 ( 1 R 2 ) , {\displaystyle {\tilde {R}}^{2}=1-{\frac {n-1}{n-m-1}}(1-R^{2}),}

gdzie:

R 2 {\displaystyle R^{2}} współczynnik determinacji,
n {\displaystyle n} – liczba obserwacji,
m {\displaystyle m} – liczba zmiennych objaśniających (bez zmiennej przy wyrazie wolnym).

Odchylenie standardowe składnika resztowego

Wartość odchylenia standardowego składnika resztowego informuje o przeciętnych odchyleniach wartości rzeczywistych zmiennej prognozowanej od teoretycznych. Im wartości mniejsze, tym lepszy model.

s = [ 1 n m 1 t = 1 n ( y t y ^ t ) 2 ] , {\displaystyle s={\sqrt {\left[{\frac {1}{n-m-1}}\sum \limits _{t=1}^{n}{(y_{t}-{\hat {y}}_{t})^{2}}\right]}},}

gdzie:

n {\displaystyle n} – liczba obserwacji,
m {\displaystyle m} – liczba zmiennych objaśniających (bez zmiennej przy wyrazie wolnym),
y t {\displaystyle y_{t}} – wartość zmiennej Y {\displaystyle Y} w momencie t , {\displaystyle t,}
y ^ t {\displaystyle {\hat {y}}_{t}} – wartość teoretyczna zmiennej Y {\displaystyle Y} w momencie t . {\displaystyle t.}

Współczynnik zmienności

V e = s y ¯ 100 , {\displaystyle V_{e}={\frac {s}{\overline {y}}}\cdot 100,}

gdzie:

s {\displaystyle s} odchylenie standardowe składnika resztowego,
y ¯ {\displaystyle {\overline {y}}} – wartość średnia zmiennej Y {\displaystyle Y} w szeregu czasowym.

Współczynnik zmienności informuje o tym, jaką część wartości średniej zmiennej objaśnianej stanowi odchylenie standardowe składnika resztowego. Im mniejsza wartość tego współczynnika, tym model jest lepszy.

Badanie istotności parametrów modelu

Badanie istotności parametrów modelu jest próbą stwierdzenia istotności wpływu zmiennych objaśniających na zmienną objaśnianą. Zakładając, że składnik losowy ma rozkład normalny, należy zweryfikować hipotezę o istotności każdego parametru. Nieistotność parametru nie znaczy jednak automatycznie, że zmienną należy usunąć z modelu[2].

H 0 : [ α i = 0 ] , {\displaystyle H_{0}:[\alpha _{i}=0],}
H 1 : [ α i 0 ] , {\displaystyle H_{1}:[\alpha _{i}\neq 0],}

gdzie:

α i {\displaystyle \alpha _{i}} – parametr przy i {\displaystyle i} -tej zmiennej objaśniającej,
H 0 {\displaystyle H_{0}} i {\displaystyle i} -ta zmienna objaśniająca nieistotnie wpływa na zmienną objaśnianą,
H 1 {\displaystyle H_{1}} i {\displaystyle i} -ta zmienna objaśniająca istotnie wpływa na zmienną objaśnianą.

Aby sprawdzić prawdziwość hipotezy zerowej wyznacza się statystykę testową:

t i = a i D ( a i ) , i = 0 , 1 , , m , {\displaystyle t_{i}={\frac {a_{i}}{D(a_{i})}},i=0,1,\dots ,m,}

gdzie:

a i {\displaystyle a_{i}} – ocena parametru przy i {\displaystyle i} -tej zmiennej objaśniającej,
D ( a i ) {\displaystyle D(a_{i})} – błąd oceny i {\displaystyle i} -tego parametru (pierwiastek odpowiedniego elementu macierzy D 2 ( a ) {\displaystyle D^{2}(a)} ).

Wartość a i {\displaystyle a_{i}} wyznacza się ze wzoru:

a = ( X T X ) 1 X T y , {\displaystyle a=(X^{T}X)^{-1}X^{T}y,}

gdzie:

X {\displaystyle X} macierz zmiennych objaśniających,
X T {\displaystyle X^{T}} transponowana macierz X,
y {\displaystyle y} wektor obserwacji zmiennej objaśnianej.

Błąd D ( a i ) : {\displaystyle D(a_{i}){:}}

D 2 ( a ) = s 2 ( X T X ) 1 , {\displaystyle D^{2}(a)=s^{2}(X^{T}X)^{-1},}

gdzie:

s 2 {\displaystyle s^{2}} – kwadrat odchylenia standardowego składnika resztowego.

Następnie należy odczytać wartość krytyczną t α {\displaystyle t_{\alpha }} z tablic rozkładu t-Studenta dla zadanego z góry poziomu istotności α {\displaystyle \alpha } i n m 1 {\displaystyle n-m-1} stopni swobody. Jeżeli

| t i | > t α , {\displaystyle \left|t_{i}\right|>t_{\alpha },}

to hipotezę zerową odrzuca się na rzecz alternatywnej. Jeśli jednak

| t i | t α , {\displaystyle \left|t_{i}\right|\leqslant t_{\alpha },}

wtedy nie ma podstaw do odrzucenia hipotezy zerowej.

Wymienione powyżej metody badania jakości modelu są najczęściej stosowanymi.

Zobacz też

Przypisy

  1. Liniowy model prawdopodobieństwa [online], www.statystyka-medyczna.com.pl [dostęp 2018-01-16] .
  2. GeorgG. Heinze GeorgG., DanielaD. Dunkler DanielaD., Five myths about variable selection, „Transplant International”, 30 (1), 2017, s. 6–10, DOI: 10.1111/tri.12895, ISSN 1432-2277 [dostęp 2019-03-30]  (ang.).

Bibliografia

  • Ryszard Zieliński: Siedem wykładów wprowadzających do statystyki matematycznej. Warszawa: 2004, s. 9. http://www.impan.gov.pl/~rziel/7ALL.pdf (dostęp: 21 maja 2008)
  • Maria Cieślak: Prognozowanie gospodarcze. Metody i zastosowanie. s. 44–47.
Encyklopedia internetowa: