Gauß-Prozess

Ein Gauß-Prozess oder Gaußscher Prozess (nach Carl Friedrich Gauß) ist in der Wahrscheinlichkeitstheorie ein stochastischer Prozess, dessen sämtliche endlichdimensionalen Verteilungen mehrdimensionale Normalverteilungen sind. Eine Besonderheit eines Gauß-Prozesses ist, dass seine Wahrscheinlichkeitsverteilung festliegt, wenn die Erwartungswerte, Varianzen und Kovarianzen für alle Zufallsvariablen, die den Gauß-Prozess bilden, festgelegt sind. Die Parameter eines Gauß-Prozesses sind daher seine Erwartungswertfunktion und seine Kovarianzfunktion.

Gauß-Prozesse

Definition

Ein (reellwertiger) Gauß-Prozess ist ein stochastischer Prozess ( X t ) t T {\displaystyle (X_{t})_{t\in T}} auf einer beliebigen Indexmenge T {\displaystyle T} , wenn seine endlichdimensionalen Verteilungen mehrdimensionale Normalverteilungen, auch Gauß-Verteilungen genannt, sind. Es soll also für alle n N {\displaystyle n\in \mathbb {N} } und alle Indizes t 1 , t 2 , , t n T {\displaystyle t_{1},t_{2},\dotsc ,t_{n}\in T} die multivariate Verteilung von ( X t 1 , X t 2 , , X t n ) {\displaystyle (X_{t_{1}},X_{t_{2}},\dotsc ,X_{t_{n}})} durch eine n {\displaystyle n} -dimensionale Normalverteilung gegeben sein.

Charakterisierung durch Erwartungswert und Kovarianz

Eine ein- oder mehrdimensionalen Normalverteilung ist durch die Angabe des Erwartungswertvektors und der Kovarianzmatrix vollständig bestimmt. Die Wahrscheinlichkeitsverteilung eines Gauß-Prozesses liegt durch die Angabe aller endlichdimensionalen Verteilungen fest. Daher ist ein Gaußprozess durch eine Erwartungswertfunktion

μ ( t ) := E [ X t ] , t T {\displaystyle \mu (t):=\mathbb {E} [X_{t}],\quad t\in T}

und eine Kovarianzfunktion

γ ( s , t ) := Cov [ X s , X t ] := E [ ( X s μ ( s ) ) ( X t μ ( t ) ) ] , s , t T {\displaystyle \gamma (s,t):=\operatorname {Cov} [X_{s},X_{t}]:=\mathbb {E} \left[(X_{s}-\mu (s))(X_{t}-\mu (t))\right],\quad s,t\in T}

eindeutig bestimmt. Durch das Funktionenpaar ( μ : T R , γ : T × T R ) {\displaystyle (\mu :T\to \mathbb {R} ,\gamma :T\times T\to \mathbb {R} )} liegen die Parameter aller mehrdimensionalen Normalverteilungen fest und damit liegt die Wahrscheinlichkeitsverteilung des Gauß-Prozesses fest.

Falls γ ( t , t ) > 0 {\displaystyle \gamma (t,t)>0} für alle t T {\displaystyle t\in T} gilt, ist durch

ϱ ( s , t ) := γ ( s , t ) γ ( s , s ) γ ( t , t ) , s , t T {\displaystyle \varrho (s,t):={\frac {\gamma (s,t)}{\sqrt {\gamma (s,s)\gamma (t,t)}}},\quad s,t\in T}

die Korrelationsfunktion des Gauß-Prozesses gegeben.

Anmerkungen

  • Als mehrdimensionale Normalverteilungen sind nicht nur reguläre Verteilungen mit invertierbarer Kovarianzmatrix zugelassen, sondern auch singuläre Verteilungen, bei denen die Kovarianzmatrix positiv semidefinit, aber nicht positiv definit, und damit nicht invertierbar ist.
  • Bei vielen Anwendungen, aber nicht immer, ist t {\displaystyle t} ein Zeitindex und T R {\displaystyle T\subseteq \mathbb {R} } eine Menge von Zeitpunkten.
  • Die Varianzfunktion ist
σ 2 ( t ) := Var [ X t ] = Cov [ X t , X t ] = γ ( t , t ) , t T . {\displaystyle \sigma ^{2}(t):=\operatorname {Var} [X_{t}]=\operatorname {Cov} [X_{t},X_{t}]=\gamma (t,t),\quad t\in T\;.}
Aus der Kovarianzfunktion können die Varianzfunktion und die Korrelationsfunktion gewonnen werden. Aus einer gegebenen Korrelationsfunktion und einer Varianzfunktion ergibt sich die Kovarianzfunktion.
Eine Charakterisierung des Gauß-Prozesses durch die drei Funktionen μ ( ) {\displaystyle \mu (\cdot )} , σ 2 ( ) {\displaystyle \sigma ^{2}(\cdot )} und ϱ ( , ) {\displaystyle \varrho (\cdot ,\cdot )} ist für Anwendungen deswegen interessant, weil die Erwartungswertfunktion und die Varianzfunktion vollständig die eindimensionalen Verteilungen beschreibt, da
X t N ( μ ( t ) , σ 2 ( t ) ) für alle  t T {\displaystyle X_{t}\sim {\mathcal {N}}(\mu (t),\sigma ^{2}(t))\quad {\text{für alle }}t\in T}
gilt, während die Korrelationsfunktion vollständig die gesamte Abhängigkeitsstruktur der Zufallsvariablen erfasst und zugleich keine Parameter aus den Verteilungen der einzelnen Zufallsvariablen enthält. Für einen Gauß-Prozess ist also die Abhängkeitsstruktur vollständig durch die Korrelationsstruktur bestimmt.

Eigenschaften

  • Eine Kovarianzfunktion ist positiv semidefinit. Eine Funktion γ : T × T R {\displaystyle \gamma :T\times T\to \mathbb {R} } ist genau dann eine Kovarianzfunktion, falls sie positiv semidefinit ist.
  • Für einen Gauß-Prozess ( X t ) t T {\displaystyle (X_{t})_{t\in T}} folgt aus der paarweisen Unkorreliertheit aller X t {\displaystyle X_{t}} , d. h. aus
C o v [ X s , X t ] = 0 für alle  s , t T , {\displaystyle \mathrm {Cov} [X_{s},X_{t}]=0\quad {\text{für alle }}s,t\in T\;,}
die stochastische Unabhängigkeit der Familie von Zufallsvariablen, d. h. für alle m N {\displaystyle m\in \mathbb {N} } und beliebige m {\displaystyle m} voneinander verschiedene Indizes t 1 , , t m {\displaystyle t_{1},\dots ,t_{m}} gilt
P ( X t 1 x 1 , , X t m x m ) = j = 1 m P ( X t j x j ) für alle  x 1 , , x m R . {\displaystyle P(X_{t_{1}}\leq x_{1},\dots ,X_{t_{m}}\leq x_{m})=\prod _{j=1}^{m}P(X_{t_{j}}\leq x_{j})\quad {\text{für alle }}x_{1},\dots ,x_{m}\in \mathbb {R} \;.}
  • Jeder Gauß-Prozess ist ein stochastischer Prozess zweiter Ordnung, er besitzt also endliche zweite Momente, d. h. E [ X s X t ] R {\displaystyle \mathbb {E} [X_{s}X_{t}]\in \mathbb {R} } für s , t T {\displaystyle s,t\in T} .

Multivariate Gauß-Prozesse

Gauß-Prozesse lassen sich auch mit Bildmenge R n {\displaystyle \mathbb {R} ^{n}} (oder C n {\displaystyle \mathbb {C} ^{n}} ) definieren. Ein n {\displaystyle n} -variater Gauß-Prozess ist ein R n {\displaystyle \mathbb {R} ^{n}} -wertiger Gauß-Prozess[1]

( X t ) t T = ( X t ( 1 ) , , X t ( n ) ) t T . {\displaystyle (\mathbf {X} _{t})_{t\in T}=(X_{t}^{(1)},\dots ,X_{t}^{(n)})_{t\in T}.}

Analog kann man jetzt die Erwartungswertvektor-Funktion und Kovarianz-Matrix-Funktion bilden. Notiere für die i {\displaystyle i} -te und j {\displaystyle j} -te Komponente

μ i ( t ) := E [ X t ( i ) ] , γ i j ( s , t ) := Cov [ X s ( i ) , X t ( j ) ] , {\displaystyle \mu _{i}(t):=\mathbb {E} [X_{t}^{(i)}],\qquad \gamma _{ij}(s,t):=\operatorname {Cov} [X_{s}^{(i)},X_{t}^{(j)}],}

dann ist die Erwartungswertvektor-Funktion

μ ( t ) := E [ X t ] = ( μ 1 ( t ) , , μ n ( t ) ) {\displaystyle {\boldsymbol {\mu }}(t):=\mathbb {E} [\mathbf {X} _{t}]=(\mu _{1}(t),\dots ,\mu _{n}(t))}

und die Kovarianz-Matrix-Funktion

γ ( s , t ) := Cov [ X s , X t ] = ( γ i j ( s , t ) ) i , j = 1 n , {\displaystyle {\boldsymbol {\gamma }}(s,t):=\operatorname {Cov} [\mathbf {X} _{s},\mathbf {X} _{t}]=\left(\gamma _{ij}(s,t)\right)_{i,j=1}^{n},}

wobei die rechte Seite als Matrix zu verstehen ist.

Die Verteilung des Prozesses ist ein gaußsches Maß auf dem Raum ( R n ) T {\displaystyle (\mathbb {R} ^{n})_{T}} , dem Raum der R n {\displaystyle \mathbb {R} ^{n}} -wertigen Funktionen von T {\displaystyle T} .

Spezialfälle und Interpretation

Univariate Gauß-Prozesse sind Familien reellwertiger Zufallsvariablen. Multivariate Gauß-Prozesse sind Familien vektorwertiger Zufallsvariablen.

Univariate Gauß-Prozesse

Allgemein ist ein univariater Gauß-Prozess eine Familie von reellwertigen Zufallsvariablen ( X t ) t T {\displaystyle (X_{t})_{t\in T}} mit beliebiger Indexmenge T {\displaystyle T} , so dass jede endliche Teilfamilie normalverteilt ist. Dies ist ein sehr allgemeines Konzept und umfasst für verschiedene Arten der Indexmenge T {\displaystyle T} beispielsweise die Konzepte einer Zufallsvariablen, einer zufälligen endlichen Folge, einer zufälligen Folge, einer zufälligen Funktion, einer zufälligen Matrix oder eines zufälligen Feldes.

Endliche Indexmenge

Auch wenn die Indexmenge T {\displaystyle T} beliebig ist, spricht man typischerweise nur dann von einem stochastischen Prozess, wenn die Indexmenge unendlich ist, da sich für eine endliche Indexmenge wohlbekannte Spezialfälle ergeben.

Für eine einelementige Indexmenge T = { 1 } {\displaystyle T=\{1\}} ist der Gauß-Prozess eine normalverteilte Zufallsvariable oder gaußsche Zufallsvariable X 1 N ( μ , σ 2 ) {\displaystyle X_{1}\sim {\mathcal {N}}(\mu ,\sigma ^{2})} mit μ = μ ( 1 ) {\displaystyle \mu =\mu (1)} und σ 2 = γ ( 1 , 1 ) {\displaystyle \sigma ^{2}=\gamma (1,1)} . Die Realisierungen sind Zahlen in x R {\displaystyle x\in \mathbb {R} } .

Für eine endliche Indexmenge T = { t 1 , , t n } {\displaystyle T=\{t_{1},\dots ,t_{n}\}} ist der Gauß-Prozess ( X t ) t T = ( X t 1 , , X t n ) {\displaystyle (X_{t})_{t\in T}=(X_{t_{1}},\dots ,X_{t_{n}})} eine endliche Folge normalverteilter Zufallsvariablen, die eine gemeinsame n {\displaystyle n} -dimensionale Normalverteilung

( X t 1 , , X t n ) N ( μ , Σ ) {\displaystyle (X_{t_{1}},\dots ,X_{t_{n}})\sim {\mathcal {N}}({\boldsymbol {\mu }},{\boldsymbol {\Sigma }})}

mit dem Erwartungswertvektor μ = ( μ ( t 1 ) , , μ ( t n ) ) {\displaystyle {\boldsymbol {\mu }}=(\mu (t_{1}),\dots ,\mu (t_{n}))} und der ( n × n {\displaystyle n\times n} )-Kovarianzmatrix Σ = ( σ i j ) {\displaystyle {\boldsymbol {\Sigma }}=(\sigma _{ij})} mit den Elementen σ i j = γ ( t i , t j ) {\displaystyle \sigma _{ij}=\gamma (t_{i},t_{j})} für i , j = 1 , , n {\displaystyle i,j=1,\dots ,n} besitzen. Die Realisierungen der endlichen Folge sind Vektoren ( x t 1 , , x t n ) R n {\displaystyle (x_{t_{1}},\dots ,x_{t_{n}})\in \mathbb {R} ^{n}} .

Bei einer Interpretation von t {\displaystyle t} als Zeitindex und von T = { 1 , , n } {\displaystyle T=\{1,\dots ,n\}} als Menge aufeinanderfolgender Zeitpunkte sind die bedingten Verteilungen

[ X 2 X 1 = x 1 ] , [ X 3 X 2 = x 2 , X 1 = x 1 ] , [ X n X n = x n , X 1 = x 1 ] {\displaystyle [X_{2}\mid X_{1}=x_{1}],\quad [X_{3}\mid X_{2}=x_{2},X_{1}=x_{1}],\dots [X_{n}\mid X_{n}=x_{n},\dots X_{1}=x_{1}]} ,

die bedingten Erwartungswerte

E [ X 2 X 1 = x 1 ] , E [ X 3 X 2 = x 2 , X 1 = x 1 ] , E [ X n X n 1 = x n 1 , X 1 = x 1 ] {\displaystyle \mathbb {E} [X_{2}\mid X_{1}=x_{1}],\quad \mathbb {E} [X_{3}\mid X_{2}=x_{2},X_{1}=x_{1}],\dots \mathbb {E} [X_{n}\mid X_{n-1}=x_{n-1},\dots X_{1}=x_{1}]}

und die bedingten Varianzen

V a r [ X 2 X 1 = x 1 ] , V a r [ X 3 X 2 = x 2 , X 1 = x 1 ] , V a r [ X n X n 1 = x n 1 , X 1 = x 1 ] {\displaystyle \mathbb {Var} [X_{2}\mid X_{1}=x_{1}],\quad \mathbb {Var} [X_{3}\mid X_{2}=x_{2},X_{1}=x_{1}],\dots \mathbb {Var} [X_{n}\mid X_{n-1}=x_{n-1},\dots X_{1}=x_{1}]}

von besonderem Interesse. Diese charakterisieren die Wahrscheinlichkeitsverteilung von X t {\displaystyle X_{t}} , wenn beobachtete Werte bis zum Zeitpunkt t 1 {\displaystyle t-1} vorliegen. Es ist eine Besonderheit der mehrdimensionalen Normalverteilung, dass die bedingten Verteilungen einer mehrdimensionalen Normalverteilung wieder mehrdimensionale Normalverteilungen sind, wobei die bedingten Erwartungswerte lineare Funktionen der Vergangenheitswerte x 1 , , x n 1 {\displaystyle x_{1},\dots ,x_{n-1}} sind, während die bedingten Varianzen nicht von diesen abhängen.

Gaußsche zufällige Folge

Für die Indexmenge T = N {\displaystyle T=\mathbb {N} } ist der Gauß-Prozess ( X t ) t N {\displaystyle (X_{t})_{t\in \mathbb {N} }} eine Folge ( X 1 , X 2 , ) {\displaystyle (X_{1},X_{2},\dots )} normalverteilter Zufallsvariablen mit der zusätzlichen Eigenschaft, dass jeder endliche Teilvektor eine mehrdimensionale Normalverteilung besitzt. Die Realisierungen sind Zahlenfolgen ( x 1 , x 2 , ) R {\displaystyle (x_{1},x_{2},\dots )\in \mathbb {R} ^{\infty }} . Dabei bezeichnet R {\displaystyle \mathbb {R} ^{\infty }} die Menge aller reellwertigen Folgen, also der Funktionen N R {\displaystyle \mathbb {N} \to \mathbb {R} } , ( 1 , 2 , ) ( x 1 , x 2 , ) {\displaystyle (1,2,\dots )\mapsto (x_{1},x_{2},\dots )} . In diesem Fall kann der Gauß-Prozess als zufällige Folge interpretiert werden, dessen Realisierungen gewöhnliche Zahlenfolgen sind.

Gaußsche zufällige Funktion

Für die Indexmenge T = R {\displaystyle T=\mathbb {R} } ist der Gauß-Prozess ( X t ) t R {\displaystyle (X_{t})_{t\in \mathbb {R} }} eine Familie normalverteilter Zufallsvariablen mit der Eigenschaft, dass jede endliche Teilfamilie eine mehrdimensionale Normalverteilung besitzt. Die Realisierungen, die auch Pfade oder Trajektorien heißen, sind Familien von reellen Zahlen ( x t ) t R {\displaystyle (x_{t})_{t\in \mathbb {R} }} und damit gewöhnliche Funktionen t x t {\displaystyle t\mapsto x_{t}} für t R {\displaystyle t\in \mathbb {R} } . In diesem Fall kann also der Gauß-Prozess als Modell einer zufälligen Funktion interpretiert werden, deren Realisierungen nicht-stochastische Funktionen sind. Analog ist die Interpretation, wenn die Indexmenge T {\displaystyle T} ein Teilintervall von R {\displaystyle \mathbb {R} } ist.

Die Interpretation als Modell einer zufälligen Funktion ist eine häufige Anwendung von Gauß-Prozessen. Formal ist ein Gauß-Prozess eine Familie ( X t ) t R {\displaystyle (X_{t})_{t\in \mathbb {R} }} von Zufallsvariablen mit einer bestimmten Struktur der Erwartungswerte, der Varianzen und der Korrelation. Bei einer Interpretation als zufälliger Funktion ist jede Realisierung eines Gauß-Prozesses eine gewöhnliche Funktion (ein so genannter Pfad). Die Verteilung der Realisierungen eines Gaußprozesses kann also als Wahrscheinlichkeitsverteilung von Funktionen verstanden werden.

Die Eigenschaften des Gauß-Prozesses bestimmen die Eigenschaften seiner Realisierungen. Liegen beobachtete Werte vor, die als Realisierung eines stochastischen Prozesses interpretiert werden können, so können durch geeignete Einstellung der Verteilungsparameter eines Gauß-Prozesses die beobachteten Eigenschaften der Realisierungen reproduziert werden. Man spricht dann auch von Kalibrierung oder „Fitten“ des Prozesses. Mit Methoden der statistischen Inferenz versucht man, aus den Eigenschaften eines beobachteten Pfades oder mehrerer beobachteter Pfade auf die Verteilungsparameter (Erwartungswertfunktion, Varianzfunktion und Korrelationsfunktion) des zugrundeliegenden Gauß-Prozesses zu schließen. Dabei ist es wegen der großen Parameterzahl des schätzenden Modells im Vergleich zur Anzahl der vorliegenden Beobachtungswerte regelmäßig erforderlich, das zu schätzende Modell stark einzuschränken, beispielsweise durch die Annahme der Stationarität.

Ein spezieller Gauß-Prozess mit der Indexmenge T = [ 0 , ) {\displaystyle T=[0,\infty )} ist die Brownsche Bewegung (oder Wienerprozess).

Hauptartikel: Wienerprozess

Eine Verallgemeinerung der Brownschen Bewegung mit der n {\displaystyle n} -dimensionalen Indexmenge T = [ 0 , ) n {\displaystyle T=[0,\infty )^{n}} ist ein eindimensionales, n {\displaystyle n} -parametrisches Brownsches Blatt.

Hauptartikel: Brownsches Blatt

Ein spezieller Gauß-Prozess mit der Indexmenge T = [ 0 , t 0 ] {\displaystyle T=[0,t_{0}]} mit t 0 > 0 {\displaystyle t_{0}>0} und der Eigenschaft P ( X 0 = X t 0 = 0 ) = 1 {\displaystyle P(X_{0}=X_{t_{0}}=0)=1} ist die Brownsche Brücke.

Hauptartikel: Brownsche Brücke

Ein spezieller Gauß-Prozess mit der Indexmenge T = [ 0 , ) {\displaystyle T=[0,\infty )} ist der Ornstein-Uhlenbeck-Prozess.

Hauptartikel: Ornstein-Uhlenbeck-Prozess

Gaußsches Zufallsfeld

Für eine Indexmenge T R n {\displaystyle T\subseteq \mathbb {R} ^{n}} mit n > 1 {\displaystyle n>1} nennt man den Gauß-Prozess ( X t ) t T {\displaystyle (X_{t})_{t\in T}} gaußsches Zufallsfeld[2] oder gaußsches zufälliges Feld (engl. gaussian random field). Bei räumlichen Modellierungen ist in der Regel T = R 2 {\displaystyle T=\mathbb {R} ^{2}} oder T = R 3 {\displaystyle T=\mathbb {R} ^{3}} , zum Beispiel für Modelle der Geostatistik. Im Bereich der Technik, der Naturwissenschaften und der theoretischen Physik sind auch gaußsche Zufallsfelder mit n > 3 {\displaystyle n>3} nicht selten.

Gaußsche zufällige Matrix

Für eine Indexmenge T = { 1 , , m } × { 1 , , n } {\displaystyle T=\{1,\dots ,m\}\times \{1,\dots ,n\}} ist der Gauß-Prozess ( X t ) t { 1 , , m } × { 1 , , n } {\displaystyle (X_{t})_{t\in \{1,\dots ,m\}\times \{1,\dots ,n\}}} eine gaußsche zufällige Matrix der Dimension m × n {\displaystyle m\times n} , deren Elemente normalverteilte Zufallsvariablen sind, wobei jede Teilmatrix und jeder Teilvektor eine mehrdimensionale Normalverteilung besitzt. In diesem Fall kann der Gauß-Prozess als zufällige Matrix interpretiert werden, dessen Realisierungen gewöhnliche Matrizen von reellen Zahlen sind. Eine zufällige Matrix ist ein endlicher und diskreter Spezialfall eines Zufallsfeldes mit zweidimensionaler Indexmenge T R 2 {\displaystyle T\subset \mathbb {R} ^{2}} .

Multivariate Gauß-Prozesse

Ein d {\displaystyle d} -variater Gauß-Prozess ist eine Familie von d {\displaystyle d} -dimensionalen normalverteilten Zufallsvektoren ( X t ) t T {\displaystyle (\mathbf {X} _{t})_{t\in T}} mit beliebiger Indexmenge T {\displaystyle T} , so dass jede endliche Teilfamilie normalverteilt ist. Dabei besitzen jeweils n {\displaystyle n} verschiedene Zufallsvektoren X t 1 , , X t n {\displaystyle \mathbf {X} _{t_{1}},\dots ,\mathbf {X} _{t_{n}}} mit { t 1 , , t n } T {\displaystyle \{t_{1},\dots ,t_{n}\}\subseteq T} eine gemeinsame ( n d ) {\displaystyle (n\cdot d)} -dimensionale Normalverteilung.

Das Konzept eines d {\displaystyle d} -variaten Gauß-Prozesses ( X t ) t T {\displaystyle (\mathbf {X} _{t})_{t\in T}} mit der Interpretation von t {\displaystyle t} als Zeitindex und T = N {\displaystyle T=\mathbb {N} } oder T = Z {\displaystyle T=\mathbb {Z} } wird in der multivariaten Zeitreihenanalyse genutzt, bei der die zeitgleich beobachteten Werte x t 1 , , x t n R d {\displaystyle \mathbf {x} _{t_{1}},\dots ,\mathbf {x} _{t_{n}}\in \mathbb {R} ^{d}} von d {\displaystyle d} Zeitreihen als endlicher Ausschnitt einer Realisierung eines d {\displaystyle d} -dimensionalen stochastischen Prozesses interpretiert werden.

Ein spezieller d {\displaystyle d} -variater Gaußprozess mit der Indexmenge T = [ 0 , ) {\displaystyle T=[0,\infty )} ist die d {\displaystyle d} -dimensionale Brownsche Bewegung oder der d {\displaystyle d} -dimensionale Wiener-Prozess. Eine Verallgemeinerung der d {\displaystyle d} -dimensionale Brownsche Bewegung mit der n {\displaystyle n} -dimensionalen Indexmenge T = [ 0 , ) n {\displaystyle T=[0,\infty )^{n}} ist ein d {\displaystyle d} -dimensionales, n {\displaystyle n} -parametrisches Brownsches Blatt.

Kovarianzfunktion

Satz von Bochner

Eine große Klasse von Kovarianzfunktionen erhält man dadurch, wenn man die Fourier-Transformation eines symmetrischen Wahrscheinlichkeitsmaßes μ {\displaystyle \mu } auf R {\displaystyle \mathbb {R} } berechnet

φ ( t ) = e i t x μ ( d x ) {\displaystyle \varphi (t)=\int _{-\infty }^{\infty }e^{itx}\mu (dx)}

und dann

γ ( s , t ) = φ ( s t ) {\displaystyle \gamma (s,t)=\varphi (s-t)}

setzt.[3]

Dies ist eine Folge des Satz von Bochner, der sagt, jede positiv-definite Funktion K {\displaystyle K} ist die Fourier-Transformation eines positiven endlichen Borelmaß. Auch die Umkehrung gilt. Der Satz lässt sich durch Normalisierung auf Wahrscheinlichkeitsmaße übertragen.

Gaußsche Markow-Prozesse

Gaußsche Markow-Prozesse sind Gauß-Prozesse, welche auch Markow-Prozesse sind. Folgende zwei Resultate zur Kovarianzfunktion sind bekannt:

Ein reeller Gaußscher Prozess ist genau dann ein Markow-Prozess, wenn für alle s t u {\displaystyle s\leq t\leq u} auch

γ ( s , t ) γ ( t , u ) = γ ( t , t ) γ ( s , u ) {\displaystyle \gamma (s,t)\gamma (t,u)=\gamma (t,t)\gamma (s,u)}

gilt.[4]

Alle reellen gaußschen Markow-Prozesse besitzen eine Kovarianzfunktion der Form

γ ( s , t ) = f ( min ( s , t ) ) g ( max ( s , t ) ) , {\displaystyle \gamma (s,t)=f(\min(s,t))g(\max(s,t)),}

wobei f ( x ) , g ( x ) {\displaystyle f(x),g(x)} reelle Funktionen sind. Beispiele:[5][6]

γ ( s , t ) = min ( s , t ) {\displaystyle \gamma (s,t)=\min(s,t)}
γ ( s , t ) = min ( s , t ) s t = min ( s , t ) ( 1 max ( s , t ) ) {\displaystyle \gamma (s,t)=\min(s,t)-st=\min(s,t)(1-\max(s,t))}
  • stationärer Ornstein-Uhlenbeck-Prozess:
γ ( s , t ) = a e b | s t | / 2 = a e b min ( s , t ) / 2 e b max ( s , t ) / 2 , a , b > 0 {\displaystyle \gamma (s,t)=ae^{-b|s-t|/2}=ae^{b\min(s,t)/2}e^{-b\max(s,t)/2},\quad a,b>0}
  • nicht-stationärer Ornstein-Uhlenbeck-Prozess:
γ ( s , t ) = a ( e b | s t | e b ( s + t ) ) = a ( e b ( 2 max ( s , t ) s t ) e b ( s + t ) ) , a , b > 0 {\displaystyle \gamma (s,t)=a\left(e^{-b|s-t|}-e^{-b(s+t)}\right)=a\left(e^{-b\left(2\max(s,t)-s-t\right)}-e^{-b(s+t)}\right),\quad a,b>0}

Bemerkung

  • Der stationäre Ornstein-Uhlenbeck-Prozess ist der einzige gaußsche Markow-Prozess, der zugleich stationär ist γ ( s + h , t + h ) = γ ( s , t ) {\displaystyle \gamma (s+h,t+h)=\gamma (s,t)} .[7]

Beispiele

μ ( t ) = 0 für alle  t T {\displaystyle \mu (t)=0\quad {\text{für alle }}t\in T}
und die Kovarianzfunktion
γ ( s , t ) = { 1 für  s = t 0 für  s t für alle  s , t T {\displaystyle \gamma (s,t)={\begin{cases}1&{\text{für }}s=t\\0&{\text{für }}s\neq t\end{cases}}\quad {\text{für alle }}s,t\in T} .
  • Ein wichtiges Beispiel eines Gauß-Prozesse ist der Wiener-Prozess (bzw. die Brownsche Bewegung). Der Wiener-Prozess hat die Erwartungswertfunktion
μ ( t ) = 0 {\displaystyle \mu (t)=0} für alle t T {\displaystyle t\in T}
und die Kovarianzfunktion
γ ( s , t ) = min ( s , t ) {\displaystyle \gamma (s,t)=\min(s,t)} für alle s , t T {\displaystyle s,t\in T} .
  • Ist T = [ 0 , ) {\displaystyle T=[0,\infty )} und sind f , g L 2 ( d s ) {\displaystyle f,g\in L^{2}(ds)} reellwertige Funktionen sowie ( W t ) t 0 {\displaystyle (W_{t})_{t\geq 0}} ein Wiener-Prozess, so ist der Itō-Prozess
X t = 0 t f ( s ) d s + 0 t g ( s ) d W s , t 0 {\displaystyle X_{t}=\int _{0}^{t}f(s)\mathrm {d} s+\int _{0}^{t}g(s)\mathrm {d} W_{s},\quad t\geq 0}
ein Gauß-Prozess mit der Erwartungswertfunktion
μ ( t ) = 0 t f ( s ) d s , t 0 {\displaystyle \mu (t)=\int _{0}^{t}f(s)\mathrm {d} s,\quad t\geq 0}
und der Kovarianzfunktion
γ ( s , t ) = 0 min ( s , t ) g 2 ( r ) d r , s , t 0 {\displaystyle \gamma (s,t)=\int _{0}^{\min(s,t)}g^{2}(r)\mathrm {d} r,\quad s,t\geq 0} .

Anwendungen

  • In der Zeitreihenanalyse werden zeitdiskrete Gauß-Prozesse mit typischerweise T = Z {\displaystyle T=\mathbb {Z} } , T = N {\displaystyle T=\mathbb {N} } oder T = N 0 {\displaystyle T=\mathbb {N} _{0}} zur Formulierung stochastischer Prozesse verwendet, so dass eine beobachtete Zeitreihe von Zahlenwerten ( x 1 , , x n ) {\displaystyle (x_{1},\dots ,x_{n})} als endlicher Ausschnitt der Realisierung eines zeitdiskreten Gauß-Prozesses ( X t ) t T {\displaystyle (X_{t})_{t\in T}} interpretiert werden kann.
  • In der Finanzmarktstochastik werden typischerweise zeitstetige Gauß-Prozesse mit T R {\displaystyle T\subseteq \mathbb {R} } zur Modellierung von Preisprozessen verwendet.
  • In der Geostatistik werden gaußsche Zufallsfelder, typischerweise mit einer Indexmenge T R 2 {\displaystyle T\subseteq \mathbb {R} ^{2}} oder T R 3 {\displaystyle T\subseteq \mathbb {R} ^{3}} als stochastisches Modell für Messdaten an verschiedenen Orten eingesetzt. Dabei bezeichnet T {\displaystyle T} eine Menge unterschiedlicher Orte.
  • In der Physik werden zeitstetige Gauß-Prozesse zur Formulierung von Modellen realer physikalische Systeme verwendet, z. B. Brownsche Bewegung.
  • In technischen Anwendungen mit im Zeitablauf anfallenden Daten werden Gauß-Prozesse zur Modellierung von Messfehlern verwendet.
  • Im Bereich des maschinellen Lernens kommt es vielfach zur Anwendung von Gauß-Prozessen.[8]

Stationärer Gauß-Prozess

Es sei T R {\displaystyle T\subseteq \mathbb {R} } und t {\displaystyle t} ein Zeitindex. Ein Gauß-Prozess ist genau dann stationär im engeren Sinn, besitzt also zeitinvariante endlichdimensionale Verteilungen, wenn er stationär im weiteren Sinn ist, wenn also die Erwartungswerte und die Kovarianzen zeitinvariant sind. Deswegen kann man einen Gauß-Prozess einfach als stationär bezeichnen, da keine Missverständnisse möglich sind. Er ist genau dann stationär, wenn die Erwartungswertfunktion konstant ist, wenn also

μ ( s ) = μ ( t ) für alle  s , t T {\displaystyle \mu (s)=\mu (t)\quad {\text{für alle }}s,t\in T}

gilt, und wenn die Kovarianzfunktion zeitinvariant ist, wenn also

γ ( s , t ) = γ ( s + h , t + h ) für alle  s , t , s + h , t + h T {\displaystyle \gamma (s,t)=\gamma (s+h,t+h)\quad {\text{für alle }}s,t,s+h,t+h\in T}

gilt. Da in diesem Fall die Kovarianz nicht von der absoluten Lage der beiden Zeitindizes, sondern nur von der Zeitdifferenz abhängt, kann die Kovarianzfunktion eines stationären Gauß-Prozesses als univariate Funktion

γ ( h ) := γ ( t , t + h ) für alle  h R so dass  t , t + h T {\displaystyle \gamma (h):=\gamma (t,t+h)\quad {\text{für alle }}h\in \mathbb {R} \quad {\text{so dass }}t,t+h\in T}

definiert werden. Die univariate Funktion γ ( ) {\displaystyle \gamma (\cdot )} und die bivariate Funktion γ ( , ) {\displaystyle \gamma (\cdot ,\cdot )} dürfen nicht verwechselt werden.

Die Stationarität eines Gauß-Prozesses reduziert die Anzahl der Parameter erheblich. Beispielsweise hat die Verteilung eines Gauß-Prozesses mit endlicher Indexmenge ( X t ) t { 1 , , m } = ( X 1 , , X m ) {\displaystyle (X_{t})_{t\in \{1,\dots ,m\}}=(X_{1},\dots ,X_{m})} als Parameter m {\displaystyle m} Erwartungswerte und m ( m + 1 ) / 2 {\displaystyle m(m+1)/2} Kovarianzen (unter Berücksichtigung der Symmetrie γ ( s , t ) = γ ( t , s ) {\displaystyle \gamma (s,t)=\gamma (t,s)} ). Im Fall der Stationarität reduziert sich die Parameterzahl von m + m ( m + 1 ) / 2 {\displaystyle m+m(m+1)/2} auf 1 + m {\displaystyle 1+m} , da die m {\displaystyle m} Erwartungswerte identisch sind und es nur noch die Kovarianzen γ ( j ) {\displaystyle \gamma (j)} für j = 0 , 1 , , m 1 {\displaystyle j=0,1,\dots ,m-1} gibt. Eine nicht zu große Anzahl von zu schätzenden Parametern (Parsimonie) ist die Voraussetzung für die Anwendung statistischer Inferenzmethoden im Rahmen der Zeitreihenanalyse.

Literatur

  • P. H. Müller (Hrsg.): Lexikon der Stochastik – Wahrscheinlichkeitsrechnung und mathematische Statistik. 5. Auflage. Akademie-Verlag, Berlin 1991, ISBN 978-3-05-500608-1, Gaußscher Prozeß, S. 132–133. 
  • Joseph L. Doob: Stochastic Processes. Wiley, New York 1953, ISBN 978-0-471-52369-7, S. 71–78. 

Einzelnachweise

  1. Z. Chen, J. Fan, K. Wang: Multivariate Gaussian processes: definitions, examples and applications. In: METRON. Band 81, 2023, S. 181–191, doi:10.1007/s40300-023-00238-3. 
  2. P. H. Müller (Hrsg.): Lexikon der Stochastik – Wahrscheinlichkeitsrechnung und mathematische Statistik. 5. Auflage. Akademie-Verlag, Berlin 1991, ISBN 978-3-05-500608-1, Zufälliges Feld, S. 513–516. 
  3. Daniel Revuz und Marc Yor: Continuous Martingales and Brownian Motion. In: Springer (Hrsg.): Grundlehren der mathematischen Wissenschaften. Band 293, 1999, S. 35 (englisch). 
  4. I. S. Borisov: On a Criterion for Gaussian Random Processes to Be Markovian. In: Theory of Probability & Its Applications. Band 27, Nr. 4, 1983, S. 863–865, doi:10.1137/1127097. 
  5. Michail Anatoljewitsch Lifschitz: Lectures on Gaussian Processes. Hrsg.: Springer (= SpringerBriefs in Mathematics). Berlin, Heidelberg 2012, S. 11, doi:10.1007/978-3-642-24939-6. 
  6. I. S. Borisov: On a Criterion for Gaussian Random Processes to Be Markovian. In: Theory of Probability & Its Applications. Band 27, Nr. 4, 1983, S. 863–865, doi:10.1137/1127097. 
  7. Olav Kallenberg: Foundations of Modern Probability. Hrsg.: Springer. 2021, S. 303, doi:10.1007/978-3-030-61871-1. 
  8. Robert B. Gramacy: Surrogates – Gaussian Process Modeling, Design, and Optimization for the Applied Siences (= Texts in Statistical Science). CRC Press, Boca Raton / London / New York 2020, ISBN 978-1-03-224255-2 (gramacy.com [PDF]).