Stationärer stochastischer Prozess – Wikipedia
Ein stationärer stochastischer Prozess ist ein stochastischer Prozess mit speziellen Eigenschaften und damit Untersuchungsobjekt der Wahrscheinlichkeitstheorie. Man unterscheidet stochastische Prozesse,
- die stationär im engeren Sinn (auch strikt, streng oder stark stationär) sind, und solche,
- die stationär im weiteren Sinn (auch schwach stationär) sind.
Bei beiden Typen von Prozessen besitzen die endlichdimensionalen Verteilungen des Prozesses bestimmte zeitunabhängige Eigenschaften. Diese beziehen sich bei der Stationarität im engeren Sinn auf die gesamte Verteilungsgestalt und bei der Stationarität im weiteren Sinn nur auf die ersten beiden Momente der endlichdimensionalen Verteilungen. Für Gauß-Prozesse, deren sämtliche endlichdimensionalen Verteilungen multivariate Normalverteilungen sind, fallen die beiden Konzepte zusammen.
![](https://upload.wikimedia.org/wikipedia/commons/thumb/8/87/Fehlerkorrekturmodell_BSP_Residuen.jpg/280px-Fehlerkorrekturmodell_BSP_Residuen.jpg)
Im Folgenden bezeichnet einen reellwertigen stochastischen Prozess mit Indexmenge
. Dabei ist
häufig die Menge der ganzen, der natürlichen oder der reellen Zahlen. Häufig ist
ein Zeitindex und
eine Menge von Zeitpunkten.
Ein stochastischer Prozess mit
heißt stationär im engeren Sinn (auch strikt, streng oder stark stationär), falls alle endlichdimensionalen Verteilungen translationsinvariant sind, d. h. für beliebige
, beliebige Stellen (Zeitpunkte)
und alle Verschiebungen
mit
gilt, dass die Zufallsvektoren (die endlichen Teilfamilien)
und
dieselbe Wahrscheinlichkeitsverteilung haben.[1]
Ein stochastischer Prozess heißt stationär im weiteren Sinn[1] oder schwach stationär, wenn
- die Varianzen aller Zufallsvariablen endlich sind, d. h. für alle
gilt
,
- die Erwartungswertfunktion konstant ist, d. h. für alle
gilt
,
- die Kovarianzfunktion translationsinvariant ist, d. h. für alle
und alle Verschiebungen
mit
gilt
.
Dabei bezeichnen und
den Erwartungswert und die Varianz einer Zufallsvariablen
und
bezeichnet die Kovarianz der Zufallsvariablen
und
.
- Ein stochastischer Prozess, dessen Zufallsvariablen insgesamt stochastisch unabhängig und identisch verteilt sind, ist stationär im engeren Sinn. Wegen der stochastischen Unabhängigkeit existieren die höherdimensionalen Verteilungen in elementarer Form, nämlich als Produktverteilungen der eindimensionalen Verteilungen, also z. B.
- für die zweidimensionalen Verteilungen, wobei
die Verteilungsfunktion jeder eindimensionalen Verteilung ist. Also sind alle zweidimensionalen Verteilungen zeitunabhängig. Für drei voneinander verschiedene Zeitpunkte
und
gilt
,
- so dass auch die dreidimensionalen Verteilungen zeitunabhängig sind. Analoges gilt für alle endlichdimensionalen Verteilungen, so dass die Stationarität im engeren Sinn folgt.
- Ein stochastischer Prozess, dessen Zufallsvariablen paarweise unkorreliert und identisch verteilt sind, ist stationär im weiteren Sinn.
- Ein stochastischer Prozess der stationär im engeren Sinn ist, ist nicht notwendig auch stationär im weiteren Sinn. Dies hängt damit zusammen, dass eine im weiteren Sinn stationärer Prozess endliche Varianzen besitzen muss, was für einen im engeren Sinn stationären Prozess nicht gilt. Beispielsweise bildet eine Folge stochastisch uanbhängiger identisch Cauchy-verteilter Zufallsvariablen einen im engeren Sinn stationären stochastischen Prozess, der aber nicht im weiteren Sinn stationär ist, da eine Cauchy-verteilte Zufallsvariable keine endliche Varianz besitzt.
- Ein stochastischer Prozess der stationär im weiteren Sinn ist, muss nicht notwendig stationär im engeren Sinn sein. Die Stationarität im engeren Sinn bezieht sich nur auf die ersten und zweiten Momente des Prozesses. Beispielsweise die dritten Momente oder andere Eigenschaften der Verteilung können sich im Zeitablauf ändern. Wenn eine Zufallsvariable
eine Gleichverteilung im Intervall
hat, dann gilt
und
.
sei eine Folge stochastisch unabhängiger Zufallsvariablen, wobei
für
standardnormalverteilt ist und für
eine Gleichverteilung auf
besitzt, dann ist dieser Prozess stationär im weiteren Sinn, aber nicht stationär im engeren Sinn.
- Ein Gauß-Prozess ist genau dann stationär im engeren Sinn, wenn er stationär im weiteren Sinn ist. Dies rechtfertigt es, im Zusammenhang von Gauß-Prozessen nur von stationär zu sprechen.
- Ein Gauß-Prozess, dessen Zufallsvariablen paarweise unkorreliert und identisch verteilt sind, ist ein stationärer Gaußprozess, da für multivariate Normalverteilungen aus der Unkorreliertheit die stochastische Unabhängigkeit folgt.
- Ein stochastischer Prozess identisch normalverteilter Zufallsvariablen, die paarweise unkorreliert sind, ist stationär im weiteren Sinn, aber nicht notwendig stationär im engeren Sinn und nicht notwendig ein Gauß-Prozess.
Die erste Eigenschaft besagt, dass jede der Zufallsvariablen endliche Varianz hat und somit zu dem Hilbertraum gehört. Hieraus folgt dann auch, dass der Erwartungswert
existiert und endlich ist. Mit der Konstanz der Erwartungswertfunktion kann man zu einem neuen Prozess
übergehen, für den dann
gilt. Dieser Prozess wird auch zentrierter Prozess genannt. Man kann also für viele Zwecke ohne Beschränkung der Allgemeinheit annehmen, ein stationärer stochastischer Prozess habe den Mittelwert 0. Die Zeitinvarianz der Kovarianzfunktion stellt eine Beziehung zwischen unterschiedlichen Zeitpunkten her und ist damit die bedeutendste Eigenschaft. Sie sagt aus, dass die Kovarianzen zwischen zwei Zeitpunkten nicht von den beiden Zeitpunkten, sondern nur von dem Abstand
der beiden Zeitpunkte zueinander abhängt. Die Bedingung kann auch so formuliert werden, dass
eine Funktion nur einer einzigen Variablen
ist.
Eine geometrische Interpretation des univariaten Falles greift auf den Hilbertraum zurück, dessen Elemente die einzelnen Zufallsvariablen des Prozesses sind. Die geometrische Interpretation unterstützt das tiefere Verständnis des Begriffs der Stationarität. Es wird angenommen, dass die Erwartungswertfunktion konstant Null ist. Da
eine Norm in
ist, kann die Forderung
so verstanden werden, dass alle Prozessvariablen gleich lang sind, d. h. auf einer Kugel liegen.
sagt dann, obiger Interpretation folgend, dass für festes
alle
den gleichen Winkel einschließen. Erhöht man
um Eins, so wird immer um denselben Winkel weitergedreht. Die Konstanz der Erwartungswertfunktion bedeutet
, dass also der Winkel zwischen der Einheit und jeder Prozessvariablen konstant ist. Hier wird ein Breitengrad aus der Einheitskugel ausgeschnitten.
- Ein wichtiger im weiteren Sinn stationärer Prozess ist das weiße Rauschen.
- Bestimmte Gauß-Prozesse und durch ARMA-Modelle beschriebene Prozesse sind stationär.
- Von theoretischer Bedeutung sind harmonische Prozesse, die unter gewissen Bedingungen stationär sind.
- Markow-Ketten, die in ihrer stationären Verteilung starten, sind stationäre Prozesse.
Stationarität ist eine der bedeutendsten Eigenschaften stochastischer Prozesse in der Zeitreihenanalyse. Mit der Stationarität erhält man Eigenschaften, die nicht nur für einzelne Zeitpunkte gelten, sondern Invarianzen über die Zeit hinweg sind. Die Zeitreihe hat zu allen Zeitpunkten den gleichen Erwartungswert und die gleiche Varianz. Eine wichtige Klasse von nichtstationären Prozessen sind integrierte Prozesse.
In der Zeitreihenanalyse ist eine wichtige Fragestellung, eine nichtstationäre Zeitreihe so zu transformieren, dass die Stationärität für die transformierte Zeitreihe plausibel wird. Weit verbreitete Methoden sind hier die Bildung von Differenzen, das Umskalieren oder das Logarithmieren der Zeitreihe. Allgemeiner kann man versuchen, eine stationäre Zeitreihe zu erhalten, indem man ein geeignetes Trend-Saison-Modell verwendet.
Stationäre stochastische Prozesse in diskreter Zeit, die als kanonische Prozesse gegeben sind, lassen sich als maßerhaltendes dynamisches System auffassen. Dazu definiert man den Shift-Operator als
.
Dann ist und der Prozess entsteht durch iterierte Anwendung von
. Somit handelt es sich um ein dynamisches System, das aufgrund der Stationarität maßerhaltend ist. Darauf aufbauend lassen sich auch ergodische stochastische Prozesse definieren, für die wichtige Sätze der Ergodentheorie wie beispielsweise der individuelle Ergodensatz gelten und damit starke Gesetze der großen Zahlen für abhängige Folgen von Zufallsvariablen liefern.
- Peter J. Brockwell, Richard A. Davis: Time Series: Theory and Methods. 2. Auflage. Springer, New York 1991, ISBN 0-387-97429-6, doi:10.1007/978-1-4419-0320-4.
- G. E. P. Box, G. M. Jenkins: Times Series Analysis: Forecasting and Control. 3. Auflage, ISBN 0-13-060774-6
- P. H. Müller (Hrsg.): Lexikon der Stochastik – Wahrscheinlichkeitsrechnung und mathematische Statistik. 5. Auflage. Akademie-Verlag, Berlin 1991, ISBN 978-3-05-500608-1, Stationärer Prozess, S. 368–372.
- ↑ a b P. H. Müller (Hrsg.): Lexikon der Stochastik – Wahrscheinlichkeitsrechnung und mathematische Statistik. 5. Auflage. Akademie-Verlag, Berlin 1991, ISBN 978-3-05-500608-1, Stationärer Prozess, S. 368.
- ↑ Heinz Bauer: Wahrscheinlichkeitstheorie. 5. Auflage. Walter de Gruyter, Berlin / New York 2002, ISBN 3-11-017236-4, S. 383.
- ↑ Peter J. Brockwell, Richard A. Davis: Time Series: Theory and Methods. 2. Auflage. Springer, New York 1991, ISBN 0-387-97429-6, S. 11, doi:10.1007/978-1-4419-0320-4.
- ↑ Gebhard Kirchgässner, Jürgen Wolters, Uwe Hassler: Introduction to Modern Times Series Analysis. 2. Auflage. Springer, Berlin / Heidelberg 2012, ISBN 978-3-642-33435-1, S. 14, doi:10.1007/978-3-642-33436-8.
- ↑ James D. Hamilton: Time Series Analysis. Princeton University Press, Princeton 1994, ISBN 978-0-691-04289-3, S. 45.