Integriertes Autoregressionsmodell für den gleitenden Durchschnitt. Metall als Konkurrent von Beton oder der Fortschritt von Stahl. Metall als Möglichkeit, beim Bau zu sparen

Und das Modell des gleitenden Durchschnitts (MA).

Definition

ARMA( p, q), wo p und q- Ganzzahlen, die die Ordnung des Modells angeben, wird der folgende Prozess zum Generieren einer Zeitreihe aufgerufen (X t) (\displaystyle\(X_(t)\)):

X t = c + ε t + ∑ ich = 1 p α ich X t - - ich + ∑ ich = 1 q β ich ε t - - ich (\displaystyle X_(t)=c+\varepsilon _(t)+\sum _ (i=1)^(p)\alpha _(i)X_(t-i)+\sum _(i=1)^(q)\beta _(i)\varepsilon _(t-i)),

wo c (\ displaystyle c)- konstant, ( ε t ) (\displaystyle \(\varepsilon _(t)\))- weißes Rauschen, dh eine Folge unabhängiger und gleichmäßig verteilter Zufallsvariablen (normalerweise normal) mit einem Mittelwert von Null und α 1 , … , α p (\displaystyle \alpha _(1),\ldots ,\alpha _(p)) und β 1 , … , β q (\displaystyle \beta _(1),\ldots ,\beta _(q)) reelle Zahlen, autoregressive Koeffizienten bzw. gleitende Durchschnittskoeffizienten sind.

Ein solches Modell kann als lineares multiples Regressionsmodell interpretiert werden, bei dem die vergangenen Werte der abhängigen Variablen selbst als erklärende Variablen fungieren und gleitende Durchschnitte von Elementen des weißen Rauschens als Regressionsrest fungieren. ARMA-Prozesse haben im Vergleich zu ähnlichen AR- oder MA-Prozessen in ihrer reinen Form eine komplexere Struktur, aber ARMA-Prozesse zeichnen sich durch weniger Parameter aus, was einer ihrer Vorteile ist.

Betreibervertretung. Stationarität und Einheitswurzeln

Wenn wir den Verzögerungsoperator einführen L: L x t = x t − 1 (\displaystyle L:~Lx_(t)=x_(t-1)), dann kann das ARMA-Modell wie folgt geschrieben werden

X t = c + (∑ ich = 1 p α ich L ich) X t + (1 + ∑ ich = 1 q β ich L ich) ε t (\displaystyle X_(t)=c+(\sum _(i= 1)^(p)\alpha _(i)L^(i))X_(t)+(1+\sum _(i=1)^(q)\beta _(i)L^(i)) \varepsilon_(t)) (1 − ∑ ich = 1 p α ich L ich) X t = c + (1 + ∑ ich = 1 q β ich L ich) ε t (\displaystyle (1-\sum _(i=1)^(p )\alpha _(i)L^(i))X_(t)=c+(1+\sum _(i=1)^(q)\beta _(i)L^(i))\varepsilon _( t))

Durch Einführung einer abgekürzten Notation für die Polynome des linken und rechten Teils können wir schließlich schreiben:

α (L) X t = c + β (L) ε t (\displaystyle \alpha (L)X_(t)=c+\beta (L)\varepsilon _(t))

Damit der Prozess stationär ist, müssen die Wurzeln des charakteristischen Polynoms des autoregressiven Teils sein α (z) (\displaystyle \alpha (z)) liegen außerhalb des Einheitskreises in der komplexen Ebene (sie waren absolut größer als Eins). Ein stationärer ARMA-Prozess kann als unendlicher MA-Prozess dargestellt werden:

X. t = α - - 1 (L) c + α - - 1 (L) β (L) ε t = c / a (1) + ∑ ich = 0 ∞ c ich ε t - - ich (\ displaystyle X_ (t) = \ alpha ^(-1)(L)c+\alpha ^(-1)(L)\beta (L)\varepsilon _(t)=c/a(1)+\sum _(i=0)^(\ unendlich )c_(i)\varepsilon _(t-i))

Beispielsweise kann der Prozess ARMA(1,0)=AR(1) als MA-Prozess unendlicher Ordnung mit Koeffizienten abnehmender geometrischer Progression dargestellt werden:

X t = c / (1 - a) + ∑ ich = 0 ∞ ein ich ε t - - ich (\displaystyle X_(t)=c/(1-a)+\sum _(i=0)^(\infty ) a^(i)\varepsilon_(t-i))

Somit können ARMA-Prozesse als MA-Prozesse unendlicher Ordnung betrachtet werden, mit gewissen Einschränkungen bezüglich der Struktur der Koeffizienten. Mit wenigen Parametern ermöglichen sie die Beschreibung von recht komplex aufgebauten Prozessen. Alle stationären Prozesse können durch ein ARMA-Modell einer bestimmten Ordnung mit einer deutlich geringeren Anzahl von Parametern beliebig angenähert werden als nur mit MA-Modellen.

Nicht stationärer (integrierter) ARMA

Bei Vorhandensein von Einheitswurzeln des autoregressiven Polynoms ist der Prozess nicht stationär. Wurzeln kleiner als eins werden in der Praxis nicht berücksichtigt, da es sich um Prozesse explosiver Natur handelt. Dementsprechend ist einer der grundlegenden Tests zum Testen der Stationarität von Zeitreihen Unit-Root-Tests. Wenn die Tests das Vorhandensein einer Einheitswurzel bestätigen, werden die Differenzen der ursprünglichen Zeitreihen analysiert und ein ARMA-Modell für einen stationären Prozess von Differenzen einer bestimmten Ordnung erstellt (normalerweise reicht die erste Ordnung, manchmal die zweite). Solche Modelle werden ARIMA-Modelle (integriertes ARMA) oder Box-Jenkins-Modelle genannt. Das ARIMA(p, d, q)-Modell, wobei d die Integrationsordnung ist (die Ordnung der Differenzen der ursprünglichen Zeitreihen), p und q die Ordnung von AR und MA sind – Teile des ARMA-Unterschiedsprozesses die d-te Ordnung, kann in der folgenden Operatorform geschrieben werden

Das von Box und Jenkins vorgeschlagene allgemeine Modell enthält sowohl autoregressive als auch gleitende Durchschnittsparameter. Es gibt also drei Arten von Modellparametern: Autoregressive Parameter ( p), Reihenfolge der Differenz ( d) Parameter des gleitenden Durchschnitts ( q). In der Notation von Box und Jenkins wird das Modell als ARISS( p, d, q). Beispiel: Modell ( 0 ,1 ,2 ) enthält 0 (null) Autoregressionsparameter ( p) und 2 gleitende Durchschnittsparameter ( q), die nach Differenzbildung mit einem Lag von 1 für die Reihe berechnet werden.

Nichtstationäre Reihen werden in stationäre umgewandelt, indem von der ursprünglichen Reihe zu ihren Ordnungsunterschieden übergegangen wird:

In der Praxis werden Differenzen normalerweise mit einer Verzögerung von 0, 1 oder 2 genommen. Die Differenz kann wiederholt, mehrmals genommen werden.

Andere Transformationen können verwendet werden, um eine nicht stationäre Reihe in eine stationäre zu transformieren. Beispielsweise kann der Trend aus der Zeitreihe entfernt werden, oder wenn die Zeitreihe durch exponentielles Wachstum gekennzeichnet ist, dann ist es sinnvoll, vorab die logarithmische Operation zu verwenden.

Im allgemeinen Fall wird das Modell durch ein dreistufiges iteratives Verfahren aufgebaut (Abb. 5.3). Erst dann kann das Modell zur Vorhersage verwendet werden.

Identifikation bezieht sich auf die Definition einer Unterklasse ökonomischer (in Bezug auf die Anzahl der Parameter) Modelle, unter denen man nach einem adäquaten suchen sollte. Das Ziel dieses Schrittes ist es, sich eine Vorstellung von den Mengen zu machen p, d, q.

Die Identifizierung umfasst zwei Schritte: Bestimmung der Ordnung der Differenz der ursprünglichen Serie, die die Stationarität sicherstellt, Identifizierung des ARCC-Modells für die Serie. Die Hauptanalyseinstrumente in beiden Phasen sind ACF und PACF. Sie dienen nicht nur zur Bestimmung des Modelltyps, sondern auch zur ungefähren Abschätzung von Parametern.

Nach der Bestimmung des Modelltyps müssen die Parameter des Modells bewertet und seine Angemessenheit für die untersuchten Zeitreihen überprüft werden. Zur Schätzung der Parameter des Modells wird in der Regel die Maximum-Likelihood-Methode verwendet und zur Überprüfung der Angemessenheit Methoden auf Basis von Residuenanalysen.



Als nächstes betrachten wir jede der Phasen des Modellbildungsalgorithmus, mit besonderem Schwerpunkt auf der Identifizierungsphase, da der Erfolg des Vorhersageprozesses weitgehend von der richtigen Wahl des Modelltyps abhängt.

Wir müssen also die Ordnung der Differenz bestimmen , was die Umwandlung einer nichtstationären Reihe in eine stationäre Reihe gewährleisten würde.

Dazu stellen wir zunächst fest, ob die ursprüngliche Reihe stationär ist.

Oft lässt sich die Nichtstationarität einer Serie visuell feststellen, z. B. das Vorhandensein eines monotonen Verlaufs, unterschiedliche Schwingungsamplituden für verschiedene Teile der Trajektorie usw.


Wenn die aufgeführten Anzeichen für eine Nichtstationarität nicht beobachtet werden, sollte die ACF-Schätzung in Betracht gezogen werden. Wenn es nicht zum Zerfall neigt, können wir von der Nichtstationarität der Zeitreihe sprechen. Wenn die Reihe stationär ist, dann . Wenn nicht, dann sollte die Differenz der ersten Ordnung der Reihe berücksichtigt werden. Auf die erhaltenen Reihen erster Differenzen wird wiederum das Kriterium der Stationarität angewendet. Im Falle der Nichtstationarität werden wieder ihre Differenzen erster Ordnung genommen, oder Differenzen zweiter Ordnung werden von der ursprünglichen Reihe genommen (d. h. wir haben eine Differenz zweiter Ordnung) und das Kriterium der Nichtstationarität wird erneut verwendet. Bei der Bestimmung der Ordnung der Differenz wird also davon ausgegangen, dass die Ordnung der Differenz, die Stationarität sicherstellt, dann gegeben ist, wenn die ACF (und dementsprechend die ACF) des Prozesses schnell genug abfällt (zerfällt).

Für einen Prozess, der ACF verwendet, bestimmen wir und . Zur Bestimmung der Parameter werden selektive ACFs und ACFs der Serie betrachtet.

Es gibt die folgenden Regelmäßigkeiten, die diese Parameter im gemischten Modell verbinden:

Lassen Sie einen gleitenden durchschnittlichen Bestellvorgang beobachten. Dann bricht sein ACF auf dem Protokoll ab. CHAKF nimmt allmählich ab.

Die ACF im Modell, bei dem beide Parameter ungleich Null sind, wird in Form von Exponentialen und gedämpften Sinuskurven dargestellt.

Wie zu sehen ist, sind die Kriterien zur Bestimmung der Parameter des Modells ziemlich vage, und es ist möglich, dass mehr als ein Modell mit ihrer Hilfe identifiziert wird.


APCC(1,1)-Modell.

Die ACF fällt entweder monoton oder oszillierend ab.

Die FACF wird von einem abklingenden exponentiellen Term dominiert, der entweder monoton oder oszillierend ist.

Der gesamte Satz typischer Autokorrelationsfunktionen wird durch sechs Kombinationen verschiedener Werte der Modellparameter und beschrieben. Das Vorzeichen des ACF auf Lag 1 stimmt mit dem Vorzeichen der Differenz - überein. Für jedes Vorzeichen gibt es drei Optionen für das Verhalten von ACF und CHAF: beide sind monoton, beide oszillieren, einer oszilliert, der andere ist monoton. Betrachten Sie diese Fälle:

In der Identifizierungsphase ist es ratsam, mehrere geeignete Modelle zu bestimmen und dann nach Bewertung ihrer Parameter und Untersuchung der Residuen die Angemessenheit der Modelle zu bewerten und das beste auszuwählen.

Die Schätzung der Koeffizienten des Modells versteht sich als Gewinnung der numerischen Werte der Parameter des Modells unter der Annahme seiner Angemessenheit für den Prozess, d.h. Bestimmung von Autoregressions- und gleitenden Durchschnittskoeffizienten. Die Schätzung erfolgt in der Regel nach der Maximum-Likelihood-Methode.

Die Prognose erfolgt direkt nach der Modellgleichung. Zur Berechnung des Konfidenzintervalls kann folgender Ausdruck verwendet werden:

wobei das Quantil der Standardnormalverteilung mit einem Signifikanzniveau von ist.

Das vollständige saisonale Modell kann als ARISS(p,d,q)(Ps,Ds,Qs) dargestellt werden, wobei die Parameter (Ps,Ds,Qs) die saisonale Komponente des Modells beschreiben. Außerdem werden Unterschiede in der Größenordnung von Ds normalerweise mit einer saisonalen Verzögerung aufgenommen. Die Reihenfolge des saisonalen Modells wird neben der üblichen in der Identifizierungsphase festgelegt. Darüber hinaus erstreckt sich alles, was oben über die Konstruktion eines nicht-saisonalen Modells gesagt wurde, natürlich auch auf saisonale, wobei nur der saisonale Faktor berücksichtigt wird.

Verwenden von autoregressiven Modellen – Integrierter gleitender Durchschnitt (ARIMA-Modelle)

Stationäre Zeitreihenmodelle

Einen wichtigen Platz in analytischen Studien nehmen Modelle stationärer Zeitreihen ein. Dies erklärt sich dadurch, dass mit Hilfe bestimmter Transformationen (Differenzbildung, Trenddarstellung etc.) viele Zeitreihen auf eine stationäre Form gebracht werden können, zudem enthalten die nach der Modellierung erhaltenen Residuen häufig statistische Abhängigkeiten, die kann mit diesen Modellen beschrieben werden.

Es gibt Konzepte Stationarität im engeren und weiten Sinne.

Die Zeile wird aufgerufen streng stationär (streng stationär) oder stationär im engeren Sinne wenn die gemeinsame Verteilung t Beobachtungen sind die gleichen wie für GP Beobachtungen, für alle

Aus dieser Definition folgt, dass die Eigenschaften einer streng stationären Zeitreihe nicht vom Ursprung der Zeit abhängen.

Praktische Studien verlassen sich oft auf das Konzept schwach stationär), oder Stationarität im weiteren Sinne, was mit der Anforderung zusammenhängt, dass die Zeitreihen Mittelwert, Varianz und Kovarianz haben, die nicht von einem Zeitpunkt abhängen t

Somit hängt die Autokovarianz y(t) nur vom Wert des Lags m ab, hängt aber nicht davon ab t.

Eng verwandt mit dem Konzept der Autokovarianz ist das Konzept Autokorrelationsfunktion, ACF ( Autokorrelationsfunktion, ACF). Die Werte der ACF-Koeffizienten charakterisieren den Grad des statistischen Zusammenhangs zwischen den Ebenen der Zeitreihen, getrennt durch m Zeiträume, und werden wie folgt bestimmt:

Es ist klar, dass . Bei der Analyse des Verhaltens der Autokorrelationsfunktion werden nur positive Werte der Lags berücksichtigt, da aus der Stationaritätsbedingung folgt, dass .

In praktischen Studien werden Stichprobenwerte von Autokorrelationskoeffizienten anhand der verfügbaren Niveaus der Zeitreihen geschätzt:

wo P– Länge der Zeitreihe – Zeitverschiebung; .

Ein Diagramm, das die Änderung der Autokorrelationskoeffizienten für verschiedene Verzögerungswerte widerspiegelt, wird aufgerufen Korrelogramm (correlograni).

Bei einer stationären Zeitreihe sollten die Werte der Autokorrelationskoeffizienten mit zunehmender Verzögerung einen schnellen monotonen Abfall des Absolutwerts aufweisen.

Auf Abb. Abbildung 8.19 zeigt ein Beispiel einer Autokorrelationsfunktion, die für eine Zeitreihe der monatlichen Dynamik der Ölförderung berechnet wurde.

Reis. 8.19.

Eine vorläufige grafische Analyse der ersten Serie zeigte das Vorhandensein eines Trends und einer Periodizität, was mit Abb. 8.19. Die Werte der Autokorrelationskoeffizienten zeigen keinen schnellen Abfall, was auf die nicht stationäre Natur der Zeitreihe hinweist, während bei der 12. saisonalen Verzögerung ein Anstieg sichtbar ist.

Zusammen mit ACF ist es bei der Analyse von Zeitreihen weit verbreitet private Autokorrelationsfunktion. CHAKF (partielle Autokorrelationsfunktion, PACF), deren Koeffizienten die Korrelation zwischen den durch m Zeitzyklen getrennten Pegeln einer Reihe messen, während sie den Einfluss aller Zwischenpegel auf diesen Zusammenhang ausschließen. In analytischen Paketen ist es möglich, zusammen mit dem LKF-Plot das CLKF-Plot zu erstellen, das die Änderung der Stichprobenschätzungen der partiellen Autokorrelationskoeffizienten in Abhängigkeit von den Verzögerungswerten zeigt. Offensichtlich stimmen die Verzögerungskoeffizienten der Autokorrelation und der partiellen Autokorrelation überein, aber bei nachfolgenden Verzögerungen treten Unterschiede in ihren Werten auf.

Ein Beispiel für Stationarität ist weißes Rauschen), deren Eigenschaften dargestellt werden können als

wo

Daher hängt die Dispersionskonstante bei nicht von ab

Ein Beispiel für weißes Rauschen sind die Residuen in einem klassischen linearen Regressionsmodell, die, wenn sie normalverteilt sind, Gaußsches weißes Rauschen bilden.

Auf Abb. Abbildung 8.20 zeigt ein Beispiel einer Zeitreihe, die einer Implementierung eines Gaußschen Prozesses mit weißem Rauschen entspricht. Zu beachten ist die Unregelmäßigkeit der Schwankungen der Niveaus dieser Zeitreihe um Null herum sowie die Nähe der Autokorrelationskoeffizienten zu Null, die auf die Eigenschaften (8.25) zurückzuführen ist.

Die Analyse der Art des Verhaltens von ACF und FACF ist ein wichtiger Schritt bei der Auswahl von Modellen.

In der Praxis weit verbreitet Autoregressive Modelle und gleitende Durchschnittsmodelle für stationäre Zeitreihen verwendet.

Autoregressive Modelle werden als AR abgekürzt (R) oder in englischer Version AR(p) (autoregressive Modelle der Ordnung p), wo Parameter p gibt die Reihenfolge der Autoregression an. Im Allgemeinen der autoregressive Prozess der Ordnung R hat die Form

wo BEIM ist der Schichtoperator, d.h. Transformation der Zeitreihe, Verschiebung um einen Zeitzyklus; F(V) ist der Autoregressionsoperator.

Die Stationaritätsbedingung ist erfüllt, wenn alle Wurzeln des Polynoms Ä(В) außerhalb des Einheitskreises liegen, also alle Wurzeln der charakteristischen Gleichung betragsmäßig größer als eins und verschieden sind.

Die charakteristische Gleichung hat die Form , oder , während ihre Wurzeln und im absoluten Wert größer als Eins sind, daher haben wir einen stationären Prozess.

Reis. 8.20. Die Dynamik der simulierten Zeitreihen entspricht der Implementierung des Gaußschen Prozesses des weißen Rauschens ( a ) und seine Autokorrelationsfunktion (b)

wobei ein numerischer Koeffizient ist, der die Bedingung einer Folge von Zufallsvariablen erfüllt, die weißes Rauschen bilden.

Für den Markov-Prozess (8.26) sind der mathematische Erwartungswert bzw. die Varianz

Es kann gezeigt werden, dass AR(1) die Gleichheit erfüllt, also i, also nimmt die Enge der Korrelation zwischen den Mitgliedern der Sequenz exponentiell ab, wenn der Wert der Verzögerung zunimmt.

In diesem Fall ist der Autokorrelationskoeffizient erster Ordnung da

Beim Anpassen eines Modells ist es hilfreich, das Verhalten der partiellen Autokorrelationsfunktion zu analysieren. Die FACF-Werte für den Prozess А/?(1) sind für alle Verzögerungen gleich Null. Diese Eigenschaft gilt jedoch für die theoretische partielle Autokorrelationsfunktion. Bei der Analyse der Koeffizienten der Stichprobe der partiellen Autokorrelationsfunktion sollte man davon ausgehen, dass die Verwendung des LD(1)-Modells den Originaldaten nicht widerspricht, wenn die Werte der Koeffizienten bei unwesentlich von Null abweichen.

Begrenzung der Werte des Koeffizienten a (|a|< 1) определяет условие стационарности для AR( 1).

Beispiele für beispielhafte Autokorrelationsfunktionen, mit Charakteristik für AR( 1) Das Verhalten der Koeffizienten ist in Abb. 1 dargestellt. 8.21, 8.22. In diesen Abbildungen sind Überspannungen der Nervenverzögerung in der FACF deutlich sichtbar, während ein exponentieller Abfall der Werte der LCF-Koeffizienten beobachtet wird (mit einem positiven Wert - monotoner Abfall (siehe Abb. 8.21), mit einem negativen Wert - Wechselzeichen (siehe Abb. 8.22)).

Das Modell entspricht dem Wert beschreibt Random-Walk-Prozess. In diesem Fall wird jeder aktuelle Wert durch eine zufällige Abweichung vom vorherigen bestimmt:

Jedoch, wie in Abb. 8.23 unterscheiden sich die Eigenschaften des Random-Walk-Verfahrens deutlich von AR( 1) bei. Der Random-Walk-Prozess ist nicht stationär, was mit dem langsamen Abfall der Autokorrelationskoeffizienten in Abb. 8.23.

In der Wirtschaftsforschung gibt es auch sog Weihnachtsprozesse, oder autoregressive Prozesse zweiter Ordnung - AR( 2):

wo ist weißes rauschen.

Für den Yule-Prozess können Sie einen Ausdruck erhalten, mit dem Sie die Autokorrelationswerte für verschiedene Verzögerungen berechnen können ():

Nachdem wir die Werte in den Ausdruck (8.27) eingesetzt haben, können wir unter Berücksichtigung der Tatsache, dass wir die sogenannten erhalten können Yule-Walker-System (Yule-Walker-Anforderungen) zum AR(2):

Reis. 8.21. Ein Beispiel für Autokorrelationsfunktionen für eine mit einem AR-Modell generierte Zeitreihe( 1) bei a = 0,8 (die Wurzel ist 1,25):

a - ACF: b - CHAKF

Reis. 8.22.

a - ACF; b - CHAKF

Reis. 8.23. Mit einem Random-Walk-Modell generierte Zeitreihen(a), und seine Autokorrelationsfunktion (b)

Mit diesem System können Sie die Koeffizienten des Modells durch die Werte der Autokorrelationskoeffizienten ausdrücken.

In diesem Fall sind die Stationaritätsbedingungen für den Prozess AR(2) kann in folgender Form dargestellt werden:

Im Allgemeinen nimmt für den Prozess der Ausdruck, mit dem Sie die Autokorrelationswerte für verschiedene Verzögerungen () berechnen können, die Form an

Sequentielle Substitution in Formel (8.28) von Verzögerungswerten k = 1, 2. .... R führt zu R Gleichungen des Yule-Walker-Systems. Dieses System ermöglicht es, Schätzungen der Koeffizienten des Modells zu erhalten, nachdem die Werte der Stichproben-Autokorrelationskoeffizienten darin eingesetzt wurden.

Daher hilft die Untersuchung des Verhaltens der Autokorrelationskoeffizienten und der partiellen Autokorrelationsfunktionen erheblich bei der Identifizierung autoregressiver Modelle.

Zur Machbarkeit der Verwendung des Modells AR(p) kann die Werte der LCF-Koeffizienten angeben, die einen exponentiellen Abfall zeigen (entweder monoton oder mit wechselndem Vorzeichenwechsel), während in den Werten der Koeffizienten der FACF Ausreißer (Peaks) bei den ersten Verzögerungen beobachtet werden sollten, und die restlichen Werte der Koeffizienten sind statistisch unbedeutend.

Weit verbreitet sind auch stationäre Zeitreihen in der Modellierung gleitende Durchschnittsmodelle, bezeichnet mit СС(q) oder in der englischen Version MA(q) (Modelle des gleitenden Durchschnitts). MA(q)-Modell hat die Form

wo ist weißes rauschen.

In der Praxis werden am häufigsten gleitende Durchschnittsmodelle niedriger Ordnung verwendet:

Es ist möglich, die Beziehung (8.29) für MA(1) in die folgende Form umzuwandeln, sukzessive auszudrücken usw.:

Die durchgeführte Transformation zeigt, dass sich die Serie in Form eines Modells präsentiert MA( 1) (8.29) kann auch als autoregressives Modell unendlicher Ordnung (8.30) dargestellt werden.

Wenn im Modell MA( 1) der Parameter θ wird im Absolutwert größer als eins, dann gemäß Ausdruck (8.30) der aktuelle Wert y, hängt von vergangenen Werten ab, die mit Gewichten aufgenommen werden, die unbegrenzt zunehmen, wenn Sie sich in die Vergangenheit zurückbewegen. Die Informationsalterung wird nicht berücksichtigt, auch wenn der Parameterwert gleich eins ist. Daher ist eine Bedingung erforderlich, damit die Gewichte in Ausdruck (8.30) eine konvergente Reihe bilden.

Beachten Sie, dass es auch möglich ist, AR darzustellen (1) in Form von ML(<=°). На коэффициенты процесса AR (S) werden keine Bedingungen für Reversibilität gestellt, aber damit die Stationaritätsbedingung des Prozesses erfüllt ist, müssen die Wurzeln seiner charakteristischen Gleichung außerhalb des Einheitskreises liegen. Gleichzeitig für die Reversibilität des Prozesses MA(q) die Wurzeln seiner charakteristischen Gleichung

außerhalb des Einheitskreises liegen muss, gleichzeitig werden den Koeffizienten des Modells keine Beschränkungen auferlegt, um die Stationaritätsbedingung zu erfüllen.

Man kann einen Ausdruck für die Autokorrelationskoeffizienten des Prozesses darstellen MA(q) als

Diese Darstellung impliziert ein charakteristisches Merkmal des ACF-Verhaltens für den Prozess MA(q): für alle Verzögerungswerte τ, die die Ordnung des Modells überschreiten q, die Autokorrelationskoeffizienten sind Null.

Die ACF-Werte für einen bestimmten Fall – das ML(1)-Modell – werden wie folgt ermittelt:

Das Verhalten der FACF ähnelt einem abklingenden Exponenten und wird durch den Ausdruck angegeben

Beispiele für beispielhafte Autokorrelationsfunktionen mit Charakteristik für MA( 1) Das Verhalten der Koeffizienten ist in Abb. 8.24, 8.25. Auf Abb. 8.24 entsprechend den vom Modell generierten Zeitreihen MA( 1) Beim Wert des Parameters gibt es eine positive Spitze in der ACF, während die Koeffizienten in der FACF eine Dämpfung mit variablem Vorzeichen zeigen. Wiederum in Abb. 8.25, die die Art des Verhaltens von ACF und FACF für die Implementierung des Prozesses veranschaulicht MA( 1 ) beim Wert des Parameters kommt es zu einem Überschwingen der ACF in den negativen Bereich sowie zu einer Dämpfung der entsprechenden Koeffizienten in der CLCF.

Die Eigenschaften von gleitenden Durchschnittsmodellen erlauben es uns, die folgenden praktischen Empfehlungen zu formulieren. Zur Machbarkeit der Verwendung des Modells MA(q) kann zunächst auf das Vorhandensein von Ausreißern (Peaks) hindeuten q Verzögerungen der Autokorrelationsfunktion, während die partielle Autokorrelationsfunktion einen exponentiellen Abfall aufweisen muss (monoton oder alternierend).

Das Modell kann auch zur Beschreibung stationärer Prozesse verwendet werden Autoregressiongleitender Durchschnitt - ARSS (p,q), oder, wie in der englischen Version üblich, ARMA (S, q) (autoregressives gleitendes Durchschnittsmodell), die sowohl autoregressive Terme als auch Terme enthält, die das Residuum als Prozess des gleitenden Durchschnitts modellieren.

Reis. 8.24.

a– LKF: d-CHAKF

Reis. 8.25.

a– AKF; b– CHAKF

Modell ARMA(p, q),in welcher Parameter R bestimmt die Ordnung der autoregressiven Komponente, a q- Reihenfolge der gleitenden Durchschnitte hat die Form

In diesem Modell werden vergangene Werte der abhängigen Variablen selbst als erklärende Variablen betrachtet, und gleitende Durchschnitte von Elementen des weißen Rauschens werden als Regressionsresiduen betrachtet.

Die Stationarität des Prozesses (8.31) setzt voraus, dass alle Wurzeln der charakteristischen Gleichung außerhalb des Einheitskreises liegen AR (S) Prozess. Damit der Prozess (8.31) reversibel ist, müssen alle Nullstellen der charakteristischen Gleichung des Prozesses außerhalb des Einheitskreises liegen MA(q).

Zum Beispiel die einfachste Version des gemischten Modells ARMA( 1, 1) dargestellt werden kann als

Dabei wird die Stationarität des Prozesses durch die Bedingung und die Reversibilität durch die Erfüllung der Nebenbedingung sichergestellt

Für den Prozess ARMA( 1, 1) Die Werte der Autokorrelationskoeffizienten werden wie folgt bestimmt:

Aus diesen Ausdrücken folgt, dass die Werte der Autokorrelationskoeffizienten exponentiell vom Wert abnehmen!. Bei einem positiven Wert des Koeffizienten a ist die Abnahme monoton, bei einem negativen Wert von a ist die Abnahme der Autokorrelationskoeffizienten vorzeichenwechselnd.

Das Verhalten der FACF ist auch durch eine exponentielle Abnahme gekennzeichnet, bei einem positiven Wert von Θ - monoton, bei einem negativen Wert - alternierendes Vorzeichen.

Die berücksichtigten Merkmale des Verhaltens von ACF und FACF spielen eine wichtige Rolle bei der Wahl der Modelle.

Für eine bestimmte Zeitreihe ist es bei weitem nicht immer möglich, eine Auswahl zu treffen ein adäquates Modell für das eine Reihe von Störungen e, erfüllt die Grundvoraussetzungen der Regressionsanalyse. Bisher haben wir Modelle der Form (6.7) betrachtet, in denen die Variable t-"Zeit". In der Ökonometrie sind auch andere Regressionsmodelle weit verbreitet, in denen sich die Regressoren befinden Lag-Variablen, also Variablen, deren Einfluss im ökonometrischen Modell durch eine gewisse Verzögerung gekennzeichnet ist. Ein weiterer Unterschied zwischen den in diesem Abschnitt betrachteten Regressionsmodellen besteht darin, dass die darin enthaltenen erklärenden Variablen Mengen sind zufällig.(Weitere Informationen zu diesen Modellen finden Sie in Kapitel 8.)

wobei p 0 , p,..., p i einige Konstanten sind.

Es beschreibt den derzeit untersuchten Prozess t abhängig von seinen Werten in den vorherigen Momenten /- 1, t- 2,..., t-p.

Wenn der Prozess untersucht wird und t In dem Moment t bestimmt durch seine Werte nur in der Vorperiode t- 1, dann überlegen Autoregressives Modell 1 -te Ordnung(oder AR-Modell (1) - Markov-Zufallsprozess):

Beispiel 6.5. Die Tabelle enthält Daten, die die Dynamik des Aktienkurses eines bestimmten Unternehmens widerspiegeln (Geldeinheiten):

Tabelle 6.2

Entscheidung. Der Versuch, für eine gegebene Zeitreihe ein adäquates Modell der Form (6.7) mit linearem oder polynomiellem Trend auszuwählen, erweist sich als nutzlos.

Die gefundene Regressionsgleichung ist nach dem /'-Kriterium auf dem 5%-Niveau signifikant, da der tatsächlich beobachtete Wert der Statistik F= 24,32 > /o,05;1;19 = 4,35. Es kann gezeigt werden (z. B. unter Verwendung des Durbin-Watson-Kriteriums) (siehe unten, § 7.7)), dass Störungen (Fehler) z f in diesem Modell erfüllen sie die Bedingungen des klassischen Modells, und die von uns bereits untersuchten Methoden können verwendet werden, um eine Vorhersage zu treffen.

Berechnungen ähnlich Beispiel 6.3 ergeben eine Punktvorhersage nach Gleichung (6.13):

und Intervall auf einem Signifikanzniveau von 0,05 für die Durchschnitts- und Einzelwerte -

Also, mit einer Zuverlässigkeit von 0,95, der durchschnittliche Wert des Aktienkurses dieses Unternehmens im Moment t= 23 liegt im Bereich von 1046,6 bis 1341,6 (den. Einheiten) und sein individueller Wert - von 879,1 bis 1509,1 (den. Einheiten). ?

Neben autoregressiven Zeitreihenmodellen berücksichtigt auch die Ökonometrie gleitende Durchschnittsmodelle*, wobei der simulierte Wert durch eine lineare Funktion von Störungen (Fehlern) zu früheren Zeiten gegeben ist.

Modell der gleitenden durchschnittlichen Q-Vo-Bestellung(oder Modell MA()), hat die Form:

Die Ökonometrie verwendet auch kombinierte Zeitreihenmodelle AR und MA.

Zum Abschluss dieses Kapitels stellen wir fest, dass die Verwendung geeigneter autoregressiver Modelle zur Vorhersage von Wirtschaftsindikatoren, d.h. automatische Vorhersage anhand der betrachteten Modelle sehr effektiv (in der Regel kurzfristig) sein kann.

Übungen

Die Beispiele 6.6–6.8 haben die folgenden Ertragsdaten für Winterweizen y,(c/ha) für 10 Jahre:

  • 6.6. Finden Sie den Mittelwert, die Standardabweichung und die Autokorrelationskoeffizienten (für Lags m = 1; 2) der Zeitreihe.
  • 6.7. Finden Sie die Trendgleichung von Zeitreihen y h unter der Annahme, dass es linear ist, und testen Sie seine Signifikanz auf dem Niveau von 0,05.
  • 6.8. Zeitreihenglättung durchführen y, Methode des gleitenden Durchschnitts unter Verwendung eines einfachen arithmetischen Durchschnitts mit einem Glättungsintervall: a) t= 3; b) t= 5.
  • 6.9. Die Tabelle enthält Daten, die die Dynamik des Wachstums des Pro-Kopf-Einkommens widerspiegeln und t(den. Einheiten) für einen Zeitraum von acht Jahren:

Das Modell des gleitenden Durchschnitts geht davon aus, dass sich Informationen über die gesamte Historie der Reihe in den Fehlern des Modells in früheren Perioden konzentrieren. In diesem Modell ist jeder neue Wert der Durchschnitt zwischen der aktuellen Schwankung und mehreren (insbesondere einem) vorherigen Fehler.

Gleitende Durchschnittsmodelle der Ordnung q, bezeichnet CC(q), in der englischen Literatur MA(q) (Moving-Average-Modelle), sieht aus wie:

y t = e t - q 1 e t -1 - q 2 e t -2 -…- q q e t - q , (3.14)

wo e t - " Weißes Rauschen".

Die Modelle des 1. gleitenden Durchschnitts sind in der statistischen Praxis weit verbreitet. (q= 1) und zweiter Ordnung (q= 2):

MA(1): y t \u003d e t - q e t -1 ; (3.15)

MA(2): y t \u003d e t - q 1 e t -1 - q 2 und t -2 . (3.16)

Betrachten Sie ein gleitendes Durchschnittsmodell 1. Ordnung - MA(ein). Transformieren wir (3.15), indem wir sukzessive ausdrücken e t –1 , e t –2 , e t –3 usw.:

e t = y t + q e t -1= y t + q (y t -1 - q e t -2) = y t + q y t -1

+ q 2 (y t -2 + q e t -3) = y t + q y t -1+ q 2 y t -2 + q 3 (y t -3 + q e t -4) =

= y t + q y t -1+ q 2 y t -2 + q 3 y t -3 + …

Dieser Ausdruck kann umgeschrieben werden als:

y t = e t -. (3.17)

Also eine Zahl bei t, generiert durch das Modell MA(1) kann auch als autoregressives Modell unendlicher Ordnung dargestellt werden. In gleitenden Durchschnittsmodellen MA(q) müssen die Parameter nicht eingeschränkt werden q 1 , q 2 , ..., q q um die Stationarität der Reihe zu gewährleisten. Wenn jedoch im MA(1)-Modell der Parameter q im Absolutwert größer oder gleich 1 ist, dann der aktuelle Wert bei t nach (3.17) von seinen Vergangenheitswerten ab yt-1, yt-2, ..., genommen mit Gewichten, die unendlich zunehmen, wenn Sie sich in die Vergangenheit zurückbewegen. Um dies zu vermeiden, ist es notwendig, dass die Gewichte in (6.21) eine konvergente Reihe bilden, d.h. zu | q | < 1.

Beachten Sie, dass dies genauso wie die Reihe ist, die vom Modell des gleitenden Durchschnitts erster Ordnung generiert wird MA(1) kann als autoregressives Modell unendlicher Ordnung dargestellt werden AR(¥) gibt es auch eine Darstellung A R(1) als MA(¥). Gleichzeitig die Prozessparameter AR(p) werden keine Bedingungen für die Umkehrbarkeit dieses Prozesses gestellt. Aber für die Stationarität des Prozesses müssen die Wurzeln seiner charakteristischen Gleichung außerhalb des Einheitskreises liegen. Gleichzeitig Prozessparameter MA(q) muss keine Bedingungen für Stationarität erfüllen, jedoch für Reversibilität, die Wurzeln seiner charakteristischen Gleichung

1 - q 1 z - q 2 z 2 - ... - q q z q = 0.= 0

muss außerhalb des Einheitskreises liegen.

Finden Sie einen Ausdruck für die ACF des Prozesses MA(q). Stellen wir uns dazu vor y t-k in Form der Beziehung (3.14):

y t - k = e t - k - q 1 e t - k -1 - q 2 e t - k -2 -…- q q e t - k - q. (3.18)

Wir multiplizieren die linke und rechte Seite der Gleichungen (6.18) bzw. (6.22) und nehmen dann den mathematischen Erwartungswert des resultierenden Ausdrucks. In diesem Fall sollte berücksichtigt werden, dass die Elemente weißes Rauschen sind e t 1 und e t 2 korrelieren nicht mit t1 ¹ t2.


Dann der Ausdruck für die Kovarianz M(y t y t - t) = g( t) nimmt die Form an:

Die ACF erhält man, indem man (3.19) durch die Varianz des Prozesses g(0) dividiert:

Somit ist die ACF des Prozesses MA(q) ist für alle Werte Null t, Großauftrag q. Dies ist eine wichtige charakteristische Eigenschaft des Modells.

In der Praxis wird am häufigsten ein Sonderfall des Modells verwendet - das gleitende Durchschnittsmodell 1. Ordnung MA(1):

y t \u003d e t - q e t -1

wo e t- "Weißes Rauschen".

Wie bereits gezeigt wurde, gilt für die Reversibilität des Prozesses die Bedingung | q | < 1.

Es ist klar, dass M(bei t) = 0; D(und t) = .

ACF nach (3.20) wird durch den Ausdruck bestimmt

CHAKF r h(t) ist gegeben durch

Das Verhalten der FACF wird durch den abklingenden Exponenten bestimmt. Wenn der Wert r(1) positiv ist, dann der Parameter< 0, следовательно, r h(t) schwingt mit variablem Vorzeichen. Wenn der Wert von r(1) negativ ist, dann ist der Parameter > 0, also alle Werte r h(t) sind negativ.

Die erwähnten Eigenschaften von Modellen des gleitenden Durchschnitts erlauben es uns, Folgendes zu formulieren praktische Ratschläge durch ihre Identifikation.

Für MA(1)-Modelle:

Die Autokorrelationsfunktion hat einen Ausreißer (Peak) bei einer Verzögerung von 1, und die verbleibenden Werte sind statistisch unbedeutend;

Die partielle Autokorrelationsfunktion fällt exponentiell (entweder monoton oder oszillierend, d.h. mit wechselndem Vorzeichen) ab.

Für MA(2)-Modelle:

die Autokorrelationsfunktion hat Ausreißer (Peaks) bei Verzögerungen von 1 und 2, und die verbleibenden Werte sind statistisch unbedeutend;

Die partielle Autokorrelationsfunktion hat die Form einer Sinuskurve oder fällt exponentiell ab.

In der Praxis kann das Modell zur klaren Beschreibung des analysierten wirtschaftlichen Prozesses sowohl Terme enthalten, die autoregressive Komponenten beschreiben, als auch Terme, die den Rest in Form eines gleitenden Durchschnittsprozesses modellieren. Ein solcher Vorgang wird aufgerufen - ARSS (p, q) oder, wie es in der englischen Literatur üblich ist, AutoRegressive-Moving Average (ARMA (p, q)). Optionen R und q bestimmen die Reihenfolge der autoregressiven Komponente bzw. die Reihenfolge der gleitenden Durchschnitte.

Modell ARMA(p, q) sieht aus wie:

y t \u003d a 1 y t -1 + a 2 y t -2 + ...+a p y t - p + e p - q 1 e t -1 - q 2 e t -2 -…- q q e t - q . (3.23)

Ein solches Modell kann als lineare multiple Regression interpretiert werden. Die erklärenden Variablen darin sind die vorherigen Werte der am stärksten abhängigen Variablen, und der Regressionsrest sind die gleitenden Durchschnitte der Elemente des weißen Rauschens.

Damit der Prozess (3.23) stationär ist, ist es notwendig und ausreichend, dass alle Wurzeln der charakteristischen Gleichung AR(p)-npcess lag außerhalb des Einheitskreises:

1 - ein 1 z - ein 2 z 2 - ... - ein p z p = 0. (3.24)

Damit der Prozess (3.23) reversibel ist, ist es in ähnlicher Weise notwendig und ausreichend, dass alle Nullstellen der charakteristischen Gleichung des Prozesses MA( q) liegen außerhalb des Einheitskreises:

1 - ein 1 z - ein 2 z 2 - ... - ein q z q = 0 (3.25)

Der einfachste ARMA(1,1)-Mischprozess:

y t \u003d a 1 y t -1 + e p - q 1 e t -1 (3.26)

Diese Gleichung kann umgewandelt werden in:

y t + a 1 y t -1 = e p - q 1 e t -1 (3.27)

Die Stationarität des ARMA(1,1)-Prozesses wird durch die Bedingung | sichergestellt a| < 1, а обратимость, в свою очередь, гарантируется выполнением условия |q| <1.

Autokovarianzfunktionen des ARMA(1,1)-Prozesses:

g(0) = , (3.28)

g(1) = . (3.29)

Der Wert der Autokovarianzfunktion für die Verzögerung t größer als 1 wird durch die folgende Wiederholungsbeziehung bestimmt:

g(t) = ein g(t-1) bei t > 1. (3.30

Daher werden die ACF-Werte aussehen

r(1) = (3.31)

r(t) = ein r(t-1) = ein t -1 r(1) bei t> 1. (3.32)

Aus (3.31), (3.32) ist ersichtlich, dass zwar der Ausdruck für r(1) unterschiedlich von dem entsprechenden Prozessausdruck AR(1), das Verhältnis zwischen r(1) und nachfolgende Werte ACF das gleiche. Also zum Ablauf ARMA(1,1) Werte ACF nimmt exponentiell vom Wert ab r(1), und wenn a positiv ist, dann ist es monoton, wenn es negativ ist, dann ist es vorzeichenwechselnd.

Verhalten CHAKF durch Anfangswert bestimmt r h(1), danach nimmt die Funktion exponentiell ab. Wenn ein q positiv ist, dann fällt die Funktion monoton, wenn negativ, dann fällt sie vorzeichenwechselnd.

Studien zeigen, dass das Modell bei wirtschaftlichen Problemen verwendet wird ARMA(p, q), Die Bedürfnisse der Praxis werden in der Regel durch die folgenden fünf Typen dieses Modells befriedigt, die in der Tabelle dargestellt sind.

Eigenschaften der Autokorrelation (AKF)

und partielle Autokorrelation (CHAKF) Funktionen

Habe Fragen?

Tippfehler melden

Text, der an unsere Redaktion gesendet werden soll: