Ist Bewegend Durchschnittlich Stationär

Betrachten Sie die unendliche Ordnung MA Prozess definiert durch yt epsilont ein epsilon epsilon, wo a ist eine Konstante und die epsilont s sind iid N 0, v zufällige variabel. Was ist der beste Weg zu zeigen, dass yt ist nichtstationary Ich weiß, dass ich aussehen müssen An den charakteristischen Wurzeln der charakteristischen Polynome und dann beurteilen, ob sie außerhalb des Einheitskreises sind oder nicht, aber was ist der beste Weg, um dieses Problem zu nähern Sollte ich versuchen, die unendliche Ordnung MA-Prozess als endlichen Ordnung AR-Prozess umzuschreiben oder ist es Einfacher zu arbeiten der MA process. asked Okt 19 13 bei 21 11.Was sind stationäre autoregressive AR, gleitende durchschnittliche MA und stationäre gemischte ARMA-Prozesse. Stationäre autoregressive AR-Prozess Stationäre autoregressive AR-Prozesse haben theoretische Autokorrelationsfunktionen ACFs, die auf Null abfallen Vom Abschneiden auf Null Die Autokorrelationskoeffizienten können häufig im Zeichen wechseln oder ein wellenartiges Muster zeigen, aber in allen Fällen schneiden sie gegen Null ab. Im Gegensatz dazu verläuft AR Ses mit Ordnung p haben theoretische partielle Autokorrelationsfunktionen PACF, die nach Verzögerung auf Null abschneiden. Die Verzögerungslänge der endgültigen PACF-Spitze entspricht der AR-Reihenfolge des Prozesses, p Verschieben des durchschnittlichen MA-Prozesses Die theoretischen ACFs von MA bewegten durchschnittlichen Prozessen mit der Ordnung q Abgeschnitten auf Null nach der Verzögerung q, die MA-Reihenfolge des Prozesses Allerdings zerfallen ihre theoretischen PACFs auf Null Die Verzögerungslänge der endgültigen ACF-Spitze entspricht der MA-Ordnung des Prozesses, q Stationäres gemischtes ARMA-Verfahren Stationäre gemischte ARMA-Prozesse zeigen eine Mischung Von AR - und MA-Merkmalen Sowohl das theoretische ACF als auch das PACF-Heck in Richtung Null. Copyright 2016 Minitab Inc Alle Rechte vorbehalten. Eine kurze Einführung in die moderne Zeitreihe. Definition Eine Zeitreihe ist eine zufällige Funktion xt eines Arguments t in einem Satz T Mit anderen Worten, eine Zeitreihe ist eine Familie von Zufallsvariablen x t-1 xtxt 1, die allen Elementen in der Menge T entspricht, wobei T eine abzählbare, unendliche Menge sein soll. Definition Eine beobachtete Zeit seri Es tt T o T gilt als Teil einer Realisierung einer zufälligen Funktion xt Ein unendlicher Satz möglicher Realisierungen, die man beobachten könnte, heißt Ensemble. Um die Dinge rigoroser zu machen, ist die Zeitreihe oder die zufällige Funktion eine echte Funktion Xw, t der beiden Variablen w und t, wobei wW und t T Wenn wir den Wert von w festlegen, haben wir eine reelle Funktion xtw der Zeit t, die eine Realisierung der Zeitreihe ist Wenn wir den Wert von t festlegen, Dann haben wir eine zufällige Variable xwt Für einen gegebenen Zeitpunkt gibt es eine Wahrscheinlichkeitsverteilung über x So kann eine zufällige Funktion xw, t entweder als eine Familie von zufälligen Variablen oder als eine Familie von Realisierungen betrachtet werden. Drosselung Wir definieren die Verteilungsfunktion Der zufälligen Variablen w mit t 0 als P oxx Ähnlich können wir die gemeinsame Verteilung für n zufällige Variablen definieren. Punkte, die die Zeitreihenanalyse von gewöhnlichen statistischen Analysen unterscheiden, sind die folgenden 1 Die Abhängigkeit von Beobachtungen an verschiedenen Chronomen Gary-Punkte in der Zeit spielt eine wesentliche Rolle Mit anderen Worten, die Reihenfolge der Beobachtungen ist wichtig In der gewöhnlichen statistischen Analyse wird davon ausgegangen, dass die Beobachtungen voneinander unabhängig sind 2 Der Bereich von t ist unendlich 3 Wir müssen aus einer Realisierung eine Verwirklichung machen Der zufälligen Variablen kann nur einmal zu jedem Zeitpunkt beobachtet werden In der multivariaten Analyse haben wir viele Beobachtungen auf einer endlichen Anzahl von Variablen Dieser kritische Unterschied erfordert die Annahme der Stationarität. Definition Die zufällige Funktion xt heißt streng streng stationär, wenn alle Endliche dimensionale Verteilungsfunktionen, die xt definieren, bleiben gleich, auch wenn die ganze Gruppe von Punkten t 1 t 2 tn entlang der Zeitachse verschoben wird. Wenn also für irgendwelche ganzzahligen t 1 t 2 tn und k grafisch man die Realisierung darstellen könnte Eine streng stationäre Serie, die nicht nur die gleiche Stufe in zwei verschiedenen Intervallen hat, sondern auch die gleiche Verteilungsfunktion bis hin zu den Parametern Die es definieren Die Annahme der Stationarität macht unser Leben einfacher und weniger kostspielig Ohne Stationarität müssten wir den Prozeß zu jedem Zeitpunkt häufig abtasten, um eine Charakterisierung der Verteilungsfunktionen in der früheren Definition aufzubauen. Stationarität bedeutet, dass wir uns beschränken können Aufmerksamkeit auf einige der einfachsten numerischen Funktionen, dh die Momente der Verteilungen Die zentralen Momente sind gegeben durch Definition i Der Mittelwert der Zeitreihe t ist also das Moment der ersten Ordnung ii Die Autokovarianzfunktion von t ist im zweiten Moment Über die mittlere Wenn ts dann haben Sie die Varianz von xt Wir verwenden, um die Autokovarianz einer stationären Reihe zu bezeichnen, wobei k die Differenz zwischen t und s iii bezeichnet. Die Autokorrelationsfunktion ACF von t ist. Wir verwenden, um die Autokorrelation von zu bezeichnen Eine stationäre Reihe, wobei k die Differenz zwischen t und s iv bezeichnet. Die partielle Autokorrelation PACF f kk ist die Korrelation zwischen zt und ztk nach removei Ng ihre gegenseitige lineare Abhängigkeit von den dazwischen liegenden Variablen zt 1 zt 2 zt k-1 Ein einfacher Weg, um die partielle Autokorrelation zwischen zt und ztk zu berechnen, besteht darin, die beiden Regressionen zu führen. Sie berechnen die Korrelation zwischen den beiden Restvektoren oder nach der Messung der Variablen als Abweichungen von ihren Mitteln, kann die partielle Autokorrelation als der LS-Regressionskoeffizient auf zt im Modell gefunden werden. Dort, wo der Punkt über die Variable anzeigt, dass er als Abweichung von seinem Mittelwert v gemessen wird, geben die Yule-Walker-Gleichungen eine wichtige Rolle Beziehung zwischen den partiellen Autokorrelationen und den Autokorrelationen Multiplizieren Sie beide Seiten von Gleichung 10 mit zt kj und nehmen Sie Erwartungen Diese Operation gibt uns die folgende Differenzgleichung in den Autokovarianzen. or, in Bezug auf die Autokorrelationen. Diese scheinbar einfache Darstellung ist wirklich ein mächtiges Ergebnis , Für j 1,2 k können wir das volle Gleichungssystem schreiben, das als die Yule-Walker-Gleichungen bekannt ist. Aus der linearen Algebra k Jetzt, da die Matrix von rs von voller Rang ist daher ist es möglich, Cramer s Regel sukzessive für k 1,2 anzuwenden, um das System für die partiellen Autokorrelationen zu lösen Die ersten drei sind Wir haben drei wichtige Ergebnisse auf streng stationäre Serie. Die Implikation ist Dass wir jede endliche Realisierung der Sequenz verwenden können, um die mittlere Sekunde zu schätzen, wenn t streng stationär ist und E t 2 dann ist. Implizit ist, dass die Autokovarianz nur von der Differenz zwischen t und s abhängt, nicht von ihrem chronologischen Zeitpunkt in der Zeit Benutze jedes Paar von Intervallen bei der Berechnung der Autokovarianz, solange die Zeit zwischen ihnen konstant war. Und wir können jede endliche Verwirklichung der Daten verwenden, um die Autokovarianzen zu schätzen Drittens ist die Autokorrelationsfunktion bei einer strengen Stationarität gegeben durch Implikation ist, dass die Autokorrelation nur von der Differenz zwischen t und s abhängt, und wieder können sie durch eine endliche Realisierung der Daten geschätzt werden. Wenn unser Ziel ist Schätzung von Parametern, die die möglichen Realisierungen der Zeitreihen beschreiben, dann ist vielleicht eine strenge Stationarität zu restriktiv. Wenn zum Beispiel der Mittelwert und die Kovarianzen von xt konstant und unabhängig vom chronologischen Zeitpunkt sind, dann ist es vielleicht nicht wichtig für uns Dass die Verteilungsfunktion für verschiedene Zeitintervalle gleich ist. Definition Eine zufällige Funktion ist im weiten Sinne stationär oder schwach stationär oder stationär in Khinchins Sinn oder Kovarianz stationär, wenn m 1 tm und m 11 t, s. Strict Stationarität tut Nicht an sich implizieren schwache stationärität Schwache stationärität bedeutet nicht strenge stationärität Strenge stationäre mit e t 2 impliziert schwache stationäre. Ergodische Theoreme beschäftigen sich mit der Frage nach den notwendigen und hinreichenden Bedingungen, um aus einer einzigen Realisierung einer Zeitreihe zu kommen. Grundsätzlich kocht es Bis hin zur schwachen stationären Station. Wenn t schwach stationär ist mit mittlerer und kovarianzfunktion, dann ist das Ist für irgendwelche e 0 und h 0 gibt es eine gewisse Anzahl T o, so dass für alle TT o genau dann, wenn. Diese notwendige und hinreichende Bedingung ist, dass die Autokovarianzen aussterben, in welchem ​​Fall die Stichprobe bedeutet eine konsistente Schätzung für Die Bevölkerung bedeutet. Kollegen Ist t schwach stationär mit E tkxt 2 für jedes t, und E tkxtxtskxts ist unabhängig von t für irgendeine ganze Zahl s, dann. if und nur wenn wo. A eine Folge der Korollar ist die Annahme, dass xtxtk schwach ist Stationär Das Ergodische Theorem ist nicht mehr als ein Gesetz von großer Zahl, wenn die Beobachtungen korreliert sind. Man könnte an dieser Stelle über die praktischen Implikationen der Stationarität fragen. Die häufigste Anwendung der Verwendung von Zeitreihentechniken ist die Modellierung makroökonomischer Daten sowohl theoretisch als auch Atheoretisch Als Beispiel für das erstere könnte man ein Multiplikator-Beschleuniger-Modell haben Für das Modell, das stationär sein soll, müssen die Parameter bestimmte Werte haben. Ein Test des Modells ist dann, um die relevanten d zu sammeln Ata und schätzen die Parameter Wenn die Schätzungen nicht mit der Stationarität übereinstimmen, dann muss man entweder das theoretische Modell oder das statisticla-Modell oder beides überdenken. Wir haben jetzt genügend Maschinen, um über die Modellierung von univaraten Zeitreihendaten zu sprechen. Es gibt vier Schritte in den Prozess 1 Bauprogramme aus theoretischen und oder erfahrungswissenden 2 identifizierende Modelle auf der Grundlage der Daten beobachteten Serie 3 Anpassung der Modelle Schätzung der Parameter des Modells s 4 Überprüfung des Modells Wenn im vierten Schritt sind wir nicht erfüllt Wir kehren zum Schritt zurück Einer Der Prozess ist iterativ, bis eine weitere Überprüfung und Respecification keine weitere Verbesserung der Ergebnisse liefert schematisch. Definition Einige einfache Operationen umfassen die folgenden den Backshift-Operator Bx tx t-1 Der Vorwärtsoperator Fx txt 1 Der Differenzoperator 1 - B xtxt - x t - 1 Der Unterschiedsoperator verhält sich in einer Weise, die mit der Konstanten in einer unendlichen Reihe übereinstimmt. Das ist, seine Umkehrung ist die Grenze von Eine unendliche Summe, nämlich -1 1-B -1 1 1-B 1 BB 2 Der Integrationsoperator S -1 Da es sich um den Inversen des Differenzoperators handelt, dient der Integrationsoperator dazu, die Summe zu bilden. MODELBAU In diesem Abschnitt sind wir Bieten einen kurzen Überblick über die gebräuchlichste Art von Zeitreihenmodellen Auf der Grundlage eines Wissens über den Datenerzeugungsprozess entnimmt man eine Klasse von Modellen zur Identifikation und Schätzung aus den folgenden Möglichkeiten. Abschlüsselung Angenommen, Ex tm ist unabhängig von t Ein Modell wie bei den Merkmalen heißt das autoregressive Modell der Ordnung p, AR p. Efinition Wenn ein zeitabhängiger variabler stochastischer Prozeß t genügt, so gilt t die Markov-Eigenschaft. Auf der LHS ist die Erwartung auf die unendliche Geschichte gerichtet Von xt Auf der RHS ist es nur auf einen Teil der Geschichte konditioniert Von den Definitionen wird ein AR p-Modell gesehen, um die Markov-Eigenschaft zu befriedigen Mit dem Backshift-Operator können wir unser AR-Modell als Theorem A schreiben und genügend schreiben Nt Bedingung für das AR-Modell ist stationär, dass alle Wurzeln des Polynoms außerhalb des Einheitskreises liegen. Beispiel 1 Betrachten Sie die AR 1 Die einzige Wurzel von 1 - f 1 B 0 ist B 1 f 1 Die Bedingung für Die Stationarität verlangt dies. Wenn dann die beobachtete Reihe sehr frenetisch erscheinen wird, wenn der weiße Rauschbegriff eine normale Verteilung mit einer Null-Mittelzahl und eine Varianz von Eins hat. Die Beobachtungen wechseln mit fast jeder Beobachtung ein. Wenn auf der anderen Seite Hand, dann wird die beobachtete Reihe viel glatter sein. In dieser Reihe neigt eine Beobachtung dazu, über 0 zu sein, wenn ihr Vorgänger über Null war. Die Varianz von et ist se 2 für alle t Die Varianz von xt, wenn es null hat, ist gegeben durch Da die Serie stationär ist, können wir also schreiben. Die Autokovarianzfunktion einer AR-1-Serie ist, ohne Verlust der Allgemeinheit m 0 zu sehen. Um zu sehen, was das in den AR-Parametern aussieht, werden wir von der Tatsache Gebrauch machen, dass wir können Schreiben Sie xt wie folgt. Multiping durch x tk und nehmen expec Tations. Hinweis, dass die Autokovarianzen aussterben als k wächst Die Autokorrelationsfunktion ist die Autokovarianz geteilt durch die Varianz des weißen Rauschbegriffs oder unter Verwendung der früheren Yule-Walker-Formeln für die partiellen Autokorrelationen, die wir haben. Für eine AR 1 sterben die Autokorrelationen aus Exponentiell und die partiellen Autokorrelationen zeigen eine Spike bei einer Verzögerung und sind danach Null. Beispiel 2 Betrachten Sie die AR 2 Das zugehörige Polynom im Lagoperator ist. Die Wurzeln konnten mit der quadratischen Formel gefunden werden. Die Wurzeln sind. Wenn die Wurzeln real sind und Infolgedessen wird die Reihe exponentiell in Reaktion auf einen Schock abnehmen Wenn die Wurzeln komplex sind und die Reihe als gedämpfte Zeichenwelle erscheinen wird. Das Stationaritätssatz setzt die folgenden Bedingungen auf die AR-Koeffizienten auf. Die Autokovarianz für einen AR 2 - Prozeß mit Null gemein ist. Die Durchdringung durch die Varianz von xt gibt die Autokorrelationsfunktion Da können wir schreiben Ähnlich für die zweite und dritte Autokorrelationen. Die andere Autokorrelationen werden rekursiv gelöst. Ihr Muster wird durch die Wurzeln der linearen Differenzengleichung zweiter Ordnung bestimmt. Wenn die Wurzeln real sind, werden die Autokorrelationen exponentiell abnehmen. Wenn die Wurzeln komplex sind, erscheinen die Autokorrelationen als gedämpfte Sinuswelle mit dem Yule-Walker Gleichungen, die partiellen Autokorrelationen sind. Die Autokorrelationen sterben langsam aus Die partielle Autokorrelation auf der anderen Seite ist ganz unverwechselbar Es hat Spikes bei ein und zwei Verzögerungen und ist danach null. orem Wenn xt ein stationärer AR p-Prozess ist, dann kann es sein Äquivalent als lineares Filtermodell geschrieben Das heißt, das Polynom im Backshift-Operator kann invertiert werden und das AR p als gleitender Durchschnitt der unendlichen Reihenfolge stattdessen geschrieben werden. Beispiel Angenommen, zt ist ein AR 1 - Verfahren mit Null-Mittel Was gilt für den Strom Periode muss auch für vorherige Perioden wahr sein. Durch rekursive Substitution können wir schreiben. Square beides und nehmen Erwartungen. Die rechte Seite verschwindet als K seit f 1 Darum konvergiert die Summe in qutratischen Mitteln zu zt. Wir können das AR p-Modell als linearen Filter umschreiben, das wir als stationär kennen. Die Autokorrelationsfunktion und die partielle Autokorrelation nehmen voraus, dass eine stationäre Serie zt mit mittlerem Null bekannt ist Autoregressiv Die Autokorrelationsfunktion eines AR p wird gefunden, indem man Erwartungen anlegt und sich durch die Varianz von z t teilt. Dies sagt uns, dass rk eine lineare Kombination der vorherigen Autokorrelationen ist. Wir können dies bei der Anwendung von Cramer s Regel auf i verwenden Bei der Lösung für fkk Insbesondere können wir sehen, dass diese lineare Abhängigkeit f kk 0 für kp verursacht. Diese Unterscheidungskraft von autoregressiven Serien wird sehr nützlich sein, wenn es um die Identifizierung einer unbekannten Serie geht. Wenn du entweder MathCAD oder MathCAD Explorer hast Sie können interactivley mit einigen der AR p Ideen vorstellen, die hier vorgestellt werden. Moving Average Models Betrachten Sie ein dynamisches Modell, in dem die Reihe von Interesse nur von irgendeinem Teil von t abhängt Er Geschichte des weißen Rauschbegriffs Schematisch könnte dies als Definition dargestellt werden. Angenommen, at ist eine unkorrelierte Folge von iid zufälligen Variablen mit null mittlerer und endlicher Varianz Dann wird ein gleitender durchschnittlicher Prozeß der Ordnung q, MA q gegeben durch Theorem A bewegt Durchschnittlicher prozeß ist immer stationärer Proof Anstatt mit einem allgemeinen Beweis zu beginnen, werden wir es für einen bestimmten Fall tun Angenommen, dass zt ist MA 1 Dann Natürlich hat bei null mittlere und endliche Varianz Der Mittelwert von zt ist immer null Die Autokovarianzen werden gegeben By. Sie können sehen, dass der Mittelwert der zufälligen Variablen nicht auf die Zeit in irgendeiner Weise abhängt Sie können auch sehen, dass die Autokovarianz nur von dem Offset s abhängt, nicht auf wo in der Serie, die wir starten Wir können das gleiche Ergebnis allgemeiner beweisen Durch anfangen, die die abwechselnd gleitende durchschnittliche repräsentation hat Betrachten wir zuerst die Varianz von z t. By rekursive Substitution können Sie zeigen, dass dies gleich ist. Die Summe, die wir kennen, um eine konvergente Reihe zu sein, so ist die Varianz f Inite und ist unabhängig von der Zeit Die Kovarianzen sind zum Beispiel. Sie können auch sehen, dass die Auto-Kovarianzen nur von den relativen Zeitpunkten abhängen, nicht von dem chronologischen Punkt in der Zeit. Unsere Schlussfolgerung aus all dem ist, dass ein MA-Prozess stationär ist General MA q verarbeitet die Autokorrelationsfunktion ist gegeben durch. Die partielle Autokorrelationsfunktion wird gleichmäßig aussterben Sie können dies sehen, indem Sie den Prozess invertieren, um einen AR Prozess zu erhalten. Wenn Sie entweder MathCAD oder MathCAD Explorer haben, können Sie interaktiv mit einigen der MA q Ideen präsentiert hier. Mixed Autoregressive - Moving Average Models. Definition Angenommen, an ist eine unkorrelierte Folge von iid zufällige Variablen mit null Mittelwert und endliche Varianz Dann wird ein autoregressiver, gleitender durchschnittlicher Prozess der Ordnung p, q, ARMA p, q gegeben Durch die Wurzeln des autoregressiven Operators müssen alle außerhalb des Einheitskreises liegen Die Anzahl der Unbekannten ist pq 2 Die p und q sind offensichtlich Die 2 enthält die Ebene des Prozesses, m und th E Varianz des weißen Rauschbegriffs, sa 2. Nehmen wir an, dass wir unsere AR - und MA-Darstellungen so kombinieren, dass das Modell ist und die Koeffizienten normalisiert werden, so dass bo 1 Dann wird diese Darstellung als ARMA p bezeichnet, q wenn die Wurzeln von 1 Alle liegen außerhalb des Einheitskreises Angenommen, dass die yt als Abweichungen vom Mittelwert gemessen werden, so dass wir ao fallen können, dann wird die Autokovarianzfunktion aus. if jq abgeleitet, dann die MA-Ausdrücke fallen in Erwartung zu geben. Das heißt, die Autokovarianzfunktion sieht aus Wie eine typische AR für Lags nach q sie sterben glatt nach q, aber wir können nicht sagen, wie 1,2, q wird aussehen Wir können auch die PACF für diese Klasse von Modell Das Modell kann geschrieben werden wie. Wir können dies schreiben Als ein MA-Inf-Prozess. Das schlägt vor, dass die PACFs langsam mit irgendeiner Arithmetik aussterben, was wir erst zeigen können, dass dies nur nach den ersten P-Spikes des AR-Teils geschieht. Empirisches Gesetz In Wirklichkeit kann eine stationäre Zeitreihe gut dargestellt werden P 2 und q 2 Wenn Ihr Unternehmen zu bieten ist Eine gute Annäherung an die Realität und die Güte der Passform ist Ihr Kriterium dann ist ein verschwenderisches Modell bevorzugt Wenn Ihr Interesse prädiktive Effizienz ist, dann ist das sparsame Modell bevorzugt. Experiment mit den ARMA Ideen, die oben mit einem MathCAD Arbeitsblatt vorgestellt. Autoregressive Integrieren Moving Average Models. MA Filter AR-Filter integrieren filter. Sometimes der Prozess, oder Serie, die wir versuchen zu modellieren ist nicht stationär in Ebenen Aber es könnte stationär sein, sagen, erste Unterschiede Das heißt, in seiner ursprünglichen Form die Autokovarianzen für die Serie nicht unabhängig sein könnte Des chronologischen Zeitpunktes Wenn wir aber eine neue Serie konstruieren, die die ersten Unterschiede der Originalreihe ist, so genügt diese neue Serie der Definition der Stationarität. Dies ist oft der Fall bei ökonomischen Daten, die stark trended sind. Definition Angenommen, das zt ist Nicht stationär, aber zt - z t-1 erfüllt die Definition der Stationarität Auch bei dem weißen Rauschbegriff hat endlich Mittelwert und Varianz Wir können schreiben Das Modell as. This heißt ein ARIMA p, d, q Modell p identifiziert die Reihenfolge des AR-Operators, d identifiziert die Macht auf q identifiziert die Reihenfolge des MA-Operators Wenn die Wurzeln von f B außerhalb des Einheitskreises liegen, dann sind wir Kann die ARIMA p, d, q als linearen Filter umschreiben. E e kann man als MA schreiben. Wir behalten uns die Diskussion über die Erkennung von Einheitswurzeln für einen anderen Teil der Vorlesungsunterlagen vor. Betrachten Sie ein dynamisches System mit xt als Eingangsreihe Und yt als eine Ausgangsserie schematisch wir haben. Diese Modelle sind eine diskrete Analogie der linearen Differentialgleichungen Wir nehmen die folgende Beziehung an. wo b zeigt eine reine Verzögerung Rückruf, dass 1-B Diese Substitution kann das Modell geschrieben werden. Wenn das Koeffizienten-Polynom On yt kann umgekehrt werden, dann kann das Modell geschrieben werden als. VB ist bekannt als die Impulsantwort Funktion Wir werden über diese Terminologie wieder in unserer späteren Diskussion über Vektor autoregressive Kointegration und Fehlerkorrektur Modelle. MODEL IDENTIFIKATION zu entscheiden, zu entscheiden D auf einer Klasse von Modellen, muss man nun die Reihenfolge der Prozesse identifizieren, die die Daten erzeugen. Das heißt, man muss die besten Raten über die Reihenfolge der AR - und MA-Prozesse machen, die die stationäre Serie betreiben. Eine stationäre Serie ist vollständig durch ihren Mittelwert charakterisiert Und autocovariances Aus analytischen Gründen arbeiten wir in der Regel mit den Autokorrelationen und partiellen Autokorrelationen Diese beiden Grundwerkzeuge haben einzigartige Muster für stationäre AR - und MA-Prozesse. Man könnte Stichprobenschätzungen der Autokorrelations - und Teilautokorrelationsfunktionen berechnen und mit tabellierten Ergebnissen für Standardmodelle vergleichen Autokovarianz Funktion. Sample Autokorrelation Funktion. Die Probe Teil Autokorrelationen werden. Using die Autokorrelationen und Teilautokorrelationen ist ganz einfach im Prinzip Angenommen, wir haben eine Reihe zt mit Null Mittel, was ist AR 1 Wenn wir die Regression von zt 2 laufen würde Bei zt 1 und zt würden wir erwarten, dass der Koeffizient auf zt nicht von ze verschieden war Ro, da diese partielle Autokorrelation null sein sollte. Andererseits sollten die Autokorrelationen für diese Serie exponentiell abnehmen, um die Verzögerungen zu sehen, siehe das AR 1 Beispiel oben Angenommen, die Serie ist wirklich ein gleitender Durchschnitt. Die Autokorrelation sollte überall null sein, aber bei Die erste Verzögerung Die partielle Autokorrelation sollte exponentiell aussterben Auch aus unserem sehr flüchtigen Rummel durch die Grundlagen der Zeitreihenanalyse ist es offensichtlich, dass es eine Dualität zwischen AR - und MA-Prozessen gibt. Diese Dualität kann in der folgenden Tabelle zusammengefasst werden.


Comments