Friday, 3 November 2017

Moving Average Prozess Autokovarianz


2.1 Gleitende Durchschnittsmodelle (MA-Modelle) Zeitreihenmodelle, die als ARIMA-Modelle bekannt sind, können autoregressive Begriffe und gleitende Durchschnittsterme enthalten. In Woche 1 erlernten wir einen autoregressiven Term in einem Zeitreihenmodell für die Variable x t ist ein verzögerter Wert von x t. Beispielsweise ist ein autoregressiver Term der Verzögerung 1 x t-1 (multipliziert mit einem Koeffizienten). Diese Lektion definiert gleitende Durchschnittsterme. Ein gleitender Durchschnittsterm in einem Zeitreihenmodell ist ein vergangener Fehler (multipliziert mit einem Koeffizienten). Es sei n (0, sigma2w) überschritten, was bedeutet, daß die wt identisch unabhängig voneinander verteilt sind, jeweils mit einer Normalverteilung mit dem Mittelwert 0 und der gleichen Varianz. Das durch MA (1) bezeichnete gleitende Durchschnittsmodell der 1. Ordnung ist (xt mu wt theta1w) Das durch MA (2) bezeichnete gleitende Durchschnittsmodell der zweiten Ordnung ist (xt mu wt theta1w theta2w) Das gleitende Mittelmodell der q-ten Ordnung , Mit MA (q) bezeichnet, ist (xt mu wt theta1w theta2w dots thetaqw) Hinweis. Viele Lehrbücher und Softwareprogramme definieren das Modell mit negativen Vorzeichen vor den Begriffen. Dies ändert nicht die allgemeinen theoretischen Eigenschaften des Modells, obwohl es die algebraischen Zeichen der geschätzten Koeffizientenwerte und (nicht quadrierten) Ausdrücke in Formeln für ACFs und Abweichungen umwandelt. Sie müssen Ihre Software überprüfen, um zu überprüfen, ob negative oder positive Vorzeichen verwendet worden sind, um das geschätzte Modell korrekt zu schreiben. R verwendet positive Vorzeichen in seinem zugrunde liegenden Modell, wie wir hier tun. Theoretische Eigenschaften einer Zeitreihe mit einem MA (1) Modell Beachten Sie, dass der einzige Wert ungleich Null im theoretischen ACF für Verzögerung 1 ist. Alle anderen Autokorrelationen sind 0. Somit ist ein Proben-ACF mit einer signifikanten Autokorrelation nur bei Verzögerung 1 ein Indikator für ein mögliches MA (1) - Modell. Für interessierte Studierende, Beweise dieser Eigenschaften sind ein Anhang zu diesem Handout. Beispiel 1 Angenommen, dass ein MA (1) - Modell x t 10 w t .7 w t-1 ist. Wobei (wt overset N (0,1)). Somit ist der Koeffizient 1 0,7. Die theoretische ACF wird durch eine Plot dieser ACF folgt folgt. Die graphische Darstellung ist die theoretische ACF für eine MA (1) mit 1 0,7. In der Praxis liefert eine Probe gewöhnlich ein solches klares Muster. Unter Verwendung von R simulierten wir n 100 Abtastwerte unter Verwendung des Modells x t 10 w t .7 w t-1, wobei w t iid N (0,1) war. Für diese Simulation folgt ein Zeitreihen-Diagramm der Probendaten. Wir können nicht viel von dieser Handlung erzählen. Die Proben-ACF für die simulierten Daten folgt. Wir sehen eine Spitze bei Verzögerung 1, gefolgt von im Allgemeinen nicht signifikanten Werten für Verzögerungen nach 1. Es ist zu beachten, dass das Beispiel-ACF nicht mit dem theoretischen Muster des zugrunde liegenden MA (1) übereinstimmt, was bedeutet, dass alle Autokorrelationen für Verzögerungen nach 1 0 sein werden Eine andere Probe hätte eine geringfügig unterschiedliche Probe ACF wie unten gezeigt, hätte aber wahrscheinlich die gleichen breiten Merkmale. Theroretische Eigenschaften einer Zeitreihe mit einem MA (2) - Modell Für das MA (2) - Modell sind die theoretischen Eigenschaften die folgenden: Die einzigen Werte ungleich Null im theoretischen ACF sind für die Lags 1 und 2. Autokorrelationen für höhere Lags sind 0 , So zeigt ein Beispiel-ACF mit signifikanten Autokorrelationen bei Lags 1 und 2, aber nicht signifikante Autokorrelationen für höhere Lags ein mögliches MA (2) - Modell. Iid N (0,1). Die Koeffizienten betragen 1 0,5 und 2 0,3. Da es sich hierbei um ein MA (2) handelt, wird der theoretische ACF nur bei den Verzögerungen 1 und 2 Werte ungleich Null aufweisen. Werte der beiden Nicht-Autokorrelationen sind A-Plots des theoretischen ACFs. Wie fast immer der Fall ist, verhalten sich Musterdaten nicht ganz so perfekt wie die Theorie. Wir simulierten n 150 Beispielwerte für das Modell x t 10 w t .5 w t-1 .3 w t-2. Wobei wt iid N (0,1) ist. Die Zeitreihenfolge der Daten folgt. Wie bei dem Zeitreihenplot für die MA (1) Beispieldaten können Sie nicht viel davon erzählen. Die Proben-ACF für die simulierten Daten folgt. Das Muster ist typisch für Situationen, in denen ein MA (2) - Modell nützlich sein kann. Es gibt zwei statistisch signifikante Spikes bei Lags 1 und 2, gefolgt von nicht signifikanten Werten für andere Lags. Beachten Sie, dass aufgrund des Stichprobenfehlers das Muster ACF nicht genau dem theoretischen Muster entsprach. ACF für allgemeine MA (q) - Modelle Eine Eigenschaft von MA (q) - Modellen besteht im Allgemeinen darin, dass Autokorrelationen ungleich Null für die ersten q-Verzögerungen und Autokorrelationen 0 für alle Verzögerungen gt q existieren. Nicht-Eindeutigkeit der Verbindung zwischen Werten von 1 und (rho1) in MA (1) Modell. Im MA (1) - Modell für einen Wert von 1. Die reziproke 1 1 gibt den gleichen Wert für Als Beispiel, verwenden Sie 0.5 für 1. Und dann 1 (0,5) 2 für 1 verwenden. Youll erhalten (rho1) 0,4 in beiden Fällen. Um eine theoretische Einschränkung als Invertibilität zu befriedigen. Wir beschränken MA (1) - Modelle auf Werte mit einem Absolutwert von weniger als 1. In dem gerade angegebenen Beispiel ist 1 0,5 ein zulässiger Parameterwert, während 1 10,5 2 nicht. Invertibilität von MA-Modellen Ein MA-Modell soll invertierbar sein, wenn es algebraisch äquivalent zu einem konvergierenden unendlichen Ordnungs-AR-Modell ist. Durch Konvergenz meinen wir, dass die AR-Koeffizienten auf 0 sinken, wenn wir in der Zeit zurückgehen. Invertibilität ist eine Einschränkung, die in Zeitreihensoftware programmiert ist, die verwendet wird, um die Koeffizienten von Modellen mit MA-Begriffen abzuschätzen. Sein nicht etwas, das wir überprüfen in der Datenanalyse. Zusätzliche Informationen über die Invertibilitätsbeschränkung für MA (1) - Modelle finden Sie im Anhang. Fortgeschrittene Theorie Anmerkung. Für ein MA (q) - Modell mit einem angegebenen ACF gibt es nur ein invertierbares Modell. Die notwendige Bedingung für die Invertierbarkeit ist, daß die Koeffizienten solche Werte haben, daß die Gleichung 1- 1 y-. - qy q 0 hat Lösungen für y, die außerhalb des Einheitskreises liegen. R-Code für die Beispiele In Beispiel 1 wurde der theoretische ACF des Modells x t 10 w t aufgetragen. 7w t-1. Und dann n 150 Werte aus diesem Modell simuliert und die Abtastzeitreihen und die Abtast-ACF für die simulierten Daten aufgetragen. Die R-Befehle, die verwendet wurden, um den theoretischen ACF aufzuzeichnen, waren: acfma1ARMAacf (mac (0,7), lag. max10) 10 Verzögerungen von ACF für MA (1) mit theta1 0,7 lags0: 10 erzeugt eine Variable namens lags, die im Bereich von 0 bis 10 liegt (H0) fügt dem Diagramm eine horizontale Achse hinzu Der erste Befehl bestimmt den ACF und speichert ihn in einem Objekt Genannt acfma1 (unsere Wahl des Namens). Der Plotbefehl (der dritte Befehl) verläuft gegen die ACF-Werte für die Verzögerungen 1 bis 10. Der ylab-Parameter bezeichnet die y-Achse und der Hauptparameter einen Titel auf dem Plot. Um die Zahlenwerte der ACF zu sehen, benutzen Sie einfach den Befehl acfma1. Die Simulation und Diagramme wurden mit den folgenden Befehlen durchgeführt. (N150, list (mac (0.7))) Simuliert n 150 Werte aus MA (1) xxc10 addiert 10 zum Mittelwert 10. Simulationsvorgaben bedeuten 0. plot (x, typeb, mainSimulated MA (1) data) Acf (x, xlimc (1,10), mainACF für simulierte Probendaten) In Beispiel 2 wurde der theoretische ACF des Modells xt 10 wt. 5 w t-1 .3 w t-2 aufgetragen. Und dann n 150 Werte aus diesem Modell simuliert und die Abtastzeitreihen und die Abtast-ACF für die simulierten Daten aufgetragen. Die verwendeten R-Befehle waren acfma2ARMAacf (mac (0,5,0,3), lag. max10) acfma2 lags0: 10 Plot (lags, acfma2, xlimc (1,10), ylabr, typh, main ACF für MA (2) mit theta1 0,5, (X, x) (x, x) (x, x, x, y) (1) Für interessierte Studierende sind hier Beweise für die theoretischen Eigenschaften des MA (1) - Modells. Variante: (Text (xt) Text (mu wt theta1 w) 0 Text (wt) Text (theta1w) sigma2w theta21sigma2w (1theta21) sigma2w) Wenn h 1 der vorhergehende Ausdruck 1 w 2. Für irgendeinen h 2 ist der vorhergehende Ausdruck 0 Der Grund dafür ist, dass, durch Definition der Unabhängigkeit der wt. E (w k w j) 0 für beliebige k j. Da w w die Mittelwerte 0, E (w j w j) E (w j 2) w 2 haben. Für eine Zeitreihe, Wenden Sie dieses Ergebnis an, um den oben angegebenen ACF zu erhalten. Ein invertierbares MA-Modell ist eines, das als unendliches Ordnungs-AR-Modell geschrieben werden kann, das konvergiert, so daß die AR-Koeffizienten gegen 0 konvergieren, wenn wir unendlich zurück in der Zeit bewegen. Gut zeigen Invertibilität für die MA (1) - Modell. Wir setzen dann die Beziehung (2) für wt-1 in Gleichung (1) (3) ein (zt wt theta1 (z-therma1w) wt theta1z - theta2w) Zum Zeitpunkt t-2. Gleichung (2) wird dann in Gleichung (3) die Gleichung (4) für wt-2 ersetzen (zt wt theta1 z - theta21w wt theta1z - theta21 (z - theta1w) wt theta1z - theta12z theta31w) Unendlich), erhalten wir das unendliche Ordnungsmodell (zt wt theta1 z - theta21z theta31z - theta41z Punkte) Beachten Sie jedoch, dass bei 1 1 die Koeffizienten, die die Verzögerungen von z vervielfachen (unendlich) in der Größe zunehmen, Zeit. Um dies zu verhindern, benötigen wir 1 lt1. Dies ist die Bedingung für ein invertierbares MA (1) - Modell. Unendlich Ordnung MA Modell In Woche 3, gut sehen, dass ein AR (1) Modell in ein unendliches order MA Modell umgewandelt werden kann: (xt - mu wt phi1w phi21w Punkte phik1 w Punkte sum phij1w) Diese Summation der Vergangenheit weißer Rauschbegriffe ist bekannt Als die kausale Repräsentation eines AR (1). Mit anderen Worten, x t ist eine spezielle Art von MA mit einer unendlichen Anzahl von Begriffen, die in der Zeit zurückgehen. Dies wird als unendliche Ordnung MA oder MA () bezeichnet. Eine endliche Ordnung MA ist eine unendliche Ordnung AR und jede endliche Ordnung AR ist eine unendliche Ordnung MA. Rückruf in Woche 1, stellten wir fest, dass eine Anforderung für eine stationäre AR (1) ist, dass 1 lt1. Berechnen Sie die Var (x t) mit der kausalen Darstellung. Dieser letzte Schritt verwendet eine Grundtatsache über geometrische Reihen, die (phi1lt1) erforderlich sind, ansonsten divergiert die Reihe. NavigationPurpose: Check Randomness Autokorrelationsdiagramme (Box und Jenkins, S. 28-32) sind ein gängiges Werkzeug zur Überprüfung der Zufälligkeit in einem Datensatz. Diese Zufälligkeit wird durch Berechnen von Autokorrelationen für Datenwerte bei variierenden Zeitverzögerungen ermittelt. Wenn sie zufällig sind, sollten solche Autokorrelationen nahezu null für irgendwelche und alle zeitlichen Verzögerungen sein. Wenn nicht-zufällig, dann werden eine oder mehrere der Autokorrelationen signifikant ungleich Null sein. Darüber hinaus werden Autokorrelationsdiagramme in der Modellidentifikationsstufe für autoregressive, gleitende mittlere Zeitreihenmodelle von Box-Jenkins verwendet. Autokorrelation ist nur ein Maß der Zufälligkeit Beachten Sie, dass unkorreliert nicht unbedingt zufällig bedeutet. Daten mit signifikanter Autokorrelation sind nicht zufällig. Daten, die keine signifikante Autokorrelation aufweisen, können jedoch auf andere Weise noch nicht-zufällig auftreten. Autokorrelation ist nur ein Maß der Zufälligkeit. Im Rahmen der Modellvalidierung (die der primäre Typ der Zufälligkeit ist, die wir im Handbuch behandeln) ist die Überprüfung auf Autokorrelation typischerweise ein ausreichender Test der Zufälligkeit, da die Residuen von schlechten Anpassungsmodellen dazu tendieren, nicht-subtile Zufälligkeit zu zeigen. Einige Anwendungen erfordern jedoch eine strengere Bestimmung der Zufälligkeit. In diesen Fällen wird eine Batterie von Tests, die eine Überprüfung auf Autokorrelation einschließen kann, angewandt, da Daten in vielen verschiedenen und oft subtilen Arten nicht-zufällig sein können. Ein Beispiel dafür, wo eine strengere Überprüfung der Zufälligkeit erforderlich ist, wäre das Testen von Zufallszahlengeneratoren. Beispiel-Diagramm: Autokorrelationen sollten nahe-Null für die Zufälligkeit sein. Dies ist bei diesem Beispiel nicht der Fall, so dass die Zufallsannahme fehlschlägt. Dieses Beispiel-Autokorrelationsdiagramm zeigt, dass die Zeitreihe nicht zufällig ist, sondern vielmehr einen hohen Grad an Autokorrelation zwischen benachbarten und nahe benachbarten Beobachtungen aufweist. Definition: r (h) versus h Autokorrelationsdiagramme werden durch vertikale Achse gebildet: Autokorrelationskoeffizient, wobei C h die Autokovarianzfunktion ist und C 0 die Varianzfunktion ist. Beachten Sie, dass R h zwischen -1 und 1 liegt Folgende Formel für die Autokovarianz-Funktion Obwohl diese Definition weniger Bias aufweist, weist die (1 N) - Formulierung einige wünschenswerte statistische Eigenschaften auf und ist die am häufigsten in der Statistikliteratur verwendete Form. Siehe Seiten 20 und 49-50 in Chatfield für Details. Horizontale Achse: Zeitverzögerung h (h 1, 2, 3.) Die obige Zeile enthält auch mehrere horizontale Bezugslinien. Die Mittellinie ist auf Null. Die anderen vier Zeilen sind 95 und 99 Konfidenzbänder. Beachten Sie, dass es zwei verschiedene Formeln für die Erzeugung der Vertrauensbänder gibt. Wenn das Autokorrelationsdiagramm verwendet wird, um auf Zufälligkeit zu testen (dh keine Zeitabhängigkeit in den Daten), wird die folgende Formel empfohlen: wobei N die Stichprobengröße ist, z die kumulative Verteilungsfunktion der Standardnormalverteilung und (alpha ) Ist das Signifikanzniveau. In diesem Fall haben die Vertrauensbänder eine feste Breite, die von der Probengröße abhängt. Dies ist die Formel, die verwendet wurde, um die Vertrauensbänder im obigen Diagramm zu erzeugen. Autokorrelationsdiagramme werden auch in der Modellidentifikationsstufe für die Montage von ARIMA-Modellen verwendet. In diesem Fall wird für die Daten ein gleitendes Durchschnittsmodell angenommen und die folgenden Konfidenzbänder erzeugt: wobei k die Verzögerung, N die Stichprobengröße, z die kumulative Verteilungsfunktion der Standardnormalverteilung und (alpha) ist Das Signifikanzniveau. In diesem Fall nehmen die Vertrauensbänder zu, wenn die Verzögerung zunimmt. Das Autokorrelationsdiagramm kann Antworten auf die folgenden Fragen liefern: Sind die Daten zufällig Ist eine Beobachtung, die sich auf eine angrenzende Beobachtung bezieht, ist eine Beobachtung, die mit einer zweimal entfernten Beobachtung zusammenhängt (usw.) Ist die beobachtete Zeitreihe weißes Rauschen Ist die beobachtete Zeitreihe sinusförmig Ist die beobachtete Zeitreihe autoregressiv Was ist ein geeignetes Modell für die beobachtete Zeitreihe Ist das Modell gültig und ausreichend Ist die Formel s ssqrt gültig Wichtigkeit: Sicherstellung der Gültigkeit von technischen Schlussfolgerungen Zufall (zusammen mit festem Modell, fester Variation und fester Verteilung) ist Eine der vier Annahmen, die typischerweise allen Messprozessen zugrunde liegen. Die Zufälligkeitsannahme ist aus den folgenden drei Gründen von entscheidender Bedeutung: Die meisten statistischen Standardtests hängen von der Zufälligkeit ab. Die Gültigkeit der Testresultate steht in direktem Zusammenhang mit der Gültigkeit der Zufallsannahme. Viele häufig verwendete statistische Formeln hängen von der Zufallsannahme ab, wobei die häufigste Formel die Formel zur Bestimmung der Standardabweichung des Stichprobenmittels ist: wobei s die Standardabweichung der Daten ist. Obwohl stark verwendet, sind die Ergebnisse aus der Verwendung dieser Formel ohne Wert, es sei denn, die Zufälligkeitsannahme gilt. Für univariate Daten ist das Standardmodell Wenn die Daten nicht zufällig sind, ist dieses Modell falsch und ungültig, und die Schätzungen für die Parameter (wie die Konstante) werden unsinnig und ungültig. Kurz, wenn der Analytiker nicht auf Zufälligkeit prüft, dann wird die Gültigkeit vieler statistischer Schlüsse verdächtig. Die Autokorrelationsdiagramm ist eine hervorragende Möglichkeit für eine solche randomness. STAT 497 VORTRAG der Überprüfung Hinweise 2 1. DIE Autokovarianz - UND die Autokorrelationsfunktionen für einen stationären Prozess der Autokovarianz - zwischen Y t und Y Präsentation auf Thema: STAT 497 Skriptum 2 1. dIE Autokovarianz - uND dIE Autokorrelation Funktionen für einen stationären Prozess, der Autokovarianz - zwischen Y t und Y Präsentation Transkript: 2 Autokovarianz - uND dIE Autokorrelation Funktionen für einen stationären Prozess, der Autokovarianz - zwischen Y t und Y tk ist und die Autokorrelationsfunktion ist 2 3 Die AUTOCOVARIANZ UND DIE AUTOCORRELATIONSFUNKTIONEN EIGENSCHAFTEN: (notwendige Bedingung) k und k sind für jeden Satz von Zeitpunkten t 1, t 2, tn und beliebigen reellen Zahlen 1, 2, n positiv halbdefinit. 3 4 Die partielle AUTOCORRELATION-FUNKTION (PACF) PACF ist die Korrelation zwischen Yt und Yt-k, nachdem ihre gegenseitige lineare Abhängigkeit von den dazwischenliegenden Variablen Yt-1, Yt-2, Yt-k1 entfernt worden ist. Die bedingte Korrelation wird üblicherweise als Teilautokorrelation in Zeitreihen bezeichnet. 4 5 BERECHNUNG PACF 1. Regressionsansatz: ein Modell von einem Mittelwert von Null stationären Prozess betrachtet, bei dem ki die Koeffizienten von Y t ki und ETK ist die Null bedeuten Fehlerterm, der mit Y t ki unkorreliert bezeichnet, i0,1, k . Multiplizieren Sie beide Seiten mit Y t kj 5 11 WHITE NOISE (WN) - PROZESS Ein Prozess wird als weißes Rauschen (WN) bezeichnet, wenn es sich um eine Folge von unkorrelierten Zufallsvariablen aus einer festen Verteilung mit konstantem Mittelwert, konstanter Varianz und Cov (Y T, Y tk) 0 für alle k0. PROZESS 11 12 WHITE NOISE (WN) ist es ein stationärer Prozess mit Autokovarianzfunktion 12 Grundphänomen: ACFPACF 0, k 0 13 WHITE NOISE (WN) PROCESS Weißes Rauschen (in der Spektralanalyse): weißes Licht erzeugt, in dem alle Frequenzen ( Dh Farben) in gleicher Menge vorhanden sind. Memoryless-Prozess Baustein, aus dem wir kompliziertere Modelle konstruieren können Es spielt die Rolle einer orthogonalen Basis in der allgemeinen Vektor - und Funktionsanalyse. 13 15 ERGODISCHES Kolmogorovs Gesetz der großen Zahl (LLN) besagt, daß wenn X i iid (, 2) für i 1. n, dann haben wir die folgende Grenze für den Ensemble-Durchschnitt In Zeitreihen haben wir Zeitreihen-Durchschnitt, nicht Ensemble-Durchschnitt . Daher wird der Mittelwert durch Mittelung über die Zeit berechnet. Ist der Zeitreihen-Durchschnitt konvergiert auf die gleiche Grenze wie das Ensemble Durchschnitt Die Antwort ist ja, wenn Y t ist stationär und ergodisch. 15 16 ERGODISCH Ein stationärer Kovarianzprozess wird für den Mittelwert ergodisch genannt, wenn der Zeitreihendurchschnitt zum Populationsmittel konvergiert. Wenn das Probendurchschnitt für das zweite Moment eine konsistente Schätzung ergibt, dann gilt das Verfahren für das zweite Moment als ergodisch. 16 17 ERGODIZITÄT Eine ausreichende Bedingung für eine Kovarianz stationären Prozess ergodisch für den Mittelwert ist, dass. Wenn ferner das Verfahren Gaußsche ist, dann stellen die absoluten summierbaren Autokovarianzen auch sicher, daß der Prozeß für alle Momente ergodisch ist. 17 19 THE SAMPLE AUTOCORRELATION FUNKTION Ein Plot versus k eines Beispielkorrelogramms Für große Stichprobengrößen wird normal mit dem Mittelwert k verglichen, und die Varianz wird durch die Bartletts-Approximation für Prozesse angenähert, bei denen k 0 für km gilt. 19 m. 19 20 DIE PROBE-AUTOCORRELATION-FUNKTION In der Praxis sind i s unbekannt und durch ihre Beispielschätzungen ersetzt. Daher haben wir den folgenden großen Standardfehler von. 20 21 DIE PROBE AUTOCORRELATION FUNKTION Für einen WN-Prozess haben wir das Konfidenzintervall 95 für k. Daher, um den Prozess zu testen ist WN oder nicht, zeichnen Sie eine 2n 12 Linien auf der Probe correlogram. Wenn alle innerhalb der Grenzen sind, könnte der Prozess WN sein (wir müssen auch die Beispiel-PACF überprüfen). 21 Für einen WN-Prozess muss er nahe Null sein. 22 THE SAMPLE PARTIAL AUTOCORRELATION FUNKTION Für einen WN-Prozess kann 2n 12 als kritische Grenzwerte für kk verwendet werden, um die Hypothese eines WN-Prozesses zu testen. 22 23 BACKSHIFT (ODER LAG) BEDIENER Der Rückschaltoperator B ist definiert als z. B. Random Shock Prozess: 23 24 BEWEGLICHE DURCHSCHNITTLICHE REPRÄSENTATION EINER ZEIT SERIE Auch bekannt als Random Shock Form oder Wold (1938) Darstellung. Lassen Sie eine Zeitreihe sein. Für einen stationären Prozess können wir als lineare Kombination der Folge von unkorrelierten (WN) r. v.s. A ALLGEMEINER LINEARER PROZESS: 24 wobei 0 I ein 0-mittleres WN-Verfahren und 27 MOVING-DURCHSCHNITTLICHE REPRÄSENTATION EINER ZEIT-SERIE ist. Da es sich um unendliche Summen handelt, die statisch sein sollen, ist daher die erforderliche Bedingung für den stationären Betrieb. Es ist ein nicht deterministischer Prozess: Ein Prozess enthält keine deterministischen Komponenten (keine Zufälligkeit in den zukünftigen Zuständen des Systems), die genau aus der eigenen Vergangenheit prognostiziert werden können. 27 28 Autokovarianz Erzeugungsfunktion für eine gegebene Folge von Autokovarianzen k, k0, 1, 2 wird die Autokovarianz Erzeugungsfunktion definiert als wobei die Varianz eines gegebenen Prozesses 0 ist der Koeffizient von B 0 und der Autokovarianz der Verzögerung k ist k die Koeffizient von sowohl B k als auch B k. 28 22 11 31 Beispiel a) Schreiben Sie die obige Gleichung in zufälliger Schockform. B) Finden Sie die Autokovarianz-Erzeugung. 31 32 AUTOREGRESSIVE VERTRETUNG EINER ZEITSERIE Diese Darstellung wird auch INVERTED FORM genannt. Regress den Wert von Y t zum Zeitpunkt t auf seine eigene Vergangenheit plus einen zufälligen Schock. 32 33 AUTOREGRESSIVE REPRÄSENTATION EINER ZEITREIHE Es ist ein invertierbarer Prozeß (wichtig für die Prognose). Nicht jeder stationäre Prozess ist invertierbar (Box und Jenkins, 1978). Invertibilität liefert Eindeutigkeit der Autokorrelationsfunktion. Das bedeutet, dass unterschiedliche Zeitreihenmodelle miteinander ausgedrückt werden können. 33 34 INVERTIBILITÄTSREGEL MIT DEM RANDOM SHOCK FORM Für einen linearen Prozess, der invertierbar ist, müssen die Wurzeln von (B) 0 als Funktion von B außerhalb des Einheitskreises liegen. Ist eine Wurzel aus (B), so ist 1. (reelle Zahl) der absolute Wert von. (Komplexe Zahl) ist 34 1. (reelle Zahl) ist der absolute Wert von. (Komplexe Zahl) 34 35 Umkehrbarkeit der Regel auf die RANDOM SHOCK Formular können Sie stationär sein, wenn der Prozess Wieder in einem RSF geschrieben werden, dh 35 36 Stationarität RULE mit invertierter FORM Bei einem linearen Prozess zu sein, umkehrbar, die Wurzeln Von (B) 0 als Funktion von B außerhalb des Einheitskreises liegen. Wenn eine Wurzel aus (B), dann 1. 36 1. 36 37 RANDOM SHOCK FORM UND INVERTED FORM AR und MA Darstellungen sind nicht die Modellform. Weil sie unendlich viele Parameter enthalten, die aus einer endlichen Anzahl von Beobachtungen unschätzbar sind. 37 38 ZEITREIHE MODELLE In der invertierten Form eines Prozesses, wenn nur endliche Anzahl von Gewichtungen ungleich Null ist, d. h. der Vorgang heißt AR (p) - Verfahren. 38 39 ZEITREIHE MODELLE In der Random Shock Form eines Prozesses, wenn nur endliche Anzahl von Gewichtungen ungleich Null ist, d. H. Der Prozess wird als MA (q) Prozess bezeichnet. 39 41 ZEITREIHE MODELLE Die Anzahl der Parameter in einem Modell kann groß sein. Eine natürliche Alternative ist der gemischte AR - und MA-Prozess ARMA (p, q) - Verfahren Für eine feste Anzahl von Beobachtungen gilt, je mehr Parameter in einem Modell, desto weniger effizient ist die Schätzung der Parameter. Wählen Sie ein einfacheres Modell, um das Phänomen zu beschreiben. 41 Download ppt STAT 497 VORLESUNGSHINWEISE 2 1. DIE AUTOCOVARIANZ UND DIE AUTOCORRELATIONSFUNKTIONEN Für einen stationären Prozess wird die Autokovarianz zwischen Y t und Y verwendet.

No comments:

Post a Comment