Thursday 19 October 2017

Forecasting Sales By Exponentially Weighted Moving Averages Winters


Prognose des Umsatzes durch exponentiell gewichtete Bewegungsdurchschnitte Durch den zunehmenden Einsatz von Computern für die maschinelle Bestandskontrolle und die Produktionsplanung sind explizite Prognosen für den Verkauf und die Verwendung von einzelnen Produkten und Materialien erforderlich. Diese Prognosen müssen auf einer routinemäßigen Basis für Tausende von Produkten gemacht werden, so dass sie schnell durchgeführt werden müssen, und sowohl in Bezug auf Rechenzeit als auch Informationsspeicherung sollten sie billig auf veränderte Bedingungen reagieren. Das Papier stellt eine Methode der Prognose von Verkäufen, die diese wünschenswerten Eigenschaften hat, und die in Bezug auf die Fähigkeit zur Prognose vergleichbar mit anderen, mehr traditionellen Methoden. Es werden mehrere Modelle des exponentiellen Prognosesystems und einige Anwendungsbeispiele vorgestellt. Wenn Sie Probleme beim Herunterladen einer Datei haben, überprüfen Sie, ob Sie die richtige Anwendung haben, um sie zuerst anzuzeigen. Bei weiteren Problemen lesen Sie bitte die IDEAS-Hilfeseite. Beachten Sie, dass diese Dateien nicht auf der IDEAS-Website sind. Seien Sie bitte geduldig, da die Akten groß sein können. Forecastingjahreszeiten und - trends durch exponentiell gewichtete gleitende Durchschnitte Zusammenfassung Das Papier liefert eine systematische Entwicklung der Prognoseausdrücke für exponential gewichtete gleitende Durchschnitte. Methoden für Reihen mit keinem Trend oder additivem oder multiplikativem Trend werden untersucht. Ebenso decken die Methoden nicht saisonale und saisonale Serien mit additiven oder multiplikativen Fehlerstrukturen ab. Das Papier ist eine Nachdruckversion des Berichts von 1957 an das Amt für Seeforschung (ONR 52) und wird hier veröffentlicht, um eine bessere Zugänglichkeit zu bieten. Schlüsselwörter Exponentielle Glättung Vorhersage Lokale Jahreszeiten Lokale Trends Copyright copyright 2004 Veröffentlicht von Elsevier B. V. Biographie: Charles C. HOLT ist Professor für Management Emeritus an der Graduate School of Business, University of Texas in Austin. Seine aktuelle Forschung ist über quantitative Entscheidungsmethoden, Entscheidungsunterstützungssysteme und Finanzprognosen. Zuvor hat er Forschung und Lehre an M. I.T. Carnegie Mellon University, die London School of Economics, die Universität von Wisconsin und das Urban Institute. Er ist seit 1947 im Bereich der Computeranwendungen tätig und hat Forschungsarbeiten zur automatischen Steuerung, zur Simulation von Wirtschaftssystemen, zur Produktionsplanung, zur Beschäftigung und zum Inventar sowie zur Dynamik der Inflation und der Arbeitslosigkeit unterbreitet. Von Pan Hui, Jon Crowcroft, Eiko Yoneki Proc. ACM MobiHoc. 2008. In diesem Beitrag wollen wir unser Verständnis der menschlichen Mobilität im Hinblick auf soziale Strukturen verbessern und diese Strukturen bei der Konzeption von Weiterleitungsalgorithmen für Pocket Switched Networks (PSNs) nutzen. Unter Berücksichtigung menschlicher Mobilität Spuren aus der realen Welt, entdecken wir, dass die menschliche Interaktion ist heteroge. In diesem Beitrag wollen wir unser Verständnis der menschlichen Mobilität im Hinblick auf soziale Strukturen verbessern und diese Strukturen bei der Konzeption von Weiterleitungsalgorithmen für Pocket Switched Networks (PSNs) nutzen. Unter Berücksichtigung menschlicher Beweglichkeit Spuren aus der realen Welt, entdecken wir, dass die menschliche Interaktion heterogen ist sowohl in Bezug auf Hubs (beliebte Personen) und Gruppen oder Gemeinden. Wir schlagen einen sozialbasierten Weiterleitungsalgorithmus, BUBBLE vor, der empirisch gezeigt wird, um die Weiterleitungseffizienz deutlich zu verbessern, verglichen mit unvermeidlichen Weiterleitungssystemen und dem PROPHET-Algorithmus. Wir zeigen auch, wie dieser Algorithmus verteilt implementiert werden kann, was zeigt, dass er in der dezentralen Umgebung von PSNs anwendbar ist. Fenster, wie von gestern bis jetzt, dann berechnen den durchschnittlichen Grad für alle 6 Stunden. Wir nennen diesen Ansatz das kumulative Fenster (C-Window). Diese Technik ähnelt der exponentiellen Glättung -31-, die wir in der weiteren Arbeit untersuchen werden. Wir werden weiter in Abschnitt 6 zeigen, dass DEGREE, S-Window und C-Window die vorher berechnete Zentralität annähern und die Zentralität gemessen haben. Von Pan Hui, Jon Crowcroft, Eiko Yoneki - IEEE-Transaktionen über Mobile Computing. AbstractDie zunehmende Penetration von intelligenten Geräten mit Netzwerkfähigkeit bildet neue Netzwerke. Solche Netzwerke, auch als pocket switched networks (PSNs) bezeichnet, sind intermittierend verbunden und stellen eine paradigmatische Verschiebung von Weiterleitungsdaten ad hoc dar. Die soziale Struktur und interacti. AbstractDie zunehmende Penetration von intelligenten Geräten mit Netzwerkfähigkeit bildet neue Netzwerke. Solche Netzwerke, auch als pocket switched networks (PSNs) bezeichnet, sind intermittierend verbunden und stellen eine paradigmatische Verschiebung von Weiterleitungsdaten ad hoc dar. Die soziale Struktur und Interaktion der Benutzer solcher Geräte diktieren die Leistung von Routing-Protokollen in PSNs. Zu diesem Zweck ist die soziale Information eine wesentliche Metrik für die Entwicklung von Weiterleitungsalgorithmen für solche Netzwerke. Frühere Methoden beruhten auf dem Erstellen und Aktualisieren von Routingtabellen, um mit dynamischen Netzwerkbedingungen umzugehen. Auf der Unterseite hat es sich gezeigt, dass solche Ansätze aufgrund der partiellen Erfassung des transienten Netzwerkverhaltens kostenintensiv sind. Ein vielversprechenderer Ansatz wäre es, die intrinsischen Eigenschaften solcher Netzwerke zu erfassen und sie bei der Gestaltung von Routing-Algorithmen zu nutzen. In dieser Arbeit nutzen wir zwei soziale und strukturelle Metriken, nämlich Zentralität und Gemeinschaft, mit realen menschlichen Mobilitätsspuren. Die Beiträge dieser Arbeit sind zweifach. Zuerst entwerfen und bewerten wir BUBBLE, einen neuartigen, sozial-basierten Weiterleitungsalgorithmus, der die oben erwähnten Metriken zur Verbesserung der Lieferungsleistung nutzt. Zweitens zeigen wir empirisch, dass BUBBLE die Weiterleitungsleistung im Vergleich zu einer Anzahl von zuvor vorgeschlagenen Algorithmen, einschließlich des prozessualen Benchmarking-basierten PROPHET-Algorithmus, und des sozialbasierten Weiterleitungs-SimBet-Algorithmus wesentlich verbessern kann. Index BegriffeSoziale Netzwerke, Weiterleitungsalgorithmen, verzögerungstolerante Netzwerke, pocket-switched Netzwerke, Zentralität, Community-Erkennung. 1 erday bis jetzt, dann berechnen den durchschnittlichen Grad für alle 6 Stunden. Wir nennen diesen Ansatz kumulative Fenster (C-Fenster). Diese Technik ähnelt einer Statistik-Technik namens exponentielle Glättung -24- und wir möchten weitere theoretische Untersuchungen durchführen. Wir können aus Abb. Dass der S-Window-Ansatz den jüngeren Kontext widerspiegelt und eine maximal 4-prozentige Verbesserung der Lieferung erzielt. Von Jan G De Gooijer, Rob J Hyndman - Internationale Zeitschrift für Vorhersage. Zusammenfassung: Wir untersuchen die letzten 25 Jahre der Forschung in Zeitreihen-Prognose. In dieser Silberjubiläumsausgabe heben wir natürlich die Ergebnisse hervor, die in Zeitschriften veröffentlicht wurden, die vom Internationalen Institut für Forecasters (Journal of Forecasting 19821985 International Journal of Forecasting 19852005) verwaltet werden. Zusammenfassung: Wir untersuchen die letzten 25 Jahre der Forschung in Zeitreihen-Prognose. In dieser Silberjubiläumsausgabe heben wir natürlich die Ergebnisse hervor, die in Zeitschriften veröffentlicht wurden, die vom Internationalen Institut für Forecasters (Journal of Forecasting 19821985 International Journal of Forecasting 19852005) verwaltet werden. Während dieser Zeit umfasste über ein Drittel aller in diesen Zeitschriften veröffentlichten Zeitschriften Zeitreihenvorhersagen. Wir berichten auch über einflussreiche Arbeiten über Zeitreihenprognosen, die in diesem Zeitraum an anderer Stelle veröffentlicht wurden. In vielen Bereichen sind enorme Fortschritte zu verzeichnen, aber es gibt viele Themen, die einer weiteren Entwicklung bedürfen. Wir schließen mit Kommentaren von Yuhong Yang - Ökonometrische Theorie. 2004. Wir studieren einige Methoden der Kombination von Prozeduren für die Prognose einer kontinuierlichen Zufallsvariable. Statistische Risikobeschränkungen unter dem quadratischen Fehlerverlust werden unter milden Verteilungsannahmen auf die Zukunft angesichts der gegenwärtigen Außeninformationen und der vergangenen Beobachtungen erhalten. Die Risikobeschränkungen zeigen, dass. Wir studieren einige Methoden der Kombination von Prozeduren für die Prognose einer kontinuierlichen Zufallsvariable. Statistische Risikobeschränkungen unter dem quadratischen Fehlerverlust werden unter milden Verteilungsannahmen auf die Zukunft angesichts der gegenwärtigen Außeninformationen und der vergangenen Beobachtungen erhalten. Die Risikobeschränkungen zeigen, dass die kombinierte Prognose automatisch die beste Performance zwischen den Kandidatenprozessen bis zu einem konstanten Faktor und einem additiven Straftermin erreicht. Unter Berücksichtigung der Konvergenzrate führt die kombinierte Prognose sowie, wenn man wüsste, welches Kandidatenprognoseverfahren das beste im Voraus ist. Empirische Studien schlagen vor, dass Kombinationsprozesse manchmal die Prognosegenauigkeit im Vergleich zu den ursprünglichen Prozeduren verbessern können. Risikobegrenzungen werden abgeleitet, um theoretisch die potenziellen Gewinne und den Preis für die lineare Kombination von Verbesserungsvorhersagen zu quantifizieren. Das Ergebnis unterstützt die empirische Feststellung, dass es nicht automatisch eine gute Idee ist, Prognosen zu kombinieren. Eine blinde Kombination kann die Leistungsfähigkeit dramatisch verschlechtern, und zwar aufgrund der unerwünschten großen Variabilität bei der Schätzung der besten Kombinationsgewichte. Ein automatisiertes Kombinationsverfahren wird in der Theorie gezeigt, um ein Gleichgewicht zwischen dem Potentialgewinn und der Komplexitätsstrafe (dem Kombinationspreis) zu erzielen, um (wenn überhaupt) eine spärliche Kombination zu nutzen und die beste Leistung (in der Rate) unter den Kandidatenvorhersagen aufrechtzuerhalten Wenn lineare oder spärliche Kombinationen nicht helfen. Von Shawndra Hill, Deepak K. Agarwal, Robert Bell, Chris Volinsky - Zeitschrift für Computer - und Graphische Statistik. 2006. Ein dynamisches Netzwerk ist eine spezielle Art von Netzwerk, das aus miteinander verbundenen Transaktern besteht, die sich wiederholt entwickelnde Interaktion haben. Daten über große dynamische Netzwerke wie Telekommunikationsnetze und das Internet sind durchgreifend. Jedoch repräsentieren dynamische Netzwerke in einer Weise, die förderlich für effic ist. Ein dynamisches Netzwerk ist eine spezielle Art von Netzwerk, das aus miteinander verbundenen Transaktern besteht, die sich wiederholt entwickelnde Interaktion haben. Daten über große dynamische Netzwerke wie Telekommunikationsnetze und das Internet sind durchgreifend. Dynamische Netzwerke zu repräsentieren, die eine effiziente Großanalyse begünstigen, ist eine Herausforderung. In diesem Artikel vertreten wir dynamische Graphen mit einer Datenstruktur in einem früheren Artikel eingeführt. Wir befürworten ihre Repräsentation, weil sie für die Evolution der Beziehungen zwischen den Transaktoren durch die Zeit verantwortlich ist, das Rauschen auf der lokalen Transaktorebene verringert und die Entfernung von abgestandenen Beziehungen ermöglicht. Unsere Arbeit verbessert ihre heuristischen Argumente, indem sie die Darstellung mit drei abstimmbaren Parametern formalisiert. Dabei entwickeln wir ein generisches Framework zur Auswertung und Optimierung eines dynamischen Graphen. Wir zeigen, dass die an der Repräsentation beteiligten Speicherungsnäherungen die prädiktive Leistung nicht beeinflussen und diese in der Regel verbessern. Wir motivieren unseren Ansatz mit einem Betrugserfassungsbeispiel aus der Telekommunikationsbranche und zeigen, dass wir die veröffentlichten Ergebnisse der Betrugserkennungsaufgabe übertreffen können. Darüber hinaus stellen wir eine vorläufige Analyse zu Weblogs und E-Mail-Netzwerken vor. Die den aktuellen Graphen beeinflussen. Diese Form der Gewichtsfunktion ist in dem Sinne günstig, daß die Gleichung (1) in der Wiederholungsform ausgedrückt werden kann: Diese Form ist in der Statistik als exponentielle Glättung -30 bekannt. Es bietet eine glatte dynamische Entwicklung von Gt. Die iterative Natur der Aktualisierung ermöglicht es uns, die Informationen aus allen früheren Zeiträumen ohne Einbeziehung der Verwaltung und speichern. Von Ilan Alon, Min Qi, Robert J. Sadowski - Zeitschrift für Handel und Verbraucherschutz. 2001. Wie viele andere wirtschaftliche Zeitreihen haben US-Aggregate-Einzelhandelsumsätze starke Trend - und saisonale Muster. Wie man diese Muster am besten modelliert und prognostiziert, ist in der Zeitreihenanalyse ein langjähriges Problem. Dieser Artikel vergleicht artiquotische neuronale Netze und traditionelle Methoden einschließlich Winter. Wie viele andere wirtschaftliche Zeitreihen haben US-Aggregate-Einzelhandelsumsätze starke Trend - und saisonale Muster. Wie man diese Muster am besten modelliert und prognostiziert, ist in der Zeitreihenanalyse ein langjähriges Problem. Dieser Artikel vergleicht artiampquotcial neuronale Netze und traditionelle Methoden einschließlich Winters exponentielle Glättung, BoxJenkins ARIMA Modell und multivariate Regression. Die Ergebnisse zeigen, dass im Durchschnitt ANNs günstiger in Bezug auf die eher traditionellen statistischen Methoden, gefolgt von der BoxJenkins-Modell. Trotz seiner Einfachheit erwies sich das Winters-Modell als eine tragfähige Methode zur mehrstufigen Prognose unter relativ stabilen wirtschaftlichen Bedingungen. Die Derivatanalyse zeigt, dass das neuronale Netzmodell in der Lage ist, den dynamischen nichtlinearen Trend und von George Athanasopoulos, Rob J. Hyndman, zu erfassen. In diesem Papier, wir modellieren und prognostizieren australischen Binnenverkehr Nachfrage. Wir verwenden ein Regressions-Framework, um wichtige wirtschaftliche Zusammenhänge für die Nachfrage im Inlandsmarkt abzuschätzen. Wir identifizieren auch die Auswirkungen von Welt-Veranstaltungen wie die 2000 Sydney Olympics und die 2002 Bali-Bombenanschläge auf australischen Kuppeln. In diesem Papier, wir modellieren und prognostizieren australischen Binnenverkehr Nachfrage. Wir verwenden ein Regressions-Framework, um wichtige wirtschaftliche Zusammenhänge für die Nachfrage im Inlandsmarkt abzuschätzen. Wir identifizieren auch die Auswirkungen von Welt-Veranstaltungen wie die 2000 Sydney Olympics und die 2002 Bali Bombenanschläge auf australischen Inlandstourismus. Um die Zeitreihe der Daten zu erforschen, verwenden wir Innovationen Zustandsraummodelle, um die Nachfrage im Inland zu prognostizieren. Kombinieren diese beiden Frameworks, bauen wir Innovationen State-Space-Modelle mit exogenen Variablen. Diese Modelle sind in der Lage, die Zeitreihen-Dynamik in den Daten, sowie wirtschaftliche und andere Beziehungen zu erfassen. Wir zeigen, dass diese Modelle alternative Ansätze für kurzfristige Prognosen übertreffen und auch vernünftige langfristige Prognosen erzeugen. Die Prognosen werden mit den offiziellen australischen Staatsvorhersagen verglichen, die sich als optimistischer erweisen als unsere Prognosen. Alle Schulstufen. 3.2. Exponentielle Glättung durch Innovationen Zustandsraummodelle In den späten fünfziger Jahren wurde eine exponentielle Glättung vorgeschlagen (siehe die Pionierarbeiten von Brown, 1959, Holt, 1957 - Winters, 1960) und hat einige der erfolgreichsten Prognosemethoden motiviert. Prognosen, die unter Verwendung exponentieller Glättungsmethoden erzeugt werden, sind gewichtete Mittelwerte von vergangenen Beobachtungen, wobei die Gewichte sich verjüngen. Von Sarah Gelper, Christophe Croux, Sarah Gelper, Roland Fried, Christophe Croux. 2007. Robuste Versionen der Exponential - und Holt-Winters-Glättungsmethode für die Prognose werden vorgestellt. Sie eignen sich zur Prognose von univariaten Zeitreihen in Gegenwart von Ausreißern. Die robusten Exponential - und Holt-Winters-Glättungsmethoden werden als rekursives Aktualisierungsschema dargestellt. Sowohl die Aktualisierung. Robuste Versionen der Exponential - und Holt-Winters-Glättungsmethode für die Prognose werden vorgestellt. Sie eignen sich zur Prognose von univariaten Zeitreihen in Gegenwart von Ausreißern. Die robusten Exponential - und Holt-Winters-Glättungsmethoden werden als rekursives Aktualisierungsschema dargestellt. Sowohl die Aktualisierungsgleichung als auch die Auswahl der Glättungsparameter sind robust. Diese robuste Methode entspricht einer bestimmten Form des robusten Kalman-lters in einem lokalen linearen Trendmodell. Eine Simulationsstudie vergleicht die robusten und klassischen Prognosen. Die dargestellte Methode hat gute Prognoseperformance für Zeitreihen mit und ohne Ausreißer, sowie für fat tailed Zeitreihen. Die Methode wird anhand von realen Daten dargestellt, die Trends und saisonale Effekte beinhalten. Von Steffen Unkel, C. Paddy Farrington, Paul H. Garthwaite, Chris Robertson, Nick Andrews. Ungewöhnliche Cluster von Krankheiten müssen schnell erkannt werden, damit wirksame Interventionen der öffentlichen Gesundheit eingeführt werden können. In den vergangenen zehn Jahren gab es einen Anstieg des Interesses an statistischen Methoden für die Früherkennung von Infektionskrankheiten Ausbrüchen. Dieses Wachstum des Interesses hat viel Neues hervorgerufen. Ungewöhnliche Cluster von Krankheiten müssen schnell erkannt werden, damit wirksame Interventionen der öffentlichen Gesundheit eingeführt werden können. In den vergangenen zehn Jahren gab es einen Anstieg des Interesses an statistischen Methoden für die Früherkennung von Infektionskrankheiten Ausbrüchen. Diese Zunahme des Interesses hat zu einer viel neuen methodischen Arbeit geführt, die sich über das gesamte Spektrum der statistischen Methoden erstreckt. Dieses Papier enthält eine umfassende Übersicht der vorgeschlagenen statistischen Ansätze. Sowohl Labor - als auch Syndromüberwachungsdaten werden bereitgestellt, um die verschiedenen Verfahren zu veranschaulichen. E der Trend und saisonale Komponente. Zwei gemeinsame Zeitreihenverfahren, die bei der Überwachung verwendet werden, sind einfache exponentielle Glättung (z. B. Healy 1983 Ngo et al., 1996) und das Holt-Winters-Verfahren (Holt 1957 - Winters 1960-). Einfache exponentielle Glättung stellt sicher, dass die Daten keine Trend - oder Saisonalität aufweisen. Er bildet Vorhersagen, indem er einen gewichteten Durchschnitt der vergangenen Beobachtungen nimmt, wo die Gewichte exponentiell die Furt verringern. Von Eiko Yoneki, Pan Hui, Jon Crowcroft - Bioinspiriertes Rechnen und Kommunikation. Abstrakt. Die Entstehung von Delay Tolerant Networks (DTNs) hat ihren Höhepunkt in einer neuen Generation von Wireless Networking. Neue Kommunikations-Paradigmen, die dynamisch miteinander verknüpft sind, wie die Menschen einander antreffen, führen zu einer Welt, in der der digitale Verkehr leichter fließt. Wir fo Abstrakt. Die Entstehung von Delay Tolerant Networks (DTNs) hat ihren Höhepunkt in einer neuen Generation von Wireless Networking. Neue Kommunikations-Paradigmen, die dynamisch miteinander verknüpft sind, wie die Menschen einander antreffen, führen zu einer Welt, in der der digitale Verkehr leichter fließt. Wir konzentrieren uns auf humanto-menschliche Kommunikation in Umgebungen, die die Merkmale von sozialen Netzwerken aufweisen. Dieses Papier beschreibt unsere Studie des Informationsflusses während der epidemischen Ausbreitung in solchen dynamischen menschlichen Netzwerken, ein Thema, das viele Themen mit netzbasierter Epidemiologie teilt. Wir untersuchen Knotenpunkte, die aus realen Kontextspuren gewonnen wurden, und zeigen deren Einfluss auf die Epidemie, um die Eigenschaften der Informationsverbreitung zu demonstrieren. Pro 6 Stunden). Wir wählten ein 6-Stunden-Zeitfenster basierend auf unserer Intuition, dass das tägliche Leben in 4 Hauptperioden aufgeteilt ist: Morgen, Nachmittag, Abend und Nacht. Dies ist ähnlich der in -33- beschriebenen Methode. Es ist jedoch empfindlich, das Zeitfenster zu verschiedenen absoluten Tageszeiten zu starten. Wie Fig. 5 zeigt, könnte der Tageszyklus ein effizienteres Zeitfenster im Stadtraum sein. RANK Hub: Die von Pan Hui, Jon Crowcroft, Eiko Yoneki - in Proc. ACM MobiHoc. 2008. In diesem Beitrag wollen wir unser Verständnis der menschlichen Mobilität im Hinblick auf soziale Strukturen verbessern und diese Strukturen bei der Konzeption von Weiterleitungsalgorithmen für Pocket Switched Networks (PSNs) nutzen. Unter Berücksichtigung menschlicher Mobilität Spuren aus der realen Welt, entdecken wir, dass die menschliche Interaktion ist heteroge. In diesem Beitrag wollen wir unser Verständnis der menschlichen Mobilität im Hinblick auf soziale Strukturen verbessern und diese Strukturen bei der Konzeption von Weiterleitungsalgorithmen für Pocket Switched Networks (PSNs) nutzen. Unter Berücksichtigung menschlicher Beweglichkeit Spuren aus der realen Welt, entdecken wir, dass die menschliche Interaktion heterogen ist sowohl in Bezug auf Hubs (beliebte Personen) und Gruppen oder Gemeinden. Wir schlagen einen sozialbasierten Weiterleitungsalgorithmus, BUBBLE vor, der empirisch gezeigt wird, um die Weiterleitungseffizienz deutlich zu verbessern, verglichen mit unvermeidlichen Weiterleitungssystemen und dem PROPHET-Algorithmus. Wir zeigen auch, wie dieser Algorithmus verteilt implementiert werden kann, was zeigt, dass er in der dezentralen Umgebung von PSNs anwendbar ist. Fenster, wie von gestern bis jetzt, dann berechnen den durchschnittlichen Grad für alle 6 Stunden. Wir nennen diesen Ansatz das kumulative Fenster (C-Window). Diese Technik ähnelt der exponentiellen Glättung -31-, die wir in der weiteren Arbeit untersuchen werden. Wir werden weiter in Abschnitt 6 zeigen, dass DEGREE, S-Window und C-Window die vorher berechnete Zentralität annähern und die Zentralität gemessen haben. Von Pan Hui, Jon Crowcroft, Eiko Yoneki - IEEE-Transaktionen über Mobile Computing. AbstractDie zunehmende Penetration von intelligenten Geräten mit Netzwerkfähigkeit bildet neue Netzwerke. Solche Netzwerke, auch als pocket switched networks (PSNs) bezeichnet, sind intermittierend verbunden und stellen eine paradigmatische Verschiebung von Weiterleitungsdaten ad hoc dar. Die soziale Struktur und interacti. AbstractDie zunehmende Penetration von intelligenten Geräten mit Netzwerkfähigkeit bildet neue Netzwerke. Solche Netzwerke, auch als pocket switched networks (PSNs) bezeichnet, sind intermittierend verbunden und stellen eine paradigmatische Verschiebung von Weiterleitungsdaten ad hoc dar. Die soziale Struktur und Interaktion der Benutzer solcher Geräte diktieren die Leistung von Routing-Protokollen in PSNs. Zu diesem Zweck ist die soziale Information eine wesentliche Metrik für die Entwicklung von Weiterleitungsalgorithmen für solche Netzwerke. Frühere Methoden beruhten auf dem Erstellen und Aktualisieren von Routingtabellen, um mit dynamischen Netzwerkbedingungen umzugehen. Auf der Unterseite hat es sich gezeigt, dass solche Ansätze aufgrund der partiellen Erfassung des transienten Netzwerkverhaltens kostenintensiv sind. Ein vielversprechenderer Ansatz wäre es, die intrinsischen Eigenschaften solcher Netzwerke zu erfassen und sie bei der Gestaltung von Routing-Algorithmen zu nutzen. In dieser Arbeit nutzen wir zwei soziale und strukturelle Metriken, nämlich Zentralität und Gemeinschaft, mit realen menschlichen Mobilitätsspuren. Die Beiträge dieser Arbeit sind zweifach. Zuerst entwerfen und bewerten wir BUBBLE, einen neuartigen, sozial-basierten Weiterleitungsalgorithmus, der die oben erwähnten Metriken zur Verbesserung der Lieferungsleistung nutzt. Zweitens zeigen wir empirisch, dass BUBBLE die Weiterleitungsleistung im Vergleich zu einer Anzahl von zuvor vorgeschlagenen Algorithmen, einschließlich des prozessualen Benchmarking-basierten PROPHET-Algorithmus, und des sozialbasierten Weiterleitungs-SimBet-Algorithmus wesentlich verbessern kann. Index BegriffeSoziale Netzwerke, Weiterleitungsalgorithmen, verzögerungstolerante Netzwerke, pocket-switched Netzwerke, Zentralität, Community-Erkennung. 1 erday bis jetzt, dann berechnen den durchschnittlichen Grad für alle 6 Stunden. Wir nennen diesen Ansatz kumulative Fenster (C-Fenster). Diese Technik ähnelt einer Statistik-Technik namens exponentielle Glättung -24- und wir möchten weitere theoretische Untersuchungen durchführen. Wir können aus Abb. Dass der S-Window-Ansatz den jüngeren Kontext widerspiegelt und eine maximal 4-prozentige Verbesserung der Lieferung erzielt. Von Jan G De Gooijer, Rob J Hyndman - Internationale Zeitschrift für Vorhersage. Zusammenfassung: Wir untersuchen die letzten 25 Jahre der Forschung in Zeitreihen-Prognose. In dieser Silberjubiläumsausgabe heben wir natürlich die Ergebnisse hervor, die in Zeitschriften veröffentlicht wurden, die vom Internationalen Institut für Forecasters (Journal of Forecasting 19821985 International Journal of Forecasting 19852005) verwaltet werden. Zusammenfassung: Wir untersuchen die letzten 25 Jahre der Forschung in Zeitreihen-Prognose. In dieser Silberjubiläumsausgabe heben wir natürlich die Ergebnisse hervor, die in Zeitschriften veröffentlicht wurden, die vom Internationalen Institut für Forecasters (Journal of Forecasting 19821985 International Journal of Forecasting 19852005) verwaltet werden. Während dieser Zeit umfasste über ein Drittel aller in diesen Zeitschriften veröffentlichten Zeitschriften Zeitreihenvorhersagen. Wir berichten auch über einflussreiche Arbeiten über Zeitreihenprognosen, die in diesem Zeitraum an anderer Stelle veröffentlicht wurden. In vielen Bereichen sind enorme Fortschritte zu verzeichnen, aber es gibt viele Themen, die einer weiteren Entwicklung bedürfen. Wir schließen mit Kommentaren von Yuhong Yang - Ökonometrische Theorie. 2004. Wir studieren einige Methoden der Kombination von Prozeduren für die Prognose einer kontinuierlichen Zufallsvariable. Statistische Risikobeschränkungen unter dem quadratischen Fehlerverlust werden unter milden Verteilungsannahmen auf die Zukunft angesichts der gegenwärtigen Außeninformationen und der vergangenen Beobachtungen erhalten. Die Risikobeschränkungen zeigen, dass. Wir studieren einige Methoden der Kombination von Prozeduren für die Prognose einer kontinuierlichen Zufallsvariable. Statistische Risikobeschränkungen unter dem quadratischen Fehlerverlust werden unter milden Verteilungsannahmen auf die Zukunft angesichts der gegenwärtigen Außeninformationen und der vergangenen Beobachtungen erhalten. Die Risikobeschränkungen zeigen, dass die kombinierte Prognose automatisch die beste Performance zwischen den Kandidatenprozessen bis zu einem konstanten Faktor und einem additiven Straftermin erreicht. Unter Berücksichtigung der Konvergenzrate führt die kombinierte Prognose sowie, wenn man wüsste, welches Kandidatenprognoseverfahren das beste im Voraus ist. Empirische Studien schlagen vor, dass Kombinationsprozesse manchmal die Prognosegenauigkeit im Vergleich zu den ursprünglichen Prozeduren verbessern können. Risikobegrenzungen werden abgeleitet, um theoretisch die potenziellen Gewinne und den Preis für die lineare Kombination von Verbesserungsvorhersagen zu quantifizieren. Das Ergebnis unterstützt die empirische Feststellung, dass es nicht automatisch eine gute Idee ist, Prognosen zu kombinieren. Eine blinde Kombination kann die Leistungsfähigkeit dramatisch verschlechtern, und zwar aufgrund der unerwünschten großen Variabilität bei der Schätzung der besten Kombinationsgewichte. Ein automatisiertes Kombinationsverfahren wird in der Theorie gezeigt, um ein Gleichgewicht zwischen dem Potentialgewinn und der Komplexitätsstrafe (dem Kombinationspreis) zu erzielen, um (wenn überhaupt) eine spärliche Kombination zu nutzen und die beste Leistung (in der Rate) unter den Kandidatenvorhersagen aufrechtzuerhalten Wenn lineare oder spärliche Kombinationen nicht helfen. Von Shawndra Hill, Deepak K. Agarwal, Robert Bell, Chris Volinsky - Zeitschrift für Computer - und Graphische Statistik. 2006. Ein dynamisches Netzwerk ist eine spezielle Art von Netzwerk, das aus miteinander verbundenen Transaktern besteht, die sich wiederholt entwickelnde Interaktion haben. Daten über große dynamische Netzwerke wie Telekommunikationsnetze und das Internet sind durchgreifend. Jedoch repräsentieren dynamische Netzwerke in einer Weise, die förderlich für effic ist. Ein dynamisches Netzwerk ist eine spezielle Art von Netzwerk, das aus miteinander verbundenen Transaktern besteht, die sich wiederholt entwickelnde Interaktion haben. Daten über große dynamische Netzwerke wie Telekommunikationsnetze und das Internet sind durchgreifend. Dynamische Netzwerke zu repräsentieren, die eine effiziente Großanalyse begünstigen, ist eine Herausforderung. In diesem Artikel vertreten wir dynamische Graphen mit einer Datenstruktur in einem früheren Artikel eingeführt. Wir befürworten ihre Repräsentation, weil sie für die Evolution der Beziehungen zwischen den Transaktoren durch die Zeit verantwortlich ist, das Rauschen auf der lokalen Transaktorebene verringert und die Entfernung von abgestandenen Beziehungen ermöglicht. Unsere Arbeit verbessert ihre heuristischen Argumente, indem sie die Darstellung mit drei abstimmbaren Parametern formalisiert. Dabei entwickeln wir ein generisches Framework zur Auswertung und Optimierung eines dynamischen Graphen. Wir zeigen, dass die an der Repräsentation beteiligten Speicherungsnäherungen die prädiktive Leistung nicht beeinflussen und diese in der Regel verbessern. Wir motivieren unseren Ansatz mit einem Betrugserfassungsbeispiel aus der Telekommunikationsbranche und zeigen, dass wir die veröffentlichten Ergebnisse der Betrugserkennungsaufgabe übertreffen können. Darüber hinaus stellen wir eine vorläufige Analyse zu Weblogs und E-Mail-Netzwerken vor. Die den aktuellen Graphen beeinflussen. Diese Form der Gewichtsfunktion ist in dem Sinne günstig, daß die Gleichung (1) in der Wiederholungsform ausgedrückt werden kann: Diese Form ist in der Statistik als exponentielle Glättung -30 bekannt. Es bietet eine glatte dynamische Entwicklung von Gt. Die iterative Natur der Aktualisierung ermöglicht es uns, die Informationen aus allen früheren Zeiträumen ohne Einbeziehung der Verwaltung und speichern. Von Ilan Alon, Min Qi, Robert J. Sadowski - Zeitschrift für Handel und Verbraucherschutz. 2001. Wie viele andere wirtschaftliche Zeitreihen haben US-Aggregate-Einzelhandelsumsätze starke Trend - und saisonale Muster. Wie man diese Muster am besten modelliert und prognostiziert, ist in der Zeitreihenanalyse ein langjähriges Problem. Dieser Artikel vergleicht artiquotische neuronale Netze und traditionelle Methoden einschließlich Winter. Wie viele andere wirtschaftliche Zeitreihen haben US-Aggregate-Einzelhandelsumsätze starke Trend - und saisonale Muster. Wie man diese Muster am besten modelliert und prognostiziert, ist in der Zeitreihenanalyse ein langjähriges Problem. Dieser Artikel vergleicht artiampquotcial neuronale Netze und traditionelle Methoden einschließlich Winters exponentielle Glättung, BoxJenkins ARIMA Modell und multivariate Regression. Die Ergebnisse zeigen, dass im Durchschnitt ANNs günstiger in Bezug auf die eher traditionellen statistischen Methoden, gefolgt von der BoxJenkins-Modell. Trotz seiner Einfachheit erwies sich das Winters-Modell als eine tragfähige Methode zur mehrstufigen Prognose unter relativ stabilen wirtschaftlichen Bedingungen. Die Derivatanalyse zeigt, dass das neuronale Netzmodell in der Lage ist, den dynamischen nichtlinearen Trend und von George Athanasopoulos, Rob J. Hyndman, zu erfassen. In diesem Papier, wir modellieren und prognostizieren australischen Binnenverkehr Nachfrage. Wir verwenden ein Regressions-Framework, um wichtige wirtschaftliche Zusammenhänge für die Nachfrage im Inlandsmarkt abzuschätzen. Wir identifizieren auch die Auswirkungen von Welt-Veranstaltungen wie die 2000 Sydney Olympics und die 2002 Bali-Bombenanschläge auf australischen Kuppeln. In diesem Papier, wir modellieren und prognostizieren australischen Binnenverkehr Nachfrage. Wir verwenden ein Regressions-Framework, um wichtige wirtschaftliche Zusammenhänge für die Nachfrage im Inlandsmarkt abzuschätzen. Wir identifizieren auch die Auswirkungen von Welt-Veranstaltungen wie die 2000 Sydney Olympics und die 2002 Bali Bombenanschläge auf australischen Inlandstourismus. Um die Zeitreihe der Daten zu erforschen, verwenden wir Innovationen Zustandsraummodelle, um die Nachfrage im Inland zu prognostizieren. Kombinieren diese beiden Frameworks, bauen wir Innovationen State-Space-Modelle mit exogenen Variablen. Diese Modelle sind in der Lage, die Zeitreihen-Dynamik in den Daten, sowie wirtschaftliche und andere Beziehungen zu erfassen. Wir zeigen, dass diese Modelle alternative Ansätze für kurzfristige Prognosen übertreffen und auch vernünftige langfristige Prognosen erzeugen. Die Prognosen werden mit den offiziellen australischen Staatsvorhersagen verglichen, die sich als optimistischer erweisen als unsere Prognosen. Alle Schulstufen. 3.2. Exponentielle Glättung durch Innovationen Zustandsraummodelle In den späten fünfziger Jahren wurde eine exponentielle Glättung vorgeschlagen (siehe die Pionierarbeiten von Brown, 1959, Holt, 1957 - Winters, 1960) und hat einige der erfolgreichsten Prognosemethoden motiviert. Prognosen, die unter Verwendung exponentieller Glättungsmethoden erzeugt werden, sind gewichtete Mittelwerte von vergangenen Beobachtungen, wobei die Gewichte sich verjüngen. Von Sarah Gelper, Christophe Croux, Sarah Gelper, Roland Fried, Christophe Croux. 2007. Robuste Versionen der Exponential - und Holt-Winters-Glättungsmethode für die Prognose werden vorgestellt. Sie eignen sich zur Prognose von univariaten Zeitreihen in Gegenwart von Ausreißern. Die robusten Exponential - und Holt-Winters-Glättungsmethoden werden als rekursives Aktualisierungsschema dargestellt. Sowohl die Aktualisierung. Robuste Versionen der Exponential - und Holt-Winters-Glättungsmethode für die Prognose werden vorgestellt. Sie eignen sich zur Prognose von univariaten Zeitreihen in Gegenwart von Ausreißern. Die robusten Exponential - und Holt-Winters-Glättungsmethoden werden als rekursives Aktualisierungsschema dargestellt. Sowohl die Aktualisierungsgleichung als auch die Auswahl der Glättungsparameter sind robust. Diese robuste Methode entspricht einer bestimmten Form des robusten Kalman-lters in einem lokalen linearen Trendmodell. Eine Simulationsstudie vergleicht die robusten und klassischen Prognosen. Die dargestellte Methode hat gute Prognoseperformance für Zeitreihen mit und ohne Ausreißer, sowie für fat tailed Zeitreihen. Die Methode wird anhand von realen Daten dargestellt, die Trends und saisonale Effekte beinhalten. Von Steffen Unkel, C. Paddy Farrington, Paul H. Garthwaite, Chris Robertson, Nick Andrews. Ungewöhnliche Cluster von Krankheiten müssen schnell erkannt werden, damit wirksame Interventionen der öffentlichen Gesundheit eingeführt werden können. In den vergangenen zehn Jahren gab es einen Anstieg des Interesses an statistischen Methoden für die Früherkennung von Infektionskrankheiten Ausbrüchen. Dieses Wachstum des Interesses hat viel Neues hervorgerufen. Ungewöhnliche Cluster von Krankheiten müssen schnell erkannt werden, damit wirksame Interventionen der öffentlichen Gesundheit eingeführt werden können. In den vergangenen zehn Jahren gab es einen Anstieg des Interesses an statistischen Methoden für die Früherkennung von Infektionskrankheiten Ausbrüchen. Diese Zunahme des Interesses hat zu einer viel neuen methodischen Arbeit geführt, die sich über das gesamte Spektrum der statistischen Methoden erstreckt. Dieses Papier enthält eine umfassende Übersicht der vorgeschlagenen statistischen Ansätze. Sowohl Labor - als auch Syndromüberwachungsdaten werden bereitgestellt, um die verschiedenen Verfahren zu veranschaulichen. E der Trend und saisonale Komponente. Zwei gemeinsame Zeitreihenverfahren, die bei der Überwachung verwendet werden, sind einfache exponentielle Glättung (z. B. Healy 1983 Ngo et al., 1996) und das Holt-Winters-Verfahren (Holt 1957 - Winters 1960-). Einfache exponentielle Glättung stellt sicher, dass die Daten keine Trend - oder Saisonalität aufweisen. Er bildet Vorhersagen, indem er einen gewichteten Durchschnitt der vergangenen Beobachtungen nimmt, wo die Gewichte exponentiell die Furt verringern. Von Eiko Yoneki, Pan Hui, Jon Crowcroft - Bioinspiriertes Rechnen und Kommunikation. Abstrakt. Die Entstehung von Delay Tolerant Networks (DTNs) hat ihren Höhepunkt in einer neuen Generation von Wireless Networking. Neue Kommunikations-Paradigmen, die dynamisch miteinander verknüpft sind, wie die Menschen einander antreffen, führen zu einer Welt, in der der digitale Verkehr leichter fließt. Wir fo Abstrakt. Die Entstehung von Delay Tolerant Networks (DTNs) hat ihren Höhepunkt in einer neuen Generation von Wireless Networking. Neue Kommunikations-Paradigmen, die dynamisch miteinander verknüpft sind, wie die Menschen einander antreffen, führen zu einer Welt, in der der digitale Verkehr leichter fließt. Wir konzentrieren uns auf humanto-menschliche Kommunikation in Umgebungen, die die Merkmale von sozialen Netzwerken aufweisen. Dieses Papier beschreibt unsere Studie des Informationsflusses während der epidemischen Ausbreitung in solchen dynamischen menschlichen Netzwerken, ein Thema, das viele Themen mit netzbasierter Epidemiologie teilt. Wir untersuchen Knotenpunkte, die aus realen Kontextspuren gewonnen wurden, und zeigen deren Einfluss auf die Epidemie, um die Eigenschaften der Informationsverbreitung zu demonstrieren. Pro 6 Stunden). Wir wählten ein 6-Stunden-Zeitfenster basierend auf unserer Intuition, dass das tägliche Leben in 4 Hauptperioden aufgeteilt ist: Morgen, Nachmittag, Abend und Nacht. Dies ist ähnlich der in -33- beschriebenen Methode. Es ist jedoch empfindlich, das Zeitfenster zu verschiedenen absoluten Tageszeiten zu starten. Wie Fig. 5 zeigt, könnte der Tageszyklus ein effizienteres Zeitfenster im Stadtraum sein. RANK Hub: Die fr. Moving durchschnittlichen und exponentiellen Glättungsmodelle Als ein erster Schritt bei der Überwindung jenseits der Mittelwerte Modelle, können random walk Modelle und lineare Trend-Modelle, nicht saisonale Muster und Trends können mit einem gleitenden Durchschnitt oder Glättung Modell extrapoliert werden. Die grundlegende Annahme hinter Mittelwertbildung und Glättungsmodellen ist, dass die Zeitreihe lokal stationär mit einem sich langsam verändernden Mittelwert ist. Daher nehmen wir einen bewegten (lokalen) Durchschnitt, um den aktuellen Wert des Mittelwerts abzuschätzen und dann als die Prognose für die nahe Zukunft zu verwenden. Dies kann als Kompromiss zwischen dem mittleren Modell und dem random-walk-ohne-Drift-Modell betrachtet werden. Die gleiche Strategie kann verwendet werden, um einen lokalen Trend abzuschätzen und zu extrapolieren. Ein gleitender Durchschnitt wird oft als "quotsmoothedquot" - Version der ursprünglichen Serie bezeichnet, da die kurzzeitige Mittelung die Wirkung hat, die Stöße in der ursprünglichen Reihe zu glätten. Durch Anpassen des Glättungsgrades (die Breite des gleitenden Durchschnitts) können wir hoffen, eine Art von optimaler Balance zwischen der Leistung des Mittelwerts und der zufälligen Wandermodelle zu erreichen. Die einfachste Art der Mittelung Modell ist die. Einfache (gleichgewichtige) Moving Average: Die Prognose für den Wert von Y zum Zeitpunkt t1, der zum Zeitpunkt t gemacht wird, entspricht dem einfachen Mittelwert der letzten m Beobachtungen: (Hier und anderswo werde ich das Symbol 8220Y-hat8221 stehen lassen Für eine Prognose der Zeitreihe Y, die am frühestmöglichen früheren Zeitpunkt durch ein gegebenes Modell durchgeführt wird.) Dieser Mittelwert wird in der Periode t (m1) / 2 zentriert, was bedeutet, daß die Schätzung des lokalen Mittels dazu neigt, hinter dem Wert zu liegen Wahren Wert des lokalen Mittels um etwa (m1) / 2 Perioden. Das Durchschnittsalter der Daten im einfachen gleitenden Durchschnitt ist also (m1) / 2 relativ zu der Periode, für die die Prognose berechnet wird: dies ist die Zeitspanne, in der die Prognosen dazu tendieren, hinter den Wendepunkten in der Region zu liegen Daten. Wenn Sie z. B. die letzten 5 Werte mitteln, werden die Prognosen etwa 3 Perioden spät sein, wenn sie auf Wendepunkte reagieren. Beachten Sie, dass, wenn m1, die einfache gleitende Durchschnitt (SMA) - Modell ist gleichbedeutend mit der random walk-Modell (ohne Wachstum). Wenn m sehr groß ist (vergleichbar der Länge des Schätzzeitraums), entspricht das SMA-Modell dem mittleren Modell. Wie bei jedem Parameter eines Prognosemodells ist es üblich, den Wert von k anzupassen, um den besten Quotienten der Daten zu erhalten, d. H. Die kleinsten Prognosefehler im Durchschnitt. Hier ist ein Beispiel einer Reihe, die zufällige Fluktuationen um ein sich langsam veränderndes Mittel zu zeigen scheint. Erstens können wir versuchen, es mit einem zufälligen Fußmodell, das entspricht einem einfachen gleitenden Durchschnitt von 1 Begriff entspricht: Das zufällige Wandermodell reagiert sehr schnell auf Änderungen in der Serie, aber dabei nimmt er viel von der quotnoisequot in der Daten (die zufälligen Fluktuationen) sowie das Quotsignalquot (das lokale Mittel). Wenn wir stattdessen einen einfachen gleitenden Durchschnitt von 5 Begriffen anwenden, erhalten wir einen glatteren Satz von Prognosen: Der 5-Term-einfache gleitende Durchschnitt liefert in diesem Fall deutlich kleinere Fehler als das zufällige Wegmodell. Das durchschnittliche Alter der Daten in dieser Prognose beträgt 3 ((51) / 2), so dass es dazu neigt, hinter den Wendepunkten um etwa drei Perioden zu liegen. (Zum Beispiel scheint ein Abschwung in Periode 21 aufgetreten zu sein, aber die Prognosen drehen sich erst nach mehreren Perioden später.) Beachten Sie, dass die Langzeitprognosen des SMA-Modells eine horizontale Gerade sind, genau wie beim zufälligen Weg Modell. Somit geht das SMA-Modell davon aus, dass es keinen Trend in den Daten gibt. Während jedoch die Prognosen aus dem Zufallswegmodell einfach dem letzten beobachteten Wert entsprechen, sind die Prognosen des SMA-Modells gleich einem gewichteten Mittelwert der neueren Werte. Die von Statgraphics berechneten Konfidenzgrenzen für die Langzeitprognosen des einfachen gleitenden Durchschnitts werden nicht breiter, wenn der Prognosehorizont zunimmt. Dies ist offensichtlich nicht richtig Leider gibt es keine zugrunde liegende statistische Theorie, die uns sagt, wie sich die Vertrauensintervalle für dieses Modell erweitern sollten. Allerdings ist es nicht zu schwer, empirische Schätzungen der Konfidenzgrenzen für die längerfristigen Prognosen zu berechnen. Beispielsweise können Sie eine Tabellenkalkulation einrichten, in der das SMA-Modell für die Vorhersage von 2 Schritten im Voraus, 3 Schritten voraus usw. innerhalb der historischen Datenprobe verwendet wird. Sie könnten dann die Stichproben-Standardabweichungen der Fehler bei jedem Prognosehorizont berechnen und dann Konfidenzintervalle für längerfristige Prognosen durch Addieren und Subtrahieren von Vielfachen der geeigneten Standardabweichung konstruieren. Wenn wir einen 9-term einfachen gleitenden Durchschnitt ausprobieren, erhalten wir sogar noch bessere Prognosen und mehr eine nacheilende Wirkung: Das Durchschnittsalter beträgt jetzt 5 Perioden ((91) / 2). Wenn wir einen 19-term gleitenden Durchschnitt nehmen, steigt das Durchschnittsalter auf 10 an: Beachten Sie, dass die Prognosen tatsächlich hinter den Wendepunkten um etwa 10 Perioden zurückbleiben. Welches Maß an Glättung ist am besten für diese Serie Hier ist eine Tabelle, die ihre Fehlerstatistiken vergleicht, darunter auch einen 3-Term-Durchschnitt: Modell C, der 5-Term-Gleitender Durchschnitt, ergibt den niedrigsten Wert von RMSE mit einer kleinen Marge über die 3 - term und 9-Term-Mittelwerte, und ihre anderen Statistiken sind fast identisch. So können wir bei Modellen mit sehr ähnlichen Fehlerstatistiken wählen, ob wir ein wenig mehr Reaktionsfähigkeit oder ein wenig mehr Glätte in den Prognosen bevorzugen würden. (Rückkehr nach oben.) Browns Einfache Exponentialglättung (exponentiell gewichteter gleitender Durchschnitt) Das oben beschriebene einfache gleitende Durchschnittsmodell hat die unerwünschte Eigenschaft, daß es die letzten k-Beobachtungen gleich und vollständig ignoriert. Intuitiv sollten vergangene Daten in einer allmählicheren Weise diskontiert werden - zum Beispiel sollte die jüngste Beobachtung ein wenig mehr Gewicht als die zweitletzte erhalten, und die 2. jüngsten sollten ein wenig mehr Gewicht als die 3. jüngsten erhalten, und bald. Das einfache exponentielle Glättungsmodell (SES) erfüllt dies. Es sei 945 eine quotsmoothing constantquot (eine Zahl zwischen 0 und 1). Eine Möglichkeit, das Modell zu schreiben, besteht darin, eine Reihe L zu definieren, die den gegenwärtigen Pegel (d. H. Den lokalen Mittelwert) der Serie, wie er aus Daten bis zu der Zeit geschätzt wird, darstellt. Der Wert von L zur Zeit t wird rekursiv von seinem eigenen vorherigen Wert wie folgt berechnet: Somit ist der aktuelle geglättete Wert eine Interpolation zwischen dem vorher geglätteten Wert und der aktuellen Beobachtung, wobei 945 die Nähe des interpolierten Wertes auf die neueste steuert Überwachung. Die Prognose für die nächste Periode ist einfach der aktuelle geglättete Wert: Äquivalent können wir die nächste Prognose direkt in Form früherer Prognosen und früherer Beobachtungen in einer der folgenden gleichwertigen Versionen ausdrücken. In der ersten Version ist die Prognose eine Interpolation zwischen vorheriger Prognose und vorheriger Beobachtung: In der zweiten Version wird die nächste Prognose durch Anpassung der bisherigen Prognose in Richtung des bisherigen Fehlers um einen Bruchteil 945 erhalten Zeit t. In der dritten Version ist die Prognose ein exponentiell gewichteter (dh diskontierter) gleitender Durchschnitt mit Abzinsungsfaktor 1-945: Die Interpolationsversion der Prognoseformel ist am einfachsten zu verwenden, wenn Sie das Modell in einer Tabellenkalkulation implementieren Einzelne Zelle und enthält Zellverweise, die auf die vorhergehende Prognose, die vorherige Beobachtung und die Zelle mit dem Wert von 945 zeigen. Beachten Sie, dass, wenn 945 1, das SES-Modell zu einem zufälligen Weg-Modell (ohne Wachstum) äquivalent ist. Wenn 945 0 ist, entspricht das SES-Modell dem mittleren Modell, wobei angenommen wird, dass der erste geglättete Wert gleich dem Mittelwert gesetzt ist. (Zurück zum Seitenanfang) Das Durchschnittsalter der Daten in der Simple-Exponential-Glättungsprognose beträgt 1/945 relativ zu dem Zeitraum, für den die Prognose berechnet wird. (Dies sollte nicht offensichtlich sein, kann aber leicht durch die Auswertung einer unendlichen Reihe gezeigt werden.) Die einfache gleitende Durchschnittsprognose neigt daher zu Verzögerungen hinter den Wendepunkten um etwa 1/945 Perioden. Wenn beispielsweise 945 0,5 die Verzögerung 2 Perioden beträgt, wenn 945 0,2 die Verzögerung 5 Perioden beträgt, wenn 945 0,1 die Verzögerung 10 Perioden und so weiter ist. Für ein gegebenes Durchschnittsalter (d. H. Eine Verzögerung) ist die einfache exponentielle Glättungsprognose (SES) der simplen gleitenden Durchschnittsprognose (SMA) etwas überlegen, weil sie relativ viel mehr Gewicht auf die jüngste Beobachtung - i. e stellt. Es ist etwas mehr quresponsivequot zu Änderungen, die sich in der jüngsten Vergangenheit. Zum Beispiel haben ein SMA - Modell mit 9 Terminen und ein SES - Modell mit 945 0,2 beide ein durchschnittliches Alter von 5 Jahren für die Daten in ihren Prognosen, aber das SES - Modell legt mehr Gewicht auf die letzten 3 Werte als das SMA - Modell und am Gleiches gilt für die Werte von mehr als 9 Perioden, wie in dieser Tabelle gezeigt: 822forget8221. Ein weiterer wichtiger Vorteil des SES-Modells gegenüber dem SMA-Modell ist, dass das SES-Modell einen Glättungsparameter verwendet, der kontinuierlich variabel ist und somit leicht optimiert werden kann Indem ein Quotsolverquot-Algorithmus verwendet wird, um den mittleren quadratischen Fehler zu minimieren. Der optimale Wert von 945 im SES-Modell für diese Serie ergibt sich wie folgt: Das Durchschnittsalter der Daten in dieser Prognose beträgt 1 / 0,2961 3,4 Perioden, was ähnlich wie bei einem 6-Term-Simple Moving ist durchschnittlich. Die Langzeitprognosen aus dem SES-Modell sind eine horizontale Gerade. Wie im SMA-Modell und dem Random-Walk-Modell ohne Wachstum. Es ist jedoch anzumerken, dass die von Statgraphics berechneten Konfidenzintervalle nun in einer vernünftigen Weise abweichen und dass sie wesentlich schmaler sind als die Konfidenzintervalle für das Zufallswegmodell. Das SES-Modell geht davon aus, dass die Serie etwas vorhersehbarer ist als das Zufallswandermodell. Ein SES-Modell ist eigentlich ein Spezialfall eines ARIMA-Modells. So dass die statistische Theorie der ARIMA-Modelle eine solide Grundlage für die Berechnung der Konfidenzintervalle für das SES-Modell bildet. Insbesondere ist ein SES-Modell ein ARIMA-Modell mit einer nicht sonderbaren Differenz, einem MA (1) - Term und kein konstanter Term. Ansonsten als quotARIMA (0,1,1) - Modell ohne Konstantquot bekannt. Der MA (1) - Koeffizient im ARIMA-Modell entspricht der Größe 1 - 945 im SES-Modell. Wenn Sie zum Beispiel ein ARIMA-Modell (0,1,1) ohne Konstante an die hier analysierte Serie anpassen, ergibt sich der geschätzte MA (1) - Koeffizient auf 0,7029, was fast genau ein Minus von 0,2961 ist. Es ist möglich, die Annahme eines von Null verschiedenen konstanten linearen Trends zu einem SES-Modell hinzuzufügen. Dazu wird nur ein ARIMA-Modell mit einer Nicht-Seasonal-Differenz und einem MA (1) - Term mit einer Konstanten, d. h. einem ARIMA-Modell (0,1,1) mit konstantem Wert angegeben. Die langfristigen Prognosen haben dann einen Trend, der dem durchschnittlichen Trend über den gesamten Schätzungszeitraum entspricht. Sie können dies nicht in Verbindung mit saisonalen Anpassungen tun, da die saisonalen Anpassungsoptionen deaktiviert sind, wenn der Modelltyp auf ARIMA gesetzt ist. Sie können jedoch einen konstanten langfristigen exponentiellen Trend zu einem einfachen exponentiellen Glättungsmodell (mit oder ohne saisonale Anpassung) hinzufügen, indem Sie die Inflationsanpassungsoption im Prognoseverfahren verwenden. Die prozentuale Zinssatzquote (prozentuale Wachstumsrate) pro Periode kann als der Steigungskoeffizient in einem linearen Trendmodell geschätzt werden, das an die Daten in Verbindung mit einer natürlichen Logarithmuswandlung angepasst ist, oder es kann auf anderen unabhängigen Informationen bezüglich der langfristigen Wachstumsperspektiven beruhen . (Rückkehr nach oben.) Browns Linear (dh doppelt) Exponentielle Glättung Die SMA-Modelle und SES-Modelle gehen davon aus, dass es in den Daten keinen Trend gibt (was in der Regel in Ordnung ist oder zumindest nicht zu schlecht für 1- Wenn die Daten relativ verrauscht sind), und sie können modifiziert werden, um einen konstanten linearen Trend, wie oben gezeigt, zu integrieren. Was ist mit kurzfristigen Trends Wenn eine Serie eine unterschiedliche Wachstumsrate oder ein zyklisches Muster zeigt, das sich deutlich gegen das Rauschen auszeichnet, und wenn es notwendig ist, mehr als eine Periode vorher zu prognostizieren, könnte die Schätzung eines lokalen Trends auch sein Ein Problem. Das einfache exponentielle Glättungsmodell kann verallgemeinert werden, um ein lineares exponentielles Glättungsmodell (LES) zu erhalten, das lokale Schätzungen sowohl des Niveaus als auch des Trends berechnet. Das einfachste zeitvariable Trendmodell ist Browns lineares exponentielles Glättungsmodell, das zwei verschiedene geglättete Serien verwendet, die zu verschiedenen Zeitpunkten zentriert sind. Die Prognoseformel basiert auf einer Extrapolation einer Linie durch die beiden Zentren. (Eine weiterentwickelte Version dieses Modells, Holt8217s, wird unten diskutiert.) Die algebraische Form des Brown8217s linearen exponentiellen Glättungsmodells, wie die des einfachen exponentiellen Glättungsmodells, kann in einer Anzahl von unterschiedlichen, aber äquivalenten Formen ausgedrückt werden. Die quadratische quadratische Form dieses Modells wird gewöhnlich wie folgt ausgedrückt: Sei S die einfach geglättete Reihe, die durch Anwendung einfacher exponentieller Glättung auf Reihe Y erhalten wird. Das heißt, der Wert von S in der Periode t ist gegeben durch: (Erinnern wir uns, Exponentielle Glättung, so würde dies die Prognose für Y in der Periode t1 sein.) Dann sei Squot die doppelt geglättete Folge, die man erhält, indem man eine einfache exponentielle Glättung (unter Verwendung desselben 945) auf die Reihe S anwendet: Schließlich die Prognose für Ytk. Für jedes kgt1 ist gegeben durch: Dies ergibt e & sub1; & sub0; (d. h. Cheat ein Bit und die erste Prognose der tatsächlichen ersten Beobachtung gleich) und e & sub2; Y & sub2; 8211 Y & sub1; Nach denen die Prognosen unter Verwendung der obigen Gleichung erzeugt werden. Dies ergibt die gleichen Anpassungswerte wie die Formel auf der Basis von S und S, wenn diese mit S 1 S 1 Y 1 gestartet wurden. Diese Version des Modells wird auf der nächsten Seite verwendet, die eine Kombination von exponentieller Glättung mit saisonaler Anpassung veranschaulicht. Holt8217s Lineares Exponentialglättung Brown8217s LES-Modell berechnet lokale Schätzungen von Pegel und Trend durch Glätten der letzten Daten, aber die Tatsache, dass dies mit einem einzigen Glättungsparameter erfolgt, legt eine Einschränkung für die Datenmuster fest, die es anpassen kann: den Pegel und den Trend Dürfen nicht zu unabhängigen Preisen variieren. Holt8217s LES-Modell adressiert dieses Problem durch zwei Glättungskonstanten, eine für die Ebene und eine für den Trend. Zu jedem Zeitpunkt t, wie in Brown8217s-Modell, gibt es eine Schätzung L t der lokalen Ebene und eine Schätzung T t der lokalen Trend. Hier werden sie rekursiv aus dem zum Zeitpunkt t beobachteten Wert von Y und den vorherigen Schätzungen von Pegel und Trend durch zwei Gleichungen berechnet, die exponentielle Glättung separat anwenden. Wenn der geschätzte Pegel und der Trend zum Zeitpunkt t-1 L t82091 und T t-1 sind. Dann ist die Prognose für Y tshy, die zum Zeitpunkt t-1 gemacht worden wäre, gleich L t-1 T t-1. Wenn der tatsächliche Wert beobachtet wird, wird die aktualisierte Schätzung des Pegels rekursiv berechnet, indem zwischen Y tshy und seiner Prognose L t-1 T t-1 unter Verwendung von Gewichten von 945 und 1- 945 interpoliert wird. Die Änderung des geschätzten Pegels, Nämlich L t 8209 L t82091. Kann als eine verrauschte Messung des Trends zum Zeitpunkt t interpretiert werden. Die aktualisierte Schätzung des Trends wird dann rekursiv berechnet, indem zwischen L t 8209 L t82091 und der vorherigen Schätzung des Trends T t-1 interpoliert wird. Unter Verwendung der Gewichte von 946 und 1-946: Die Interpretation der Trendglättungskonstanten 946 ist analog zu der Pegelglättungskonstante 945. Modelle mit kleinen Werten von 946 nehmen an, dass sich der Trend mit der Zeit nur sehr langsam ändert, während Modelle mit Größere 946 nehmen an, dass sie sich schneller ändert. Ein Modell mit einem großen 946 glaubt, dass die ferne Zukunft sehr unsicher ist, da Fehler in der Trendschätzung bei der Prognose von mehr als einer Periode ganz wichtig werden. (Rückkehr nach oben) Die Glättungskonstanten 945 und 946 können auf übliche Weise geschätzt werden, indem der mittlere quadratische Fehler der 1-Schritt-Voraus-Prognosen minimiert wird. Wenn dies in Statgraphics getan wird, erweisen sich die Schätzungen als 945 0.3048 und 946 0,008. Der sehr geringe Wert von 946 bedeutet, dass das Modell eine sehr geringe Veränderung im Trend von einer Periode zur nächsten annimmt, so dass dieses Modell im Grunde versucht, einen langfristigen Trend abzuschätzen. In Analogie zum Durchschnittsalter der Daten, die für die Schätzung der lokalen Ebene der Serie verwendet werden, ist das Durchschnittsalter der Daten, die bei der Schätzung des lokalen Trends verwendet werden, proportional zu 1/946, wenn auch nicht exakt gleich es. In diesem Fall ergibt sich 1 / 0,006 125. Dies ist eine sehr genaue Zahl, da die Genauigkeit der Schätzung von 946 nicht wirklich 3 Dezimalstellen beträgt, sondern sie ist von der gleichen Größenordnung wie die Stichprobengröße von 100 , So dass dieses Modell ist im Durchschnitt über eine ganze Menge Geschichte bei der Schätzung der Trend. Das Prognose-Diagramm unten zeigt, dass das LES-Modell einen etwas größeren lokalen Trend am Ende der Serie schätzt als der im SEStrend-Modell geschätzte konstante Trend. Außerdem ist der Schätzwert von 945 fast identisch mit dem, der durch Anpassen des SES-Modells mit oder ohne Trend erhalten wird, so dass dies fast das gleiche Modell ist. Nun, sehen diese aussehen wie vernünftige Prognosen für ein Modell, das soll Schätzung einer lokalen Tendenz Wenn Sie 8220eyeball8221 dieser Handlung, sieht es so aus, als ob der lokale Trend nach unten am Ende der Serie gedreht hat Was ist passiert Die Parameter dieses Modells Wurden durch Minimierung des quadratischen Fehlers von 1-Schritt-Voraus-Prognosen, nicht längerfristigen Prognosen, abgeschätzt, wobei der Trend keinen großen Unterschied macht. Wenn alles, was Sie suchen, 1-Schritt-vor-Fehler sind, sehen Sie nicht das größere Bild der Trends über (sagen) 10 oder 20 Perioden. Um dieses Modell im Einklang mit unserer Augapfel-Extrapolation der Daten zu erhalten, können wir die Trendglättungskonstante manuell anpassen, so dass sie eine kürzere Basislinie für die Trendschätzung verwendet. Wenn wir beispielsweise 946 0,1 setzen, beträgt das durchschnittliche Alter der Daten, die bei der Schätzung des lokalen Trends verwendet werden, 10 Perioden, was bedeutet, dass wir den Trend über die letzten 20 Perioden oder so mitteln. Here8217s, was das Prognose-Plot aussieht, wenn wir 946 0,1 setzen, während 945 0,3 halten. Dies scheint intuitiv vernünftig für diese Serie, obwohl es wahrscheinlich gefährlich, diesen Trend mehr als 10 Perioden in der Zukunft zu extrapolieren. Was ist mit den Fehlerstatistiken Hier ist ein Modellvergleich für die beiden oben gezeigten Modelle sowie drei SES-Modelle. Der optimale Wert von 945 für das SES-Modell beträgt etwa 0,3, aber ähnliche Ergebnisse (mit etwas mehr oder weniger Reaktionsfähigkeit) werden mit 0,5 und 0,2 erhalten. (A) Holts linearer Exp. Glättung mit alpha 0.3048 und beta 0,008 (B) Holts linear exp. Glättung mit alpha 0,3 (E) Einfache exponentielle Glättung mit alpha 0,3 (E) Einfache exponentielle Glättung mit alpha 0,2 Ihre Stats sind nahezu identisch, so dass wir wirklich die Wahl auf der Basis machen können Von 1-Schritt-Vorhersagefehlern innerhalb der Datenprobe. Wir müssen auf andere Überlegungen zurückgreifen. Wenn wir glauben, dass es sinnvoll ist, die aktuelle Trendschätzung auf das, was in den letzten 20 Perioden passiert ist, zugrunde zu legen, können wir für das LES-Modell mit 945 0,3 und 946 0,1 einen Fall machen. Wenn wir agnostisch sein wollen, ob es einen lokalen Trend gibt, dann könnte eines der SES-Modelle leichter zu erklären sein, und würde auch für die nächsten 5 oder 10 Perioden mehr Mittelprognosen geben. (Rückkehr nach oben.) Welche Art von Trend-Extrapolation am besten ist: horizontal oder linear Empirische Evidenz deutet darauf hin, dass es, wenn die Daten bereits für die Inflation angepasst wurden (wenn nötig), unprätent ist, kurzfristige lineare Werte zu extrapolieren Trends sehr weit in die Zukunft. Die heutigen Trends können sich in Zukunft aufgrund unterschiedlicher Ursachen wie Produktveralterung, verstärkte Konkurrenz und konjunkturelle Abschwünge oder Aufschwünge in einer Branche abschwächen. Aus diesem Grund führt eine einfache exponentielle Glättung oft zu einer besseren Out-of-Probe, als ansonsten erwartet werden könnte, trotz ihrer quotnaivequot horizontalen Trend-Extrapolation. Damped Trendmodifikationen des linearen exponentiellen Glättungsmodells werden in der Praxis häufig auch eingesetzt, um in seinen Trendprojektionen eine Note des Konservatismus einzuführen. Das Dämpfungs-Trend-LES-Modell kann als Spezialfall eines ARIMA-Modells, insbesondere eines ARIMA-Modells (1,1,2), implementiert werden. Es ist möglich, Konfidenzintervalle um langfristige Prognosen zu berechnen, die durch exponentielle Glättungsmodelle erzeugt werden, indem man sie als Spezialfälle von ARIMA-Modellen betrachtet. (Achtung: Nicht alle Software berechnet die Konfidenzintervalle für diese Modelle korrekt.) Die Breite der Konfidenzintervalle hängt ab von (i) dem RMS-Fehler des Modells, (ii) der Art der Glättung (einfach oder linear) (iii) dem Wert (S) der Glättungskonstante (n) und (iv) die Anzahl der Perioden vor der Prognose. Im Allgemeinen breiten sich die Intervalle schneller aus, da 945 im SES-Modell größer wird und sich viel schneller ausbreiten, wenn lineare statt einfache Glättung verwendet wird. Dieses Thema wird im Abschnitt "ARIMA-Modelle" weiter erläutert. (Zurück zum Seitenanfang.)

No comments:

Post a Comment