Friday, 15 September 2017

Autoregressive Integrierte Moving Average Excel


Brauchen Sie Excel Consulting und Data Mining Services Sie sind mit einer dieser Herausforderungen konfrontiert Die Notwendigkeit, ein Excel-Makro zu erstellen, um eine große Aufgabe zu tun Ein repetitiver Job in Excel, die Stunden oder Tage dauert, um manuell zu tun Gefragt, um ein Excel-Makro zu lösen, zu erstellen Große Notwendigkeit Die Notwendigkeit, Rohdaten in nützliches Excel-Format zu konvertieren Die Notwendigkeit, ein Excel-Makro für die Verwendung von vielen Menschen in Ihrem Unternehmen zu erstellen Eine enge Frist Unsere Dienstleistungen umfassen, sind aber nicht beschränkt auf: Datenbankprogrammierung Bericht Automatisierung Reporting Datenmanipulation und Konvertierung Datenbank-Marketing Data Audit Excel VBA-Programmierung Datenbereinigung Data Mining und Prognose Datenintegration Financial Modeling Query Rechner und Tools Kundenspezifische Excel-Funktionen Tabellenkalkulation und Datenbank-Design Wenn Sie sind, können wir Ihnen helfen Wir können: Durchführen von Qualitätsaufgaben von der einfachen bis zur schwierigen. Verbesserungen und Verbesserungen vorschlagen. Tun Sie dies für kleine und große Jobs. Tun Sie dies zu einem vernünftigen Preis. Liefern Sie das Makro schnell und pünktlich. Lesen Sie weiter Nehmen Sie den nächsten Schritt und kontaktieren Sie uns. Es dauert nur wenige Minuten: Nutzen Sie unser Kontaktformular, um uns über unsere Excel Beratungs - und Datendienste zu kontaktieren. Geben Sie uns eine kurze Beschreibung Ihres Bedarfs. Nun kontaktieren Sie innerhalb von Stunden in den meisten Fällen. Testimonials Excel Business Solutions bietet zuverlässige und professionelle Unterstützung bei der Entwicklung von Tools für Projektmanager in unserem Unternehmen. Die Tatsache, dass Anthony und sein Team Lösungen für komplexe Aufgaben leisten können, machen ihn zu einem unschätzbaren IT-Experten. Ich empfehle Excel Business Solutions - Batoor Khan, ATB Austria - Excel Business Solutions hat sich auf alle Herausforderungen, die ich ihnen gestellt habe gestiegen und schneiderte Lösungen für unsere einzigartigen Anforderungen machen EXCEL mehr funktional für unsere Analysten. - Dr. Stephen St. George-Smith, PICR, Großbritannien - Anthony und sein Team waren in der Lage, sehr leistungsstarke und dennoch einfach zu bedienen Pivot-Tabellen, die bei der Entwicklung unserer Business-Analytik geholfen haben. - Joe C. Stone Oak Underwriters, LLC. USA. - Excel Business Solutions ersparte mir ZEIT, Geld und Frustration. Intelligente Menschen umgeben sich mit kompetenten Menschen. - Jim H. Whitman Grafschaft-Assessoren-Büro. USA - Dank Anthony für seine kompetenten Excel-Fähigkeiten und erstaunliche Bearbeitungszeit. Ive kommen, um ihn mein IT Genie zu nennen und ihm mehrfache Projekte gegeben haben, die durchweg hervorragende Resultate lieferten. Das Finden von ihm durch eine Internet-Suche war wie das Finden von Gold in einem Heuhaufen. Danke noch einmal. - Lee. Altschuler-Gesetz. USA - Einer unserer High-Tech-Fortune-100-Clients übergab uns einen sehr komplizierten Bericht und bat uns, es benutzerfreundlicher zu gestalten. Excel Business Solutions stellte eine elegante Lösung für eine sehr anspruchsvolle Aufgabe. Sie übertrafen unsere Erwartungen und unser Kunde war weggeblasen - Sparky Witte, Kolar Advertising Marketing. USA - Wie kann Excel-Programmierung für Sie arbeiten Seit 1993 enthält Excel Visual Basic für Applikationen (VBA), eine auf Visual Basic basierende Programmiersprache, die die Möglichkeit bietet, Aufgaben in Excel zu automatisieren und benutzerdefinierte Funktionen (UDF) zur Verfügung zu stellen In Arbeitsblättern. VBA ist eine leistungsfähige Ergänzung zu Excel. Excel-Makros sind Programme, die eine Reihe von Befehlen speichern, die Sie wiedergeben können. Sie können die Anzahl der Schritte reduzieren, die zum Abschließen von Tasks erforderlich sind, und die Zeitaufwand für das Erstellen, Formatieren, Ändern und Drucken der Tabellenkalkulationen erheblich reduzieren. Ein Makro kann so einfach sein wie das Replizieren einiger Formatierungsaufgaben oder so komplex wie das Abfragen von Informationen aus verschiedenen Datenquellen durch Datenbankprogrammierung. Beispiel: Ein Finanzanalytiker lädt täglich Finanztabellen aus dem Internet für Analysen und Berichterstellung ein. Sie umfasst 30 Aktien für die Computerindustrie. Jeden Tag nimmt sie die Zahlen aus den Tabellen, führt einige finanzielle Verhältnisanalysen durch und gibt die Ratios in verschiedene Berichte ein. Sie hat diese repetitive Aufgaben für jedes der 30 Unternehmen, die sie deckt zu tun. Diese Aufgaben nehmen den Großteil ihrer Zeit im Büro auf. Mit Hilfe eines Beratungsdienstes ist sie nun in der Lage, alle Berichte in wenigen Minuten fertig zu stellen und ihr mehr Zeit zu geben, ihre Berichte zu schreiben und zu entspannen. Datenqualität bezieht sich auf die Qualität der Daten. Die Daten sind von hoher Qualität, wenn sie für ihre Verwendungszwecke in Betrieb, Entscheidungsfindung und Planung geeignet sind (J. M. Juran). Alternativ werden die Daten von hoher Qualität angesehen, wenn sie das reale Weltkonstrukt, auf das sie sich beziehen, korrekt darstellen. Eine Industriestudie schätzte die Gesamtkosten für die US-amerikanische Wirtschaft mit Datenqualitätsproblemen auf über 6 Milliarden US-Dollar jährlich (Eckerson, 2002). In der Tat ist das Problem ein solches Anliegen, dass Unternehmen beginnen, ein Data-Governance-Team, dessen einzige Rolle in der Gesellschaft ist verantwortlich für die Datenqualität. Obwohl die meisten Unternehmen ihre Qualitätsbemühungen auf Namens - und Adressinformationen konzentrieren, wird die Datenqualität als eine wichtige Eigenschaft aller Arten von Daten erkannt. Datenqualität Prozess kann einige oder alle der folgenden: Daten Profiling - zunächst die Bewertung der Daten, um ihre Qualität Herausforderungen zu verstehen. Datenstandardisierung - eine Geschäftsregelmaschine, die sicherstellt, dass Daten den Qualitätsregeln entsprechen. Matching oder Linking - eine Möglichkeit, Daten zu vergleichen, so dass ähnliche, aber leicht unterschiedliche Datensätze ausgerichtet werden können. Matching kann Fuzzy-Logik verwenden, um Duplikate in den Daten zu finden. Es erkennt oft, dass Bob, Bobby, Rob und Robert die gleiche Person sein können. Monitoring - Verfolgung der Datenqualität über die Zeit und Berichterstattung Variationen in der Qualität der Daten. Data Mining entdeckt Muster in Daten mit prädiktiven Techniken. Diese Muster spielen eine entscheidende Rolle bei der Entscheidungsfindung. Mit Data Mining können Unternehmen und Organisationen die Rentabilität ihrer Unternehmen steigern, indem sie Chancen aufdecken und potenzielle Risiken erkennen. Die Prognose ist Bestandteil des Data Mining. Es ist der Prozess der Schätzung in unbekannten Situationen. Die Vorhersage ist ein ähnlicher, aber allgemeinerer Begriff und bezieht sich üblicherweise auf die Schätzung von Zeitreihen, Querschnitts - oder Längsdaten. Die Prognose wird häufig in der Diskussion von Zeitreihen-Daten verwendet. Beispiel: Ein Midwest Lebensmittelgeschäft Kette verwendet Data-Mining-Methode zu analysieren lokalen Kauf-Muster. Sie entdeckten, dass, wenn Männer Windeln an Donnerstag und Samstag kauften, neigten sie auch dazu, Bier zu kaufen. Weitere Analysen zeigten, dass diese Shopper in der Regel ihre wöchentliche Lebensmittelgeschäft Einkaufen am Samstag. Aber donnerstags kauften sie nur ein paar Gegenstände. Der Einzelhändler kam zu dem Schluss, dass sie das Bier gekauft haben, um es für das kommende Wochenende zur Verfügung zu stellen. Die Lebensmittelkette könnte diese neu entdeckten Informationen auf verschiedene Weise nutzen, um den Umsatz zu steigern. Zum Beispiel könnten sie die Bier-Display näher an die Windel-Display bewegen. Und sie konnten sicherstellen, dass Bier und Windeln zu vollen Preisen am Donnerstag verkauft wurden. Das Datenbank-Marketing unterstreicht die Verwendung von statistischen Techniken und Datenanalysen, um Modelle des Kundenverhaltens zu entwickeln, die dann verwendet werden, um Kunden für die Kommunikation auszuwählen. Der Vorteil von Datenbank-Marketing ist die Fähigkeit, Ihre Marketing-Bemühungen. Unternehmen können ihre Marketing-Bemühungen auf Kunden konzentrieren, die am ehesten zu kaufen sind. Beispiel: Ein Internet-Marketing-Unternehmen sponsert eine Messe in Houston. Statt der Einladung zu Tausenden ihrer Kunden in den Vereinigten Staaten, führt das Unternehmen eine Abfrage in seiner Marketing-Datenbank und extrahiert eine Liste der Kunden in der Houston Metro-Bereich befindet. Das Unternehmen sendet dann sein Einladungspaket an diese Zielliste aus. Microsoft Excel und VBA Excel ist eine leistungsfähige Kalkulationstabelle erlaubt Ihnen, Daten zu speichern, zu manipulieren, zu analysieren und zu visualisieren. Es verfügt über eine intuitive Schnittstelle und fähige Berechnungs - und Grafik-Tools, die Excel zu einem der beliebtesten Mikrocomputer-Anwendungen gemacht hat. Es ist überwiegend die dominierende Tabellenkalkulation Anwendung für diese Plattformen und ist so seit Version 5 im Jahr 1993 und seine Bündelung als Teil von Microsoft Office. Excel hat Visual Basic für Applikationen (VBA) enthalten, eine Programmiersprache basierend auf Visual Basic, die die Möglichkeit, Aufgaben in Excel zu automatisieren und benutzerdefinierte Funktionen (UDF) für die Verwendung in Arbeitsblättern. VBA ist eine leistungsfähige Ergänzung zu der Anwendung, die in späteren Versionen eine voll funktionsfähige integrierte Entwicklungsumgebung (IDE) enthält. Die Makroaufzeichnung kann VBA-Code erzeugen, der Benutzeraktionen repliziert und so eine einfache Automatisierung regelmäßiger Aufgaben ermöglicht. VBA ermöglicht das Erstellen von Formularen und In-Arbeitsblatt-Steuerelementen, um mit dem Benutzer zu kommunizieren. Die Sprache unterstützt die Verwendung (aber nicht die Erstellung) von ActiveX (COM) DLLs späteren Versionen unterstützen Unterstützung für Klassenmodule, die die Verwendung von grundlegenden OOP-Techniken Mehr Info Datenbank-Marketing Datenbank-Marketing ist eine Form der Direkt-Marketing mit Datenbanken von Kunden oder potenziellen Kunden, um personalisierte Kommunikation zu generieren, um ein Produkt oder eine Dienstleistung für Marketingzwecke zu fördern. Die Methode der Kommunikation kann jedes adressierbare Medium, wie im Direktmarketing sein. Die Unterscheidung zwischen Direkt - und Datenbank-Marketing beruht in erster Linie auf der Aufmerksamkeit für die Analyse der Daten. Datenbank-Marketing betont die Verwendung von statistischen Techniken, um Modelle des Kundenverhaltens zu entwickeln, die dann verwendet werden, um Kunden für die Kommunikation auswählen. Infolgedessen tendieren Datenbankvermarkter auch dazu, schwere Benutzer von Data-Warehouses zu sein, weil mit einer größeren Menge an Daten über Kunden die Wahrscheinlichkeit erhöht, daß ein genaueres Modell aufgebaut werden kann. Weitere Informationen Forecasting Analysis Forecasting ist der Prozess der Schätzung in unbekannten Situationen. Vorhersage ist ein ähnlicher, aber allgemeiner Begriff und bezieht sich gewöhnlich auf die Schätzung von Zeitreihen, Querschnitts - oder Längsdaten. Die Prognose wird häufig in der Diskussion von Zeitreihen-Daten verwendet. Zeitreihenmethoden verwenden historische Daten als Grundlage für die Schätzung zukünftiger Ergebnisse. Gleitender Durchschnitt Exponentielle Glättung Extrapolation Lineare Vorhersage Trendabschätzung Wachstumskurve Einige Prognosemethoden verwenden die Annahme, dass es möglich ist, die zugrunde liegenden Faktoren zu identifizieren, die die prognostizierte Variable beeinflussen könnten. Zum Beispiel könnte der Verkauf von Sonnenschirmen mit Wetterbedingungen verbunden sein. Wenn die Ursachen verstanden werden, können Projektionen der Einflussgrößen in der Prognose erstellt und verwendet werden. Regressionsanalyse mittels linearer Regression oder nicht-linearer Regression Autoregressiver gleitender Durchschnitt (ARMA) Autoregressiver integrierter gleitender Durchschnitt (ARIMA) z. B. Box-Jenkins Econometrics In der Statistik ist die Regressionsanalyse der Prozess, der verwendet wird, um die Parameterwerte einer Funktion zu schätzen, in der die Funktion den Wert einer Antwortvariablen in Form der Werte anderer Variablen vorhersagt. Es gibt viele Methoden entwickelt, um Funktionen zu passen und diese Methoden in der Regel abhängig von der Art der Funktion verwendet wird. Ein autoregressives integriertes Moving Average Modell (ARIMA) ist eine Verallgemeinerung eines autoregressiven Moving Average oder (ARMA) Modells. Diese Modelle sind an Zeitreihendaten angepasst, um die Daten besser zu verstehen oder zukünftige Punkte in der Serie vorherzusagen. Das Modell wird allgemein als ein ARIMA-Modell (p, d, q) bezeichnet, wobei p, d und q ganze Zahlen größer oder gleich Null sind und sich auf die Reihenfolge der autoregressiven, integrierten und bewegten mittleren Teile des Modells beziehen beziehungsweise. Weitere Informationen Data Mining Data Mining ist der Prozess der automatischen Suche nach großen Mengen von Daten für Muster. Es wird in der Regel von Unternehmen und anderen Organisationen verwendet, sondern wird zunehmend in den Wissenschaften verwendet, um Informationen aus den riesigen Datensätzen, die durch moderne Experimente erzeugt extrahieren. Obwohl Data Mining ist ein relativ neuer Begriff, ist die Technologie nicht. Unternehmen haben seit langem leistungsstarke Computer verwendet, um Durchsuchung von Datenmengen wie Supermarkt Scanner-Daten und produzieren Marktforschungsberichte. Ununterbrochene Neuerungen in der Computerverarbeitung Macht, Plattenspeicher und statistische Software drastisch erhöhen die Genauigkeit und Nützlichkeit der Analyse. Data Mining identifiziert Trends innerhalb von Daten, die über die einfache Analyse hinausgehen. Durch die Verwendung von anspruchsvollen Algorithmen haben die Benutzer die Möglichkeit, Schlüsselattribute von Geschäftsprozessen und Zielchancen zu identifizieren. Der Begriff Data Mining wird oft verwendet, um auf die beiden getrennten Prozesse der Wissensentdeckung und - vorhersage anzuwenden. Wissensentdeckung stellt explizite Informationen bereit, die eine lesbare Form haben und von einem Benutzer verstanden werden können. Die Prognose oder die prädiktive Modellierung liefert Vorhersagen zukünftiger Ereignisse und kann in einigen Ansätzen transparent sein und lesbar sein (z. B. auf Regeln basierende Systeme) und in anderen, wie z. B. neuronalen Netzwerken, undurchsichtig sein. Darüber hinaus sind einige Data-Mining-Systeme wie neuronale Netze inhärent auf Vorhersage statt Wissen Erkennung ausgerichtet. Weitere Informationen Data Cleansing Data Mining ist der Prozess der automatischen Suche nach großen Mengen von Daten für Muster. Es wird in der Regel von Unternehmen und anderen Organisationen verwendet, sondern wird zunehmend in den Wissenschaften verwendet, um Informationen aus den riesigen Datensätzen, die durch moderne Experimente erzeugt extrahieren. Obwohl Data Mining ist ein relativ neuer Begriff, ist die Technologie nicht. Unternehmen haben seit langem leistungsstarke Computer verwendet, um Durchsuchung von Datenmengen wie Supermarkt Scanner-Daten und produzieren Marktforschungsberichte. Kontinuierliche Innovationen in der Computerverarbeitung Macht, Festplattenspeicher und statistische Software drastisch erhöhen die Genauigkeit und Nützlichkeit der Analyse. Data Mining identifiziert Trends innerhalb von Daten, die über die einfache Analyse hinausgehen. Durch die Verwendung von anspruchsvollen Algorithmen haben die Benutzer die Möglichkeit, Schlüsselattribute von Geschäftsprozessen und Zielchancen zu identifizieren. Der Begriff Data Mining wird oft verwendet, um auf die beiden getrennten Prozesse der Wissensentdeckung und - vorhersage anzuwenden. Wissensentdeckung stellt explizite Informationen bereit, die eine lesbare Form haben und von einem Benutzer verstanden werden können. Die Prognose oder die prädiktive Modellierung liefert Vorhersagen zukünftiger Ereignisse und kann in einigen Ansätzen transparent sein und lesbar sein (z. B. auf Regeln basierende Systeme) und in anderen, wie z. B. neuronalen Netzwerken, undurchsichtig sein. Darüber hinaus sind einige Data-Mining-Systeme wie neuronale Netze inhärent auf Vorhersage statt Wissen Erkennung ausgerichtet. Mehr Infos Datenintegration Datenintegration ist der Prozess der Kombination von Daten, die sich an verschiedenen Quellen befinden und dem Benutzer eine einheitliche Sicht auf diese Daten bieten. Dieser Prozess entsteht in einer Vielzahl von Situationen sowohl kommerzielle (wenn zwei ähnliche Unternehmen müssen ihre Datenbanken zusammenführen) und wissenschaftliche (Kombination von Forschungsergebnissen aus verschiedenen Bioinformatik-Repositories). Datenintegration erscheint mit zunehmender Frequenz als das Volumen und die Notwendigkeit, vorhandene Daten explodiert zu teilen. Im Mittelpunkt umfangreicher theoretischer Arbeiten stehen zahlreiche offene Probleme, die noch gelöst werden müssen. In der Managementpraxis wird die Datenintegration häufig als Enterprise Information Integration bezeichnet. Zeitreihe Beispiel Die folgenden Beispiele veranschaulichen, wie XLMiner verwendet werden kann, um die Daten zu erforschen, um Trends und Saisonalitäten aufzudecken. Wählen Sie auf dem XLMiner-Farbband auf der Registerkarte Anwenden Ihres Modells die Option Hilfe - Beispiele aus. Dann ForecastingData Mining Beispiele und öffnen Sie den Beispieldatensatz Income. xlsx. Dieser Datensatz enthält das durchschnittliche Einkommen der Steuerzahler nach Staat. Typischerweise werden die folgenden Schritte in einer Zeitreihenanalyse durchgeführt. 1. Die Daten werden in zwei Sätze unterteilt, wobei 60 der dem Trainingsset zugeordneten Daten und 40 dem Validierungssatz zugeordnet sind. 2. Explorative Techniken werden sowohl auf die Trainings - als auch auf die Validierungssets angewendet. Wenn die Ergebnisse synchron sind, dann kann das Modell passen. Wenn die ACF - und PACF-Diagramme dieselben sind, kann das gleiche Modell für beide Sätze verwendet werden. 3. Das Modell wird nach der Methode ARIMA (Autoregressive Integrated Moving Average) angepasst. 4. Wenn ein Modell nach der ARIMA-Methode passt, zeigt XLMiner die ACF - und PACF-Plots für Residuen an. Sind diese Plots im Band von UCL und LCL, so sind die Residuen zufällig und das Modell adäquat. 5. Wenn die Residuen nicht innerhalb der Banden liegen, gibt es einige Korrelationen, und das Modell sollte verbessert werden. Führen Sie zuerst eine Partition auf den Daten durch. Wählen Sie eine Zelle innerhalb des Datensatzes aus, und klicken Sie dann auf der Registerkarte Zeitreihen auf dem XLMiner ribboon auf Partition, um das Dialogfeld Time Series Partition Data zu öffnen. Wählen Sie unter der Liste Variablen Jahr aus, und klicken Sie auf gt, um zu Zeitvariable zu wechseln. Wählen Sie die restlichen Variablen in der Liste Variablen aus, und klicken Sie auf gt, um sie in die Variablen in der Liste Partitionsdaten aufzunehmen. Wählen Sie unter Partitionierungsoptionen festlegen die Option Datensätze angeben, um die Anzahl der Datensätze anzugeben, die den Trainings - und Validierungssätzen zugeordnet sind. Wählen Sie unter "Datensätze für die Partitionierung angeben" die Option Datensätze angeben, und geben Sie 50 für die Anzahl der Trainingssatzdatensätze und 21 für die Anzahl der Prüfsatzsätze ein. Wenn Prozentsätze unter Partitionierungsoptionen angeben ausgewählt ist, ordnet XLMiner jedem Satz die Anzahl der Datensätze zu, die vom Benutzer eingegeben oder automatisch von XLMiner unter Prozentsätze für Partitionierung angeben eingegeben werden. Klicken Sie auf OK. Das DataPartitionTS-Arbeitsblatt wird rechts neben dem Income-Arbeitsblatt eingefügt. In dem obigen Ausgang ist das Partitionierungsverfahren sequentiell (versus zufällig). Die ersten 50 Beobachtungen wurden dem Trainingsset zugewiesen und die verbleibenden 21 Beobachtungen wurden dem Validierungsset zugewiesen. Wählen Sie eine Zelle im DataPartitionTS-Arbeitsblatt und dann im XLMiner-Band auf der Registerkarte Zeitreihenfolge die Option ARIMA - Autokorrelationen aus, um das ACF-Dialogfeld anzuzeigen. Wählen Sie CA als Ausgewählte Variable aus, geben Sie für beide ACF-Parameter für Trainingsdaten und Validierungsdaten 10 ein. Das Plot-ACF-Diagramm ist standardmäßig ausgewählt. Klicken Sie auf OK. Das Arbeitsblatt ACFOutput wird nach dem DataPartitionTS-Arbeitsblatt eingefügt. Beachten Sie bei jedem Diagramm, dass die Autokorrelation mit zunehmender Anzahl von Verzögerungen abnimmt. Dies legt nahe, dass ein bestimmtes Muster in jeder Partition existiert. Da sich das Muster jedoch nicht wiederholt, kann davon ausgegangen werden, dass keine Saisonalität in den Daten enthalten ist. Darüber hinaus, da beide Diagramme ein ähnliches Muster zeigen, können wir das gleiche Modell sowohl für die Validierung und Trainingssets passen. Klicken Sie auf der Registerkarte Zeitreihenfolge auf das DataPartitionTS-Arbeitsblatt und auf das XLMiner-Band, und wählen Sie ARIMA - Partial Autocorrelations aus, um das Dialogfeld PACF zu öffnen. Wählen Sie CA aus der Liste Variable In Input Data aus, und klicken Sie dann auf gt, um die Variable in die Selected-Variable zu verschieben. Geben Sie 40 für maximale Verzögerung unter PACF-Parameter für Trainingsdaten und 15 für PACF-Parameter für Validierungsdaten ein. Das Plot-PACF-Diagramm ist standardmäßig ausgewählt. Klicken Sie auf OK. Das Arbeitsblatt ACFOutput wird direkt rechts neben dem DataPartitionTS-Arbeitsblatt eingefügt. Beide PACF-Plots zeigen ähnliche Muster sowohl in der Validierung und Trainingssets. Als Ergebnis können wir das gleiche Modell für beide Sätze verwenden. PACF-Ausgabe für Trainingsdaten PACF-Ausgabe für Validierungsdaten Die PACF-Funktion zeigt ein definiertes Muster, dh es gibt einen Trend in den Daten. Da sich das Muster jedoch nicht wiederholt, können wir schließen, dass die Daten keine Saisonalität zeigen. Sowohl die ACF-und PACF-Charts deuten darauf hin, dass ein bestimmtes Muster existiert, aber ohne jegliche Saisonalität. Beide Datensätze weisen dasselbe Verhalten sowohl in den Trainings - als auch in den Validierungssets auf, was nahelegt, dass das gleiche Modell für jeden geeignet ist. Jetzt sind wir bereit für das Modell. Das ARIMA-Modell akzeptiert drei Parameter: p - die Anzahl der autoregressiven Begriffe d - die Anzahl der nicht saisonalen Unterschiede und q - die Anzahl der verzögerten Fehler (gleitende Mittelwerte). Daran erinnern, dass die ACF-Plot zeigte keine Saisonalität in den Daten, was bedeutet, dass Autokorrelation ist fast statisch, abnehmend mit der Anzahl der Lags zunehmen. Dies schlägt die Einstellung q 0 vor, da es keine verzögerten Fehler zu sein scheint. Das PACF-Diagramm zeigte einen großen Wert für die erste Verzögerung, aber minimale Kurven für aufeinanderfolgende Verzögerungen. Diese vorgeschlagene Einstellung p 1. Bei den meisten Datensätzen ist die Einstellung d 1 ausreichend oder kann zumindest ein Ausgangspunkt sein. Klicken Sie auf der Registerkarte Zeitreihenfolge auf das DataPartitionTS-Arbeitsblatt und auf das XLMiner-Farbband, wählen Sie ARIMA-ARIMA-Modell aus, um das Dialogfeld Zeitreihen-ARIMA aufzurufen. Wählen Sie CA aus der Liste Variable In Input Data aus, und klicken Sie dann auf gt, um die Variable in das Feld Ausgewählte Variablen zu verschieben. Legen Sie unter Nicht saisonale Parameter Autoregressive (p) auf 1, Differenz (d) bis 1 und Moving Average (q) auf 0 fest. Klicken Sie auf Erweitert, um das Dialogfeld ARIMA - Erweiterte Optionen zu öffnen. Wählen Sie Angepasste Werte und Restwerte, Prognosen erstellen und Berichtsvorhersage-Konfidenzintervalle aus. Die Standard-Konfidenzniveau-Einstellung von 95 wird automatisch eingegeben. Varianz-Kovarianzmatrix ist standardmäßig ausgewählt. Klicken Sie im Dialogfeld ARIMA-Erweiterte Optionen und im Dialogfeld Zeitreihe - ARIMA auf OK. XLMiner berechnet und zeigt verschiedene Parameter und Diagramme in zwei Ausgabeblättern, ARIMAOutput und ARIMAResiduals an. Das ARIMAOutput-Arbeitsblatt enthält das unten gezeigte ARIMA-Modell. Auf diesem Arbeitsblatt hat XLMiner den konstanten Term und den AR1-Term für unser Modell berechnet. Dies sind die Konstanten und f1 Ausdrücke der Prognosegleichung. Siehe die folgende Ausgabe des Chi-Quadrat-Tests. Der kleine p-Wert für den konstanten Term (0,9704) und AR1 Term (0) deutet darauf hin, dass das Modell eine gute Anpassung an unsere Daten ist. Öffnen Sie das Arbeitsblatt ARIMAResiduals. In dieser Tabelle sind die tatsächlichen und eingestellten Werte und die daraus resultierenden Residuen aufgetragen. Wie in der Grafik unten gezeigt, passen die Werte von Actual und Forecasted ziemlich gut zusammen. Die Nützlichkeit des Modells in der Prognose hängt davon ab, wie nah sich die tatsächlichen und prognostizierten Werte im Zeitdiagramm des Validierungssatzes befinden. Als nächstes sehen wir die ACF - und PACF-Diagramme für Fehler, die sich am unteren Rand des ARIMAOutput-Arbeitsblatts befinden. Alle Verzögerungen, außer Verzögerung 1, liegen klar innerhalb der UCL - und LCL-Bänder. Dies zeigt, dass die Residuen zufällig sind und nicht korreliert sind, was der erste Hinweis ist, dass die Modellparameter für diese Daten ausreichend sind. Siehe Tabelle Vorhersage auf dem ARIMAOutput-Arbeitsblatt. Die Tabelle zeigt den aktuellen und prognostizierten Wert. Die unteren und oberen Werte repräsentieren die untere und obere Grenze des Konfidenzintervalls. Es besteht die Wahrscheinlichkeit, dass der prognostizierte Wert in diesen Bereich fällt. Der Zeitplan rechts zeigt an, wie das Modell, das wir mit dem Training Set bestückten und auf dem Validierungs-Set durchgeführt haben. Die tatsächlichen und prognostizierten Werte sind ziemlich nahe, was bestätigt, dass unser Modell gut für die Prognose sein sollte. Um die Werte unter der unteren und oberen Spalte in demselben Diagramm darzustellen, wählen Sie den Graphen aus, und wählen Sie dann auf dem Excel-Farbband die Option Design - Daten auswählen, um das Dialogfeld Datenquelle auswählen zu öffnen. Geben Sie für den Diagrammdatenbereich ARIMAOutputB56: G77 ein. Dann deaktivieren Sie Fehler unter Legendeneinträgen. Klicken Sie auf OK. Dieses Diagramm zeigt, dass die tatsächlichen und prognostizierten Werte innerhalb der unteren und oberen 95 Konfidenzniveaubanden liegen. Obwohl die tatsächlichen Werte ein wenig schwanken, fallen diese Werte in die Mitte des Bereichs. Aus dem ARIMA-Ausgang können wir schließen, dass unser Modell unter Verwendung von Parametern (1, 1, 0) die Daten adäquat passt.

No comments:

Post a Comment