MetaTrader 5 herunterladen

Analyse der statistischen Eigenschaften von Indikatoren

20 April 2016, 13:14
СанСаныч Фоменко
0
444

Einleitung

Devisenhändler setzen bei ihrer Arbeit häufig auf Indikatoren, die die Ausgangsnotierungen in eine gewisse, „klarere“ Form umwandeln, mit deren Hilfe die Devisenhändler ihre Analyse ausführen und zu Vorhersagen zu den Kursentwicklungen auf den Finanzmärkten gelangen. Fragen bezüglich der Zulässigkeit der von dem Indikator vorgenommenen Umwandlung sowie zur Zuverlässigkeit des erhaltenen Ergebnisses werden für gewöhnlich nicht gestellt, sondern bestenfalls durch eine Überprüfung der auf der Grundlage der betreffenden Indikatoren erstellten automatischen Handelssysteme ersetzt.

Meiner Ansicht nach ist es offenkundig, dass die Verwendung von Indikatoren und vor allem die Errichtung automatischer Handelssysteme auf ihrer Grundlage sinnlos ist, solange die Fragen nach der Zulässigkeit der Veränderung der Ausgangsnotierungen sowie nach der Zuverlässigkeit des erhaltenen Ergebnisses nicht beantwortet sind. Im weiteren Verlauf dieses Artikels werden wir zeigen, dass es ernstzunehmende Gründe für diese Schlussfolgerung gibt. Wir werden die auftretenden Schwierigkeiten am Beispiel von drei Indikatoren darstellen: die Trendgerade, den exponentiellen gleitenden Durchschnittswert sowie den Hodrick-Prescott-Filter.



1. Etwas Theorie

Zur Erleichterung des Verständnisses erläutere ich einige der im Folgenden verwendeten Begriffe aus der Wahrscheinlichkeitstheorie und der mathematischen Statistik. Ich werde keine Verweise angeben, da sich die von mir verwendeten Begriffe in nichts von denjenigen in der Fachliteratur unterscheiden.

1.1. Die Darstellung von Marktbeobachtungen unter Wahrscheinlichkeitsgesichtspunkten

Bei den von uns beobachteten Kursnotierungen handelt es sich um mittelbare stichprobenartige Messungen (die Grundgesamtheit ist uns nicht bekannt) eines gewissen stochastischen Verfahrens auf einer Grundlage aus:

  • exakt messbaren festgelegten Komponenten, wie etwa der Anzahl der abgeschlossenen Vorgänge zum Kauf oder Verkauf von Devisen;
  • festgelegten mit Fehlertoleranz gemessenen Bestandteilen, etwa die in einem bestimmten Zeitraum, z. B. an einem Handelstag, verkaufte Devisenmenge;
  • die unmessbare stochastische Komponente, eine Laune der Masse; Während des größten Teils der Zeit ist das Hauptmerkmal dieser Komponente das zufällige Herumirren mit Verschiebung.

Infolge der wechselseitigen Beeinflussung dieser Bestandteile kommen wir zu einem stochastischen Vorgang aus:

  • Trends (bestimmten wie stochastischen);
  • Zyklen (mit festgelegten und stochastischen Zeitraumlängen);
  • zufälligen Bewegungen mit Verschiebung.

Nichtstationarität ist ein allgemeines Merkmal sich in den Währungsnotierungen widerspiegelnder stochastischer Vorgänge. Für uns ist der Begriff der Nichtstationarität des stochastischen Vorgangs nur in dem Sinn von Belang, dass ein nicht stationärer Vorgang, für den es de facto keine Analyseinstrumente gibt, in eine Gesamtheit von Vorgängen zerlegt werden muss, von denen jeder für sich über Mittel zur Analyse verfügt. Bei der Verwendung von Indikatoren denkt kaum ein Devisenhändler über die Anwendbarkeit des jeweiligen Indikators auf die Notierung des betreffenden Postens nach. Zugleich sind jedoch auch statistische Mittel, um genauer zu sein Bemessungsdaten vorhanden, die die Beurteilung der Möglichkeit sowie des Ergebnisses der Anwendung eines Indikators ermöglichen.

1.2. Zufallsereignisse. Wahrscheinlichkeit

Ein Zufallsereignis (in unserem Fall der Kauf oder Verkauf einer Währung) ist ein Ereignis, das eintreten kann, aber nicht muss. Wir wissen, dass die Anzahl der Abschlüsse an verschiedenen tagen und zu unterschiedlichen Zeiten von einander abweicht und zufällige Größen annimmt, aber in der Regel werden nur die Ereignisse diskreter Zeitabschnitte, Minute, Stunde, Tag usw., berücksichtigt.

Unter der relativen Häufigkeit eines Zufallsereignisses verstehen wir das Verhältnis der Anzahl der Auftretensfälle besagten Ereignisses „M“ zu der Gesamtzahl der gemachten Beobachtungen „N“. Bei wachsender Anzahl von Beobachtungen, theoretisch bis unendlich, nähert sich die Häufigkeit der Zahl an, die wir als die Wahrscheinlichkeit des Zufallsereignisses bezeichnen. Definitionsgemäß handelt es sich bei der Wahrscheinlichkeit um einen Wert zwischen 0 und 1 jeweils einschließlich. Üblicherweise verwenden wir in dem hier vorliegenden Beitrag statt der relativen Häufigkeit den Ausdruck „Wahrscheinlichkeit“.

Als Zufallsgröße gilt jede Größe, die mit festgelegten Wahrscheinlichkeiten bestimmte Werte annehmen kann.

Als Grundgesamtheit bezeichnen wir alle möglichen Werte, die eine Zufallsgröße annehmen kann. Auf dem Markt haben wir es stets mit einer Stichprobe aus der Grundgesamtheit zu tun, üblicherweise handelt es sich dabei um Kursveränderungen in einem bestimmten Zeitraum. Es versteht sich von selbst, dass eine anhand einer Stichprobe errechnete Statistik anders aussieht, als die aus der Grundgesamtheit gewonnene, da die relative Häufigkeit von der Wahrscheinlichkeit abweicht. Der Sinn der weiteren Berechnungen besteht folglich in der Bewertung der Unterschiede zwischen der anhand der Stichprobe errechneten und der aus der Grundgesamtheit ermittelten Statistik. Eine solche Fragestellung ist im Blick auf die Indikatoren nicht möglich, da die Kurse, zum Beispiel der Schlusskurs „close“, bei Berechnungen durch den Indikator als feste Größen betrachtet werden.

Eine weitere stutzig machende Beobachtung. Da wir versuchen, von der Stichprobe auf die Grundgesamtheit zu schließen, können wir die zwischen unterschiedlichen Handelsplätzen bestehenden Unterschiede in den Notierungen außer Acht lassen, da es leicht ist, die Notierungswerte zu ändern, jedoch äußerst schwierig, ihre statistischen Eigenschaften zu überarbeiten.

1.3. Merkmale von Zufallsgrößen

1.3.1. Deskriptive Statistik

Die Gesamtheit der Zufallsgrößen, in unserem Fall der Devisennotierungen, ist durch eine Reihe von Kennziffern bestimmt, von denen ein Teil im weiteren Verlauf dieses Beitrags dargestellt wird:

Histogramme sind Diagramme, die die Häufigkeit des Wertes einer Zufallsgröße abbilden. Im äußersten Fall geben sie die Dichte der Wahrscheinlichkeitsverteilung wieder.

Bei dem arithmetischen Mittel (dem Durchschnittswert) handelt es sich um die Summe der Werte aller Beobachtungen geteilt durch die Anzahl der Beobachtungen (in unserem Fall durch die Anzahl der Zeiträume). Es ist nicht bei allen Verteilungen anwendbar, jedoch am beliebtesten bei Normalverteilungen, bei denen es mit dem Median übereinstimmt. Daraus folgt, dass der heiß geliebte Indikator des gleitenden Durchschnittswerts streng genommen nur dann angewendet werden kann, wenn die Kursnotierungen eine Verteilungsgesetzmäßigkeit aufweisen, für die ein Durchschnittswert vorhanden ist.

Der Median teilt alle Beobachtungen in einer Stichprobe in zwei Hälften: einerseits sind da alle Beobachtungen, die kleiner sind als der Wert des Median, andererseits diejenigen, deren Wert größer ist. Ein Median liegt in jeder Verteilung vor und ist unempfindlich gegenüber Ausreißern. Ist der Durchschnittswert gleich (oder dem Wert nach sehr dicht bei) dem Median, so ist das eines der Merkmale für eine Normalverteilung.

Eine interessante Frage ist dabei die Abweichung von dem Durchschnittswert. Unter Streuung verstehen wir den Durchschnittswert des Quadrates der Abweichungen der Zufallsgrößen von der mathematischen Erwartung in Bezug auf sie. Die Quadratwurzel aus der Streuung ist die mittlere quadratische (Standard-) Abweichung.

Standardabweichung und Streuung sind nicht resistent gegenüber Ausreißern.

Der Indikator für die Asymmetrie der Kurve für die Verteilungsdichte ist eine dimensionslose Größe, der so genannte Asymmetriekoeffizient (die Schiefe). Ist der Wert der Schiefe kleiner als „6 geteilt durch die Anzahl der Beobachtungen“, so unterliegt die Wahrscheinlichkeitsverteilung für die Zufallsgröße einer normalen Gesetzmäßigkeit.

Ein anderer Wert zur Charakterisierung der Verteilungsdichte ist die Wölbung (Kurtosis). Bei einer normalen Gesetzmäßigkeit ist sie gleich 3. Wenn sie darüber liegt, ist der Höhepunkt spitz abgesetzt und auf den flachen Bereich entfallen „große“ Residuen.

Wie wir sehen, wird eine ganze Reihe von Begriffen auf die Zufallsgrößen angewendet, die eine normale Verteilungsgesetzmäßigkeit aufweisen. Das ist ganz gut so, da eine große Zahl von Verteilungsgesetzmäßigkeiten bei steigender Anzahl der Beobachtungen aller Wahrscheinlichkeit nach mit der Normalverteilung übereinstimmt.

1.3.2. Normalverteilung

Die Normalverteilung (auch Gauß-Verteilung) ist der Extremfall nahezu aller natürlichen Wahrscheinlichkeitsverteilungen.

Als theoretische Grundlage dient Ljapunovs Theorem zum Grenzwert der Wahrscheinlichkeit, das besagt, dass die Verteilung der Summe unabhängiger Zufallsgrößen mit einer beliebigen Ausgangsverteilung „normal“ wird, wenn die Anzahl der Beobachtungen groß, ihr jeweiliger Einzelbeitrag jedoch gering ist. Deshalb kommt es bei einem sehr großen Teil der realen Anwendungen der Wahrscheinlichkeitstheorie zum Einsatz.

Die Normalverteilung sieht aus wie eine symmetrische glockenförmige Kurve, die sich über die gesamte Zahlenachse erstreckt. Die Gauß-Verteilung ist von zwei Parametern abhängig: μ (der mathematischen Erwartung) und σ (der Standardabweichung).

Die mathematische Erwartung und der Median der gegebenen Verteilung sind gleich μ, während die Streuung σ2 entspricht. Die Kurve der Wahrscheinlichkeitsdichte ist symmetrisch zur mathematischen Erwartung. Der Asymmetriekoeffizient und die Wölbung betragen γ = 0 bzw. ε = 3.

Häufig wird die Dichte der Normalverteilung nicht als Funktion der Variablen x aufgezeichnet sondern als Funktion der Variablen z = (x − μ) / σ mit einer mathematischen Erwartung von „0“ und einer Streuung σ = 1.

Eine Verteilung mit μ = 0 und σ = 1 wird als Standardnormalverteilung (i.i.i) bezeichnet.

Abbildung 1. Normalverteilung

Abbildung 1. Normalverteilung

1.3.3. Student-Verteilung (t-Verteilung)

Der Hauptparameter ist der Freiheitsgrad (die Anzahl der Stichprobenelemente). Dabei nähert sich die Student-Verteilung bei steigendem Freiheitsgrad der standardisierten Normalverteilung an, wobei die Student-Verteilung bei n > 30 im Grunde durch die Normalverteilung ersetzt werden kann. Bei n < 30 weist die Student-Verteilung gewichtigere Residuen auf.

Abbildung 2. Student-Verteilung

Abbildung 2. Student-Verteilung

Die t-Statistik wird überwiegend zur Überprüfung statistischer Hypothesen verwendet.

1.3.4. Chi-Quadrat- oder Pearson-Verteilung

Sind Хi unabhängige Zufallsgrößen mit i.i.i, so unterliegt die Summe ihrer Quadrate einer χ2-Verteilung. Die Dichte hängt einzig von dem für gewöhnlich als Freiheitsgrad bezeichneten Parameter v ab, der der Anzahl der unabhängigen Zufallsgrößen entspricht. Bei einem Freiheitsgrad von ν →∞ strebt die χ2-Verteilung zu der Normalverteilung mit dem Mittelwert v und der Streuung 2ν. Die Verteilungsdichte ist asymmetrisch, unimodal und wird mit steigendem Freiheitsgrad immer flacher und symmetrischer.

Abbildung 3. Pearson-Verteilung (Chi-Quadrat)

Abbildung 3. Pearson-Verteilung (Chi-Quadrat)

1.3.5. F- oder Fisher-Verteilung

Als F-Verteilung von Fisher wird die Verteilung der Beziehung zwischen zwei Streuungen bezeichnet, d. h. der Koeffizient der Streuungen zweier Reihen zueinander.

Haben zwei unabhängige Zufallsgrößen eine Chi-Quadrat-Verteilung mit den Freiheitsgraden (V1, V2), so weist ihr Koeffizient eine Fisher-Verteilung auf.

Abbildung 4. Fisher-Verteilung

Abbildung 4. Fisher-Verteilung

1.3.6. Der Determinationskoeffizient R-Quadrat

Der Determinationskoeffizient gibt an, welcher Teil der Ergebnisstreuung mit dem Einfluss der unabhängigen Variablen erklärt werden kann. Bei zwei Variablen haben wir es mit dem Korrelationsquadrat von Pearson zu tun. Es bringt die Anzahl der Streuungen zum Ausdruck, die beiden Variablen gemein sind.

Die Aussagekraft des Korrelationskoeffizienten hängt ab von der Anzahl der Beobachtungen oder Der F-Statistik von Fisher. Bei einer Anzahl von mehr als 100 Kerzen in einer Notierung reichen selbst geringfügigste Abweichungen der beobachteten Werte von Null zur Anerkennung der Aussagekraft des Indikators aus.

1.4. Hypothesenbildung

Welche Schlüsse bezüglich eines Parameters der Grundgesamtheit können wir auf der Grundlage seiner Stichprobenwerte ziehen? Die Antwort auf diese Frage hängt davon ab, ob wir über ältere Informationen über die Größe des allgemeinen Parameters verfügen.

Liegen keine älteren Informationen über die Größe des allgemeinen Parameters vor, können wir diesen anhand des Stichprobenwertes abschätzen, indem wir für ihn ein Zuverlässigkeitsintervall festlegen, das heißt Grenzen, innerhalb derer seine Größe mit einer festgelegten zuverlässigen Wahrscheinlichkeit liegen wird.

In der Praxis muss für gewöhnlich eine konkrete und in der Regel einfache Hypothese der Art geprüft werden. Diese Hypothese wird gewöhnlich als Nullhypothese bezeichnet. Zur Prüfung dieser Hypothese werden Kriterien verwendet, die ermöglichen, die Hypothese anzunehmen oder zu verwerfen. Am häufigsten kommen die oben genannten Statistiken der t-, F, und Chi-Quadrat-Verteilung als Kriterien zum Einsatz. Bei Verwendung von Statistik- oder Ökonometrieprogrammen, wie STATISTICA oder EViews, wird das berechnete Kriterium von dem Signifikanzwert dieses Kriteriums begleitet, dem p-Wert. Beispielsweise bedeutet ein p-Wert von 0,02 (2%), dass das entsprechende Kriterium auf dem Signifikanzniveau 1% nicht signifikant ist, auf dem Signifikanzniveau 5% hingegen signifikant. Gleichermaßen kann angenommen werden, dass die Nullhypothese mit einer Wahrscheinlichkeit von „1 - p-Wert“ unzutreffend ist.

Die Wahl des p-Wertes ist subjektiv und wird von der Tragweite der Folgen der fehlerhaften Beurteilung eines bestimmten Kriteriums bestimmt.

1.5. Statistische Merkmale von Kursnotierungen

1.5.1. Deskriptive Statistik

Zur deskriptiven Statistik zählen:

  • ein Histogramm, das sich mit zunehmender Kerzenzahl in einer Notierung an die Verteilungsgesetzmäßigkeit annähern muss;
  • die Messwerte des zentralen Trends: Durchschnittswert, Median;
  • das Streuungsmaß: die Standardabweichung;
  • die Messwerte für die Form: Schiefe und Wölbung;
  • das Normalitätskriterium nach Jarque und Bera.

Jarque-Bera-Kriterium. die Nullhypothese Ho: die Normalverteilung. Nehmen wir zum Beispiel an, die den Wert des Kriteriums begleitende Wahrscheinlichkeit ist gleich 0,04. Allem Anschein nach ist folgender Schluss zulässig: die Wahrscheinlichkeit, dass die Nullhypothese angenommen wird, beträgt 4%. Das stimmt allerdings nicht genau, da der errechnete Wert der p-Wert für das Kriterium ist und die Wahrscheinlichkeit für die Annahme der Nullhypothese bei 96% liegt.

1.5.2. Autokorrelation und Q-Statistik

Die Korrelation ist ein Maß für das Verhältnis zwischen zwei Variablen. Der Korrelationskoeffizient kann zwischen „-1,00“ und „+1,00“ liegen. Ein Wert von -1,00 steht für eine vollständig negative Korrelation, +1,00 dagegen für eine vollständig positive. Der Wert 0,00 bezeichnet das Nichtvorhandensein einer Korrelation.

Die Beziehung zwischen den Elementen einer Kursnotierung wird als Autokorrelation bezeichnet. Mit ihrer Hilfe können Trends bequem ermittelt werden. Das Vorliegen einer Autokorrelation stellt alle Schlussfolgerungen zu Kursnotierungen und Zufallsgrößen in Frage, da das Wesentliche bei der Bestimmung einer Zufallsgröße die Unabhängigkeit unterschiedlicher Kurse zu unterschiedlichen Zeitpunkten ist.

In Programmen für die statistische Analyse wird die Autokorrelation von der Q-Statistik nach Ljung und Box mit p-Wert begleitet. Die Nullhypothese lautet: eine Autokorrelation ist nicht vorhanden, d. h. bei einem p-Wert gleich „0“ kann gefolgert werden, dass bis zu einer bestimmten Kerze im Kursverlauf keine Korrelation vorliegt.

Der Ausschluss von Autokorrelationen (Trends) aus den Kursnotierungen ist der erste Schritt auf dem Weg zur Erlangung der Möglichkeit, die Methoden der mathematischen Statistik zu nutzen.

1.5.3. Stationarität von Kursnotierungen

Wir betrachten die Kursnotierungen als stationär, sofern ihre mathematische Erwartung und Streuung zeitunabhängig sind. Selbst diese Definition von Stationarität ist zu streng und für den praktischen Einsatz wenig geeignet. Häufig sind Kursnotierungen als stationär zu betrachten, wenn die Abweichungen der mathematischen Erwartung und/oder der Streuung im Verlauf der Zeit nur wenige Prozent, in der Regel nicht mehr als 5%, betragen.

Die tatsächlichen Kursnotierungen im Devisenhandel sind nicht stationär, sondern weisen folgende Abweichungen auf:

  • Das Vorliegen eines sich aus der zeitlichen Abhängigkeit der Beobachtungen ergebenden Trends. Das Vorhandensein der Abhängigkeit ist ein Wesensmerkmal insbesondere von Devisenkursnotierungen sowie von Wirtschaftsbeobachtungen ganz allgemein;
  • Das Vorliegen von Zyklizität;
  • Das Vorliegen einer variablen Streuung (Heteroskedastizität)

Die von den stationären abweichenden Kursnotierungen werden alsnicht stationär bezeichnet, und ihre Analyse erfolgt durch ihre schrittweise Zerlegung in ihre Einzelbestandteile. Der Zerlegungsvorgang endet mit dem Erhalt eines Residuums in Form einer stationären Reihe mit geradezu konstanter mathematischer Erwartung und/oder Streuung.

Es gibt verschiedene Tests zur Prüfung der Stationarität von Kursnotierungen, deren Grundlage die Einheitswurzeltests bilden. Der bekannteste aller Einheitswurzeltests ist der Dickey-Fuller-Test. Die Nullhypothese Ho lautet: Die Notierungen sind nicht stationär (oder mit anderen Worten, die Notierungen besitzen eine Einheitswurzel), das heißt, Durchschnittswert und Streuung sind zeitabhängig. Da de facto stets eine offensichtliche Zeitabhängigkeit, ein Trend, vorliegt, muss bei der Durchführung der Tests das Vorliegen eines Trends in den Kursnotierungen nachgewiesen werden, was gegenwärtig noch nach Augenschein geschieht.

1.6.  Indikatordarstellung (Regression)

Ein oberflächlicher Blick auf den Code der Indikatoren in seiner Quellsprache, z. B. in MQL5, lässt erkennen, dass es zwei Gestaltungsvarianten gibt: die analytische (das ist die am weitesten verbreitete) und die tabellarische (sie wird auf als Filter bezeichnete Indikatoren angewendet wie beispielsweise die Indikatoren von Kravtschuk).

Wir werden jedoch den Ausdruck „Regression“ verwenden, ein allgemein gebräuchlicher Ausdruck in der mathematischen Statistik und der Ökonometrie.

Mit einer konkreten Vorstellung, was wir aus den Kursnotierungen herauslesen möchten, müssen wir zur Formulierung der Regression (des Indikators) Folgendes festlegen:

  • ein Verzeichnis der unabhängigen Variablen, anhand derer der Indikator berechnet wird;
  • die Koeffizienten bei unabhängigen Variablen;
  • die Formel zur Berechnung des Indikators, anhand derer die abhängige Variable berechnet wird.

Während es bei der Erstellung mehrwährungsfähiger Indikatoren zu Schwierigkeiten kommen kann, bestehen derlei Beschränkungen bei der Regression nicht.

Ausgehend von diesen drei Positionen muss die Regression im weiteren Verlauf an die Notierung angepasst werden. Im Gegensatz zu einigen Foren zum Thema Devisenhandel sind Wörter wie „anpassen“ oder „Anpassung“ (fit, fitting) in der Ökonometrie keine Schimpfwörter, sondern ein Standardverfahren, in dessen Verlauf mithilfe eines der zahllosen Schätzverfahren die Übereinstimmung zwischen der Regression (des Indikators) mit der Kursnotierung berechnet wird. Das bekannteste Schätzverfahren ist die Methode der kleinsten Quadrate.

Nach der Schätzung stellen sich zwei Fragen:

  • Die Übereinstimmung des Indikators mit den Kursnotierungen - die Größe des verbleibenden Fehlers;
  • Die Zukunftsstabilität der berechneten Regressionsparameter.

Die Antworten auf diese Fragen werden im Verlauf der Indikatordiagnose gegeben.

1.7. Indikatordiagnose

Die Indikator- oder Regressionsdiagnose besteht aus drei Gruppen:

  • der Diagnose der Koeffizienten;
  • der Diagnose der Residuen;
  • der Diagnose der Stabilität.

Jeder der nachfolgend dargestellten Prüfvorgänge beinhaltet die Angabe einer Nullhypothese als zu prüfende Hypothese. Das Ergebnis der Überprüfung besteht aus einer Stichprobe der Werte einer oder mehrerer Statistiken und der sie begleitenden p-Werte. Letztere verweisen auf die Wahrscheinlichkeit der Erfüllung der Bedingungen der Nullhypothese, auf der die Teststatistik beruht.

Auf diese Weise führen kleine p-Werte zu einer Verwerfung der Nullhypothese. Liegt der p-Wert zum Beispiel zwischen 0,05 und 0,01 wird die Nullhypothese auf der 5%-Ebene verworfen, aber nicht bei 1%.

Es ist zu berücksichtigen, dass es bei jeder Überprüfung unterschiedliche Annahmen und Ergebnisse bezüglich der Verteilung gibt. Bei einigen Statistiken gibt es beispielsweise genaue finite Testverteilungen (für gewöhnlich t- oder F-Verteilungen). Bei anderen handelt es sich um große Stichproben aus Teststatistiken mit asymptotischen χ2-Verteilungen.

1.7.1. Diagnose der Koeffizienten

Die Koeffizientendiagnose liefert Informationen und ermittelt die Beschränkungen der geschätzten Koeffizienten einschließlich des Sonderfalls der Überprüfungen auf fehlende und überzählige Variablen. Folgende Überprüfungen der Koeffizienten der Regressionsgleichungen kommen zur Anwendung:

  • Konfidenzellipsen ermöglichen die Ermittlung der Wechselbeziehungen zwischen Gleichungskoeffizienten;
  • Die Überprüfung auf fehlende Variablen lässt die Bestimmung der Notwendigkeit weiterer Variablen in der Regressionsgleichung zu;
  • Die Überprüfung auf überzählige Variablen trägt dazu bei, unnötige Variablen zu enthüllen;
  • Der Knickstellentest ermöglicht die Bestimmung der Reaktion der Regressionsgleichung auf eine Trendänderung. Wünschenswert wäre die Aufstellung einer Regressionsgleichung, die Kursnotierungen in den auf- und absteigenden sowie den gleichbleibenden Abschnitten des Kursverlaufs gleichermaßen gut wiedergeben würde.

1.7.2. Diagnose der Residuen

Bei der Erörterung des Begriffs der Stationarität der Kursnotierungen sind wir bereits bei der Wichtigkeit der Untersuchung der Residuen beim Versuch der Umwandlung nicht stationärer Notierungen in stationäre stehengeblieben.

Die Durchführung eines Einheitswurzeltests kann zeigen, dass die Residuen erheblich näher an der Normalgesetzmäßigkeit verteilt sind als die ursprünglichen Notierungen. Das Wort „näher“ spiegelt den Umstand wider, dass die Residuen zeitabhängige Durchschnittswerte und Streuungen aufweisen, was zu einer Instabilität der Koeffizienten der Regressionsgleichung führt.

Um in der Terminologie der Foren zu bleiben: bei der Verbesserung eines automatischen Handelssystems ist darauf zu achten, es nicht „überzuoptimieren (da haben wir so eine „Anpassung“!)“, d. h. es in den nächsten Abschnitten des Handelssystems nicht seiner Eigenschaften zu berauben. Nach dem Verständnis des hier vorliegenden Beitrags erweist sich das Handelssystem aufgrund der sich im Zeitverlauf ändernden mathematischen Erwartung und Streuung für weitere Kursverlaufsabschnitte als ungeeignet.

Im Weiteren werden die Residuen auf Reihenkorrelation, Normalität, Heteroskedastizität sowie die autoregressive bedingte Heteroskedastizität der Residuen überprüft.

Korrelogramme - die Q-Statistik zeigt die Autokorrelation der Residuen und berechnet die Q-Statistik nach Ljung und Box für die entsprechenden Verschiebungen unter Angabe des p-Wertes.

Histogramm - die Normalitätsprüfung gibt bei der Überprüfung auf Normalität ein Histogramm und eine deskriptive Statistik der Residuen, einschließlich der Jarque-Bera-Statistik aus. Sind die Residuen normalverteilt, muss das Histogramm glockenförmig sein und die Jarque-Bera-Statistik nicht signifikant.

Heteroskedastizitätsprüfungen überprüfen die Residuen der Gleichungen auf Heteroskedastizität. Wenn Heteroskedastizität nachgewiesen werden kann, müssen entweder die Regressionseigenschaften geändert (der Indikator gewechselt) oder die Heteroskedastizität modelliert werden.

Wir verwenden den Heteroskedastizitätstest von White mit der Nullhypothese bezüglich des Fehlens von Heteroskedastizität gegenüber einem Test bezüglich der Heteroskedastizität in einer unbekannten gewöhnlichen Form.

White beschreibt seinen Ansatz als allgemeine Überprüfung auf die Fehlerhaftigkeit der Modellerstellung, da die dem Test zugrundeliegende Nullhypothese auf der Annahme beruht, dass die die Fehler sowohl homoskedastisch als auch von den freien Variablen unabhängig sind, und das die lineare Modellanlage korrekt ist. Die Nichterfüllung eines dieser Parameter kann zu einer aussagekräftigen Teststatistik führen. Andernfalls bedeutet eine nichtssagende Statistik, dass keiner der drei Parameter verletzt wurde.

1.7.3. Diagnose der Stabilität

Die Untersuchung der Stabilität ist am interessantesten und am wichtigsten, geben ihre Ergebnisse doch Aufschluss über das Vorhersagepotenzial eines Indikators. In MT4 bzw. MT5 wird versucht, die Stabilität mithilfe eines Strategieprüfprogramms zu ermitteln. Im weiteren Verlauf werden wir nachweisen, dass das Strategieprüfprogramm die zukünftige Stabilität eines auf Indikatoren beruhenden automatischen Handelssystems nicht diagnostizieren kann, sondern lediglich eine Bewertung vor dem Hintergrund der vorhandenen Kursverlaufsdaten liefert.

Wie bei der Prüfung von Handelssystemen üblich besteht der allgemeine diagnostische Ansatz darin, dass Т Kursnotierungsbalken auf Т1 Beobachtungen zur Berechnung bzw. Т2 = ТТ1 Balken für die Prüfung und Berechnung aufgeteilt werden.

Im Fall der Überprüfung eines Handelssystems an zwei Abschnitten bleibt die Frage seiner zukünftigen Stabilität unbeantwortet, da die Überprüfung an dem zweiten Abschnitt lediglich zum Ausdruck bringt, dass dieser neue Abschnitt dem vorherigen hinsichtlich unbekannter statistischer Merkmale ähnelt. Dabei bleiben auch die Probleme unbekannt, die bei der Anlage des Handelssystems erfolgreich gelöst worden sind.

Selbstverständlich werden bei der Überprüfung von Handelssystemen unterschiedliche Abschnitte des Kursverlaufs gewählt, aber es ist nicht möglich, Kursverlaufabschnitte allein dem Augenschein nach abzugrenzen, etwa solche mit Heteroskedastizität oder solche, in denen sich die Regressionskoeffizienten nicht stabil verhalten.

Es folgen einige Tests (bei Weitem nicht alle Stabilitätstests, die es gibt), bei deren Durchführung wir sicher sein können, dass das Handelssystem bei Eintreten der Prüfbedingungen im zukünftigen Kursverlauf ein stabiles Ergebnis liefern wird.

Eine Trendumkehr von der aufsteigenden in die absteigende Richtung oder umgekehrt entspricht beispielsweise der Knickstellenprüfung. Wenn bei der Überprüfung des Indikators auf eine Knickstelle keine solche vorgefunden wird, können wir sicher sein, dass der Indikator in Zukunft bei beliebigen Trendänderungen ein stabiles Ergebnis liefern wird.

Quandt-Andrews-Knickstellentest

Nullhypothese: das Fehlen von Knickstellen zwischen zwei Beobachtungen im Abstand von 15% von den Enden der Stichprobe.

Der Knickstellentest von Quandt und Andrews überprüft das Vorhandensein einer oder mehrerer unbekannter struktureller Knickstellen in der Stichprobe für die genannte Gleichung. Die Idee, auf der der Quandt-Andrews-Test basiert, besteht darin, dass für jede Beobachtung zwischen zwei Zeitpunkten oder den Beobachtungen t1 und t2 eine separate Knickstellenprüfung nach Chow durchgeführt wird. Anschließend werden k Prüfstatistiken aus den Chow-Tests zu einer Teststatistik für die Überprüfung gegen die Nullhypothese bezüglich des Fehlens von Knickstellen zwischen t1 und t2 summiert.

RESET-Test nach Ramsey

Nullhypothese: der Fehler in der Regressionsgleichung ist eine normal verteilte Größe mit dem Durchschnittswert Null.

Reihenkorrelation, Heteroskedastizität oder die nicht normale Verteilungsgesetzmäßigkeit für alle verstoßen gegen die Annahme, dass das Rauschen normal verteilt ist.

RESET - eine allgemeine Überprüfung auf folgende Arten von Fehlern in der Anlage:

  • Fehlende Variablen; X enthält nicht alle entsprechenden Variablen;
  • Fehlerhafte Form der Funktion: einige oder alle Variablen in y und X müssen mithilfe eines Logarithmus, einer Potenz, eines Kehrwerts oder auf andere Art umgewandelt werden;
  • Die Korrelation zwischen X und e, die unter anderem durch den Messfehler X oder das gleichzeitige Vorliegen eines Verschiebungswertes sowie einer Korrelation in der Reihe des Rauschens.

Bei solchen Fehlern in der Anlage sind die Schätzungen anhand der Methode der kleinsten Quadrate (der systemische Fehler ist nicht gleich Null) verschoben und ungültig (sie entsprechen bei einer steigenden Zahl von Beobachtungen wahrscheinlich nicht dem geschätzten Wert), weswegen die üblichen Folgerungsverfahren ihr gesetzgebende Wirkung verlieren.

Rekursive Residuen

Die Überprüfungen der rekursiven Residuen beruhen auf mehrfachen Berechnungen der Regression bei schrittweiser Heraufsetzung der Anzahl der Balken.

Überprüfung der Vorhersagen für den nächsten Schritt

Betrachtet man die Bestimmung der oben vorgestellten rekursiven Residuen, so kann man verstehen, dass es sich bei jedem rekursiven Residuum um einen Fehler in der Vorhersage für den nächsten Schritt handelt. Um zu überprüfen, ob der Wert der abhängigen Variablen für den Zeitraum t aus dem angepassten Modell bei allen Daten bis zu diesem Punkt heraustreten kann, muss jeder Fehler mit der Standardabweichung aus der gesamten Stichprobe verglichen werden.

Rekursive Koeffizientenberechnungen

Diese Art ermöglicht die Verfolgung der Veränderung der Schätzungen für jeden Koeffizienten bei einer Heraufsetzung der Anzahl der Daten in der Stichprobe. Die Abbildung zeigt ausgewählte Koeffizienten in der Gleichung für alle ausführbaren rekursiven Schätzungen. In den Abbildungen werden zwei Standardintervalle um die Schätzkoeffizienten herum vorgestellt.

Weist ein Koeffizient beim Hinzufügen von Daten zur Schätzgleichung erhebliche Veränderungen auf, so ist das ein zuverlässiges Anzeichen für Instabilität. Die Abbildungen der Koeffizienten können mitunter drastische Sprünge aufweisen, da die postulierte Gleichung versucht, den Knick in der Struktur zu überbrücken.

In der technischen Analyse ist die Richtung der so genannten „adaptiven“ Indikatoren recht verbreitet, wobei kein Versuch unternommen wird, eine Antwort auf die Frage nach der Notwendigkeit einer solchen Anpassung zu geben. Rekursive Koeffizientenberechnungen liefern sie.



2. Aufbereitung der Ausgangsdaten

Für die Analyse verwenden wir die Schlusskurse (close) der Tagesnotierungen für das Kürzel EURUSD vom 11. November 2010 bis zum 23. März 2011. Die Kursnotierungen wurden der MT4-Instanz auf dem Ausgabegerät (Terminal) mithilfe von F2 entnommen und in MS Excel exportiert.

Das Liniendiagramm für den Kursverlauf hat folgendes Aussehen:

Abbildung 5. Kursverlaufsdiagramm für EURUSD

Abbildung 5. Kursverlaufsdiagramm für EURUSD

Dieses Beispiel zeigt, dass die Indikatoren auf fehlende Daten überprüft werden müssen. Es sollte nicht davon ausgegangen werden, dass es sich bei den vorgestellten Kursnotierungen um einen Sonderfall minderwertiger Notierungen handelt. Fehlende Daten können stets aus unterschiedlichen Gründen auftreten. Außerdem müssen wir die Frage nach fehlenden Daten aufgrund von Feiertagen in den USA beantworten. Besonders heikel wird das Problem der fehlenden Daten bei der Erstellung automatischer Handelssysteme auf der Grundlage ihrer Natur nach unterschiedlicher Faktoren, wie etwa der Korrelation von Devisennotierungen und Fondsindices, die nicht rund um die Uhr gehandelt werden.

In unserem einfachen Fall kann eine lineare Interpolation vorgenommen und den Einfluss der fehlenden Daten auf die Berechnungen wenigstens etwas verringern.

Neben den fehlenden Daten stellen auch die Ausreißer ein Problem dar. Das Problem der Ausreißer ist komplizierter als das der fehlenden Daten. Bevor wir uns auf die Suche nach den Ausreißern begeben, müssen wir uns eine Frage beantworten: Was ist ein Ausreißer? Für mich ist ein Ausreißer eine Kursbewegung die größer ist als drei Standardabweichungen, wobei dieser Ausreißer sich nicht in Form einer anhaltenden starken Kursbewegung fortsetzen darf.

Die Ausreißer bestimmen wir nicht mithilfe ihrer Notierungen sondern anhand ihrer Residuen: dazu berechnen wir die Reihe, indem wir den vorhergehenden Kurswert von dem jeweils nachfolgenden subtrahieren – eurusd(i) – eurusd(i+1) (in MQL-Schreibweise). In englischer Schreibweise gibt es zahlreiche Bezeichnungen für diesen Wert. Im Diagramm heißt er „differenziert“. Am häufigsten wir er „Returns“ genannt. In diesem Beitrag verwende ich „Residuum“. Es bezeichnet eine Größe, die nach Abzug des Trends aus dem Kursverlauf erhalten wird. Das Diagramm für die Residuen aus EURUSD sieht aus wie folgt:


Abbildung 6. EURUSD-Residuum

Abbildung 6. EURUSD-Residuum

Die Standardabweichung für den EURUSD-Kursverlauf ist gleich 0,033209. Folglich liegen auf der Grundlage der formulierten Kriterien für Ausreißer in unseren Kursverläufen keine solchen vor.

Im Fall des Vorhandenseins von Ausreißern können diese etwa durch die Werte für die fehlenden Daten ersetzt und anschließend interpoliert werden.

Das vorgestellte Verfahren zur Beseitigung der Ausreißer ist nicht das einzige und vor allem ist es nicht korrekt. Wenn ein Residuum, das ist das, was von den Kursnotierungen nach Abzug des Trends übrig bleibt, vorliegt, ist offenkundig, dass die Größe der Ausreißer von der Art der Trendermittlung abhängig ist, was wiederum bedeutet, dass das Problem der Ausreißer nach der Beantwortung der Frage nach der Bestimmung des Trends gelöst werden muss.

Damit können wir die Aufbereitung der Ausgangsdaten für die anschließende Analyse als abgeschlossen betrachten.



3. Analyse der statistischen Merkmale

Ziel der Analyse der statistischen Merkmale von Devisenkursnotierungen und insbesondere der EURUSD-Notierungen ist die Prüfung der Möglichkeit der Verwendung von Indikatoren für die Analyse und Erstellung von automatischen Handelssystemen.

Das typische Muster der Anlage eines Handelssystems sieht aus wie folgt:

  1. Man nehme einen Indikator, zum Beispiel den gleitenden Durchschnittswert, um auf seiner Grundlage ein automatisches Handelssystem zu errichten;
  2. Da es fast immer nahezu unmöglich ist, ein Handelssystem auf nur einem Indikator aufzubauen, ergänze man es um weitere Indikatoren zur Ausfilterung trügerischer Markteintritte.

Dabei muss zwingend das Mantra „Nur nicht überanpassen!“ ständig wiederholt werden.

3.1. Deskriptive Statistik

Aus der Statistik wissen wir, dass, wenn eine Kursnotierung wie eine Zufallsgröße Gegenstand einer Normalverteilung wäre, der Wert des Durchschnittsberechnungsfehlers sich bei einer Änderung der Anzahl der Zeiträume ebenfalls ändern und gegen unendlich mit der mathematischen Erwartung zusammenfallen würde, die bei der Normalverteilung eine Konstante ist. Die Kursnotierungen könnten durch eine gerade waagerechte Linie ersetzt und die Stop Loss- sowie die Take Profit-Grenzen auf die jeweilige Höhe der Standardabweichungen festgelegt werden. Aber so verhält es sich nicht. Schauen wir nach wieso.

Wir prüfen, ob die Verteilungsgesetzmäßigkeit der Kursnotierungen der Normalverteilung entspricht.

Dazu legen wir ein Histogramm für den EURUSD-Kursverlauf an, das wie folgt aussieht:

Abbildung 7. Histogramm für den EURUSD-Kursverlauf

Abbildung 7. Histogramm für den EURUSD-Kursverlauf

Das Histogramm zeigt, wie viele Male ein bestimmter Kurs in dem von uns gewählten Zeitraum vorgekommen ist.

Nach ihrem Aussehen ist die Verteilung nicht normal, zwei Spitzen stören das Gesamtbild nachhaltig. Wir führen einen Normalitätstest nach Jarque und Bera mit der Nullhypothese Ho, „die Verteilung ist normal“, durch. Und hier haben wir das Ergebnis:

 Eigenschaft Wert (Tatsache) Theoretischer Wert
Durchschnittswert
1,3549
Der Durchschnittswert muss gleich dem Median sein
Median
1,3580
Der Median muss gleich dem Durchschnittswert sein
Standardabweichung
0,0332
-
Asymmetrie (Schiefe)
0,0909
0,0
Kurtosis
2,1052
3,0
Jarque-Bera
3,5773
0,0
Wahrscheinlichkeit
0,1671
1,0


Tabelle 1. Ergebnis der Überprüfung auf die Normalität der Verteilung

Gemäß dem Kriterium von Jarque und Bera ist die Schlussfolgerung hinsichtlich der Nichtübereinstimmung mit der Normalverteilung nicht ganz so kategorisch, da:

  • Median und Durchschnittswert fast immer übereinstimmen
  • die Asymmetrie gegen null geht
  • die Kurtosis gegen drei geht, und
  • die vorhandenen Ungenauigkeiten von der letzten Zeile, der „Wahrscheinlichkeit“, sehr gut wiedergegeben werden, besagt sie doch, dass die Verteilung mit einer Wahrscheinlichkeit von 16,7186% normal ist.

Man kann hinsichtlich dieser Zahl unterschiedlicher Ansicht sein. Einerseits kann die Nullhypothese (die Verteilung der Kursnotierungen ist normal) auf dem allgemein anerkannten Signifikanzniveau von, sagen wir, 95% nicht widerlegt werden. Andererseits wäre es bei 16% ebenso unangebracht von einer Normalität der Verteilung zu sprechen.

Da der Durchschnittswert de facto mit dem Median übereinstimmt (eines der Merkmale einer Normalverteilung), überprüfen wir, ob wir dem errechneten Durchschnittswert vertrauen können. Wir überprüfen die Gleichheit der Durchschnittswerte, indem wir den Kursverlauf in einzelne Abschnitte zerlegen.

Das führt zu folgendem Ergebnis:

EURUSD
 MengeDurchschnittswert
Standardabweichung
 Durchschnittswertfehler
(1,25 1,3)
4
1,2951
0,0034
0,0017
(1,3 1,35)
42
1,3262
0,0125
0,0019
(1,35 1,4)
48
1,3740
0,0133
0,0019
(1,4 1,45)
9
1,4131
0,0083
0,0027
Alle
103
1,3549
0,0332
0,0032


Tabelle 2. Vergleich der Durchschnittswerte der Abschnitte

Wie diese Überprüfung zeigt, erfolgt die Berechnung des Durchschnittswerts mit einem Fehler, der in den meisten Fällen einen Wert von 19 bis hin zu 32 Prozentpunkten (Pips) annimmt.

Das führt zu dem Schluss: Finger weg von den Durchschnittswerten!

Einen überaus verdächtigen Eindruck macht der Wert der Standardabweichung mit 0,033209. Das sind 332 Pips! Im Allgemeinen fällt eine solche Größe der Standardabweichung sofort ins Auge: das Währungspaar EURUSD legt einen Trend an den Tag, bei dem es sich eigentlich um eine regelmäßige determinierende Komponente handelt, die alle statistischen Merkmale von Kursnotierungen verzerrt.

3.2. Prüfung der Autokorrelation von Kursnotierungen

Die Grundlage des Begriffs „Zufälligkeit“ bildet die Unabhängigkeit der unterschiedlichen Werte einer Zufallsgröße voneinander. Nach dem Augenschein können Kursverläufe in als Trends bezeichnete Abschnitte gleichgerichteter Bewegungen unterteilt werden.

Die Bestimmtheit (das Vorliegen eines Trends) setzt die Abhängigkeit benachbarter EURUSD-Werte von einander voraus, die sich durch Berechnung der Autokorrelation (AK), also der Beziehung zwischen benachbarten Werten im Kursverlauf des Kürzels EURUSD, überprüfen lässt.

Unten folgen die Ergebnisse:

Abbildung 8. Autokorrelationsfunktion des EURUSD-Kursverlaufs

Abbildung 8. Autokorrelationsfunktion des EURUSD-Kursverlaufs

Die mit der Q-Statistik verbundene Wahrscheinlichkeit ist überall gleich und überall gleich null.

Aus den durchgeführten Berechnungen wird Folgendes ersichtlich:

  • Der Wert der Autokorrelationsfunktion (AKF) fällt stetig, wobei die Abnahme offenkundig regelmäßiger Natur ist.

Die errechnete Wahrscheinlichkeit entspricht der Prüfung mit der Nullhypothese Ho: vor der Verschiebung 16 besteht keine Korrelation (in unserem Beispiel). Da diese Wahrscheinlichkeit für alle Verschiebungen gleich null ist, ist die Nullhypothese bezüglich des Nichtvorliegens einer Autokorrelation (eines Trends) in dem Kursverlauf strikt abzulehnen.

3.3. Analyse der Stationarität von Kursnotierungen

Die Analyse der Stationarität der EURUSD-Notierungen erfolgt mittels der drei Varianten des Tests nach Dickey und Fuller: mit Verschiebung, mit Trend sowie ohne beide.

Das Testergebnis umfasst zwei Teile: für EURUSD und für die differenzierten EURUSD-Kursnotierungen mit dem Kürzel D(EURUSD).

Die Nullhypothese dieser Überprüfung lautet: das Währungspaar EURUSD ist nicht stationär (es verfügt über eine Einheitswurzel). Es wird nicht nur die Einheitswurzel berechnet, sondern auch die statistischen Merkmale der Ergebnisse der EURUSD-Differenzierung, deren Diagramm folgendermaßen aussieht:

Abbildung 9. EURUSD-Residuum

Abbildung 9. EURUSD-Residuum

Dem Augenschein nach kann gefolgert werden, dass es sich bei den differenzierten EURUSD-Notierungen um zufällige Schwingungen etwa um den Wert Null handelt.

Wir wollen hier drei Varianten der Berechnung zur Überprüfung der Stationarität der EURUSD-Kursnotierungen betrachten.

1. Den Kursverlauf ohne Verschiebung (Konstante) und ohne Trend mit folgendermaßen aussehender Regression:

D(EURUSD) = С(1) * EURUSD(1) + С(2) * D(EURUSD(1))

<

Die Wahrscheinlichkeit der Annahme der Nullhypothese (die Reihe ist nicht stationär) beträgt: 0,6961

 VariableKoeffizient
t-StatistikWahrscheinlichkeit der Gleichheit mit Null
 EURUSD(1)
3,09E-05
0,0488
0,9611
 D(EURUSD(1))
0,2747
2,8759
0,0049

Tabelle 3. Ergebnisse des Stationaritätstests ohne Berücksichtigung von Verschiebung und Trend

Berechnung der Regressionsanpassung an D(EURUSD) mithilfe von R-Quadrat: 0,07702.

Aus den vorgestellten Daten können folgende Schlüsse gezogen werden:

  1. Mit großer Wahrscheinlichkeit (69%) sind die EURUSD-Notierungen als nicht stationär zu betrachten. Die Nullhypothese kann somit nicht strikt zurückgewiesen werden;
  2. Das Inkrement D(EURUSD) ist mit einer Wahrscheinlichkeit von 99,5% von dem vorhergehenden EURUSD-Kurswert unabhängig;
  3. Das Inkrement D(EURUSD) hängt vollständig von dem vorhergehenden Inkrement D(EURUSD(1)) ab;
  4. Der Wert des Determinationskoeffizienten R-Quadrat ist gleich 0,077028, was besagt, dass die Regression den differenzierten D(EURUSD)-Kursnotierungen absolut nicht entspricht.

2. Den EURUSD-Kursverlauf mit Verschiebung (Konstante), für den die Regression folgendes Aussehen hat:

D(EURUSD) = С(1) * EURUSD(1) + С(2) * D(EURUSD(1)) + С(3)
 VariableKoeffizient
t-StatistikWahrscheinlichkeit der Gleichheit mit Null 
 EURUSD(1)
-0,0445
-1,6787
0,0964
 D(EURUSD(1))
0,3049
 3,1647
0,0021
 С 0,0603 1,68030,0961


Tabelle 4. Ergebnisse des Stationaritätstests unter Berücksichtigung der Verschiebung

Die Wahrscheinlichkeit der Annahme der Nullhypothese (die Reihe ist nicht stationär) beträgt: 0,4389

Berechnung der Regressionsanpassung an D(EURUSD) mithilfe von R-Quadrat: 0,1028

Aus den vorgestellten Daten können folgende Schlüsse gezogen werden:

  1. Mit recht großer Wahrscheinlichkeit (43%) sind die EURUSD-Notierungen als nicht stationär zu betrachten. Die Nullhypothese kann somit nicht strikt zurückgewiesen werden;
  2. Wir müssen uns davor hüten, den vorhergehenden EURUSD-Kurswert sowie die Konstante (Verschiebung) in die Regressionsgleichung für das Inkrement D(EURUSD) einzubeziehen, da wir diese Koeffizienten bei einem Signifikanzniveau von 5% als gleich null betrachten;
  3. Das Inkrement D(EURUSD) hängt vollständig von dem vorhergehenden Inkrement D(EURUSD(1)) ab;
  4. Der Wert des Determinationskoeffizienten R-Quadrat ist gleich 0,102876, was besagt, dass die Regression den differenzierten D(EURUSD)-Kursnotierungen absolut nicht entspricht.

3.Den EURUSD-Kursverlauf mit Verschiebung (Konstante) und Trend, dessen Regression wie folgt aussieht:

D(EURUSD) = С(1) * EURUSD(1) + С(2) * D(EURUSD(1)) + С(3) + С(4) * TREND

Die Wahrscheinlichkeit der Annahme der Nullhypothese (die Reihe ist nicht stationär) beträgt: 0,2541

 VariableKoeffizient
t-Statistik
Wahrscheinlichkeit der Gleichheit mit Null 
EURUSD(-1)
-0,0743
-2,6631
0,0091
D(EURUSD(-1))
0,2717
2,8867
0,0048
C
0,0963
2,5891
0,0111
TREND(11/01/2010)
8,52E-05
2,7266
0,0076

Tabelle 5. Ergebnisse des Stationaritätstests mit Berücksichtigung von Verschiebung und Trend

Berechnung der Regressionsanpassung an D(EURUSD) mithilfe von R-Quadrat: 0,1667

Aus den vorgestellten Daten können folgende Schlüsse gezogen werden:

  1. Mit recht großer Wahrscheinlichkeit (25%) sind die EURUSD-Notierungen als nicht stationär zu betrachten. Die Nullhypothese kann somit nicht strikt zurückgewiesen werden;
  2. Obwohl die Wahrscheinlichkeit, dass der Koeffizient bei einem Trend gleich null ist, unter 1% liegt, ist der Wert dieses Koeffizienten dennoch äußerst gering, das heißt, der Trend erweist sich als waagerechte Linie.
  3. Der Wert des Determinationskoeffizienten R-Quadrat ist gleich 0,166742, was besagt, dass die Regression den differenzierten D(EURUSD)-Kursnotierungen absolut nicht entspricht.

Aus den vorgestellten Berechnungen folgt: Wenn die Ausgangsnotierungen für EURUSD nicht stationär sind, ist ihre erste, durch Subtraktion jeweils des vorhergehenden Kurswertes von jedem nachfolgenden Wert gewonnene Differenz aller Wahrscheinlichkeit nach stationär.

Dabei wurden der Trend und die Verschiebung aus den Kursnotierungen entfernt, wie folgende Gleichung zeigt:

eurusd = c(1) * trend + c(2),

mit c(1) und c(2) als Konstanten, die mithilfe der Methode der kleinsten Quadrate geschätzt werden können.

Die vorgestellte Formel ist eine gewöhnliche Regressionsgleichung und entspricht vollständig der „Regression“ in der MT4-Instanz für Ausgabegeräte. Das bedeutet, dass wir die Ausgangsnotierung durch eine Gerade ersetzt haben, ein weit verbreiteter Ansatz in der technischen Analyse, da man sich eine ganze Reihe verbreitet angewandter Hilfsmittel in Erinnerung rufen kann, die sich als gerade Linien erweisen: Kanäle, Stütz- und Widerstandsgrenzen, Fibonacci-Grenzen, Gann usw.

Geraden sind das erste Hilfsmittel, dessen sich jeder Devisenhändler bedient. Aber aus welchem Grund trauen wir diesem Hilfsmittel und wie viel Vertrauen können wir den Geraden entgegenbringen? Dieser Frage gehen wir in diesem Beitrag weiter nach.

Neben Geraden kommen in der technischen Analyse Indikatoren zum Einsatz, die die Ausgangsnotierungen durch einige Kurven ersetzen. Wir gehen vergleichbar vor und stützen unsere Analyse auf zwei bekannte Indikatoren: den exponentiellen gleitenden Durchschnittswert (EMA) und den Hodrick-Prescott-Filter.



4. Von Trends befreite Kursverläufe

Die Verwendung des Begriffs „Trendbefreiung“ soll die Verbindung dieses Abschnitts mit dem entsprechenden Ausdruck aus der Ökonometrie zu unterstreichen. Zutreffender und in Übereinstimmung mit dem weiter oben erläuterten Finanzmarktmodell müssen wir über die Entfernung eines regulären Bestandteils, des Trends, aus dem Kursverlauf (die Trendbefreiung) sprechen.

In unserem Fall haben wir drei reguläre Bestandteile ausgesondert: den linearen Trend, den exponentiellen Durchschnittswert und den Hodrick-Prescott-Filter.

Alle regulären Bestandteile werden in Form von Zeitreihen angelegt.

4.1. Linearer Trend

Den linearen Trend bestimmen wir durch Addition jeweils einer Einheit zu dem vorhergehenden Wert.

Wir ermitteln die Koeffizienten der linearen Regression:

eurusd = c(1) * trend + c(2),

Wir erhalten ein kombiniertes Diagramm der EURUSD-Ausgangsnotierungen, der entlang der Senkrechten zur Konstante verschobenen Regressionsgeraden und des durch Subtraktion der Regressionslinie von der Kursnotierung erhaltenen Residuums:

Abbildung 10. Diagramm mit EURUSD-Kursverlauf, linearer Regression und Residuum

Abbildung 10. Diagramm mit EURUSD-Kursverlauf, linearer Regression und Residuum

Jetzt berechnen wir die folgende Gleichung mithilfe der Methode der kleinsten Quadrate:

EURUSD = С(1)*TREND + С(2)

Die Ermittlung der Regressionsgleichung wird von folgenden Angaben begleitet:

Variable
Koeffizient
 t-Statistik Wahrscheinlichkeit der Gleichheit mit Null
TREND
0,0004
4,4758
0,0000
C
1,3318
223,3028
0,0000

Tabelle 6. Ergebnisse der Überprüfung der Stationarität des linearen Trends

Die Berechnung der Anpassung der Regression an die R-Quadrat-Notierung ergibt 0,1655.

Das Ergebnis lässt folgende Schlüsse zu:

  1. Gemäß dem Determinationskoeffizienten R-Quadrat liefert die Gerade lediglich in 16% der Fälle eine Erklärung für Änderungen im Kursverlauf;
  2. Das Residuum aus der Subtraktion des linearen Trends von der Kursnotierung weicht nur geringfügig von dieser selbst ab und wird offensichtlich dieselben statistischen Schwächen aufweisen.

4.2. Exponentielle Glättung

Für die exponentielle Glättung verwenden wir den Algorithmus von Holt und Winters ohne den saisonalen Bestandteil mit Glättungsparametern für die Kursnotierung (Ebene) und den Trend.

Die Grundidee der Methode:

  • Entfernung des Trends aus der Zeitreihe durch Abtrennen der Grenze vom Trend;
  • Glättung der Grenze (Parameter a);
  • Glättung der Trendvorhersage (Parameter b).

Die Abbildung zeigt das Ergebnis.

Abbildung 11. Der exponentielle gleitende Durchschnittswert (EMA)

Abbildung 11. Der exponentielle gleitende Durchschnittswert (EMA)

Wir haben einen leicht verzögerten gewöhnlichen exponentiellen gleitenden Durchschnittswert erhalten, der die Kursnotierung absolut gut wiedergibt. Die Glättungsparameter werden oben ausgewiesen, eine Auswahl der Parameter hat nicht stattgefunden.

Jetzt berechnen wir die folgende Gleichung mithilfe der Methode der kleinsten Quadrate:

EURUSD = С(1)*EURUSD_EX +С(2)

Die Berechnung der Regressionsgleichung wird von folgenden Angaben begleitet:

Variable
Koeffizient
 t-StatistikWahrscheinlichkeit der Gleichheit mit Null
EURUSD_EX
0,9168
24,3688
 0,0000
C
0,1145
2,2504
 0,0266


Tabelle 7. Die Ergebnisse der Berechnung der linearen Regression

Die Berechnung der Anpassung der Regression an die R-Quadrat-Notierung ergibt 0,8546.

Das Ergebnis lässt folgende Schlüsse zu:

  1. Gemäß dem Determinationskoeffizienten R-Quadrat liefert der exponentielle gleitende Durchschnittswert in 84% der Fälle eine Erklärung für Änderungen im Kursverlauf;
  2. Das Residuum aus der Subtraktion des exponentiellen Durchschnittswertes von der Kursnotierung ähnelt dem Aussehen nach einem Zufallsverfahren mit Normalverteilung. Wir gehen davon aus, dass die weitere Analyse dieses Residuums durchaus Sinn macht.

4.3. Der Hodrick-Prescott-Filter

Der Hodrick-Prescott-Filter verfügt über den Parameter Lambda.

Wir befassen uns nicht mit der Auswahl dieses Parameters und nehmen ihn als 8.162.

Und hier haben wir das Ergebnis:

Abbildung 12. Der Hodrick-Prescott-Filter

Abbildung 12. Der Hodrick-Prescott-Filter

Jetzt berechnen wir die folgende Gleichung mithilfe der Methode der kleinsten Quadrate:

EURUSD = С(1)*EURUSD_HP + С(2)

Die Berechnung der Regressionsgleichung wird von folgenden Angaben begleitet:

Variable
Koeffizient
t-Statistik
 Wahrscheinlichkeit der Gleichheit mit Null
EURUSD_HP
1,0577
23,9443
0,0000
C
-0,0782
-1,3070
0,1942


Tabelle 8. Die Ergebnisse der Berechnung der Anpassung der Regression an die Kursnotierungen

Die Berechnung der Anpassung der Regression an die R-Quadrat-Notierung ergibt 0,8502.

Das Ergebnis lässt folgende Schlüsse zu:

  1. Die Wahrscheinlichkeit, mit der der zweite Koeffizient (die zweite Konstante gleich null ist, beträgt 19%, was die Verwendung der Konstanten in der Regressionsgleichung zweifelhaft erscheinen lässt.
  2. Gemäß dem Determinationskoeffizienten R-Quadrat liefert der Hodrick-Prescott-Filter in 85% der Fälle eine Erklärung für Änderungen im Kursverlauf;
  3. Das Residuum aus der Subtraktion des Hodrick-Prescott-Filters von der Kursnotierung ähnelt dem Aussehen nach einem Zufallsverfahren mit Normalverteilung.


5. Diagnose der Koeffizienten

Die Untersuchung der Koeffizienten umfasst folgende Prüfungen:

  1. Die Zuverlässigkeitsellipse bestimmt das Verhältnis zwischen den Koeffizienten der Regressionsgleichung: je näher die Ellipse der Kreisform kommt, desto schwächer ist das Verhältnis;
  2. Das Zuverlässigkeitsintervall ermittelt die Grenzen der Veränderung der Gleichungskoeffizienten. In der technischen Analyse sind die Koeffizienten Konstanten, die üblicherweise unter anderem mithilfe des Parameters „Zeitraum“ (period) geändert werden können. In jedem Fall werden die Koeffizienten jedoch nicht als Zufallsgrößen betrachtet. Wir werden überprüfen, ob dem so ist;
  3. Bei der Überprüfung auf fehlende Variablen gilt als Nullhypothese: weitere unabhängige Variablen sind nicht signifikant.
  4. Der Überprüfung auf überzählige Variablen liegt folgende Nullhypothese zugrunde: der Koeffizient der zusätzlichen Variablen ist gleich null;
  5. Die Überprüfung auf Knickstellen (breakpoints) ermittelt das Vorliegen von Stellen, an denen sich die statistischen Eigenschaften des Kursverlaufs ändern. Als derartige Stellen überprüfen wir die Punkte, an denen sich der Trend im Sinne der technischen Analyse ändert. In dem von uns betrachteten Kürzel EURUSD können wir mindestens zwei Trends ausmachen, einen ab- und danach einen aufsteigenden (wobei wir die Möglichkeit der Ermittlung eines gleichbleibenden (flat) Trends unberücksichtigt lassen).

5.1. Zuverlässigkeitsellipsen

Wir legen für jede Regressionsgleichung eine Zuverlässigkeitsellipse an:

Abbildung 13. Zuverlässigkeitsellipse für die Regressionsgleichung 1

Abbildung 13. Zuverlässigkeitsellipse für die Regressionsgleichung 1

Abbildung 14. Zuverlässigkeitsellipse für die Regressionsgleichung 2

Abbildung 14. Zuverlässigkeitsellipse für die Regressionsgleichung 2

Abbildung 15. Zuverlässigkeitsellipse für die Regressionsgleichung 3

Abbildung 15. Zuverlässigkeitsellipse für die Regressionsgleichung 3


Aus den vorgestellten Abbildungen können wir folgende Schlüsse ziehen:

  1. Die Korrelation der Regressionskoeffizienten für den linearen Trend liegt vor und beträgt dem Augenschein nach etwa 0,5;
  2. Die Korrelation der Regressionen zu den exponentiellen gleitenden Durchschnittswerten und dem Hodrick-Prescott-Filter beträgt praktisch eins, was den Ausschluss der Konstanten aus der Regressionsgleichung erforderlich macht. Für den Ausschluss der Konstanten aus der Regressionsgleichung mit dem Hodrick-Prescott-Filter spricht die signifikante Wahrscheinlichkeit dafür, dass diese Konstante gleich null sein wird.

5.2. Zuverlässigkeitsintervall

Jetzt überprüfen wir die Annahme, dass es sich bei den Konstanten in Regressionsgleichungen um Zufallsgrößen handelt

Dazu legen wir Zuverlässigkeitsintervalle an:

 Variable  Koeffizient Zuverlässigkeitsintervall 90% Zuverlässigkeitsintervall 95%
Untere Grenze
Obere Grenze
in % des Intervalls
Untere Grenze Obere Grenze in % des Intervalls
TREND
0,0004
0,0002
0,0006
74,3362
0,0002
0,0006
88,7168
C
1,3318
1,3219
1,3417
1,4868
1,3200
1,3436
1,7767
        
EURUSD_EX
0,9168
0,8543
0,9793
13,6247
0,8422
0,9914
16,2810
C
0,1145
0,0300
0,1991
147,5336
0,0135
0,2155
176,2960
        
EURUSD_HP
1,0577
0,9844
1,1310
13,8661
0,9701
1,1453
16,5694
C
-0,0782
-0,1776
0,0211
254,0276
-0,1970
0,0405
303,5529


Tabelle 9. Zuverlässigkeitsintervalle der Regressionskoeffizienten

Aus den vorgestellten Vertraulichkeitsintervallen wird ersichtlich, dass es sich bei dem Koeffizienten um eine Zufallsgröße handelt, die sich entsprechend ihrem Status verhält: je größer die Zuverlässigkeit (je weniger breit der Korridor) desto größer die Breite des Intervalls.

Von großem Interesse ist die Spalte „in % des Intervalls“, die das prozentuale Verhältnis der Breite des Intervalls des Koeffizientenwertes zu diesem selbst angibt. Wie wir sehen, weist dieser Wert für die Regressionskonstanten mit exponentiellem Durchschnittswert und Filter vollkommen unannehmbare Größen von mehr als 100% auf! Wir erinnern uns daran, dass die Koeffizienten der Korrelation zwischen zwei Koeffizienten dieser Gleichungen de facto gleich „1“ sind.

Wir entfernen die Konstante aus den Gleichungen und berechnen die Regressionskoeffizienten neu.

Wir erhalten folgendes Ergebnis:

 Variable  Koeffizient Zuverlässigkeitsintervall 90% Zuverlässigkeitsintervall 95%
Untere Grenze Obere Grenze in % des Intervalls Untere Grenze Obere Grenze in % des Intervalls
EURUSD_EX1,0014
0,9999
1,0030
0,3131
0,9996
1,0033
0,3742
EURUSD_HP
1,0000
0,9984
1,0015
0,3127
0,9981
1,0018
0,3737

Tabelle 10. Zuverlässigkeitsintervalle der neuberechneten Regressionskoeffizienten

Aus Platzgründen werde ich die Neuberechnungen für die Regression mit exponentiellem Durchschnittswert und Filter hier nicht aufführen.

Ich weise darauf hin, dass ich im Weiteren folgende Regressionsgleichungen verwenden werde:

EURUSD = 1,00149684612*EURUSD_EX

EURUSD = 1,00002609628*EURUSD_HP

5.3. Fehlende und überzählige Variablen (Indikatoren)

Ein typischer Algorithmus zur Entwicklung eines automatischen Handelssystems besteht aus folgenden Einzelschritten. Man nimmt einen beliebigen Indikator und überprüft das Handelssystem an diesem. Danach ergänzt man einen weiteren Indikator, um irrtümliche Auslösungen des Handelssystems herauszufiltern.

Aus dem beschriebenen Algorithmus wird nicht ersichtlich, wann man aufhören sollte? Müssen weitere Indikatoren aufgenommen oder bereits aufgenommene wieder entfernt werden? Auf diese Fragen gibt es im Rahmen der vorhandenen Theorie zur Erstellung automatischer Handelssysteme keine Antwort, diese findet sich vielmehr in der Überprüfung auf fehlende und überzählige Variablen (Indikatoren).

Bei der Überprüfung auf fehlende Variablen gilt als Nullhypothese: weitere unabhängige Variablen sind nicht signifikant.

Wir fassen unsere drei Indikatoren zu einem zusammen:

EURUSD = C(1)*TREND + C(2) + C(3)*EURUSD_EX + C(4)*EURUSD_HP

Bei der Berechnung der Koeffizienten dieses einen integralen Indikators (der Regression) erhalten wir:

EURUSD = 1,41879198369e-05*TREND - 0,00319950161771 + 0,50111527265*EURUSD_EX + 0,501486719095*EURUSD_HP

Die Wahrscheinlichkeit dafür, dass die entsprechenden Koeffizienten gleich null sind, zeigt die folgende Übersicht:

 Variable KoeffizientWahrscheinlichkeit der Gleichheit mit Null
TREND
 1,42E-05
 0,7577
C
 -0,0032
 0,9608
EURUSD_EX
 0,5011
 0,0000
EURUSD_HP 0,5014 0,0004


Tabelle 11. Berechnung der Wahrscheinlichkeit dafür, dass die Indikatorkoeffizienten gleich null sind

Aus der Übersicht folgt, dass wir den Indikator TREND und die Konstante vergebens aufgenommen haben, da mit Sicherheit davon ausgegangen werden kann, dass die Koeffizienten bei ihnen gleich null sind.

Wir ergänzen unseren integrierten Indikator um einen weiteren, das Quadrat des exponentiellen Durchschnittswertes eurusd_ex^2, und führen eine Überprüfung auf die fehlende Variable eurusd_ex^2 mit folgender Nullhypothese durch: die weitere Variable eurusd_ex^2 ist nicht signifikant.

Gemäß den berechneten t- und F-Statistiken beträgt die Wahrscheinlichkeit dafür, dass die weitere Variable (eurusd_ex^2) nicht signifikant ist, 44,87%. Auf dieser Grundlage kann davon ausgegangen werden, dass wir in unserem Handelssystem keine weiteren Indikatoren benötigen.

Noch interessanter ist die in der Übersicht wiedergegebene Berechnung des um eurusd_ex^2 erweiterten integrierten Indikators:

Variable
 KoeffizientWahrscheinlichkeit der Gleichheit mit Null
TREND
1,69E-05
0,7154
C
1,9682
0,4496
EURUSD_EX
-2,3705
0,5317
EURUSD_HP
0,4641
0,0020
EURUSD_EX^2
1,0724
0,4487

Tabelle 12. Berechnung der Wahrscheinlichkeit dafür, dass die Koeffizienten des um eurusd_ex^2 erweiterten integrierten Indikators gleich null sind

Die Übersicht zeigt, dass das Interesse ausschließlich dem Indikator auf der Grundlage des Hodrick-Prescott-Filters zu gelten hat.

Der Überprüfung auf überzählige Variablen liegt folgende Nullhypothese zugrunde: der Koeffizient der zusätzlichen Variablen ist gleich null.

Betrachten wir das Ganze einmal von der anderen Seite, dazu führen wir die Überprüfung auf überzählige Variablen mit folgender Nullhypothese durch: der Koeffizient der überzähligen Variablen ist gleich null. Als überzählige Variablen in unserem integrierten Indikator weisen wir TREND und C aus.

Gemäß den berechneten t- und F-Statistiken beträgt die Wahrscheinlichkeit dafür, dass die überzähligen Variablen TREND und C gleich null sind, 92,95%. Vor diesem Hintergrund können wir davon ausgehen, dass es in unserem Handelssystem die überzähligen Variablen TREND und C gibt, was gut zu den vorherigen Ergebnissen passt.

Die Berechnung des aus dem exponentiellen Durchschnittswert und dem Hodrick-Prescott-Filter bestehenden integrierten Indikators sieht aus wie folgt:

Variable
Koeffizient
Wahrscheinlichkeit der Gleichheit mit Null
EURUSD_EX
0,4992
0,00
EURUSD_HP
0,5015
0,00


Tabelle 13.
Berechnung der Wahrscheinlichkeit, mit der die Koeffizienten des aus dem exponentiellen Durchschnittswert und dem Hodrick-Prescott-Filter bestehenden integrierten Indikators gleich null sind

M.a.W., wir weisen jegliche Zweifel an der Nützlichkeit der Verwendung dieser Indikatoren in einem Handelssystem nachdrücklich zurück.



6. Diagnose der Residuen

6.1. Autokorrelation - Q-Statistik

Abbildung 16. Die Autokorrelationsfunktion (AKF) nach Abzug des linearen Trends

Abbildung 16. Die Autokorrelationsfunktion nach Abzug des linearen Trends

Aus dem Korrelogramm folgt, dass das Vorliegen eines Trends durch den Abzug des linearen Trends von der Ausgangsnotierung nicht ausgeschlossen wurde, wovon die AKF zeugt. Die Wahrscheinlichkeit, dass keine Korrelation vorliegt, ist gleich null, d. h. die Nullhypothese ist auf allen Signifikanzniveaus strikt zu verwerfen.

Abbildung 17. Die Autokorrelationsfunktion nach Abzug der exponentiellen Glättung

Abbildung 17.Die Autokorrelationsfunktion nach Abzug der exponentiellen Glättung

Aus dem Korrelogramm wird ersichtlich, dass der Trend, wie die AKF zeigt, durch den Abzug der exponentiellen Kurve von der Ausgangsnotierung aus allen Kerzen oberhalb der zweiten entfernt wurde.

Nach den Berechnungen ist die Wahrscheinlichkeit, dass keine Korrelation vorliegt, gleich null, d. h. die Nullhypothese ist auf allen Signifikanzniveaus strikt zu verwerfen.

Wenn es jedoch mit einigen zusätzlichen Anstrengungen gelingen würde, die Korrelation in den beiden ersten Kerzen ebenfalls auszuschließen, könnten wir ein korrelationsloses Residuum erhalten.

Abbildung 18. Die Autokorrelationsfunktion nach Abzug des Hodrick-Prescott-Filters

Abbildung 18. Die Autokorrelationsfunktion nach Abzug des Hodrick-Prescott-Filters

Das Korrelogramm belegt, dass der Trend, wie die AKF zeigt, durch den Abzug des Hodrick-Prescott-Filters von der Ausgangsnotierung aus allen Kerzen oberhalb der dritten entfernt wurde. Die Wahrscheinlichkeit, dass keine Korrelation vorliegt, ist gleich null, d. h. die Nullhypothese ist auf allen Signifikanzniveaus strikt zu verwerfen. Wenn es jedoch mit einigen zusätzlichen Anstrengungen gelingen würde, die Korrelation in den ersten drei Kerzen ebenfalls auszuschließen, könnten wir ein korrelationsloses Residuum erhalten.

Fazit. Der Versuch, den determinierenden Bestandteil durch Abzug unserer Indikatoren von der Ausgangsnotierung des Kürzels EURUSD zu beseitigen, ist für den linearen Trend vollständig fehlgeschlagen und für den exponentiellen gleitenden Durchschnittswert sowie den Hodrick-Prescott-Filter nur teilweise geglückt.

Wegen der Autokorrelation (des determinierenden Bestandteils) in den Residuen ist die weitere Untersuchung unserer Indikatoren sinnlos. Wir müssen einen Indikator finden, der den Ausschluss der Autokorrelation aus den Residuen ermöglicht. Darum geht es im nächsten Abschnitt.



7. Erstellung und Prüfung des Indikators unter Berücksichtigung der Analyse

Zurzeit gibt es keine offizielle Theorie zur Anlage einer Auswahl von Indikatoren. Die einzige Möglichkeit besteht in der unmittelbaren Suche nach einer passenden Auswahl anhand der Analyseergebnisse.

Aus der vorhergehenden Untersuchung der Autokorrelation haben wir geschlossen, dass auch nach der Befreiung vom Trend in den ersten Notierungskerzen eine Autokorrelation weiterbesteht.

Sehen wir uns die folgende Regressionsgleichung dessen eingedenk einmal genauer an:

EURUSD = C(1)*EURUSD_HP(1) + C(2)*D(EURUSD_HP(1)) + C(3)*D(EURUSD_HP(2))

D(EURUSD_HP(1)) bezeichnet das Residuum zwischen der Kursnotierung und der Glättung mit dem Hodrick-Prescott-Filter und die erste Kursänderung (den zweiten Balken und nicht den ersten bei Zählung der Balken ab eins).

Die Berechnung der Koeffizienten dieser Gleichung mithilfe der Methode der kleinsten Quadrate führt zu folgenden Ergebnissen:

 VariableKoeffizient
Wahrscheinlichkeit der Gleichheit mit Null
EURUSD_HP(1)
1,0001
0,0000
D(EURUSD(1))
0,8262
0,0000
D(EURUSD(-2))
-0,48810,0000


Tabelle 14. Ergebnisse der Koeffizientenberechnung mithilfe der Methode der kleinsten Quadrate

Gemäß der Überprüfung auf überzählige Variablen sowie in Übereinstimmung mit den Berechnungen nach der t- und der F-Statistik ist die Wahrscheinlichkeit, dass die Koeffizienten bei Vorliegen der Variablen eurusd(1) bzw. eurusd(2) gleich null sind, gleich null, das heißt, diese beiden Variablen sind nicht überzählig.

Die Autokorrelation belegt das Nichtvorhandensein von Abhängigkeiten bis zur 16. Kursänderung mit einer Wahrscheinlichkeit von über 70% (erste Unterschriftszeile):


Abbildung 19. Autokorrelation des Residuums

Abbildung 19. Autokorrelation des Residuums

Die Überprüfung auf Heteroskedastizität nach White ergibt gemäß der F-Statistik, dass mit einer Wahrscheinlichkeit von 80% keine solche vorliegt.

Die Untersuchung auf Knickstellen nach Quandt und Andrews mit der Nullhypothese: es liegen keine Knickstellen vor, ergibt: die Nullhypothese (keine Knickstellen vorhanden) ist mit einer Wahrscheinlichkeit von 71% annehmbar.

Es sei noch einmal ausdrücklich darauf hingewiesen, dass die betrachteten Kursnotierungen aus Sicht der klassischen technischen Analyse über mindestens eine Knickstelle (eine Trendumkehrung) verfügen. Allerdings weist unser Indikator dieselben statistischen Merkmale für den absteigenden wie für den aufsteigenden Trend auf und ist deshalb invariant gegenüber dem Charakter des Marktes.

Die Integritätsprüfung nach Ramsey ergibt, dass die Nullhypothese: der Fehler in der Regressionsgleichung ist eine normalverteilte Größe, gemäß der t- und F-Statistik mit einer Wahrscheinlichkeit von 48% anzunehmen ist. Auf dieser Grundlage können die Autokorrelation des Residuums und seine Heteroskedastizität vernachlässigt werden.

Das bedeutet zudem, dass die Berechnung der linearen Quadrate nicht verschoben (die mathematische Erwartung der berechneten Größe stimmt mit der berechneten Größe überein) ist, und die Überprüfung der rekursiven Residuen erfolgen kann.

Wir überprüfen die Vorhersage der rekursiven Residuen für den nächsten Schritt. Der obere Teil der Abbildung weist rekursive Residuen sowie Grenzlinien für zwei Standardabweichungen auf. Darüber hinaus (linke Achse) wird der Wahrscheinlichkeitswert für die Kursnotierungskerzen angegeben, bei denen die Konstanzhypothese des Indikatorkoeffizienten auf den Signifikanzniveaus von 5, 10 und 15% abzulehnen wäre. Von diesen Knickstellen gibt es nicht viele, aber ihre bloße Existenz bedeutet die irrtümliche Auslösung von Stop Loss und Take Profit.

Abbildung 20. Prüfung der Vorhersagen für rekursive Residuen

Abbildung 20. Prüfung der Vorhersagen für rekursive Residuen

Wir benennen die rekursiven Schätzungen der Koeffizienten der Regressionsgleichungen. Das Diagramm wird folgendermaßen angelegt: die Werte der Koeffizienten für den Balken ganz links werden berechnet. Anschließend fügen wir einen weiteren Balken hinzu und berechnen die Werte der Koeffizienten neu, das heißt bis zum allerletzten Balken. Es versteht sich, dass die Koeffizientenwerte bei einer kleinen Anzahl von Balken auf der linken Seite sehr instabil sind. Je höher die Anzahl der Balken, für die die Berechnung erfolgt, desto größer die Stabilität (Konstanz).

Abbildung 21. Rekursive Schätzungen des C(1)-Koeffizienten

Abbildung 21. Rekursive Schätzungen des C(1)-Koeffizienten

Abbildung 22. Rekursive Schätzungen des C(2)-Koeffizienten

Abbildung 22. Rekursive Schätzungen des C(2)-Koeffizienten

Abbildung 23. Rekursive Schätzungen des C(3)-Koeffizienten

Abbildung 23. Rekursive Schätzungen des C(3)-Koeffizienten

Aus den dargebotenen Zeichnungen folgt, dass am Anfang des Kursverlaufsintervalls eine gewisse Instabilität vorlag, wogegen man der Ansicht sein kann, dass die Werte der Koeffizienten danach einen unveränderlichen Charakter angenommen haben. Nichtsdestotrotz handelt es sich bei den Koeffizienten unserer Regressionsgleichung streng genommen nicht um Konstanten.



Fazit


In dem hier vorliegenden Beitrag wurde ein weiterer Nachweis dafür erbracht, dass Finanzmarktdaten nicht stationär sind. In dem Artikel kam das Standardverfahren der Aufschlüsselung der stationären Daten zu einer Datensumme zur Bildung eines stationären Residuums zum Einsatz.

Nach der Ermittlung des stationären Residuums der Ausgangsnotierungen kann die wesentliche Frage nach der Stabilität des resultierenden Indikators beantwortet werden.

Die in diesem Beitrag vorgebrachten Informationen bilden lediglich den Anfang der Entwicklung eines automatischen Handelssystems auf der Grundlage der Prognose von Kursentwicklungen.



Literaturhinweise

EViews 7. Benutzerhandbuch II (nur englisch).

Übersetzt aus dem Russischen von MetaQuotes Software Corp.
Originalartikel: https://www.mql5.com/ru/articles/320

Zeitreihenvorhersage mittels exponentieller Glättung Zeitreihenvorhersage mittels exponentieller Glättung

Dieser Beitrag möchte dem Leser einige Modelle zur exponentiellen Glättung für kurzfristige Vorhersagen von Zeitreihen näher bringen. Darüber hinaus werden Fragen der Optimierung und Berechnung der Vorhersageergebnisse berührt sowie Beispiele für Programmskripte und Indikatoren vorgestellt. Dieser Artikel soll als erster Einstieg in die Grundsätze von Vorhersagen auf der Grundlage exponentieller Glättungsmodelle dienen.

Analyse der wesentlichen Merkmale von Zeitreihen Analyse der wesentlichen Merkmale von Zeitreihen

In diesem Artikel wird eine Klasse vorgestellt, die die schnelle provisorische Ermittlung der Merkmale verschiedener Zeitreihen ermöglicht. Dabei werden die statistischen Parameter und die Autokorrelationsfunktion berechnet, eine Berechnung des jeweiligen Spektrums der Zeitreihen durchgeführt und ein Histogramm angelegt.

Erstellung von Handelssystemen mittels Diskriminanzanalyse Erstellung von Handelssystemen mittels Diskriminanzanalyse

Bei der Erstellung von Handelssystemen stellt sich für gewöhnlich die Frage nach der Auswahl der besten Kombination von Indikatoren und deren Signalen. Die Diskriminanzanalyse (DA) ist eines der Verfahren zur Ermittlung dieser Kombinationen. In diesem Beitrag werden ein Beispiel für die Entwicklung eines Expert-Systems zur Erfassung von Marktdaten vorgestellt und der Einsatz der DA zur Erstellung von Vorhersagemodellen für den Devisenmarkt in einem Programm von Statistica vorgeführt.

Zeitreihenvorhersage mittels exponentieller Glättung (Fortsetzung) Zeitreihenvorhersage mittels exponentieller Glättung (Fortsetzung)

In diesem Beitrag wird versucht, einen bereits angelegten Indikator nachzubessern, außerdem wird kurz auf eine Methode zur Berechnung der Zuverlässigkeitsintervalle von Vorhersagen mittels Bootstrapping und Quantilen eingegangen. Als Ergebnis erhalten wir einen Vorhersageindikator und Skripte zur Berechnung der Vorhersagegenauigkeit.