Der Markt ist ein kontrolliertes dynamisches System. - Seite 59
Sie verpassen Handelsmöglichkeiten:
- Freie Handelsapplikationen
- Über 8.000 Signale zum Kopieren
- Wirtschaftsnachrichten für die Lage an den Finanzmärkte
Registrierung
Einloggen
Sie stimmen der Website-Richtlinie und den Nutzungsbedingungen zu.
Wenn Sie kein Benutzerkonto haben, registrieren Sie sich
Alexej, ich stelle die erste Frage: Warum
1) Konstante Auswirkungen, die unabhängig vom Aktienkurs sind (Alpha-Auswirkungen),
2) eine Auswirkung, die proportional zum Aktienkurs ist (Beta-Auswirkung),
3) Proportional zur Ableitung des Aktienkurses (Gamma-Effekt)
4) proportional zum Quadrat des Aktienkurses (Einführung von Nichtlinearität) (Delta-Effekt).
Wenn
nur die "Externe" beeinflusst die "Aktie" und nicht umgekehrt
? Ich verstehe, dass man auf Äquivalente reduzieren kann, aber ist es nicht logischer, die Reaktion zunächst in Grad der Auswirkung darzustellen und nicht andersherum?
Das Kriterium sollte meines Erachtens zusammengesetzt sein und folgende Faktoren gleichzeitig berücksichtigen (z. B. mittels einer Sanktionsfunktion)
- Modell Residuen Korrelation Zeit -> min
- die Abweichung der Residuenverteilung von der Normalverteilung -> min
- Norm des Residuenvektors -> min
- Anzahl der nicht gegen Null konvergierenden Modellparameter -> min
Dies gilt für die Impfung, ohne Berücksichtigung des Eingabemodells, das ich in Kürze ändern werde)
... ohne Berücksichtigung des Eingangssignalmodells, das ich demnächst vorstellen werde)
Unwillkürlich kommt mir eine solche berühmte Geschichte in den Sinn. Als Laplace Napoleon ein Exemplar seiner "Himmelsmechanik" überreichte, bemerkte der Kaiser: "Monsieur Laplace, man sagt, dass Sie dieses große Buch über das System der Welt geschrieben haben, ohne den Schöpfer auch nur einmal zu erwähnen". Darauf soll Laplace geantwortet haben: "Ich brauchte diese Hypothese nicht. Die Natur hat Gott ersetzt.
;)
"Ich brauchte diese Hypothese nicht. Die Natur hat Gott ersetzt.
Das Kriterium sollte meines Erachtens zusammengesetzt sein und die folgenden Faktoren gleichzeitig berücksichtigen (z. B. durch eine Sanktionsfunktion):
- Modell Residuen Korrelation Zeit -> min
- die Abweichung der Residuenverteilung von der Normalverteilung -> min
- Norm des Residuenvektors -> min
- Anzahl der nicht gegen Null konvergierenden Modellparameter -> min
Dies gilt für die Inokulation, ohne Berücksichtigung des Eingabemodells, das ich gleich auflösen werde)
Man kann sich viele verschiedene Kriterien ausdenken, und zwar sehr viele verschiedene. Eine solche Vielzahl von Kriterien führt jedoch in der Regel nicht zu dem gewünschten Ergebnis, da sie inkonsistent sind.
Критерий, я так считаю, должен быть составной и учитывать одновременно следующие факторы (например, с помощью штрафной функции):
- время корреляции остатков модели -> min
- отличие распределения остатков от нормального -> min
- норма вектора остатков -> min
- количество параметров модели, не обращающихся в нуль -> min
Это для затравки, без учета модели входного сигнала, которой я скоро присутствующим плешь проем)
vielleicht einfacher - ein Fehler ist ein Verlust, eine korrekte Vorhersage ist ein Gewinn. Wir schätzen Einnahmen/Verluste. D.h. z.B. PF. D.h. das Optimierungskriterium PF->max
Es gibt viele verschiedene Kriterien, die entwickelt werden können. Diese Vielzahl von Kriterien führt jedoch in der Regel nicht zu dem gewünschten Ergebnis, da sie inkonsistent sind.
Hier ist alles wichtig: Die ersten beiden Punkte erfordern eine Annäherung der Residuen an den GSR - das bedeutet, dass das Modell angemessen ist; der dritte Punkt ist an sich klar, der Fehler sollte so klein wie möglich sein; der vierte Punkt - übermäßige Modellkomplikation riecht nach Instabilität und Anpassung und wird höchstwahrscheinlich die Prognosequalität beeinträchtigen. Ich sehe keine Widersprüche, man muss nur die Gewichtung der einzelnen Komponenten richtig wählen.
Meiner Meinung nach ist keines der von Ihnen genannten Kriterien
- Modell Residuen Korrelation Zeit -> min
- Abweichung der Residuenverteilung von der Normalverteilung -> min
- Norm des Residuenvektors -> min
- die Anzahl der nicht gegen Null konvergierenden Modellparameter -> min
ist aus Sicht der Modellanpassung weder notwendig noch nützlich.
Und schon gar nicht Punkt 2, der eine Anpassung an eine Normalverteilung erfordert. Das ist bereits, pardon, Unsinn.
vielleicht einfacher - ein Fehler ist ein Verlust, eine korrekte Vorhersage ist ein Gewinn. Wir schätzen Einnahmen/Verluste. D.h. z.B. PF. D.h. das Optimierungskriterium GF->max
Wir können es so machen, aber wir sollten auch darüber nachdenken, wie wir die Parameter mit einem Algorithmus abstimmen können.
Es gibt 9000 verschiedene Algorithmen, aber rein mathematisch gesehen haben sie alle eines gemeinsam: Um das Optimum zu erreichen, muss man den Gradienten der zu optimierenden Funktion durch angepasste Parameter kennen. Natürlich kann man PF als Kriterium verwenden und sogar alle Ableitungen in Echtzeit berechnen (mit automatischer Differenzierung ist das nicht so schwierig). Es gibt jedoch ein Problem: Der Wert des Profilfaktors ist stark von der Preisreihe selbst abhängig, die bekanntermaßen den Charakter eines verrauschten Prozesses hat. Eine Schwankung von nur einer Kerze um einige Punkte kann zu einem zusätzlichen oder einem fehlenden Geschäft mit unvorhersehbarem Ergebnis führen, was sich dramatisch auf den Gewinnfaktor auswirken würde (vergessen Sie nicht, dass wir die Modellstruktur auf dem kürzest möglichen Zeitintervall optimieren müssen, da wir zunächst davon ausgehen, dass das Modell variable Parameter hat). Das Kriterium ist also sehr ungleichmäßig, und der Optimierungsalgorithmus kann einfach in einem lokalen Optimum stecken bleiben, das - ich wiederhole - durch die bloße Schwankung des Preises bedingt ist.
Die Norm des Fehlervektors (Punkt 3) hat dagegen keinen solchen Nachteil: Eine Änderung des Preises für eine Kerze um 1 Punkt führt zu einer ebenso unbedeutenden Änderung der Straffunktion. Das Gleiche gilt für die Posten 1 und 2, während Posten 4 überhaupt nicht preisabhängig ist.
Kurz gesagt, das Kriterium muss so stabil wie möglich gegenüber den Anfangsbedingungen (in unserem Fall die Optimierungsstichprobe) sein, oder der Algorithmus muss eine Überprüfung der Globalität des gefundenen Optimums haben. Sonst gibt es statt Optimierung nur noch Chaos.
Und schon gar nicht Punkt 2, der eine Anpassung an eine Normalverteilung erfordert. Das ist, mit Verlaub, Unsinn.
Hier widersprechen Sie sich bereits selbst: Wenn der Prozess als Signal+Rauschen dargestellt wird, dann sollte das Residuum im Idealfall genau thermisches Rauschen sein, das genau 0 Information trägt. Im Allgemeinen ist diese Prämisse seit etwa fünfzig Jahren allgemein anerkannt: der Output der SBS (S. 1 und 2) <=> das Modell beschreibt die deterministische Komponente angemessen.
Und was ist mit Punkt 3? Seit wann ist das Fehlerminimum aus Sicht der Anpassung nutzlos?