Diskussion zum Artikel "Die Rolle der Qualität von Zufallszahlengeneratoren für die Effizienz von Optimierungsalgorithmen" - Seite 12

 
Andrey Dik #:
Gibt es kein Element in der Schaltung, das für die Robustheit verantwortlich ist und/oder diese beeinflusst? Welches ist dieses Element?

Es kann viele Möglichkeiten der Verallgemeinerung geben, und es ist wünschenswert, sie alle auszuprobieren, um die effektivste zu ermitteln. Unter diesem Gesichtspunkt wird das Flussdiagramm je nach Ansatz unterschiedlich erweitert werden.

Zum Beispiel kann es ein "Postprocessing" (für das Clustering) nach dem "Result"-Block geben (der in "Results" umbenannt werden sollte, da das Clustering alle Ergebnisse benötigt, nicht nur eines).

Oder ein "Controller" zwischen "Fitnessfunktion" und "Optimierungsalgorithmus", der alle möglichen Funktionen ausführen kann, insbesondere das Hinzufügen von Zufallsrauschen.

Außerdem fehlen in dem Diagramm eindeutig die "Eingangsdaten". Dann könnte man es in IS/OOS aufteilen und die Blöcke parallel anwenden, wobei man sie nach und nach überprüft.

Schließlich gibt es noch den bekannten Ansatz der Walk-Forward-Optimierung (allerdings spezifisch für Zeitreihen, nicht für die Optimierung im Allgemeinen). Für ihn ist das derzeitige Schema nur eine Stufe der Optimierung, die in Wirklichkeit von einem externen Block-"Manager" in mehreren Schritten vorbereitet werden sollte - zum Beispiel mehrere 12-Monats-Optimierungen mit einer Monatsverschiebung. Und dann eröffnet sich eine neue Dimension für die Forschung - bildlich gesprochen sehen wir, wie der FF im Laufe der Zeit "atmet" und lernen, seine nächste Form vorherzusagen (wie? - hier wird eine neue Artikelserie erforderlich sein). Oder umgekehrt - wir sehen, dass er sich so unvorhersehbar verändert, dass entweder der TS oder das Finanzinstrument eindeutig nicht füreinander geeignet sind... oder wir müssen den Vorwärtsschritt auf 1 Woche reduzieren, damit es funktioniert. Hier stellt sich nicht nur die Frage nach der Stabilität, sondern auch nach der Dauer dieser Stabilität.

 
Stanislav Korotky #:

Es gibt viele Möglichkeiten der Verallgemeinerung, und es ist wünschenswert, sie alle auszuprobieren, um die effektivste zu ermitteln. Unter diesem Gesichtspunkt wird das Flussdiagramm je nach Ansatz auf unterschiedliche Weise ausgefüllt.

So kann beispielsweise nach dem Block "Ergebnis" (der in "Ergebnisse" umbenannt werden sollte, da für das Clustering alle Ergebnisse und nicht nur eines benötigt werden) ein Block "Nachbearbeitung" (für das Clustering) folgen.

Oder ein "Controller" zwischen "Fitnessfunktion" und "Optimierungsalgorithmus", der alles Mögliche tun kann, wie z. B. Zufallsrauschen hinzufügen.

Außerdem fehlen im Diagramm eindeutig die "Eingangsdaten". Dann könnte man es in IS/OOS aufteilen und parallel Blöcke darauf anwenden und sie nach und nach überprüfen.

Schließlich gibt es noch den bekannten Ansatz der Walk-Forward-Optimierung (allerdings spezifisch für Zeitreihen, nicht für die Optimierung im Allgemeinen). Für ihn ist das derzeitige Schema nur eine Stufe der Optimierung, die in Wirklichkeit durch einen externen "Manager" für mehrere Blöcke vorbereitet werden sollte - zum Beispiel mehrere 12-Monats-Optimierungen mit einer Monatsverschiebung. Und dann eröffnet sich eine neue Dimension für die Forschung - bildlich gesprochen sehen wir, wie der FF im Laufe der Zeit "atmet" und lernen, seine nächste Form vorherzusagen (wie? - hier wird eine neue Artikelserie erforderlich sein). Oder umgekehrt - wir sehen, dass er sich so unvorhersehbar verändert, dass entweder der TS oder das Finanzinstrument eindeutig nicht zueinander passen... oder wir müssen den Vorwärtsschritt auf 1 Woche reduzieren, damit es funktioniert. Dies ist nicht nur eine Frage der Stabilität, sondern auch der Dauer dieser Stabilität.

Das, was Sie genannt haben, hat seine Berechtigung und sollte in vielen Fällen auch so sein, aber es bezieht sich auf die "symptomatische Behandlung", geht nicht auf die Gründe für die Robustheit oder Nicht-Robustheit der erzielten Ergebnisse ein und ist eine externe Maßnahme (wie eine Diagnose durch regelmäßige Messungen der Temperatur des Patienten - das ist weder schlecht noch gut, es bietet nur möglicherweise keine Möglichkeit, eine objektive Anamnese zu erhalten).

In der Tat ist alles, was die Robustheit der Ergebnisse wirklich beeinflusst, bereits in diesem Schema enthalten.

 
Andrey Dik #:

Das, was Sie genannt haben, hat seine Berechtigung und sollte in vielen Fällen auch so sein, aber es bezieht sich auf die "symptomatische Behandlung", berücksichtigt nicht die Gründe für die Robustheit oder Nicht-Robustheit der erzielten Ergebnisse und ist eine externe Maßnahme (wie die Erstellung einer Diagnose durch regelmäßige Messungen der Temperatur des Patienten - das ist weder schlecht noch gut, bietet aber möglicherweise nicht die Möglichkeit, eine objektive Anamnese zu erstellen).

Alles, was die Robustheit der Ergebnisse wirklich beeinflusst, ist bereits in diesem Schema enthalten.

Dann warten wir auf Erklärungen und Demonstrationen zu Tests.

 
Stanislav Korotky #:

Dann warten wir auf Erläuterungen und Demonstrationen zu den Tests.

Gut. Ich würde gerne die Vision von Saber und Andrei hören, zusätzlich als Teilnehmer der Diskussion über die Robustheit.

Wenn ich eine funktionierende Methode veröffentliche, mit der man robuste Ergebnisse für Systeme mit instationären Prozessen erhält, werde ich sofort einen Nobelpreis und ein Denkmal aus einem massiven Stück Malachit bekommen, was zwar sehr attraktiv, aber kaum realisierbar ist. Aber zumindest ist es bereits gut zu verstehen, was die Robustheit der Ergebnisse beeinflussen kann und was nicht.

[Gelöscht]  
Hart im Nehmen.) unser Motto ist unbesiegbar.
 
Stanislav Korotky #:
Die Frage ist nun, was mit der Menge dieser Mengen mit "Berggipfeln" geschehen soll. Zuvor hatten wir ein globales Maximum als Lösung des Optimierungsalgorithmus, jetzt haben wir, sagen wir, 50 davon. Aber sie reichen nicht an die Lösung des Stabilitätsproblems heran.

Nehmen wir an, dass der TC bei bestimmten Einstellungen ein relativ stabiles Muster einfangen kann. Gleichzeitig liegt das globale Maximum von OnTester nicht innerhalb dieser Einstellungen, und wir wissen nicht, welche FF wir wählen müssen, um den gewünschten Volltreffer zu landen.


Wenn ein bestimmtes Preismuster vom TS reproduziert werden kann, dann entspricht der gesuchte Satz einem lokalen Höchststand des FF. Einige Höchststände entsprechen nicht-systematischen weißen Schwänen, die auf dem Muster lagen. Aus diesem Grund werden niedrigere, aber potenziell stabile Eingabesätze bei klassischen AOs übersehen.


Eine einfache Aussage, die sich in der Praxis leicht überprüfen lässt. Nehmen Sie fast jeden TS mit einer großen Anzahl von sich nicht überschneidenden Positionen. Zum Beispiel 10 solcher Positionen pro Tag. Finden Sie das globale Maximum von InputsMax1 für das gesamte Jahr 2023 und InputsMax2 für den Sommer 2023. Offensichtlich wird im Sommer 2023 keine AO InputsMax1 auch nur annähernd finden. Aber Sie werden feststellen, dass es unter den lokalen Scheitelpunkten für den Sommer 2023 einen gibt, der sehr nahe an InputsMax1 liegt.


Ich komme auf die Frage zurück. Die 50 gefundenen Scheitelpunkte sollten auf OOS ausgeführt werden. Und wenn ein bedingter InputsMax1 unter ihnen gefunden wird, graben wir weiter. Wenn nicht - verwerfen Sie es (ändern Sie das Symbol).

[Gelöscht]  
Der erste Beweis dafür, dass niemand das globale Maximum braucht und dass es auch nicht supergenau ist, es zu finden. Dies ist Schachmatt für jetzt. Schachmatt wird weiter sein, obwohl die Patt-Situation im MO-Thema auftauchte.

Allerdings verwechselt dort der Gegner König mit Dame.
[Gelöscht]  

Es gibt sicherlich nichts im Schaltplan, was die Robustheit beeinflusst.

Es gibt nur Dinge im Schaltplan, die die Passgenauigkeit beeinflussen. Je besser der Schaltplan, desto besser die Passgenauigkeit.

Wenn wir über FF sprechen, hat das keinen Einfluss auf die Robustheit.

 
Ich verstehe nicht, warum Sie von Hügeln und Gipfeln als etwas Statischem sprechen. Der Markt ist nicht statisch!
Es ist doch völlig klar, wenn man z.B. bei der "Optimierung" von zwei Parametern jeden Tag eine neue FF-Fläche erhält und dann die erhaltenen Frames zusammenklebt, kommt so etwas heraus:



Und was ist, wenn man sogar den richtigen Hügel erwischt hat? Es ist ein Hügel der Geschichte, aber nicht der Zukunft. Was soll das bringen?
Ich stimme also mit Dmitrievsky überein. Eine Anpassung an die Geschichte ist immer noch eine Anpassung, auch wenn man sie als Optimierung nach der Macaca-, Kranich- oder Oktopus-Methode bezeichnet.

 

Ein Beispiel zur Veranschaulichung.
Wir nehmen die Strategie von zehn Oberschwingungen, die addiert werden müssen, um eine Extrapolationslinie zu erhalten und eine Entscheidung über die Eröffnung von Geschäften zu treffen.
Jede Oberschwingung besteht aus drei Parametern: Amplitude, Frequenz, Phasenverschiebung. Insgesamt sind 10*3=30 Parameter erforderlich.
Natürlich kann man sie mit der Fast Fourier Transformation in wenigen Millisekunden berechnen, aber wir werden nicht nach einfachen Wegen suchen, sondern die beste Kombination dieser 30 Parameter mit Hilfe von Brute-Force-Optimierung, genetischen Algorithmen und Dicks Artikeln auswählen.
Auf einem guten Supercomputer werden wir hoffentlich die richtige Kombination von 30*10000 = 300000 Kombinationen aller 30 Parameter in ein paar Tagen nach der genetischen Suche erhalten, und so werden wir jede Woche diese Strategie am Wochenende erneut optimieren.
Und hier ist, was wir auf dem Wochenchart erhalten werden:



Wie Sie sehen können, wird uns die rote Extrapolationslinie trotz der Hunderte von Kilowatt Energie, die während der Optimierung verbrannt wurden, beim Handel nicht viel helfen :))) Denn der Markt ändert sich ständig.

Die Moral von der Geschicht': Es ist notwendig, nicht nach Parametern zu suchen, sondern sie während des Handels im TS zu berechnen, um keine unnötige Energie zu verbrauchen. Um es SEHR kurz zu machen

Es gibt immer eine "schnelle Fourier-Transformation" für jeden Parameter.



Dateien:
2Fourier.mq5  16 kb