Diskussion zum Artikel "Die Rolle der Qualität von Zufallszahlengeneratoren für die Effizienz von Optimierungsalgorithmen" - Seite 11

 
Maxim Dmitrievsky #:
Hier beantworten Sie Ihre eigene Frage, wie viele Mindestneustarts ungefähr sein sollten, um verschiedene DSTs zu vergleichen. Das ist genau das, was ich geschrieben habe, und Sie haben es danach abgetan.

Sie zeigen, dass Sie keine Ahnung vom Thema haben, klären Sie zuerst den Unterschied zwischen Läufen und Neustarts. In meinem Beitrag geht es um eine Faustregel für die Wahl der Anzahl der FF-Durchläufe für Optimierungsalgorithmen, d. h. wie viele Durchläufe einer Fitnessfunktion durchgeführt werden sollten, um eine akzeptable Konvergenz der Optimierungsalgorithmen zu gewährleisten. In meinen Tests verwende ich 10000 tausend Durchläufe der Fitnessfunktion, was 10^4 entspricht. In diesem Artikel haben wir den Einfluss der GSC-Qualität auf die Optimierungsergebnisse bei diesen 10000 Durchläufen der Fitnessfunktion als Teil der Optimierungsalgorithmen betrachtet, der Einfluss der GSC-Qualität wurde nicht aufgedeckt, wie es in den Schlussfolgerungen des Artikels heißt.

Und für den Vergleich der DSTs untereinander, ein Test auf die Gleichmäßigkeit der Verteilung der Zufallszahlen, mit einer viel größeren Anzahl von Läufen der DSTs als 10^4.

2024.03.18 20:54:33.459 Standard, 100000000 Würfe, 10000 Felder

D.h., 100000000 = 10^8!

Bitte posten Sie nicht mehr in den Kommentaren zu meinen Artikeln.

[Gelöscht]  
Andrey Dik #:

Sie zeigen, dass Sie keine Ahnung vom Thema haben. Verstehen Sie zunächst den Unterschied zwischen Durchläufen und Neustarts. In meinem Beitrag geht es um eine Faustregel für die Wahl der Anzahl der FF-Durchläufe für Optimierungsalgorithmen, d. h. wie viele Durchläufe einer Fitnessfunktion erforderlich sind, um eine akzeptable Konvergenz von Optimierungsalgorithmen zu gewährleisten. In meinen Tests verwende ich 10000 tausend Durchläufe der Fitnessfunktion, was 10^4 entspricht. In diesem Artikel haben wir den Einfluss der Qualität der HSC auf die Ergebnisse der Optimierung bei diesen 10000 Durchläufen der Fitnessfunktion als Teil der Optimierungsalgorithmen betrachtet, der Einfluss der Qualität der HSC wurde nicht aufgedeckt, wie es in den Schlussfolgerungen des Artikels heißt.

Und für den Vergleich der DSTs untereinander wurde der Test auf Gleichmäßigkeit der Zufallszahlenverteilung mit einer viel größeren Anzahl von DST-Läufen als 10^4 durchgeführt.

2024.03.18 20:54:33.459 Standard, 100000000 Würfe, 10000 Felder

D.h., 100000000 = 10^8!

Bitte nicht mehr in den Kommentaren zu meinen Artikeln posten.

Um den gleichen Optimierungsalgorithmus mit verschiedenen DSTs zu vergleichen, müssen Sie ungefähr die gleiche Anzahl von Neustarts machen, nicht 5. Je mehr, desto besser. Dann wird klar, welche DST besser/schlechter ist/wie sie sich im Durchschnitt auswirkt.
 
Maxim Dmitrievsky #:
Um den gleichen Optimierungsalgorithmus mit verschiedenen DSTs zu vergleichen, müssen Sie etwa die gleiche Anzahl von Neustarts durchführen, nicht 5. Je mehr, desto besser. Dann wird klar, welcher DST besser/schlechter ist/wie er sich im Durchschnitt auswirkt.

5 ist die Anzahl der Tests. Optimierungsalgorithmen führen zu einer Streuung der Ergebnisse, die größer ist als der offensichtliche Unterschied bei der Verwendung verschiedener DSTs.

Zuerst haben Sie in gelöschten Beiträgen behauptet, dass es keinen Effekt von DST geben sollte, und jetzt behaupten Sie, dass es einen Effekt gibt, der sich aber in Tests nicht zeigt? Sie bringen Ihre Aussagen durcheinander.

Ich wiederhole noch einmal: Führen Sie Ihre eigenen Tests durch und widerlegen Sie entweder meine Schlussfolgerungen oder bestätigen Sie sie. Ich habe alle Instrumente für die Tests zur Verfügung gestellt. Verbale Aussagen interessieren hier niemanden, meine Artikel sind für die praktische Anwendung gedacht, nicht für die Theorie im luftleeren Raum.

Bitte schreiben Sie nicht mehr in Kommentaren zu meinen Artikeln.

[Gelöscht]  
Andrey Dik #:

5 ist die Anzahl der Tests. Die Optimierungsalgorithmen führen zu einer Variation der Ergebnisse, die größer ist als der sichtbare Unterschied bei der Anwendung verschiedener DSTs.

Erst haben Sie in gelöschten Beiträgen behauptet, dass es keinen Einfluss von DGS geben sollte, und jetzt behaupten Sie, dass es einen Einfluss gibt, der aber in den Tests nicht sichtbar ist? Sie bringen Ihre Aussagen durcheinander.

Ich wiederhole noch einmal: Führen Sie Ihre eigenen Tests durch und widerlegen Sie entweder meine Schlussfolgerungen oder bestätigen Sie sie. Ich habe alle Instrumente für die Tests zur Verfügung gestellt.

Bitte schreiben Sie nicht mehr in Kommentaren zu meinen Artikeln.

Für den Benutzer gibt es keinen Unterschied, da die Variation bei jedem Durchlauf die Variation bei der Anwendung eines bestimmten DST übersteigt. Niemand wird seine Aufgaben 10^n Mal ausführen. Wenn Sie dennoch die Auswirkungen des gcp vergleichen wollen, müssen Sie eine Million Durchläufe machen, nicht 5.
 
fxsaber #:

Auch eine solche frontale Option würde für mich funktionieren. Aber ich verstehe nicht, wie der Bereich des Stocherns in einem mehrdimensionalen Raum zu definieren?

Haben Sie eine Idee, wie man die Fläche des gefundenen globalen Peaks durch die berechneten Werte (lassen Sie sie 10 000 Stück sein) von FF bestimmen kann? Um -DBL_MAX in diesem Bereich bei der nächsten Iteration von FF zu erzwingen.

Die Algorithmusklasse der Erwartungsmaximierung (im Allgemeinen) und des Gaußschen Mischungsmodells (im Besonderen) ist hierfür ideal. Er wählt alle Hügel als separate Cluster aus, von denen Sie dann jeden einzelnen auf Null setzen können.

Leider ist dies in MQL5 nicht verfügbar, auch nicht in ALGLIB. Im Moment können Sie es aus Python ziehen. Wenn Sie Lust haben, werden die Materialien auf dieser Website auch funktionieren.

 
Stanislav Korotky #:

Die Algorithmen der Klasse der Erwartungsmaximierung (im Allgemeinen) und des Gaußschen Mischungsmodells (im Besonderen) sind hierfür ideal geeignet. Dabei werden alle Hügel als separate Cluster ausgewählt, von denen jeder einzelne auf Null gesetzt werden kann.

Leider ist dies in MQL5 nicht verfügbar, auch nicht in ALGLIB. Im Moment können Sie es aus Python ziehen. Wenn Sie möchten, können Sie auch die Materialien auf dieser Website verwenden.

Sehr interessant, ich habe es in Betracht gezogen.
 
Die Frage ist nun, was mit der Menge dieser Mengen mit "Berggipfeln" geschehen soll. Zuvor hatten wir ein globales Maximum als Lösung des Optimierungsalgorithmus, jetzt haben wir, sagen wir, 50 davon. Aber sie kommen der Lösung des Stabilitätsproblems nicht nahe.
 
Stanislav Korotky #:
Die Frage ist nun, was mit der Menge dieser Mengen mit "Berggipfeln" geschehen soll. Zuvor hatten wir ein globales Maximum als Lösung des Optimierungsalgorithmus, jetzt haben wir, sagen wir, 50 davon. Aber sie reichen nicht an die Lösung des Stabilitätsproblems heran.

Nun, wir wissen nicht, warum Saber nach Spitzenwerten sucht (vielleicht wird er es uns sagen), in seiner Problemstellung ist dies vielleicht der Weg, um stabile Lösungen zu finden.

Welches Element in dem Diagramm, das ich vorhin gezeigt habe, beeinflusst Ihrer Meinung nach die Suche nach einer robusten Lösung (robustes Ergebnis)?


 
Andrey Dik #:

Welches Element des Diagramms, das ich vorhin gezeigt habe, beeinflusst Ihrer Meinung nach die Suche nach einer robusten Lösung (robustes Ergebnis)?

Meiner Ansicht nach gibt es keines.

 
Stanislav Korotky #:

So wie ich das sehe, gibt es hier keine.

Es gibt kein Element in der Schaltung, das für die Robustheit verantwortlich ist und/oder diese beeinflusst? Was ist dieses Element?