Diskussion zum Artikel "Die Rolle der Qualität von Zufallszahlengeneratoren für die Effizienz von Optimierungsalgorithmen" - Seite 5
Sie verpassen Handelsmöglichkeiten:
- Freie Handelsapplikationen
- Über 8.000 Signale zum Kopieren
- Wirtschaftsnachrichten für die Lage an den Finanzmärkte
Registrierung
Einloggen
Sie stimmen der Website-Richtlinie und den Nutzungsbedingungen zu.
Wenn Sie kein Benutzerkonto haben, registrieren Sie sich
Es gibt zwei Ansätze, um das Problem der Bewertung der Stabilität einer bei der Optimierung gefundenen Lösung zu lösen: einen theoretischen und einen praktischen.
Der theoretische Ansatz beinhaltet das Eintauchen in die mathematischen Berechnungen der Artikel, die in der Regel die Worte Stabilität und Optimierung in ihrem Titel tragen.
Der praktische Teil kann auf unterschiedliche Weise umgesetzt werden, aber er läuft auf die Forschungsarbeit der Autoren der Artikel aus dem ersten Punkt hinaus. Zum Beispiel auf Kosten redundanter N FF-Aufrufe in der Nähe jedes bereisten Punktes, um lokale Ableitungen zu schätzen und in Abhängigkeit von ihnen die Leistung durch einige Strafkriterien anzupassen. Oder man könnte die Koordinaten und/oder FF-Werte während des Optimierungsprozesses verrauschen - dies ist der billigste Weg (an der Basis der Optimierungsalgorithmen selbst muss nichts geändert werden). Es gibt auch eine Idee, die Optimierungsergebnisse zu clustern und die Punkte mit dem Maximum der bedingten Formel (Index-FF)/(Streuungsindikator-FF)*(minimale Streuung nach Parametern) zu identifizieren. Der Punkt, auf den ein einziges gutes Ergebnis fällt, hat eine Streuung von Null und sollte als unbefriedigend behandelt werden.
Ihr Beitrag greift ein wenig zu weit vor. Das ist nicht schlimm, aber es hilft nicht bei der Beantwortung einiger der Fragen, die hier in der Diskussion aufgetaucht sind.
Saber hat bereits seine Antwort auf meine Frage gegeben, bitte antworten Sie mehr von Ihnen Stanislav und lassen Sie uns auf die Antwort von Andrei warten. Ich möchte Sie an die Frage erinnern:
Stellen wir uns vor, dass wir die Möglichkeit haben, eine vollständige Aufzählung der Systemparameter durchzuführen. Wir machen einen Lauf über die Geschichte des Systems mit allen prinzipiell möglichen Parametern. Beantworten Sie nun bitte die Frage: "Gibt es eine Möglichkeit, aus allen möglichen Parametern einen Satz (oder mehrere) auszuwählen, den Sie für den Betrieb des Systems mit neuen Daten verwenden können?
Dann werden wir in der Lage sein, die problematischen Stellen in diesen Fragen vollständig aufzudecken.
Bitte beachten Sie: In dieser Formulierung der Frage ist keine Rede von Optimierungsalgorithmen.
Saber hat bereits auf meine Frage geantwortet, bitte antworten Sie Stanislav und lassen Sie uns auf die Antwort von Andrei warten. Ich möchte Sie an die Frage erinnern:
IMHO habe ich diese Frage gerade beantwortet - 3 Optionen auf einen Blick (jemandem fallen noch mehr ein): Ableitungen zählen (*/**), Clustering (**), Rauschen (*) - (ein Sternchen - während des Optimierungsprozesses, zwei Sternchen - bei den Ergebnissen der Optimierung). Beide Optionen führen zu einer Anpassung der FF-Punktzahlen. Als nächstes wählen Sie wie gewohnt die beste Menge aus, aber nicht mehr nur die maximale FF, sondern mit Stabilitätskorrektur.
Aber lassen Sie uns hier beginnen. Nehmen wir also wieder an, dass wir Zugang zu einer vollständigen Suche der Systemparameter haben. Wir machen einen Lauf über die Geschichte des Systems mit prinzipiell allen möglichen Parametern. Beantworten Sie nun bitte die Frage: "Haben Sie eine Möglichkeit, aus allen möglichen Parametern einen Satz (oder mehrere) auszuwählen, den Sie verwenden möchten, um das System auf neuen Daten laufen zu lassen? Diese Frage richtet sich nicht nur an Sie, sondern an alle, die bereit sind, diese Frage zu beantworten. Wie wir sehen, geht es hier nicht um einen Optimierungsalgorithmus, sondern nur um die Auswahl einer Reihe von Parametern, um das System auf unbekannten Daten laufen zu lassen.
Nehmen wir an, es handelt sich um die Spitze eines der Hügel. Aber ich habe sofort klargestellt, dass die Definition von "bestness" eine andere interessante Frage ist.
Das Endergebnis sollte die Ergebnisse der Durchgänge innerhalb eines bestimmten Radius berücksichtigen.
Auf einer 3D-Karte wäre dies die Spitze eines Hügels, der höher ist als die anderen, oder etwas niedriger, aber mit sanfterem Gefälle.
Aus der Sicht der TK ist es das aggregierte Ergebnis der TK in einem bestimmten Wertebereich der einzelnen Parameter.
IMHO habe ich diese Frage soeben beantwortet - ich schätze, es gibt 3 Optionen (jemandem fallen sicher noch mehr ein): Ableitungen zählen (*/**), Clustering (**), Rauschen (*) - (ein Sternchen - während des Optimierungsprozesses, zwei Sternchen - bei den Ergebnissen der Optimierung). Beide Optionen führen zu Anpassungen der FF-Punktzahlen. Als nächstes wählen Sie wie gewohnt die beste Menge aus, allerdings nicht mehr nur die maximale FF, sondern mit Stabilitätskorrektur.
Die erste Zeile in Ihrem Beitrag:
Ich sehe 2 Ansätze, um das Problem der Bewertung der Stabilität der bei der Optimierung gefundenen Lösung zu lösen: theoretisch und praktisch.
Bisher haben wir keine Optimierung durchgeführt, sondern eine vollständige Aufzählung der Parameter.
Es könnte die Spitze eines der Hügel sein. Aber ich habe sofort gesagt: "Die Definition von "besser" ist eine interessante Frage für sich".
Das Endergebnis sollte die Ergebnisse der Pässe innerhalb eines bestimmten Radius berücksichtigen.
In einem 3D-Diagramm wäre dies die Spitze eines Hügels, der höher ist als die anderen oder etwas niedriger, aber mit sanfteren Steigungen.
Aus der Sicht von TC ist es das aggregierte Ergebnis der TC-Operation in einem bestimmten Wertebereich der einzelnen Parameter.
Die Aufgabe besteht darin, diese Region ohne eine vollständige Suche zu finden.
Gibt es also eine Möglichkeit, aus allen möglichen Parametern in den Ergebnissen einer vollständigen Suche die Menge auszuwählen, die wir für unbekannte Daten verwenden wollen? Wir haben eine vollständige Suche durchgeführt, hier gibt es keine Optimierung.
Jetzt ist es sehr wichtig, diese Frage zu beantworten.
Das Problem besteht darin, diese Region ohne eine vollständige Suche zu finden.
Ich bin sicher, dass ein solches Problem oft gestellt wird und daher mehrere Lösungen veröffentlicht wurden.
Übrigens, wenn es bereits berechnete FF-Werte in Billionen von Punkten gibt (vollständige Suche), dann ist die Suche nach mehrdimensionalen Hügeln unter ihnen ein Optimierungsproblem.
Es geht also in jedem Fall um Optimierung.
Ich habe einen iterativen Ansatz vorgeschlagen, bei dem vor jeder Iteration die Flächen des gefundenen Scheitelpunkts (bei der vorherigen Iteration) als ein weiterer GA-Lauf ausgestochen werden.
Die erste Zeile in Ihrem Beitrag:
Wir haben noch keine Optimierung vorgenommen, sondern eine vollständige Aufzählung der Parameter.
Ist das eine Art terminologisches Spiel? Ich habe 3 Möglichkeiten vorgeschlagen, um die beste Menge auszuwählen - sie eignen sich auch für den Fall eines vollständigen Durchlaufs der Geschichte in allen möglichen Kombinationen.
Zum Beispiel ein so bekanntes Problem: Es gibt ein NS (sagen wir, den Handel auf Preissteigerungen), und die Optimierung wird verwendet, um die Gewichte dieses Netzes zu finden. Wenn wir Ihre Algorithmen frontal anwenden, erhalten wir ein übertrainiertes NS, das nicht in der Lage ist, mit neuen Daten zu arbeiten. Daher ist es von entscheidender Bedeutung, den ursprünglichen Datensatz in zwei Hälften zu teilen und während der Optimierung der einen Hälfte die Qualität der zweiten Hälfte zu kontrollieren.