Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 2827
Sie verpassen Handelsmöglichkeiten:
- Freie Handelsapplikationen
- Über 8.000 Signale zum Kopieren
- Wirtschaftsnachrichten für die Lage an den Finanzmärkte
Registrierung
Einloggen
Sie stimmen der Website-Richtlinie und den Nutzungsbedingungen zu.
Wenn Sie kein Benutzerkonto haben, registrieren Sie sich
h ttps:// youtu.be/4yrp71kAZxU
Was ist also so interessant daran?
Wenn Sie Neuronen trainieren, wie sicher sind Sie, dass sie nicht irgendwo in der Nähe stecken bleiben?
In der Neuronik hilft die Aufteilung in Stapel dabei, Folgendes zu vermeiden
Bei anderen Optimierungsalgorithmen ist es ebenfalls sinnvoll, mehrere Stapel auszuführen oder aufzuteilen, z. B.
plus Anpassung des Gradientenschritts und andere Tricks.
Man sollte immer noch die Umgebung des Optimums erkunden, indem man die Hyperparameter ändert, um zu sehen, wie überlebensfähig das System ist.in der Neuronik hilft die Aufteilung in Chargen, um zu vermeiden
Bei anderen Optimierungsalgorithmen ist es ebenfalls sinnvoll, mehrere Lose auszuführen oder aufzuteilen, z. B.
plus Anpassung des Gradientenschritts und andere Tricks.
Trotzdem muss man die Umgebung des Optimums erforschen, indem man die Hyperparameter ändert, um zu sehen, wie überlebensfähig das System ist.Es ist mir peinlich zu fragen, was sind Batches?
Nein, ich meine, wie kann man sicher sein, dass das Neuron nicht irgendwo stecken bleibt? Wird es auf Störfestigkeit getestet?
Es ist mir peinlich zu fragen, was sind Lose?
Nein, ich meine, wie kann man sicher sein, dass das Neuron nicht irgendwo stecken bleibt? Wird es auf seine Resistenz gegen das Steckenbleiben getestet?
Es wird auf neue Daten getestet, zum Beispiel durch frühzeitiges Stoppen.
Wenn der Fehler bei den Trainingsdaten sinkt und bei den neuen Daten zu wachsen beginnt. Solange der Fehler bei den neuen Daten nicht zunimmt, ist er noch nicht steckengeblieben.
Batches sind Datenpakete für das Training: Es ist nicht notwendig, den gesamten Datensatz auf einmal zu trainieren, man kann die Daten in Pakete aufteilen und sie bei jeder Iteration trainieren.
Da die Optima in den einzelnen Paketen unterschiedlich sind, wird der Durchschnitt für alle Pakete etwas weniger als optimal sein.
Es ist ziemlich schwer zu beurteilen, was das Optimum im Prinzip ist. Und wenn die Stichprobe verschoben ist, was ist dann zu tun? Wie findet man dieses globale Optimum in einer verschobenen Teilstichprobe?
Nun, wenn sich die Frage grundsätzlich auf Optimierungsalgorithmen bezieht, haben Sie Recht mit Ihrer Frage. Aber dann fängt man an, Stichproben zu verschieben, was mehr Probleme schafft als diese Frage.
wenn man ein wenig von der Theorie zur Praxis übergeht :)
wird an neuen Daten getestet, z. B. durch frühzeitiges Anhalten.
wenn der Fehler bei den Trainingsdaten sinkt und bei den neuen Daten zu wachsen beginnt. Solange er bei neuen Daten nicht zu wachsen beginnt, bedeutet dies, dass wir noch nicht feststecken
Batches sind Datenpakete für das Training: Es ist nicht notwendig, den gesamten Datensatz auf einmal zu trainieren, man kann die Daten in Pakete unterteilen und sie bei jeder Iteration trainieren.
Da die Optima in den einzelnen Paketen unterschiedlich sind, wird der Durchschnitt für alle Pakete etwas weniger als optimal sein.
Es ist ziemlich schwer zu beurteilen, was das Optimum im Prinzip ist. Und was ist zu tun, wenn die Stichprobe verschoben ist? Wie kann man dieses globale Optimum in einer verschobenen Teilstichprobe finden?
Nun, wenn sich die Frage grundsätzlich auf Optimierungsalgorithmen bezieht, haben Sie Recht mit Ihrer Frage. Aber dann fängt man an, Stichproben zu verschieben, was mehr Probleme als diese Frage aufwirft.
wenn man ein wenig von der Theorie zur Praxis übergeht :)
Ach so, ich habe Ihre erste Antwort richtig verstanden. Es gibt keine Möglichkeit, den Stauwiderstand zu prüfen.
Was du sagst, dass "der Fehler bei den trainierten Daten sinkt und bei den neuen Daten zu wachsen beginnt", ist kein Test für eine Störung, sondern nur ein Kriterium für den Abbruch des Trainings.
Meine Frage bezieht sich auf die Optimierungsalgorithmen, die hier zum Trainieren der Neuronen verwendet werden, und nicht auf die Erhöhung der Stabilität der Neuronen bei neuen Daten, was die zweite Stufe ist. Die erste Stufe wurde hier noch gar nicht diskutiert))))
Ah, dann habe ich Ihre erste Antwort richtig verstanden. Es gibt keine Möglichkeit, den Störungswiderstand zu testen.
Was Sie sagen, dass "der Fehler bei den Trainingseinheiten sinkt und bei den neuen zunimmt", ist kein Test für eine Störung, sondern nur ein Kriterium für das Beenden des Trainings.
Meine Frage bezieht sich auf die Optimierungsalgorithmen, die hier zum Trainieren der Neuronen verwendet werden, und nicht auf die Erhöhung der Stabilität der Neuronen bei neuen Daten, was die zweite Stufe ist. Die erste Stufe wurde hier noch gar nicht diskutiert))))
Nun, irgendwie schon, aber nicht diskutiert. Bei den Neuronen ist der Adam-Optimierungsalgorithmus am beliebtesten. Vielleicht können Sie ihn auch irgendwie testen.
Na bitte, es wird überhaupt nicht diskutiert.
In der Praxis bedeutet dies, dass das Neuron untertrainiert ist, d.h. der Fehler bei neuen Daten beginnt früher zu wachsen, als wenn ein stau-resistenteres AO verwendet würde.