Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 493
Sie verpassen Handelsmöglichkeiten:
- Freie Handelsapplikationen
- Über 8.000 Signale zum Kopieren
- Wirtschaftsnachrichten für die Lage an den Finanzmärkte
Registrierung
Einloggen
Sie stimmen der Website-Richtlinie und den Nutzungsbedingungen zu.
Wenn Sie kein Benutzerkonto haben, registrieren Sie sich
wolf-forward wird benötigt, man kann nicht so optimieren, forward wird in diesem Fall immer schlecht (oder zufällig) sein, je nachdem, in welche Phase des Marktes man gerät, ich habe bereits eine Reihe von Versionen solcher Systeme im Backtest, die auf forward wie eine Münze funktionieren), das nennt man overfitting
Ich habe ein Dutzend Optimierungen mit monatlichen Offsets. In jedem Monat unterscheiden sich die besten Eingabeparameter von den Parametern der anderen Monate. Welche von ihnen sollte ich für meine Arbeit wählen?
Gibt es einen Algorithmus für die Auswahl der Systemparameter bei der Vorwärtssteuerung?
Ich habe ein Dutzend Optimierungen mit einem Offset pro Monat erhalten, wobei sich in jedem Monat die besten Eingabeparameter von den Parametern der anderen Monate unterscheiden. Und welche soll man wählen?
Ich habe mich nicht korrekt ausgedrückt, ich meinte "etwas Ähnliches", d.h. ein selbstoptimierendes System mit einem Optimierungskriterium, und derselbe NS kann als Optimierer verwendet werden
Gibt es einen Algorithmus für die Auswahl der Systemparameter bei der Vorwärtssteuerung?
Ich habe ein Dutzend Optimierungen mit einem Versatz von einem Monat, wobei sich die besten Eingabeparameter jeden Monat von den Parametern der anderen Monate unterscheiden. Und für welchen soll man sich entscheiden, um mit ihm zu arbeiten?
Apropos Optimierung und Lernen. Dafür benötige ich 23 Stunden, Zwischenschritte nicht mitgerechnet. Nach jedem Durchlauf (es sind mehrere Epochen) ändere ich die Probe für das Training. Nein, ich mische sie nicht, ich ändere sie, d. h. ich zeige nicht die gleichen Bilder. Im Lernprozess gibt es keine sich wiederholenden Proben.
Und was genau ist der Optimierungsalgorithmus? Suchen Sie nach einem mit dem L-BFGS-Algorithmus, er ist um ein Vielfaches schneller.
und Ihr NS lernt, nun ja, 100 Mal schneller, zum Beispiel nicht 23 Stunden, sondern 10 Minuten (wie alle normalen Menschen) :))), wenn Sie einen einfachen Gradientenabstieg mit einem festen Schritt haben
Hier ist ein Vergleich:
http://docplayer.ru/42578435-Issledovanie-algoritmov-obucheniya-iskusstvennoy-neyronnoy-seti-dlya-zadach-klassifikacii.html
Und was genau ist der Optimierungsalgorithmus? Suchen Sie nach einem mit dem L-BFGS-Algorithmus, er ist um ein Vielfaches schneller.
und Ihr NS lernt, nun ja, 100 Mal schneller, zum Beispiel nicht 23 Stunden, sondern 10 Minuten (wie alle normalen Menschen) :))), wenn Sie einen einfachen Gradientenabstieg mit einem festen Schritt haben
Hier ist ein Vergleich:
http://docplayer.ru/42578435-Issledovanie-algoritmov-obucheniya-iskusstvennoy-neyronnoy-seti-dlya-zadach-klassifikacii.html
Danke, ich werde es lesen.
Es ist eher ein Lernen als ein Optimieren. Nicht einfach. Ich habe bereits geschrieben - Standard-BP mit simulierter Glühung von Hand.
Wahrscheinlich gibt es bessere Algorithmen, aber ich verwende nur das, was in der Entwicklungsumgebung verfügbar ist. Andere, externe, sind problematisch.
Im Allgemeinen ist die Geschwindigkeit nicht entscheidend, wenn ich einmal alle 3 Monate trainiere - 23 Stunden sind sogar ufu. Bei einem 3-Monats-Test wurde jedoch keine Verschlechterung festgestellt. Wahrscheinlich funktioniert es für längere Zeit.
Es ist eher ein Lernen als ein Optimieren. Nicht einfach. Ich habe bereits geschrieben - Standard-BP mit simulierter manueller Glühung.
Vielleicht sind einige Algorithmen besser, aber ich verwende nur das, was in der Entwicklungsumgebung verfügbar ist. Andere, externe, sind problematisch.
was auch immer, Training ist die Optimierung der Zielfunktion
Richtig, sie schrieben über das Glühen, ich bin damit nicht vertraut, ich werde es lesen.
was auch immer, Training ist die Optimierung der Zielfunktion
was auch immer, Training ist die Optimierung der Zielfunktion
Richtig, sie schrieben über das Glühen, ich bin damit nicht vertraut, ich werde es lesen.
Ja, Annealing wird manuell simuliert, indem die Lernparameter nach N Epochen geändert werden. Außerdem wird die Lernsequenz vollständig ersetzt (nicht gemischt, sondern ersetzt).
Das ist cool, wo kann ich mehr über diese Art von NS lesen? d.h. es ist wie ohne Lehrer, aber man gibt trotzdem etwas an den Output weiter?
Ich bin mir nicht sicher, wo man mehr über diese Art von NS lesen kann? d.h. es ist so, als ob man es ohne einen Lehrer bekommt, aber man gibt immer noch etwas an den Ausgang weiter?
Ich kann Haykins Neuronale Netze und Bishops Theorie auf Englisch lesen - es gibt keine Übersetzung, aber sie scheint fertig zu sein.
Das ist ganz einfach. Sie geben zufällige Gewerke ein und geben das Ergebnis aus. Die Monte-Carlo-Methode wird genannt, und sie ist an sich nicht sehr schnell. Und ihre Systematisierung ist eine Frage der systematischen Analyse.