Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 595
Sie verpassen Handelsmöglichkeiten:
- Freie Handelsapplikationen
- Über 8.000 Signale zum Kopieren
- Wirtschaftsnachrichten für die Lage an den Finanzmärkte
Registrierung
Einloggen
Sie stimmen der Website-Richtlinie und den Nutzungsbedingungen zu.
Wenn Sie kein Benutzerkonto haben, registrieren Sie sich
Wenn Sie ein Gebäude namens "Statistik" betreten, steht über dem Eingang"Müll rein, Müll raus".
Jeder Indikator ist eine Funktion des Preises. Neuronale Netze haben keine Nachsicht. Es ist in der Lage, jede Indikatorformel selbst abzuleiten, wenn das Netz tief genug ist. Wenn das Netz nicht auf der Grundlage von Preisdaten lernen kann, liegt das nicht an den Inputs, sondern daran, dass es nicht möglich ist, Output-Daten zum Preis zu erhalten.
Jeder Indikator ist eine Funktion des Preises. Neuronale Netze haben keine Nachsicht. Es ist in der Lage, jede Indikatorformel selbst abzuleiten, wenn das Netz tief genug ist. Wenn das Netz nicht aus Preisdaten lernen kann, dann geht es nicht um Inputs, sondern um die Tatsache, dass man im Prinzip keine Output-Daten aus dem Preis gewinnen kann.
Sie und SanSanych haben beide Recht.
Einerseits wird der NS automatisch die notwendigen Indikatoren und deren Gesamtheit erstellen. Sind die Daten hingegen unbearbeitet und zu stark verrauscht, kann kein NS etwas lernen. Es geht also auch um den Input.
Wie wichtig ist es, die Probe beim Training des NS zu mischen, und wie lässt sich dies mathematisch begründen?
Ist das Mischen für alle MOE-Modelle relevant oder nur für einige bestimmte?
Wie wichtig ist es, die Probe beim Training des NS zu mischen, und wie lässt sich dies mathematisch begründen?
Ist die Vermischung für alle MoD-Modelle relevant oder nur für bestimmte Modelle?
Damit der Lernalgorithmus nicht bei jedem Zyklus denselben Weg einschlägt, ist es notwendig, dass er sich gegenseitig ergänzt. Es kann sein, dass wir auf das lokale Extremum treffen und es nicht schaffen, es zu überwinden.
d.h. müssen Sie ein paar Mal mischen und trainieren und sehen, wie die Ergebnisse korrelieren?
D.h. ein paar Mal mischen, ein paar Mal trainieren und sehen, wie die Ergebnisse korrelieren?
Rühren Sie alle paar Epochen des Trainings um. Leider erlauben viele Lernalgorithmen keine Pausen (siehe Python - einige Pakete (Module)) und beginnen jedes Mal von vorne.
Das Rühren lässt sich auch gut mit dem Glühen kombinieren. Aber auch hier ist es schwierig, dies an der Maschine zu tun. Man muss sich immer die Zwischenergebnisse ansehen und dann weitere Schritte planen.
Der Shuffle muss alle paar Epochen des Trainings durchgeführt werden. Leider erlauben viele Lernalgorithmen keine Pausen (siehe Python - einige Pakete (Module)) und beginnen jedes Mal von vorne.
Das Rühren lässt sich auch gut mit dem Glühen kombinieren. Aber auch hier ist es schwierig, dies an der Maschine zu tun. Sie müssen immer die Zwischenergebnisse beobachten und dann Ihre nächsten Schritte planen.
wow... das war's... d.h. es macht keinen Sinn, es vor dem Training zu mischen
Und jetzt haben Sie es) Rattlesnake ist CatBoost.
---------
Wenn Sie mal Lust haben, ein Boson zu fangen...
https://www.kaggle.com/c/higgs-boson
Darch mischt standardmäßig vor jeder Epoche. Ich habe versucht, ihn auszuschalten - er hat überhaupt nichts gelernt.
Ich habe mich also gefragt, wie kann ich, wenn alles neu gemischt wird, dafür sorgen, dass neue Daten einen stärkeren Effekt auf das Lernen haben?
Darch mischt standardmäßig vor jeder Epoche. Ich habe versucht, ihn auszuschalten - er hat überhaupt nichts gelernt.
Ich habe mich also gefragt, wie kann ich, wenn alles neu gemischt wird, dafür sorgen, dass neue Daten einen stärkeren Effekt auf das Lernen haben?