Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 3029
Sie verpassen Handelsmöglichkeiten:
- Freie Handelsapplikationen
- Über 8.000 Signale zum Kopieren
- Wirtschaftsnachrichten für die Lage an den Finanzmärkte
Registrierung
Einloggen
Sie stimmen der Website-Richtlinie und den Nutzungsbedingungen zu.
Wenn Sie kein Benutzerkonto haben, registrieren Sie sich
In dem Kontext, auf den ich mich beziehe, ist dies eine stückweise Auswertung eines Datenbereichs, um ein Stück (Quantensegment) zu identifizieren, dessen Wahrscheinlichkeit, zu einer der Klassen zu gehören, um x Prozent größer ist als der Durchschnitt über den gesamten Bereich.
Was ist Quantisierung?)
Vor einiger Zeit gab es einen Code von catbust.
In dem von mir erwähnten Zusammenhang handelt es sich um eine stückweise Auswertung eines Datenbereichs, um ein Stück (Quantensegment) zu identifizieren, dessen Wahrscheinlichkeit, zu einer der Klassen zu gehören, um x Prozent höher ist als der Durchschnitt über den gesamten Bereich.
Vor einiger Zeit gab es einen Code von catbusta.
Schauen Sie sich den Code an und Sie werden sehen, was da los ist.
Vor einiger Zeit gab es einen Code von catbusta.
Er ist kompliziert. Sortieren Sie die Spalte und teilen Sie sie in 32 Teile, zum Beispiel, wenn es Duplikate gibt, dann werden alle in das Quantum geworfen. Wenn die Spalte nur 0 und 1 hat, dann gibt es 2 Quanten, nicht 32 (weil Duplikate).Wie läuft es mit dem Aufschwung und der Gewinnmaximierung?
Kein Glück so weit, vor allem für bousting) Es braucht Glätte, so dass es Gradient und hessischen. Der Gewinn wird nicht so sein, also muss man sich überlegen, wie man ihn glättet.
Die lokale Variante des Einzelbaums, über die ich hier kürzlich geschrieben habe, reicht mir im Moment.
In dem von mir erwähnten Zusammenhang: eine stückweise Auswertung eines Datenbereichs, um ein Stück (Quantensegment) zu identifizieren, dessen Wahrscheinlichkeit, zu einer der Klassen zu gehören, um x Prozent größer ist als der Durchschnitt über den gesamten Bereich.
Im Wesentlichen stellt sich heraus, dass für jeden Prädiktor ein eigener Baum erstellt wird.
Kein Weg so weit, vor allem für bousting) Sie brauchen Glätte gibt, so dass Sie Gradient und hessischen brauchen. Der Gewinn wird nicht so sein, also müssen wir überlegen, wie wir ihn glätten können.
Die lokale Variante des Einzelbaums, über die ich hier kürzlich geschrieben habe, reicht mir im Moment aus.
Haben Sie sich das Video angesehen, das ich Ihnen verlinkt habe?
Der Mann dort hat gerade darüber gesprochen, wie man einen nicht glatten Baum per RL in einen glatten umwandeln kann.
Eine Volksweisheit besagt, dass man den Wald vor lauter Bäumen nicht sehen kann. Ich frage mich, ob man einen Baum sehen kann, wenn man Blätter pflückt. Ich frage nicht nach dem Wald.
Ist dies der einzige Algorithmus, den Sie kennen? Oder ist es der effizienteste? Warum sind Sie auf ihn fixiert?
Das ist nur ein flüchtiger Gedanke.
Viel Glück!
Die Frage ist durchaus relevant. Für mich lautet die Antwort ungefähr so: Wenn die Prädiktoren homogen sind (z. B. Pixel eines Bildes oder die letzten N Kerzen), dann kann die Form der Klassen beliebig sein, so dass die Regeln nicht sehr geeignet sind. Wenn die Prädiktoren heterogen sind (z. B. Preis und Zeit), dann haben die Klassen eher eine rechteckige Form, die durch die Regeln vorgegeben ist.
Natürlich gibt es dafür keine eindeutige Begründung, sondern nur eine Hypothese.
Haben Sie das Video gesehen, das ich verlinkt habe?
Dort sprach der Mann gerade darüber, wie man nicht-glatte in glatte über RL konvertieren
Das ist eine andere Mathematik, glaube ich. Ich kann es nicht gut erklären, weil ich es selbst nicht ganz verstehe. Beim Bousting ist es der Gradient nach Funktion, aber im Video ist es der übliche Gradient nach Netzgewichten.
Datenbereich oder Wertebereich des Datenblattes?
Der Wertebereich des Prädiktors, der die Daten beschreibt.
Ich habe den Algorithmushier praktisch beschrieben - es gibt ein Bild mit RSI.