Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 3166

 
СанСаныч Фоменко #:

Du bist einfach nur nervig, Guru! Ich weiß nicht, wie es mir geht, aber Sie schon - schauen Sie in Ihrem Markt!

Haben Sie außer schmerzhafter Wahrnehmung der Welt um Sie herum und heiligem Glauben an Pakete noch etwas übrig, oder ist das Sparschwein erschöpft? )

Jeden Tag lese ich von Paketen, von denen man keine Ahnung hat.

Oder ist es Murmeltiertag?
 
Forester #:

es ist an der Zeit, dieses epische Unterfangen, Muster in zufälligen Daten zu finden, zu beenden.

Ja, genau.

oder es ist an der Zeit, mit der Trägheit aufzuhören und einen nüchternen Blick auf die Ergebnisse zu werfen.

 
Forester #:

Die Ergebnisse des Lernens durch das Korsett sind oft nicht schlecht

Von Jahr 10 bis 21 wurde ein Korsett mit einem Anteil von 30% gefunden (30% der zufälligen Geschichte von dieser Seite nahm am Lernen teil), die anderen Jahre im Allgemeinen reine OOS

Im Terminal sieht es so aus


 

Es gibt viele Methoden zur Bestimmung des Kernsatzes. Hier sind einige der gängigsten Methoden:

  • Zufällige Teilmenge: Wählen Sie einfach eine zufällige Teilmenge von Punkten aus dem Originaldatensatz aus. Dies ist die einfachste Methode, um ein Coreset zu erhalten, aber sie liefert nicht immer die beste Qualität.
  • Referenzpunkte: Auswahl von Punkten aus dem Originaldatensatz, die einen großen Einfluss auf die Vorhersage des Algorithmus für maschinelles Lernen haben. Diese Methode ist effizienter als eine zufällige Teilmenge, kann aber auch komplexer sein.
  • Clustering: Gruppieren Sie die Punkte aus dem Originaldatensatz auf der Grundlage ihrer Ähnlichkeiten. Wählen Sie einen Punkt aus jeder Gruppe als Kernmenge aus. Dies ist eine effiziente Methode, um eine Kerngruppe zu erhalten, die den ursprünglichen Datensatz gut repräsentiert, kann aber komplexer sein.
  • Hämometrischer Kern: Auswahl von Punkten aus dem Quelldatensatz unter Verwendung des hämometrischen Kerns. Dies ist eine leistungsstarke Methode zur Gewinnung eines Coresets, die zur Verbesserung der Qualität von Algorithmen für maschinelles Lernen eingesetzt werden kann.
  • Erweiterte zufällige Teilmenge: Diese Methode wählt zufällige Punkte aus dem ursprünglichen Datensatz aus, wählt aber mit höherer Wahrscheinlichkeit Punkte aus, die einen hohen Einfluss auf die Vorhersage des Algorithmus für maschinelles Lernen haben. Dies ist eine effiziente Methode, um einen Kernsatz zu erhalten, der eine gute Qualität aufweist und für eine Vielzahl von Aufgaben des maschinellen Lernens verwendet werden kann.

Es ist wichtig zu beachten, dass es keine universelle Methode zur Gewinnung eines Coresets gibt, das für alle Aufgaben des maschinellen Lernens geeignet ist. Die Wahl der Methode zur Gewinnung des Coresets hängt von der spezifischen Aufgabe und den verfügbaren Rechenressourcen ab.

*Bard

 
Maxim Dmitrievsky #:

Die Ergebnisse des Lernens durch das Korsett sind oft nicht schlecht

Von Jahr 10 bis 21 wurde ein Korsett mit einem Anteil von 30% gefunden (30% der zufälligen Geschichte von dieser Seite nahm am Lernen teil), die restlichen Jahre in der Regel reine OOS

Im Terminal sieht es so aus


Nun, es gibt auch Perioden mit Drawdowns von sechs Monaten bis zu einem Jahr. Sind Sie dazu bereit? Vor allem, wenn der Drawdown sofort beim Start in real beginnt?

 
Forester #:

Nun, es gibt auch Perioden, in denen es zu Rückgängen von sechs Monaten bis zu einem Jahr kommt. Sind Sie dazu bereit? Vor allem, wenn der Drawdown sofort einsetzt, wenn Sie in real anfangen?

Normalerweise diversifizieren Sie.

Diese Plots sind auch bei anderen Instrumenten rentabel. Und wenn der allgemeine Trend aller Instrumente derselbe ist wie der im Diagramm dargestellte, ist die Stabilität der Investition garantiert.

Sie müssen nur ein Portfolio von Instrumenten erstellen, die den größten Erholungsfaktor schaffen werden
 
Forester #:

Nun, es gibt auch Perioden, in denen es zu Rückgängen von sechs Monaten bis zu einem Jahr kommt. Sind Sie dazu bereit? Vor allem, wenn der Rückschlag sofort einsetzt, wenn Sie in real anfangen?

Ich bin nicht bereit, auf 20 Jahre zu setzen :) dies ist eher eine Fallstudie.

Ich habe kein Problem mit 10 Jahren Ausbildung - 1 Jahr OOS, gut.

aber es gibt eine Menge Rauschen, manchmal wirft das Modell fast alle Stichproben als nutzlos weg, 3 Transaktionen bleiben übrig

Es gibt auch Teile der Geschichte, die nie normal vorhergesagt werden.

Alles in allem ist es keine sehr lohnende Tätigkeit.

Es ist, als würde man den alten Empfänger drehen und versehentlich auf eine Welle mit Rauschen treffen.

 

Wieder einmal bin ich davon überzeugt, dass man für Prognosen ein Modell braucht.

Das Modell entfernt das Unnötige (Rauschen) und lässt das Notwendige (Signal) übrig, wenn möglich verstärkt es das Notwendige (Signal), außerdem ist das Modell deterministischer, mehr Wiederholbarkeit in Mustern....

als Beispiel.

Hoch-Tief-Minutka-Preise.


Weiter bauen wir die einfachste Vereinfachung des Preises (erstellen Sie ein Modell).

dann entfernen wir den Überschuss (verbessern das Modell) mit Hilfe eines einfachen bekannten Algorithmus zur Dimensionalitätsreduktion, das Modell wird wiederholbarer.

und die letzte vielleicht dekorative Note.


Ich frage mich, wie das MO auf solche Daten trainiert wird?

Dies ist ein Testmuster.

Confusion Matrix and Statistics

          Reference
Prediction    -1     1
        -1 24130  2780
        1   4478 23613
                                          
               Accuracy : 0.868           
                 95% CI : (0.8652, 0.8709)
    No Information Rate : 0.5201          
    P-Value [Acc > NIR] : < 2.2e-16       
                                          
                  Kappa : 0.7363          
                                          
 Mcnemar's Test P-Value : < 2.2e-16       
                                          
            Sensitivity : 0.8435          
            Specificity : 0.8947          
         Pos Pred Value : 0.8967          
         Neg Pred Value : 0.8406          
             Prevalence : 0.5201          
         Detection Rate : 0.4387          
   Detection Prevalence : 0.4893          
      Balanced Accuracy : 0.8691          
                                          
       'Positive' Class : -1  

Haben Sie solche Zahlen schon einmal gesehen?




 
СанСаныч Фоменко #:

Wie lautet der genaue Name? Oder ist er selbst gemacht?

Ich benutze seit vielen Jahren verschiedene "hölzerne" Modelle und habe so etwas noch nie gesehen.

Was meinen Sie mit "selbstgemacht"? Es gibt eine theoretische Rechtfertigung, einen guten Artikel. Es gibt ein Paket namens RLTv3.2.6. Es funktioniert gut. Du solltest auf die Version achten.

Über ONNX für Holzmodelle in Python. Siehe Paket skl2onnx.

Unterstützte scikit-learn Modelle. Der letzte unterstützte Satz von Optionen ist 15.

Viel Glück

skl2onnx
  • 2023.05.09
  • pypi.org
Convert scikit-learn models to ONNX
 
Und der wichtigste Selfmademan ist Breiman, weil er nicht in R geschrieben hat. Er ist so ein Schreiberling.
Grund der Beschwerde: