Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 2749

 
elibrarius #:

Auch dieArtikel von Vladimir weisen einen Fehler von etwa 10-20 % auf, aber die Bilanz ist nicht ermutigend.

dies kann auch von der Interpretation "a-post" der Ausbildung abhängen....

 
Maxim Dmitrievsky #:

im vorherigen Beitrag hinzugefügt

#299

jemand hat meine Beiträge gelöscht, in denen ich das Video gepostet habe... ich weiß nicht, wie das passieren kann.

 
mytarmailS #:

jemand hat meine Beiträge gelöscht, in denen ich das Video gepostet habe... ich weiß nicht, wie das passieren kann.

Na, na, na, du gibst ja ganz schön an, denke ich.

Hier ist eines über Holzmodellbau.

#4469

#4467

Wegen der Suche nach Catbusters? 😄 wer hat den Thread gestartet

Машинное обучение в трейдинге: теория, модели, практика и алготорговля - Продолжаю переобучать каждую неделю
Машинное обучение в трейдинге: теория, модели, практика и алготорговля - Продолжаю переобучать каждую неделю
  • 2017.07.12
  • www.mql5.com
Самое интересное что я не понимаю почему он открывает сделки туда или обратно. экспериментирую с предикторами и разными способами открытия поз. тем более что оно копирует механизм работы настоящих нейронов очень примитивно и не так как на самом деле это происходит в мозгу Единственное из НС что нормально работает и перспективно это сверточные нс для распознавания всяких образов
 
Maxim Dmitrievsky #:

Na, na, na, du gibst wohl ganz schön an.

Hier ist die Holzmodellierung

#4469

#4467

Über die Katzenbustersuche? 😄 wer hat den Thread gestartet

Schau, Holz ist überhaupt kein Argument... 95 Prozent der MoD-Tutorials beginnen mit Holz, es ist das erste, was ein Anfänger kennenlernt, du bist nicht dafür zuständig.

 
mytarmailS #:

Sehen Sie, Holz ist überhaupt kein Argument... 95% der MoD-Tutorials beginnen mit Holz, das ist, was ein Anfänger zuerst lernt, es ist nicht deine Schuld.

Es war meist NS hier vorher, ich habe mich gefragt, warum nicht Bäume. Ich habe Tests gemacht, und es stellte sich heraus, dass sie nicht schlechter sind. Ich habe solche Informationen hier noch nicht gesehen, sonst hätte ich diese Frage nicht gestellt.

Dann bin ich auf Bousting umgestiegen, habe die katbust-Lib gefunden und angefangen, sie hier zu replizieren

 
Maxim Dmitrievsky #:

Es war meist NSs, die hier vor diskutiert wurden, fragte ich mich, warum nicht Bäume. Ich habe Tests gemacht und es stellte sich heraus, dass sie nicht schlechter sind. Ich habe solche Informationen hier noch nicht gesehen, sonst hätte ich diese Frage nicht gestellt.

und Bäume können übrigens eine würdige Alternative zu Clustern und Fs sein - "2 in einem".

Maxim Dmitrievsky #:

Dann wechselte ich zu bousting, fand die katbust lib und begann, sie hier zu replizieren

zum Algorithmus: es gibt mathematisch eine weitere 2. Ableitung (oder Residuen-Mittelung - statistisch) -- ABER wie hilft es Ihnen persönlich beim Training und in welchen Fällen?... abgesehen von den Standardklischees in der Werbung "catboost wird bessere und genauere Ergebnisse liefern".... da die Punktgenauigkeit nicht immer wichtig ist, kann die generative Fähigkeit des Modells manchmal wichtiger sein.
 
JeeyCi #:

und Bäume können übrigens eine würdige Alternative zu Clustering und fs sein.

zum Algorithmus: mathematisch gesehen gibt es eine weitere 2. Ableitung (oder Residuen-Mittelung - statistisch gesehen) - ABER wie hilft es beim Training und in welchen Fällen?... abgesehen von den Standardklischees in der Werbung "catboost wird bessere und genauere Ergebnisse liefern".... denn nicht überall ist die Punktgenauigkeit wichtig, manchmal kann die generative Fähigkeit des Modells wichtiger sein?

Es gibt auch hölzerne Modelle für kausale Schlussfolgerungen, ich hatte noch keine Zeit, das herauszufinden

Boosting reduziert Bias und Varianz, Forest dagegen nur die Varianz, denke ich. Es geht um bewährte Vorteile, Sie können es googeln. Und die Bibliothek selbst ist entwickelt, es ist bequem, mit ihr zu arbeiten.

Es ist nicht ganz klar, was generative Methoden angeht, vielleicht sind sie manchmal wichtiger. Aber die generativen NS funktionieren nicht gut bei Forex, wenn es um die Erzeugung synthetischer Daten geht.

Forest Based Estimators — econml 0.13.1 documentation
  • econml.azurewebsites.net
Orthogonal Random Forests are a combination of causal forests and double machine learning that allow for controlling for a high-dimensional set of confounders , while at the same time estimating non-parametrically the heterogeneous treatment effect , on a lower dimensional set of variables . Moreover, the estimates are asymptotically normal and...
 
Maxim Dmitrievsky #:

wenn es um die Erzeugung synthetischer Daten geht.

nein - es geht um Verallgemeinerung... ja, falsch, drücken Sie es aus.... Entschuldigung.

Ich denke, es geht um die Unterscheidung zwischen Risiko-On/Risiko-Off-Umgebung - ich denke noch darüber nach, wie man diese Unterteilung verallgemeinern kann... alles in meinen eigenen Gedanken (zufällig im Forum)...

Vielen Dank für die Antwort!

 
JeeyCi #:

nein - es geht um Verallgemeinerung..... ja, falsch, ausdrücklich.... Entschuldigung

Ich denke, es geht um die Unterscheidung zwischen Risiko-On/Risiko-Off-Umgebung - ich denke noch darüber nach, wie man diese Unterteilung verallgemeinern kann... alles in meinen eigenen Gedanken (zufällig im Forum)...

Danke für die Antwort!

Probieren Sie es aus, catbusta hat eine Reihe von verschiedenen Funktionen, ich mag es.

Es gibt einen frühzeitigen Stopp aufgrund von Fehlern in der Validierungsstichprobe, vor dem Training. Die Verallgemeinerung ist nicht schlechter als bei NS, die zusätzlich ihre eigenen Funktionen schreiben müssen, um das Lernen zu stoppen.

und es lernt schnell, man muss nicht stundenlang warten.

 
Kann ein Random Forest das Maximum in einer Datenkette finden, d.h. die Funktion mach() simulieren?

Ich frage mich nur, ob der MO primitive Funktionen aus dem JA simulieren kann

es gibt eine Matrix, jede Zeile der Matrix ist ein Trainingsbeispiel.

head(X)
     [,1] [,2] [,3] [,4] [,5]
[1,]    2    4    1    3    1
[2,]    3    1    4    5    3
[3,]    1    2    4    4    1
[4,]    1    1    5    3    5
[5,]    3    4    1    3    3
[6,]    4    4    5    1    2

Wir müssen das Maximum jeder Zeile finden, die Stichprobengröße beträgt 20k Zeilen.


Lösung des Problems durch Regression

 pred actual
1  4.967619      5
2  4.996474      5
3  4.127626      4
4  4.887233      5
5  5.000000      5
6  4.881568      5
7  4.028334      4
8  4.992406      5
9  3.974674      4
10 4.899804      5
11 4.992406      5

zur Verdeutlichung gerundet

 pred actual
1     5      5
2     5      5
3     4      4
4     5      5
5     5      5
6     5      5
7     4      4
8     5      5
9     4      4
10    5      5
11    5      5

ziemlich gut, nur ein paar Fehler beim Test von 50 neuen Zeilen


Aber die Daten in Matrix X sind sehr einfach, nur 5 eindeutige Werte von 1 bis 5 und nur 5 Spalten, aber schon Fehler.

Obwohl ich denke, wenn wir die Klassifizierung machen, gäbe es keine Fehler, durch die Art und Weise können Sie es überprüfen.

Ja, das stimmt, aber wenn wir nach dem Maximum in den Daten suchen, ist die Klassifizierung nicht geeignet, da die Streuung der Werte riesig sein kann ....

Kehren wir also zur Regression zurück und verkomplizieren die Daten.

head(X)
      [,1]  [,2]  [,3]  [,4]  [,5]
[1,]  0.93 -2.37 -0.35  0.16 -0.11
[2,] -0.53  0.19 -0.42  1.35 -0.16
[3,]  1.81  0.19 -0.68  0.31 -0.05
[4,]  0.08 -1.43  0.15 -0.96  0.43
[5,]  0.40  1.36  1.17 -0.99 -0.18
[6,] -2.19 -0.65  0.42 -1.12  1.46

erhalten wir dieses Ergebnis.

  pred actual
1   1.75   1.78
2   1.33   1.31
3   1.67   1.69
4   1.15   1.16
5   0.51   0.41
6   1.00   0.99
7   0.80   0.78
8   1.75   1.76
9   0.35   0.36
10  1.78   1.79
11  2.02   2.13
12  1.26   1.21
13  1.60   1.57
14  0.19   0.06

Im Prinzip ist es nicht schlecht, aber die übliche Funktion mach() wird es besser machen und kann dieses ganze Modell ersetzen....

Übrigens frage ich mich, wie andere Modelle funktionieren werden, ob sie in der Lage sein werden, die mach()-Funktion ohne Fehler zu erstellen

Grund der Beschwerde: