Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 450

 
Hat Reshetov sich Gott vorgestellt?
Ich habe nicht...
Kürzlich schrieb ich etwas wie.... Winter...
 
Alexander Iwanow:
Hat Reshetov sich Gott vorgestellt?
Ich habe nicht...
Kürzlich schrieb ich etwas wie.... Im Winter...

Deshalb wollte ich wissen, was mit ihm passiert ist.

 
Das Ende der Welt steht bevor. Und Gott nimmt sich selbst weg....
Und der Antichrist wird erscheinen.....
 
Das Ergebnis:

Hmmm... benutzen Sie die Software des verstorbenen Yury Reshetov? XGB schleift dieses Set in einer Minute auf 65-67 % Genauigkeit. Wenn ML länger als eine Stunde läuft, gehe ich davon aus, dass etwas nicht stimmt, daher habe ich schon lange ein Faible für neuronale Netze.

Nein, es ist nicht das neuronale Netz von Jura. Aber ich trainiere das Modell nicht nur einmal, sondern ich probiere verschiedene Kombinationen von Prädiktoren und verschiedene Modellparameter aus. Die Ausgabe sollte statistische Daten über die Bedeutung der einzelnen Prädiktoren und Modellparameter enthalten, damit alles ohne Anpassung trainiert werden kann.

 

Ich habe es soweit, die Auswahl der Modellparameter und Prädiktorengewichte ist noch lange nicht vollständig, es sollte in Zukunft viel besser werden.

Ich habe 10% der train.csv (zufällig) für das Training genommen, ansonsten ist es ein ziemlich langer Prozess.
Die Gewichte der Prädiktoren sind.
0
0
3467.50163547078
0
0
184258.95892851
22315.6831463224
0.144079977475357
0
0
0.000324672622477092
39775.9969139879
6053.73861534689
0
0

Was Null ist und nahe dran ist, ist Unsinn und nutzlos, je höher das Gewicht, desto größer der Einfluss des Prädiktors auf das Ergebnis.

logloss on training (10% der Zeilen aus train.csv) - 0,6895723, Genauigkeit 0,6402786

Der Logloss für den Test (die gesamte test.csv) beträgt 0,6928974, die Genauigkeit 0,6239073.
Ich muss die Anzahl der Trainingsbeispiele erhöhen. 10 %, die ich genommen habe, sind sehr wenig, so dass der Logloss im Test merklich gesunken ist. Für numerai muss ich zum Beispiel mindestens 50 % der Trainingsbeispiele nehmen, sonst sind die Ergebnisse auf den neuen Daten überhaupt nichts.


Ich muss mindestens 50% der Trainingsbeispiele nehmen, sonst sind die Ergebnisse auf den neuen Daten überhaupt nicht gut:

XGB schleift dieses Set in einer Minute auf 65-67 % Genauigkeit.

Respekt XGB, in fähigen Händen eine starke Sache. Innerhalb von 4 Stunden ging es mir schlechter.


Um welche Art von Daten handelt es sich? Devisen, Börse, bezahlte Abonnements? Würden 62 % realistischerweise einen Gewinn abwerfen, wenn ich mir eine ähnliche Gruppe von Prädiktoren zulegen würde?

 
Dr. Trader:

Um welche Art von Daten handelt es sich überhaupt? Devisen, Börse, bezahlte Abonnements? Würden 62 % realistischerweise einen Gewinn abwerfen, wenn ich für mich selbst einen ähnlichen Satz von Prädiktoren sammeln würde?


Ich denke, diese Frage sollte zu Beginn gestellt werden)), ohne die Datenquelle zu kennen, ist sie sehr allgemein :)

Es ist, als ob man mit einem Mädchen spazieren geht, sich durch Bekanntschaften kennenlernt, und dann erst gegen Ende des Abends - hör mal, wie heißt du denn :) und sie sagt, du hast eine gute Reaktion im Leben, du wirst es weit bringen

 
Alexander Iwanow:
Hat Reshetov sich Gott vorgestellt?
Das wusste ich nicht...
Kürzlich schrieb ich etwas wie.... Im Winter...

Ich war schockiert.

Möge er in Frieden ruhen.

 
Wladimir Gribatschow:

Ich war schockiert.

Möge er in Frieden ruhen.

Möge Gott seiner Seele gnädig sein.
 
Alexander Iwanow:
Gott sei seiner Seele gnädig.
Aber seine Sache wird weiterleben, ich habe sein Werk gelesen, ein sehr interessanter Mann mit unkonventionellem Denken. Ich war sogar überrascht, dass, bevor ich das Thema erneut ansprach, niemand außer Mikhail viel darüber gesprochen hatte.
 
Dr. Trader:

Für das Training wurden 10%der train.csv genommen .

Training logloss (10% der Zeilen aus train.csv) - 0,6895723, Genauigkeit 0,6402786

Der Logloss für den Test (die gesamte test.csv) beträgt 0,6928974, die Genauigkeit 0,6239073.

Ich muss die Anzahl der Trainingsbeispiele erhöhen. 10 %, die ich genommen habe, sind sehr wenig, so dass der Logloss im Test merklich gesunken ist.

Habe nicht versucht, 10% zu nehmen, aber ich denke 62% ist gut, ich hatte etwa 66% im Test, Wizard sagte, er hatte 67%, natürlich bei 100% der Proben lerna in der Ausbildung.

Für numerai muss ich zum Beispiel mindestens 50 % der Trainingsstichproben nehmen, sonst sind die Ergebnisse auf neuen Daten nichts.

Um ehrlich mit ihnen zu sein, ist alles ziemlich unklar, ich kann nicht verstehen, wie gut das Messgerät ist, sie haben es sehr nebulös gemacht, es ist unklar, warum sie Antworten in das Turnier stellen, durch die sie vorläufige Loglos zählen, es ist nicht klar, warum sie es brauchen, Leute, die auf dem ersten Platz waren, sind plötzlich Müll für 500-th mit Loglos >0,7, es riecht alles nach Zufall ...

Respekt XGB, in den richtigen Händen eine starke Sache. Ich hatte es schon schlimmer in 4 Stunden.

Stark, vor allem, wenn ich es selbst in C++ nachgebaut habe.

Um welche Art von Daten handelt es sich überhaupt? Devisen, Börse, bezahlte Abonnements? Würden 62 % realistischerweise einen Gewinn bringen, wenn ich mir einen ähnlichen Satz von Prädiktoren zulegen würde?

Die Daten sind alle von FORTS mit Quickquick, Metatrader und frei geparst von Webseiten wie http://www.investing.com usw. Sekunden, schien es, auf welche Art von Parametern unterzeichnet werden. Es ist realistisch, aber die Handelsinfrastruktur für moderates HFT (10 sec-1min Positionshaltung) sollte auf Quick oder Plaz erfolgen, von Grund auf ist dies eine Arbeit von einem Mannjahr. Prof. C++/Java/C# Coder (25-50K$ wenn lokal), aber wir sollten bedenken, dass die Aussichten der HFT in der Welt sind immer weniger, vor allem ultra, das heißt, sie sind von sehr eng finanzierten Organisationen monopolisiert und sind nicht für kleine Händler zur Verfügung, sollten wir auf die Vorhersage der nächsten Minute konzentrieren, nicht Sekunde, gibtes ~55% dieser ist der Traum Grenze

Grund der Beschwerde: