Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 1265

 
Maxim Dmitrievsky:

Ich verstehe also, dass Sie versuchen können, hier etwas zu ändern

Nun, hat sich die Größe der Bäume und des Waldes insgesamt verringert?
Was hat sich an dem Fehler verbessert/geändert? Theoretisch sollte dies nicht der Fall sein, da die Aufteilung bis zum letzten Punkt geht.
 

Lassen Sie es nicht an Max aus.

Er zieht diesen Zweig in der Tat im Alleingang. Ob das gut oder schlecht ist, ist eine andere Frage. Aber dank ihm hat dieser Zweig zumindest noch eine gewisse Bedeutung.

Ohne diesen Zweig gäbe es im Forum gar nichts zu lesen, sondern nur die peinlichen Programmcodes anderer Leute, bei denen "+" und "-" verwechselt werden.

 
elibrarius:
Was hat die Größe der Bäume und des Waldes als Ganzes verringert?
Was hat sich an dem Fehler verbessert/geändert? Eigentlich sollte das nicht der Fall sein, denn die Aufteilung geht bis zum letzten Punkt.

Ich habe es noch nicht getan, nur "nachgeschaut", es ist ja nicht so, dass ich den ganzen Tag herumgestöbert hätte :)

die Rebellen meutern wieder )) Sie fragen mich, warum Sie sich einmischen, wenn Sie so viel Verstand wie Brot haben

 
elibrarius:
Ja! Die Hauptsache ist, dass die "Karawane" kommt).

Es ist einfach zu langsam - deshalb sind die Leute entrüstet.

Es wurde schon eine Milliarde Mal gesagt: Es kommt auf die Eingabedaten an. Der Preis allein reicht aufgrund seiner irreduziblen Nicht-Stationarität nicht aus.

Ich bin schon eine Milliarde Mal gefragt worden: Systematisieren Sie Ihre Recherche.

Mit welcher Art von Daten können Ihre Wälder/Netzwerke Geld verdienen? Gibt es solche Cluster in der realen BP und ihren ersten Unterschieden?

Ich gebe Ihnen noch einmal einen Tipp: Doc hat viel für die Zeckenserie recherchiert, einfach SEHR harte Arbeit. Mit Ausdünnung, ohne Ausdünnung. Untersuchen Sie einfach künstliche Zufallsfolgen usw. Alles in Tabellen und Diagrammen zusammenfassen. Am Ende verschwand er aus dem Forum. Ich glaube, er hat den Gral gefunden. Nach seinen Beiträgen auf meine PM zu urteilen, ist es "fast wahrscheinlich" so.

 
Maxim Dmitrievsky:

Es geht sehr schnell, in weniger als einem Jahr wurde NS untersucht, die neuesten vielversprechenden Ansätze wie RL, eine Reihe von Artikeln wurden geschrieben, um den Ansatz zu skizzieren

den sich am schnellsten entwickelnden Bayes'schen Ansatz im maschinellen Lernen, d.h. Bayes+RL. Und ja, es ist alles auf Englisch.

Alles, was ich tue, ist in der Regel das Coolste, was es im Moment in MO gibt, es ist kompliziert, also lese ich nicht einmal irgendwelches zurückgebliebenes Kindergartenzeug, das schon vor 50 Jahren bekannt war. Seitdem hat das Verteidigungsministerium einen langen Weg zurückgelegt.

Max, ich verstehe das vollkommen, aber trotzdem...

Hier ist noch einmal Docs Beitrag, nach dem sich seine Ergebnisse wirklich zu verbessern begannen:

"Esgibt zwei Experimentdateien im atacha-Archiv. Beide enthalten normalverteilte Werte, die Histogramme sind gleich und nahezu symmetrisch zum Nullpunkt.

Aber diese Dateien haben einen sehr großen Unterschied, nämlich die Markovness.
Eine Datei hat ein Gedächtnis (ein nicht-markovianischer Prozess), Sie können versuchen, auf der Grundlage vergangener Werte vorherzusagen, ob der nächste Wert größer oder kleiner als Null ist. Sie können Neuronik und anderes maschinelles Lernen zur Vorhersage einsetzen.
Die andere Datei hat keinen Speicher (Markov-Prozess), jede Vorhersage wird fehlschlagen. Maschinelles Lernen ist machtlos, aber vielleicht kann Alexander mit Hilfe der Physik etwas vorhersagen.

Wer lernt zu erkennen, welche Datei Speicherplatz hat und welche nicht - gut gemacht, und die Anwendung dieser Methode auf den Devisenmarkt wird schließlich beweisen, dass der Preisbildungsprozess tatsächlich markovianisch ist.

Außerdem ist zu prüfen, ob die Normalverteilung eine hinreichende Bedingung für die Rentabilität des Modells ist. Erstellen Sie ein kumulatives cum()-Random-Walk-Diagramm und versuchen Sie, damit zu handeln."

Es ist nur offensichtlich, dass er zuerst gelernt hat, wie man mit künstlichen Daten mit "Speicher" arbeitet, und dann dummerweise gelernt hat, wie man sie echten GPs zuweist.

Das ist alles.

Dateien:
normdist.zip  808 kb
 
Maxim Dmitrievsky:

Ich habe Beispiele für künstliche Daten mit Speicher gegeben, alles funktioniert gut. Die Nicht-Stationarität des Marktes, all das, die Verteilungen, es ist alles offensichtlich

Darüber hinaus hat mein TS auch für eine recht lange Zeit gearbeitet (mit seinen eigenen Nuancen), ich einfach nicht handeln, weil es nicht interessant ist jetzt. Und nur verbessern, es ist interessant, neue Dinge zu lernen

Sie können den Bot aus dem letzten Artikel herunterladen und so verdienen wie Hindu es tut. Wer verhindert das?

!!!

Verzeihung. Vielleicht habe ich nicht alles genau gelesen... Ich werde es sehen.

 
Alexander_K2:

!!!

Entschuldigen Sie bitte. Vielleicht habe ich das Ganze nicht sorgfältig gelesen... Wir werden sehen.

Ich habe bereits eine Reihe von Tests und Screenshots angehängt, ich weiß nicht, was Sie noch brauchen. Ich habe schon viele Tests und Screenshots gemacht und weiß nicht, was ich noch tun soll.

 

In diesem Thema, ein Gastbeitrag. Ich bin nur vorbeigekommen, um einen Artikel zu teilen

Super Intelligence for The Stock Market – Numerai – Medium
Super Intelligence for The Stock Market – Numerai – Medium
  • 2016.08.30
  • Richard Craib
  • medium.com
Numerai is synthesizing machine intelligence to command the capital of an American hedge fund. Here’s how.
 
Ich habe keine Ahnung, was ich mit ihnen machen soll:

Max, ich verstehe das, aber trotzdem...

Hier noch einmal die Botschaft des Docs, nach der sich seine Ergebnisse wirklich zu verbessern begannen:

"Esgibt zwei Testdateien im atacha-Archiv. Beide enthalten normalverteilte Werte, die Histogramme sind gleich und fast symmetrisch um Null.

Aber diese Dateien haben einen sehr großen Unterschied, nämlich die Markovness.
Eine Datei hat ein Gedächtnis (ein nicht-markovianischer Prozess), Sie können versuchen, auf der Grundlage vergangener Werte vorherzusagen, ob der nächste Wert größer oder kleiner als Null ist. Sie können Neuronik und anderes maschinelles Lernen zur Vorhersage einsetzen.
Die andere Datei hat keinen Speicher (Markov-Prozess), jede Vorhersage wird fehlschlagen. Maschinelles Lernen ist machtlos, aber vielleicht kann Alexander mit Hilfe der Physik etwas vorhersagen.

Wer lernt, zu erkennen, welche Datei Speicherplatz hat und welche nicht - gut gemacht, und die Anwendung dieser Methode auf den Devisenmarkt wird schließlich beweisen, dass der Preisbildungsprozess tatsächlich markovianisch ist.

Außerdem ist zu prüfen, ob die Normalverteilung eine hinreichende Bedingung für die Rentabilität des Modells ist. Erstellen Sie ein kumulatives cum()-Random-Walk-Diagramm und versuchen Sie, damit zu handeln."

Es ist nur offensichtlich, dass er zuerst gelernt hat, wie man mit künstlichen Daten mit "Speicher" arbeitet, und dann dummerweise gelernt hat, wie man sie echten GPs zuweist.

Das ist alles.

Nun, das ist nicht der Punkt, wie kommt es ... sehen Sie nicht, Nicht-Stationarität ist inhärent in solchen Prozessen, klammern sich an eine Normalverteilung wie im Grunde die meisten, sobald es eine Grenze in Schritten, alles ist Normalverteilung, von der Rückseite wird es immer nicht-normal, auch nicht vorhanden sein, wie ist diese Darstellung eines Prozesses, keine Verteilung?

Maxim Dmitrievsky:

Ich habe bereits eine Reihe von Tests und Screenshots beigefügt, ich weiß nicht, was Sie noch brauchen. Ich habe bereits eine Menge Tests und Screenshots gemacht.

Ich habe bereits eine Reihe von Tests und Screenshots beigefügt.

 
Andrey Khatimlianskii:

In diesem Thema, ein Gastbeitrag. Ich bin nur hier, um einen Artikel zu teilen.

Sie sind spät dran, nicht HFT))) Sie sagen, sie wüssten nicht, was sie mit ihnen machen sollten.