Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 1329

 
Yuriy Asaulenko:

Das können Sie auch ohne Lehrer tun. Ich sehe darin keinen Unterschied.

Stellen Sie sich vor, ein Haufen Neuronen lernt und löst ein Problem, das durch ein paar oder drei if-Anweisungen gelöst wird... Das NS-Gehirn ist einfach voll von diesem Mist, und statt an das Schöne zu denken....))

Ich verstehe schon, das nennt man A-priori-Wissen, eingebautes Fachwissen, aber man vergleicht es nicht mit einem Modell, weil man sich 100%ig sicher ist.

Ich habe keine Ahnung von einem Zufallsprozess, außer dass er zufällig ist und ein paar anderen kleinen Überzeugungen
 
Maxim Dmitrievsky:

Ich verstehe, das nennt man A-priori-Wissen, eingebautes Expertenurteil, aber man überprüft es nicht mit einem Modell, weil man sich 100%ig sicher ist.

Ja, das ist genau richtig. Das ist praktisch eine Selbstverständlichkeit - warum sollte man das überprüfen? Wir kennen von vornherein einen Teil der Lösung (wir denken nicht umsonst über den Markt nach).

 
Maxim Dmitrievsky:

Auch hier geht es um unterschiedliche Ansätze

Sie unterrichten mit einem Lehrer, weil Sie von vorne anfangen, ich unterrichte ohne einen Lehrer.

Ich erinnere mich. Natürlich gibt es unterschiedliche Ansätze. Auch hier (mit einem Lehrer) sehe ich keine Kontraindikation. Alles ist machbar, wenn der Wunsch, wenn es sich von selbst ergibt.

Es sei denn, Sie haben RNN ohne einen Lehrer, hier ist alles komplizierter, und einfach nicht wissen, habe ich nicht verwenden. Übrigens, was verwenden Sie? Könnte gesagt haben, aber vertiefen Sie sich in das Thema...

 
Yuriy Asaulenko:

Ich erinnere mich. Natürlich gibt es unterschiedliche Ansätze. Auch hierin sehe ich keine Widersprüche (mit einem Lehrer). Alles ist machbar, wenn man den Willen dazu hat, natürlich.

Es sei denn, Sie haben RNN ohne einen Lehrer, hier ist alles komplizierter, und einfach nicht wissen, habe ich nicht verwenden. Übrigens, was verwenden Sie? Könnte gesagt haben, aber vertiefen Sie sich in das Thema...

viele Dinge, noch nicht genug RNN )) Ich werde es später tun

es gibt einige Artikel über die Grundlagen, aber die haben sich natürlich weiterentwickelt

 
Maxim Dmitrievsky:

Ich habe eine Menge Zeug, ich habe noch nicht genug)) Ich werde es später tun.

Es gibt Artikel über die Grundlagen, aber ich bin natürlich schon weiter als das.

An einer Kreuzung - Sie gehen nach rechts... usw. Tensorflow, sehr gute Funktionalität, aber sie sagen, sehr umständlich. Ich habe bisher nur die Dokumente gelesen. Nicht benutzt?

 
Yuriy Asaulenko:

An einer Kreuzung gehst du nach rechts... usw. Tensorflow, sehr gute Funktionalität, aber angeblich sehr umständlich. Ich habe bis jetzt nur die Dokumente gelesen. Sie haben es nicht benutzt?

tf ist ein Low-Level-Programm, das auf theano aufgesetzt wird, verwenden Sie tf.theano, es ist einfacher.

Ich habe verschiedene Beispiele gesehen, aber ich habe noch keine Entwicklung gemacht

Version 2 ist auf dem Weg, bereits auf der Website verfügbar, sie vereinfacht die Modellerstellung
 
Maxim Dmitrievsky:

ist tf ein low-level, über theano, mit tf.theano, dann ist alles einfacher

Ich habe mir verschiedene Beispiele angeschaut, aber noch nichts entwickelt.

Was die Geschwindigkeit betrifft. Ich denke, ich werde es vorerst bei scikit-learn belassen, CHEZ. MLPs sind da nicht schlecht.

 
Yuriy Asaulenko:

Was die Geschwindigkeit betrifft. Ich denke, ich bleibe vorerst bei scikit-learn, CHEZ. MLPs sind da nicht schlecht.

Ich weiß es nicht, ich glaube nicht.

Es gibt viele Pakete da draußen, ich versuche, nur die beliebtesten und am weitesten entwickelten zu lernen.

sklearn ist ein Sammelsurium von Dingen.

tf ist eher ein Erbauer einer eigenen Architektur.

 
Yuriy Asaulenko:

NS mag die Skalierung nicht wirklich. Es wird in der Preisspanne von 100-120 trainiert, wenn der Preis aus der Spanne herausgeht, war's das, Abbruch. Ich teile einfach alles, was mit dem Preis zu tun hat, durch den Preis selbst, ziehe eins ab und verwende dann Koeffizienten, um die Variablen in den gewünschten Dynamikbereich zu bringen.

In beiden Fällen müssen wir also die Daten so aufbereiten, dass eine akzeptable Metrik entsteht. Ich verwende meine ATR aus der oberen TF und die Preispositionierung darin. Ich erhalte Dominosteine mit Einkerbungen durch Levels, dem Preis wird eine Fibonacci-Level-Nummer zugeordnet.

 

Beendete Verarbeitung von Modellen, Saatgut 201 bis 401 - alles andere unverändert.

Tabelle mit den Ergebnissen der Gleichgewichtsschätzungen

Tabelle mit metrischen Indikatoren

Tabelle mit der Anzahl der Modelle, die die Auswahlkriterien in der unabhängigen Stichprobe erfüllen


Tabelle mit der Anzahl der Modelle, die das Auswahlkriterium in allen drei Stichproben erfüllen

Diagramme von Modellen (meist Gifs)

30%

40%

50%

60%

Der Trend scheint bei allen Indikatoren weitgehend unverändert zu sein. Nachfolgend finden Sie die Delta-Tabellen zum Vergleich der Veränderungen in unveränderter Form

Bei den metrischen Indikatoren ist der Unterschied minimal

Aus den gesammelten Daten können wir schließen, dass der Trend im Allgemeinen gleich geblieben ist.

Was mir am meisten Kopfzerbrechen bereitet, ist eine andere Frage: Warum sind die Graphen für verschiedene Modelle bei verschiedenen Stichproben sehr ähnlich? Es scheint, dass das Modell es schafft, ein offensichtliches Muster zu erfassen, das mit häufiger Periodizität und bei verschiedenen Stichprobengrößen auftritt (zumindest ist dieses Stück ständig im Fenster), und es ist dieses Muster, das das Modell bedient.

Ich selbst bin zu dem Schluss gekommen, dass es durchaus möglich ist, auf der Suche nach interessanten Mustern 30 % bis 70 % der Stichprobe aller Daten einer Validierungsgrafik zuzuordnen, aber es scheint, dass das Optimum immer noch bei 30 % liegt.

Grund der Beschwerde: