Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 2539

 
Zepterspieler #:

Meine Meinung ist nur offen oder tics.

Nun, das ist Ansichtssache. In Bezug auf die Sicherheit der Zeit ist "close" am genauesten.

 

Und ich wäre dankbar, wenn mir jemand antworten könnte. Ich habe gerade angefangen, diesen Thread zu lesen. Ich habe etwa 100 Seiten gelesen. Interessant, dank der Autoren aus der Anfangszeit. Es ist wie ein Tagebuch. Fehler, Entdeckungen, Enttäuschungen, Freude über den Erfolg, enttäuschte Hoffnungen... Ein Roman, im guten Sinne des Wortes: etwas Neues gelernt, sich an etwas Altes erinnert, über etwas gelacht (nicht ohne dies). Der Alltag eines Goldsuchers, wie er im Buche steht. Meine Frage ist einfach: Wird die "Maschine" bei diesem maschinellen Lernen eine Blackbox bleiben? Haben wir es mit Inputs/Empfängern gefüttert und wollen eine Antwort erhalten? Haben sie in die "Eingeweide" geschaut, was und wie es kocht...? Vielleicht haben sie versucht, die Maschine in die MQL-Sprache zu übersetzen, die sie hier finden?

Ich werde das Thema wahrscheinlich zu Ende bringen, es läuft bisher gut, aber ich würde Spoiler begrüßen)

 
Andrei Trukhanovich #:

Nun, das ist Ansichtssache. Was die zeitliche Sicherheit betrifft, so ist "close" am genauesten.

Was die Ungewissheit der Kerze betrifft, so kennen wir entweder die Zeit oder den Preis genau... beim Schließen die Zeit, beim Öffnen den Preis :-)

Im übertragenen Sinne, wenn es von 15.58 bis 16.03 keine Ticks gibt (und das ist eine normale Situation, es gibt typische Momente solcher Löcher), dann kennt close die Zeit 16.00 aber den falschen Preis, und für open ist die falsche Zeit der richtige/relevante Preis

 
Zepterspieler #:

Und ich wäre dankbar, wenn mir jemand antworten könnte. Ich habe gerade angefangen, diesen Thread zu lesen. Ich habe etwa 100 Seiten gelesen. Interessant, dank der Autoren aus der Anfangszeit. Es ist wie ein Tagebuch. Fehler, Entdeckungen, Enttäuschungen, Freude über den Erfolg, enttäuschte Hoffnungen... Ein Roman, im guten Sinne des Wortes: etwas Neues gelernt, sich an etwas Altes erinnert, über etwas gelacht (nicht ohne dies). Der Alltag eines Goldsuchers, wie er im Buche steht. Meine Frage ist einfach: Wird die "Maschine" bei diesem maschinellen Lernen eine Blackbox bleiben? Haben Sie es mit Inputs/Empfängern gefüttert und möchten eine Antwort für den Tag erhalten? Haben Sie in die "Eingeweide" dessen geschaut, was und wie es kocht...? Vielleicht haben sie versucht, die Maschine in die MQL-Sprache zu übersetzen, die sie hier finden?

Ich werde das Thema wahrscheinlich zu Ende bringen, es läuft bisher gut, aber ich wäre dankbar für ein paar Spoiler)

Um Erleuchtung zu erlangen, fange mit einem Zweig auf Onyx an und beginne erst dann diesen *Sarkasmus


Bücher lesen

 

Ich denke, die Philosophie hier ist einfach:

(H+L)/Schließen. d.h. schließen. als das gerechteste (Gleichgewicht) zum aktuellen(!) Zeitpunkt, H/Schließen+L/Schließen, als die Summe der Brüche in der Zeitspanne, mit einer Summe von entweder + oder - d.h. Aufwärts-/Abwärts-Momentum Ergebnis... imho


Zepterspieler #:

. Meine Frage ist einfach: Wird die "Maschine" bei diesem maschinellen Lernen eine Blackbox bleiben? Sie füttern es mit Eingaben/Prädikaten und möchten eine Antwort für den Tag erhalten?

...und die Antwort ist ziemlich einfach.
Maxim Kuznetsov #:

Theoretisch ja, aber wo ist der Vektor der Gewichte oder der vorwärts- und rückwärtsgerichteten Koordinatentransformation?

Der MNC ist fast eine universelle Methode, was soll ich sagen ... Ich meine, es ist abstrakt, aber damit es funktioniert, braucht man die Physik des Prozesses...

.. VMNC - gewichteter MNC (Skalen, z.B. Streuung)... Im Allgemeinen scheint es mir, dass alles, was brillant ist, einfach sein sollte ...

Renat Akhtyamov #:

Sie wissen nicht, was sie sich ausdenken

Prädiktoren für MO wahrscheinlich (Skalen sind beteiligt)

Ich vermute, dass sie eine Funktion bilden wie

Preis = a1*y1+a2*y2+...aN*yN

ein prinzipiell logischer Trick

es ist interessant, was sich daraus ergeben wird

nur wenn man sie in Segmente aufteilt, muss man wahrscheinlich auch jeden Teil mit etwas multiplizieren, das mit dem Winkel zusammenhängt

Polynom - für multivariate Analysen (und Ihre Formel - linear!!! - Übrigens ist der Koeffizient a bei deinem y [obwohl x] der Winkel ist) - ... für einen einzigen Faktor - einfach eine typische Geradengleichung (y=kx+bias)...

und hier beginnt der interessanteste Teil der Differenzierung - die Ordnung des Polynoms (=Anzahl seiner Biegungen-1 und die Signalausbreitung vom Beginn des Trainings bis zum Ende) -- man sollte es sicherlich nicht übertreiben, aber wenn die Realität so ist, dass dy/dx=a^3x (keine lineare Abhängigkeit) und darüber. -- dann glaube ich nicht, dass es hier viel zu tun gibt -- nehmen Sie die Ableitung von dem, was da ist (ich glaube, ich habe irgendwo Empfehlungen für die Differenzierung als Funktion von 1s und 2s Differenzen gesehen => Wahl des Grades des Polynoms -- kann es nicht finden)... ODER erwägen Sie CDF und verwerfen Sie die extremen Persentile... imho um den Mittelwert zu finden... ODER sie als Signale bei der Analyse der Abweichung vom Mittelwert zu nutzen... Imho... So drückte es Maxim Dmitrievsky in den Worten von ML aus

+ und das Problem einer gedämpften oder verstärkten Steigung steht auch immer auf der Tagesordnung... Ich schätze, hier kommt die richtige Gewichtung zum Tragen... Obwohl die Philosophie der Gewichtung wiederum für die Befürworter der "freien Wahl der Gewichte" anders sein mag... Ich hasse Freiheitskämpfer in russischer Sprache (so dass sie anfangen, reale Korrelationen und Ursache-Wirkungs-Beziehungen in Formeln zu verzerren) -- die richtige Differenzierung (d.h. die richtigen Variablen) wird die richtigen Gewichte ergeben, und die richtige NN-Architektur wird helfen, die Bedeutung der Gewichte auf das Lernergebnis zu übertragen... imho

p.s.

Ich finde jedenfalls, dass H- und L-Bruchteile aus der Nähe mehr Vertrauen erwecken als nur die Nähe... - Darum geht es hier - die Skalen in der Blackbox richtig einzustellen (deshalb ist es wichtig, was in der Eingabe und was in der Ausgabe ist) - um keine unangemessen hohe/niedrige Streuung zu erhalten ... und um keinen sinnvollen Gradienten in der Lernphase zu verlieren - und wie Mikhail Mishanin bereits sagte (bevor der Thread in Fluten und Streitigkeiten versinkt) - "lass das Wichtigste überleben und sich weiterentwickeln"

in NN - fast wie auf Titanik

Машинное обучение в трейдинге: теория, практика, торговля и не только
Машинное обучение в трейдинге: теория, практика, торговля и не только
  • 2017.07.23
  • www.mql5.com
Добрый день всем, Знаю, что есть на форуме энтузиасты machine learning и статистики...
 

Ich handele mit einem Polynom wie diesem und mache mir keine Gedanken darüber

double decision = -0.07651082803761469 * sigmoid(x1 + x2 + x3) -0.04311207233300622 * sigmoid(x1 + x3 + x4) -0.05386865347421374 * sigmoid(x0 + x1 + x5) -0.00827465962899799 sigmoid(x1 + x2 + x4 + x5) -0.10576034451547747 * sigmoid(x4 + x6) -0.10960470278870797 * sigmoid(x0 + x2 + x3 + x5 + x6) -0.07378595451557275 * sigmoid(x0 + x1 + x2 + x4 + x5 + x6)  + 0.12026124486704332 * sigmoid(x7)  -0.06493964309873379 * sigmoid(x0 + x1 + x4 + x5 + x7)  -0.019388523137606112 * sigmoid(x1 + x2 + x4 + x5 + x7)  + 0.11097666707952629 * sigmoid(x4 + x6 + x7)  -0.0850998961499252 * sigmoid(x2 + x5 + x6 + x7)  -0.07273316247296563 * sigmoid(x0 + x4 + x8)  -0.2787231204565592 * sigmoid(x1 + x3 + x5 + x8)  -0.05990910736573329 * sigmoid(x0 + x1 + x4 + x6 + x8)  -0.0678407759220267 * sigmoid(x0 + x1 + x5 + x6 + x8)  -0.009089263426671367 * sigmoid(x0 + x2 + x3 + x4 + x7 + x8)  -0.10259720462275745 * sigmoid(1.0 + x3 + x4 + x8);
Wie ich bereits sagte, ist das Polynom selbst nicht so wichtig wie die Methode, mit der es ermittelt wird. Aber jeder wird taub, wenn er einen einfachen Satz nicht verstehen kann...
 
JeeyCi # :

Ich habe immer noch mehr Vertrauen in die H- und L-Aktien von close als in close...

Ich werde es selbst hinzufügen/entkräften:

und hier wieder das gleiche Problem - die Empfehlungenhier- Brüche sind vielleicht kein Allheilmittel, aber der dynamische Bereich ist vielleicht gar nicht "Periodenunterschied zwischen 2 Schließungen"

Christian Piligrim #:

Natürlich ist es für eine stabile Leistung und eine effektive Vorhersage sehr wichtig, das Modell richtig zu trainieren, und dafür müssen Sie zunächst die Eingabedaten richtig gestalten. Zu diesem Zweck skalierte ich zunächst die Eingabedaten in Analogie zu dem, was ich in meinem Artikel "The Principle of Superposition and Interference in Financial Instruments" getan habe, und verschob dann das Skalierungsraster so, dass die Daten immer im gleichen dynamischen Bereich lagen, egal wie sich der Markt veränderte, ich lehnte traditionelle Normalisierungsmethoden ab, sie verzerren die Daten zu sehr. In der nächsten Phase habe ich versucht, sicherzustellen, dass der Vektor, auf den sich das Training bezieht, vollständig durch die Eingangsvariablen abgedeckt ist, in Abb. 1. - geringe Überlappung, in Abb. 2. - ist viel besser, und dementsprechend wird die Genauigkeit des Trainings deutlich höher sein (die schwarze Linie ist der Vektor, relativ zu dem das Training durchgeführt wird, die anderen Linien sind die Eingangssignale).

d.h. Standardnormierung auf Varianz und nicht besonders geeignet... (

? vielleicht, in der Rationierung Koeffizient für eingehende Daten hinzufügen auch WMA, oder einfach nach Gewicht - nach allem, es spiegelt die Dynamik (wenn auch mit einer Verzögerung)

p.s.

1) aber vielleicht ist "dynamic range" schmerzhaft einfach - der Schnittpunkt von 2 MAs - es ist wichtig, die Perioden richtig zu bestimmen... nur OTFs schauen auf 50 und 200... aber für BigData-Analysen können günstigere MA-Perioden durch den Speicher eines neuronalen Netzes gefunden werden (wenn andere damit verbundene Faktoren berücksichtigt werden)... imho

2) obwohl ich persönlich denke, dass die "dynamische Spanne" die Periode ist, in der der Preis noch normal von Level zu Level verteilt war (ich schätze, man könnte sagen, Cluster - hat einen Aufschlag gemacht und arbeitet/klassifiziert wieder nach Gewichten/Merkmalen/Speicher, die bereits früher im Markt definiert wurden - vor der Ankunft des neuen OTF)... aber wie man diese Logik bei der Input-Rationierung ausnutzen kann, weiß ich noch nicht (außer, dass man zusätzlich zu den t-Statistiken einfach alle die gleichen dy/dx macht)... Schlecht ist natürlich, dass der Strategietester die Merkmale (Indizes) nicht selbst auswählt und eine Optimierung nur für das möglich ist, was ihm vorgegeben wird (und weit entfernt von sauberen Quellinformationen)... - Die Menschen müssen also ML nutzen

Piligrimus - нейросетевой индикатор.
Piligrimus - нейросетевой индикатор.
  • 2009.05.29
  • www.mql5.com
Между делом, сделал сегодня черновой вариант индикатора на формализованной неронной сети...
 
Sie haben eine Goldmine und können den Boden unter den Füßen nicht sehen.
 
BillionerClub #:
Du hast eine Goldmine und siehst den Boden unter den Füßen nicht

Es ist klar, dass SVM eine lineare Trennung von nicht-linearen Abhängigkeiten ermöglicht (aber die Dimensionalitätsreduktion muss irgendwie angepasst werden - sie hat ihre eigenen Nuancen)... aber vor allem multivariate Analyse (mit polynomialer multipler Regression Ausgabe) ist so-so für mich, wenn alle Faktoren gegenseitig beeinflussen, und ich weiß nicht, wie die Bibliothek macht seine feature_extraction (und es gibt eine Menge Nuancen in der Statistik) ... Und zweitens, um die richtigen Hyperparameter für SVM in Python zu finden, muss man auch die Bibliothek irgendwie kennen... viele stapfen hier herum (die Bibliothek ist anständig) - solange die Nuancen, die ich beschrieben habe, den Modellierungsprozess mit dieser Bibliothek nicht zu einem über-/unter-/untertrainierten Modell führen, über- oder untertrainiert...

um diese Bibliothek zu verstehen, müssen Sie, wenn Sie sie zum ersten Mal sehen, lange unter Ihren Füßen suchen...

der "goldene" Teil ist umstritten... Ich bin immer noch skeptisch, weil ich wegen des Roboters nicht in der Lage bin, Trends aufrechtzuerhalten und frühzeitig aus ihnen herauszuspringen... Aber ich möchte auch keine Drawdowns erleiden, wenn der Roboter etwas nicht bemerkt hat... Ein qualitativ hochwertiges statistisches Modell wäre also schon vor ML Gold wert... um die Wahrscheinlichkeit von 50/50 zu erhöhen... imho

StandardScaler with make_pipeline
StandardScaler with make_pipeline
  • 2018.04.21
  • april
  • stackoverflow.com
If I use , do I still need to use and functions to fit my model and transform or it will perform these functions itself? Also, does also perform the normalization or only the scaling...
 
JeeyCi #:

ODER betrachten Sie die CDF und verwerfen Sie die extremen Persentile... imho die Mitte zu finden... oder sie ausnutzen

Wahrscheinlichkeit der PDF-Schwänze(die in der Tat von der CDF abgeleitet ist, d.h. die PDF ist eine differentielle PDF): 1-P(a<=X<=b) , wobei [-unendlich,a] und [b,+unendlich] die Schwänze der Verteilung sind