Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 2786

 
Valeriy Yastremskiy #:

Bei einem Markov-Prozess gibt es keine Abhängigkeit vom aktuellen Wert.

Was meinen Sie damit? Wo Sie sich in der Übergangsmatrix befinden, gehen Sie von dort aus.

 
Valeriy Yastremskiy #:

D.h. wenn es nur wenige Faktoren gibt, ist der Prozess kontrolliert, aber ab einer bestimmten Anzahl von Faktoren beginnen Kollisionen und probabilistische Ergebnisse der Summierung der Faktoren aufzutreten. Außerdem können die Faktoren miteinander verbunden sein, und es gibt Rückkopplungen. Aber der Markov-Prozess hat keine solchen Verbindungen.

Er beschreibt Zufallsvariablen - wie kann er da Verbindungen haben (logischerweise gibt es sie nicht).... aber wenn es eine Matrix gibt, bedeutet das, dass wir in ihr Verbindungen finden/beschreiben/verlieren/bilden können... Imho geht es darum, den Zustand unter dem Einfluss von Ereignissen zu beschreiben... alles die gleichen Statistiken, aber auch ein Schritt vorwärts je nach Zustand (und genau dieser Schritt bestimmt die Dynamik der statistischen Reihe jedes Moments)... nur bin ich auch verwirrt durch die "Zufälligkeit" in der Formulierung des ganzen Markovianischen (aber dafür sind ja Statistik und dim_reduction da).

 
JeeyCi #:

sie beschreibt Zufallsvariablen - wo hat sie Verbindungen (logischerweise gibt es keine)... aber da es eine Matrix gibt - bedeutet das, dass es möglich ist, Verbindungen in ihr zu finden/zu beschreiben/zu verlieren/zu bilden... Imho geht es darum, den Zustand unter dem Einfluss von Ereignissen zu beschreiben... alles die gleichen Statistiken, aber auch ein Schritt vorwärts je nach Zustand (und genau dieser Schritt bestimmt die Dynamik der statistischen Reihe jedes Moments)... nur bin ich auch verwirrt durch die "Zufälligkeit" in der Formulierung des ganzen Markovianischen (aber dafür sind ja Statistik und dim_reduction da).

Ich habe mein Verständnis der Physik von Zufallsprozessen dargelegt, für mich sind es 2 Varianten, auf dem Markt ist die erste, wenn die Anzahl der Faktoren ein probabilistisches Ergebnis ergibt, und die zweite ist das Ergebnis eines niederfrequenten Prozesses im Verhältnis zu einem hochfrequenten, wobei die Prozesse nicht miteinander verbunden sind.

Und philosophisch gesehen verstehe ich, dass der Prozess zufällig ist, wenn es keine Verbindung zu vergangenen Werten einer Funktion oder eines Prozesses gibt. Aber in der realen Welt ist das normalerweise nicht der Fall.

Wenn wir auf dem Markt davon ausgehen, dass verlängerte stationäre Zustände die Auswirkung einiger Trägheitskräfte von starken Faktoren sind, oder starke verlängerte Faktoren, dann ist es möglich, sie im Rauschen zu unterscheiden, und es ist kein Markov-Zustand. Der Ansatz, das Modell von dem SB-Modell zu unterscheiden, ist recht logisch. Aber was damit zu tun ist, ist logisch: Wenn es einen Nicht-Markov-Zustand gibt, dann ist es möglich, ihn zu untersuchen, und wenn es keine Unterschiede gibt, dann hat es keinen Sinn, ihn zu untersuchen. ))))))

 
Maxim Dmitrievsky #:

Was meinen Sie damit? Wo Sie sich in der Übergangsmatrix befinden, dorthin gehen Sie.

Es ist klar, aber es ist ein Zufallsprozess, weil es keine Verbindung zwischen dem aktuellen Wert und dem vorherigen gibt.)))))) Und so, ja, in der Matrix gibt es Werte)))))

Die GSC beruhen auf dem Prinzip der Minimierung dieser Beziehung auf nahezu Null).

 

Die Normalisierungsmethoden von Vladimir Perervenko sind einfach seltsam - log2(x + 1) ist noch verständlich,

aber das Auftauchen eines solchen Ungetüms - um Asymmetrie über sin(2*pi*x) zu beseitigen - ist nicht ganz klar, was es bewirkt - logischerweise fügt es eine zyklische Komponente hinzu, und die Frage ist, warum eine solche Komponente? oder entfernt sie? (wenn wir die Zyklen entfernen, bleibt das Rauschen übrig)...

und tanh(x) sieht im Allgemeinen wie eine Nachahmung der Verarbeitung eines neuronalen Netzes zur Komprimierung einer Reihe aus... oder nur eine weitere einfache Verzerrung der Reihe? - Es ist unwahrscheinlich, dass damit die Zyklizität beseitigt wird, und es ist nicht klar, welche....

Wie auch immer, es ist natürlich klar, dass Zeitreihe= Trend+Zyklus+Rauschen...

... aber er könnte versuchen, die Zyklizität mit solchen Transformationen loszuwerden (und es ist nicht bekannt, inwiefern sin(2*pi*x) ein universeller Weg ist ??) ... Ich dachte zuerst, dass dies eine Art Versuch ist, ein d/df-Element in die Reihe einzufügen - um die Zyklizität zu entfernen (indem man diese Länge in die Vorzeichen-Faktoren selbst einbaut? Wellenlänge in die Vorzeichen-Faktoren selbst), um eine Normalverteilung zu erreichen, d.h. Geschwindigkeit und Beschleunigung in die Zusammensetzung der Vorzeichen zu legen ... ?? aber dennoch scheint die Manipulation mit sin eine ungerechtfertigte Verzerrung der Reihe unter der nach dem Vorzeichenwert skalierten Amplitude zu sein - so etwas ist mir in der statistischen Verarbeitung noch nicht begegnet .... warum nicht cos? warum nicht tanh? -- nur verschiedene Arten der Kurvendarstellung? Warum?

Vielleicht kann der Autor das Wesen dieser speziellen Trigonometrie erklären (der Zweck der Beseitigung der schiefen Verteilung durch log ist bereits klar) - aber was sind die Begründungen/Annahmen für die Verwendung von sin? warum nicht cos? und warum überhaupt diese Krümmung?(wird dadurch der Vorzeichenwechsel beschleunigt?- oderglättet es ihn manchmal sogar nur)


Renat Akhtyamov #:

man hat dir Vektoren gegeben, eine Arbeit geschrieben und dich wie ein Schmuckstück behandelt....

könnte jemand schreiben, wie ernst man solche Transformationen nehmen sollte/kann und warum? (abgesehen von dem Wunsch, die Asymmetrie mit log loszuwerden, denke ich, dass ln die häufigste ist).

 
JeeyCi #:

Vladimir Perervenko hat nur einige seltsame Wege der Umwandlung in Normalität - log2(x + 1) kann noch versucht werden, zu verstehen,

aber das Auftauchen einer solchen Bestie - die Asymmetrie über sin(2*pi*x)- loszuwerden, ist nicht ganz klar, was sie tut - logischerweise fügt sie eine zyklische Komponente hinzu, und die Frage ist, warum eine solche Komponente? oder entfernt sie? (wenn wir die Zyklen entfernen, bleibt Rauschen übrig) ....

und tanh(x) sieht im Allgemeinen wie eine Nachahmung der Verarbeitung eines neuronalen Netzes zur Komprimierung einer Reihe aus... oder nur eine weitere einfache Verzerrung der Reihe? - Es ist unwahrscheinlich, dass man die Zyklen entfernt, und es ist nicht klar, welche....

Wie auch immer, es ist natürlich klar, dass Zeitreihe= Trend+Zyklus+Rauschen...

... aber er könnte versuchen, die Zyklizität mit solchen Transformationen loszuwerden (und es ist nicht bekannt, ob sin(2*pi*x) ein universeller Weg ist ??) ... Ich dachte zuerst, dass dies eine Art Versuch ist, ein d/df-Element in die Reihe zu bringen - um die Zyklizität zu entfernen (indem man diese Länge in die Vorzeichenfaktoren selbst einbaut? Wellenlänge in die Vorzeichen-Faktoren selbst), um eine Normalverteilung zu erreichen, d.h. Geschwindigkeit und Beschleunigung in die Zusammensetzung der Vorzeichen zu legen ... ?? aber dennoch scheint die Manipulation mit sin eine ungerechtfertigte Verzerrung der Reihe unter der nach dem Vorzeichenwert skalierten Amplitude zu sein - so etwas ist mir in der statistischen Verarbeitung noch nicht begegnet .... warum nicht cos? warum nicht tanh? -- nur verschiedene Arten der Verzerrung? Wozu?

Vielleicht kann der Autor das Wesen dieser speziellen Trigonometrie erklären (der Zweck der Beseitigung der schiefen Verteilung über log ist bereits klar) - aber was sind die Begründungen/Annahmen für die Verwendung von sin? warum nicht cos? und warum überhaupt diese Krümmung?(wird dadurch der Vorzeichenwechsel beschleunigt?- oderglättet es ihn manchmal sogar nur)


könnte jemand schreiben, wie ernst man solche Transformationen nehmen sollte/kann und warum? (abgesehen von dem Versuch, die Asymmetrie mit log loszuwerden, ist ln meiner Meinung nach am gebräuchlichsten).

Ich habe solche Transformationen auch nie verstanden, aber wahrscheinlich ist es nur eine Auswahl der besten Transformation unter den anderen. Und die Wahl ist nicht logisch, sondern basiert in der Regel auf Tests.

Die Formen von Filtern und Antennen im UHF-Bereich wurden ursprünglich nicht berechnet. Ja, und die Berechnung wurde dann im wirklichen Leben mit einer Datei))))) abgeschlossen.

 
Valeriy Yastremskiy #:

Ich habe solche Konvertierungen auch nie verstanden, aber wahrscheinlich ist es nur eine Auswahl der Meinung des Pickerls über die beste Konvertierung unter den anderen. Und es gibt keine Logik in der Wahl in der Regel, in der Regel auf der Grundlage von Tests.

Die Formen von Filtern und Antennen im UHF-Bereich wurden ursprünglich nicht berechnet. Ja, und die Berechnung wurde dann im wirklichen Leben mit einer Datei))))) abgeschlossen.

Sie können einfach die Histogramme der Probe vor und nach der Umwandlung vergleichen. Wenn das endgültige Histogramm näher an der Zielform liegt (z. B. Normal- oder Gleichverteilung), dann ist die Umwandlung durchaus geeignet). Anstatt Histogramme zu zeichnen, können Sie auch Tests auf Konformität mit dem Ziel (Normalität bzw. Gleichmäßigkeit) in Betracht ziehen.

Haben die Platten nicht eine parabolische Form? Ganz nach der Formel)

 
JeeyCi #:

Vladimir Perervenko hat nur einige seltsame Wege der Umwandlung in Normalität - log2(x + 1) kann noch versucht werden, zu verstehen,

aber das Auftauchen einer solchen Bestie - die Asymmetrie über sin(2*pi*x)- loszuwerden, ist nicht ganz klar, was sie tut - logischerweise fügt sie eine zyklische Komponente hinzu, und die Frage ist, warum eine solche Komponente? oder entfernt sie? (wenn wir die Zyklen entfernen, bleibt Rauschen übrig) ....

und tanh(x) sieht im Allgemeinen wie eine Nachahmung der Verarbeitung eines neuronalen Netzes zur Komprimierung einer Reihe aus... oder nur eine weitere einfache Verzerrung der Reihe? - Es ist unwahrscheinlich, dass man die Zyklen entfernt, und es ist nicht klar, welche....

Wie auch immer, es ist natürlich klar, dass Zeitreihe= Trend+Zyklus+Rauschen...

... aber er könnte versuchen, die Zyklizität mit solchen Transformationen loszuwerden (und es ist nicht bekannt, ob sin(2*pi*x) ein universeller Weg ist ??) ... Ich dachte zuerst, dass dies eine Art Versuch ist, ein d/df-Element in die Reihe zu bringen - um die Zyklizität zu entfernen (indem man diese Länge in die Vorzeichenfaktoren selbst einbaut? Wellenlänge in die Vorzeichen-Faktoren selbst), um eine Normalverteilung zu erreichen, d.h. Geschwindigkeit und Beschleunigung in die Zusammensetzung der Vorzeichen zu legen ... ?? aber dennoch scheint die Manipulation mit sin eine ungerechtfertigte Verzerrung der Reihe unter der nach dem Vorzeichenwert skalierten Amplitude zu sein - so etwas ist mir in der statistischen Verarbeitung noch nicht begegnet .... warum nicht cos? warum nicht tanh? -- nur verschiedene Arten der Verzerrung? Wozu?

Vielleicht kann der Autor das Wesen dieser speziellen Trigonometrie erklären (der Zweck der Beseitigung der schiefen Verteilung durch log ist bereits klar) - aber was sind die Begründungen/Annahmen für die Verwendung von sin? warum nicht cos? und warum überhaupt diese Krümmung?(wird dadurch der Vorzeichenwechsel beschleunigt?- oderglättet es ihn manchmal sogar nur)


könnte jemand schreiben, wie ernst man solche Transformationen nehmen sollte/kann und warum? (abgesehen von dem Versuch, die Asymmetrie mit log loszuwerden, denke ich, dass es doch meist ln ist).

Solange wir uns auf der Ebene der Argumentation von trigonometrischen Funktionen oder irgendetwas anderem auf dieser Ebene befinden, gibt es keine Rechtfertigung aus einem Grund - es ist unmöglich, eine Rechtfertigung zu machen, weil der Zweck solcher Rechtfertigungen NICHT erklärt wird und das Kriterium zur Erreichung des Zwecks unbekannt ist.


Und das Ziel in MO ist ein einziges - die Verringerung des Anpassungsfehlers, oder besser gesagt, die Verringerung des Vorhersagefehlers des maschinellen Lernmodells. Und zwar unter der Einschränkung, dass sich der Vorhersagefehler in der Zukunft NICHT wesentlich ändern darf.


Das Haupthindernis für das Erreichen dieses Ziels ist die Nicht-Stationarität von Finanzreihen.

Die gegebene Formel Zeitreihe= Trend+Zyklus+Rauschen ist nicht ganz genau. Sie ist genauer und sehr gut ausgearbeitet in Modellen vom Typ GARCH, von denen es mehr als hundert gibt, aber keines von ihnen löst das Problem in seiner endgültigen Form, d. h. wie man die Nicht-Stationarität so genau wie möglich modelliert.

Wenn wir ein Ziel und ein Kriterium für das Erreichen des Ziels angeben, dann sind die Methoden zur Behandlung der Nicht-Stationarität überhaupt nicht wichtig - es ist das Ergebnis, das zählt. In jedem Fall ist klar, dass der Vorhersagefehler des MO-Modells umso geringer ist, je näher die nichtstationäre Ausgangsreihe an die Stationarität herangeführt werden kann, und vor allem, je geringer die Schwankungen dieses Fehlers sind.

Vladimir Perervenko versteht das sehr gut, aber seine Artikel sind eher lehrreich als praktisch - er zeigt nur Probleme auf und stellt Werkzeuge für deren Lösung zur Verfügung, und zwar sehr vollständig und systematisch ohne sichtbare Lücken. Und die Auswahl der Probleme und der Hilfsmittel zu ihrer Lösung ist ganz dem Ziel untergeordnet, den Vorhersagefehler zu verringern.

Vladimir Perervenko
Vladimir Perervenko
  • www.mql5.com
Профиль трейдера
 

dort hat Aleksey Vyazmikin dem Autor eine solche Frage in den Kommentaren gestellt - ich habe einen Link zum Diskussionsfaden bekommen - der Link ist ZERSTÖRT ! ist der Autor Vladimir Perervenko untergetaucht? )

 

Dabei kam mir die Idee eines lokalen Entscheidungsbaums in den Sinn. Er ist so etwas wie ein Analogon von KNN oder lokaler Regression (auch potenziell geeignet für Nicht-Stationarität). Die Idee ist, dass wir nur die Box, die den interessierenden Punkt enthält, in Boxen aufteilen (bis zu einer bestimmten Anzahl von K Punkten darin) und uns nicht um den Rest der Boxen kümmern. Das kann besser sein als KNN oder lokale Regression, wenn die Grenzen zwischen den Klassen scharf sind und der Punkt nahe an einer solchen Grenze liegt.

Ich frage mich, ob der Ansatz überhaupt Sinn macht.