Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 2623

 
JeeyCi #:

und die Antwort war nicht für Sie bestimmt - Sie können immer noch nicht lesen...

Wenn du einen Artikel empfiehlst, der Unsinn enthält, verschlingst du ihn (was deine Kompetenz zeigt), du empfiehlst anderen, ihn ebenfalls zu verschlingen...

Frage: Wenn diese Antwort nicht an mich gerichtet war, ist sie dann nicht mehr wahnhaft? Die Frage ist nicht rhetorisch gemeint.
 
JeeyCi #:

Sie brauchen hier nicht einmal ein 2. Modell, oder? - Kreuzvalidierung und Rastersuche für die Modellauswahl ...

aber vielleicht wird gerade die Verwirrungsmatrix Ihre 2. Frage beantworten (den Zweck des 2. Modells Ihrer Idee)...

.. . oder

... Ich bezweifle nur, dass Sie das zweite Modell brauchen ... imho

Das ist genau die Verbesserung der Konfusionsmatrix, die bei Verwendung des zweiten Modells behauptet wird, wenn man zum Beispiel Prado liest. Aber es wird auch ein Oversampling von Beispielen für das erste Modell verwendet, um die Anzahl der "wahren Positiven" oder etwas anderes zu erhöhen. Ich habe es leider schon vergessen.
Mit einem Modell kann man eine Sache auf Kosten einer anderen verbessern, und mit 2 Modellen kann man angeblich alles verbessern. Suchen Sie nach einem Confusion Matrix Prado oder Meta Leibeling Prado. Ich bin an meinem Telefon.
Und die Querbewertung wird nach solchen Manipulationen "gut" ausfallen, man kann sich einfach die neuen Daten für den Aktiensaldo der TZ ansehen und alles auf einmal sehen.)
 
Maxim Dmitrievsky #:
Hier ist nur die Verbesserung der Verwirrungsmatrix mit dem zweiten Modell behauptet wird, wenn Sie den Prado, zum Beispiel zu lesen. Aber es verwendet auch Oversampling-Beispiele für das erste Modell, um die Anzahl der "wahren Positiven" oder etwas anderes zu erhöhen. Leider schon vergessen.
Mit einem Modell können Sie eine Sache auf Kosten einer anderen verbessern, und mit 2 Modellen können Sie angeblich alles verbessern. Schauen Sie unter Confusion Matrix Prado oder Meta Leibeling Prado nach. Ich bin an meinem Telefon.

up-sampling & down-sampling sind für unausgewogene Datensätze und kleine Trainingssätze - wenn Sie das meinen -, d.h. kleinere Klassen werden höher gewichtet und umgekehrt... Ja, wahrscheinlich um sie zu erhöhen (tru positive)...

***

und über 2 Modelle - gut, es ist wahrscheinlich möglich, 2 mal zu filtern - erste Signale für die Einstellung von Gewichten, dann handelt auf sie nach diesen Gewichten (gestartet durch Inputs in 2. Wiegen)... obwohl es aussieht, wie es möglich ist, auf Geschäfte mit Kontext zu lernen - und Gradient für frühere Zeitreihen zu halten - gute Idee... ABER die Implementierung bei der Arbeit mit Kontext ist immer noch ein wenig anders in der Regel - die Aufgabe ist es, "Transaktion und ihre Kontext" Kodierung und 2. RNN nimmt in der Verarbeitung Ergebnis der 1. für die Dekodierung in der Ausgabe -- aber es hat wenig mit der Arbeit 2 Netze auf 2 verschiedene Aufgaben (zB Kontext und Transaktionen) zu tun, da in der Tat ist es verarbeitet-passed durch 2 Netze "Transaktion und Kontext" (als ein Paar!!!)... - es löst nur das Geschwindigkeitsproblem , aber nicht (oder in geringerem Maße) die Gültigkeit der Ausgabe... Imho...

aber wenn man wirklich Kontext- und Transaktionsverarbeitung trennen will (Kontext getrennt, Transaktionen getrennt) -- bisher erinnert mich eine solche Konstruktion an ein Sandwich (oder Öl und Butter, die Zusammenhänge und Abhängigkeiten von Phänomenen voneinander schmieren - in 2 Schichten)... Ich gebe nicht vor, Ihre TechSuite zu interpretieren, aber ich habe meine Bedenken und meinen Vorschlag geäußert, dass es sich lohnen könnte, sie bei der Modellierung zu bewahren - nämlich die Beziehungen...! Ich wünsche Ihnen eine schöne (realitätsnahe! nicht butterweiche) Netzarchitektur!

p.s. ) als ein ewiges Problem der "kontextbezogenen Werbung" - "die Hauptsache ist, nicht von der Realität abzuweichen" (nur ihre Waage ist manchmal schief - ich will nicht mit dem Finger auf wen zeigen - oder mit kleinen Stichproben in die falsche Richtung gearbeitet)

 
JeeyCi #:

Up-Sampling und Down-Sampling sind für unausgewogene Datensätze und kleine Trainingssätze gedacht - wenn Sie das meinen -, d.h., dass kleineren Klassen mehr Gewicht gegeben wird... Ja, wahrscheinlich um sie zu erhöhen (tru positive)...

***

und über 2 Modelle - gut, es ist wahrscheinlich möglich, 2 mal zu filtern - erste Signale für die Festlegung von Gewichten, dann Trades auf sie nach diesen Gewichten (gestartet durch Inputs bei 2. Wiegen)... obwohl es sieht aus wie Möglichkeit, Trades mit Kontext zu lernen - und Gradient für frühere Zeitreihen zu halten - gute Idee... ABER die Implementierung bei der Arbeit mit Kontext ist immer noch ein wenig anders in der Regel - die Aufgabe ist es, "Transaktion und ihre Kontext" Kodierung und 2. RNN nimmt in der Verarbeitung Ergebnis der 1. für die Dekodierung in der Ausgabe -- aber es hat wenig mit der Arbeit 2 Netze auf 2 verschiedene Aufgaben (zB Kontext und Transaktionen) zu tun, da in der Tat ist es verarbeitet-passed durch 2 Netzwerke "Transaktion und Kontext" (als ein Paar!!!)... - es löst nur das Geschwindigkeitsproblem , aber nicht (oder in geringerem Maße) die Gültigkeit der Ausgabe... Imho...

aber wenn Sie wirklich die Verarbeitung von Kontext und Transaktion trennen wollen (Kontext getrennt, Transaktionen getrennt) -- bisher erinnert mich eine solche Konstruktion an ein Sandwich (oder Öl und Butter, die Zusammenhänge und Abhängigkeiten von Phänomenen voneinander schmieren - in 2 Schichten)... Ich gebe nicht vor, Ihre TechSuite zu interpretieren, aber ich habe meine Bedenken und meinen Vorschlag geäußert, dass es sich lohnen könnte, sie bei der Modellierung zu bewahren - nämlich die Beziehungen...! Ich wünsche Ihnen eine schöne (realitätsnahe! nicht butterweiche) Netzarchitektur!

p.s. ) als ein ewiges Problem der "kontextbezogenen Werbung" - "die Hauptsache ist, dass man sich nicht von der Realität entfernt" (nur ihre Waage ist manchmal schief - ich werde nicht mit dem Finger auf wen zeigen - oder mit kleinen Stichproben in die falsche Richtung gearbeitet)

Das Konzept des Kontexts ist im Fall von Zeitreihen vielleicht nicht sehr nützlich. Hier gibt es keine klare Trennung, beide Modelle sind an der Vorhersage beteiligt. Das eine ist die Richtung, das andere das Timing. Ich würde sagen, sie sind gleichwertig. Die Frage ist, wie die Suche nach den besten Handelssituationen auf der Grundlage der Analyse von Modellfehlern optimiert werden kann und ob dies überhaupt möglich ist. Ich kann das eine oder das andere nacheinander umschulen. Nach jedem Umschulungspaar muss sich das Ergebnis mit den neuen Daten verbessern. Das bedeutet, dass es in der Lage sein muss, ein Muster aus einer Trainingsstichprobe zu extrahieren und sich bei neuen Daten, die es noch nicht gesehen hat, schrittweise zu verbessern. Eine nicht triviale Aufgabe.

Ich habe die Beispiele, die vom ersten Modell schlecht vorhergesagt werden, in die Klasse "nicht handeln" des zweiten Modells eingeordnet. Hat die Reifenprobe für das erste Modell weggeworfen. Dementsprechend sank der Fehler des ersten auf fast Null. Der zweite hat auch einen kleinen. Das bedeutet aber nicht, dass die neuen Daten auch gut sind.

Es handelt sich um eine Art kombinatorisches Problem: den richtigen Kauf und Verkauf zum richtigen Zeitpunkt zu finden.

Vielleicht ist es unmöglich, hier eine Lösung zu finden
 
Maxim Dmitrievsky #:
Das Konzept der Regelmäßigkeit impliziert Wiederholbarkeit, das ist wichtig!

Wenn ein Cluster mit einer Wahrscheinlichkeit von 90 % etwas vorhersagen kann und sich mindestens 200 Mal wiederholt, können wir davon ausgehen, dass es sich um ein Muster handelt.
Oder es handelt sich nicht um einen Cluster, sondern um ein Protokoll.

Wenn man es mit einem komplexen Modell zu tun hat (komplex aufgrund des Wortes "komplex"), verliert man die Fähigkeit, die Wiederholbarkeit interner Muster zu bestimmen, mit anderen Worten, man verliert die Fähigkeit, Muster von der Anpassung zu unterscheiden...

Wenn Sie dies verstehen, können Sie sofort nachvollziehen, dass neuronale Netze in den Papierkorb wandern, aber Holzmodelle können in Regeln zerlegt werden, und in den Regeln können Sie bereits Statistiken zählen
 
mytarmailS #:
Das Konzept der Regelmäßigkeit impliziert Wiederholbarkeit, das ist wichtig!

Wenn ein Cluster mit einer Wahrscheinlichkeit von 90 % etwas vorhersagen kann und sich mindestens 200 Mal wiederholt, können wir davon ausgehen, dass es sich um ein Muster handelt.
Oder es handelt sich nicht um einen Cluster, sondern um ein Protokoll.

Wenn man es mit einem komplexen Modell zu tun hat (komplex aufgrund des Wortes "komplex"), verliert man die Fähigkeit, die Wiederholbarkeit von internen Mustern zu erkennen, mit anderen Worten, man verliert die Fähigkeit, Muster von Anpassungen zu unterscheiden...

Wenn man dies versteht, kann man sofort erkennen, dass neuronale Netze in den Papierkorb wandern, aber Holzmodelle können in Regeln zerlegt werden, und die Regeln können bereits Statistiken zählen
Aber viele Funktionen können in ns gepackt werden, wenn es keine einfachen Abhängigkeiten gibt, wenn auch ohne die Möglichkeit der Analyse. Andernfalls werden wir das gesamte maschinelle Lernen über Bord werfen und zu einfachen TS-Schreibweisen zurückkehren :) Dann können wir einfach einfache Algorithmen schreiben, beobachten, wie sie im Tester (nicht) funktionieren, anpassen, wieder beobachten usw.
 

Statistiken sind linear, egal wie man sie betrachtet... Neuronale Netze sind dumm (oder intelligent - hängt vom Entwickler ab) Gewichtung ... mit 2 oder mehr Schichten von Dense ns für die Gewichtung gibt nicht-lineare Abhängigkeiten (konventionell gesprochen, weil Abhängigkeit ist ODER dumb Korrelation ist immer noch eine sehr große Frage) ... aber solange auch nur eine dumme Korrelation funktioniert - kann man versuchen, damit Geld zu verdienen... - der Zeitpunkt, an dem es aufhört zu funktionieren, muss rechtzeitig erkannt werden (Sie müssen eine Art Anomalie feststellen - zufällig oder systematisch - das ist eine andere Frage - und dann, wie üblich, über Ihre Frage des Risikos/der Rentabilität entscheiden)

Die Bequemlichkeit der ns liegt in ihrer Flexibilität - Sie können eine ganz andere "Nomenklatur" als die der ns bekommen/liefern. Es ist flexibel - man kann ganz unterschiedliche "Nomenklaturen" von der Eingabe erhalten/liefern - d.h. man kann die Transformationen, die wir brauchen, im Netz selbst durchführen... und es im Multi-Thread-Modus tun (hängt von der Bibliothek ab)... nicht nur Statistiken...

Ob man Statistiken braucht, um einen Input zu finden, ist eine andere Frage...

Wissen und Erfahrung helfen häufiger weiter als statistische Aufbereitung - denn erstere konzentriert sich auf Besonderheiten, letztere auf die Reduzierung auf einen gemeinsamen Nenner ...

Alles hat seinen Platz - auch die Statistik...

***

Der Punkt ist, dass es für einen Roboter keine andere Möglichkeit gibt, etwas zu erklären (und er wird es Ihnen auch nicht anders erklären), außer über Wahrscheinlichkeiten, die aus Zahlen abgeleitet werden... - WIE DIE WIRTSCHAFT FÜR DIE WELT FUNKTIONIERT - mit den Zahlen 0 und 1... also müssen wir die Eingaben digitalisieren, um Ausgabewahrscheinlichkeiten zu erhalten, und Bedingungen für Konfidenzintervalle festlegen (denen wir vertrauen, nicht unbedingt Statistiken)... und wir können allem vertrauen (das ist subjektiv) - entweder der binären Logik oder auch dem gewichteten Ergebnis dieser binären Logik (aka prozentuale Wahrscheinlichkeiten aus dem gesamten Spektrum der möglichen Lösungen)... -- es ist nur eine Frage des Geschmacks und der Gewohnheiten, kein Thema für eine Diskussion über die Suche nach dem Gral...

(und das Betreten eines Waldes oder eines neuronalen Netzes ist bereits ein Detail)

Niemand hat die gemeinsame Nutzung von Bäumen/Wäldern und neuronalen Netzen innerhalb desselben Projekts verboten... - Die Frage ist, wo man was und wann anwendet (Geschwindigkeit und Speicherplatz sind wichtig), nicht, was besser ist... - Es ist besser, keine Zeit zu verlieren - gleichbedeutend mit: "Ein von der Transaktion losgelöstes Timing ist verlorene Zeit, so wie eine Transaktion losgelöst vom Timing eine unbekannte Transaktion ist".

 
So eine lange Tirade und so eine schwache Schlussfolgerung :) Selbst wenn wir von der Zeit abstrahieren, kann ein Modell (regularisiert, nicht angepasst) kein gutes Verhältnis zwischen profitablen und unprofitablen Geschäften oder den Ausschluss von unprofitablen Geschäften vermitteln. Der Klassifizierungsfehler, der als künstliche Verschlechterung der TS-Handelsergebnisse empfunden wird, lässt sich auch bei einer zurückliegenden Stichprobe nicht beseitigen.
 

Kein Modell kann mehr als Wahrscheinlichkeiten erhalten (was ein Vorteil und ein Nachteil jeder Digitalisierung ist), selbst wenn diese Wahrscheinlichkeiten nicht gewichtet sind... Ich vergifte mich nicht mit Sandwiches und rate niemandem dazu - niemand hat Bayes aufgehoben (auch wenn man es nicht in den Code einbaut, und vor allem - wenn man es in den Code einbaut)...

p.s. Und Sie müssen ein McDonalds-Fan sein... - Hypothese, ich werde es nicht überprüfen...

Algorithmik ist wichtiger als Ihre Schlussfolgerungen

 
JeeyCi #:

Kein Modell kann mehr als Wahrscheinlichkeiten erhalten (was ein Vorteil und ein Nachteil jeder Digitalisierung ist), selbst wenn diese Wahrscheinlichkeiten nicht gewichtet sind... Ich vergifte mich nicht mit Sandwiches und rate auch niemandem dazu - niemand hat Bayes aufgehoben (auch wenn man es nicht in den Code einbaut, und vor allem - wenn man es in den Code einbaut)...

p.s. Und Sie müssen ein McDonalds-Fan sein... - Eine Hypothese, die nicht getestet wird...

Die Algorithmik ist wichtiger als Ihre Schlussfolgerungen.

Sandwiches sind weit verbreitet, jedes tiefe Netz. Es gibt verschiedene Tricks für verschiedene Aufgaben. Aber wenn man es genau nimmt, ist jeder Kopierer ein Fotokopierer und jeder Burger ein McDonald's
Man kann zur Geisel seiner eigenen Stereotypen werden, ohne jemals etwas zu versuchen. Und Stereotypen entstehen nicht durch Schichtung 😀 .
In meiner Antwort habe ich implizit ein zweites, klärendes Modell verwendet, das aus dem allgemeinen Wissen ein spezifisches, der Situation angemesseneres herausfiltert
Grund der Beschwerde: