Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 3083

 
Maxim Dmitrievsky #:

Um störende Parameter in Funktionen umzuwandeln, können Sie die Ausgangswerte von RF oder eines beliebigen Basisalgorithmus verwenden, wie im Artikel beschrieben. Für die völlig Uninformierten: Ersetzen Sie die Werte der ausgewählten Parameter durch Funktionswerte. Dann wird die lineare Regression (oder ein beliebiger anderer Algorithmus) der Meta-Lerner sein, durch den der Verschmutzungseffekt bewertet wird. Warum und wie das alles funktioniert - lernen Sie die Mathematik.

Um es zu verstehen, genügt es, mit dem Kopf zu denken. Aber Sanych wird wieder anfangen, Unsinn zu machen, weil er nur etwas sagen will, ohne zu denken. Sanych, dein Mangel an Verständnis ist so groß, dass du die RF-Parameter als eine Art Beweis anführst, was absolut unglaublich ist. Ich habe Ihnen schon dreimal geschrieben, dass Sie die RF vergessen sollen. Zum letzten Mal: Studieren Sie das Thema, dann schimpfen Sie. Sonst glauben Ihnen dieselben Unwissenden blindlings.

Und antworten Sie nicht auf meine Beiträge mit dem Aplomb eines Besserwissers (was ärgerlich ist), denn Sie wissen nichts, und es sieht aus wie das Geschwätz eines Ptuschnikers.

Alle Quellenangaben sind in dem Artikel enthalten. Müssen Sie wie blinde Kätzchen bei jedem Wort angestupst werden? Oder seid ihr doch schon erwachsen?

Ich habe über den Artikel diskutiert, nicht über die Zahl in Ihrer Tasche, von der es, wie ich glaube, laut der von Ihnen angeführten Literaturliste eine Menge gibt.

Wenn Sie die Diskussion über den von Ihnen geposteten Artikel unbedingt fortsetzen wollen, bin ich gerne bereit, sie fortzusetzen, aber: nur den Artikel und nur meine Argumente, und in einer Form, die prohibitive Unhöflichkeit Ihrerseits ausschließt.


In dem Artikel ging es um RF. Ich habe keine anderen Funktionen gesehen, die neben der Anpassung selbst auch den Anpassungsfehler berechnen würden. Seien Sie also bitte so freundlich, den Text des Artikels zu nehmen und ein konkretes Zitat zu liefern, das diese Idee widerlegt.

 
Lilita Bogachkova #:

Ich habe eine Frage an Experten für maschinelles Lernen. Wenn ich die Daten eines Charakters zum Trainieren, die Daten eines anderen Charakters zur Validierung und die Daten eines dritten Charakters zum Testen verwende, ist das eine gute Praxis?

Außerdem erhalte ich die folgenden Ergebnisse aus den Testdaten: grüne Zellen sind sehr gut, gelbe Zellen sind gut, rote Zellen sind durchschnittlich.


Und noch eine Frage zur Modifizierung der Daten für das Training des Modells. Mir ist aufgefallen, dass das Modell Schwierigkeiten hat, Extrema zu finden, in meinem Fall Werte über 60 und Werte unter 40.
Ich finde also Werte über 60 und unter 40 in den Trainingsdaten, die ich zusätzlich zu den Trainingsdaten hinzufüge, bevor ich sie in das Modell einspeise. Die Frage ist also: Kann ich die Genauigkeit des Modells verbessern, indem ich die Trainingsdaten mit Informationen über Extrema erhöhe?

Wenn Sie den Unterschied zwischen den Instrumenten nicht erkennen können, können Sie es. Oder man kann sie zwangsweise in einen solchen Zustand bringen, indem man die Differenz subtrahiert.

Zur zweiten Frage: Nein, das kann man wahrscheinlich nicht. Es wird an anderen Stellen falscher sein, weil es das Gefälle zu sich selbst zieht. Aber das ist alles individuell.
 
Maxim Dmitrievsky #:
Wenn Sie den Unterschied zwischen den Instrumenten nicht erkennen können, können Sie es. Oder man zwingt sie in diesen Zustand, indem man den Unterschied subtrahiert.

Zur zweiten Frage: Nein, das kann man wahrscheinlich nicht. Es wird an anderen Stellen falscher sein, weil es die Steigung zu sich selbst zieht.

Im Moment sieht es aber so aus.


Bevor ich jedoch diese Idee aufgebe, werde ich sehen, was ich erhalte, wenn ich das Modell trainiere, indem ich verschiedene Instrumente (Symbole) miteinander mische und dann Daten erstelle, die nur Extremwerte enthalten.

 
Lilita Bogachkova #:

Im Moment sieht es in der Tat so aus.


Aber bevor ich diese Idee aufgebe, werde ich sehen, was dabei herauskommt, wenn ich das Modell trainiere, indem ich verschiedene Instrumente (Zeichen) miteinander mische und dann Daten erstelle, die nur Extremwerte enthalten.

Versuchen Sie es doch mal. Ich habe keinen Unterschied zwischen einem und mehr als einem gesehen.
 
Maxim Dmitrievsky #:
Wenn Sie den Unterschied zwischen den Instrumenten nicht erkennen können, können Sie es. Oder man zwingt sie in diesen Zustand, indem man die Differenz subtrahiert.

Das Üben mit verschiedenen Symbolen zum Trainieren, Validieren und Testen ermöglicht es Ihnen heutzutage, die Genauigkeit der Vorhersage zu verbessern. Als Pluspunkt für diese Praxis kann ich erwähnen, dass es keine Begrenzung für die Datenmenge gibt, Sie können so viele Daten eingeben, wie Sie für die Validierung oder das Training benötigen.

Wenn Sie mit einem dritten Symbol testen, können Sie sofort sehen, ob das Modell in der Lage ist, universelle Muster zu finden, anstatt sich in engen, für ein bestimmtes Symbol spezifischen Marktereignissen zu verfangen.

 
Lilita Bogachkova #:

Die Praxis mit verschiedenen Symbolen für Training, Validierung und Test ermöglicht es Ihnen heutzutage, die Genauigkeit der Vorhersage zu verbessern. Als Pluspunkt für diese Praxis kann ich erwähnen, dass es keine Begrenzung für die Größe der Daten gibt, Sie können so viele Daten eingeben, wie Sie wollen oder für die Validierung oder das Training benötigen.

Wenn Sie mit dem dritten Symbol testen, können Sie sofort sehen, ob das Modell in der Lage ist, universelle Muster zu finden, anstatt von engen Marktereignissen gesteuert zu werden.

Wenn es keine große Verzerrung in den Daten gibt. Verschiedene Symbole haben eine unterschiedliche Streuung der Vorzeichen, und das Modell kann auf ihnen abdriften oder überhaupt in einer Position verharren. Wenn die Vorzeichen zumindest ihre Eigenschaften nicht von Symbol zu Symbol ändern, ist dies möglich.
 
Ich möchte Meinungen zur Korrektur von Trainingsdaten hören, indem Werte entfernt werden, die sich mehrfach in einer Reihe wiederholen, z. B. Werte, die sich mehr als 4 Mal in einer Reihe wiederholen.
seq = remove_repeating_values(seq, 5)
Soweit ich weiß, neigen solche gleichen Werte dazu, im Falle eines stagnierenden Marktes mehrere Zehner zu erreichen. Das behindert meiner Meinung nach das Training des Modells.
 
Lilita Bogachkova #:
Ich würde gerne Meinungen zur Korrektur der Trainingsdaten hören, indem ich Werte entferne, die sich mehrfach in einer Reihe wiederholen, z. B. Werte, die sich mehr als viermal in einer Reihe wiederholen.
Soweit ich weiß, neigen solche gleichen Werte dazu, im Falle eines stagnierenden Marktes mehrere Zehner zu erreichen. Das behindert meiner Meinung nach das Modelltraining.
Normalerweise ziehen Modelle Werte nach dem Zufallsprinzip, nicht nacheinander. Und das Durchmischen der Stichprobe ist ein Zeichen für gutes Urteilsvermögen :) lstm kann verworfen werden und die Stichproben können gemischt werden.
 
Maxim Dmitrievsky #:
In der Regel werden die Werte bei den Modellen nach dem Zufallsprinzip ermittelt und nicht in einer Reihe.

Ja,

X_train, X_val, y_train, y_val = train_test_split(inputs_unique, outputs_unique, test_size=test_size_value,
                                                    random_state=random_state_value)

aber die große Zahl gleicher Werte lässt mich an der Gesamtqualität der Daten zweifeln.
Beispiel: seq = ([5,5,5,5,5,5,5,5,5,5,5,5,5,5,5,5,5,5,5,5,5,5,5,5,5,5,5,5,5,5,5,5,5,5,5,5,5,5,5,5,5,5,5,5,5,5,5]) = [5,5,5,5,5,5,5,5][5]; [5,5,5,5,5,5,5,5][5]; [5,5,5,5,5,5,5][5] ....
Ich sehe keinen Sinn darin, das Modell mit solchen Trainingsdaten zu füttern;

Ich siebe also immer noch alle Daten aus, die nicht eindeutig sind.

inputs_unique, indices = np.unique(inputs, axis=0, return_index=True)
outputs_unique = outputs[indices]

Ich könnte mich irren, aber ich halte es für falsch, das Modell auch mit den folgenden Trainingsdaten zu füttern:

[1,2,3,4,5] [5];

[1,2,3,4,5] [6];

[1,2,3,4,5] [7];

[1,2,3,4,5] [8];

...

 

Hallo zusammen. Ich versuche, Expert Advisors zu trainieren, die aus einer großen Serie von Artikeln über neuronale Netze auf dieser Website stammen. Ich habe den Eindruck, dass sie nicht trainierbar sind. Ich habe versucht, dem Autor unter den Artikeln Fragen zu stellen, aber leider beantwortet er sie nicht praktisch...(

Daher eine Frage an die Forumsmitglieder - bitte sagen Sie mir, wie viel man ein neuronales Netzwerk trainieren muss, damit es anfängt, ein (nicht zufälliges) Ergebnis zu liefern?

Ich habe alle EAs von Artikel 27 bis zum letzten ausprobiert - das Ergebnis ist das gleiche - zufällig. Ich ging von 300 bis 1000 Epochen des Trainings, wie vom Autor angegeben. Wenn der Expert Advisor ist nur mit Iterationen, habe ich von 100 000 bis 20 000 000 Iterationen und so weiter 2-3 Ansätze, noch zufällig.

Wie viel sollte trainiert werden? Wie groß ist eine ausreichende Trainingsstichprobe (wenn sie vorab erstellt wird)?

PS: Einfache Informationen über neuronale Netze in google lesen, im Allgemeinen mit neuronalen Netzen vertraut sind. Alle schreiben von 100-200 Epochen und es sollte schon ein Ergebnis geben (auf Bildern, Zahlen, Klassifikationen).

Grund der Beschwerde: