Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 2384

 
Maxim Dmitrijewski

Konnten Sie die Markierung manuell vornehmen? Diese Technik dürfte interessanter sein.

 
Evgeni Gavrilovi:

Konnten Sie eine manuelle Markierung vornehmen? Diese Technik dürfte interessanter sein.

Das habe ich nicht, dieser Ansatz interessiert mich nicht.

 
mytarmailS:

Ich habe einen Weg gefunden, um Regeln zu erstellen, die sowohl für das Fach als auch für den Test funktionieren, nämlich MLEEP....

mein Broker, mein Trainer und die Prüfung



Ihr Makler Ihre Daten und die Prüfung in 9 Jahren besteht !!!

Gral gefunden!!!!!!!

Das Lustige ist, dass ich morgen aus dem Forum verschwunden sein werde, etwa einen Monat, sehr unglücklich (ich möchte teilen, aber keine Zeit, wenn ich schreiben kann, was zu tun ist und wie es zu tun ...


Für komfortablen Handel, müssen Sie 200-400 dieser Regeln(oder patrenov, wenn Sie wollen) zu machen

Um das Ausmaß zu verstehen, kann mein schwacher Laptop 5-8 Regeln pro Tag verarbeiten

Ich sehe nichts Falsches an Mining-Regeln, ich wollte einen visuellen Miner (sehr schnell) mit Schiebereglern machen, um nach Mustern zu suchen

aber wie üblich, noch nicht fertig.

 
Maxim Dmitrievsky:

Ich sehe nichts Falsches an Mining-Regeln, ich wollte einen visuellen Miner (sehr schnell) mit Schiebereglern machen, um nach Mustern zu suchen

aber wie immer habe ich es noch nicht getan.

Was wollen Sie ausgeben und wie?

 
Valeriy Yastremskiy:

Was wollten Sie zurückziehen und wie?

wie Boxplots

 
Maxim Dmitrievsky:

wie Boxplots

Trainingsergebnisse oder Boxplot-Regeln?

 
Maxim Dmitrievsky:

Ich sehe nichts Falsches daran, die Regeln zu missbrauchen.

Natürlich nicht)), und selbst wenn, würde es mich in keiner Weise beeinträchtigen)

Maxim Dmitrievsky:

Ich wollte einen visuellen Miner (sehr schnell) mit Schiebereglern machen, um nach Mustern zu suchen

aber wie üblich habe ich es noch nicht getan.

Versuchen Sie es, nur wird das Ergebnis bestenfalls wie die Darstellung von Forrest sein, also keine...


Die Forrest-Ausgabe ist die Summe der ausgelösten Regeln, die Regeln werden nicht herausgefiltert und in irgendeiner Weise zurückgewiesen, und die zurückgewiesenen Regeln liegen bei 100 %)

Regeln werden nicht auf Wiederholbarkeit (es kann nur eine Antwort geben) oder Angemessenheit (funktioniert sie) geprüft; Regeln werden einfach auf die Daten übertragen (das Modell passt zu den Daten)

Das Modell nähert sich einer Trainingsstichprobe nach dem Zufallsprinzip an, in der Hoffnung, dass die Kreuzvalidierung helfen wird, was aber aus objektiven Gründen nicht der Fall ist (es gibt zu wenige wichtige Ereignisse auf dem Markt)


Ich habe einen anderen Ansatz versucht: Ich passe das Modell nicht an die Daten an, sondern stelle Hypothesen auf und überprüfe sie.

1) Ich bilde plausible(bereits gefilterte) Hypothesen in Form von Regeln.

2) Hypothesen werden an kleinen Daten getestet

3) Hypothesen, die an kleinen Daten getestet wurden, werden an großen Daten getestet.

In der Tat bleibt nur eine von einer Million plausiblen Regeln übrig

Für einen ungeübten Leser ist es schwierig, den Unterschied zwischen den beiden Ansätzen zu verstehen, aber der Unterschied zwischen ihnen ist abgrundtief.

 
mytarmailS:

Natürlich nicht, und selbst wenn, würde es mich in keiner Weise beeinflussen.)

Versuchen Sie es, aber das Ergebnis wird bestenfalls dasselbe sein wie bei Random Forest, d.h. keine...


Die Forrest-Ausgabe ist die Summe der ausgelösten Regeln, die Regeln werden nicht herausgefiltert und in irgendeiner Weise zurückgewiesen, und die zurückgewiesenen Regeln liegen bei 100 %)

Die Regeln werden nicht auf Wiederholbarkeit (es kann nur eine Antwort geben) oder Angemessenheit (funktioniert sie) geprüft; die Regeln werden einfach auf die Daten übertragen (das Modell wird an die Daten angepasst)

Das Modell nähert sich einer Trainingsstichprobe nach dem Zufallsprinzip an, in der Hoffnung, dass die Kreuzvalidierung helfen wird, was aber aus objektiven Gründen nicht der Fall ist (es gibt zu wenige wichtige Ereignisse auf dem Markt)


Ich habe einen anderen Ansatz versucht: Ich passe das Modell nicht an die Daten an, sondern stelle Hypothesen auf und überprüfe sie.

1) Ich bilde plausible(bereits gefilterte) Hypothesen in Form von Regeln.

2) Hypothesen werden an kleinen Daten getestet

3) Hypothesen, die an kleinen Daten getestet wurden, werden an großen Daten getestet.

In der Tat bleibt nur eine von einer Million plausiblen Regeln übrig

Für den ungeübten Leser ist es schwierig, den Unterschied zwischen den beiden Ansätzen zu verstehen, aber der Unterschied zwischen ihnen ist ein Abgrund.

Zeigen Sie mir als Beispiel die Ergebnisse des TC

 
Maxim Dmitrievsky:

Zeigen Sie mir also die Ergebnisse von TC

Ich kann noch nicht, ich muss mindestens 500 schmutzige Regeln bekommen, von denen ich die letzten 10% bestehen werde...

Nur um Ihnen eine Vorstellung zu geben, hatte ich gestern Abend bereits 2 schmutzige Regeln


Ich arbeite daran, die Regelsynthese zu beschleunigen. Heute habe ich herausgefunden, wie man die Geschwindigkeit um das 5-fache erhöhen kann und habe weiteren Code umgeschrieben...

 
mytarmailS:

Ich kann noch nicht, ich brauche mindestens 500 schmutzige Regeln, um die letzten 10 % zu schaffen...

Nur damit du es verstehst: Ich habe gestern Abend 2 schmutzige Regeln aufgestellt.

Ich glaube, Alexej hat Rechenleistung vorgeschlagen, er rechnet gerne lange, vielleicht könnt ihr zusammenarbeiten :)

Auf R ohne Vektorisierung wird immer noch langsam sein. Sie können eine schnelle Datenbank verwenden
Grund der Beschwerde: