Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 584

 
Maxim Dmitrievsky:

Sie wussten nicht einmal, wie man die Bedeutung von Prädiktoren in RF bestimmt, indem Sie ohne Erklärung irgendeinen Unsinn über Annealing und so weiter von sich gaben (was hat das mit irgendetwas zu tun?).

Wer hat gesagt, wo die Bänke speziell für Forex-Anwendungen sind? warum Ada und nicht GBM? Ihre Antworten sind zu viele unscharfe Abstraktionen. in der Realität wird der Gewinn nicht mehr als 5% mit mehr Übertraining sein.

Auf der Ebene, auf der die Diskussion geführt wird

Lassen Sie mich die ALGLIB-Ebene erläutern - die Ebene einer Kolchose, eines Dorfes in der Nähe von Nowgorod. Sie haben wiederholt geschrieben, dass Ihnen dieses Niveau zusagt. Es mag ja sein, dass es für Ihre Aufgaben ausreicht, aber warum sich beleidigen lassen?


Sie sind nicht so gut darin, irgendeinen Unsinnüber Glühen undBestechung zu verbreiten.

Du solltest nicht so...

Ich habe fast alle von R ausprobiert, und dieses Glühen ist am effektivsten.


Warum Ada und nicht GBM? zu viele vage Abstraktionen in Ihren Antworten. in Wirklichkeit wird der Gewinn nicht mehr als 5% mit mehr Übertraining sein.

Denn ich habe sie ausprobiert und nicht nur sie. Ich habe die Protokolle noch.

Ja, das Beste ist ada? Ja, um 5 %, maximal 7 % in Bezug auf den Wald. Und ich weiß nichts Besseres als das.

Und was ist "viel Übertraining"? Was soll das heißen? Was das Übertraining angeht, so kann ich mich an keinen einzigen Beitrag von Ihnen erinnern, in dem Sie zeigen, dass Ihre Modelle nicht übertrainiert sind!

Ich kann nur noch einmal betonen, dass Übertraining überhaupt nicht vom Modell abhängt, sondern davon:

  • Prädikatorengruppe
  • Fähigkeit, Modelle zu vergröbern

 
SanSanych Fomenko:

Auf der Ebene, auf der die Diskussion geführt wird

Ich kläre die Ebene von ALGLIB - die Ebene der Kolchose, des Dorfes in der Nähe von Nowgorod. Sie haben wiederholt geschrieben, dass Ihnen dieses Niveau zusagt. Es mag ja sein, dass es für Ihre Aufgaben ausreicht, aber warum sich beleidigen lassen?


Sie sind nicht so gut darin, irgendwelchen Unsinnüber Glühen undBestechung zu erzählen.

Du solltest nicht so...

Ich habe fast alle von R ausprobiert, und dieses Glühen ist am effektivsten.


Warum Ada und nicht GBM? Ihre Antworten sind zu viele unscharfe Abstraktionen. In der Realität wird der Gewinn nicht mehr als 5% mit mehr Übertraining betragen.

Denn ich habe sie ausprobiert und nicht nur sie. Ich habe die Protokolle noch.

Ja, das Beste ist ada? Ja, um 5 %, maximal 7 % in Bezug auf den Wald. Und ich weiß nichts Besseres als das.

Und was ist "viel Übertraining"? Was soll das heißen? Was das Übertraining angeht, so kann ich mich an keinen einzigen Beitrag von Ihnen erinnern, in dem Sie zeigen, dass Ihre Modelle nicht übertrainiert sind!

Ich kann nur noch einmal betonen, dass Übertraining überhaupt nicht vom Modell abhängt, sondern davon:

  • Prädikatorengruppe
  • die Möglichkeit, Modelle zu vergröbern.


Was ist der Unterschied zwischen Binning und Boosting? Beim Binning gibt es anfangs weniger Fitting und mehr ein Zufallselement, während beim Boosting ein Fitting auf den Resten des zweiten, dann auf dem dritten usw. durchgeführt wird. Und am Ende hat man eine totale Überausstattung. D.h. RF kann schon von Anfang an recht "grob" gemacht werden, aber das muss ich noch mal nachprüfen, ich hatte noch keine Zeit.

Alle meine Modelle werden neu trainiert :), da ich noch keine dauerhaften Muster für sie gefunden habe

Alglib hat fast alles - Faltung, PCA, Clustering, neuronales Netzwerk-Ensemble, Forrest... also, nach den Klassikern, alles ist da, was Sie sonst noch brauchen - ich verstehe nicht :) mehr moderne Dinge, natürlich nicht

Und der Autor schreibt, dass er neuronale Netze usw. nicht mit großer Ehrfurcht behandelt, sondern sie als übliche Instrumente der Kassifizierung/Regression betrachtet und sie nicht unter anderen Methoden heraushebt. Mir gefällt dieser realistische Ansatz.

Das mit dem Glühen und so weiter verstehe ich auch nicht - gibt es eine universelle Methode, um jedes Modell zu bewerten?

 
Maxim Dmitrievsky:

Was ist der Unterschied zwischen Banging und Prahlerei? Beim Banging gibt es weniger Anfangsanpassung und mehr ein Zufallselement, aber beim Prahlen wird man auf die Reste der zweiten, dann auf die dritte und so weiter angepasst. Und am Ende hat man eine totale Überausstattung. D.h. RF kann schon von Anfang an recht "grob" gemacht werden, aber das muss ich noch mal nachprüfen, ich hatte noch keine Zeit.

Alle meine Modelle werden neu trainiert :), da ich noch keine dauerhaften Muster für sie gefunden habe

Alglib hat fast alles - Faltung, PCA, Clustering, neuronales Netzwerk-Ensemble, Forrest... also, nach den Klassikern, alles ist da, was Sie sonst noch brauchen - ich verstehe nicht :) mehr moderne Dinge, natürlich nicht

Und der Autor schreibt, dass er neuronale Netze usw. nicht mit großer Ehrfurcht behandelt, sondern sie als übliche Instrumente der Kassifizierung/Regression betrachtet und sie nicht unter anderen Methoden heraushebt. Mir gefällt dieser realistische Ansatz.

Was das Annealing usw. angeht, so verstehe ich es auch nicht - ist es eine universelle Methode für alle Modelle? Jedes Modell sollte seine eigene Art der Bewertung haben, mit der dieses spezielle Ding bestmöglich trainiert werden kann

Ich habe mehrmals versucht, Ihnen einige elementare Dinge aus meiner Sicht zu erklären. Ich habe versagt.


Ich kann nur raten: Verbringen Sie ein paar Monate auf caret und Sie werden eine andere Denkweise, eine qualitativ andere Sichtweise haben.

 
Maxim Dmitrievsky:

Was das Annealing usw. betrifft, so ist auch hier nicht klar, ob es sich um eine universelle Methode für alle Modelle handelt oder nicht. Jedes Modell sollte seine eigene Bewertungsmethode haben, mit der es am besten trainiert werden kann.

Glühen ist Glühen in Afrika, und die Ziele sind in etwa dieselben. Ermöglicht es dem Modell, nicht lokale, sondern globale Minima zu finden.

Ich weiß nicht, wie es bei ADA ist, aber bei NS liefert das Glühen sehr gute Ergebnisse. Ich mag das eingebaute System nicht, weil die Glühparameter im Voraus festgelegt werden müssen. Deshalb habe ich manuell geglüht und die Parameter auf der Grundlage der Ergebnisse früherer Lernprozesse geändert.

HZZ Übrigens, mehr oder weniger komplizierte NS ohne Glühen lehren im Allgemeinen nicht wirklich etwas.

 
Maxim Dmitrievsky:

ja, aber es ist so überlegen, dass ich es in diesem Stadium nicht einbeziehen werde :) + er schrieb, dass es unmöglich ist, mehr als 20% pro Jahr zu verdienen... Ich denke, man sollte immer mit solchen Aussagen beginnen und dann ins Detail gehen :)

Maxim, hör auf zu rauchen. Die Worte einer anderen Person aus dem Zusammenhang reißen, sie anderen zuschreiben, usw.
+ Teil des Kommentars gelöscht. Auch die Urheberschaft des Wortes Klapperschlange sollte nicht Fa (Fomenko) zugeschrieben werden.)

 
Eidechse_:

Maximka, hör auf zu rauchen. Dinge aus dem Zusammenhang reißen, die Worte anderer Leute anderen zuschreiben, usw. + einige der Kommentare wurden gelöscht.
+ einige der Kommentare wurden gelöscht. Auch nicht zuschreiben Urheberschaft des Wortes Klapperschlange Fa (Fomenko)).


Ich sage nur :) was du im Kopf hast, liegt dir auf der Zunge

und dann wird etwas auftauchen... der Arbeitsablauf ist unpersönlich.

Ich habe mich mit dem Klappern geirrt.) SanSanych schrieb einmal etwas Ähnliches... Unsinn oder so ähnlich

 

(Aus Faulheit und völligem Mangel an Ideen für die weitere Arbeit beschloss ich, etwas Neues zu lernen, natürlich für mich selbst - vielleicht ist es schon sehr alt). Ich habe mit RF angefangen und bin über RF zu Python gekommen, da es (wie man sagt) in beide Richtungen mit meiner SciLab-Software kompatibel ist. Jetzt bin ich gekommen, um Pakete für Python zu überprüfen.

Insgesamt gibt es mehr als 120.000 Pakete. Von ihnen über maschinelles Lernen - etwa 70, über neuronale Netze, einschließlich Deep Learning - etwa 70. Möglicherweise gibt es noch viel mehr - ich habe die Rubriken durchsucht und einige Pakete könnten in anderen Abschnitten erscheinen.

Dabei sind die von anderen Unternehmen direkt vertriebenen Pakete nicht mitgezählt. Es gibt auch viele solcher Pakete, auch zu Themen, die für uns interessant sind - ich habe sie selbst gesehen, darunter das Verteidigungsministerium, die Nationalversammlung der RF und die ADA.

Unter anderem gibt es maschinelles Lernen, Bäume, NS und etwas, das mit ADA zu tun hat.

Viele Pakete werden in C/C++ erstellt, so dass man sich über die Leistung keine Gedanken machen muss - Python ist nur eine Schnittstelle (Skriptsprache). Das gilt übrigens auch für R.

Alles in allem habe ich eine interessante Zeit).

 
Maxim Dmitrievsky:

Warum Ada und nicht GBM? Es gibt zu viele vage Abstraktionen in Ihren Antworten. In Wirklichkeit würde der Gewinn nicht mehr als 5% mit mehr Übertraining betragen.

Bei der Benotung ist es sehr üblich, die "Genauigkeit" - den Prozentsatz der richtigen Antworten - zur Bewertung eines Modells heranzuziehen. Meiner Meinung nach ist dies eine der schwächsten und unangemessensten Bewertungen von Handelsmodellen und sollte vermieden werden. Ich habe hier im Thread vorgeschlagen, eine Reihe anderer Methoden auszuprobieren - kappa, f-score, logloss.

Ada in R (vielleicht nicht nur in R) verwendet eine etwas andere eingebaute Klassifikationsmodell-Schätzung beim Training, die im Vergleich zur "Genauigkeit" viel besser ist.

 
Yuriy Asaulenko:

(Aus Faulheit und völligem Mangel an Ideen für die weitere Arbeit beschloss ich, etwas Neues zu lernen, für mich selbst natürlich - es mag schon sehr alt sein). Ich habe mit RF angefangen und bin über RF zu Python gekommen, da es (wie man sagt) in beide Richtungen mit meiner SciLab-Software kompatibel ist. Jetzt bin ich zu den Paketbewertungen gekommen.

Insgesamt gibt es mehr als 120.000 Pakete. Davon etwa 70 über maschinelles Lernen und etwa 70 über neuronale Netze, einschließlich Deep Learning. Wahrscheinlich gibt es noch viel mehr - ich habe nach Rubriken gesucht und einige Pakete könnten in anderen Abschnitten erscheinen.

Dabei sind die von anderen Unternehmen direkt vertriebenen Pakete nicht mitgezählt. Es gibt auch viele solcher Pakete, auch zu Themen, die für uns interessant sind - ich habe sie selbst gesehen, darunter das Verteidigungsministerium, die Nationalversammlung der RF und die ADA.

Unter anderem gibt es Unternehmen für maschinelles Lernen, Bäume, NS und etwas, das mit ADA zu tun hat.

Viele Pakete werden in C/C++ erstellt, so dass man sich um die Leistung keine Sorgen machen muss - Python ist nur eine Schnittstelle (Skriptsprache). Das gilt auch für R.

Alles in allem habe ich eine interessante Zeit).

mehr von diesem Zeug https://cloud.google.com/datalab/

Tolles Ding, AutoML entwickelt sich auch dort - der Dienst holt sich ein Modell für bestimmte Aufgaben von selbst

Cloud Datalab - Interactive Data Insights Tool  |  Google Cloud Platform
Cloud Datalab - Interactive Data Insights Tool  |  Google Cloud Platform
  • cloud.google.com
Integrated Cloud Datalab simplifies data processing with Cloud BigQuery, Cloud Machine Learning Engine, Cloud Storage, and Stackdriver Monitoring. Authentication, cloud computation and source control are taken care of out-of-the-box. Multi-Language Support Cloud Datalab currently supports Python, SQL, and JavaScript (for BigQuery...
 
Dr. Trader:

Bei der Klassifizierung ist es sehr üblich, die "Genauigkeit" - den Prozentsatz der richtigen Antworten - zur Bewertung eines Modells zu verwenden. Meiner Meinung nach ist dies eine der schwächsten und unangemessensten Bewertungen von Handelsmodellen und sollte daher vermieden werden. Ich habe hier im Thread vorgeschlagen, eine Reihe anderer Methoden auszuprobieren - kappa, f-score, logloss.

Ada in R (vielleicht nicht nur in R) verwendet eine etwas andere integrierte Bewertung des Klassifizierungsmodells beim Training, die im Vergleich zur "Genauigkeit" viel besser ist.


Für den Handel im Allgemeinen ist es schwer, es auf diese Weise zu bewerten, denn es gibt Deal-Dauer und Stop-Loss-Levels sollten zu allem anderen hinzugefügt werden, und das Programm selbst retrainiert regelmäßig ... so dass es schade ist :)

Grund der Beschwerde: