Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 2945

 
Ich liebe R, für mich ist es die beste Sprache der Welt, aber die ständige Werbung in jedem Beitrag von Sanych macht mich wirklich krank.
 
Stanislav Korotky #:

Nein, es ist leer. Ich habe vergessen zu erwähnen, dass es um Bousting geht.

Also, hier,


und hier.


Aber die Formeln dort scheinen anders zu sein, oder in einer vollständigeren Form geschrieben....

 
Aleksey Vyazmikin #:

Also, hier,


und hier


Aber die Formeln dort scheinen anders zu sein, oder in einer vollständigeren Form geschrieben....

Die kollektive Landwirtschaft ist freiwillig! Aber warum die kollektive Landwirtschaft propagieren? Wozu noch Vorträge auf YouTube, wenn es technische Unterlagen und Programmcode gibt. Ich möchte anmerken, dass gbm selbst nur ein Teil des Pakets ist, es gibt viele andere Dinge neben der Funktion selbst.

Hier ist ein Link zum gbm-Paket

Hier ist ein Link zur Theorie

Hier ist ein Link zum Handbuch

Und hier ist die Liste der Literatur über gbm.

Referenzen Y. Freund und R.E. Schapire (1997) "A decision-theoretic generalisation of on-line learning and an application to boosting," Journal of Computer and System Sciences, 55(1):119-139.

G. Ridgeway (1999). "Der Stand des Boosting," Computing Science and Statistics 31:172-181.

J.H. Friedman, T. Hastie, R. Tibshirani (2000). "Additive logistische Regression: eine statistische Betrachtung von Boosting", Annals of Statistics 28(2):337-374.

J.H. Friedman (2001). "Greedy Function Approximation: A Gradient Boosting Machine", Annals of Statistics 29(5):1189-1232.

J.H. Friedman (2002). "Stochastic Gradient Boosting", Computergestützte Statistik und Datenanalyse 38(4):367-378.

B. Kriegler (2007). Kostensensitives Stochastic Gradient Boosting innerhalb eines quantitativen Regressionsrahmens. Ph.D. Dissertation. Universität von Kalifornien in Los Angeles, Los Angeles, CA, USA. Betreuer: Richard A. Berk. urlhttps://dl.acm.org/citation.cfm?id=1354603.

C. Burges (2010). "Von RankNet zu LambdaRank zu LambdaMART: Ein Überblick", Microsoft Research Technical Report MSR-TR-2010-82

gbm: Generalized Boosted Regression Models
gbm: Generalized Boosted Regression Models
  • cran.r-project.org
An implementation of extensions to Freund and Schapire's AdaBoost algorithm and Friedman's gradient boosting machine. Includes regression methods for least squares, absolute loss, t-distribution loss, quantile regression, logistic, multinomial logistic, Poisson, Cox proportional hazards partial likelihood, AdaBoost exponential loss, Huberized hinge loss, and Learning to Rank measures (LambdaMart). Originally developed by Greg Ridgeway.
 
Aleksey Vyazmikin #:

Also, hier,


und hier


Aber die Formeln dort scheinen anders zu sein, oder in einer vollständigeren Form geschrieben....

Ähnliches gilt für xgboost

xgboost: Extreme Gradient Boosting
xgboost: Extreme Gradient Boosting
  • cran.r-project.org
Extreme Gradient Boosting, which is an efficient implementation of the gradient boosting framework from Chen & Guestrin (2016) < doi:10.1145/2939672.2939785 >. This package is its R interface. The package includes efficient linear model solver and tree learning algorithms. The package can automatically do parallel computation on a single machine which could be more than 10 times faster than existing gradient boosting packages. It supports various objective functions, including regression, classification and ranking. The package is made to be extensible, so that users are also allowed to define their own objectives easily.
 
СанСаныч Фоменко #:

Die kollektive Landwirtschaft ist freiwillig! Aber warum die Kolchose propagieren? Was für Vorträge auf YouTube, wenn es technische Dokumentation und Programmcode gibt. Ich möchte anmerken, dass gbm selbst nur ein Teil des Pakets ist, neben der Funktion selbst gibt es noch viele andere Dinge.


Hier ist ein Link zur Theorie

Was man braucht, ist eine Erklärung, nicht nur Formeln, deshalb wird vorgeschlagen, eine Person durch die Wahrnehmung der Materie durch den Dozenten zu erklären.

Und auf dem Link habe ich die Theorie mit Formeln nicht gesehen.

 
Aleksey Vyazmikin #:

Erforderlich ist eine Erklärung, nicht nur Formeln, weshalb eine menschliche Erklärung durch die Wahrnehmung des Stoffes durch den Dozenten vorgeschlagen wird.

Und auf dem Link habe ich die Theorie mit Formeln nicht gesehen.

Nicht so sehr für Sie, der Sie nicht direkt sehen will, sondern für andere, die die Theorie lieben.

Und vor allem verstehst du nicht den Unterschied zwischen Blabla auf Youtube und einem funktionierenden Tool, das von der Theorie bis zum Code von vielen Leuten getestet wurde.

Dateien:
gbm.zip  257 kb
 
Aleksey Nikolayev #:

Das Modell läuft im mql5-Skript, aber nicht in Python, weil das onnxruntime-Paket nicht installiert ist.

Das onnxruntime-Paket ist in python 3.11 noch nicht installiert. Ich habe python 3.10 installiert, in dem alles installiert ist und die Ausgabe funktioniert.

 
СанСаныч Фоменко #:

Nicht so sehr für Sie, der Sie nicht so genau sehen will, sondern für andere, die die Theorie lieben.

Und vor allem verstehen Sie nicht den Unterschied zwischen Blabla auf Youtube und einem funktionierenden Werkzeug, das von der Theorie bis zum Code von vielen Menschen getestet wurde.

Warum Arroganz? Zeigen Sie mir lieber, wo Sie es heruntergeladen haben - ich habe selbst noch einmal nachgeschaut und habe es nicht verstanden.

Hm, warum brauchen wir Lehrer in Instituten?

 
Über Verstärkungslernen
 
mytarmailS #:
Über Verstärkungslernen
h ttps://youtu.be/I-wd3ZUrReg

In der Psychologie nennt man das Projektion....

Es ist also genau so, wie er sagt, und es werden Modelle trainiert - was man sich einbildet, wird erinnert.

Grund der Beschwerde: