交易中的机器学习:理论、模型、实践和算法交易 - 页 2945

 
我喜欢 R 语言,对我来说它是世界上最好的语言,但 Sanych 在他的每篇文章中都不断出现广告,这让我非常反感。
 
Stanislav Korotky #:

不,它是空的。我忘了说了,是关于 "蹦蹦跳 "的。

这里


和这里。


但那里的公式似乎有所不同,或者写得更完整....

 
Aleksey Vyazmikin #:

那就给你、


和这里


但那里的公式似乎有所不同,或者写得更完整....

集体农庄是自愿的!但为什么要宣传集体农庄?既然有技术文档和程序代码,YouTube 上还有什么更多的讲座?我要指出的是,gbm 本身只是软件包的一部分,除了功能本身,还有许多其他东西。

下面是 gbm 软件包的 链接

这里是理论的链接

这是手册链接

这里是有关 gbm 的文献列表。

参考文献Freund 和 R.E.Schapire (1997) "A decision-theoretical generalisation of on-line learning and an application to boosting," Journal of Computer and System Sciences, 55(1):119-139.

G.Ridgeway (1999)."The state of boosting," Computing Science and Statistics 31:172-181.

J.H. Friedman, T. Hastie (1999).Friedman, T. Hastie, R. Tibshirani (2000)."Additive Logistic Regression: a Statistical View of Boosting," Annals of Statistics 28(2):337-374.

J.H. Friedman (2001).Friedman (2001)."Greedy Function Approximation: A Gradient Boosting Machine," Annals of Statistics 29(5):1189-1232.

J.H. Friedman (2002).Friedman (2002)."Stochastic Gradient Boosting," Computational Statistics and Data Analysis 38(4):367-378.

B.Kriegler (2007).定量回归框架内的成本敏感随机梯度提升。Ph.D. Dissertation.美国加州大学洛杉矶分校。Advisor(s) Richard A. Berk.urlhttps://dl.acm.org/citation.cfm?id=1354603.

C.Burges (2010)."从 RankNet 到 LambdaRank 再到 LambdaMART:概述》,微软研究院技术报告 MSR-TR-2010-82

gbm: Generalized Boosted Regression Models
gbm: Generalized Boosted Regression Models
  • cran.r-project.org
An implementation of extensions to Freund and Schapire's AdaBoost algorithm and Friedman's gradient boosting machine. Includes regression methods for least squares, absolute loss, t-distribution loss, quantile regression, logistic, multinomial logistic, Poisson, Cox proportional hazards partial likelihood, AdaBoost exponential loss, Huberized hinge loss, and Learning to Rank measures (LambdaMart). Originally developed by Greg Ridgeway.
 
Aleksey Vyazmikin #:

那就给你、


和这里


但那里的公式似乎有所不同,或者写得更完整....

xgboost类似

xgboost: Extreme Gradient Boosting
xgboost: Extreme Gradient Boosting
  • cran.r-project.org
Extreme Gradient Boosting, which is an efficient implementation of the gradient boosting framework from Chen & Guestrin (2016) < doi:10.1145/2939672.2939785 >. This package is its R interface. The package includes efficient linear model solver and tree learning algorithms. The package can automatically do parallel computation on a single machine which could be more than 10 times faster than existing gradient boosting packages. It supports various objective functions, including regression, classification and ranking. The package is made to be extensible, so that users are also allowed to define their own objectives easily.
 
СанСаныч Фоменко #:

集体农庄是自愿的!但为什么要宣传集体农庄?既然有技术文档和程序代码,为什么还要在 YouTube 上讲课?我要指出的是,gbm 本身只是软件包的一部分,除了功能本身,还有许多其他东西。


这里有一个理论链接

需要的是解释,而不仅仅是公式,这就是为什么建议通过讲师对材料的感知来解释一个人。

在链接中,我没有看到带公式的理论。

 
Aleksey Vyazmikin #:

所需要的是解释,而不仅仅是公式,这就是为什么建议通过讲师对材料的感知进行人为解释的原因。

在链接中,我没有看到有公式的理论。

与其说是你不想看到直截了当的理论,不如说是其他人喜欢理论。

最重要的是,你不明白 Youtube 上的 yada yada 和经过多人测试的从理论到代码的工作工具之间的区别。

附加的文件:
gbm.zip  257 kb
 
Aleksey Nikolayev #:

模型在 mql5 脚本中运行,但由于未安装 onnxruntime 软件包,因此无法在 python 中运行。

在 python 3.11 中尚未安装onnxruntime 软件包我安装了 python 3.10,其中所有内容都已安装,输出也能正常运行。

 
СанСаныч Фоменко #:

与其说是为了不想直面问题的你,不如说是为了其他喜欢这个理论的人。

最重要的是,你不明白 Youtube 上的 "Yada Yada Yada "和经过多人测试的从理论到代码的工作工具之间的区别。

为什么要傲慢?你最好给我看看你在哪里下载的--我亲自看了一遍,也没看懂。

嗯,我们为什么需要学院里的老师?

 
关于强化学习
 
mytarmailS #:
关于强化学习
https://youtu.be/I-wd3ZUrReg

在心理学中,这叫投射....

因此,嗯,是的,就像他说的那样,模型的训练发生了--所幻想的东西被记住了。