Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 2945

 
Aleksey Vyazmikin #:

Aquí, entonces,


y aquí


Pero las fórmulas allí parecen ser diferentes, o escritas de una forma más completa....

La agricultura colectiva es voluntaria Pero, ¿por qué propagar la agricultura colectiva? ¿Qué más conferencias en YouTube, cuando hay documentación técnica y el código del programa. Voy a señalar que gbm en sí es sólo una parte del paquete, hay muchas otras cosas junto a la función en sí.

Aquí hay un enlace al paquete gbm

Aquí hay un enlace a la teoría

Aquí hay un enlace al manual

Y aquí está la lista de literatura sobre gbm.

Referencias Y. Freund y R.E. Schapire (1997) "A decision-theoretic generalisation of on-line learning and an application to boosting," Journal of Computer and System Sciences, 55(1):119-139.

G. Ridgeway (1999). "The state of boosting", Computing Science and Statistics 31:172-181.

J.H. Friedman, T. Hastie, R. Tibshirani (2000). "Additive Logistic Regression: a Statistical View of Boosting," Annals of Statistics 28(2):337-374.

J.H. Friedman (2001). "Greedy Function Approximation: A Gradient Boosting Machine," Annals of Statistics 29(5):1189-1232.

J.H. Friedman (2002). "Stochastic Gradient Boosting", Computational Statistics and Data Analysis 38(4):367-378.

B. Kriegler (2007). Cost-Sensitive Stochastic Gradient Boosting Within a Quantitative Regression Framework. Tesis doctoral. University of California at Los Angeles, Los Angeles, CA, USA. Asesor(es): Richard A. Berk. urlhttps://dl.acm.org/citation.cfm?id=1354603.

C. Burges (2010). "From RankNet to LambdaRank to LambdaMART: An Overview", Informe técnico de Microsoft Research MSR-TR-2010-82.

gbm: Generalized Boosted Regression Models
gbm: Generalized Boosted Regression Models
  • cran.r-project.org
An implementation of extensions to Freund and Schapire's AdaBoost algorithm and Friedman's gradient boosting machine. Includes regression methods for least squares, absolute loss, t-distribution loss, quantile regression, logistic, multinomial logistic, Poisson, Cox proportional hazards partial likelihood, AdaBoost exponential loss, Huberized hinge loss, and Learning to Rank measures (LambdaMart). Originally developed by Greg Ridgeway.
 
Aleksey Vyazmikin #:

Aquí, entonces,


y aquí


Pero las fórmulas allí parecen ser diferentes, o escritas de una forma más completa....

Del mismo modo para xgboost

xgboost: Extreme Gradient Boosting
xgboost: Extreme Gradient Boosting
  • cran.r-project.org
Extreme Gradient Boosting, which is an efficient implementation of the gradient boosting framework from Chen & Guestrin (2016) < doi:10.1145/2939672.2939785 >. This package is its R interface. The package includes efficient linear model solver and tree learning algorithms. The package can automatically do parallel computation on a single machine which could be more than 10 times faster than existing gradient boosting packages. It supports various objective functions, including regression, classification and ranking. The package is made to be extensible, so that users are also allowed to define their own objectives easily.
 
СанСаныч Фоменко #:

La agricultura colectiva es voluntaria. Pero, ¿por qué hacer propaganda de los koljoses? Qué conferencias en YouTube, cuando hay documentación técnica y el código del programa. Voy a señalar que gbm en sí es sólo una parte del paquete, hay muchas otras cosas junto a la función en sí.


Aquí hay un enlace a la teoría

Lo que se necesita es una explicación, no sólo fórmulas, por eso se sugiere explicar a una persona a través de la percepción del profesor sobre el material.

Y en el enlace no vi la teoría con fórmulas.

 
Aleksey Vyazmikin #:

Lo que se necesita es una explicación, no sólo fórmulas, por lo que se sugiere la explicación humana a través de la percepción del material por parte del conferenciante.

Y en el enlace no vi la teoría con fórmulas.

No tanto por ti, que no quieres ver a bocajarro, como por otros a los que les encanta la teoría.

Y lo más importante, no entiendes la diferencia entre bla bla bla en youtube y una herramienta de trabajo de la teoría al código probado por muchas personas.

Archivos adjuntos:
gbm.zip  257 kb
 
Aleksey Nikolayev #:

El modelo se ejecuta en el script mql5, pero no se ejecuta en python porque el paquete onnxruntime no está instalado.

El paquete onnxruntime no está instalado en python 3.11 todavía. He instalado python 3.10, en el que todo está instalado y la salida funciona.

 
СанСаныч Фоменко #:

No tanto para ti, que no quieres ver a bocajarro, como para otros a los que les encanta la teoría.

Y lo más importante, no entiendes la diferencia entre bla bla bla en youtube y una herramienta de trabajo de la teoría al código probado por muchas personas.

¿Por qué arrogancia? Será mejor que me muestres donde lo has descargado, yo personalmente lo he vuelto a mirar y no lo he entendido.

Hm, ¿por qué necesitamos profesores en los institutos?

 
Acerca del aprendizaje por refuerzo
 
mytarmailS #:
Acerca del aprendizaje por refuerzo
h ttps://youtu.be/I-wd3ZUrReg

En psicología se llama proyección....

Y entonces, bueno, sí, es exactamente como él dice y se produce el entrenamiento de los modelos: se recuerda lo que se imagina.

 

Ya no se necesitan bibliotecas ONNX Runtime de terceros para el terminal.

Ahora los modelos onnx pueden ejecutarse en cualquier plataforma en la que se ejecuten el terminal y el comprobador. Estará disponible en la próxima beta.

 
Renat Fatkhullin ejecutarse en cualquier plataforma en la que se ejecuten el terminal y el comprobador. Estará disponible en la próxima beta.

Estupendo. ¿Así que puedes seguir utilizando semester?