Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 1535

 
Maxim Dmitrievsky:

incrementos

Este fin de semana terminaré el conector y lo pondré a prueba. Tengo previsto subir el modelo a la nube y recuperar las señales del terminal. Voy a poner el modelo en la nube y tomar las señales del terminal, luego también se puede probar, quien quiera. Puedo enviar el Cliente mt5 más tarde
Para empezar, sería interesante utilizar sólo la demo durante un par de meses.
Entonces invertiría en copiar o repetir el método.
Mis experimentos con Alglib forest y single tree con incrementos de precio en la entrada y con TP/SL objetivo - no mostraron nada interesante.
 
elibrarius:
Para empezar, es interesante ver la demo durante un par de meses.
Y luego invertir en copiar o repetir el método.
Mis experimentos en alglib forest y single tree con incrementos de precio de entrada y objetivo marcado por TP/SL - no mostraron nada interesante.

Sólo llegué al punto de construir adecuadamente los objetivos después de un año, y mediante el cambio de sus parámetros se puede cambiar acuraci de una manera predecible

en la demostración, sí, las pruebas se mostrarán.

alglib forest tiene un problema que no comprendo: cuantas más muestras tiene, más se sobreentrena

quizás tenga sentido hacer una furgoneta caliente para ello, es decir, convertir las características en categóricas. Los árboles no serían tan grandes
 
Maxim Dmitrievsky:

alglib forest tiene un problema que no comprendo: cuantas más muestras, más sobreentrena

tal vez tenga sentido hacer una furgoneta caliente para ello, es decir, convertir los rasgos en categóricos. Los árboles no serán tan grandes

sobre el tema

Algunos escriben que el vanchot es malo para los andamios porque provoca árboles asimétricos, otros escriben que evita el sobrepaso de los pies. Escoge la segunda :)

https://www.ncbi.nlm.nih.gov/pmc/articles/PMC6368971/

Splitting on categorical predictors in random forests
Splitting on categorical predictors in random forests
  • www.ncbi.nlm.nih.gov
This is an open access article distributed under the terms of the Creative Commons Attribution License, which permits unrestricted use, distribution, reproduction and adaptation in any medium and for any purpose provided that it is properly attributed. For attribution, the original author(s), title, publication source (PeerJ) and either DOI or...
 
Maxim Dmitrievsky:

de hecho

Algunos escriben que el vanchot es malo para los bosques porque provoca la asimetría de los árboles, otros escriben que evita el sobrepaso de los pies. Escoge la segunda :)

https://www.ncbi.nlm.nih.gov/pmc/articles/PMC6368971/

Puede simplemente discretizar los datos de entrada, por ejemplo, convertir 5 dígitos en 4 dígitos. Y los datos ya estarán en grupos de 10.
O, como he sugerido antes, se puede construir en el bosque alglib para detener la ramificación cuando se alcanza la profundidad deseada o el número de ejemplos en la hoja.

 
elibrarius:

Puede simplemente discretizar los datos de entrada, por ejemplo, convertir un valor de 5 dígitos en uno de 4. Y los datos ya estarán en grupos de 10.
O como he sugerido antes, puede construir en el bosque alglib para detener la ramificación cuando la profundidad deseada o el número de ejemplos en la lista se alcanza.

esto es diferente, tienes que hacer categórico para que sus valores no se puedan comparar entre sí

Luego me pongo con el artículo, lo he descontado para no olvidarlo
 
Maxim Dmitrievsky:

Las grandes empresas como Yandex trabajan y hacen cosas. Dicen que lo hagas y estarás bien. Hazlo así y no hagas trabajos de aficionado. De lo contrario, se ahogará en la redacción y los diferentes enfoques.

Muestra el cambio a medida que avanza el gradiente, construyendo árboles

Ahí van los cambios cuando se añade un árbol, cierto, mientras que necesito mirar la muestra, como si se añadiera una nueva línea a la muestra - probablemente para poder entender qué áreas/situaciones resultan difíciles de aprender, y en consecuencia pensar en predictores que puedan superar estas áreas difíciles de aprender.

 
elibrarius:
¡No está mal! Aumenta los volúmenes y ya se puede ganar algo)

Así se seleccionan las hojas y se combinan en un modelo para aumentar el volumen, que es como se aumenta el número de entradas, es decir, el Recall.

Quizá este método también funcione con su muestra, pero si se acelerara...

Tales resultados son dados por el árbol con profundidad de 5-7 divisiones, pero revela cierto patrón solamente - generalmente 3-4 hojas van a -1 y 1, y el resto a cero.

 
Maxim Dmitrievsky:

incrementos

¿Cuántos predictores hay en total?

 
elibrarius:

Puede simplemente discretizar los datos de entrada, por ejemplo, convertir 5 dígitos en 4 dígitos. Y los datos ya estarán en grupos de 10.
O, como he sugerido antes, se puede construir en el bosque alglib para detener la ramificación cuando se alcanza la profundidad deseada o el número de ejemplos en la lista.

Por supuesto, hay que podar o simplemente prohibir la ramificación por número de ejemplos (completitud - Recall) en una sola hoja. Además, los árboles pueden ser descartados si sus valores de precisión y exhaustividad están por debajo del zócalo.

 
Maxim Dmitrievsky:

esto es diferente, es necesario hacer categórica para que sus valores no se pueden comparar entre sí

Luego me pongo con el artículo, lo he descargado para no olvidarlo

Por cierto, ¿cuáles son sus parámetros para el entrenamiento del modelo?

Razón de la queja: