Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 3163

 
Forester #:

He encontrado otro problema.
He encontrado una buena variante con la formación una vez a la semana en 5000 líneas de M5 (3,5 semanas). Y decidió cambiar todos los datos a 300 líneas - como la formación no los sábados, pero los martes. Como resultado, el modelo en OOS de rentable se convirtió en no rentable.
Estas nuevas 300 líneas ( alrededor del 8% del total) sacó otras fichas y otras divisiones, que se convirtió en mejor para los datos ligeramente cambiado.
Repitió el cambio por 300 para 50000 filas. Parecería ser sólo el 0,8% de las nuevas filas. Pero los cambios en el OOS también son significativos, aunque no tan fuertes como con 5000 filas.

En general hay un ajuste no sólo al tamaño de la ventana, sino también al comienzo de la ventana. Pequeñas desviaciones marcan una gran diferencia en el resultado. No hay características fuertes, todo está en el límite de 50/50 ± 1-2%.

¿Qué modelo?

 
СанСаныч Фоменко #:

¿Qué modelo?

de madera
[Eliminado]  
Forester #:
madera
Necesitas encontrar un coreset que tenga un patrón, y sólo entrenar en él. Puede ser en cualquier trozo del gráfico, se puede encontrar a través de la superposición. De lo contrario, el ruido no permite que el modelo se concentre. La tendencia actual son los coresets: pequeñas submuestras representativas. Es bastante sencillo y da resultados.
 

Interesante artículo sobre árboles y aprendizaje por refuerzo en ellos.....

https://www.ncbi.nlm.nih.gov/pmc/articles/PMC4760114/

============================

idea principal

2.2 Motivación

En resumen, el modelo de árbol de aprendizaje por refuerzo (RLT) propuesto es un modelo de bosque aleatorio tradicional con un tipo especial de selección de variables de separación y supresión de variables de ruido. Estas características se consiguen implementando el mecanismo de aprendizaje por refuerzo en cada nodo interno.Consideremos primero un ejemplo de damero que demuestra el impacto del aprendizaje por refuerzo: Supongamos que X ~ uni f [ 0, 1 ] p y E ( Y | X ) = I { I ( I ( X (1) 0 ,5) = I ( X (2) >0 ,5)} , de modo que p 1 = 2 y p 2 = p -2 . La dificultad de estimar esta estructura mediante los bosques aleatorios habituales es que ninguna de las dos variables fuertes muestra efectos insignificantes.La recompensa inmediata , es decir, la reducción de los errores de predicción, de la partición en estas dos variables es asintóticamente idéntica a la recompensa obtenida por la partición en cualquiera de las variables de ruido. Por lo tanto, cuando p es relativamente grande, es poco probable que se elija X (1) o X (2) como variable de separación. Sin embargo, si sabemos de antemano que la división en X (1 ) , o X ( 2) producirá beneficios futuros significativos para divisiones posteriores, podríamos forzar con confianza una división en cualquiera de las variables independientemente de las recompensas inmediatas.

=========================

Bueno, y paquete en R en consecuencia

https://cran.r-project.org/web/packages/RLT/RLT.pdf

Reinforcement Learning Trees
Reinforcement Learning Trees
  • www.ncbi.nlm.nih.gov
In this paper, we introduce a new type of tree-based method, reinforcement learning trees (RLT), which exhibits significantly improved performance over traditional methods such as random forests (Breiman, 2001) under high-dimensional settings. The innovations are three-fold. First, the new method implements reinforcement learning at each...
 
Forester #:
madera

¿Cuál es el nombre exacto? ¿O es de fabricación casera?

Llevo muchos años utilizando diferentes modelos "de madera" y nunca he visto nada parecido.

 
mytarmailS #: Sin embargo, si sabemos de antemano que la división en X (1) , o X (2) producirá importantes beneficios futuros para divisiones posteriores, podríamos forzar con confianza una división en cualquier variable independientemente de las recompensas inmediatas.

Puedo forzarla, pero no sé por qué fiche se debe X1, X2, o X157

 
СанСаныч Фоменко #:

¿Cuál es el nombre exacto? ¿O es casero?

Llevo muchos años utilizando diferentes modelos "de madera" y nunca he visto nada parecido.

Hecho en casa. Las posibilidades de experimentación no son limitadas....
 
Maxim Dmitrievsky #:
Hay que encontrar un coreset que tenga un patrón y entrenar sólo sobre él. Puede ser en cualquier trozo del grafo, se busca mediante enumeración. De lo contrario, el ruido no permite que el modelo se concentre. La tendencia actual son los coresets, pequeñas submuestras representativas. Es bastante sencillo y da resultados.

¿Cómo buscar? Recorrer todos los trozos (por ejemplo, 100 por 5000 pp) y ver con qué éxito predicen las otras 500.000 filas de ese modelo...

[Eliminado]  
Forester #:

¿Cómo buscar? ¿Recorrer todos los trozos (por ejemplo, 100 por 5000 pp) y ver con qué éxito predicen las otras 500.000 filas de ese modelo?

Sí, puedes sacar muestras al azar en vez de trozos seguidos, eso es más correcto.

 
mytarmailS #:

Se me saltaron las lágrimas de tanto reír).

Le pedí a Bard que escribiera en ruso, escribió con un error, suele pasar. El ruso no es mi lengua materna, sólo lo uso aquí en esencia...

y me contestó).


¿Entiendes?

Empezó a trolearme )))

Eso es brutal))))

No te está trolleando.

Escribiste ruSki - que es "ruso" en serbio.

Por eso te escribe en serbio.