Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 3163
Está perdiendo oportunidades comerciales:
- Aplicaciones de trading gratuitas
- 8 000+ señales para copiar
- Noticias económicas para analizar los mercados financieros
Registro
Entrada
Usted acepta la política del sitio web y las condiciones de uso
Si no tiene cuenta de usuario, regístrese
He encontrado otro problema.
En general hay un ajuste no sólo al tamaño de la ventana, sino también al comienzo de la ventana. Pequeñas desviaciones marcan una gran diferencia en el resultado. No hay características fuertes, todo está en el límite de 50/50 ± 1-2%.He encontrado una buena variante con la formación una vez a la semana en 5000 líneas de M5 (3,5 semanas). Y decidió cambiar todos los datos a 300 líneas - como la formación no los sábados, pero los martes. Como resultado, el modelo en OOS de rentable se convirtió en no rentable.
Estas nuevas 300 líneas ( alrededor del 8% del total) sacó otras fichas y otras divisiones, que se convirtió en mejor para los datos ligeramente cambiado.
Repitió el cambio por 300 para 50000 filas. Parecería ser sólo el 0,8% de las nuevas filas. Pero los cambios en el OOS también son significativos, aunque no tan fuertes como con 5000 filas.
¿Qué modelo?
¿Qué modelo?
madera
Interesante artículo sobre árboles y aprendizaje por refuerzo en ellos.....
https://www.ncbi.nlm.nih.gov/pmc/articles/PMC4760114/
============================
idea principal
2.2 Motivación
En resumen, el modelo de árbol de aprendizaje por refuerzo (RLT) propuesto es un modelo de bosque aleatorio tradicional con un tipo especial de selección de variables de separación y supresión de variables de ruido. Estas características se consiguen implementando el mecanismo de aprendizaje por refuerzo en cada nodo interno.Consideremos primero un ejemplo de damero que demuestra el impacto del aprendizaje por refuerzo: Supongamos que X ~ uni f [ 0, 1 ] p y E ( Y | X ) = I { I ( I ( X (1) 0 ,5) = I ( X (2) >0 ,5)} , de modo que p 1 = 2 y p 2 = p -2 . La dificultad de estimar esta estructura mediante los bosques aleatorios habituales es que ninguna de las dos variables fuertes muestra efectos insignificantes.La recompensa inmediata , es decir, la reducción de los errores de predicción, de la partición en estas dos variables es asintóticamente idéntica a la recompensa obtenida por la partición en cualquiera de las variables de ruido. Por lo tanto, cuando p es relativamente grande, es poco probable que se elija X (1) o X (2) como variable de separación. Sin embargo, si sabemos de antemano que la división en X (1 ) , o X ( 2) producirá beneficios futuros significativos para divisiones posteriores, podríamos forzar con confianza una división en cualquiera de las variables independientemente de las recompensas inmediatas.
=========================
Bueno, y paquete en R en consecuencia
https://cran.r-project.org/web/packages/RLT/RLT.pdf
madera
¿Cuál es el nombre exacto? ¿O es de fabricación casera?
Llevo muchos años utilizando diferentes modelos "de madera" y nunca he visto nada parecido.
Puedo forzarla, pero no sé por qué fiche se debe X1, X2, o X157
¿Cuál es el nombre exacto? ¿O es casero?
Llevo muchos años utilizando diferentes modelos "de madera" y nunca he visto nada parecido.
Hay que encontrar un coreset que tenga un patrón y entrenar sólo sobre él. Puede ser en cualquier trozo del grafo, se busca mediante enumeración. De lo contrario, el ruido no permite que el modelo se concentre. La tendencia actual son los coresets, pequeñas submuestras representativas. Es bastante sencillo y da resultados.
¿Cómo buscar? Recorrer todos los trozos (por ejemplo, 100 por 5000 pp) y ver con qué éxito predicen las otras 500.000 filas de ese modelo...
¿Cómo buscar? ¿Recorrer todos los trozos (por ejemplo, 100 por 5000 pp) y ver con qué éxito predicen las otras 500.000 filas de ese modelo?
Sí, puedes sacar muestras al azar en vez de trozos seguidos, eso es más correcto.
Se me saltaron las lágrimas de tanto reír).
Le pedí a Bard que escribiera en ruso, escribió con un error, suele pasar. El ruso no es mi lengua materna, sólo lo uso aquí en esencia...
y me contestó).
¿Entiendes?
Empezó a trolearme )))
Eso es brutal))))
No te está trolleando.
Escribiste ruSki - que es "ruso" en serbio.
Por eso te escribe en serbio.