Está perdiendo oportunidades comerciales:
- Aplicaciones de trading gratuitas
- 8 000+ señales para copiar
- Noticias económicas para analizar los mercados financieros
Registro
Entrada
Usted acepta la política del sitio web y las condiciones de uso
Si no tiene cuenta de usuario, regístrese
Y tiene todo el sentido del mundo ir en la dirección contraria y buscar intervalos diferentes para los distintos días de la semana. Entonces puedes aumentar el número de intervalos de modo que tengas 2-3 segmentos para cada día.
Pero no para cada uno de los días, sino simplemente tirar trozos de la semana. Ahora mismo, los trozos se tiran de los días, pero hay que tirarlos de la semana. Es decir, de cualquier intervalo de tiempo cíclico.
NS no tiene nada que ver aquí, ni siquiera hipotéticamente.
Yo hice exactamente lo mismo que tú, pero a través de la NS. Digo no a las operaciones perdedoras, sí a las rentables.
Después de una ejecución, todas las pérdidas (casi) se cancelan. Casi porque la red puede tener algún error de aproximación. Otra cosa es que la entrada no sea el tiempo (aunque por qué no), sino signos arbitrarios
En aprendizaje automático, este enfoque se denomina metapartición. Cuando el segundo modelo corrige al primero.
Está claro que esto puede simplemente mejorar el rendimiento de un buen ST, pero no se puede hacer un caramelo de g... caramelo.
hizo exactamente lo mismo que el tuyo, pero a través de la NS.
Me temo que mi tarea no fue entendida.
Me temo que mi tarea no ha sido comprendida.
Lo entiendo, sólo digo que es posible hacer lo mismo de otra manera. Cómo analizar los resultados es una cuestión aparte. Yo no lo analizaría de ninguna manera, porque no es un modelo primario, es sólo un modelo de ajuste.
no es un modelo primario, es sólo un retoque.
La tarea no es afinar, sino encontrar sentido común en cualquier TC, si es que lo hay.
Y no lo vi hasta más tarde. Resultó que cortar mucho y darlo por bueno es pura chapuza. Pero si tratas muchos cortes como una etapa intermedia del análisis de un buen 2-3 intervalos, las cosas se vuelven algo diferentes.
No veo qué uso se puede hacer de esos datos en bruto. ¿Intentar agrupar unos cuantos intervalos vecinos?
Sólo que no para cada uno de los días, pero sólo trozos de la semana. Ahora mismo el chunking se hace a partir de días, pero necesitamos hacerlo a partir de una semana. Es decir, a partir de cualquier intervalo de tiempo cíclico.
Eso es exactamente lo que tenía en mente.
No veo qué utilidad se puede dar a unos datos tan brutos. ¿Intentar agrupar varios intervalos vecinos?
Ahora mismo el criterio de optimización sería la suma de los beneficios en 20 intervalos. Y necesito seleccionar intervalos de estos 20 intervalos en los que la probabilidad de ajuste sea menor. Y, en consecuencia, el criterio sólo debería tenerlos en cuenta a ellos.
Y necesito seleccionar intervalos de esos 20 en los que la probabilidad de ajuste sea menor.
¿Cómo es posible? ¿Un lobo adelantado incorporado?
¿De qué manera es posible? ¿Un lobo adelantado incorporado?
Si, por ejemplo, veo 500 operaciones entre las 12:13-14:05 con un FP de 2,4, tiendo a considerar la situación al menos interesante.
Si, por ejemplo, veo 500 operaciones en el intervalo 12:13-14:05 con PF 2.4, tiendo a considerar la situación al menos interesante.
Si este intervalo destaca sobre el resto, se resaltará al recortar 2 gráficos (no 20).
Si no, ¿por qué debería considerarse por separado?