Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 493
Está perdiendo oportunidades comerciales:
- Aplicaciones de trading gratuitas
- 8 000+ señales para copiar
- Noticias económicas para analizar los mercados financieros
Registro
Entrada
Usted acepta la política del sitio web y las condiciones de uso
Si no tiene cuenta de usuario, regístrese
Necesitas un lobo-forward, no puedes optimizar así, el forward siempre será malo (o aleatorio) en este caso, dependiendo de en qué fase del mercado te metas, ya tengo un montón de versiones de esos sistemas en el backtest, que en el forward funcionan como una moneda) esto se llama overfitting
Tengo una docena de optimizaciones con desplazamientos mensuales. En cada mes los mejores parámetros de entrada difieren de los parámetros de otros meses. ¿Cuál de ellos debo elegir para mi trabajo?
¿Existe un algoritmo para la selección de los parámetros del sistema cuando se valora hacia delante?
Recibí una docena de optimizaciones con un desplazamiento por mes, en cada mes los mejores parámetros de entrada son diferentes de los parámetros de otros meses. ¿Y cuál elegir?
No me expresé correctamente, quise decir "algo así", es decir, un sistema auto-optimizador con algún criterio de optimización, y el mismo NS puede ser utilizado como optimizador
¿Existe un algoritmo para la selección de los parámetros del sistema en el momento de la validación?
Tengo una docena de optimizaciones con un desfase de un mes, cada mes los mejores parámetros de entrada son diferentes a los de otros meses. ¿Y cuál elegir para trabajar?
Hablando de optimización y aprendizaje. Me lleva 23 horas, sin contar las manipulaciones intermedias. Después de cada pasada (son varias épocas) cambio la muestra para el entrenamiento. No, no lo barajo, lo cambio, es decir, no muestro las mismas fotos. No hay muestras repetidas en el proceso de aprendizaje.
¿Y cuál es exactamente el algoritmo de optimización? Busca uno con el algoritmo L-BFGS, será muchas veces más rápido
y tu NS aprenderá, bueno, 100 veces más rápido, por ejemplo, no 23 horas sino 10 minutos (como toda la gente normal) :))) si tienes un simple descenso de gradiente con un paso fijo
aquí hay una comparación:
http://docplayer.ru/42578435-Issledovanie-algoritmov-obucheniya-iskusstvennoy-neyronnoy-seti-dlya-zadach-klassifikacii.html
¿Y cuál es exactamente el algoritmo de optimización? Busca uno con el algoritmo L-BFGS, será muchas veces más rápido
y tu NS aprenderá, bueno, 100 veces más rápido, por ejemplo, no 23 horas sino 10 minutos (como toda la gente normal) :))) si tienes un simple descenso de gradiente con un paso fijo
aquí hay una comparación:
http://docplayer.ru/42578435-Issledovanie-algoritmov-obucheniya-iskusstvennoy-neyronnoy-seti-dlya-zadach-klassifikacii.html
Gracias, lo leeré.
Más bien se trata de aprender, no de optimizar. No es sencillo. Ya escribí - BP estándar con recocido simulado a mano.
Probablemente algunos algoritmos sean mejores, pero sólo utilizo lo que está disponible en el entorno de desarrollo. Otros, los externos, son problemáticos.
En general, la velocidad no es crítica, si entreno una vez cada 3 meses - 23 horas es incluso ufu. Pero en una prueba de 3 meses, no se observó ninguna degradación. Probablemente funcione durante más tiempo.
Más bien aprender, no optimizar. No es sencillo. Ya he escrito - BP estándar con recocido manual simulado.
Tal vez algunos algoritmos sean mejores, pero yo sólo utilizo lo que está disponible en el entorno de desarrollo. Otros, los externos, son problemáticos.
lo que sea, el entrenamiento es la optimización de la función objetivo
Cierto, escribieron sobre el recocido, no estoy familiarizado con él, lo leeré
lo que sea, el entrenamiento es la optimización de la función objetivo
lo que sea, el entrenamiento es la optimización de la función objetivo
Cierto, escribieron sobre el recocido, no estoy familiarizado con él, lo leeré
Sí, el recocido se simula manualmente cambiando los parámetros de aprendizaje después de N épocas. Además, la secuencia de aprendizaje se sustituye completamente (no se mezcla, sino que se sustituye).
Es genial, ¿dónde puedo leer más sobre este tipo de NS? es decir, es como sin maestro, pero todavía alimentas algo a la salida?
No estoy seguro de dónde se puede leer más sobre este tipo de NS... es decir, es como si se obtuviera sin un maestro, pero todavía se alimenta algo a la salida?
Puedo leer las redes neuronales de Haykin y la teoría de Bishop en inglés - no hay traducción, pero parece estar lista.
Es muy sencillo. Se introducen operaciones aleatorias y se obtiene el resultado. Se llama método Monte Carlo y no es muy rápido en sí mismo. Y su sistematización es una cuestión de análisis sistemático.