Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 429

 
Maxim Dmitrievsky:

Olvidé poner la c) :))
El violinista no es necesario (c).
El otro día llegué a esta conclusión. Hagan caso a mi palabra de que es razonable. Error M=0,1 (no TC).
Es difícil escribir desde un teléfono móvil).
Ps ver. S. Heikin y Bishop.
 
Vladimir Perervenko:

No, no lo hacen. A continuación, una explicación (de un artículo que no puedo terminar :(

Introducción

Hoy en día, ambos enfoques se utilizan activamente en la práctica. Los experimentos comparativos [ ] de los dos enfoques no revelan ninguna ventaja significativa de uno sobre el otro, pero sin embargo hay una cosa. Las redes neuronales con preentrenamiento requieren muchos menos ejemplos para el entrenamiento y recursos computacionales, obteniendo casi los mismos resultados. Para algunos campos, esta es una ventaja muy importante.

Buena suerte

Pues ya está solucionado :) Sí, especialmente agradable es la velocidad de aprendizaje (además de la calidad de los modelos), experimentaré más adelante con perímetros de tus artículos, cuando termine de realizar mis ideas, el tema es muy interesante y rentable a veces, como en mi modesto modelo de ayer, por ejemplo :) (el lote es pequeño ya que aún está en pruebas)

Hasta ahora se sobrealimenta mucho y no funciona en intervalos largos sin reentrenar, pero en intervalos de 2-3 meses entrena (¿entra?) casi perfectamente, y una posibilidad decente de que funcione una semana después de entrenar, sólo reentreno cada semana. Sinceramente, nunca había conseguido esas curvas (a precios de cierre, no a ticks) hasta que me familiaricé con MO en el probador. Funciona eficientemente en casi todos los pares de divisas e índices (aún no he probado los de bolsa porque tengo poco historial de contratos y no quiero molestarme en pegar), por lo que puedo hacer carteras de bajo riesgo.

Ahora la tarea principal es aumentar la estabilidad en las muestras de prueba añadiendo interrelaciones no lineales, lo cual es una tarea no trivial, pero solucionable hasta cierto punto (según parece).


 
Yuriy Asaulenko:
No se necesita un violinista (c).
El otro día llegué a esta conclusión. Créame, una razonable. Error M=0,1 (no TC)
Es difícil escribir desde un teléfono móvil).
Ps ver. S. Heikin y Bishop.

Lo leeré más tarde, lo recordaré

 
Maxim Dmitrievsky:

Bien resuelto :) Sí, especialmente agradable es la velocidad de aprendizaje (además de la calidad de los modelos), voy a experimentar más adelante con perímetros de sus artículos cuando termine de aplicar sus ideas, tema muy interesante y de vez en cuando rentable, como en mi modesto modelo de ayer, por ejemplo :) (el lote es pequeño ya que aún está en pruebas)

Hasta ahora sobrealimenta demasiado y no funciona en intervalos largos sin reentrenar, pero en intervalos de 2-3 meses entrena (¿entra?) casi perfectamente, y una buena probabilidad de que funcione una semana después de entrenar, sólo reentreno cada semana. Sinceramente, nunca había conseguido esas curvas (a precios de cierre, no a ticks) hasta que me familiaricé con MO en el probador. Además, funciona bien en casi todos los pares de divisas e índices (aún no he probado los de acciones porque tengo poco historial de contratos y no quiero molestar con las colas), es decir, puedo hacer carteras de bajo riesgo.

La tarea principal en este momento es aumentar la estabilidad en las muestras de prueba añadiendo interrelaciones no lineales, es una tarea no trivial, pero solucionable hasta cierto punto (según veo).


La optimización suele dar muy buenos resultados... Pero no es tan importante.
Parece que has ejecutado la RNN de Reshetov en el real con TrendLinearReg - ¿todavía funciona, o la idea fracasó?
 
SanSanych Fomenko:

Recientemente he vuelto a los GARCHs con los que estaba familiarizado anteriormente. Lo que me ha sorprendido enormemente, tras varios años de fascinación por el aprendizaje automático, es el enorme número de publicaciones sobre la aplicación de GARCH a las series temporales financieras, incluidas las divisas.


¿Existe algo similar para las redes profundas?

No hago regresión. Sólo estoy siguiendo las novedades en este ámbito. La novedad más reciente que me gusta es el paquete profeta.

Redes profundas para la clasificación.

Buena suerte

 
elibrarius:
La optimización suele dar muy buenos resultados... pero no es tan importante.
Parece que has ejecutado la RNN de Reshetov con TrendLinearReg en el real - ¿todavía funciona o la idea no funcionó?

Cambiado los predictores, primero quería tirar ... entonces creo que algo no, tal vaca necesita a sí mismos por ahora). El marco de la MO en Reshetov se mantuvo, todo lo demás se rehace, agregó MLP - no le gustó, se necesita mucho tiempo para contar, ahora voy a añadir rand. forrest + algunas ideas más que están en el proceso ... Es decir, en general quiero un comité o lo que sería una ns educar a la otra, algo tan original siempre quieren

Pero el ángulo Reg. es bueno por sí mismo, tanto en la entrada como en la salida, si también en los gráficos logarítmicos... es un buen predictor

 
Maxim Dmitrievsky:
Cambié los predictores, al principio quería descargarlos... luego pienso que no, necesito una vaca así por ahora). Mantuve el marco de MO en Reshetov, rehice todo lo demás, añadí MLP - no me gustó, tarda demasiado en calcularse, ahora añadiré Rand Forest + algunas ideas más, que aparecen en el proceso...
No hay muchas entradas en la red Reshetov... 3-6, si le das el mismo número a MLP, también debería contar rápidamente.
 
elibrarius:
No hay muchas entradas en la red Reshetov ... 3-6, si le das la misma cantidad a la MLP, también debería contar rápido.


Pero para la MLP hay un problema con las salidas... mientras que la de Reshetov está configurada para las probabilidades basadas en los extremos del oscilador, es decir, basta con detrender correctamente el mercado, hacer algunas transformaciones y alimentarlo como una serie estacionaria.

ADEMÁS este alglibovy mLp cada vez diferente entrenado en el mismo conjunto, 1 vez corrió uno mostró, la segunda vez - otro, y así en el ciclo durante varias iteraciones (5-7) producirá diferentes valores, cómo trabajar con esto no sé. Por eso empecé a añadir más entradas (hasta 15) y empezó a aprender lentamente. Estaba usando softmax. Yo también probé los conjuntos, pero me costó mucho tiempo. Y al final, de los experimentos en azure machine learning se desprende que RF siempre da menos error que casi todos los modelos simples de MO, MLP en cambio da el mayor error como norma... Tal vez no sé cómo se cocina, pero parece que en realidad es peor y más lento, que he encontrado la confirmación de aquí de San Sanych

Es decir, si seleccionamos de entre los clasificadores simples entonces inequívocamente RF, después viene DNN y otros últimos nits, RNN y LSTM. Ir de lo simple a lo complejo :)

 
Maxim Dmitrievsky:

Pero un ángulo reg. es bueno por sí mismo como entrada y salida, si también en gráficos logarítmicos... un buen predictor

¿Qué son los gráficos de ángulo reg. y logarítmico?

 
elibrarius:

¿Qué son los ángulos de regresión y los gráficos logarítmicos?

TrendLineregr muestra el ángulo de inclinación de la línea de regresión para un número determinado de barras - es un buen indicador como predictor y como objetivo también, un sustituto de un zigzag. Es decir, elimina realmente el componente de ruido de las cotizaciones (en mi opinión).

Y los gráficos del logotipo no se toman como gráficos limpios sino como el logaritmo de los precios

Y en general el mismo Garch Figarach y Arima son el análisis de regresión, todavía no se ha inventado nada más interesante, por lo que si la gente lo utiliza también debería utilizarlo de una u otra forma.

Razón de la queja: