Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 353

 
Yuriy Asaulenko:
Si hablamos de minutos, el mercado es estadísticamente homogéneo, es decir, las estadísticas cambian poco (son estables) de una semana a otra, de un mes a otro. No lo sé, no he estudiado la cuestión en plazos más largos. Por lo que recuerdo, estás trabajando en 1 min.


15 min es el marco de tiempo base, o OHLC para 1 min, pero sigue siendo 15 min. Me gustaría usar ticks pero se optimiza muy lentamente, el probador se está escribiendo en C++ y puede estar terminado mucho más rápido

En principio, si a menudo se sobreoptimiza en periodos pequeños, se puede hacer en los minutos. No es el Grial, por supuesto, pero puedes ganar algo.


 
¿Alguien ha intentado implementar el aprendizaje Q u otros algoritmos de refuerzo? ¿Quizás haya quien los conozca? Me interesan las estadísticas, ¿en qué medida se enfrentan a la tarea de gestionar los depósitos? He encontrado un par de artículos sobre este tema, pero sus conclusiones son bastante vagas y ambiguas.
 
Tal y como prometí, he publicado en el blog un breve informe sobre la tarea de NA de reconocer el cruce de MA - NEUROSETS Y MOVIMIENTO MEDIO
 
Yuriy Asaulenko:
Tal y como prometí, he publicado en mi blog un breve informe sobre la tarea de reconocer el cruce de MA NS - NEUROSETS Y MOVING AVERAGE

En las noticias, artículos, etc. se habla de los logros de las redes neuronales, por ejemplo, que pueden distinguir gatitos de cachorros, etc. Pero, obviamente, son redes comerciales o experimentales muy caras, que los comerciantes de a pie no pueden permitirse ni desarrollar.

¿Pueden las NS de las que disponemos (por ejemplo, de R o ALGLIB) distinguir cosas primitivas como triángulos, cuadrados y círculos entre sí? Al igual que de los juegos de aprendizaje para niños de 2-3 años.

Me parece que los materiales sobre este tema se pueden ordenar en una nueva rama https://www.mql5.com/ru/forum/192779 para que (si hay un resultado y una oportunidad de repetir el experimento) se pueda encontrar y repetir, y aquí en 350 páginas ya es difícil encontrar algo...
Насколько доступные трейдерам нейросети умны?
Насколько доступные трейдерам нейросети умны?
  • 2017.05.16
  • www.mql5.com
В новостях, статьях и т.д. говорят о достижениях нейросетей, например, что они котят от щенят отличают и т.д. Но очевидно там оч...
 
elibrarius:

Las noticias, los artículos, etc. hablan de los logros de las redes neuronales, por ejemplo, que pueden distinguir gatitos de cachorros, etc. Pero aparentemente se trata de redes comerciales o experimentales muy costosas, que los comerciantes ordinarios no pueden permitirse ni desarrollar.

¿Y puede NS (por ejemplo de R o ALGLIB) distinguir cosas primitivas, como triángulos, cuadrados y círculos entre sí? Como en los juegos educativos para niños de 2-3 años.

Bueno y absolutamente difícil variante - cifras volumétricas...

No sé sobre Alglib, pero puedes hacerlo en R, necesitas una matriz de entrada de unos 16x16. Es decir, 256 neuronas por entrada). Bueno, tal vez un poco menos. En la web se pueden encontrar implementaciones listas para un problema similar.

También se puede hacer con la rotación, pero la NS será más profunda y complicada. Personalmente, paso)).

Aunque, para la construcción de TC, no veo la aplicación de sus problemas en esta forma.

 
Yuriy Asaulenko:

Aunque, para la construcción de CT, no veo la aplicación de sus tareas particulares en esta forma.

Sólo quiero asegurarme de que las redes de las que disponemos pueden manejar tareas sencillas antes de aplicarlas a tareas comerciales más complejas.
 
elibrarius:
Sólo quiero asegurarme de que las redes de las que disponemos pueden manejar tareas sencillas antes de aplicarlas a tareas comerciales más complejas.
Después de experimentar con MA, en este momento, veo que el principal problema de la aplicación de NS en TS es la preparación de los datos alimentados a las entradas de NS. Los datos en bruto son probablemente incomestibles para la mayoría de las SN.
 
elibrarius:
Sólo quiero asegurarme de que las redes de las que disponemos pueden manejar tareas sencillas antes de aplicarlas a tareas comerciales más complejas.

Los cuadrados y los círculos se pueden reconocer fácilmente con el MLP clásico sin ningún problema, si se profundiza un poco más en el tema, se conocerá la tarea clásica de reconocimiento de dígitos manuscritos MNIST, ahí el MLP ordinario es una brisa hasta el 97%, luego con un chirrido otro medio por ciento, y luego empieza a bailar con pandereta. De hecho, este patrón situacional se reconoce en muchas tareas en ML, normalmente la batalla no es por resultados suficientes, y por 3-5 decimales en un paréntesis.

 
Yuriy Asaulenko:
Después de los experimentos con MA, en esta etapa, veo el principal problema de usar NS en TS en la preparación de los datos alimentados a las entradas de NS. Los datos en bruto son probablemente incomestibles para la mayoría de las SN.

Esta rama se puso en marcha principalmente para abordar esta cuestión. Pero es mucho más útil asegurarse por experiencia propia de la importancia de esta cuestión. Está usted al principio de un viaje difícil pero interesante.

Buena suerte

PS. En R, y a través de él Python, están disponibles todas las redes neuronales más sofisticadas que se conocen actualmente. Sólo hay que aprender a utilizarlos.

 
SanSanych Fomenko:


Sí y al diablo.

Tomar la cosa más simple, un bosque aleatorio. Por lo general, recibimos clases como resultado de la formación. En realidad, el algoritmo da la probabilidad de la clase, de la que obtenemos la clase. Por lo general, dividimos la probabilidad a la mitad para dos clases.

¿Qué tal si se divide en clases: 0 - 0,1 es una clase y 0,9 - 1,0 es otra clase? ¿Y la diferencia entre 0,1 y 0,9 está fuera del mercado?

Eso es lo que he visto en el artículo.

Esto se resuelve de forma más correcta y elegante encalibrate::CORELearn/.

Y lo ha sido durante bastante tiempo.

Buena suerte

Razón de la queja: