Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 2014

 
elibrarius:

Esta es una pregunta para todos:
También recibo paquetes de señales unidireccionales de la red. Es más o menos lo mismo que aquí.

A veces tengo 100 o incluso 200 pérdidas seguidas. Sólo hay una salida: operar con lotes microscópicos, como el 0,5% del depósito.
¿Quién tiene ideas para no negociar cientos de señales consecutivas?
¿Operar el primero y luego no operar hasta que se cierre el abierto? Me parece que no es la mejor solución.

¿Qué opciones tiene?

Se está entrenando con datos muy ruidosos (signos\target), por ejemplo en incrementos, por eso la señal es muy ruidosa. Podrías intentar suavizar las señales y el objetivo, o la propia señal final, para reducir el ruido de la señal, pero eso no ayudará mucho ni te quitará ningún beneficio.

 
elibrarius:

Esta es una pregunta para todos:
También recibo paquetes de señales unidireccionales de la red. Es más o menos lo mismo que aquí.

A veces tengo 100 o incluso 200 pérdidas seguidas. Sólo hay una salida: operar con lotes microscópicos, como el 0,5% del depósito.
¿Quién tiene ideas para no negociar cientos de señales consecutivas?
¿Operar el primero y luego no operar hasta que se cierre el abierto? Me parece que no es la mejor solución.

¿Cuáles son las opciones?

La apertura es una lógica, la escolta y el cierre es otra. Lo prefiero así. Las paradas son un seguro. Si no, sí, es mejor abrir con stops para limitar el número de órdenes abiertas.

 
elibrarius:

Esta es una pregunta para todos:
También recibo paquetes de señales unidireccionales de la red. Es más o menos lo mismo que aquí.

A veces tengo 100 o incluso 200 pérdidas seguidas. Sólo hay una salida: operar con lotes microscópicos, como el 0,5% del depósito.
¿Quién tiene ideas para no negociar cientos de señales consecutivas?
¿Operar el primero y luego no operar hasta que se cierre el abierto? Me parece que no es la mejor solución.

¿Cuáles son las opciones?

Para qué cambiarlos, es como una ruleta rusa con una pistola de pequeño calibre :)

 
Mira el indicador) sólo funciona en 2020.
 
Maxim Dmitrievsky:

¿Ha habido suerte con la prueba?

 
mytarmailS:

¿Qué pasa, ha habido suerte con la prueba?

Sigue siendo lo mismo... al principio de la semana funciona bien, después del "pre-entrenamiento". Entonces empieza a llover. Lo he rehecho de nuevo, lo pondré a prueba mañana :D

Algún robot de trading puede estar calculado incorrectamente en trader... Después de una serie de actualizaciones empieza a operar de forma incorrecta

También estoy trabajando en las redes de recurrencia en antorcha.

amarillo - comienzo de las semanas, primeros 1-3 días


 

¿Ha probado alguien a utilizar redes repetitivas (¿repetitivas?) para reducir la dimensionalidad?

Artículo.

Vídeo.


Лекция 6 | Нейросетевые технологии
Лекция 6 | Нейросетевые технологии
  • 2018.10.14
  • www.youtube.com
Дата: 08.10.2018 Лектор: Дорофеев Евгений Александрович Лекции в формате PDF - https://goo.gl/Xwzg4a
 
Aleksey Vyazmikin:

¿Ha probado alguien a utilizar redes repetitivas (¿repetitivas?) para reducir la dimensionalidad?

Artículo.

Vídeo.


se utilizan autocodificadores recursivos. no he probado

 
Maxim Dmitrievsky:

se utilizan autocodificadores recursivos. no he probado

No puedo entender cómo todas las neuronas de salida, cuyo número es igual al de las neuronas de entrada, se evalúan a la vez...

Si ves algo similar, adecuado para su uso, por favor, házmelo saber.

Tengo un tamaño de muestra que se acerca a los 3000 predictores y existe la preocupación de que puedan estar muy comprimidos, ya que describen un dominio similar.

 
Aleksey Vyazmikin:

No puedo entender cómo la estimación de la calidad del modelo va a la vez para todas las neuronas de salida, cuyo número es igual al de las neuronas de entrada...

Si ve algo similar, adecuado para la aplicación, por favor hágamelo saber.

Tengo una muestra que se aproxima a los 3000 predictores, y me preocupaba que pudieran estar muy comprimidos, ya que describen un dominio similar.

La entrada y la salida son todas fics, hay menos neuronas en la capa oculta. Simplemente comprime la información minimizando el error en la salida. La entrada debe ser igual a la salida (idealmente). Entonces la segunda parte de NS se descarta después del entrenamiento y se obtienen características comprimidas en la salida iguales al número de neuronas en la capa oculta

se pueden añadir capas recurrentes, etc.

google autoencoder y sus variantes.