Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 3343

 
Maxim Dmitrievsky #:
¿Qué tipo de error puede atribuirse a la dispersión? Este problema aparentemente estúpido no me da tregua. Si un modelo funciona bien con un diferencial bajo, pero cuando se aumenta el diferencial, es peor. ¿Qué hay que arreglar exactamente?:) o cómo entrenarlo para operar con un spread grande.
.

Usar spread real para markup y en signos. No estoy seguro acerca de los signos, no estoy seguro de que va a ayudar, también resulta que en 3-5 signos de la OOS es mejor que si el modelo 100-1000 usos. Es decir, la probabilidad de que la propagación caerá en estos 3-5 es pequeño.
Tal vez va a añadir un par de % a nuestro lado de casi 50/50, que obtenemos ahora. O tal vez, como siempre, sólo tomará tiempo para todo esto, sin resultado significativo.

Estoy cambiando de bares a los ticks, no la propagación es real, no mínimo por bar. Para markup voy a utilizar Virtual tester de fxsaber-a (es posible hacer operaciones y obtener sus resultados sin estropear las estadísticas de MQ tester, donde comercio sólo en las señales del modelo), a continuación, entrenar el modelo de los sábados y el comercio hasta el próximo sábado. Será un jacking-forward, al igual que en el comercio real. Pero usted tiene su propio probador virtual en Python, tal vez usted no lo necesita.

 
Maxim Dmitrievsky #:
El principal pan y caviar se encuentra en el nivel de los diferenciales, en un gran número de transacciones cortas. La lógica de encontrar un equilibrio entre el número de transacciones y la previsibilidad no está muy clara. Aumentar la duración de las transacciones y disminuir su número sin problemas conduce a la pérdida de alfa.

Mamá, envíame unos calcetines de lana. Tenemos un suelo con calefacción eléctrica en nuestra celda, pero nadie conoce el código para encenderlo).

 
Forester #:

Usa spread real para markup y en signos. No estoy seguro de los signos, también resulta que en 3-5 signos el OOS es mejor que si el modelo utiliza 100-1000. Es decir, la posibilidad de que el spread caiga en estos 3-5 es pequeña.
Tal vez añadirá un par de % a nuestro lado desde casi 50/50, que obtenemos ahora. O tal vez, como siempre, sólo tomará tiempo para todo esto, sin resultado significativo.

Estoy cambiando de bares a los ticks, no la propagación es real, no mínimo por bar. Para markup voy a utilizar Virtual tester de fxsaber-a (es posible hacer operaciones y obtener sus resultados sin estropear las estadísticas de MQ tester, donde comercio sólo en las señales del modelo), a continuación, entrenar el modelo de los sábados y el comercio hasta el próximo sábado. Será un valking-forward, como en el comercio real. Pero usted tiene su propio probador virtual en Python, tal vez usted no lo necesita.

Cuando aumentas el spread en el tester, algunas operaciones parecen volar hacia el menos. Pero algunas permanecen. Es posible entrenar sin él en absoluto, pero la cuestión es cómo ejecutarlo en la propagación necesaria y fijar el TS, descartando malos oficios. Me gustaría o volver a entrenar o añadir un filtro. No me decido.

Porque los intentos de incorporar el spread en el propio entrenamiento no funcionan.
 
Maxim Dmitrievsky #:

Cuando el diferencial aumenta en el comprobador, algunas operaciones parecen volar hacia el negativo. Pero algunas se mantienen. Es posible entrenar sin él en absoluto, pero la cuestión es cómo ejecutarlo a continuación, en la propagación requerida y fijar el TS, descartando malas operaciones. Me gustaría volver a entrenar o añadir un filtro. No me decido.

Porque los intentos de incorporar el diferencial en el propio entrenamiento no funcionan.

Cuando mamá envíe calcetines de lana, encontrarás el código en ellos. Hasta entonces, me mantendré al margen de tu ego.

 
Uladzimir Izerski #:

Cuando mamá envíe calcetines de lana, encontrarás el código en ellos. Hasta entonces, me mantendré fuera del camino de tu ego.

¿Qué eres, un completo desastre? Vete de aquí.

 
Maxim Dmitrievsky #:

¿Estás loco? Vete de aquí.

Puedo decir por la jerga que los calcetines no han llegado todavía).

 
Maxim Dmitrievsky #:

Cuando el diferencial aumenta en el comprobador, algunas operaciones parecen volar hacia el negativo. Pero algunas se mantienen. Es posible entrenar sin él en absoluto, pero la cuestión es cómo ejecutarlo a continuación, en la propagación requerida y fijar el TS, descartando malas operaciones. Me gustaría volver a entrenar o añadir un filtro. No me decido.

Porque los intentos de incorporar el spread en el propio entrenamiento no funcionan.

Probablemente filtro clásico, if( Spred > 10 pt ){no operar y no marcar}. O no en pips, spread promedio * 2 o *3.... *10.

 
Forester #:

Probablemente filtro clásico, if( Spred > 10 pt ){don't trade or mark up}. O no en pips, spread medio * 2 o *3.... *10.

Sonreí ante la casi certeza de un pensamiento increíblemente inteligente sobre un pensamiento increíblemente inteligente.

Y es todo el mundo por aquí estúpido o qué?????

 
Forester #:

Probablemente filtro clásico, if( Spred > 10 pt ){don't trade or mark up}. O no en pips, spread medio * 2 o *3.... *10.

La peculiaridad es que incluso sin conocer el spread real, una parte de las operaciones se caen cuando lo aumentas artificialmente en el tester. Es decir, se pueden ver inmediatamente los puntos débiles donde no se debe operar. Por eso lo he referido, condicionalmente, a un error de modelo.
 
Aleksey Nikolayev #:

Necesitamos una buena previsión probabilística de series, pero no tan cursi como se hace hoy en día (regresión cuantil, por ejemplo). No lo he visto en el propio artículo, aunque la lista de bibliografía parece contenerlo.

Hay algo de Yandex

Uncertainty in Gradient Boosting via Ensembles
Uncertainty in Gradient Boosting via Ensembles
  • research.yandex.com
For many practical, high-risk applications, it is essential to quantify uncertainty in a model's predictions to avoid costly mistakes. While predictive uncertainty is widely studied for neural networks, the topic seems to be under-explored for models based on gradient boosting. However, gradient boosting often achieves state-of-the-art results on tabular data. This work examines a probabilistic ensemble-based framework for deriving uncertainty estimates in the predictions of gradient boosting classification and regression models. We conducted experiments on a range of synthetic and real datasets and investigated the applicability of ensemble approaches to gradient boosting models that are themselves ensembles of decision trees. Our analysis shows that ensembles of gradient boosting models successfully detect anomalous inputs while having limited ability to improve the predicted total uncertainty. Importantly, we also propose a concept of a virtual ensemble to get the benefits of...