Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 588

 
Yuriy Asaulenko:

Recuerdo que tenías un 70% de predicciones adecuadas. Yo escribí el post anterior.

Bueno, un 70% de acierto no es nada. De ese 70% de aciertos para entrar en la operación, al menos un tercio. Esto nos deja con un 23%. No hay nada en contra del 30% de predicciones erróneas (no sabemos de antemano si son correctas o incorrectas). Y las predicciones erróneas están como en las zonas de inflexión (cambio de dirección), y estas zonas son exactamente las más adecuadas para las operaciones.

Sobre esta base, creo que es inútil dedicarse a la predicción, sino más bien a la clasificación. Es decir, determinar si un determinado momento es adecuado para hacer un trato. Usando modelos obtendrá el error de entrada 20-40% Más cifras exactas que di anteriormente en este tema.


La clasificación es la predicción de la pertenencia a una clase, o la probabilidad de pertenencia.

Tiene el mismo efecto que la regresión, de la que también se puede extraer la afiliación.

 
SanSanych Fomenko:

Me convenció de que el problema de la no estacionariedad no tiene nada que ver con MO. Como nunca traté con NS, no tenía argumentos para refutar su opinión. Además, se intuía que varios árboles y otros, excepto NS, funcionan perfectamente con predictores no estacionarios.

Me baso en el axioma de que hay algunas regularidades en el comportamiento de los precios, es un proceso no Markoviano. Y trato de encontrarlos usando MO.

Varios modelos pueden separar el trigo de la paja y encontrar regularidades en un flujo de precios compuesto principalmente por ruido y su distorsión intencionada por los centros de negociación.
El problema es encontrar tales parámetros para el entrenamiento del modelo (para la neurona - el número de pesos, la velocidad de aprendizaje, etc.; y para un bosque - el número de árboles, por ejemplo) que el modelo no se limite a memorizar los ejemplos iniciales, y después de vencer la no estacionariedad encuentre algunos patrones estables en todo ese ruido. Encuentro buenos parámetros para el entrenamiento del modelo mediante múltiples validaciones cruzadas.
Como resultado, mi modelo muestra un resultado muy pequeño pero positivo tanto en los datos de entrenamiento como en los nuevos (R2 ~0,003). Pero aún no he vencido la propagación.

 
Dr. Trader:

Me baso en el axioma de que hay patrones permanentes en el comportamiento de los precios, es un proceso no Markoviano. Y trato de encontrarlos usando MO.

Varios modelos pueden separar el trigo de la paja y encontrar los patrones en el flujo de precios que consiste en gran parte en el ruido y la distorsión intencional de los centros de negociación.
El problema es encontrar tales parámetros para el entrenamiento del modelo (para la neurona - el número de pesos, la velocidad de aprendizaje, etc.; y para un bosque - el número de árboles, por ejemplo) que el modelo no se limite a memorizar los ejemplos iniciales, y después de vencer la no estacionariedad encuentre algunos patrones estables en todo ese ruido. Encuentro buenos parámetros para el entrenamiento del modelo mediante múltiples validaciones cruzadas.
Como resultado, el modelo muestra un resultado muy pequeño pero positivo tanto en los datos de entrenamiento como en los nuevos (R2 ~0,003). Pero aún no he vencido la propagación.

Tampoco he ganado, y hasta ahora no hay luz. Pero el sistema funciona en FORTS.

SanSanych predice una hora antes. No le importa esta difusión).

 

No existe un problema de no estacionariedad para los problemas de clasificación. Es real para los problemas de regresión.

No hay que confundir previsión y predicción. Prever y predecir son cosas diferentes. La predicción como resultado es un valor numérico con un intervalo de confianza. La clasificación predice la clase a la que pertenece el ejemplo, la probabilidad de que el ejemplo pertenezca a la clase o el apoyo a la hipótesis de que el ejemplo pertenece a la clase.

Buena suerte

 
Vladimir Perervenko:

No existe un problema de no estacionariedad para los problemas de clasificación. Es real para los problemas de regresión.

No hay que confundir previsión y predicción. Prever y predecir son cosas diferentes. La predicción como resultado es un valor numérico con un intervalo de confianza. La clasificación predice la clase a la que pertenece el ejemplo, la probabilidad de que el ejemplo pertenezca a la clase o el apoyo a la hipótesis de que el ejemplo pertenece a la clase.

Buena suerte


¿a qué se refiere? ¿dónde puedo leer sobre estas tonterías? :)

 
Maxim Dmitrievsky:

¿A qué te refieres? ¿Dónde puedo leer sobre estas tonterías? :)

¿Qué le parece absurdo?
 
Vladimir Perervenko:
¿Qué le parece absurdo?

que debido a la no estacionariedad los patrones entre los predictores\ target y la predicción de la clase se romperán al igual que en el caso de la predicción

 
Maxim Dmitrievsky:

que debido a la no estacionariedad los patrones entre los predictores\ target y la predicción de la clase se romperán al igual que en el caso de la predicción

¿Puede mostrarme un ejemplo? ¿O se trata de una conclusión especulativa?

En ninguna parte de la numerosa literatura sobre la clasificación mediante NN/DNN se menciona la no estacionariedad como un factor influyente. Mis numerosos experimentos me dicen lo mismo.

Por supuesto, usted es libre de tener su propia opinión al respecto.

Buena suerte

 
Vladimir Perervenko:

¿Puede mostrarme un ejemplo? ¿O se trata de una conclusión especulativa?

En ninguna parte de la numerosa literatura sobre la clasificación mediante NN/DNN se menciona la no estacionariedad como factor de influencia. Mis numerosos experimentos me dicen lo mismo.

Por supuesto, usted es libre de tener su propia opinión al respecto.

Buena suerte


Y la clasificación o la regresión... ¿qué diferencia hay?

 

Hay un nuevo y buen libro sobre el aprendizaje profundo. Lamentablemente no puedo enlazarlo abiertamente, está en rutracker.org.

Aprendizaje profundo
Año de publicación: 2018
Autor: Nikolenko S. I., Kadurin A. A., Arkhangelskaya E. O.
Género o tema: Redes neuronales
Editor: Peter
Serie: Programmer's Library
ISBN: 978-5-496-02536-2
Idioma: ruso
Formato: PDF
Calidad: Texto reconocido con errores (OCR)
Índice interactivo: Ninguno
Número de páginas: 479