Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 419

 
Muy bien, voy a arrojar algo de información aquí. El caso es que tengo una idea de los datos que se deben utilizar para predecir el mercado, pero lamentablemente no puedo reunirlos en su totalidad y en la forma correcta, si alguien me ayudara en la organización de la recopilación, compartiría su optimizador, bueno, y la estrategia en su conjunto. Los datos ya son lo suficientemente buenos, pero para ser súper, tenemos que añadir algo. ¿Quién es fuerte en la programación y la capacidad de obtener datos en línea de múltiples sitios en el archivo csv?
 
Mihail Marchukajtes:
Muy bien, pondré la información aquí. Tengo alguna idea de los datos que deben utilizarse para hacer previsiones de mercado, pero lamentablemente no puedo reunirlos en su totalidad y en la forma requerida. Me gustaría compartir mi optimizador y la estrategia en general con quienes me han ayudado con la organización de esta colección. Los datos ya son lo suficientemente buenos, pero para ser súper, tenemos que añadir algo. ¿Quién es fuerte en la programación y la capacidad de obtener los datos en línea de varios sitios en el archivo csv?
Mi modelo se basa en datos multihilo y diversificados. Tengo experiencia en el análisis de datos. Estaría encantado de participar.
 

Ya escribí en mi blog sobre la elección de los parámetros de la red neuronal - SELECCIÓN DE LA CONFIGURACIÓN DEL NEUROSET.

Al menos en la fase inicial es mejor hacerlo así, es decir, más adelante, si es necesario, se puede simplificar la NS.

El ejemplo de elección en el blog es abstracto, pero fue a partir de consideraciones similares que elegí los parámetros de mi NS. Los resultados del aprendizaje no suelen ser malos.

Algo que asusta es el volumen de NS: en el ejemplo de 3 MA, ya son más de 100 neuronas, y todavía no es una TS, sino sólo una plantilla para ella.

 
Yuriy Asaulenko:

Ya escribí en mi blog sobre la elección de los parámetros de la red neuronal - SELECCIÓN DE LA CONFIGURACIÓN DEL NEUROSET.

Al menos en la fase inicial es mejor hacerlo así, es decir, más adelante, si es necesario, se puede simplificar la NS.

El ejemplo de elección en el blog es abstracto, pero fue a partir de consideraciones similares que elegí los parámetros de mi NS. Los resultados del aprendizaje no suelen ser malos.

Un poco de miedo del volumen de NS - en el ejemplo para 3 MA, ya es más de 100 neuronas, y todavía no es un TS, pero sólo una plantilla para ello.

Probemos de esta manera: el fin de semana o la semana que viene lanzaré aquí pronósticos interesantes, y tú me dirás tu opinión sobre ellos. Sólo predictores en forma de indicadores en MT5, 4 de ellos

Voy a tratar de utilizarlos como predictores en el comercio, y voy a tener la oportunidad de organizar un Desafío - que será capaz de enseñar NS para ganar por estos predictores :) Todavía no los he aprendido pero no he experimentado hasta ahora.

 
Maxim Dmitrievsky:

Intentémoslo así: el fin de semana o la semana que viene publicaré aquí los pronósticos interesantes y tú darás tu opinión sobre ellos... Sólo los predictores en forma de indicadores en mt5, 4 de ellos

Será posible organizar un Desafío - que será capaz de enseñar a NS a ganar por estos predictores :) Pero por ahora no puedo enseñar a MP a operar de forma rentable con ellos.

(Bueno, aún me queda mucho camino por recorrer antes de empezar a operar de verdad). Llevo más de un mes haciéndolo.

Si quiero utilizar sus indicadores, será interesante, pero no utilizaré los míos. De hecho, la base (la versión inicial de 2008) se puede encontrar aquí -ButterworthMoving Average - indicador para MetaTrader 4. Por supuesto, ahora todo se ha hecho de forma diferente.

 
Yuriy Asaulenko:

Bueno, todavía me queda un largo camino por recorrer antes de poder comerciar de verdad). Llevo más de un mes haciéndolo.

Si tiene un buen Asesor Experto, me será útil. Sin embargo, la base (la versión inicial de 2008) se puede encontrar aquí -ButterworthMoving Average - indicador para MetaTrader 4. Por supuesto, ahora todo es diferente.


Sí, lo haré, sólo porque a veces mi cerebro se convierte en un tubo y necesito una opinión externa :)
 

No quiero molestar a nadie, pero desgraciadamente la mayoría de vosotros no sabéis preparar los objetivos correctamente. Todos esos resultados inspiradores (75-80% de exactitud) en fichas de velas lentas (>10min) son en realidad puro taller de explotación. La precisión del 55% es suficiente para que el Sharpe Ratio sea superior a 2, y el 60% de precisión en datos lentos es el mismo grial, que es la leyenda, Sharpe Ratio 3-4, nadie comercia así en real, sólo los chicos de HFT, pero tienen una escala diferente de los costes de negociación, hay menos SR <2 no es rentable.

En resumen...

¡NO VEA EL OBJETIVO(target)!

En otras palabras, cuando se calcula el objetivo, no se pueden utilizar datos que SIN EMBARGO se utilizan cuando se calculan las características, de lo contrario el resultado será un poky. Por razones obvias, un "juego de manos" como ZZ al infierno, interpola entre los extremos lejos en el área donde se calculan las características, el resultado es exorbitante, al menos el 90% de precisión sin problemas, pero es una falsificación. Esta es la base de las discusiones oscurantistas sobre "la previsión no es importante", hay que seguir desarrollando la ST, etc. Así que, de hecho, ese "90%" sigue siendo el mismo "querido" 50%.


Sé razonable :)

 
Aliosha:


En resumen...

¡NO VER el objetivo(características)!

En otras palabras, cuando se calcula el objetivo, no se pueden utilizar datos que se usen SIEMPRE en el cálculo de las características, de lo contrario el resultado será un barrido. Por razones obvias, un "juego de manos" como ZZ al infierno, interpola entre los extremos lejos en el área donde se calculan las características, el resultado es exorbitante, al menos el 90% de precisión sin problemas, pero es una falsificación. Esta es la base de las discusiones oscurantistas sobre "la previsión no es importante", hay que seguir desarrollando la ST, etc. Así que, de hecho, ese "90%" sigue siendo el mismo "querido" 50%.


Sé razonable :)

No puedo estar de acuerdo con tus conclusiones sobre ZZ, así como con tus conclusiones en general.

RSI por ejemplo. Que interpola ZZ o viceversa en este predictor particular. Mientras tanto puedo demostrar que el RSI como predictor de ZZ no tiene una mala capacidad de predicción. Y, por ejemplo, la ondulación no tiene capacidad de predicción para ZZ y es 100% ruido para ZZ - completamente inútil como predictor. Puede obtener un modelo basado en mashka con menos del 10% de error, pero si ejecuta este modelo entrenado en un nuevo archivo que no está asociado a un archivo de entrenamiento, obtendrá un error arbitrario.

Además del problema que mencionas de que hay predictores entre los predictores para una RZ de la que se deriva esta misma RZ, hay otro problema que es fundamental e independiente de la variable objetivo: es el problema de que el predictor NO está relacionado con la variable objetivo es ruido para una variable objetivo concreta (la RZ no es una excepción). El ruido es un predictor muy conveniente. Siempre se pueden encontrar valores entre los valores de ruido que reduzcan el error de predicción. Cuando no entendía esto, obtenía errores de predicción en torno al 5% muy a menudo.

Pero si uno es capaz de limpiar el conjunto inicial de predictores del ruido para una variable objetivo concreta, entonces es extremadamente difícil reducir el error por debajo del 30%, al menos para mí.

Conclusión: Los predictores de ruido que son ruido para una determinada variable objetivo conducen a un sobreentrenamiento y ZZ no es una excepción.

 
SanSanych Fomenko:

No puedo estar de acuerdo con tus conclusiones sobre ZZ, ni con tus conclusiones en general.

RSI por ejemplo. Que interpola ZZ o viceversa en este predictor particular. Mientras tanto puedo demostrar que el RSI como predictor de ZZ no tiene una mala capacidad de predicción. Y, por ejemplo, la ondulación no tiene capacidad de predicción para ZZ y es 100% ruido para ZZ - completamente inútil como predictor. Puede obtener un modelo basado en mashka con menos del 10% de error, pero si ejecuta este modelo entrenado en un nuevo archivo no asociado a un archivo de entrenamiento, obtendrá un error arbitrario.

Además del problema que mencionas de que hay predictores entre los predictores para una RZ de la que se deriva esta misma RZ, hay otro problema que es fundamental e independiente de la variable objetivo: es el problema de que el predictor NO está relacionado con la variable objetivo es ruido para una variable objetivo concreta (la RZ no es una excepción). El ruido es un predictor muy conveniente. Siempre se pueden encontrar valores entre los valores de ruido que reduzcan el error de predicción. Cuando no entendía esto, obtenía errores de predicción en torno al 5% muy a menudo.

Pero si uno es capaz de limpiar el conjunto inicial de predictores del ruido para una variable objetivo concreta, entonces es extremadamente difícil reducir el error por debajo del 30%, al menos para mí.

Conclusión: el sobreentrenamiento está causado por los predictores de ruido que son ruido para una variable objetivo particular y ZZ no es una excepción.


¡Bien! Vamos a debatir sobre este tema tan importante. Sugiero que realicemos una serie de experimentos para llegar al fondo de esto.

Así que, argumento:

1) Correcto, la síntesis de características y la clasificación a partir de un conjunto aleatorio de series temporales, en 2 clases, da una precisión del 50% (como una moneda), con suficientes muestras (de 5-10k). Si hay un sesgo estadísticamente significativo en la precisión (>51%), entonces hay errores en el proceso de síntesis y/o clasificación de características.

2) Cuando se usan objetivos que utilizan datos en el cálculo de las características, obtenemos un sesgo significativo en la precisión (55, 60, 90%) EN VECES ALEATORIAS que a priori no se pueden predecir (50%). Lo que significa que esta pena es falsa.

 
Aliosha:


2) Cuando utilizamos los datos de focalización utilizados en el cálculo, obtenemos un importante sesgo de precisión (55, 60, 90%) en tiempos aleatorios que no puede predecirse a priori (50%). Lo que significa que este indicador es falso.

¿Y por qué comprobar algo? Para mí es evidente.

Di un ejemplo de RSI-ZZ - nada en común, y se puede construir un modelo con menos del 50% de error.

Otro ejemplo: mashka-ZZ - fácilmente menos del 10% de error. Cuando se prueba en un archivo nuevo, el resultado es completamente arbitrario.

Razón de la queja: