Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 1612

 
Evgeny Dyuka:
Llevo medio año con este tipo de estrategias, el resultado máximo en los backtests es de x5 durante un año, pero una vez al año seguro que lo pierdo todo y es imposible solucionar este problema.

Sí, bueno... Es una pena lo de la gente.

¿Qué pasa con la emisión de su sistema?

 
mytarmailS:

Sí, bueno... Es una pena lo de la gente.

¿Qué pasa con la emisión de su sistema?

Si te refieres a las señales en metatrader - es simplemente irreal. El spread en bitcoin es una locura + las cotizaciones son falsas. En las bolsas de criptomonedas normales, si abres con límites, la comisión es negativa, es decir, pagan de más.
 

Corrí el sistema en el probador de la semana pasada y fue una vez más convencido de que la "ayuda" poner filtros, etc conduce al hecho de que el esfuerzo gastado en la formación del sistema de esta "ayuda" sólo conduce a un resultado negativo y este resultado en los datos conocidos y entrenados, qué decir cuando los datos viene en tiempo real (crudo).

 
Farkhat Guzairov:

Corrí el sistema en el probador de la semana pasada y fue una vez más convencido de que "ayudar" a establecer filtros, etc. conduce al hecho de que el esfuerzo dedicado a la formación del sistema esta "ayuda" sólo conduce a un resultado negativo y este resultado en los datos conocidos y entrenados, qué decir cuando los datos vienen en tiempo real (crudo).

No hay que usar muletas, el sistema debe aprender por sí mismo, no se puede parar una vez que se empieza a ayudar))
 
mytarmailS:

Tenemos dos vectores de variables, la vela actual y la anterior ("-1")

a = "apertura", "alta", "baja", "cierre", "centro"

b = "open-1", "high-1", "low-1", "close-1", "center-1"

la variable "centro" es el medio de la vela (alto+bajo)/2, sin esta variable es imposible describir un patrón como "esquimal", etc. Creo que el significado de otras variables no es necesario explicarlo, son obvias.

Así pues, vamos a crear todas las combinaciones lógicas posibles (también pueden ser no lógicas).

Sólo dos velas, miserables dos velas.....

Cielos, no sé ni qué decir. Las bibliotecas sobre redes neuronales se han vuelto tan accesibles, que la gente se olvida incluso del sentido común, ¿o qué?

Es evidente que no tiene sentido multiplicar las entidades, mientras que en todos los manuales iniciales sobre cualquier tipo de análisis está escrito que es necesario deshacerse de las entidades redundantes para conseguir resultados.

Si se crean variables, si es mayor por una cifra, por dos, por un tercio, etc., entonces dos velas pueden hacer 1000))

Si crees que la relación de los predictores es tan importante para tu modelo y debe ser necesariamente alimentada a la entrada, entonces crea una especie de capa de convolución, pero para multiplicar los predictores, sí...

 
Aleksey Mavrin:

Hombre, no sé ni qué decir. Las bibliotecas de redes neuronales se han vuelto tan accesibles que la gente se olvida del sentido común, ¿o qué?

Es evidente que no tiene sentido multiplicar las entidades, cuando todos los manuales primarios de cualquier tipo de análisis dicen que es necesario deshacerse de las entidades innecesarias para obtener resultados.

Si se crean variables, entonces si es mayor por una cifra, por dos, por un tercio, etc., entonces dos velas pueden resultar en 1000))

Si crees que la proporción de predictores es tan importante para tu modelo, y debes alimentarlo necesariamente a la entrada, entonces crea una especie de capa de convolución, pero para multiplicar los predictores, yadaa...

oops.... niños....

Para deshacerse de las entidades superfluas , primero hay que entender qué es lo superfluo. De las 1.000 características de los candidatos, ¿puede elegir las 5 más importantes a ojo?

 
mytarmailS:

oops.... niños....

Para deshacerse de las entidades superfluas , primero hay que entender qué es lo superfluo. Para entenderlo, hay que buscar entre las opciones. ¿O conoces otra forma? ¿Puede elegir a ojo entre 1000s de pretendientes 5 significativos?

Has trabajado mucho, has estudiado mucho material, has dedicado mucho tiempo. ¿Qué sentido tiene intentar cambiar de opinión...

 
Aleksey Mavrin:

Has trabajado mucho, has estudiado mucho material, has dedicado mucho tiempo. Bueno, no puedo hacerte cambiar de opinión sobre nada.

Si hay argumentos, me encantaría escucharlos.

Si los argumentos son objetivos, estaré encantado de hacerte cambiar de opinión.

Si te diste cuenta de que habías dicho demasiado y decidiste omitirlo amablemente, no funcionó))

 
mytarmailS:

Si hay argumentos, me encantaría escucharlos.

Si los argumentos son objetivos, estaré encantado de cambiar de opinión y ser más sabio.

Si te has dado cuenta de que has dicho demasiado y has decidido retirarte, ha fallado)).

Qué argumentos, si lo estás haciendo significa que o no entiendes algo o yo sí.

La esencia de mi sorpresa - un modelo enseñable, estamos hablando de ellos aquí, debe ser entrenado en los datos en bruto.

Si los datos de entrada están correlacionados, deben reducirse a no correlacionados. Pero usted está haciendo lo contrario: está multiplicando los datos originales, fuertemente correlacionados entre sí.

He aquí un ejemplo: enseñamos al modelo a clasificar la tonalidad del color mediante 3 dígitos - RGB. Tres dígitos, ¡¡¡son puros datos en bruto!!! En su planteamiento necesita hacer predicciones como:

1- R 2-G 3-B - 4 Más rojo 5 -Más verde 6- Más rojo que verde y azul juntos .... 100500 No es tan rojo como lo sería si el verde fuera tan rojo como el azul. ))

¿No debería el modelo aprender por sí mismo?, ¡tiene los datos en bruto y para eso está!

 
Aleksey Mavrin:

Qué argumentos, si haces eso, significa que o no entiendes algo o lo entiendo yo.

El punto de mi sorpresa es que un modelo entrenado, del que estamos hablando aquí, debe ser entrenado en los datos brutos.

Si los datos de entrada están correlacionados, deben reducirse a no correlacionados. Pero usted está haciendo lo contrario: está multiplicando los datos originales, fuertemente correlacionados entre sí.

He aquí un ejemplo: enseñamos al modelo a clasificar la tonalidad del color mediante 3 dígitos - RGB. Tres dígitos, ¡¡¡son datos puros y duros!!! En su planteamiento necesita hacer predicciones como:

1- R 2-G 3-B - 4 Más rojo 5 -Más verde 6- Más rojo que verde y azul juntos .... 100500 No es tan rojo como lo sería si el verde fuera tan rojo como el azul. ))

El modelo no tiene que aprenderlo por sí mismo, ¡tiene los datos de entrada y para eso está!

Estoy totalmente de acuerdo, la correcta selección de los datos de entrada determina que el modelo aprenda o no, el resto es cuestión de técnica. Si no hay entendimiento en esta fase, no tiene sentido seguir adelante.
Razón de la queja: