Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 1302

 
Maxim Dmitrievsky:

Lo que más me gusta es el gran número de "predictores". ¿De dónde habría salido en las citas en primer lugar? Es un 90% de basura.

Cada uno describe su ilusión de manera diferente, y la ilusión del que tiene mucho dinero en el momento funciona. Es por eso que realmente, puede haber muchos predictores, no veo ninguna contradicción aquí, es como los arbustos que consisten en ramas y hojas, pero alguien puede recortarlos a diferentes figuras intrincadas que causan diferentes reacciones de los contempladores.

 
Aleksey Vyazmikin:

Cada uno describe su ilusión de manera diferente, y la ilusión del que tiene mucho dinero en el momento funciona. Así que realmente, puede haber muchos predictores, no veo ninguna contradicción aquí, es como los arbustos que consisten en ramas y hojas, pero a alguien se le ocurre recortarlos a diferentes figuras intrincadas, provocando una reacción diferente de los contempladores.

Bueno, a cada uno lo suyo, yo estoy peleado con tanta escrupulosidad, en todo caso, el ajuste como es, lo principal que funcionaría durante un tiempo

resulta que si se encuentra una combinación óptima de entradas/salidas, entonces 4 predictores son suficientes

en definitiva, es necesario un compromiso entre eficacia y tiempo

 
Maxim Dmitrievsky:

Sea cual sea el camino que elijas, encontrarás "patrones" ilusorios en todas partes, y se pueden encontrar en cualquier fenómeno

Lo que más me alegra es el gran número de "predictores". ¿De dónde viene en las citas? Es un 90% de basura.

Exactamente, es una basura. Y cada indicador tomado por separado da aproximadamente un 50/50 y, además, tiene un rango de funcionamiento muy estrecho, en aquellos lugares donde sus lecturas realmente tienen sentido.

Pero en conjunto... Ya limitan el área de aplicabilidad de otros indicadores, definiendo alguna zona del espacio N-dimensional, en la que sus lecturas conjuntas tienen sentido. Creo que se llama una palabra de moda: sinergia).

Tal y como yo lo veo, se necesitan 7-8 indicadores-predictores para que funcione. El único problema es que no deben medir lo mismo).

 
Maxim Dmitrievsky:

Bueno, eso es cosa de cada uno, a mí me preocupa tanta escrupulosidad, en cualquier caso, lo principal es que funcione durante algún tiempo

resulta que si se encuentra una combinación óptima de entradas/salidas, incluso 4 predictores son suficientes

en resumen, es necesario un compromiso entre la eficiencia y el consumo de tiempo

Esa es la cuestión, lo principal es hacer que funcione...

Y sin embargo, como resulta:

1. el modelo grande se sobreentrenará por el efecto memoria

2. Cuanto mejor haya funcionado la regla (hoja/árbol binario) en el historial, menos posibilidades tendrá en producción

De lo contrario, se obtendrá un gráfico de alta precisión y alto rendimiento de la historia

y en la muestra de examen (disponible en el gráfico) sólo para el año 1000 de beneficio (y la reducción de fondos es casi la misma), y la precisión cae al 58%.

Las pruebas se hicieron con la activación de la división 1/0 en la "probabilidad" 0,6 y en la probabilidad 0,5 el beneficio es de alrededor de 5000 en el período fuera de estudio, pero en el período de prueba alrededor de 57 y el gráfico camina más, tiene menos precisión.

¿Significa esto que las buenas lecturas adicionales en el periodo de formación son la garantía de la reconversión?

 
Aleksey Vyazmikin:

pero en el período de prueba en la región de 57

¿Significa esto que una buena lectura adicional en el período de entrenamiento es una garantía de sobreentrenamiento?

La precisión del 57% en la prueba es muy buena, incluso demasiado buena, pero sí, cuanta más diferencia haya entre los resultados en el hilo y en la prueba, mayor es la probabilidad de sobreajuste.

 
El Grial:

La precisión del 57% en la prueba es muy buena, incluso demasiado buena, pero sí, cuanto más diferentes sean los resultados en el firn y en la prueba, más probable es que se sobrellene.

Así que asumo que el futuro es incierto, y nadie puede decirme que le irá bien en una muestra fuera de la formación... por eso estoy buscando algún tipo de conexión.

En cuanto a la exactitud (no es Exactitud, porque no tiene en cuenta las entradas perdidas, las que se clasifican como 0 cuando deberían haber sido 1), no es tan simple, porque el beneficio no es igual a la pérdida - puede ser mayor el beneficio y puede ser viceversa. Resulta que sí, el modelo parece funcionar, pero no da beneficios.

 
Aleksey Vyazmikin:

Esa es la cuestión, lo principal es hacer que funcione...

Y sin embargo, hasta ahora resulta que:

1. el modelo grande se sobreentrenará por el efecto memoria

2. Cuanto mejor haya funcionado la regla (hoja/árbol binario) en el historial, menos posibilidades tendrá en producción

De lo contrario, se obtendrá un gráfico de alta precisión y alto rendimiento de la historia

y en la muestra de examen (disponible en el gráfico) para el año 1000 de beneficio solamente (y la reducción de fondos es casi la misma), y la precisión cae al 58%.

Las pruebas se hicieron con la activación de la división 1/0 en la "probabilidad" 0,6, y en la probabilidad 0,5 el beneficio es de alrededor de 5000 en el período fuera de estudio, pero en el período de prueba alrededor de 57 y el gráfico camina más, tiene menos precisión.

¿Significa esto que una lectura súper buena en el periodo de entrenamiento es una garantía de sobreentrenamiento?

Por regla general, sí.

cuantas más señales, más sobreentrenamiento
 
Grial:

La precisión del 57% en la prueba es muy buena, incluso demasiado buena, y por tanto sí, cuanto mayor sea la diferencia entre los resultados en el firn y la prueba, mayor será la probabilidad de sobreajuste.

algunas personas piensan que Random es bueno también, ir loco )) Random + 7% nerendom es malo, pero es mejor que Random

no es malo, es desagradable, no es un modelo en absoluto.

que todo el mundo aprenda los fundamentos del machine learning y terver urgentemente

Especialmente si el gráfico se eleva al 57%, entonces se puede considerar inmediatamente como sobreentrenamiento, a priori, y no analizar nada más
 
Maxim Dmitrievsky:

hay gente que piensa que los randoms son buenos también, vuélvete loco ))) randoms+7% nerandom es malo, pero es un poco mejor que los randoms

no es malo... es asqueroso, no es un modelo en absoluto

que todo el mundo aprenda los fundamentos del aprendizaje automático y terver urgentemente.

¿Cuál es la precisión de sus modelos ahora fuera del entrenamiento? ¿Y con qué periodo, cómo cae (cambia)?

Tengo un periodo fuera de la formación de 10 meses.

 
Aleksey Vyazmikin:

¿Cuál es la precisión de sus modelos ahora más allá del aprendizaje? ¿Y con qué periodo de tiempo, cómo baja (cambia) esta cifra?

Tengo un periodo de descanso de 10 meses.

10% de error por prueba y traza para ~10k ejemplos, aumenta suavemente con el incremento

ante este error, los modelos comenzaron a trabajar con nuevos datos

es diferente en la validación, tengo que tratar de averiguar las opciones

No hay más algoritmos que revelar, sólo chatear
Razón de la queja: