Volver a entrenar - página 2

 
Dmitry Fedoseev:
Y yo que pensaba que el "bla bla" no se juzgaba por las personas, sino por lo que escriben.

No suelo responder a los mensajes irritados, pero te responderé personalmente.

Por lo tanto, lo que quiero decir con "blah blah".

CASO 1.

Suponga que ha escrito un robot, ha encontrado sus parámetros con un TESTER y luego, sin cambiarlos, lo ha probado en nuevas zonas de cotización y, preferiblemente, en otros símbolos y TFs. Hemos obtenido un resultado positivo.

La pregunta es: ¿hasta qué punto podemos confiar en el resultado? ¿Bajará o no?

Como respuesta a la pregunta, mire la pestaña "Señales" aquí en el sitio y vea que las señales con la rentabilidad más alta que el depósito bancario y con la vida útil de más de un año son bastante raras: no hay ni un centenar de varios miles. Por lo tanto, personalmente concluyo que el desarrollo de una ST estable es un arte, y el probador es una de las herramientas para desarrollar dicha ST estable. Pero la conclusión más importante: el probador no garantiza una pérdida de beneficios.

Esto es lo que consideré el caso cuando el probador confirmó el TS.

CASO 2

Este es un caso más interesante en el sentido de "blah-blah" - es cuando el probador da un resultado negativo. ¿Qué hacer? Al fin y al cabo, el probador no da ninguna idea sobre la dirección en la que hay que cavar y, lo que es más importante, no responde a la pregunta: ¿por qué un resultado negativo? El probador afirma el hecho: es malo. Luego viene el uso de un método universal llamado MÉTODO TYKA o bla-bla, que suele suponer un cambio intuitivo de indicadores para intentar conseguir el conjunto de indicadores que nos lleve al caso 1 descrito anteriormente.

¿Existen ideas, herramientas, que puedan hacer más significativo el proceso del caso 2 y asegurar que los resultados obtenidos en el probador se obtendrán en el futuro en la cuenta real?

Sí los hay, he dado un enlace a un hilo paralelo. Se trata de esas herramientas para analizar el conjunto inicial de datos de entrada (predictores), que no llevarán a un reentrenamiento (sobreajuste) del ST. Estos no son "blah-blah" - se trata de herramientas específicas con justificación matemática de su eficacia, sin búsqueda intuitiva del grial, y después de encontrarlo, vaciar el depósito.

 
Stanislav Korotky:
Si se utiliza una prueba de avance, el "sobreentrenamiento" será visible por la degradación de los resultados fuera del período de optimización. Desgraciadamente, MT no proporciona ningún método incorporado para comparar los resultados de la optimización y las pruebas de avance, es decir, se sugiere hacerlo manualmente (a ojo), mediante programas externos o scripts a discreción.
El término "reconversión" en sí mismo es una tontería, pretende justificar la no funcionalidad del propio EA y pierde completamente su sentido al volcarse hacia adelante. Si una variable está sobreaprendida o infraaprendida, de hecho, no es obvio a partir de la degradación. Sólo se puede ver cuando se comparan los resultados de avance bajo diferentes condiciones de optimización y prueba. Tanto la profundidad de la historia como el paso adelante se seleccionan en cada caso personalmente y entonces ya es visible lo que está sobre y lo que está subentrenado.
 
СанСаныч Фоменко:

...

CASO 2.

El probador afirma un hecho - malo. Luego viene la aplicación de un método universal llamado MÉTODO TYKA o bla-bla, que suele consistir en cambiar intuitivamente un conjunto de indicadores para intentar obtener un conjunto de indicadores que nos lleve al caso 1, descrito anteriormente.

¿Existen ideas, herramientas, que puedan hacer más significativo el proceso del caso 2 y asegurar que los resultados obtenidos en el probador se obtendrán en el futuro en la cuenta real?

Sí los hay, he dado un enlace a un hilo paralelo. Se trata de esas herramientas para analizar el conjunto inicial de datos de entrada (predictores), que no llevarán a un reentrenamiento (overfitting) del ST. Estos no son "blah-blah" - se trata de herramientas específicas con justificación matemática de su eficacia, sin búsqueda intuitiva del grial, y después de encontrarlo, vaciar el depósito.

¿Y si este método de picar se automatiza? Interesantes reflexiones en este sentido. Los indicadores están cambiando, así como sus interacciones, las interacciones se representan como funciones separadas, por lo que el número de parámetros puede cambiar, sólo se produce la optimización más simple de acuerdo con ellos. Por eso me interesa la pregunta formulada en este hilo, un enfoque más universal, que no dependa de los parámetros de la estrategia. La rama que usted propone tiene objetivos completamente diferentes. Pero si muestras la aplicabilidad de esos métodos a este problema, eres bienvenido.

 
Youri Tarshecki:
El término "recalificación" en sí mismo es una tontería, diseñada para justificar la inoperancia del propio EA y pierde completamente su significado con un volking hacia adelante. Si una variable está sobreentrenada o infraentrenada, de hecho, no se puede saber por la degradación. Sólo se puede ver cuando se comparan los resultados de avance bajo diferentes condiciones de optimización y prueba. Tanto la profundidad de la historia como el paso adelante se seleccionan en cada caso personalmente y entonces ya es visible lo que está sobre y lo que está subentrenado.

En esta situación es aplicable el término "sobreentrenamiento", el entrenamiento se refiere no sólo a la fijación de parámetros sino también a la construcción de estrategias.

Me gustaría estimar la probabilidad de sobreentrenamiento, para que el sistema de búsqueda pueda al menos "evitar" los lugares dudosos, si sólo se compara con una parcela de la historia hacia adelante, puede ocurrir que el sistema perciba dos parcelas de la historia (entrenamiento, prueba) como una parcela de entrenamiento. Escuchar ideas)).

 
Aliaksandr Hryshyn:

En esta situación es aplicable el término "sobreentrenamiento", el entrenamiento se refiere no sólo a la fijación de parámetros sino también a la construcción de estrategias.

Me gustaría estimar la probabilidad de sobreentrenamiento, para que el sistema de búsqueda pueda al menos "evitar" los lugares dudosos, si sólo se compara con una parcela de historia hacia adelante, puede ocurrir que el sistema perciba dos parcelas de historia (entrenamiento, prueba) como una parcela de entrenamiento. Escuchar ideas)).

Cuando se construye una estrategia, el término "sobreentrenamiento" es aún más inaplicable, ya que sólo estamos comparando el resultado de la prueba en las mismas condiciones de entrenamiento para seleccionar la variante de código. Y cómo se eligen estas condiciones de forma óptima no es tan importante, lo principal es que sean las mismas para todas las variantes del código. De lo contrario, la elección carece de sentido.
 

El término "sobreentrenamiento" o "sobreoptimización" fue inventado por los tweakers porque, efectivamente, cuanto más se optimiza un EA en una parte concreta del historial y cuantos más parámetros de optimización hay, mejores son los resultados en el entrenamiento.

Por alguna razón, existe la opinión de que hay una correlación inversa con los resultados de las pruebas, es decir, cuanto menos, mejor, pero mi experiencia demuestra que esto no es cierto. El resultado de la prueba no depende del número de pases de optmización, sino de la calidad del propio Asesor Experto y de la elección óptima de las ejecuciones de entrenamiento y prueba. Los resultados de los esquemas en los que la historia se somete a una optimización mínima no son los mejores que he visto.

Por ejemplo, bajo el esquema de wolfkin forward en un entrenamiento de 4 meses - prueba de 1 mes, cada intervalo de la historia se optimiza 4 veces, pero bajo el esquema de entrenamiento de 2 meses - prueba de 2 meses sólo una vez. ¿Es mucho o poco? ¿Quién sabe? Sólo hay que ver los resultados de las pruebas. Si la suma de delanteros es mejor, entonces es la mejor opción.

 
Youri Tarshecki:
Cuando se construye una estrategia, el término "sobreentrenamiento" es aún más inaplicable, ya que sólo estamos comparando el resultado de la prueba en las mismas condiciones de entrenamiento para seleccionar una variante del código. Y cómo se eligen estas condiciones de forma óptima no es tan importante, lo principal es que sean las mismas para todas las variantes del código. De lo contrario, la elección carece de sentido.

Este término se utiliza con bastante frecuencia:"El sobreentrenamiento, lasobreadaptación es un fenómeno indeseable que se produce en las tareas deaprendizaje basadas en precedentes cuando la probabilidad de error del algoritmo entrenado en los objetos de la muestra depruebaes significativamente mayor que el error medio enla muestra de entrenamiento."

Según la definición, la igualdad de las condiciones de entrenamiento no impide la aplicabilidad del término a nuestro problema.

 
Nikkk:

La reconversión es como la palabra contrarrevolución. Entonces, para qué enseñar si hay que reciclar. Y si tiene sentido volver a entrenar, entonces sabes los límites de flotación para volver a entrenar, de lo contrario es la misma ruleta al final. Y puesto que hay puntos de decisión sobre cuándo/con qué frecuencia/qué parámetros... hay que volver a entrenar, por qué no poner esta comprensión en la lógica del propio entrenamiento/algoritmo desde el principio.

Pasar del análisis del precio al análisis de la retroalimentación entre la formación y la realidad (el precio). Lo mismo desde un ángulo diferente.

Basta con comparar el aprendizaje con la memoria. No es que te preguntes por qué necesitas recordar si tienes que olvidar de todos modos. El problema es que los EA no suelen tener una memoria a largo plazo y una memoria de trabajo separadas. Además, la evaluación de su rendimiento es muy primitiva. Por lo tanto, lo ideal sería enseñar (dar memoria) a cada uno de los permanentes por separado (que es lo que yo intento hacer, por cierto), y probarlo no en segmentos de entrenamiento, sino en segmentos de prueba.
 
Aliaksandr Hryshyn:

Este término se utiliza con bastante frecuencia:"El sobreentrenamiento, lasobreadaptación es un fenómeno indeseable que se produce en las tareas deaprendizaje basadas en precedentes cuando la probabilidad de error del algoritmo entrenado en los objetos de la muestra depruebaes significativamente mayor que el error medio enla muestra de entrenamiento."

Según la definición, la igualdad de las condiciones de entrenamiento no impide la aplicabilidad del término a nuestro problema.

Así que cuando se construye una estrategia, la tarea es diferente. No se trata de precedentes, ni de optimización, sino de escribir código.

Además, no estoy de acuerdo con esta definición. Según esto, si no estamos optimizando en absoluto y la probabilidad de fracaso en la prueba es mayor que en el entrenamiento (lo cual es algo habitual), también se considerará sobreoptimización. ¿Y qué significa sustancialmente? ¿Dos veces? ¿Por diez veces?

 
Youri Tarshecki:
Basta con comparar el aprendizaje con la memoria. No es que te preguntes por qué necesitas recordar si tienes que olvidar de todos modos. El problema es que los EAs generalmente no tienen memoria a largo y corto plazo por separado. Además, la evaluación de su rendimiento es muy primitiva. Por lo tanto, lo ideal sería enseñar cada permanente por separado (lo que estoy intentando hacer, por cierto), y comprobarlo no en segmentos de entrenamiento, sino en segmentos de prueba.

No lo olvides, lo que ocurre es que el recuerdo de la sección en la que se realizó el entrenamiento se transforma en el recuerdo de los resultados del entrenamiento de esa sección. Es lo mismo que si filtramos un área y luego utilizamos la información filtrada para el análisis, luego la filtramos y utilizamos otra y así sucesivamente, mientras que hay una conexión entre la naturaleza del filtrado/áreas en las que se realizaron estos filtros.

Allí no se olvida nada, el mismo análisis de la historia desde un ángulo diferente. Como quiera llamarlo, sobreaprendizaje/sobreoptimización/adaptación/adaptación/sobreajuste.

Razón de la queja: