Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 2107

 
elibrarius:
Así es como debería ser. Es necesario equilibrar por clase de NS. Los árboles pueden arreglárselas tal y como están.

Bueno, no siempre lo hacen, ya lo he escrito antes.

 

Parece que quemé un Asesor Experto rentable (enfoque de formación) en mi artículo:

El gráfico muestra el resultado financiero del modelo al final de cada mes, si se entrena el primer modelo en 12 meses y luego se le añade la historia de cada nuevo mes - pegando el contrato de futuros Si en USDRUB_TOM.

 
Aleksey Vyazmikin:

Bueno, no siempre se las arreglan, ya lo he escrito antes.

Creo que aumentar la profundidad de los árboles ayudará tanto como equilibrar.
 
Aleksey Vyazmikin:

Sí, esencialmente añadiendo ruido a los índices de predicción. Esto puede afectar a los límites de cuantificación aumentando la selección de áreas con unos, pero por idea el mismo efecto debería ser con la adición de duplicados, solo que asumo que los duplicados son cortados por el algoritmo CatBoost antes de que comience el entrenamiento (necesito verificar), entonces sí es una opción.

Lo más probable es que la cuantificación anule ese ruido. Si una columna tiene 10000 valores diferentes, cuantificando a 255 cuantos se obtendrá una media de 40 valores diferentes en un cuanto. O otro ejemplo - si había originalmente 1000 ejemplos, añadir el ruido con conseguir 10000 ejemplos, luego cuantificar a 255 diferentes quanta/valores - trabajo innecesario en mi opinión con esta adición de ruido.


He mirado el código recientemente - no he visto ninguna eliminación de duplicados. Más bien al contrario, se eliminan los duplicados de 40 muestras diferentes y se fusionan en 1 quantum.

 
elibrarius:
Creo que aumentar la profundidad de los árboles ayudará tanto como equilibrar.

También puedes probar a aumentar la profundidad. También debería disminuir la tasa de aprendizaje en paralelo - también mejora los resultados en las muestras desequilibradas.

elibrarius:

La cuantificación más bien anulará este ruido. Si una columna tiene 10000 valores diferentes, la cuantificación a 255 cuantos dará una media de 40 valores diferentes en una sola cuantificación. O otro ejemplo - si había originalmente 1000 ejemplos, añadir el ruido con conseguir 10000 ejemplos, luego cuantificar a 255 diferentes quanta/valores - trabajo innecesario en mi opinión con esta adición de ruido.

Para ello, se utilizan diferentes métodos de cuantificación, entre los que se incluye el tener en cuenta la aglomeración de objetos en el rango.

elibrarius:

Hace poco estuve mirando el código y no vi ninguna eliminación de duplicados. Más bien al contrario, de 40 ejemplos diferentes se hacen duplicados combinando en 1 quantum.

Si has encontrado el proceso de cuantificación (ajuste de límites) en el código, ¿puedes publicar este código? ¿Debe haber funciones allí?

 

¿Qué tiene que ver la mejora de la profundidad con

tienes una gran nube de puntos de una clase y unas pocas muestras de la otra, con una y otra (o tal vez incluso dentro) que nunca se ejecutan.

La segunda clase tiene que ser hinchada a un tamaño sano, o utilizar algoritmos de clasificación de una clase

 
Maxim Dmitrievsky:

¿Qué tiene que ver la mejora de la profundidad con esto?

tienes una gran nube de puntos de una clase y unas pocas muestras de otra con lado a lado (o tal vez incluso dentro) que nunca se ejecutan.

La segunda clase necesita ser inflada a un tamaño sano

Aumentar la profundidad ayudará a resaltar las áreas con un número pequeño de muestras en las hojas, otra cosa es que el porcentaje de hojas con ceros puede permanecer igual, y entonces los árboles posteriores volverán a oscurecer esas unidades. Cuando se entrenan estas muestras, se puede ver cómo el Recall llega a cero en medio del entrenamiento, y luego vuelve a tener porcentajes pequeños.

¿Puede inflarse si doy una muestra? Si el método funciona, pensaré cómo implementarlo en MT5.

 
Aleksey Vyazmikin:

Aumentar la profundidad ayudará a resaltar las áreas con un número pequeño de muestras en las hojas, otra cosa es que el porcentaje de hojas con ceros puede permanecer igual, y entonces los árboles posteriores volverán a oscurecer esas unidades. Cuando se entrenan estas muestras, se puede ver cómo el Recall llega a cero en medio del entrenamiento, y luego vuelve a tener porcentajes pequeños.

¿Puede inflarse si doy una muestra? Si el método funciona, entonces pensaré cómo implementarlo en MT5.

Sí, puedo. Todo es una mierda de hojas y demás. Las clases deben estar equilibradas
 
Maxim Dmitrievsky:
Puedo. Todo son tonterías sobre hojas y demás. Las clases deben estar equilibradas.

Aquí hay un ejemplo - dividido en 3 partes, entiendo que sólo hay que modificar train.csv?

Columna objetivo "Target_100" - las últimas 4 columnas no están involucradas en el entrenamiento (puede centrarse en la columna de la fecha allí) - lo necesita para construir el balance.

Файл из Облака Mail.ru
Файл из Облака Mail.ru
  • cloud.mail.ru
Облако Mail.ru - это ваше персональное надежное хранилище в интернете.
 
Aleksey Vyazmikin:

Parece que quemé un Asesor Experto rentable (enfoque de formación) en mi artículo:

El gráfico muestra el resultado financiero del modelo al final de cada mes, si se entrena el primer modelo en 12 meses y luego se le añade la historia de cada nuevo mes - pegando el contrato de futuros Si en USDRUB_TOM.

el saldo rentable sube en el mismo ángulo

o geométricamente si se reinvierte