Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 2386

 
Aleksey Vyazmikin:

Además, este enfoque es algo que he estado haciendo durante muchos años.

Sin embargo, ahora lo he pospuesto un poco, porque es realmente muy lento, lo que hace imposible cambiar el objetivo rápidamente (buscar uno bueno), y las reglas individuales también dejan de funcionar, sin importar que las revises en el historial.

Maxim, ¿puedes ayudar, hacer un script en python que haga un ciclo para crear un modelo (o 100 modelos) a partir de un archivo CSV, luego analizarlo(s) sobre la importancia de los predictores por medio de CatBoost estándar, luego prohibir/permitir el uso de predictores (CatBoost puede hacerlo) en ciertas condiciones y crear de nuevo un nuevo modelo. Este método permitirá asignar predictores importantes que conducirán a la mejora del modelo. Estoy utilizando un método similar, pero es muy incómodo para mí, porque cada ciclo, después de tamizar/añadir predictores, tengo que reiniciar el ciclo de aprendizaje manualmente.

todavía no está a la altura

y no creo en este planteamiento (conozco múltiplos mejores y más rápidos)

 
Maxim Dmitrievsky:

Todavía no.

y no creo en este planteamiento (conozco múltiplos mejores y más rápidos)

El enfoque funciona: no es una cuestión de fe.

Y qué enfoque es más rápido y mejor, ¡comparemos la eficacia!

 
Aleksey Vyazmikin:

El enfoque de trabajo no es una cuestión de fe.

¿Y qué enfoque es más rápido y mejor, comparemos la eficacia?

Para que esto no sea una cuestión de fe, necesitas alguna prueba.

La eliminación de las características del modelo cambia su interacción, por lo que puedes reorganizarlas durante todo el tiempo que quieras
 
Como sabemos - cualquier NS, Forest, Boost puede reproducir cualquier MA y otra función de tipo de filtro digital dentro de sí mismo. Y parece que no tiene sentido alimentar las mismas MAs si sólo se alimentan 50-100 barras.
En las redes neuronales profundas, tal vez.
Pero en los impulsos y andamios regulados, no.
Por ejemplo, en katbust la profundidad de árbol recomendada = 6. Son 2^6=64 divisiones. Si necesitamos MA30, entonces en promedio cada barra se dividirá 2 veces (por la mitad y una de las mitades aún por la mitad). Para reproducir aproximadamente el MA (con un 10% de error), tenemos que hacer la división de cada barra al menos 10 veces. Se trata de una profundidad de 9-10 necesaria.
Pero una división profunda no permitirá que el árbol se generalice.
Así, resulta que los árboles poco profundos pueden generalizar, pero es imposible reproducir cualquier característica requerida en su interior (como MA). Esto significa que las MAs, CCIs y todo lo demás que queramos comprobar como características deben ser pasadas junto con las barras.

No soy el único que cree que las barras son suficientes para los sistemas de árboles. Si todavía hay partidarios, sugiero que den sus argumentos.
 
Maxim Dmitrievsky:

Así que no es una cuestión de fe, necesitas alguna prueba.

La eliminación de las características del modelo cambia su interacción, por lo que puedes reorganizarlas durante todo el tiempo que quieras

Definamos lo que hay que demostrar.

Por qué, en mi opinión, puede haber un proc de eliminar un predictor, formalmente un predictor puede pasar la selección como bueno para la raíz (a menudo) dividido por la razón de que tiene buenos indicadores para él - a menudo la correspondencia con otros predictores mejora los resultados - principio de la codicia, pero este principio funciona con el conjunto de datos como un todo, no hay controles sobre las características espaciales (frecuencia de ocurrencia de eventos a través de la muestra debido a su resultado), es una situación de agregación de los resultados de eventos en 1/5 de la muestra por ejemplo sólo de allí fue O una situación similar, pero ahí la razón es diferente - incluso el modelo es estable, pero resulta que el predictor se correlaciona bien con el objetivo en el momento en que el rendimiento financiero del resultado de la transacción es principalmente demasiado pequeño en el más o demasiado grande en el menos, y este es un punto muy sutil que el modelo no sabe cómo tener en cuenta al entrenar.

Por lo tanto, el objetivo no es sólo mejorar el modelo de clasificación en sí mismo en diferentes intervalos de tiempo, sino también mejorarlo en términos de resultado financiero.

 
Aleksey Vyazmikin:

Definamos lo que hay que demostrar.

Por qué, en mi opinión, puede haber un beneficio de la eliminación de un predictor, formalmente un predictor puede pasar la selección como bueno para la raíz (a menudo) dividir por la razón de que tiene buenos indicadores para él - a menudo la correspondencia con otros predictores mejora el resultado - principio de la codicia, pero este principio funciona con el conjunto de fechas en su conjunto, no hay controles sobre las características espaciales (frecuencia de ocurrencia de eventos a través de la muestra en relación con su resultado), es la situación de la acumulación de los resultados de eventos en 1/5 de la muestra, por ejemplo, sólo de que había O una situación similar, pero ahí la razón es diferente - incluso el modelo es estable, pero resulta que el predictor se correlaciona bien con el objetivo en el momento en que el rendimiento financiero del resultado de la transacción es en su mayoría demasiado pequeño en el más o demasiado grande en el menos, y este es un punto muy sutil que el modelo no sabe cómo tener en cuenta al entrenar.

Así que el objetivo no es sólo mejorar el modelo de clasificación en sí mismo en diferentes intervalos de tiempo, sino también mejorarlo en términos de resultado financiero.

No estoy preparado para codificar y luego apoyar ideas incomprensibles con resultados incomprensibles

 
Maxim Dmitrievsky:

no está preparado para codificar y luego apoyar ideas poco claras con resultados poco claros

Así que dime que sólo consideras correctas y dignas de discusión tus propias ideas.

 
Aleksey Vyazmikin:

Así que diga que sólo sus propias ideas son correctas y dignas de discusión.

bastante razonable. No entendí nada de la descripción.

Ya escribí sobre la reordenación sin sentido de los personajes, lo hice hace un par de años.

 
Maxim Dmitrievsky:

bastante razonable. No entiendo nada de la descripción.

Ya escribí sobre el sinsentido de reordenar las características, lo hice hace un par de años.

Si no entiendes la descripción, pregunta qué es lo que no está claro, intentaré explicarlo mejor.

Yo hice lo mismo hace un par de años, y lo dejé por esfuerzo, no por falta de sentido.

A continuación se muestra una tabla con los resultados del antiguo experimento, el trabajo va así:

1. El número de predictores se divide en 9 partes.

2. Se crean combinaciones entre trozos - 512

3. A continuación, se hace una estimación de cómo se comportan las muestras en promedio con la presencia/ausencia de cada trozo.

4. Se hace una suposición sobre la importancia del trozo (positivo/negativo).

5. Los trozos significativos se dividen en trozos más pequeños, y los menos significativos se combinan en un solo trozo (no es necesario que vayan en orden)

6. Se forman nuevas combinaciones de 512

7. Si se encuentra un trozo pequeño que afecta negativamente a la muestra, se excluye de la enumeración posterior hasta que deje de mejorar el resultado, entonces se puede intentar añadir los trozos excluidos y analizar el resultado de la misma manera. Las influencias positivas, en cambio, se agrupan en un solo grupo.

He aquí un ejemplo de la evolución de los indicadores con 32 iteraciones de este tipo.



Por supuesto, el método puede mejorarse, pero para ello es necesario experimentar y comprobar el resultado.

Sí, la mejora no es por tiempos, pero los resultados también permiten pensar en qué predictores son mejores o peores para el resultado y por qué.

Además, quiero probar a trabajar específicamente con las estadísticas de CatBoost y eliminar/añadir predictores (y sus grupos) precisamente por la razón de que podría ser más rápido que la enumeración que utilizaba anteriormente.

Otra ventaja es que demasiados predictores conducen a divisiones raras, y la activación de las hojas puede ser muy rara en la muestra fuera del entrenamiento (lo mostré en la captura de pantalla anterior), lo que disminuye deliberadamente la calidad del entrenamiento y su evaluación.

 
Aleksey Vyazmikin:

Si no entiendes la descripción, pregunta sobre lo que no está claro; intentaré explicarlo mejor.

Yo hice lo mismo hace un par de años, y lo dejé por el trabajo que suponía, no por lo inútil.

Una pérdida de tiempo sin sentido.

Razón de la queja: