Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 2606

 
Maxim Dmitrievsky #:

Hay una pregunta así:

Se utilizan dos modelos. Uno predice que hay que comprar o vender, el otro que hay que negociar o no.

Primero se entrena el primer modelo, luego miramos dónde predice mal, marcamos estos ejemplos como "no comerciar", los otros buenos como "comerciar", y luego entrenamos el segundo modelo.

El primer modelo se prueba no sólo en la zona de entrenamiento sino también en la zona adicional y el segundo modelo se entrena en ambas zonas.

Repetimos esto varias veces, reentrenando ambos modelos en el mismo conjunto de datos. Los resultados mejoran gradualmente en las muestras. Pero no siempre en la muestra de control.

Paralelamente, mantenemos un registro de malas operaciones acumulado para todos los pases, todos los tratos "malos" para "no comerciar" se recogen en él para el entrenamiento del segundo modelo y se filtran de acuerdo con un cierto principio como el de que cuantas más copias de malos tratos para todos los pases, más posibilidades de marcarlos como "no comerciar"

Por ejemplo, para cada fecha se acumula una cantidad de operaciones malas para todas las iteraciones de entrenamiento, cuando esta cantidad supera un umbral (media, promedio), esas operaciones se marcan como "no operar". El resto de operaciones se saltan, de lo contrario sería posible excluir todas las operaciones si hay muchas iteraciones de entrenamiento.

El coeficiente permite ajustar el número de operaciones en la salida, cuanto más bajo sea, más operaciones se filtrarán

... a estas alturas ya estoy cansado de escribir...

¿Cómo se puede mejorar esa combinación de modelos para que mejore sus resultados en una nueva parcela independiente?
¿Existe alguna filosofía que explique por qué esto puede funcionar? Aparte del hecho de que los modelos se mejoran naturalmente (el error disminuye) en cada vuelta de reentrenamiento, pero ¿cómo deshacerse del ajuste?

¡Interesante concepto!

1. Cómo deshacerse de la adaptación. No entiendo mucho de iteraciones. ¿Por qué no se puede entrenar el modelo de filtrado (segundo) una vez y evaluar si mejora/no mejora el rendimiento del primero? Podría simplemente filtrar las señales 1 a 2, o alimentar la salida 2 a la entrada 1.

2. Cómo mejorar.
2.1. Podrías intentar hacer una partición posterior a la transacción en una partición de clúster. Seguro que las malas señales se acumulan. Y los buenos. Marcamos los grupos. Podemos entrenar a través de un enfoque transaccional (fichas sobre la base de las entradas/candidatos), orientado a encontrarnos en un grupo bueno o malo. O puede entrenar por clústeres (chips por clústeres, un objeto de muestra de entrenamiento - clúster), objetivo - ya sea el mismo (la siguiente vela en el clúster bueno o malo) o el siguiente clúster - bueno o malo (bueno, probablemente es lo mismo en esencia).
2.2. Las descripciones de las características probablemente deberían ser diferentes para estos modelos, de lo contrario creo que la utilidad marginal del segundo modelo sería baja.


3. Filosofía detrás del concepto. Quién lo necesita, la eficiencia del modelo, el beneficio es la vara de medir. Los experimentos mandan, no la filosofía).

 
Replikant_mih #:

¡Interesante concepto!

1. Cómo deshacerse del accesorio. No entiendo mucho de iteraciones. ¿Por qué no se puede entrenar el modelo de filtrado (segundo) una vez y evaluar si mejora/no mejora el rendimiento del primero? Podría simplemente filtrar las señales 1 a 2, o alimentar la salida 2 a la entrada 1.

2. Cómo mejorar.
2.1. Podrías probar a hacer un marcado de post-transacción en un marcado de cluster. Seguramente las malas señales se acumulan. Y los buenos. Marcamos los grupos. Podemos entrenar a través de un enfoque transaccional (fichas sobre la base de las entradas/candidatos), orientado a encontrarnos en un grupo bueno o malo. O puede entrenar por clústeres (chips por clústeres, un objeto de muestra de entrenamiento - clúster), objetivo - ya sea el mismo (la siguiente vela en el clúster bueno o malo) o el siguiente clúster - bueno o malo (bueno, probablemente es lo mismo en esencia).
2.2. Las descripciones de las características probablemente deberían ser diferentes para estos modelos, de lo contrario creo que la utilidad marginal del segundo modelo sería baja.


3. Filosofía detrás del concepto. Quién lo necesita, la eficiencia del modelo, el beneficio es la vara de medir. Los experimentos mandan, no la filosofía).

Queremos mejorar la generalizabilidad del primer modelo (y también del segundo). Si simplemente filtramos sus señales con el segundo modelo, el error de clasificación del primer modelo no se reducirá en sí mismo. Así que ejecutamos los dos modelos entrenados en el conjunto de datos y eliminamos los ejemplos malos del entrenamiento del primero, para que el error sea menor. Y el error en la segunda cae también. Y así lo repetimos varias veces. Debería mejorar cada vez. Pero quiero que mejore en la muestra de prueba cada vez, pero hay una gran variación.

Así que creo que lo que debería añadir allí, puede ser algunas reflexiones son buenas también :)

 
Maxim Dmitrievsky #:

Queremos mejorar la generalizabilidad del primer modelo (y también del segundo). Si simplemente filtramos sus señales con el segundo modelo, el error de clasificación del primer modelo no se reducirá internamente. Así que ejecutamos los dos modelos entrenados en el conjunto de datos y eliminamos los ejemplos malos del entrenamiento del primero, para que el error sea menor. Y el error en la segunda cae también. Y así lo repetimos varias veces. Debería mejorar cada vez. Pero quiero que mejore en la muestra de prueba cada vez, pero hay una gran variación.

Estoy pensando en qué más debería añadir ahí, quizás algunas ideas puedan funcionar también :)

¿Está seguro de que necesita dos modelos y de que mejorarán los resultados de la información?
Usted puede tomar el límite del primer modelo no a través de 0,5, pero a través de 0,3 y 0,7 o incluso 0,1 y 0,9 - por lo que las ofertas con baja probabilidad se eliminará y habrá menos de ellos y el modelo será sólo 1.
 
Aleksey Nikolayev #:

No me malinterpretes... Por lo tanto, prefiero basarme enlas afirmaciones de lo verificable.

No me malinterpreten. Sólo señalaba la inexactitud de tu construcción lógica: "no hay algoritmos de larga duración en el mercado, si no, tarde o temprano serían los únicos que quedarían en el mercado". Te mostré exactamente en qué nicho existen. Por qué existen allí de forma aislada, pero no captan todo el mercado. Y dio un ejemploverificable.

Об авторе | QuantAlgos
  • www.quantalgos.ru
Приветствую вас в моем блоге. Меня зовут Виталий, занимаюсь написанием биржевых роботов c 2008 года. В 2009 и 2010 гг. участвовал в конкурсе ЛЧИ (лучший частный инвестор) под ником robot_uralpro, проводимом биржей РТС  (сейчас Московская биржа). Использовались HFT роботы, написанные на C#.  Результаты были следующие: В настоящее время продолжаю...
 
elibrarius #:
¿Estás seguro de que necesitas 2 modelos y de que mejorarán el resultado en OOS?
Podría tomar el límite del primer modelo no a través de 0,5, sino a través de 0,3 y 0,7 o incluso 0,1 y 0,9 - de esa manera los tratos de baja probabilidad serán eliminados y habrá menos de ellos y el modelo será sólo 1.

con 2 hay más flexibilidad, estas probabilidades son... sólo el número de operaciones disminuye, la estabilidad no.

 
Maxim Dmitrievsky #:

con 2 más de flexibilidad, estas probabilidades son... sólo el número de operaciones disminuye, la estabilidad no.

Tampoco tienes estabilidad con 2...
 
Dr .:

No me malinterpreten. Sólo señalaba la inexactitud de tu construcción lógica: "no hay algoritmos de larga duración en el mercado, si no, tarde o temprano serían los únicos que quedarían en el mercado". Te mostré exactamente en qué nicho existen. Por qué existen allí de forma aislada, pero no captan todo el mercado. Y dio un ejemploverificable.

Verificar la existencia real de una declaración determinada no significa verificar su contenido.

Incluso si asumimos (aunque puede haber y suele haber problemas con esto) que alguien está ganando dinero de forma constante año tras año, no está nada claro cómo se puede demostrar que esto se hace con el mismo algoritmo. Me gustaría ver opciones más sustanciales que el "haz caso a tu palabra" y el "eso es lo que te digo".

 
Maxim Dmitrievsky #:

con 2 más de flexibilidad, estas probabilidades son... es que el número de operaciones disminuye, la estabilidad no.

es mejor con 3.

;)

 
elibrarius #:
Tampoco tienes estabilidad con 2...

muchas opciones, es difícil comparar

 
Maxim Dmitrievsky #:

muchas opciones, es difícil comparar

Ya tienes un ejemplo de paquete de trabajo de 2 modelos. Es fácil hacer una variante con el primer modelo (con un corte a través de 0,1-0,9 o 0,2-0,8) y comparar su estabilidad en el OOS.
Razón de la queja: