Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 2606
Está perdiendo oportunidades comerciales:
- Aplicaciones de trading gratuitas
- 8 000+ señales para copiar
- Noticias económicas para analizar los mercados financieros
Registro
Entrada
Usted acepta la política del sitio web y las condiciones de uso
Si no tiene cuenta de usuario, regístrese
Hay una pregunta así:
Se utilizan dos modelos. Uno predice que hay que comprar o vender, el otro que hay que negociar o no.
Primero se entrena el primer modelo, luego miramos dónde predice mal, marcamos estos ejemplos como "no comerciar", los otros buenos como "comerciar", y luego entrenamos el segundo modelo.
El primer modelo se prueba no sólo en la zona de entrenamiento sino también en la zona adicional y el segundo modelo se entrena en ambas zonas.
Repetimos esto varias veces, reentrenando ambos modelos en el mismo conjunto de datos. Los resultados mejoran gradualmente en las muestras. Pero no siempre en la muestra de control.
Paralelamente, mantenemos un registro de malas operaciones acumulado para todos los pases, todos los tratos "malos" para "no comerciar" se recogen en él para el entrenamiento del segundo modelo y se filtran de acuerdo con un cierto principio como el de que cuantas más copias de malos tratos para todos los pases, más posibilidades de marcarlos como "no comerciar"
Por ejemplo, para cada fecha se acumula una cantidad de operaciones malas para todas las iteraciones de entrenamiento, cuando esta cantidad supera un umbral (media, promedio), esas operaciones se marcan como "no operar". El resto de operaciones se saltan, de lo contrario sería posible excluir todas las operaciones si hay muchas iteraciones de entrenamiento.
El coeficiente permite ajustar el número de operaciones en la salida, cuanto más bajo sea, más operaciones se filtrarán
... a estas alturas ya estoy cansado de escribir...
¿Cómo se puede mejorar esa combinación de modelos para que mejore sus resultados en una nueva parcela independiente?
¿Existe alguna filosofía que explique por qué esto puede funcionar? Aparte del hecho de que los modelos se mejoran naturalmente (el error disminuye) en cada vuelta de reentrenamiento, pero ¿cómo deshacerse del ajuste?
¡Interesante concepto!
1. Cómo deshacerse de la adaptación. No entiendo mucho de iteraciones. ¿Por qué no se puede entrenar el modelo de filtrado (segundo) una vez y evaluar si mejora/no mejora el rendimiento del primero? Podría simplemente filtrar las señales 1 a 2, o alimentar la salida 2 a la entrada 1.
2. Cómo mejorar.
2.1. Podrías intentar hacer una partición posterior a la transacción en una partición de clúster. Seguro que las malas señales se acumulan. Y los buenos. Marcamos los grupos. Podemos entrenar a través de un enfoque transaccional (fichas sobre la base de las entradas/candidatos), orientado a encontrarnos en un grupo bueno o malo. O puede entrenar por clústeres (chips por clústeres, un objeto de muestra de entrenamiento - clúster), objetivo - ya sea el mismo (la siguiente vela en el clúster bueno o malo) o el siguiente clúster - bueno o malo (bueno, probablemente es lo mismo en esencia).
2.2. Las descripciones de las características probablemente deberían ser diferentes para estos modelos, de lo contrario creo que la utilidad marginal del segundo modelo sería baja.
3. Filosofía detrás del concepto. Quién lo necesita, la eficiencia del modelo, el beneficio es la vara de medir. Los experimentos mandan, no la filosofía).
¡Interesante concepto!
1. Cómo deshacerse del accesorio. No entiendo mucho de iteraciones. ¿Por qué no se puede entrenar el modelo de filtrado (segundo) una vez y evaluar si mejora/no mejora el rendimiento del primero? Podría simplemente filtrar las señales 1 a 2, o alimentar la salida 2 a la entrada 1.
2. Cómo mejorar.
2.1. Podrías probar a hacer un marcado de post-transacción en un marcado de cluster. Seguramente las malas señales se acumulan. Y los buenos. Marcamos los grupos. Podemos entrenar a través de un enfoque transaccional (fichas sobre la base de las entradas/candidatos), orientado a encontrarnos en un grupo bueno o malo. O puede entrenar por clústeres (chips por clústeres, un objeto de muestra de entrenamiento - clúster), objetivo - ya sea el mismo (la siguiente vela en el clúster bueno o malo) o el siguiente clúster - bueno o malo (bueno, probablemente es lo mismo en esencia).
2.2. Las descripciones de las características probablemente deberían ser diferentes para estos modelos, de lo contrario creo que la utilidad marginal del segundo modelo sería baja.
3. Filosofía detrás del concepto. Quién lo necesita, la eficiencia del modelo, el beneficio es la vara de medir. Los experimentos mandan, no la filosofía).
Queremos mejorar la generalizabilidad del primer modelo (y también del segundo). Si simplemente filtramos sus señales con el segundo modelo, el error de clasificación del primer modelo no se reducirá en sí mismo. Así que ejecutamos los dos modelos entrenados en el conjunto de datos y eliminamos los ejemplos malos del entrenamiento del primero, para que el error sea menor. Y el error en la segunda cae también. Y así lo repetimos varias veces. Debería mejorar cada vez. Pero quiero que mejore en la muestra de prueba cada vez, pero hay una gran variación.
Así que creo que lo que debería añadir allí, puede ser algunas reflexiones son buenas también :)
Queremos mejorar la generalizabilidad del primer modelo (y también del segundo). Si simplemente filtramos sus señales con el segundo modelo, el error de clasificación del primer modelo no se reducirá internamente. Así que ejecutamos los dos modelos entrenados en el conjunto de datos y eliminamos los ejemplos malos del entrenamiento del primero, para que el error sea menor. Y el error en la segunda cae también. Y así lo repetimos varias veces. Debería mejorar cada vez. Pero quiero que mejore en la muestra de prueba cada vez, pero hay una gran variación.
Estoy pensando en qué más debería añadir ahí, quizás algunas ideas puedan funcionar también :)
Usted puede tomar el límite del primer modelo no a través de 0,5, pero a través de 0,3 y 0,7 o incluso 0,1 y 0,9 - por lo que las ofertas con baja probabilidad se eliminará y habrá menos de ellos y el modelo será sólo 1.
No me malinterpretes... Por lo tanto, prefiero basarme enlas afirmaciones de lo verificable.
No me malinterpreten. Sólo señalaba la inexactitud de tu construcción lógica: "no hay algoritmos de larga duración en el mercado, si no, tarde o temprano serían los únicos que quedarían en el mercado". Te mostré exactamente en qué nicho existen. Por qué existen allí de forma aislada, pero no captan todo el mercado. Y dio un ejemploverificable.
¿Estás seguro de que necesitas 2 modelos y de que mejorarán el resultado en OOS?
Podría tomar el límite del primer modelo no a través de 0,5, sino a través de 0,3 y 0,7 o incluso 0,1 y 0,9 - de esa manera los tratos de baja probabilidad serán eliminados y habrá menos de ellos y el modelo será sólo 1.
con 2 hay más flexibilidad, estas probabilidades son... sólo el número de operaciones disminuye, la estabilidad no.
con 2 más de flexibilidad, estas probabilidades son... sólo el número de operaciones disminuye, la estabilidad no.
No me malinterpreten. Sólo señalaba la inexactitud de tu construcción lógica: "no hay algoritmos de larga duración en el mercado, si no, tarde o temprano serían los únicos que quedarían en el mercado". Te mostré exactamente en qué nicho existen. Por qué existen allí de forma aislada, pero no captan todo el mercado. Y dio un ejemploverificable.
Verificar la existencia real de una declaración determinada no significa verificar su contenido.
Incluso si asumimos (aunque puede haber y suele haber problemas con esto) que alguien está ganando dinero de forma constante año tras año, no está nada claro cómo se puede demostrar que esto se hace con el mismo algoritmo. Me gustaría ver opciones más sustanciales que el "haz caso a tu palabra" y el "eso es lo que te digo".
con 2 más de flexibilidad, estas probabilidades son... es que el número de operaciones disminuye, la estabilidad no.
es mejor con 3.
;)
Tampoco tienes estabilidad con 2...
muchas opciones, es difícil comparar
muchas opciones, es difícil comparar