Está perdiendo oportunidades comerciales:
- Aplicaciones de trading gratuitas
- 8 000+ señales para copiar
- Noticias económicas para analizar los mercados financieros
Registro
Entrada
Usted acepta la política del sitio web y las condiciones de uso
Si no tiene cuenta de usuario, regístrese
Habrá más experimentos con diferentes variantes.....
Estoy probando estos algoritmos con un conjunto de indicadores y una mezcla (indicadores+precios de cierre). Si es posible y de acuerdo con tu investigación, implementa el rechazo inicial de datos correlacionados, es decir, comprueba si hay correlación. Con tu método, se seleccionarán dos indicadores cercanos (si influyen lo suficiente en el resultado), aunque uno de ellos debería dar paso a un indicador independiente.
Estoy probando estos algoritmos con un conjunto de indicadores y una mezcla (indicadores+precios de cierre). Si es posible y de acuerdo con su investigación, implemente el rechazo inicial de datos correlacionados, es decir, compruebe si hay correlación. Con su método, se seleccionarán dos indicadores cercanos (si influyen lo suficiente en el resultado), aunque uno de ellos debería dar paso a un indicador independiente.
Será posible probarlo. De momento la versión de recursiva y Logística recursiva (regresión logit en lugar de RDF) implementa la selección de incrementos de precio, es decir, ante un array dado de predictores de 1000 precios de cierre, por ejemplo, divide la barra cero por cada valor de precio posterior, obteniendo así un gran conjunto de incrementos con diferentes retardos, y selecciona el mejor de ellos. Es decir, alimentar diferentes osciladores como momentum o rsi con diferentes periodos no tiene mucho sentido en este caso
Podría intentarlo...
Corrígeme si me equivoco en mi razonamiento (sobre los precios):
Varios métodos publicados utilizan algo como:
Con selección por error mínimo. Esto puede ser visto como una prueba de correlación con el resultado.
Digamos que hay un proceso de onda (corredor, cuña, etc). 100 valores en un marco de tiempo de una hora es ~ 4 días, hay una alta probabilidad de que haya más de 1 onda en el intervalo. Entonces tenemos 2 (o más) puntos correlacionados. Si uno de ellos influye fuertemente en el resultado, el segundo también pasará esta prueba. Y también hay medias ondas con correlación negativa. Como resultado, de diez lecturas seleccionadas para la construcción posterior, 2-3 son independientes (el resto están fuertemente correlacionadas con ellas y dan poca mejora en el reconocimiento). Se requiere seleccionar primero las lecturas que correlacionan poco entre sí (no es un problema calcular para todos los pares, pero cómo cortar un trozo de jamón de este cerdo tengo poca idea todavía).
Como confirmación indirecta, en manuales serios se afirma que el método de tree bousting da un resultado un par de % superior al de random forest (bagging). Sin embargo, depende en gran medida de la implementación y de los algoritmos internos de construcción de árboles (en el resultado anterior, ambos métodos utilizaron CART).
En consecuencia, la eficacia de un método depende en gran medida de la selección del periodo de prueba. Por cierto, la pendiente del canal no salva completamente de este problema.Para ponernos al día,
¿Quizás deberíamos usar la misma regresión logit o algún otro método en vez de promediar las lecturas de los agentes? Creo que la teoría dice que funciona.
Ponte al día,
¿Quizás deberíamos usar la misma regresión logit o algún otro método en vez de promediar las lecturas de los agentes? Quiero decir, en teoría, así es como funciona.
Se puede usar cualquier cosa, pero puramente en teoría algunas cosas no son nada obvias y no está claro si merece la pena dedicarles tiempo (así como a todo el planteamiento en general). Al menos será un manual de cómo no hacerlo :)
Sobre la multicolinealidad de los predictores, estoy de acuerdo. Es necesario construir una matriz de covarianza y hacer la selección basada en ella, voy a pensar más tarde cómo hacerlo mejor
Lo probé, mi impresión es ambigua, lo probé en un gráfico personalizado generado por la función Weierstrass utilizando la fórmula.
En teoría, en este gráfico personalizado RandomForest debería haber encontrado puntos de entrada muy cerca de ZigZag, o al menos no tener órdenes perdedoras en absoluto, en TF H1 periodicidad está claramente trazada, pero RF tipo de encontrado este patrón, pero las órdenes perdedoras también están presentes
probado antes en MT4 en los mismos datos el viejo GoldWarrior Expert Advisor (encontrado en el foro Inglés) - un asesor en ZigZag, en el optimizador de MT4 en todos los TF hasta M15 encuentra claramente patrones y exclusivamente en + todas las órdenes.
He probado un indicador Asesor de Expertos en el cruce de líneas de regresión (por desgracia, lo hice a la orden, no puedo proporcionar el código), y este Asesor de Expertos en el optimizador rápidamente encontró patrones en la función de Weierstrass.
¿Por qué estos ejemplos? - Si los métodos primitivos pueden encontrar regularidades, el aprendizaje automático está tanto más obligado a encontrarlas.
con el debido respeto al autor, pero el resultado es dudoso, o más bien el ejemplo de trabajo con RandomForest es excelente. pero todavía hay espacio para poner sus esfuerzos ;).
ZY: entrenado desde 2000.01.01 hasta 2001.01.01 probado desde 2001.01.01 hasta 2002.01.01
ZY: script para gráfico personalizado adjunto, Biblioteca de símbolos en KB
Descubriendo Weierstrass en un uno-dos, versión ligeramente adaptada, toda la trama es oos. No le vi sentido a ir más allá, ya es obvio. Pero me divirtió :)
no funcionará con el mercado, por supuesto. Gracias por el script, por cierto, la prueba fue muy útil, porque no podía entender al principio si había errores en la lógica, en las cotizaciones reales los resultados son mucho más modestos
Modelo lineal hace frente con la misma facilidad, es decir, para predecir esta función, incluso una red neuronal no es necesario.
Invertir las operaciones, para comprobarlo.
En cuanto a la presencia o ausencia de operaciones perdedoras - la pregunta es puramente retórica y un compromiso entre la precisión y el exceso de ajuste.
Gracias por el script, por cierto, la comprobación fue muy útil, porque yo no podía entender al principio si hay errores en la lógica, en las cotizaciones reales los resultados son mucho más modestos
;) ... Llevo medio año hablando de esto.
Estoy "masticar" las matemáticas, tengo ideas no estándar - análisis no suave y me sorprendió al descubrir que una ficción bastante interesante leer "Cuando el genio falla" por R. Lowenstein - lo leí para distraerme.
muy interesado en su código, si puedes, dame un vistazo en PM
;) ... Llevo hablando de esto unos seis meses.
Estoy "masticando" las matemáticas, tengo algunas ideas no estándar - análisis no suave y me sorprendió encontrar una ficción bastante interesante leer "Cuando el genio falla" por R. Lowenstein - lo leí para distraerme.
Estoy muy interesado en tu código, si puedes, dame un vistazo por MP.
¿no suave y no esponjoso? :) por la noche voy a recoger en 1 archivo, voy a compartir el proyecto común ... tal vez podamos hacer algo juntos.
...sobre la multicolinealidad de los predictores - estoy de acuerdo. Es necesario construir una matriz de covarianza y hacer selección sobre ella, más adelante pensaré como hacerlo mejor
Puede que esté llamando a una puerta abierta, pero como no había...
Recomiendan preprocesar antes de convertir al rango [0,1]:
1. eliminación de la periodicidad, yo lo hice en periodicityArrays() - se resta del rango el perfil compuesto por días de la semana y hora para un mes (aunque yo lo hice sólo para un intervalo de tiempo de una hora para probar).
2.Eliminación de la tendencia lineal en linearTrendArrays() como se recomienda a[i]=a[i]-a[i+1].
3.Y aquí es donde la comprobación de autocorrelación debe ser (no implementado todavía)
La predictibilidad después de 1 y 2 acciones ha aumentado significativamente. Se adjunta el código.