Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 489
Está perdiendo oportunidades comerciales:
- Aplicaciones de trading gratuitas
- 8 000+ señales para copiar
- Noticias económicas para analizar los mercados financieros
Registro
Entrada
Usted acepta la política del sitio web y las condiciones de uso
Si no tiene cuenta de usuario, regístrese
Yo también me lo paso pipa. Lo he probado en muestras aleatorias y los resultados son sorprendentes. Todavía no he hecho TC.
Maxim dice que es una larga curva de aprendizaje. Tengo unas 23 horas. Pero incluso si lo hago una vez cada 3 meses - que basura).
Y durante 3 meses es exactamente suficiente, ya no se prueba.
Todavía no había entrado en esos detalles. Mi Expert Advisor no es complejo, lo optimicé durante 12 horas y luego lo olvidé. Hoy lo he probado con la misma configuración.
Todavía no me he metido en ese tipo de problemas. El Asesor Experto no es complicado, lo optimicé durante 12 horas y luego me olvidé de él. Hoy lo he ejecutado con esa configuración.
Sí, mi delantero es una mierda. Tengo un 6% de malas operaciones en adelante (muestreo aleatorio). Red - 5 capas, 50 neuronas.
¿Cuál es su red?
Hoy he decidido comprobar, mi red basada en el percetrón. Optimizado para mayo-principios de junio de 2016, EURUSD, spread 15 pips.
La cola en sí.
De todos modos, sigo confundido por el resultado.
Ya tengo un montón de versiones de esos sistemas en el backtest, todos están haciendo backtest como las penny stocks ) ese es el nombre del retroceso
Sí, el delantero es pésimo. Tengo un 6% de operaciones fallidas en mi delantera. Cinco capas, 50 neuronas.
¿Cuál es el tuyo?
Tres capas, 9 neuronas cada una. La imagen muestra un tramo muy largo desde 2004 hasta 2016. He elegido la historia larga para comprobar si el resultado es estable en todo el intervalo. Por otro lado, la reducción en el delantero es la mayor, pero por otro lado el robot ha comenzado a ganar en la segunda mitad del delantero.
se necesita wolf-forward, no se puede optimizar así, forward siempre será malo (o aleatorio) en este caso, ya tengo un montón de versiones de tales sistemas billonarios en backtest, que en forward funcionan como una moneda ) esto se llama overfitting
Veamos en otro medio año.
Veamos en otro medio año.
Intente comprobar constantemente el error del NS cuando lleguen nuevos datos (en la muestra de prueba), si el error ha aumentado en un % determinado entonces vuelva a entrenar el NS automáticamente, y así durante todo el periodo de backtest... pero esto requiere un aprendizaje rápido, pero tampoco necesita un gran conjunto de entrenamiento. En resumen, para utilizar NS como optimizador interno
Estoy tratando de escribir un artículo basado en dicho esquema, tal vez lo termine pronto
Intente comprobar constantemente el error del NS cuando lleguen nuevos datos (en la muestra de prueba), si el error ha aumentado en un determinado%, entonces vuelva a entrenar el NS automáticamente, y así durante todo el período de backtest... pero esto requiere un aprendizaje rápido, pero tampoco necesita un gran conjunto de entrenamiento. En resumen, para utilizar NS como optimizador interno
Estoy tratando de escribir un artículo basado en dicho esquema, tal vez pronto lo termine
Con respeto.
Intente comprobar constantemente el error del NS cuando lleguen nuevos datos (en la muestra de prueba), si el error ha aumentado en un determinado%, entonces vuelva a entrenar el NS automáticamente, y así durante todo el período de backtest... pero esto requiere un aprendizaje rápido, pero tampoco necesita un gran conjunto de entrenamiento. En resumen, para utilizar NS como optimizador interno
Estoy tratando de escribir un artículo basado en dicho esquema, tal vez lo termine pronto.
Por favor, escriba una descripción del mate, para dummies. Empecé a leer, pero lo que es Sugeno, Mamdani ninguna mierda que no podía entender).
Algo así como en el artículo sobre el clasificador bayesiano nayva.https://www.mql5.com/ru/articles/3264
Me gustaría echar un vistazo a la optimización rápida del artículo.
Con respeto.
Sí, a través de bosques al azar, muy rápido
Por favor, escriba una descripción del aparato de mate, para dummies. He empezado a leer, pero no entiendo nada de Sugeno, Mamdani).
Algo así como en el artículo sobre el clasificador bayesiano nayve.https://www.mql5.com/ru/articles/3264
Así que un montón de información en Internet :) hay 7 etapas, que son bastante largo para describir, pero dio enlaces. Mamdani y Sugeno sólo difieren en la inferencia lógica (no lineal y lineal)
No veo el sentido de copiar lo mismo