¿Qué alimentar a la entrada de la red neuronal? Tus ideas... - página 81
Está perdiendo oportunidades comerciales:
- Aplicaciones de trading gratuitas
- 8 000+ señales para copiar
- Noticias económicas para analizar los mercados financieros
Registro
Entrada
Usted acepta la política del sitio web y las condiciones de uso
Si no tiene cuenta de usuario, regístrese
normalizaciones L1, L2. (regularizaciones). Normalmente ya están integradas en el modus operandi.
Si hay mucha más basura que buenos ejemplos (lo cual es típico de un conjunto de datos típico de Forex), ningún enfoque servirá de ayuda.
Es obligatorio que describa la teoría: el objetivo de NS es filtrar las TS que muestran algo, no buscar el grial.
No buscar el grial. Y describí el enfoque: buscar manualmente cualquier TS que muestre resultados al menos un poco. Y filtrarla con NS. Aquí está la TS original.
No es apta para el comercio, pero da señales de vida .
Y aquí está el mismo, sólo filtrada por Python NS: LSTM-clave.
Si no se muestra en la vida real, pero se toma del probador, todavía es overfit.
Y así es como se comporta la convolución (CNN) Backtest de la TC original simple cruda: 2000-2021
Método de trabajo: - buscamos algún TS, lo comprobamos en el forward: al menos no debe drenar.
E valuar subjetivamente su trabajo. - antes de abrir una posición, grabamos información del gráfico (experimentalmente - cualquiera) - en el conjunto de entrada.(yo lo hice con un script) - grabamos el resultado de la operación en el objetivo para el conjunto de entrada grabado previamente. - pasamos por todo el periodo de entrenamiento.
- lo enviamos al NS y lo entrenamos - añadimos "if (.... && out > Open_level)" a la condición de apertura de la posición - optimizamos en MT5: giramos el relé de umbral (el único parámetro a optimizar en el optimizador del probador MT5) - elegimos el conjunto que más nos guste, por ejemplo abajo - el mismo gráfico que el primero de arriba, pero "filtrado" por el NS.
- comprobar hacia adelante 2021-2025
C omo entrada: 1000 (!) precios normalizados. (Sigo soñando con la idea de formular y diseñar un contexto de mercado para NS. Y lo primero que debería contener: muchas unidades de información.
) Lo anterior era un método sencillo de explotar NS hasta que descubrimos cómo enseñarle a buscar TCs por sí mismo. Supongo que tendremos que bucear en la sección del MOE sobre aprender sin profesor, datamining, etcétera.
La verdad está enterrada ahí en alguna parte. Notas sobre NS: el reentrenamiento es el 99% del trabajo. Es decir, para llegar a este resultado (arriba), tuviste que sentarte medio día a montar la arquitectura. No hay ningún palo voshleb en la configuración de hiperparámetros.
Y hay docenas y cientos de maneras de "ajustar" algo, no se puede aprender todo. Pero en el proceso de recoger a entender o sentir el vector de la dirección del pensamiento.
Dónde hurgar y qué cocinar. En el momento actual, mirando hacia atrás a todos los muchos años de esfuerzo con estas redes, una cosa puedo decir con seguridad:no hay suficiente funcionalidad para seleccionar modelos. 1) Se inicializan los pesos aleatoriamente.
Ok. 2) Se inicia el entrenamiento y aquí está la parte más interesante: 3)Cada conjunto de pesos debería ser comprobado en el forward por criterios definidos por el usuario: por ejemplo, por factor de recuperación. 4) Tan pronto como el forward haya mejorado - autoguardar (autosave) el modelo con el gráfico de beneficios mostrado en la pantalla.
T odos los gráficos guardados deben ser visibles y desplazables para que el usuario pueda ver el progreso en paralelo. 5) En la siguiente iteración, si el modelo se ha deteriorado (se ha iniciado el sobreaprendizaje o simplemente un conjunto de pesos fallido) - volvemos al modelo anterior y cambiamos la Tasa de aprendizaje.
Continuamos hasta que las tasas de aprendizaje mejoren. 6) Si las tasas de aprendizaje no mejoran o al usuario no le gusta el vector de progreso de los resultados del aprendizaje - interrumpimos el entrenamiento y lo empezamos de nuevo con una nueva inicialización de los pesos.
7) Modificamos este proceso básico con funcionalidades adicionales bajo demanda: por ejemplo, introducimos la auto-añadición de neuronas en nuevas capas de entrenamiento, cambiamos las funciones de activación o las funciones de pérdida, las funciones de optimización (Adam a BFG+momentum y otras), etcétera, etcétera.
Es decir, creamos un motor de búsqueda de máxima utilidad para encontrar un modelo que funcione. Y no lo hacemos todo a mano. El espacio de pesos es un mapa del espacio de este tipo, en el que hay un número infinito de puntos blancos.
Con cada nuevo peso, el número de combinaciones posibles de resultados de multiplicación en las mismas combinaciones infinitas de números de entrada supera la marca del número de estrellas en el cielo. Cada inicialización es un punto en este mapa, un punto de tamaño infinitamente pequeño. Y el aprendizaje es una caminata hacia los puntos vecinos. Si un determinado grupo de puntos está lejos del punto "granizo", es mejor eliminarlo inmediatamente y volver a empezar el aprendizaje. Una nueva inicialización de escalas es otro punto aleatorio en este enorme mapa.
Y un nuevo entrenamiento es un nuevo "sondeo" del espacio alrededor. Una fórmula ideal (método) de encontrar el conjunto necesario para NS (analizando de alguna manera este mapa) es algo de la sección de ficción.
Y como alimento para la reflexión, cómo resolver o cómo eludir estas limitaciones cuantitativas. Y la reinicialización constante con un nuevo inicio de entrenamiento es al menos el método más sencillo y accesible para acercarse a la mejor configuración de red neuronal.
En este momento, mirando hacia atrás en todos los años de esfuerzo con estas redes, una cosa que puedo decir con seguridad: no hay suficiente funcionalidad para la selección del modelo. .
Bueno sí, ese es el siguiente paso del problema - a continuación, la deriva de datos y TC criterio de parada.
normalizaciones L1, L2. (regularizaciones) se describen. Suelen estar ya integradas en el MO.
Las normalizaciones L1/L2 pueden suprimir patrones débiles pero estadísticamente significativos. No es diferente de asignar sin fundamento valores de potencia aleatorios antiguos a valores de potencia aleatorios nuevos (siempre que haya algo que resumir en ns-ka).
Pues sí, ése es el siguiente paso del problema: la deriva de los datos y el criterio de detención del TC.
Si alcanzamos un resultado en el que se pueda garantizar que el modelo (grupo de modelos) entrenado funcione durante los próximos +-~N periodos, el problema se resolverá simplemente con una parada anticipada y un entrenamiento adicional. Es decir, la resolución del problema primario resolverá esencialmente también el secundario.
Aquí sólo funciona el método matemático, es decir, el filtrado de los valores de entrada por prioridad sin cambiar los valores y su número.Dos modelos sincrónicos deben ser, uno es un filtro y el otro es un predictor.El hecho de que usted persigue sin cesar estos ruidos nunca hará ningún bien.Es necesario combinar todo lo posible y más en este método.No tengo ni idea de cómo armarlo en una aplicación adecuada, pero el hecho de que la información es exacta está fuera de la cuestión.Si usted lo cree o no, depende de usted.
Amplía el pensamiento.