¡No es asunto de Mashka! - página 5

 
Neutron:

Eso es lo que obtienes si el sumador no se sumerge en las mezclas retrasadas, sino en sí mismo :-) es decir, en la primera derivada de la MA ideal.

Lo único que queda es encontrar un MA ideal. Prueba el verdadero Djuric. No es lo ideal, pero se acerca a ello. Y también es bastante suave.

 
Neutron:

¡Oh, qué interesante!

Eso es lo que obtienes, si sumerges las entradas del sumador no a los macizos retrasados, sino a sí mismo :-) es decir, a la primera derivada de la MA ideal.

¿Y por qué nadie pide que se especifique? :) ¿Está todo claro para todos?

No hay mash-ups perfectos en la barra actual. Realmente podrían ser sus predicciones. ¿Estamos hablando de ellos?

 
Neutron:

a Vinin

Díganme lo que piensan: ¡habrá una segunda parte!


Hace mucho tiempo que soy lector, por desgracia. Por eso no puedo ofrecerte nada. Pero el tema es realmente interesante. Le ruego que me disculpe.

 
lna01:
Neutrón:

¡Oh, qué interesante!

Eso es lo que obtienes, si sumerges las entradas del sumador no a los macizos retrasados, sino a sí mismo :-) es decir, a la primera derivada de la MA ideal.

¿Y por qué nadie pide que se especifique? :) ¿Está todo claro para todos?

No hay Ma's ideales en la barra actual. Es posible que haya sus predicciones. ¿Estamos hablando de ellos?

No, me refiero a la previsión de la anchura de la ventana de suavizado de la onda perfecta. Te recuerdo que se tambalea mucho en el borde derecho de BP con una zona de suavizado típica justo del ancho de esa misma ventana.


Encontré un error en el código - se me pasó una línea sin corregir el índice, como resultado el pronóstico se construyó usando los pesos contados para la ventana hacia atrás multiplicados por el valor actual del Ma ideal. Este es el resultado corregido (véase la figura). Los pesos se multiplican por el МАWA (me refiero a su derivada) una ventana antes.


Se trata de una previsión para 5 bares por delante. Como era de esperar, la curva de previsión se ha derrumbado con éxito ya en la salida. Aumentar el número de ecuaciones por encima de 2 (lo he comprobado hasta un centenar) no supone una mejora significativa.


P.D. ¡Estoy aliviado!


a Vinin

Yo, por desgracia, me convertí en lector hace tiempo. Por eso no puedo ofrecerte nada. Y el tema es realmente interesante. Le ruego que me disculpe.

Pues bien, cómo cargar las neuronas para este caso. ¿No es eso débil?

De repente, la no linealidad a priori de la NS nacida en al menos dos capas ocultas obrará un milagro...

 
Neutron:

a Vinin.

Hace mucho tiempo que soy lector, por desgracia. Por eso no puedo ofrecerte nada. Pero el tema es realmente interesante. Perdóname.

Pues bien, cómo cargar las neuronas para este caso. ¿No es eso débil?

¿Y si la no linealidad a priori del NS, nacida en al menos dos capas ocultas, pudiera obrar el milagro...

Por supuesto que es posible hacer una neurona. Pero no se trata sólo de una cuestión neuronal. Es necesario definir las entradas, y todavía no lo veo.

 

Las entradas no tienen nada de malo. Lo principal es determinar el intervalo de confianza para operar.

A veces el sistema opera durante seis meses y luego pierde dinero abruptamente, pero a veces incluso antes....

 
Neutron:

Encontré un error en el código - se me pasó una línea sin corregir el índice, como resultado el pronóstico se basó en los pesos calculados para la ventana hacia atrás, multiplicados por el valor actual de la MA ideal. Este es el resultado corregido (véase la figura). Los pesos se multiplican por el МАWA (me refiero a su derivado) una ventana antes.


Se trata de una previsión para 5 bares por delante. Como era de esperar, la curva de previsión se ha derrumbado con éxito ya en la salida. Aumentar el número de ecuaciones por encima de 2 (lo he comprobado hasta un centenar) no proporciona ninguna mejora significativa.


Seryoga, este es un pronóstico muy malo, los métodos de autocorr-i hacen un pronóstico ligeramente mejor. Tendrás grandes errores cuando vayas a BP

 
grasn:

Seryoga, este es un pronóstico muy malo, los métodos de autocorr-i hacen un pronóstico ligeramente mejor. Tendrás grandes errores cuando vayas a BP

Si te refieres a modelos autorregresivos lineales de la forma

entonces me permito diferir. La cuestión es que estoy resolviendo casi el mismo problema (comparar: x[n+1]=SUMA{w[i]*x[n-i]}, donde i=0...P-1), la única diferencia es que los pesos bajo el signo de la suma se determinan adaptativamente en la profundidad P, mientras que en la forma clásica - integralmente en una escala mayor (para el conjunto estadístico al calcular los coeficientes de correlación). El hecho de que no hay ningún resultado, por lo que sólo refuerza mi deseo de pasar al análisis por métodos no lineales, especialmente utilizando NS.

En cuanto al caso de extrapolación perfecta de Mach (has citado un gráfico), creo que se puede aumentar significativamente el horizonte de previsión mediante la conservación de las derivadas de orden n a partir de LPF, donde n debe ser mayor que 2. En mi caso sólo se almacenaba la primera derivada, por eso cuando se aumentaba el horizonte más allá de 2-3 bares la serie empezaba a desmoronarse.

 
Neutron:
grasn:

Seryoga, este es un pronóstico muy malo, los métodos de autocorr-i hacen un pronóstico ligeramente mejor. Tendrás grandes errores cuando vayas a BP

Si te refieres a modelos autorregresivos lineales de la forma

entonces me permito diferir. La cuestión es que estoy resolviendo casi el mismo problema (comparar: x[n+1]=SUMA{w[i]*x[n-i]}, donde i=0...P-1), la única diferencia es que los pesos bajo el signo de la suma se determinan adaptativamente en la profundidad P, mientras que en la forma clásica - integralmente en una escala mayor (para el conjunto estadístico al calcular los coeficientes de correlación). El hecho de que no hay ningún resultado, por lo que sólo refuerza mi deseo de pasar al análisis por métodos no lineales, especialmente utilizando NS.

En cuanto al caso de extrapolación perfecta de Mach (has citado un gráfico), creo que se puede aumentar significativamente el horizonte de previsión mediante la conservación de las derivadas de orden n a partir de LPF, donde n debe ser mayor que 2. En mi caso sólo se conserva la primera derivada, por eso cuando el horizonte supera los 2-3 compases la serie empieza a decaer.




Serega, y en el que sólo se utiliza el sumador con coeficientes. Por lo tanto, se puede argumentar que tienes una red neuronal, aunque sea pequeña. Comparemos tu modelo y el mío, sólo hay que pensar en los criterios. Yo usaré predict() en MatCAD, y tú usarás tu sistema. Tenemos el mismo entorno de desarrollo, así que vamos a definir el archivo de datos (cotización, proceso bajo prueba - cierre, media o lo que sea ..., área de pruebas). Sólo probamos la previsión MA, la propia MA se selecciona de forma adaptativa - no importa cómo, sólo el resultado final es importante. Lo probamos en cada muestra, aumentando así la validez estadística (parece que hay suficientes datos)


Pero mi horizonte de previsión se selecciona de forma adaptativa y toma valores dentro de los límites previamente especificados. Este es un ejemplo de mi previsión de MA para cuatro lecturas por delante:


[sin errores].


¿Intentamos comparar? Y si es así, cuáles son sus sugerencias para los criterios, preferiblemente debería ser una cifra correspondiente a un recuento, así creo que será más fácil de comparar.


PD: Fijemos la hora de la prueba de forma no demasiado rígida, creo que tú también tienes muchas cosas que hacer.

PD2: Para la prueba, puedes intercambiar archivos por correo, o puedes tomar tu palabra :o)

 

¡Bien!

¿He entendido bien que ambos imprimimos un archivo relativamente a la curva suave (MA) y hacemos una previsión para N lecturas por delante? Si es así, podemos evaluar el resultado de la siguiente manera: reunir las estadísticas de las predicciones (1000 resultados) para 10 lecturas por delante (por ejemplo) y construir un campo de predicción en coordenadas cartesianas, poniendo el valor real de la MA en el eje de abscisas y la predicción en el eje de ordenadas.


Sobre la nube obtenida por el método de los mínimos cuadrados trazamos una línea recta y ese método con la tangente de la pendiente de esta línea estará más cerca de 1 - ¡más empinada!


P.D. Y sobre la pequeña neurona has dado en la diana como siempre :-)

Razón de la queja: