NS + indicadores. Experimento.

 
Intentar predecir el máximo y el mínimo de la siguiente barra diaria, utilizando NS recurrente, por los valores de los indicadores estándar.
Estructura de la red: full-link, recurrente, 3 capas. número de neuronas seleccionadas por GA. trayectoria 50 ciclos.

Entrada (valores normalizados):
            ,iClose(Symbol(),Period(),i+1) - iMA(NULL,0,20,0,MODE_SMA,PRICE_MEDIAN,i+1)
            ,iClose(Symbol(),Period(),i+1) - iMA(NULL,0,10,0,MODE_SMA,PRICE_MEDIAN,i+1)
            ,iClose(Symbol(),Period(),i+1) - iMA(NULL,0,5,0,MODE_SMA,PRICE_MEDIAN,i+1)            
            ,iRSI(NULL,0,14,PRICE_MEDIAN,i+1)
            ,iATR(NULL,0,12,i+1)
            ,iWPR(NULL,0,14,i+1)
            ,iMACD(NULL,0,12,26,9,PRICE_MEDIAN,MODE_MAIN,i+1)
            ,iMACD(NULL,0,12,26,9,PRICE_MEDIAN,MODE_SIGNAL,i+1)
            ,iMACD(NULL,0,12,26,9,PRICE_MEDIAN,MODE_SIGNAL,i+1) - iMACD(NULL,0,12,26,9,PRICE_CLOSE,MODE_MAIN,i+1)
            ,iStochastic(NULL,0,5,3,3,MODE_SMA,0,MODE_MAIN,i+1)
            ,iStochastic(NULL,0,5,3,3,MODE_SMA,0,MODE_SIGNAL,i+1)
            ,iStochastic(NULL,0,5,3,3,MODE_SMA,0,MODE_MAIN,i+1) - iStochastic(NULL,0,5,3,3,MODE_SMA,0,MODE_SIGNAL,i+1)
            ,iADX(NULL,0,14,PRICE_MEDIAN,MODE_MAIN,i+1)
            ,iADX(NULL,0,14,PRICE_MEDIAN,MODE_PLUSDI,i+1)
            ,iADX(NULL,0,14,PRICE_MEDIAN,MODE_MINUSDI,i+1)
            ,iStdDev(NULL,0,10,0,MODE_EMA,PRICE_MEDIAN,i+1)
	    //www.atrlab.com
En la salida la matriz. se forma de la siguiente manera.
Si los máximos diarios son >15 pips desde el cierre anterior, entonces el primer elemento de la matriz es 1, el resto 0.
Si los máximos diarios son >30 pips desde el cierre del día anterior, entonces el segundo elemento de la matriz es 1, los otros son 0.
etc.

Ejemplos de salidas.

s1 s2 s3 s4 s5 s6 s7 r1 r2 r3 r4 r5 r6 r7
0 1 0 0 0 0 0 0 0 1 0 0 0 0
1 0 0 0 0 0 0 0 0 0 0 0 0 0
1 0 0 0 0 0 0 0 0 0 0 1 1 0
1 0 0 0 0 0 0 0 0 0 0 1 1 0
0 0 0 0 1 0 0 1 0 0 0 0 0 0
0 1 0 0 0 0 0 1 0 0 0 0 0 0
0 0 0 0 0 1 0 1 0 0 0 0 0 0

resultado. muestra de la prueba.



los valores cercanos a las líneas son la actividad de la neurona responsable del nivel de soporte/resistencia.
 
Todos los indicadores son derivados de los precios. ¿No sería más fácil alimentar sólo el precio? Una de las reglas de la preparación de los datos para la NS es reducir la dimensionalidad. Así que redúzcalo reduciendo todos los datos al precio. De lo contrario, estarás alimentando datos redundantes e interconectados.
 
Los resultados no cambiaron mi visión del mercado.
 
njel:
Los resultados no cambiaron mi visión del mercado.


Para calcular el porcentaje, se necesita un valor de referencia (a partir del cual se calcula el porcentaje). ¿Podría explicar esto + su visión del mercado, si no le importa?

 
No voy a escribir demasiado, basta con leer el artículo: Neural Networks: Working through the bugs
 
en la entrada estaba dada por
         double c1 = MathLog (  iHigh(Symbol(),Period(),i) / iClose(Symbol(),Period(),i+1)) * 100.0;
         double c2 = MathLog (  iLow(Symbol(),Period(),i) / iClose(Symbol(),Period(),i+1)) * 100.0;
y la red se ha temporizado con una trayectoria de 15 . pero la calidad del pronóstico no era feliz.

2Alex-Bugalter

He leído el artículo. Tengo una red neuronal por ejemplo, pero es modular, ¿podrías sugerir algo?
 
njel:
la entrada era
         double c1 = MathLog (  iHigh(Symbol(),Period(),i) / iClose(Symbol(),Period(),i+1)) * 100.0;
         double c2 = MathLog (  iLow(Symbol(),Period(),i) / iClose(Symbol(),Period(),i+1)) * 100.0;
y la red se ha temporizado con una trayectoria de 15 . pero la calidad de la previsión no era feliz.

Ellogaritmo natural del cociente de los dos números ? ¿Es el porcentaje de cambio en el precio?
 
Alex-Bugalter писал (а):
No voy a escribir demasiado, basta con leer el artículo: Redes neuronales: trabajar con errores
He leído el artículo, hace más daño que bien. Está escrito de forma didáctica y horrible, con la manipulación de palabras como probabilidad y beneficio. Muchas palabras ingeniosas para que suene sólido.
 
Rosh:
Alex-Bugalter escribió (a):
No voy a escribir demasiado, basta con leer el artículo: Neural Networks: A Work in Progress
Lee el artículo, hace más daño que bien. Está escrito de forma didáctica, con manipulación de palabras como probabilidad y beneficio. Muchas palabras ingeniosas para que suene sólido.

Apoyado. No es un artículo, es sólo algo para pasear.
 
Prival:
njel:
dio para la entrada
         double c1 = MathLog (  iHigh(Symbol(),Period(),i) / iClose(Symbol(),Period(),i+1)) * 100.0;
         double c2 = MathLog (  iLow(Symbol(),Period(),i) / iClose(Symbol(),Period(),i+1)) * 100.0;
y la red se ha temporizado con una trayectoria de 15 . pero la calidad de la previsión no era feliz.

El logaritmo natural del cociente de los dos números ? ¿Es este el porcentaje de cambio en el precio?
Pero recientemente he visto esas mediciones de los movimientos de los precios. Y en este momento estoy pensando en cómo alimentar el próximo modelo de NS.
 
Queridos Rosh y SK, si saben tan bien lo que es bueno y lo que es malo, y por dónde es mejor caminar.
¿Tal vez puedas señalar a los no iniciados cuál es el perjuicio y qué es exactamente lo que no es cierto en este artículo?
Mucha gente ha sido engañada, así que adelante, apunta el camino correcto.
¿O sólo has salido a dar un paseo?
Cualquiera puede lanzar indiscriminadamente calumnias.
Y en este artículo: "Redes neuronales y análisis de series temporales", ¿también es basura lo escrito?

P.d.: Y Rosh, para mí personalmente, si no es mucha molestia, ¿qué quisiste decir exactamente con: "Escrito didácticamente horrible"?
Razón de la queja: