red neuronal y entradas - página 4

 
Demi:
Sí, por supuesto. Comercio de pares al vertedero, etc. etc.

Tú, por supuesto, lo sabes mejor. (sarcasmo)

No me refería a la negociación por parejas.
 
Demi: Muestra los resultados.
Ya te he mostrado el resultado ))))
 
LeoV:
No me refería a la negociación por parejas.

La negociación de pares y se basa en la "divergencia".

Lo tengo, gracias.

 
Demi: La negociación de pares se basa en la "divergencia".
No me refería a la divergencia, sino a los patrones entre diferentes instrumentos, que no incluían la divergencia de correlación )))
 
Figar0:

Interesante forma de decirlo... ¿Qué es la red? ¿Y en la entrada en consecuencia alguna disposición de los fractales anteriores? Al igual que para mí, sus dos salidas son más bien un problema para dos redes...

Entonces, ¿la normalización habitual en el máximo? Es decir, ¿10; 1; -5 normalizado a 1; 0,1; -0,5?

No está muy clara la normalización de los pesos. ¿También los normaliza de la misma manera? ¿Igual que los resultados intermedios capa por capa? ¿O he entendido algo mal? Si es correcto, entonces me temo que vas a tener algunas piedras aquí.

Las preguntas son extrañas fuera de contexto. ¿Qué puede aconsejar sobre la salida sin conocer el tipo de red y su tarea? Lo mismo ocurre con la entrada...



No he trabajado directamente con el precio. Utilizo la diferencia entre el precio y la parabólica. ¿Por qué una parabólica? Tiene saltos y caídas característicos y uso desplazamientos de barras de Fibonacci en la salida para que la señal no fluctúe significativamente. Así que cuando tengo 8 diferencias, las normalizo de esta manera, es decir, encuentro el módulo máximo y divido todo por este coeficiente. Entonces el peso. No lo normalizo, pero las sumas resultantes en las capas deberían disminuir naturalmente utilizando el mismo principio. Y así sucesivamente, capa por capa, hasta obtener dos valores de salida. Si normalizar también el peso, hay sospechas, que en los valores de entrenamiento de los pesos aspirará a los valores extremos -100, 100 y 0, y no as, por lo que normalizar sólo los resultados intermedios capa por capa.
 
Una normalización excesiva puede introducir distorsiones en la señal original en la que reside la información útil, lo que puede llevar a la desaparición o reducción de la proporción de esa información útil, lo que a su vez hace que la red no funcione como debería: ganando. Por eso hay que tener mucho cuidado con la normalización en los mercados de tecnología financiera.
 
LeoV:
Una normalización excesiva puede introducir distorsiones en la señal original en la que reside la información útil, lo que puede llevar a la desaparición o reducción de la proporción de esa información útil, lo que a su vez hace que la red no funcione como debería: ganando. Así que hay que tener mucho cuidado con la normalización en los mercados de tecnología financiera.

Existe la posibilidad de no normalizar en absoluto ni las señales de entrada ni las intermedias, hasta que la señal pase por todas las capas, su nivel sólo crecerá hasta el rango deseado, +/-, y la salida ya estará normalizada... Es así.
 
grell:

Es posible no normalizar las señales de entrada o intermedias en absoluto, hasta que la señal haya pasado por todas las capas, su nivel acabará de subir al rango requerido, +/-, y la salida se normalizará... Es así.
El problema es que diferentes entradas pueden tener diferentes escalas. A Grid, como a cualquier otro algoritmo, no le gusta que la escala de las variables sea muy diferente (por ejemplo, la mitad de las entradas tiene un rango [-0,0001;0,0001], y la otra mitad tiene un rango [-1000;1000]). Esto puede afectar a la convergencia de la formación. Por lo tanto, es deseable, si no normalizar, al menos establecer entradas en escalas comparables, idealmente del mismo orden: a grandes rasgos, NS simplemente aprenderá más rápido.
 

¿De qué mercado se habla aquí: estacionario o no estacionario?

 
faa1947:

¿De qué mercado se habla aquí: estacionario o no estacionario?


¿Y por qué estás sp'gashing? ¿Buscas a alguien a quien culpar de tu analfabetismo? DDD

En serio, ¿cuál es la trampa?)

Razón de la queja: