Cómo formar correctamente los valores de entrada para el NS. - página 11

 
LeoV писал (а) >>

Los valores de entrada tampoco son una cuestión sencilla. Lo que hay que suministrar a la entrada de la red depende de muchos factores -

1. Qué tipo de red neuronal se utiliza.

2. Lo que queremos obtener de la red neuronal: el precio o la dirección del movimiento o los puntos de reversión o la siguiente vela o algo más.

Así que primero debemos decidir sobre estas cuestiones, y luego decidir sobre las aportaciones.

Sugiero hablar hasta ahora sólo de dos redes

1. Red Kohonen

2. MLP.


Dejaremos el resto para más adelante.
 

1. La red neuronal es de 4-5 capas normales (propagación directa sin anillos, estrellas ni nada).

2. de la red neuronal queremos obtener burbujas... Oh, no. Para empezar, queremos recibir la dirección del movimiento y, si es posible, una estimación de su fuerza (algo así como en pips).

Para mí hasta ahora (según mi entendimiento) la red neuronal sigue siendo un aproximador. Lo que significa que en realidad estoy tratando de expresar una relación funcional entre las variables de entrada y las de salida. Y de ahí mis pensamientos sobre las entradas. No deben ser demasiado complejas y no debemos querer que haya demasiado en la salida. Está más o menos claro con las salidas (dirección, altitud), pero lo que es para la entrada. Me estoy devanando los sesos por tercer día. Es muy frustrante que no pueda inventar ese tratamiento de la señal de entrada para que siempre esté en un rango fijo. Porque si normalizamos a un máximo de la muestra total, siempre existe la posibilidad de que aparezca un valor más alto en el futuro, que la red no conocerá y lo que pasará en tal caso no lo sé. Por supuesto que hay variantes de procesamiento de entrada como la sinusoidal o la sigmoidea, pero me parece mal, porque quiero tener una compresión lineal .

Para la salida probablemente utilizaré la dependencia hiperbólica. (Arriba-Dn)/(Arriba+Dn). Se adjunta Turquía.

Archivos adjuntos:
_target.mq4  2 kb
 
TheXpert писал (а) >>

Propongo hablar sólo de dos redes por el momento

1. Red Kohonen

2. UNA MLP


¿Qué es el MLP - perseptrón multicapa?

Kohonen es karachno. Pero probablemente por segunda vez. Aunque... estaría bien entender qué y dónde.

Por cierto, Kohonen está enseñando sin maestro, ¿no es así?

 
sergeev писал (а) >>

¿Qué es un MLP - perseptrón multicapa?


Por cierto, Kohonen está aprendiendo sin profesor, ¿verdad?

En la versión original sí. Pero existe una modificación llamada Kohonen supervisado, en cuyo caso nosotros mismos asignamos un ganador para cada patrón.

 
Y qué decir de las entradas. ¿Quién tiene qué redes e insumos?
 
sergeev писал (а) >>

2. de la red neuronal queremos obtener ba... Oh, no. Para empezar, queremos obtener la dirección del movimiento y, si es posible, una estimación de su fuerza (como en pips).

No tiene que ser mejor, basta con la dirección. Si funciona, se puede atornillar la alimentación en la parte superior.

Hasta ahora para mí (en mis términos) la red neuronal sigue siendo un aproximador.

Sí, así es.

Lo que significa que en realidad estoy tratando de expresar una relación funcional entre las variables de entrada y las de salida. Y de ahí mis pensamientos sobre las entradas. No deben ser demasiado complejas y no debemos querer que haya demasiado en la salida. Está más o menos claro con las salidas (dirección, altitud), pero lo que es para la entrada. Me estoy devanando los sesos por tercer día. Sin embargo, es frustrante que no se me ocurra ninguna forma de procesar la señal de entrada para que siempre esté en un rango fijo.

MACD

Por supuesto que hay variantes de procesamiento de la entrada como los senos o la sigmoidea, pero todo me parece mal, porque yo quiero tener una compresión lineal .

Aquí. La tarea aquí no es la compresión sino la división, por lo que no se trata de una compresión lineal sino de una división lineal que ni siquiera XOR será capaz de dividir.

Por lo tanto, la no linealidad debe estar presente. Existe un teorema según el cual cualquier perseptrón lineal de n capas puede convertirse en un analógico de 2 capas -- entrada -> salida.

Así que el perseptrón lineal está jodido.

 
sergeev писал (а) >>
Y qué decir de las entradas. ¿Quién tiene qué redes e insumos?

Intentando alimentar osciladores limitados, pero los resultados son tan lejanos como el cielo. Hay una gran cantidad de trabajo que hacer para obtener cualquier conclusión.

 
TheXpert писал (а) >>

MACD

puede tener una actualización máxima.

Aquí. El problema no es la compresión sino la separación, por lo que el resultado no es la compresión lineal sino la separación lineal, que ni siquiera XOR puede separar.

Por lo tanto, la no linealidad debe estar presente. Existe un teorema según el cual cualquier perseptrón lineal de n capas puede convertirse en un analógico de 2 capas -- entrada -> salida.

No se trata de la linealidad de las señales de salida. Se trata de comprimir linealmente los datos de entrada antes de introducirlos en la red. Compresión al rango [0, 1] basada en todos los datos de las órbitas. Si hay una conversión al rango por alguna función no lineal, obtendremos una saturación para valores grandes, entre los cuales no habrá diferencia. Esto significa que habrá repetibilidad y , por tanto, incoherencia . La compresión debe hacerse de forma lineal. Pero cómo, para que siga siendo máxima en el futuro. (mi cerebro sisea)?

 
sergeev писал (а) >>

puede tener una actualización máxima.

Sí, claro, pero me parece una buena opción.

No se trata de la linealidad de las señales de salida. Se trata de comprimir linealmente los datos de entrada antes de introducirlos en la red. Compresión al intervalo [0, 1] basada en los datos de todas las órbitas.

>> Ah, ya veo.

 
sergeev писал (а) >>

Si hay una conversión a un rango por alguna función no lineal, obtendremos una saturación para valores grandes, entre los que no habrá diferencia. Esto significa que habrá repetibilidad y , por tanto, incoherencia . La compresión debe hacerse de forma lineal. Pero cómo, para que siga siendo máxima en el futuro. (mi cerebro sisea)?


Por eso usaremos la decorelación y los % similares)

Razón de la queja: