La etiqueta del mercado o los buenos modales en un campo de minas - página 27

 
:-)
 

¿Un centenar de épocas es suficiente si se predice el signo?

Una cosa más: cuando la red se acaba de inicializar necesita N épocas de entrenamiento, y cuando la red ya está entrenada, es decir, en cada paso posterior (tras la siguiente predicción) necesita también N épocas, ¿o es suficiente con una?

 

Buena pregunta, paralocus.

Sólo puedo dar recomendaciones. Así, según mis datos experimentales, el número de épocas de entrenamiento para NS con entrada binaria oscila entre 10 y 100 iteraciones para 2 y 8 neuronas en la capa oculta respectivamente. Para la entrada analógica - 300-500. Todo debe probarse experimentalmente.

Se necesitan N épocas cada vez.

 

Ya veo.

Aquí está el código de la red:

код сюда не влез, поэтому в аттаче

Yo, para mi vergüenza, sigo confundido con una simple cuestión: el cálculo de la longitud de la época.

Parece claro - P = k*w^2/q, donde k = (2...4); w - número de sinapsis, q - número de entradas. Al parecer, tengo algún tipo de confusión terminológica en mi cabeza. Cómo llamar a una entrada y cómo llamar a una sinapsis.

¿Podría aclararlo una vez más? Siempre ocurre en la vida que las cosas más sencillas son las más difíciles de entender -:)

Archivos adjuntos:
nero2.mqh  7 kb
 

Parece que funciona -:)


 

Sinapsis(w), es lo que tiene la neurona de la izquierda. La entrada(d), se refiere al número de sinapsis en cada neurona de la primera capa (oculta). Para una sola neurona NS, el número de sinapsis es igual al número de entradas. Para el NS que consta de dos capas y contiene dos neuronas en la primera capa (oculta) y una en la segunda (salida): w=2d+3 . La entrada de una neurona con un desplazamiento constante de +1 se considera una entrada regular. Para una red de este tipo con d=100, el número de sinapsis w=2*100+3=203. Longitud óptima del vector de entrenamiento P=k*w^2/d=2*(2d+3)*(2d+3)/d=(aprox.)=2*2d*2=8d=8*100=800 muestras.

 

Gracias.

He cambiado las entradas a binario y todo ha ido mucho mejor. Ahora estoy ejecutando la red en el probador con diferentes combinaciones de entradas. Qué gran trabajo... -:)

 

Guten morgen,

Me gustaría compartir mi alegría: el primer resultado decente, sobre todo gracias a algunos consejos de Neutron en el pasado... La barra azul es el nuevo dato, ordenada en pips. Abscisa: 10.000 EURUSD60.

Posiciones largas:

Las posiciones cortas no son tan impresionantes:

Red neuronal, 13 entradas, sin capa oculta. Entrenamiento del algoritmo genético

 

Neutron, parece que tenías razón sobre el recuento de 25 preparaciones... -:)

Algo en mi red no está aprendiendo. Después de 100 épocas, los pesos son casi los mismos con los que se inicializó la red.

En una nota relacionada, otra pregunta tonta:

¿El vector de aprendizaje es el mismo en cada época o no?

De todos modos, resulta que la relación entre la corrección acumulada y la corrección acumulada al cuadrado tiende a cero muy rápidamente. Así que después de la décima iteración el aprendizaje prácticamente se detiene.

 
YDzh писал(а) >>

Red neuronal, 13 entradas, sin capa oculta. Entrenamiento del algoritmo genético

¡Genial, YDzh!

Mis resultados son mucho más modestos. Deberías ponerlo en demo y ver lo que corta la red.

Razón de la queja: