La etiqueta del mercado o los buenos modales en un campo de minas - página 26

 

Me tomaré un tiempo libre -:)

Deberíamos ir a la biblioteca...

 
registred писал(а) >>

No estoy muy seguro de lo que quiere decir con "reentrenamiento en cada paso".

Sólo hago predicciones usando NS para una cuenta hacia adelante. Después, para no perder la precisión de la previsión, vuelvo a entrenar la red con nuevos datos de entrada, etc. En esta situación, no se puede volver a entrenar la rejilla "desde cero", sino mantener los antiguos valores de pesos como valores de partida en la nueva cuenta atrás.

Esto es exactamente lo que tenía en mente.

 

Neutrón, cuando paso de la predicción de amplitud a la predicción de signo, resulta que el error en la salida de la rejilla es un error de signo. Es decir, el error toma un valor de +1 o -1.

¿He entendido bien este punto? Si no, ¿cómo?

 
Neutron >> :

Hago un pronóstico usando NS sólo una cuenta hacia adelante. Luego, para mantener la precisión de la previsión, vuelvo a entrenar la cuadrícula utilizando nuevos datos de entrada, etc. En esta situación, no se puede volver a entrenar la rejilla "desde cero", sino guardar los antiguos valores de pesos como valores de partida en la nueva cuenta atrás.

Esto es exactamente lo que tenía en mente.

Me pregunto si una red plana cambia las perspectivas de la previsión.

 
Jingo писал(а) >>

Me pregunto si se trata de un piso - ¿la red cambia la perspectiva de la previsión?

Pues claro que sí. Es adaptable por naturaleza.

Y entonces, un piso es esencialmente lo mismo que una tendencia, sólo que más pequeña... Así que tu pregunta se reduce a la adaptación de la NS a un horizonte comercial nuevo/cambiado. Esa es su responsabilidad directa. El hecho de que utilice los valores "antiguos" de los pesos en el ya "nuevo" mercado cuando estoy reentrenando - no estropea el proceso en sí, incluso al contrario. La cuestión es que el proceso de cambio (exactamente de cambio) de tendencia es cuasi estacionario y, por tanto, la táctica seleccionada se justifica.

paralocus escribió >>

Neutrón, cuando paso de la predicción de amplitud a la predicción de signo, resulta que el error en la salida de la red es un error de signo. Es decir, el error toma el valor +1 o -1.

¿He entendido bien este punto? Si no es así, ¿qué es?

No, no lo eres.

El proceso de entrenamiento de la red no difiere del caso clásico, la diferencia es que se da una señal binaria a la entrada de la capa oculta de neuronas y la salida es un valor real determinado en el intervalo [-1,1] (en caso de activación de la neurona de salida th()) y proporcional a la probabilidad de ocurrencia del evento (certeza de la red en una señal del incremento esperado). Si no te interesa la probabilidad, sino sólo el signo del movimiento cotyr esperado, entonces interpreta sólo el signo de la predicción, pero entrena la red con números reales (quiero decir que el error en el método ORO debe ser un número real). El hecho de que la tasa de aprendizaje aumente con este método en comparación con el caso general no es una paradoja. El hecho de que al dar la señal binaria de entrada, reducimos significativamente la dimensionalidad del espacio de características de entrada en el que el NS debe ser entrenado. Compara: o bien +/-1 o bien de -1 a 1, en incrementos de 0,001 y cada valor debe situarse en la hipersuperficie de dimensión d (número de entradas), habiéndola construido previamente por el mismo NS (lo hace durante su entrenamiento).

 
Neutron >> :

...se alimenta una señal binaria a la capa oculta de neuronas y la salida es un valor real definido en el intervalo [-1,1]

¡Eso es! ¡Ni siquiera se me ocurriría! >> Lo intentaré ahora).

 

...Compara: o bien +/-1 o bien de -1. a 1, en pasos de 0,001 y cada valor debe situarse en una hipersuperficie de dimensión d (número de entradas), habiéndola construido previamente por el mismo NS (lo hace durante su entrenamiento).


Y si la entrada es una señal binaria, ¿no es mejor que sea 0/1?

 

No, claro que no.

Su centro de gravedad de tal "entrada" se desplaza en 0,5 (su MO), mientras que la entrada tiene MO=0 en la inicialización. Por lo tanto, tendrá que gastar parte de sus recursos en un vacío tirando hacia arriba (ajustando el peso) de la única entrada de una neurona para adaptarse a lo obvio. En general, todo lo que pueda hacerse de forma independiente, sin la participación de la IA, debe hacerse. Esto ahorra mucho tiempo de aprendizaje para los NS. Para ello se normalizan, centran y blanquean las entradas. Todo ello para no distraer la atención de la IA con trivialidades, sino para concentrarse en lo más importante y difícil: las correlaciones y autocorrelaciones multivariantes no lineales.

 

Sí, lo tengo.

Actualmente estoy retocando mi perseptrón de autoaprendizaje de dos capas. Con suerte, hoy estará en funcionamiento.

 
paralocus писал(а) >>

Esperemos que hoy esté en funcionamiento.

No se haga ilusiones :-)

Según mi experiencia, estarás dispuesto a decir lo mismo 20-25 veces más antes de que realmente funcione.

Razón de la queja: