La etiqueta del mercado o los buenos modales en un campo de minas - página 43

 
Neutron >> :

¡El hombre cuidadoso es el mejor hombre! El procedimiento de endurecimiento no es complicado, y el entrenamiento NS no se resiente: es un método eficaz.

En cuanto a no alcanzar los valores óptimos, eso es un puro farol para nuestros BP. Entiendo que si está prediciendo una onda sinusoidal. - Entonces sí, hay valores óptimos. Pero, ¿qué son los que están en el picado del mercado? Ahora el óptimo está ahí, y en el siguiente paso (que usted está prediciendo), está ahí... y lo buscabas "aquí" con todas tus fuerzas. En resumen, no existe un problema de localización exacta, y se resuelve satisfactoriamente mediante el sobreentrenamiento en cada paso.

La afirmación inversa también es cierta: si no se encuentra el mínimo global, o al menos su proximidad, el entrenamiento en cada paso puede no ser satisfactorio. Estudié un poco este problema, personalmente obtuve algo así como un autoengaño, cuando el error parece divergir asintóticamente en ambas muestras, pero la red de la misma configuración en diferentes intervalos de tiempo dio señales de compra/venta completamente opuestas. Aunque la expectativa matemática de ganar era positiva, al final llegué a la conclusión de que seguía jugando al casino. Y todo esto, respectivamente, por los coeficientes de ponderación iniciales, esta es la conclusión a la que llegué. Estos son mis pensamientos:)

 
registred писал(а) >>

Por cierto, como resultado de mis observaciones, la mejor aleatorización de pesos con la que la red aprende rápidamente está en el intervalo [-0,07; +0,07]. No sé por qué es así:)

Significa que no tiene suficientes épocas de aprendizaje. En el límite, dondequiera que comience (incluso +/-10), la malla debe rodar en un óptimo, que para los datos de entrada centrados está cerca de los valores pequeños. Lo estás desplazando artificialmente hacia allí. Esto no siempre es bueno.

La afirmación inversa también es cierta: si no se encuentra el mínimo global o al menos su proximidad, el entrenamiento en cada paso puede no ser satisfactorio. Investigué un poco este problema, personalmente obtuve algo así como un autoengaño, cuando el error parece divergir asintóticamente en ambas muestras, pero la red de la misma configuración en diferentes intervalos de tiempo dio señales de compra/venta completamente opuestas. Aunque la expectativa matemática de ganar era positiva, al final llegué a la conclusión de que seguía jugando al casino. Y todo esto, respectivamente, por los coeficientes de ponderación iniciales, esta es la conclusión a la que llegué. Estos son mis pensamientos:)

Esto es un síntoma de una parrilla mal entrenada. ¿Estás seguro de que el vector de entrenamiento no era más corto que el óptimo P=w^2/d?

 
Neutron >> :

Esto significa que no tienes suficientes épocas de entrenamiento. En el límite, no importa dónde empiece (incluso +/-10), la rejilla debería rodar hasta un óptimo, que para los datos de entrada centrados se encuentra en las proximidades de los valores pequeños. Lo estás desplazando artificialmente hacia allí. Esto no siempre es bueno.

Sí, trato de mantenerlo al mínimo. No quiero esperar a que me dé algo después de unos cientos de miles de épocas. Por lo general, unos pocos miles, o decenas de miles, son suficientes.

 
registred писал(а) >>

Por lo general, unos pocos miles, o decenas de miles, son suficientes.

¡Sorprendido!

Tengo unos cuantos cientos.

 
Neutron >> :

Esto significa que no tiene suficientes épocas de entrenamiento. En el límite, no importa dónde empiece (incluso +/-10), la rejilla debería rodar hasta un óptimo, que para los datos de entrada centrados se encuentra en las proximidades de los valores pequeños. Lo estás desplazando artificialmente hacia allí. Esto no siempre es bueno.

Es un síntoma de una parrilla mal entrenada. ¿Estás seguro de que el vector de entrenamiento no era más corto que el óptimo P=w^2/d?

Sinceramente, hace mucho tiempo que no miro esas fórmulas, todo por experimento, empezando con un número pequeño de neuronas, y continuando todo esto hasta que los errores se separan asintóticamente en dos muestras. Una vez encontrado el valor óptimo de los pesos en la capa, vuelvo a entrenar la red varias veces y hay resultados diferentes en la misma muestra, pero los pesos iniciales son diferentes para cada cuadrícula. Intenta volver a entrenar tu red desde cero y ver si obtienes las mismas operaciones en el historial. Ya me lo dirás después, me interesa saberlo.

 
Neutron >> :

¡Sorprendido!

Tengo unos cuantos cientos.

>> bueno, como se dice, el vuelo está bien).

 
registred писал(а) >>

Intente volver a entrenar su red desde cero y vea si obtiene las mismas operaciones en el historial. Cuéntame luego, me interesaría saberlo.

Pues claro que no.

Todos los tratos serán diferentes, y así de vez en cuando, pero el beneficio es en promedio el mismo (y muy pequeño). Me interesa la repetibilidad de los promedios, ahorra recursos informáticos.

 
Neutron >> :

Pues claro que no.

Todas las operaciones serán diferentes, una y otra vez, pero el beneficio medio es el mismo (y muy pequeño). Me interesa la repetibilidad de los promedios.

Así que creo que estás jugando en un casino. Te aconsejo que utilices comités, ya que puede dar el mejor efecto. Yo, personalmente, no estoy satisfecho con esas condiciones de trabajo. No puedo permitirme el lujo de volver a entrenar la red sobre nuevos datos, introduce errores y no es rentable, si después de reentrenar la red se pone a prueba en esta historia de nuevo.

 

Sí, creo que lo tengo. Los resultados de la cuadrícula con aleatorización inicial aparentemente no necesitan repetirse con exactitud. Basta con que el resultado sea estable en un rango pequeño.

Por ejemplo, esto es lo que parece:

OPCIÓN 1:


EJEMPLO 2:


Los datos de entrada, aparte de la inicialización, que se ha realizado en ambos casos, son los mismos.

 

¡Así es, camarada!

Razón de la queja: