Red neuronal - página 4

 
joo писал(а) >> la única solución correcta sería "aprender sin profesor".

Por supuesto. Porque no hay un maestro perfecto para la red. O mejor dicho, no podemos saber cuál puede ser el profesor perfecto para la red.....))))

 
LeoV >> :

Por supuesto. Porque no hay un maestro perfecto para la red. O mejor dicho, no podemos saber cuál puede ser el profesor perfecto para la red.....))))

¡Exactamente! Con un profesor, sólo es posible enseñar una cuadrícula sobre una función que ya conocemos, como una onda sinusoidal. Aquí podemos, sin dudarlo, alimentar la red con lo siguiente para

del punto entrenado como profesor. Este truco no funcionará con el mercado.

 
joo писал(а) >> ¡Exactamente! Se puede entrenar la red con un profesor sólo en una función que ya conocemos, por ejemplo, una onda sinusoidal. Aquí podemos, en buena conciencia, alimentar la red el próximo al punto entrenado como un maestro. Esto no funcionará con el mercado.

Sí, y en este caso, cuanto menor sea el error en la muestra de entrenamiento, mejor para la red. Eso no va a funcionar con el mercado.

 

No es aconsejable construir una red estrictamente en el entrenamiento con un maestro, es más fácil describir todos los patrones manualmente en el código, habrá menos errores.

El verdadero propósito de la red neuronal es enseñar sin profesor, enseñar lo que el profesor no sabe,

Podrás identificar patrones que tú personalmente no ves (y que nadie más ve, lo cual es una ventaja).

Rubia a amigo: ya sabes lo que significa "no sé".

Novia: "No lo sé".

Rubia: Bueno, nadie lo sabe.

 
LeoV >> :
gpwr wrote(a) >> Está escrito en todas partes que la red necesita ser entrenada hasta que el error en la muestra bajo prueba deje de disminuir.

En realidad es mucho más complicado que eso. Cuando se entrena hasta el mínimo error en la muestra bajo prueba, es probable que se obtenga una red sobreentrenada......

No es probable, lo es. La verdad. Y reducir la potencia de la red para una mejor generalización no ayuda. El mínimo error en la prueba es un fallo en el avance.
 
muallch писал(а) >>
No es probable, pero lo hace. La verdad. Y reducir la potencia de la red para una mejor generalización no ayuda. El mínimo error en la prueba es un fallo en el avance.

De acuerdo. He aplicado la frase "muy probablemente" en el sentido de sobreentrenamiento inequívoco .....)))) Y reducir la potencia de la red a veces ayuda aunque......

 
muallch >> :
No es probable, es cierto. >> La verdad. Y reducir la potencia de la red para mejorar la generalización no ayuda. El mínimo error en la prueba es un fallo en el avance.

Los ciudadanos se están dando cuenta de algo. O has inventado algo nuevo, o no nos entendemos.

Todos los libros de texto dicen que el entrenamiento de una red con un profesor se hace dividiendo los datos en una muestra de entrenamiento y otra de prueba. La red se entrena minimizando el error en la muestra de entrenamiento, mientras que hay un error en la muestra de prueba (prueba o verificación fuera de la muestra). El aprendizaje se detiene cuando el error en la muestra de prueba deja de disminuir (se muestra con una línea de puntos abajo). Y el error en la muestra de entrenamiento puede seguir disminuyendo como se muestra en esta figura


Usted afirma que el entrenamiento de la red debe detenerse incluso antes de la línea de puntos de la imagen. ¿Dónde exactamente? Entonces, ¿por qué entrenar la red? Según su lógica, elija cualquier valor de los pesos y siga utilizando la red para operar. Es entonces cuando tendrás una descarga segura.

 
LeoV >> :

De acuerdo. He aplicado la frase "muy probablemente" en el sentido de sobreentrenamiento inequívoco .....)))) Y reducir la potencia de la red a veces ayuda aunque......

Exactamente. Esa es la cuestión, a veces. Los griales en las MAs a veces también dan un beneficio en una posición adelantada. No hay (al menos yo no he tanteado) una dependencia clara del sistema de los resultados prospectivos de la potencia (hinchazón, neuronicidad, etc.) de una parrilla entrenada. No estoy diciendo que el tipo de rejilla no afecte a nada - es sólo uno de los criterios. Pero el tamaño del beneficio fuera de la muestra de la prueba tiene una clara dependencia (no lineal) del grado de aprendizaje - numerosos experimentos con pruebas "de extremo a extremo" lo confirman.

 
gpwr >> :

Usted sostiene que la formación de la red debe detenerse incluso antes de la línea de puntos de la imagen. ¿Dónde exactamente? Entonces, ¿por qué entrenar la red? Según su lógica, elija cualquier valor de los pesos y siga utilizando la red para operar. Es entonces cuando tendrás el desagüe adecuado.

No, no lo sé.


Y es difícil discutirlo...

 
gpwr >> :

Los ciudadanos se están dando cuenta de algo. O has inventado algo nuevo, o no nos entendemos.

En todos los libros de texto se dice que el entrenamiento de una red con un profesor se realiza dividiendo los datos en una muestra de entrenamiento y otra de prueba. La red aprende minimizando el error en la muestra de entrenamiento mientras observa el error en la muestra de prueba (prueba o verificación fuera de la muestra). El aprendizaje se detiene cuando el error en la muestra de prueba deja de disminuir (se muestra con una línea de puntos abajo). Del mismo modo, el error en la muestra de entrenamiento puede seguir disminuyendo como se muestra en esta imagen

En primer lugar, hay que ajustar la cuadrícula fuera de la muestra. Y luego no hay ninguno: el verdadero futuro está por delante, hay que predecirlo. ¿Cuál es el criterio para detener el entrenamiento: un determinado error o el número de ejecuciones de entrenamiento? ¿O algo más?

Razón de la queja: