Redes neuronales. Preguntas de los expertos. - página 9

 
LeoV писал(а) >>

¿Hasta cuándo la entrenamos? ¿Al mínimo error? Hay que entender que será un sobreentrenamiento al 100%. ¿No al mínimo error? Entonces, ¿hasta qué? ¿Cuál es el beneficio? ¿Y por qué exactamente a este error? ¿Aumentará o disminuirá el beneficio si disminuimos ligeramente el error? ¿Y si aumenta el error?

Así.....))))

Hasta el mínimo error. Para evitar el "sobreentrenamiento" (una palabra que no refleja en absoluto el significado del fenómeno), el número de neuronas de la red debe ser lo más pequeño posible. Después del entrenamiento, hay procedimientos como el análisis de la influencia de las entradas individuales en la red y la eliminación de las neuronas débiles, y un procedimiento como la reducción del número de neuronas. Como para decirlo en sentido figurado... de modo que en este cerebro electrónico no hay espacios vacíos que no se vean afectados por el entrenamiento.

 
LeoV >>:
Ну это же не ответы, нужно понимать))). Это просто размышления "на тему" вобщем. Хорошо, берём НШ(не трейдер) или Солюшн, не важно, делаем сеть(не важно какую) и начинаем тренировать. До каких пор её тренируем? До минимальной ошибки? Нужно понимать, что это будет переобучение 100%. Не до минимальной ошибки? Тогда до какой? Какой будет при этом профит? И почему до именно этой ошибки? Если уменьшить немного ошибку профит увеличится или уменьшиться? А если увеличить ошибку?

Cómo no una respuesta. La respuesta.

joo escribió >>

Digamos que te interesa que el TS dé el mayor beneficio posible y con la mayor frecuencia posible, es decir, que intente aumentar el porcentaje de operaciones rentables y por supuesto el MO.

De una red formada según este principio, se puede esperar que también haya beneficios en OOS. Es necesario aplicar un error cuadrático medio que acentúe la red en los patrones que contribuyen a estos objetivos. Es decir, la red se centra en patrones específicos que conducen a algún tipo de consecuencia.

Sin embargo, si se utiliza el error cuadrático medio, se produce un "promedio" de los patrones, no un énfasis.

Hay que entrenar hasta el mínimo error medio de la raíz. Y el sobreentrenamiento ocurrirá si se utiliza el error cuadrático medio (no por aproximación). Para la aproximación, cuanto menor sea el error RMS, mejor.

Por supuesto, es probable que nadie dé respuestas concretas a sus preguntas, aunque quiera hacerlo. Sólo he intentado mostrar que la elección de la función de aptitud es casi una tarea más importante que determinará las respuestas a nuestras preguntas, que la selección de los valores de entrada para la cuadrícula. Y, por regla general, se limita a enumerar de forma agónica y lenta los datos de entrada......

Y Integer se adelantó un poco mientras escribía. Estoy de acuerdo con él.

 
Integer писал(а) >>

Hasta el mínimo error. Para evitar el "sobreentrenamiento" (palabra que no refleja en absoluto el significado del fenómeno), el número de neuronas de la red debe ser lo más bajo posible. Después del entrenamiento, hay procedimientos como el análisis de la influencia de las entradas individuales en la red y la eliminación de las débiles, y un procedimiento como la reducción del número de neuronas. Como para decirlo en sentido figurado... de modo que en este cerebro electrónico no hay espacios vacíos que no se vean afectados por el entrenamiento.

¿Y qué quiere decir con "reciclaje"?

 
joo писал(а) >>

Estoy de acuerdo contigo, al igual que con Integer. Pero tú mismo escribiste -

>> nohay nadie que le dé respuestas concretas a sus preguntas.
))))
 
LeoV писал(а) >>

¿Y qué entiende usted por la palabra "reconversión"?

En el contexto de la aplicación y el entrenamiento de las redes neuronales no lo entiendo en absoluto, no refleja el significado del fenómeno. Como escriben sobre las redes neuronales, por ejemplo aquí (y no sólo) - http://www.exponenta.ru/soft/others/mvs/stud3/3.asp:

Un número demasiado reducido de ejemplos puede provocar un "sobreentrenamiento" de la red, cuando ésta rinde bien en los ejemplos de muestra de entrenamiento, pero mal en los ejemplos de prueba sujetos a la misma distribución estadística.

Se entiende como el entrenamiento de la red con menos ejemplos de los que puede acomodar. Se vuelve irregular y confuso si la situación no se parece exactamente a la experiencia irregular. "Mellado" viene de la palabra "rote" - saber de memoria, pero no entender o ser capaz de aplicar la información.

 
LeoV >>:

Я с вами согласен, точно так же как и с Integer. Но вы сами написали -

))))

Bueno, aún así, me refería a números específicos poco probables. :)

 
Integer писал(а) >>

En el contexto de la aplicación y el entrenamiento de las redes neuronales no lo entiendo en absoluto, no refleja el significado del fenómeno. Como escriben sobre las redes neuronales, por ejemplo aquí (y no sólo) - http://www.exponenta.ru/soft/others/mvs/stud3/3.asp:

Lo entiendo como el entrenamiento de una red con menos ejemplos de los que puede acomodar. Se vuelve irregular y confuso si la situación no se asemeja exactamente a la experiencia irregular. "memorizar" viene de la palabra "rote" - saber de memoria, pero no entender o ser capaz de aplicar la información.

El término "sobreaprendizaje", en mi opinión, se aplica más a la aplicación de las redes neuronales en los mercados financieros. Sabemos que el mercado cambia con el tiempo, las pautas cambian, y en el futuro el mercado no será exactamente igual que en el pasado. Así que cuando una red aprende, aprende demasiado bien el mercado y ya no es capaz de trabajar adecuadamente en el futuro, en el mercado que ha cambiado. Esto es el "sobreaprendizaje". Reducir el número de neuronas es, por supuesto, un método para evitar el "reentrenamiento". Pero no funciona solo.

 
LeoV >>:

Ну это же не ответы, нужно понимать))). Это просто размышления "на тему" вобщем. Хорошо, берём НШ(не трейдер) или Солюшн, не важно(для "академических целей"), делаем сеть(не важно какую) и начинаем тренировать. До каких пор её тренируем? До минимальной ошибки? Нужно понимать, что это будет переобучение 100%. Не до минимальной ошибки? Тогда до какой? Какой будет при этом профит? И почему до именно этой ошибки? Если уменьшить немного ошибку профит увеличится или уменьшиться? А если увеличить ошибку?

Ну вот как-то так.....))))

La red se entrena para obtener un error mínimo en la muestra de prueba, ajustando los pesos en la muestra de entrenamiento.

 
StatBars писал(а) >>

La red se entrena para obtener un error mínimo en la muestra de prueba, ajustando los pesos en la muestra de entrenamiento.

Es comprensible. Cuanto menor sea el error, mayor será el beneficio? ¿O cuál es la correlación?

 
Integer >>:

До минимальной ошибки. Чтобы "переобучения" (слово совершенно не отражающее смысл явления) не было, количество нейронов в сети должно быть минимально возможным. После обучения существует такие процедуры, как анализ влияния отдельных входов сети и удаление слабовлиящих, и такая процедура, как сокращение количества нейронов. Как бы так образно ... чтобы в этом электронном мозге не оставалась пустых мест не затронутых обучением.

El número de neuronas no siempre juega un papel decisivo, aunque la selección del número de neuronas (que en la mayoría de los casos es mínimo sin pérdida de precisión) conduce a una reducción del error.

Influir en las entradas y eliminar las innecesarias puede tener a menudo un efecto mayor que la selección de neuronas en una capa.

Razón de la queja: