¿Cómo se trabaja con las redes neuronales? - página 7

 
Swetten:

Permítanme que les recuerde la afirmación original: NS y GA son cosas completamente diferentes, sin relación alguna entre sí.

Uno no se transforma en el otro de ninguna manera.


Por qué no: ORO <-> GA ;).

Buena suerte.

 

VladislavVG:

Por qué no: ORO <-> GA ;).

¿Si elimina ORO - GA funcionará sin él?

Permíteme preguntar... ¿qué sería exactamente GA?

Sí. Es una clase difícil la que te están dando.

Buena suerte. :)

 
LeoV:

No se trata de la dinámica. La dinámica puede ser cualquier cosa, siempre que los patrones que la red encontró durante el periodo de entrenamiento funcionen en el futuro. Ese es el problema .....))

me refería a la dinamika siempre y cuando pongas el mismo par en la red... en cuanto a las otras regularidades - estoy de acuerdo... pero donde conseguir que funcionen todo el tiempo ))))
 
Swetten:

Y si se quita el ORO, ¿significa que el GA funcionará sin él?

Bueno, bueno, bueno. Allí te enseñan mucho.

Buena suerte con eso. :)

Explique exactamente qué quiere decir con "ORO eliminado" y "GA funcionará sin él".

Si te refieres a sustituir/ampliar el algoritmo de aprendizaje ORO con GA, que es lo que quería decir, entonces lo hará, si es otra cosa, entonces debo haber entendido mal. En muchos casos, el método del gradiente conjugado también funcionará y es mucho más eficiente que el ORO. Todo depende del funcional que se minimice.

Y en cuanto a lo de "enseñado con dureza", puedo decir lo mismo: pareces estar gravemente infraeducado ;).

Buena suerte con eso.

ZZY ¿Puede encontrar artículos sobre la modificación de los algoritmos de aprendizaje mediante AG? Hay algunos en ruso ;).

 
VladislavVG:

Explique exactamente qué quiere decir con "ORO eliminado" y "GA funcionará sin él".

Deberías ser tú quien preguntara qué es. Y Reshetov. ¿O cómo entender su "Bueno, por qué: GRO <-> GA"?

Lo que yo personalmente entiendo: el AG es sólo un mecanismo de optimización. Optimización de cualquier cosa. El AG permite deshacerse de la optimización por fuerza bruta.

No tiene nada que ver con las redes neuronales. En realidad, sí, pero sólo como mecanismo de búsqueda de pesos óptimos.

Por lo tanto, GA no es ni será nunca una NS.

 

VladislavVG:

Si te refieres a sustituir/ampliar el algoritmo de aprendizaje ORO con GA, como he dicho, lo hará, si es otra cosa, debo haber entendido mal. En muchos casos, el método del gradiente conjugado también funcionará y es mucho más eficiente que el ORO. Todo depende del funcional que se minimice.

Y respecto a lo de "severamente enseñado" puedo responder con lo mismo: parece que estás severamente infraeducado ;).

Me estoy rompiendo la cabeza tratando de entender tu primera frase.

A juzgar por las opciones que has enumerado, podría estructurarse así: "Si te refieres a sustituir el algoritmo de aprendizaje ORO por el uso de AG, que es a lo que me refería, entonces lo habrá".

¿Qué? ¿Trabajo en lugar de NS?

 
Swetten:

Eres tú quien debería preguntar qué es. ¿O cómo entender su "Bueno, por qué: ORO <-> GA"?

Lo que yo personalmente entiendo: el AG es sólo un mecanismo de optimización. Optimización de cualquier cosa. El AG permite deshacerse de la optimización por fuerza bruta.

No tiene nada que ver con las redes neuronales. En realidad, sí, pero sólo como mecanismo de búsqueda de pesos óptimos.

Por lo tanto, GA no es ni será nunca una NS.

¿Qué quiere decir con "optimización"? Si es sólo una búsqueda de variantes, no es exactamente lo mismo. Es MT la que te confunde.

Ahora sobre GA: es un método de búsqueda, en caso de entrenar una red buscamos un mínimo de cierta funcionalidad. A menudo se cometen errores. En el proceso de entrenamiento de la red, tanto ORO como GA, y los gradientes y el recocido (hay un método de este tipo - similar a GA) tratan de encontrar un extremo. Qué método será más eficaz depende de la propia función y del criterio de calidad (es decir, el criterio según el cual se seleccionan las mejores variantes). El AG es el más universal de todos los métodos. Ninguno de ellos garantiza la búsqueda del extremo global.

Con el uso de GA es posible, por ejemplo, seleccionar simultáneamente la arquitectura de la red, es decir, incluirla (arquitectura) en los parámetros optimizados y establecer el criterio de calidad (función de aptitud en términos de GA). Hay más posibilidades. Y si es necesario, puede utilizar ORO junto con GA también.

Buena suerte.

 
Swetten:

¿Qué? ¿Trabajo en lugar de NS?

El método de formación no "funcionará en su lugar". Al fin y al cabo, ERO no funciona "en lugar de NS". Respondido con más detalle arriba.

Buena suerte.

 
VladislavVG:

¿Qué entiende usted por "optimización"? Si sólo se trata de pasar por las opciones, eso no es realmente lo que es. Es MT quien te confunde.

Ahora sobre GA: es un método de búsqueda, en el caso del aprendizaje de una red estamos buscando un mínimo de cierta funcionalidad. A menudo hay errores. En el proceso de entrenamiento de la red, ya sea ORO o GA, ya sea gradientes o recocido (existe un método de este tipo - similar a GA), se intenta encontrar un extremo. Qué método será más eficaz depende del criterio funcional y de calidad (es decir, el criterio según el cual se seleccionan las mejores variantes). El AG es el más universal de todos los métodos. Ninguno de ellos garantiza la búsqueda del extremo global.

Con el uso de GA es posible, por ejemplo, seleccionar simultáneamente la arquitectura de la red, es decir, incluirla (arquitectura) en los parámetros optimizados y establecer el criterio de calidad (función de aptitud en términos de GA). Hay más posibilidades. Y si es necesario, puede utilizar ORO junto con GA también.

Buena suerte.

¡Uf! ¡Estás completamente confundido!

Deberías releer este hilo.

Reshetov afirma: "Es muy posible, ya que se trata de una caja negra, que en lugar de una red neuronal en un paquete de firmware se utilice un algoritmo genético, y quizá alguna regresión o algún otro método de extrapolación".

https://www.mql5.com/ru/forum/108709/page4

Eso es lo que estoy tratando de averiguar lo que era. Y el ORO lo confundió con el GRNN.

 

VladislavVG:

El método de formación no "funcionará en su lugar". Al fin y al cabo, la CED no funciona "en lugar de la NS".

Eso es lo que he tratado de decirte. :)

Y alguien más.

Es que su mensaje original era erróneo.

Razón de la queja: