Redes neuronales híbridas. - página 20

 
rip >> :

MSE

Extrañamente, cuando empecé a aplicar esta misma herramienta a forex con MSE, no funcionó. Creo que hay que aplicar un error completamente diferente.

 
registred >> :

Extrañamente, cuando empecé a aplicar esta misma herramienta a forex con MSE, no funcionó. Creo que hay que aplicar un error completamente diferente.



Bien, ¿cuál? En el caso de aprender con un profesor, creo que el MSE es suficiente.

 
rip >> :

Bien, ¿cuál? En el caso de aprender con un profesor, creo que el MSE es suficiente.


Estoy pensando en ello. Pero sé con seguridad que el MSE no es bueno. Al menos para mí, por la razón expuesta anteriormente. Creo que para una red neuronal el maestro (regla) es el error, porque es un aproximador universal, hay que determinar de alguna manera el grado de esta aproximación, la calidad de la aproximación, teniendo en cuenta el rendimiento del mercado, para llevar la serie a una forma más estacionaria, por así decirlo. Si tiene alguna idea al respecto, podemos discutirla.

 
registred >> :


Estoy pensando en ello. Pero sé con certeza que el MSE no es bueno. Al menos para mí, por la razón mencionada anteriormente. Creo que para una red neuronal el maestro (regla) es un error, ya que es un aproximador universal, es necesario determinar de alguna manera el grado de esta aproximación, la calidad de la aproximación, teniendo en cuenta los rendimientos en el mercado, para llevar la serie a una forma más estacionaria, por así decirlo. Si tiene alguna idea al respecto, podemos discutirla.


Si un número pudiera ser llevado a una forma estacionaria, creo que no habría forex como tal :)

 

En resumen, la gente ya ha tenido ejemplos de aplicaciones exitosas de las redes neuronales, tenemos que trabajar en esto aún más corto.

 
registred >> :

En resumen, la gente ya ha tenido ejemplos de aplicaciones exitosas de las redes neuronales, tenemos que trabajar en ello aún más corto.

Por qué ha habido, hay. Si la memoria no me falla en 2007, Better ganó con un NS probabilístico.

La tarea de la red era predecir el movimiento del curso.

 
rip >> :

Porque los hubo, los hay. Si la memoria no me falla en 2007, Better ganó sólo con un NS probabilístico

La tarea de la red era predecir el movimiento del curso.



Sí, lo he leído. La red probabilística tiene un gran problema, es sensible al ruido en los datos. En términos simples, tiene poco empirismo a diferencia de BackProp y otros métodos iterativos.

 
registred писал(а) >>

La red probabilística tiene un gran problema, es sensible al ruido en los datos.

¿Puede explicarlo con más detalle? Creo que he visto diferentes puntos de vista en la literatura.

 

VNS es menos sensible al ruido en los datos, en relación con métodos similares (por ejemplo, k-NN), pero en relación con MLP y métodos similares, el panorama es probablemente inverso...

 
lea >> :

¿Puedo entrar en más detalles sobre esto? Creo que he visto diferentes puntos de vista en la literatura.


¿Y cuál es el parámetro que hay que ajustar ahí? ¿Sigma? ¿Cómo lo vas a ajustar? ¿Cómo encontrar la solución óptima? Son preguntas que no me quedan muy claras. Otra cosa es que para la MLP sólo el tipo de error sea un parámetro esencial, insisto en ello sin embargo. Por supuesto, la MLP se atasca en el mínimo local y hay métodos para combatirlo. En cualquier caso, la solución óptima para MLP puede encontrarse no a través de la búsqueda en el mínimo global para muchas tareas. Si tienes algo que funciona con PNN, es algo muy bueno.