Redes neurais híbridas. - página 20

 
rip >> :

MSE

Estranhamente, quando comecei a aplicar esta mesma ferramenta ao forex com a MSE, ela não funcionou. Você tem que aplicar um erro completamente diferente, penso eu.

 
registred >> :

Estranhamente, quando comecei a aplicar esta mesma ferramenta ao forex com a MSE, ela não funcionou. Você tem que aplicar um erro completamente diferente, penso eu.



OK, qual deles? No caso de aprender com um professor, eu acho que MSE é suficiente.

 
rip >> :

OK, qual deles? No caso de aprender com um professor, eu acho que MSE é suficiente.


Estou pensando sobre isso. Mas eu sei com certeza que a MSE não é boa. Pelo menos para mim, pela razão acima mencionada. Acredito que para uma rede neural o professor (regra) é um erro, porque é um aproximador universal, devemos de alguma forma determinar a extensão desta aproximação, a qualidade da aproximação, levando em conta o rendimento do mercado, para levar a série a uma forma mais estacionária, por assim dizer. Se você tiver algumas idéias sobre isto, podemos discutir.

 
registred >> :


Estou pensando sobre isso. Mas eu sei com certeza que a MSE não é boa. Pelo menos para mim, pela razão mencionada acima. Acredito que para uma rede neural o professor (regra) é um erro, porque é um aproximador universal, é necessário de alguma forma determinar o grau desta aproximação, a qualidade da aproximação, levando em conta os resultados do mercado, para levar a série a uma forma mais estacionária. Se você tiver algumas idéias sobre isto, podemos discutir.


Se um número pudesse ser levado a uma forma estacionária, eu acho que não haveria forex como tal :)

 

Em resumo, as pessoas já tiveram exemplos de aplicações bem sucedidas de redes neurais, precisamos trabalhar nisto de forma ainda mais curta.

 
registred >> :

Em resumo, as pessoas já tiveram exemplos de aplicações bem sucedidas de redes neurais, precisamos trabalhar nisto de forma ainda mais curta.

Por que tem havido, há. Se a memória me serve corretamente em 2007, melhor ganhou com uma NS probabilística.

A tarefa da rede era prever o movimento do curso.

 
rip >> :

Por que havia, há. Se a memória me serve corretamente em 2007, é melhor ganhar só com um NS probabilístico

A tarefa da rede era prever o movimento do curso.



Sim, eu li isso. A rede probabilística tem um grande problema, ela é sensível ao ruído nos dados. Em termos simples, ele tem pouco empirismo ao contrário do BackProp e outros métodos iterativos.

 
registred писал(а) >>

A rede probabilística tem um grande problema, ela é sensível ao ruído nos dados.

Você pode explicar melhor isso? Acho que já vi pontos de vista diferentes na literatura.

 

O VNS é menos sensível ao ruído nos dados, em relação a métodos similares (por exemplo, k-NN), mas em relação ao MLP e métodos similares, é provável que o quadro seja invertido...

 
lea >> :

Você pode explicar melhor isso? Acho que já vi pontos de vista diferentes na literatura.


E qual é o parâmetro a ser ajustado ali? Sigma? Como você irá ajustá-lo? Como você encontra a solução ideal? Estas são perguntas que não são muito claras para mim. Outra coisa é que para o MLP apenas o tipo de erro é um parâmetro essencial, mas insisto nele. É claro que o MLP fica preso no mínimo local e há métodos para combatê-lo. Em qualquer caso, a solução ideal para o MLP pode ser encontrada não através de encontrar no mínimo global para muitas tarefas. Se você tem algo trabalhando com a PNN, isso é muito bom.

Razão: