Etiqueta de mercado ou boas maneiras em um campo minado - página 26

 

Vou tirar um tempo de folga -:)

Devemos ir para a biblioteca...

 
registred писал(а) >>

Não sei bem o que você quer dizer com "requalificação a cada passo"?

Eu só faço previsões usando NS para uma contagem a frente. Então, a fim de não perder a precisão da previsão, eu reciclo a rede usando novos dados de entrada, etc. Nesta situação, você não pode re-treinar a grade "do zero", mas salvar os antigos valores de pesos como valores iniciais na nova contagem regressiva.

Isto é exatamente o que eu tinha em mente.

 

Neutron, quando eu passo da previsão de amplitude para a previsão de sinais, acontece que o erro na saída da grade é um erro no sinal. Ou seja, o erro assume um valor de +1 ou -1.

Eu entendo este ponto corretamente? Se não, como?

 
Neutron >> :

Eu faço uma previsão usando NS apenas uma contagem para frente. Em seguida, para manter a precisão da previsão, eu retraio a grade usando novos dados de entrada, etc. Nesta situação, você não pode re-treinar a grade "do zero", mas manter os antigos valores de pesos como valores iniciais na nova contagem regressiva.

Isto é exatamente o que eu tinha em mente.

Será que um flat - rede muda as perspectivas sobre a previsão?

 
Jingo писал(а) >>

Será que é um flat - a rede muda sua visão sobre a previsão?

Bem, é claro que sim! Ela é adaptável por natureza.

E então, um apartamento é essencialmente o mesmo que uma tendência, só que menor. Portanto, sua pergunta se resume à adaptação da NS a um horizonte comercial novo/modificado. Essa é sua responsabilidade direta. O fato de eu usar os "velhos" valores de pesos em um mercado já "novo" quando estou me reciclando - não estraga o processo em si, mesmo pelo contrário. A questão é que o processo de mudança (exatamente a mudança) da tendência é quase estacionário e, portanto, a tática selecionada se justifica.

paralocus escreveu >>

Neutron, quando eu mudo da previsão de amplitude para a previsão de sinais, acontece que o erro na saída da grade é um erro no sinal. Ou seja, o erro toma o valor +1 ou -1.

Eu entendo este ponto corretamente? Se não, o que é isso?

Não, você não está.

O processo de treinamento da rede não difere do caso clássico, a diferença é que na entrada da camada oculta de neurônios você dá um sinal binário e a saída é um valor real determinado no intervalo [-1,1] (no caso da ativação do neurônio de saída th()) e proporcional à probabilidade de ocorrência do evento (certeza da rede em um sinal do incremento esperado). Se você não está interessado na probabilidade, mas somente no sinal do movimento cotyr esperado, então interprete somente o sinal da previsão, mas treine a rede em números reais (quero dizer que o erro no método ORO deve ser um número real). O fato de que a taxa de aprendizagem aumenta com este método em comparação com o caso geral não é um paradoxo. O fato de que, ao dar o sinal binário de entrada, reduzimos significativamente a dimensionalidade do espaço do recurso de entrada no qual o NS deve ser treinado. Compare: ou +/-1 ou de -1 a 1, em incrementos de 0,001 e cada valor deve ser colocado na hipersuperfície da dimensão d (número de entradas), tendo-o previamente construído pelo mesmo NS (faz isto durante seu treinamento).

 
Neutron >> :

...você alimenta um sinal binário para a camada oculta de neurônios e a saída é um valor real definido no intervalo [-1,1].

É isso aí! Isso não me ocorreria sequer! >> Vou tentar agora).

 

...Compare: +/-1 ou de -1. a 1, em passos de 0,001 e cada valor deve ser colocado em uma hipersuperfície de dimensão d (número de entradas), tendo sido previamente construído pelo mesmo NS (faz isto durante seu treinamento).


E se a entrada for um sinal binário, não é melhor fazê-la 0/1 ?

 

Não, claro que não!

Seu centro de gravidade de tal "entrada" é deslocado em 0,5 (seu MO), enquanto a entrada tem MO=0 na inicialização. Assim, você terá que gastar parte de seus recursos em um puxão vazio (ajustando o peso) da única entrada de um neurônio para caber a coisa óbvia. Em geral, tudo o que pode ser feito independentemente, sem a participação da IA, deve ser feito. Isto economiza muito tempo de aprendizado para a NS. É para este fim que as entradas são normalizadas, centralizadas e branqueadas. Tudo isso, para não distrair a atenção da IA com trivialidades, mas para concentrar-se nas mais importantes e difíceis - correlações multivariadas não lineares e autocorrelações.

 

Sim, eu entendi isso.

Atualmente estou ajustando meu perseptron de duas camadas de auto-aprendizagem. Esperemos que esteja em funcionamento hoje.

 
paralocus писал(а) >>

Esperemos que esteja pronto e funcionando até hoje.

Não alimente suas esperanças :-)

Em minha experiência, você estará pronto para dizer a mesma coisa mais 20-25 vezes antes que realmente funcione.

Razão: