Utilização de redes neurais no comércio. - página 3

 
StatBars писал(а) >>

As fotos mostram dados não-normalizados e, a partir de dados diferentes, acabei de dar um exemplo do que fiz (como resultado)

E aqui está o roteiro, você pode usá-lo para ver como será a saída (mas não seja muito exigente com os dados de entrada - este roteiro foi feito apenas para ilustração...)

//Tipo 0 - normalização linear, 1 - não linear

StatBars, eu não tenho reclamações!

Bem, funciona - e é bom. Só quero deixar claro que o procedimento de normalização não é o mesmo que suavizar a distribuição e que você precisa de uma abordagem mais complexa. Mas, por outro lado, temos um valor de entrada na faixa final +/-1 e em uma forma de prateleira - uma delícia saborosa. Além disso, quando você lava a entrada, obtém uma sensação estética de prazer.

 
Neutron писал(а) >>

StatBars, eu não estou reclamando!

Bem, funciona e tudo bem. Quero apenas esclarecer que o procedimento de normalização não é igual à equalização da distribuição e que é necessária uma abordagem relativamente mais complexa. Mas, por outro lado, temos um valor de entrada na faixa final +/-1 e na forma de uma prateleira - uma delícia saborosa. Além disso, quando você lava a entrada, obtém uma sensação estética de prazer.

)))

Pela forma como foi implementado um método descrito em um artigo, não me lembro exatamente onde o li ... Em geral, utilizando a função de distribuição por área, a segunda figura é precisamente o trabalho deste método.

De qualquer forma, aqui está um arquivo com simples normalização e alinhamento de freqüência, não é o melhor exemplo, mas mesmo assim...

Você já branqueou os insumos? Só tenho algumas perguntas...

Arquivos anexados:
 

Eu fiz.

Mas não existe branqueamento ou clareamento. Você pode insensatamente alimentar dois limpadores com duas entradas NS e procurar branqueá-los... Este é um caso (clínico), e você pode colocar os preços de abertura de bares em uma dúzia - este é outro, não há nada para branquear - tudo é branco como é.

 
Li o tópico, é mais informativo que os outros, mas hoje é o Dia das Boas Ações, por isso vou falar no T-O-P-I-C-K-E... :-О)
 
Neutron >> :

Leonid, não há problema com a reciclagem do NS - é por não entender a essência do que está acontecendo dentro desta caixa com um belo nome e três pregos dentro. Não tire uma amostra de treinamento menor que o mínimo e você não terá que decidir por intuição o que é melhor e o que é pior!

Sobre as entradas "corretas" concordo 100% com você que essa é a chave do sucesso - tudo que pode ser resolvido para NS-ku - deve ser resolvido independentemente. É preciso deixar com coisas que a solução não tem ou são injustificadamente difíceis. Por exemplo, não faz nenhum sentido alimentar a entrada Zig-Zag. Neste caso, o comportamento da NS é óbvio - ela aprenderá o que está na superfície - a familiaridade dos braços ZZ, e o uso de tais dados de entrada é zero.

Não há entradas erradas. Há uma tarefa errada.

 

Sobre o tema da normalização. Nem todo tipo de normalização pode ser aplicada no contexto da tarefa em questão.

 
registred писал(а) >>

Não há entradas erradas. Há uma tarefa mal direcionada.

Por que não? Há. Além do problema objetivo (correto), há também os dados com os quais este problema será resolvido...

E sobre a normalização - alguma explicação?

 
Uma dificuldade surge durante a normalização: enquanto todos os neurônios são os mesmos ao descrever uma rede neural, e é possível descrever um neurônio uma vez, depois de remover as conexões destacadas os neurônios geralmente têm uma estrutura diferente.
 
StatBars >> :

Por que não? Há. Além do problema objetivo (correto), há também os dados com os quais este problema será resolvido...

E sobre a normalização - alguma explicação?

Bem, há normalização linear e há normalização não linear. O não-linear é sensível à variação dos novos dados. Linear é simples e requer menos etapas computacionais, mas para isso a não-simetria, por assim dizer, afetará a duração do treinamento. Com ela, a variação pode ser o que quiser como resultado de um treinamento, sujeito a certas condições. Mas no próprio treinamento, uma série que não tenha sido normalizada a uma média zero e variância unitária fará com que a rede aprenda mais tempo no final do que se tal normalização for feita. Sobre a primeira pergunta, minha opinião pessoal é a seguinte. Posso tomar MA, posso tomar os incrementos da série. Não haverá diferença para mim. A essência será que se após o treinamento da rede, o resultado do treinamento dependerá do que eu escolher (MA ou simplesmente incrementos da série), então ele indicará apenas tarefa definida incorretamente e a rede estava simplesmente aprendendo o que eu tentei ensinar. Ou seja, basta executar as ações que eu ensinei. Mas para encontrar regularidades, ou seja, para generalizar, a rede não o fará ou não o fará corretamente. O objetivo é reduzir o erro de generalização do tipo de dados que seriam necessários na saída da rede neural. Os dados de entrada podem ser incrementos de uma série temporal, mas não necessariamente sua versão alisada na forma de MA ou qualquer outra coisa. Todos eles escrevem que a série deve ser suavizada. Mas acho que isso não importa, pois as regularidades objetivas nos dados são salvas e o principal é escolher o número necessário de incrementos em sua série.

 
registred писал(а) >>

Bem, há normalização linear e há normalização não linear. O não-linear é sensível à variação dos novos dados. Linear é simples e requer menos trabalho computacional, mas sua não-simetria, por assim dizer, afetará o tempo de aprendizagem. Com ela, a variação pode ser o que quiser como resultado de um treinamento, sujeito a certas condições. Mas no próprio treinamento, uma série que não tenha sido normalizada a uma média zero e variância unitária fará com que a rede aprenda mais no final do que se tal normalização fosse realizada. Sobre a primeira pergunta, minha opinião pessoal é a seguinte. Posso tomar MA, posso tomar os incrementos da série. Não haverá diferença para mim. A essência será que se após o treinamento da rede, o resultado do treinamento dependerá do que eu escolher (MA ou simplesmente incrementos da série), então ele indicará apenas que a tarefa foi definida incorretamente e a rede estava simplesmente aprendendo o que eu tentei ensinar. Ou seja, basta executar as ações que eu ensinei. Mas para encontrar regularidades, ou seja, para generalizar, a rede não o fará ou não o fará corretamente. O objetivo é reduzir o erro de generalização do tipo de dados que seriam necessários na saída da rede neural. Os dados de entrada podem ser incrementos de uma série temporal, mas não necessariamente sua versão alisada na forma de MA ou qualquer outra coisa. Todos eles escrevem que a série deve ser suavizada. Mas eu acho que não importa, porque as regularidades objetivas nos dados são preservadas, o principal é escolher a quantidade certa de incrementos em sua série.

Penso que decorre de seu cargo que a normalização depende mais dos dados do que da tarefa em mãos.

Sobre a segunda parte: você considera o incremento MA e o incremento em série?

E no sentido geral você quer dizer que a rede treinada deve ser não sensível aos dados de entrada? Ou você apenas muda os dados de entrada e a rede deve continuar prevendo?

Razão: