Utilização de redes neurais no comércio. - página 4

 
StatBars >> :

Penso que decorre de seu cargo que a normalização depende mais dos dados do que da tarefa em mãos.

Sobre a segunda parte: você considera o MA incremental e as séries incrementais?

E em geral, você quer dizer que a rede treinada deve ser insensível aos dados de entrada (a cada entrada individual), ou apenas mudar os dados de entrada e a rede ainda deve fazer previsões?

Sim, a dependência da distribuição de dados afeta a velocidade e a qualidade do aprendizado. Ou seja, a normalização afeta essencialmente a velocidade e a qualidade, respectivamente. Sobre a segunda parte, não, é claro, você não pode enfiar dados completamente diferentes em uma rede neural treinada sobre os mesmos dados, mas apenas o mesmo, descrevendo a distribuição com precisão suficiente. A distribuição, o tipo de dados deve permanecer sempre a mesma. Mas se você treinar uma rede com um tipo de dados descrevendo exatamente o processo, e obtiver resultados muito diferentes usando outros dados na nova rede treinada descrevendo o processo da mesma forma exata, então isto significa que você provavelmente colocou a pergunta errada à rede neural. Os dados devem, em primeiro lugar, descrever completamente o processo e, em segundo lugar, reduzir tal erro de generalização que é adequado em termos de exigir que a rede generalize qualitativamente. Tudo isso acontece literalmente em um nível intuitivo. É inútil pegar um tipo de dado se o processo for completamente descrito, mas é caro fazer a pergunta certa sobre a rede.

 

Uma ou duas palavras sobre pré-processamento.

Exemplo de fonte: A saída está correlacionada com a entrada (a correlação mais significativa). corr=0,64.

No gráfico: Coordenada X - dados de entrada. Y - Saída necessária

Remover a relação linear. Você não precisa de uma rede para encontrar a dependência linear e, além disso, piorará os resultados da rede neural.

Este é o aspecto dos dados relacionados à decoração.

Você também pode ver pelo primeiro gráfico que a densidade dos pontos de dados está concentrada no centro, e esparsa ao longo das bordas.

Assim, os pontos concentrados no centro darão o principal estímulo ao treinamento da rede, ou melhor, a importância de seu erro excederá a importância do erro dos dados nas bordas. A rede encontrará primeiro a expectativa de amostragem, que está apenas no centro, e depois distribuirá em torno dela observando a condição de erro mínimo.

Portanto, a função de distribuição de freqüência é equalizada, ela nivela a importância do erro e a rede tem um incentivo definido para alcançar o menor erro no centro de distribuição, bem como nas bordas da distribuição de dados.

Com a função sigmoidal, os dados de entrada e saída são distribuídos de forma quase uniforme.

É assim que os dados transformados se parecem. É sobre esses dados que a rede aprende.

Portanto, a nuvem de dados é distribuída uniformemente. Mas vale dizer que existem algumas nuances que não permitem chamar esse pré-processamento de ótimo para a rede.

Também vale a pena notar que todas as conversões são reversíveis e não introduzem imprecisões.

Todos os métodos (em princípio) têm sido discutidos neste tópico.

 
StatBars писал(а) >>

Função de distribuição de dados após a conversão com uma função sigmoidal, os dados de entrada e saída são distribuídos quase que uniformemente.

StatBars, este procedimento é automatizado, ou você tem que fazê-lo manualmente - para ajustar os coeficientes da função sigmóide?

 
Neutron писал(а) >>

StatBars, este procedimento é automatizado, ou você tem que fazê-lo manualmente - ajustar os coeficientes da função sigmóide?

Os coeficientes têm de ser ajustados, até agora. Mas eu planejo automatizar... A idéia é que se a função de aproximação for selecionada corretamente, será um retângulo.

Eu automatizei o alinhamento apenas com a função de distribuição de área, mas há tantos momentos "escorregadios" que tive de renunciar a ele...

 

Sim - eu tenho a mesma coisa.

Preciso perguntar ao Prival como obter a distribuição desejada (retangular) de uma distribuição arbitrária em forma analítica.

E, por que você usa sigmóide como FA e não tangente hiperbólica? As vantagens são óbvias...

 
Neutron писал(а) >>

E por que você está usando o sigmóide como uma FA em vez de uma tangente hiperbólica? As vantagens são óbvias...

E as vantagens poderiam ser mais detalhadas.

 
Sim, um neurônio ativado por uma função simétrica aprende duas vezes mais rápido. Além disso, durante o processo de aprendizagem, alguns dos pesos levam valores próximos a zero, o que os desliga, ou seja, o número efetivo de sinapses "funcionais" em um neurônio com FA sigmoidal é sempre menor do que em um hiperbólico. Isto não é bom, porque ainda é preciso arrastar sinapses "mortas" para frente e para trás.
 
Neutron писал(а) >>
Sim, um neurônio sendo ativado por uma função simétrica aprende duas vezes mais rápido. Além disso, no processo de aprendizagem, alguns dos pesos levam valores próximos a zero, ou seja, o número efetivo de sinapses "funcionais" do neurônio com FA sigmoidal é sempre menor do que o de hiperbólico. Isto não é bom, porque ainda é preciso arrastar sinapses "mortas" para frente e para trás.

Apenas uma simples conversão permite obter um valor de -1 a 1 em sigmóide também. Não há nada de complicado nisso.

 

Sim, quem pode argumentar com isso?

É só que é uma questão de "calças vestidas, calças despidas".

 
Neutron писал(а) >>

Sim - eu tenho a mesma coisa.

Preciso perguntar ao Prival como obter a distribuição desejada (retangular) de uma distribuição arbitrária em forma analítica.

E, por que você usa sigmóide como FA e não tangente hiperbólica? As vantagens estão na superfície, afinal de contas...

Eu uso apenas a tangente hiperbólica.

Razão: