Neuromongers, não passem por aqui :) precisam de conselhos - página 9

 
Figar0:

Aqui é uma discussão ponto por ponto:

Obrigado Sergey, você entendeu o ponto.

2) Pré-processamento de insumos (a questão parece bastante simples e bastante aberta, podemos discutir se sabemos o que é feito neste caso e como ele é feito)

Nada de extraordinário. Há vários níveis, cada um processado separadamente pelo filtro Hodrick-Prescott sem espreitar.

3) Matemática da NS.

Uma série de experiências mostrou que os parâmetros da rede têm um efeito negligenciável sobre os resultados dentro de certos limites. Muito pouco leva ao sobretreinamento, muito leva à supersaturação.

Sobre o tema das redes de eco, estou pronto para conversar. Ainda não vou postar o código, tenho alguns planos.

4) Questões "organizacionais" da operação NS.

Como/quando treinar/treinar

A propósito, eu não tentei mudar

períodos/intervalos

Também não fez nenhuma pesquisa séria. Acho que haverá um impacto, talvez até mesmo períodos diferentes, dependendo da ferramenta.

a lógica do trabalho do Expert Advisor-interprete da produção líquida

Nenhuma pesquisa séria também, mas pelo que mudei não acho que haverá nenhum efeito significativo, embora... terá que verificar novamente.

MM.

Não vejo a utilidade de acrescentá-la de forma alguma. A rentabilidade potencial é fácil de estimar com FS.

- por que "eco"? Você pode ter sido vaporizado nele, fale-me sobre os prós e os contras.

Para começar, há menos espaço de manobra com os parâmetros da rede. Não há necessidade de pensar que se, por exemplo, a camada oculta for menor que a camada de entrada, já é compressão de dados e há uma alta probabilidade de que a rede não funcione, etc. Você não precisa levar em conta um monte de pequenas coisas que o resto da rede tem.

Em resumo, agora eu trabalho com rede -- eu apenas atiro neurônios, conexões (certo número, certos tipos).

Eu o adaptei. Eu o uso. Eu não me importo muito com o que acontece lá dentro, então eu basicamente recebo uma caixa preta à mão.

Praticamente qualquer problema resolvido pelo MLP é resolvido pela rede echo.


Em segundo lugar, sempre consigo a solução ótima com base na topologia e na relação entrada/saída

Terceiro -- o tempo de adaptação (evito deliberadamente a palavra "aprendizagem") da rede é previsto com grande precisão, porque o MLP é usado para isso, não há convergência, etc.


Até agora, vi apenas uma desvantagem - limitação por função de aptidão física. Isto é, em teoria, só posso usar a solução com o menor erro RMS do FF e tal. É claro que isto pode ser contornado com o aprendizado genético, mas então toda a beleza da rede de eco é perdida.

Embora não, existe outro, não tenho certeza, mas na minha opinião (posso estar errado) o tempo de treinamento aumenta cubicamente (não tanto o treinamento como a formação de matriz derivada), portanto o treinamento de uma rede com, digamos, 1000 neurônios levará um tempo considerável.


Como você desenterrou em primeiro lugar?

Graças ao mesmo fórum :) do meu amigo gpwr, pelo qual quero agradecer-lhe muito :)

O 2° tipo de TC não é nada bom imho.

Imho, com o tipo 2 é muito mais fácil de trabalhar e analisar os resultados. Por exemplo, o TC do projeto em discussão era originalmente totalmente adequado para o tipo 2.

a) Você realmente tem certeza de que as entradas/saídas não podem ser melhoradas?

É claro que não.

b) Pré-processamento: Como é? Por exemplo, você analisou a distribuição dos valores de entrada?

A normalização está presente de alguma forma, mas não há uma análise séria da distribuição de dados.

 
renegate:

Você já fez alguma desvolatilização (encontrada nos artigos) para os induladores que você alimenta na entrada da rede?

Deu uma olhada - interessante. Talvez você possa compartilhar sua experiência de uso deles? Quais são os resultados, melhorias, características, armadilhas?

Você também poderia tentar fazer com que os indutores fiquem livres de bitolas.

Erm, há dúvidas aqui, mas ainda gostaria de ouvir uma breve caracterização também.
 

Vamos representar, convencionalmente, a área de dados analisados (padrão) com um retângulo azul e a área de dados previstos com um retângulo vermelho. Na implementação atual, o tamanho vertical da área vermelha depende através de um fator de escala do tamanho da área azul (e deve depender do conteúdo de dados da área azul, não do tamanho da área). Aqui estão dois exemplos onde vemos uma discrepância:

и

Vemos que o tamanho do retângulo vermelho é menor na primeira tela e maior na segunda do que o tamanho do retângulo azul.

A normalização do sinal é relativa ao tamanho vertical.

Portanto, acho que devemos normalizar não pelo tamanho da amostra, mas pelo tamanho de toda a amostra de treinamento. Parece diminuir a capacidade de previsão da rede.

Há um inconveniente relacionado a ele (é por isso que escolhi esta forma de racionamento), mas parece não haver como fugir dele - devemos passar novamente pela amostra de treinamento para obter os valores máximos e mínimos.

É claro que a distribuição de sinais do padrão na implementação atual é fortemente deslocada (o que é ruim) na área de valores máximos e mínimos, porque cada padrão tem valor 1 e valor -1.

Na minha opinião, deveríamos começar com estas mudanças.

 
Não foi assim que você me explicou :) . Agora eu acho que concordo.
 
TheXpert:
Não foi assim que você me explicou :) . Acho que agora estou de acordo.

Não, não o contrário. Estou lhe dizendo, as palavras são difíceis de explicar, as imagens são mais fáceis. Tanto para o orador quanto para o ouvinte. ;)

PS Quanto à área preditiva de aprender a lucrar - esse continua sendo o caso, estou trabalhando nisso.

 

Eu experimentei o preço usando o seguinte algoritmo:

1) Obtenha uma série de primeiras diferenças (FDD) de Close

2) Calcular a média móvel do módulo FFD (eu tomei um período de 25)

3) Dividir o FFD pela média móvel

Obtemos a FFD, que é mais estacionária. Você pode voltar a uma série de pseudo preços usando a soma cumulativa.


Vejo que você não está usando o RRR. Você está usando a remoção de tendências para as séries de preços? Ou você simplesmente normaliza a série de preços em uma determinada faixa?

 

renegate:

Você está usando a eliminação de tendências para as séries de preços?

Mais detalhes também aqui.

Ou você simplesmente normaliza a faixa de preços em uma determinada faixa?

No momento, a normalização é realizada dentro da descrição do padrão.

Agora vou fazer a normalização em todo o conjunto de padrões. Isto não deve ser muito difícil.

Eu gostaria de tentar anexar a desvolatilização, mas aqui será mais complicado. Vou pensar sobre isso.

 

Para isso, é necessário aceitar o axioma de que a série de preços é composta de componentes de tendência, cíclicos e sonoros.

Nós subtraímos o componente tendência da série de preços. Eu posso pensar em 3 maneiras:

1) Faça a análise do componente principal (AGC ou PCA) e zere o primeiro componente principal.

2) Subtrair um muving da série de preços. Seu período pode ser selecionado por olho ou através de otimização ou análise do espectro

3) Encontrar a regressão linear de toda a série de preços e subtrair do preço.

Depois disso, obtemos uma série contendo apenas componentes cíclicos e sonoros. É conveniente normalizá-los em uma determinada faixa.

 
Esse é na verdade o principal componente que procuro :)
 
renegate:

Eu experimentei o preço usando o seguinte algoritmo:

1) Obtenha uma série de primeiras diferenças (FDR) de Close

Nenhuma pergunta com rasteira, por que esta etapa?
Razão: