Utilização de redes neurais no comércio. - página 2

 
um erro comum é não incluir medidas de "nível" e "volume" (volumes em futuros)
 
Neutron писал(а) >> alimentar como entrada as séries cronológicas já dissecadas, ou seja, não todas as barras, mas os prováveis pontos-chave

Em geral, não é recomendado interromper as séries cronológicas, particularmente as financeiras - a informação se perde.....

 
StatBars писал(а) >>

Uma função sigmoidal por si só não achata a distribuição. Na minha opinião, é mais importante resolver o problema da estacionaridade dos dados durante o pré-processamento.

A propósito, a fórmula que você me deu é W=420, d=14, então P>50400 - você não acha que a amostra é um pouco grande demais?

Não, nem a função singhmoid nem a função hiperbólica equalizam a distribuição. Você pode verificar isto facilmente traçando a distribuição antes e depois que a função é aplicada. Você precisa aplicar métodos especiais aqui.

Quanto ao "sinal" da amostra, é possível um compromisso. Por exemplo, é possível, com dados históricos menores disponíveis, recomendar uma parada antecipada do treinamento, isso permitirá evitar o efeito da reciclagem, mas classificar as habilidades de NS em tal forma de treinamento, será de qualquer forma inferior a NS treinada em um histórico suficientemente grande.

Em minha experiência (pequena) e artigos, o número de exemplos em amostra não depende da sua oferta ...

E em minha experiência - não há contradição - tudo está de acordo com a teoria.

LeoV escreveu >>

Em geral, as séries cronológicas, em particular as financeiras, não são recomendadas para interromper - a informação é perdida.....

Devido à complexidade do treinamento NS, somos sempre forçados a encontrar um compromisso entre complexidade arquitetônica e poder computacional. Com a complexidade limitante da arquitetura que usamos, temos naturalmente um limite na dimensão limitante da entrada NS, como conseqüência, podemos alimentar a entrada com um vetor não mais que alguns (cem outros no máximo) e temos que escolher entre a perda de dados e a cobertura do histórico. s vezes, é importante cobrir o máximo possível e compreender o que é coberto em tempo razoável (em termos de IA).

 
Neutron писал(а) >> Devido à complexidade do treinamento da NS, somos sempre forçados a encontrar um compromisso entre complexidade arquitetônica e poder computacional. Com a complexidade limitante da arquitetura que usamos, temos naturalmente um limite na dimensionalidade limitante da entrada NS, como conseqüência, podemos alimentar a entrada com um vetor não mais que alguns (cem outros no máximo) e temos que escolher entre perda de dados e cobertura do histórico. s vezes, é importante cobrir mais e compreender o que é coberto em um tempo razoável (em termos de IA).

Não faz sentido perseguir a complexidade de uma arquitetura de rede neural, pois 10-15 neurônios aprenderão fácil e suavemente a história de 1500-2000 barras, ou até mais. Mas quanto melhor eles aprenderem a história, pior trabalharão no futuro - o efeito do excesso de treinamento vem. É muito mais eficaz e produtivo encontrar entradas "corretas", o que dará a informação correta aos NS sobre o movimento do símbolo.

 

Leonid, não há problema com a reciclagem do NS - é por não entender a essência do que está acontecendo dentro desta caixa com um belo nome e três pregos dentro. Não tire uma amostra de treinamento menor que o mínimo e você não terá que decidir por intuição o que é melhor e o que é pior!

Sobre as entradas "corretas" concordo 100% com você que essa é a chave do sucesso - tudo que pode ser resolvido para NS-ku - deve ser resolvido independentemente. É preciso deixar com coisas que a solução não tem ou são injustificadamente difíceis. Por exemplo, não faz nenhum sentido alimentar a entrada Zig-Zag. O comportamento da NS neste caso é óbvio - ela aprenderá o que está na superfície - alternância de sinais dos ombros da ZZ, e não há uso de tais dados de entrada.

 
Neutron писал(а) >>

Leonid, não há problema com a reciclagem do NS - é por não entender a essência do que está acontecendo dentro desta caixa com um belo nome e três pregos dentro. Não tire uma amostra de treinamento menor que o mínimo e você não terá que decidir pelo instinto sentindo o que é melhor ou pior!

Há também problemas com a amostragem - é claro que no Forex existem certas leis de movimento, que mudam com o tempo. Portanto, se a amostra for muito grande - a rede não encontrará estas leis de movimento porque são muitas e são muito diferentes, muito pequenas - elas irão se retrair rapidamente. E é impossível encontrar a fórmula exata - é por isso que aqui muito depende do comerciante, não da complexidade da arquitetura NS.

 

É isso mesmo. Direto ao ponto!

Na verdade, se resolvermos o problema diretamente, verifica-se que o comprimento ideal de amostragem é P>(W^2)/d, e levando em conta a não-estacionariedade dos processos no mercado, o ideal é

P=(4-8)*(W^2)/d. É disto que você está falando.

 
Neutron писал(а) >>

Isto é mais ou menos o que acontece: antes da conversão, depois, fotos não da mesma amostra, mas, mesmo assim, já o fizeram muitas vezes o efeito é o mesmo...

 

Posso ver que está nivelado.

Mas não pode ser assim se você apenas influenciar o sinal de entrada com uma função como sigmóide e/ou algo parecido. Muito provavelmente, se estendermos o eixo esquerdo e direito no gráfico inferior pela distância da metade da última barra do histograma (para vê-lo), o milagre desaparecerá e veremos um sino.

Ou então, haverá um furo na análise.

 
Neutron писал(а) >>

Vejo que está até agora.

Mas não pode ser assim. Muito provavelmente, se estendermos o eixo esquerdo e direito no gráfico inferior uma vez e meia até a última barra do histograma (para vê-la), o milagre desaparecerá e veremos uma campainha.

Bem, ou então há um furo na análise.

Nas fotos não há dados normalizados e além dos diferentes dados, apenas dei um exemplo do que fiz (como parece no resultado)

E aqui está o roteiro, você pode usá-lo para ver como será a saída (mas não seja muito exigente com os dados de entrada - este roteiro foi feito apenas para ilustração ...)

//Tipo 0 - normalização linear, 1 - não linear

Arquivos anexados:
Razão: