Artigo: Previsão de preços com redes neurais - página 11

 
slava1:
Eu sei o que alimentar há muito tempo. Eu queria discutir, por assim dizer, possíveis modelos. Geralmente funciona melhor com esforço conjunto. Eu mesmo tenho trabalhado em um robô já há um ano. Há resultados, mas não muito estáveis.

Bem, um ano não é suficiente :)


OK, vamos tentar, mas será um jogo de mão única e não seu.


Atache é uma série pseudo-aleatória formada por x = 4 * (x-1) * (1 - (x-1)), com x0=0,2

Isso lhe lembra alguma coisa? Para uma primeira aproximação, esta série se assemelha a um fluxo de dados no mercado.


Previsão do valor t+1. Arquitetura de rede, MLP 1-5-1, com acoplamento sináptico adicional de neurônios de entrada e saída.

Erro quadrático (10e-3), atinge cerca de 60-70t epochs, com uma amostra de treinamento de 1000 elementos. O aprendizado é feito pelo método antigradiente.


É muito fácil provar, modelando diferentes arquiteturas, que temos uma seqüência independente de topologia, o erro não diminui.

é significativamente influenciada pela complexidade da rede, incluindo o número adicional de camadas.


Vamos usar o método de exemplos artificiais ou aquecedores, o resultado - a velocidade de aprendizagem aumenta 2,5 vezes, ou seja, um erro aceitável é alcançado

Na região de 30-40t. epochs.


Aqui está o primeiro exemplo, você pode girá-lo para ver os resultados ...

 
slava1:
Há muito tempo que sei o que devo aplicar. Eu queria discutir possíveis modelos, por assim dizer. Normalmente funciona melhor se trabalharmos juntos. Eu mesmo tenho trabalhado em um robô já há um ano. Há resultados, mas não muito estáveis.

E sobre os modelos, como já disse, olhe para a descrição de implementações feita pela Reshetov. Sim, e não procure o graal, ele não existe ;)

 
slava1:
Eu sei há muito tempo, o que alimentar para onde. Eu queria discutir possíveis modelos, por assim dizer. Normalmente é melhor se trabalharmos juntos. Eu mesmo tenho trabalhado em um robô já há um ano. Há resultados, mas não muito estáveis.

Só posso dizer uma coisa: mais uma vez leia atentamente a teoria (a teoria científica, não a literatura popular) e talvez você encontre algo que lhe escapou ou que não levou em conta. Se você acha que não precisa conhecer a teoria ao usar programas como o NeuroShell Day Trader, então só há uma coisa a fazer - deixar as redes neurais em paz.

Vou tirar minha licença agora.

 
Com uma rede 1x5x1 tenho certeza de que você nunca obterá nenhum resultado. A rede deve ter pelo menos duas camadas ocultas. Para as entradas da rede neural, normalizei as leituras para 20 indicadores. Por isso, tentei diferentes topologias. Parei em 20х140х140х4. A rede pode ser incômoda, mas produz sinais bem interpretados. É claro que pode ser ampliado. Além disso, estou planejando escolher a topologia usando algoritmo genético. Todo o processo de criação e treinamento da rede é implementado usando JAVANNS, a rede treinada é transformada em código C e este código é usado na criação de uma função de decisão dll, que pode ser usada no MetaTrader. Esta é apenas uma descrição aproximada do processo. É por isso que eu faço isso há um ano. É uma quantidade de trabalho muito grande. Acho estúpido usar ferramentas como o NeuroShell Day Trader, se você pode criar sua própria rede e fazer do seu jeito. Mas não era sobre isso que eu queria falar. Estou interessado na abordagem do problema de criar uma amostra de treinamento.
 
slava1:
Com uma rede 1x5x1 tenho certeza de que você nunca obterá nenhum resultado. A rede deve ter pelo menos duas camadas ocultas. Para as entradas da rede neural, normalizei as leituras para 20 indicadores. Por isso, tentei diferentes topologias. Parei em 20х140х140х4. A rede pode ser incômoda, mas produz sinais bem interpretados. É claro que pode ser ampliado. No futuro, pretendo selecionar a topologia usando um algoritmo genético. Todo o processo de criação e treinamento da rede é realizado usando JAVANNS, a rede treinada é transformada em código C e este código é usado na criação de uma função receptora em dll que pode ser usada no MetaTrader. Esta é uma descrição muito rudimentar do processo. É por isso que eu faço isso há um ano. É uma quantidade de trabalho muito grande. Acho estúpido usar ferramentas como o NeuroShell Day Trader, se você pode criar sua própria rede e fazer isso do seu jeito. Não era sobre isso que eu queria falar. Estou interessado na abordagem do problema de criar uma amostra de treinamento.

A amostra de treinamento é o que se alimenta nas entradas. Neste caso, você está alimentando 20 indicadores. O que é um indicador, é um processamento de uma série temporal inicial, uma série de preços {H,L,O,C}. Se você considerar do ponto de vista matemático os indicadores que são usados em TA, você pode distinguir um ou outro grupo de métodos matemáticos - digamos que MA é o filtro de freqüência mais simples etc., mas quem disse que os dados que são preparados com métodos TA clássicos são os melhores para uma rede neural? Eu diria até pelo contrário, praticamente inapropriado. Eu não dei o exemplo de uma rede rasa construída para extrapolar um pseudo f-zi aleatório para nada.


Se você investigasse um pouco mais, você encontraria uma série de propriedades muito interessantes, o que lhe permitiria ver a preparação de amostras de treinamento de forma um pouco diferente. Um fluxo de citações também pode ser pensado como um f-ci pseudo-aleatória, com uma lei complexa. As redes neurais são um método matemático, mas a tecnologia é mais uma arte.


Sim, a propósito, você está enganado se acha que o tamanho da rede afeta a capacidade de resolver o problema.

 
Não, pelo contrário, enfatizei que o tamanho não é importante (ou seja, o número de camadas e neurônios ocultos) :-))) Vamos descartar toda demagogia e tentar imaginar o que pode ser tomado como um assunto de treinamento. Construo minha estratégia exatamente sobre leituras indicadoras e depois de uma longa batalha com elas admito que esta abordagem ...... não é adequada... Então a questão é... Puramente filosófico. O que mais é MONA POPOBUT?
 
Mais uma vez, o que você chama de arte talvez seja previsível. É o que eu estou dizendo. O número de neurônios de entrada desempenha um papel enorme. Quanto mais entradas, maior é a probabilidade de previsões corretas. É óbvio.
 
slava1:
Mais uma vez, o que você chama de arte talvez seja previsível. É o que eu estou dizendo. O número de neurônios de entrada desempenha um papel enorme. Quanto mais entradas, maior é a probabilidade de previsões corretas. Isso é óbvio.


Eu discordo. O exemplo que lhe dei, uma rede 1-5-1, permite prever uma seqüência pseudo-aleatória com alta precisão.

Eu recomendaria que você relesse um pouco a teoria, pois tenho a impressão de que você não entende realmente o mecanismo.


Diga-me, o que você acha que é uma rede neural?

 
Bem, podemos discutir sobre isso por muito tempo, quem entende o quê, ou não entende. A discussão foi sobre a preparação dos dados. Entendo que ninguém aqui quer discutir esta questão. Pena
 
slava1:
Bem, podemos discutir sobre isso por muito tempo, quem entende o quê, ou não entende. A discussão foi sobre a preparação dos dados. Entendo que ninguém aqui quer discutir esta questão. Pena

Caro senhor, é possível discutir isso. Mas o que há para discutir se eu mencionei o tema do que são indicadores em TA e como eles são adequados para o pré-processamento de dados para os NS, você não quis discutir isso, ou melhor, acho que você perdeu o tema :)

Se você quiser ler uma palestra sobre como preparar dados para o treinamento NS, acho que você não deve fazer isso neste fórum, apenas poucas pessoas estarão interessadas aqui.

Razão: