Usando redes neurais no comércio - página 16

 

O erro deve ser monitorado. caso contrário não está claro o que estamos ensinando ))))

 

Esta já é a seção 1.1.2008-1.1.2009. Também modo de treinamento. Drawdown 665,87, lucro líquido 703,14 Forward test mercilessly drenagens:))))

 
grell:

Esta já é a seção 1.1.2008-1.1.2009. Também modo de treinamento. Drawdown 665,87, lucro líquido 703,14 Forward test mercilessly drenagens:))))


Desatenção e pressa. Esqueci de acrescentar a condição de "fora do mercado".
 
solar:

O erro deve ser rastreado. Caso contrário, não está claro o que estamos ensinando ))))


Legal. :-)

Eu li em algum lugar que existe uma opção:

Você deve parar de treinar quando o erro crescer... (ou seja, deve ser constantemente monitorado (valor de erro) e, assim que crescer, o treinamento deve ser interrompido...)

 
grell:

Desatenção e pressa. Esqueci de acrescentar a condição de "fora do mercado".
Acho que tudo isso é igualmente fraco. É improvável que o NS da folha tenha um desempenho melhor do que durante o período de treinamento. E já não há nada para comer nele...
 
Figar0:
Parece-me, no entanto, fraco. É improvável que o NS da folha tenha um desempenho melhor do que no período de treinamento. E já não há muito para comer nele...

Precisamos de uma idéia.
 
grell:

Eu preciso de uma idéia.
Que idéia? E, francamente, não entendo porque você tem um estudo de vários anos. A moldura parece ser rasa, tentando encontrar "valores eternos" à beira do ruído?
 
Figar0:
Qual é a idéia? E, francamente, não entendo porque você tem um estudo há muitos, muitos anos. A moldura parece ser rasa, tentando encontrar "valores eternos" no limite do ruído?

Não, tentando mostrar a camada oculta com o maior número de exemplos possível. Portanto, não para "aprender", mas para atualizá-los. E depois, com pequenas amostras, para terminar o aprendizado. Se você for direto para a pequena amostra, ele só vai aprender. Isso em poucas palavras.
 
Em breve publicarei uma captura de tela da rede reconfigurada.
 
grell:

Não, tentando mostrar a camada oculta com o maior número de exemplos possível. Por assim dizer, não para "aprender", mas para atualizá-los. E depois aprenda o resto com pequenas amostras. Se você for direto para a pequena amostra, ele só vai aprender. Isso em poucas palavras.
Você soa como se essa camada oculta fosse algo bastante isolado, vivendo sua própria vida) Mas eu acho que entendo o que você quer dizer ... Estou praticando o método oposto. Encontro muitas soluções diferentes, por exemplo, nos dados de um mês, depois verifico durante 2 meses, descarto as soluções que não se encaixam nos novos dados, adiciono muitas soluções, etc.
Razão: