Como formar os valores de entrada para os NS corretamente. - página 10

 
TheXpert писал (а) >>

Não importa, desculpe se eu estiver errado.

Tentarei explicar com mais detalhes o que é essa verificação cruzada, se esse posto não estiver claro. Suponha que estamos treinando uma rede para um erro mínimo. Suponha que tentamos em 2007 e obtivemos resultado intermediário 0,5. Verificamos em 2008 e obtemos 0,8. Esta rede é memorizada e continuamos o treinamento. Depois obtivemos 0,4 para 2007 e verificamos com 0,7 para 2008. As redes antigas são descartadas, e nós memorizamos esta rede e a seguimos com treinamento. Depois obtivemos 0,3 para 2007 e 0,6 para 2008. A rede anterior é descartada e lembre-se desta rede e continue o treinamento. Para 2007 - 0,2, para 2008 - 0,8. Esta rede não é memorizada, a anterior é mantida. Será guardado na memória e treinado posteriormente. Se não tivermos conseguido obter abaixo de 0,6 em 2008, mantemos a rede com 0,6 em 2008 e 0,3 em 2007, e não aquela com 0,2 ou menos em 2007. Com efeito, o treinamento adicional da rede é um treinamento excessivo. Isto evita o excesso de treinamento, embora nem sempre o poupe.

E como você pode ver, os testes futuros não têm nada a ver com isso......)))))

 
TheXpert писал (а) >>

...

E sobre o código -- a Neurosolutions ou Neuroshel 2 portará o código para a MQL4? Escreverei algumas funções, que acho que serão úteis para os habitantes daqui, e talvez para mim também. Mais uma razão para escrever uma centena de linhas de código - demorarei uma hora.

Não. Através da importação de dll/def ou da reescrita de "c".

Escreverei algumas funções, que acho que serão úteis para os habitantes daqui, e talvez para mim também. Mais uma razão para escrever cem linhas de código -- é uma hora de tempo.

Especialmente, se eles se dedicarem a "1. Preparação de dados de entrada. (deslocamento médio, decorrelação, equalização da covariância).", então muito legal, e se ... outra implementação de NS na MQL4, então ...

Eu, por exemplo, nunca fui capaz de descobrir como implementar belas palavras "significado de entradas", "correlação cruzada de entradas" em código (não tenho Ezhov à mão para inserir palavras mais belas). Isto é, fórmulas/algoritmos que eu conheço, mas para OHLC, ruído ou vice-versa filtros DC, e apenas "valores discretos" quando os minutos são engraçados e os dias estão atrasados. :)

 
SergNF писал (а) >>

Não. Através da importação de dll/def ou da reescrita de 'c'.

Especialmente se eles se dedicarem a "1. Preparação dos dados de entrada. (Deslocamentos médios, decorações, equalização de covariância).",

>> É isso mesmo.

Eu, por exemplo, nunca fui capaz de descobrir como implementar as belas palavras "significado de entradas", "correlação cruzada de entradas" em código (sem Ezhov em mãos para inserir palavras mais bonitas). Isto é, fórmulas/algoritmos que eu conheço, mas para OHLC, ruído ou vice-versa filtros DC, e apenas "valores discretos" quando os minutos são engraçados e os dias estão atrasados. :)

Qual é o problema? As fórmulas não se importam se elas lhes dão dados minuciosos ou semanais.

 
LeoV писал (а) >>

Vou tentar explicar com mais detalhes o que é essa verificação cruzada, se esse posto não estiver claro. Suponhamos que estamos treinando uma rede para um erro mínimo. Suponha que tentamos em 2007 e obtivemos resultado intermediário 0,5. Verificamos em 2008 e obtemos 0,8. Esta rede é memorizada e continuamos o treinamento. Depois obtivemos 0,4 para 2007 e verificamos com 0,7 para 2008. As redes antigas são descartadas, e nós memorizamos esta rede e a seguimos com treinamento. Depois obtivemos 0,3 para 2007 e 0,6 para 2008. A rede anterior é descartada e lembre-se desta rede e continue o treinamento. Para 2007 - 0,2, para 2008 - 0,8. Esta rede não é memorizada, a anterior é mantida. Será guardado na memória e treinado posteriormente. Se não tivermos conseguido obter abaixo de 0,6 em 2008, mantemos a rede com 0,6 em 2008 e 0,3 em 2007, e não aquela com 0,2 ou menos em 2007. Com efeito, o treinamento adicional da rede é um treinamento excessivo. Isto evita o excesso de treinamento, embora nem sempre o poupe.

E como você pode ver, os testes futuros não têm nada a ver com isso......)))))

Em outras palavras, o treinamento/optimização não termina quando o erro é mínimo na amostra de treinamento, mas antes que o erro comece a aumentar na amostra de teste.

 
Erics писал (а) >>

Em outras palavras, o treinamento/optimização termina não quando o erro é mínimo na amostra de treinamento, mas antes que o erro comece a aumentar na amostra de teste.

Portanto, basicamente sim. Porque a teoria diz que a magnitude do erro na amostra de teste primeiro diminui quando o erro na amostra de treinamento diminui, e depois começa a aumentar, embora o erro na amostra de treinamento continue diminuindo. O truque é pegar este cocho. Este é o ponto de sobretreinamento (para redes) ou sobre-optimização (para TC).

 
LeoV писал (а) >>

Bem, sim. Porque a teoria é que o erro na amostra de teste primeiro diminui quando o erro na amostra de treinamento diminui, e depois começa a aumentar, mesmo que o erro na amostra de treinamento continue diminuindo. O truque é pegar este cocho. Este é o ponto de sobretreinamento (para redes) ou sobre-optimização (para TC).

 
sergeev писал (а) >>

Absolutamente certo. Há apenas uma pequena observação a fazer. Quando a curva está subindo, pode haver mínimos, mas eles devem ser superiores ao primeiro mínimo (em teoria). Embora às vezes possa ser menos (na prática), mas é raro.

 

E aqui está uma foto sobre o supertreinamento

 
LeoV писал (а) >>

Absolutamente certo. Há apenas uma pequena observação a fazer. Quando a curva está subindo, pode haver mínimos, mas eles devem ser superiores ao primeiro mínimo (em teoria). Embora às vezes possa ser menos (na prática), mas é raro.

Bem visto.

Em geral, a teoria neste tópico já disse muito (você pode defender uma tese em nosso fórum :).

E a mente está agora sedenta por experiências práticas e conhecimentos.

Se possível, deixe os profissionais compartilharem sua experiência na análise e preparação dos valores de entrada . Estes são exemplos concretos.

>> Obrigado.

 
sergeev писал (а) >> Se possível, deixe os profissionais compartilharem sua experiência na análise e preparação dos insumos . Ou seja, exemplos concretos.

Os valores de entrada também não são uma questão simples. O que fornecer para a entrada principal depende de muitos fatores -

1. Que tipo de rede neural é utilizada.

2. O que queremos obter da rede neural - preço ou direção de movimento ou pontos de inversão ou a próxima vela ou outra coisa.

Portanto, primeiro você tem que decidir sobre estas questões e depois decidir sobre os insumos.

Razão: