Etiqueta de mercado ou boas maneiras em um campo minado - página 43

 
Neutron >> :

O homem cuidadoso é o melhor homem! O procedimento de aperto é simples, e o treinamento NS não sofre - é um método eficaz.

Quanto a não alcançar valores ótimos, isso é puro bluff para nossas BPs. Eu entendo se você estiver prevendo uma onda sinusoidal! - Então sim - há valores ótimos. Mas o que são os que estão no mercado? Agora o ótimo está lá, e no próximo passo (que você está prevendo), ele está lá... e você o tem procurado "aqui" com todas as suas forças. Em resumo, não existe um problema exato de localização, e ele é resolvido satisfatoriamente através de reciclagem em cada etapa.

A afirmação inversa também é verdadeira: se o mínimo global, ou pelo menos sua proximidade, não for encontrado, o treinamento em cada etapa pode não ser satisfatório. Estudei um pouco este problema, pessoalmente consegui algo como auto-engano, quando o erro parece divergir assimmptoticamente em ambas as amostras, mas a rede da mesma configuração em intervalos de tempo diferentes deu sinais de compra/venda completamente opostos. Mesmo que a expectativa matemática de ganhar fosse positiva, ainda no final cheguei à conclusão de que ainda estava jogando no cassino. E tudo isso, respectivamente, por causa dos coeficientes de ponderação iniciais, esta é a conclusão a que cheguei. Estes são meus pensamentos:)

 
registred писал(а) >>

A propósito, como resultado de minhas observações, a melhor aleatorização de pesos na qual a grade aprende rapidamente está no intervalo [-0,07; +0,07]. Eu não sei por que é este o caso:)

Isso significa que você não tem épocas de aprendizagem suficientes. No limite, não importa por onde você comece (mesmo +/-10), a grade deve rolar para o ótimo, o que está próximo de valores pequenos para dados de entrada centralizados. Você o está deslocando artificialmente para lá. Isto nem sempre é uma coisa boa.

A afirmação inversa também é verdadeira: se o mínimo global ou pelo menos sua proximidade não for encontrada, o treinamento em cada etapa pode não ser satisfatório. Estudei um pouco este problema, pessoalmente consegui algo como auto-engano, quando o erro parece divergir assimmptoticamente em ambas as amostras, mas a rede da mesma configuração em intervalos de tempo diferentes deu sinais de compra/venda completamente opostos. Mesmo que a expectativa matemática de ganhar fosse positiva, ainda no final cheguei à conclusão de que ainda estava jogando no cassino. E tudo isso, respectivamente, por causa dos coeficientes de ponderação iniciais, esta é a conclusão a que cheguei. Estes são meus pensamentos:)

Este é um sintoma de uma rede mal treinada. Você tem certeza de que o vetor de treinamento não foi menor do que o P=w^2/d ideal?

 
Neutron >> :

Isto significa que você não tem épocas de treinamento suficientes. No limite, não importa por onde você comece (mesmo +/-10), a grade deve rolar para um ótimo, que para dados de entrada centralizados fica nas proximidades de pequenos valores. Você o está deslocando artificialmente para lá. Isto nem sempre é uma coisa boa.

Sim, eu tento mantê-lo no mínimo. Não quero esperar para que, depois de algumas centenas de milhar de épocas, isso me dê algo. Normalmente alguns milhares, ou dezenas de milhares, é suficiente.

 
registred писал(а) >>

Normalmente alguns milhares, ou dezenas de milhares, é suficiente.

Surpreendido!

Eu tenho algumas centenas.

 
Neutron >> :

Isto significa que você não tem épocas de treinamento suficientes. No limite, não importa por onde você comece (mesmo +/-10), a grade deve rolar para um ótimo, que para dados de entrada centralizados fica nas proximidades de pequenos valores. Você o está deslocando artificialmente para lá. Isto nem sempre é uma coisa boa.

É um sintoma de uma rede mal treinada. Você tem certeza de que o vetor de treinamento não foi menor do que o P=w^2/d ideal?

Honestamente, não olhava para tais fórmulas há muito tempo, tudo por experiência, começando com um pequeno número de neurônios, e continuando tudo isso até que os erros se separassem assintóticamente em duas amostras. Tendo encontrado o valor ideal de pesos na camada, eu retraio a rede várias vezes e há resultados diferentes na mesma amostra, mas os pesos iniciais são diferentes para cada grade. Tente re-treinar sua rede a partir do zero e veja se você obtém os mesmos negócios na história. Você me dirá mais tarde, estou interessado em saber.

 
Neutron >> :

Surpreendido!

Eu tenho algumas centenas.

Bem, como se costuma dizer, o vôo está bem. >>)

 
registred писал(а) >>

Tente re-treinar sua rede a partir do zero e veja se você obtém os mesmos negócios na história. Diga-me mais tarde, eu estaria interessado em saber.

Bem, é claro que não!

Todos os negócios serão diferentes, e assim por diante de tempos em tempos, mas o lucro é em média o mesmo (e muito pequeno). Estou interessado na repetibilidade das médias, ela economiza recursos computacionais.

 
Neutron >> :

Bem, é claro que não!

Todas as negociações serão diferentes, vez após vez, mas o lucro médio é o mesmo (e muito pequeno). Estou interessado na repetibilidade das médias.

Portanto, acho que você está jogando em um cassino. Aconselho a utilização de comitês, pois isso pode dar o melhor efeito possível. Eu, pessoalmente, não estou satisfeito com tais condições de trabalho. Eu não posso me dar ao luxo de re-treinar a rede com base em novos dados, ela introduz erros e não é lucrativa, se depois de re-treinar a rede for testada novamente sobre este histórico.

 

Sim, acho que consegui. Os resultados da grade com a randomização inicial aparentemente não precisam ser repetidos exatamente. É suficiente que o resultado seja estável em uma pequena faixa.

Por exemplo, é o que parece:

OPÇÃO 1:


EXEMPLO 2:


Os dados de entrada, além da inicialização, que foi realizada em ambos os casos, são os mesmos.

 

É isso mesmo, camarada!

Razão: