Neuroprevisão das séries financeiras (com base em um artigo) - página 7

 
Vizard:

esta é uma caixa preta...

Isso é certo...yo, teria sido mais ou menos estável, mas não é.... .....
 
Diga isso ao LeoV, por exemplo ))
 
Bem, e quanto a Leonid, ele está lutando para escolher um ou outro treinamento. Naturalmente, seus resultados em NS são impressionantes, então ele está com stev wards em uma pequena mão.... Parece-me que todas as NS quebradas envolvem algum tipo de mecanismo de instabilidade. Em todo caso, ao tentar treinar suas cartas, obtive um resultado completamente diferente, mesmo que seus koters fossem os mesmos. A diferença é que ele tinha um NS legal e eu tinha NO!!!!
 
nikelodeon:


Basicamente, o que quer que se lhe chame...


Entendi. É como pensar "como ontem" ao invés de pensar "como agora".
 
Integer:

Entendi. É como se pensasse como ontem, não como se o fizesse agora.

Uma rede neural pensa da maneira como foi ensinada. E você pode ensinar qualquer coisa, incluindo: 2 x 2 = 5.

Estamos construindo uma grade com duas entradas. Ensine a tabela de multiplicação, na qual, tudo está correto, exceto que dois nas entradas dão um cinco na saída. Treinados, obtemos uma rede neural para a qual 2 x 2 = 5.

 
Reshetov:

Uma rede neural pensa da maneira como foi ensinada. E você pode ensiná-lo qualquer coisa, incluindo: 2 x 2 = 5

Não é como funciona a rede, mas o que significa a frase "como ontem" em relação às redes.

 
E se você der a uma rede neural uma seqüência de símbolos do alfabeto inglês, por exemplo, do trabalho de Shakespeare, e der na saída o próximo símbolo (seu número, é claro), então a rede aprende a produzir probabilisticamente o próximo símbolo. Em inglês, como em russo, existem regularidades na seqüência de letras.
 
Integer:

Não é como funciona a rede, mas o que significa a frase "como ontem" em relação às redes.

Ontem você ensinou a rede a negociar sobre a tendência, hoje ela despenca com sucesso de lado. Isto não é raro. E você não pode ensinar tudo à rede, por exemplo, a antecipar intervenções, mudanças repentinas na volatilidade, etc., etc.
 
Reshetov:
Ontem você ensinou a grade a negociar sobre a tendência, hoje ela está despejando com sucesso de lado. Isto não é raro. E você não pode ensinar tudo à rede, como antecipar intervenções, mudanças repentinas na volatilidade, etc. etc.

É que, em tal caso, o sinal será aleatório. Se for correto..... É apenas sorte, digamos. Mas para encontrar durante a otimização aqueles parâmetros que funcionarão no futuro, é certamente difícil.... Não é difícil encontrá-los, é difícil escolhê-los.....
 
nikelodeon:

Por que não, o sinal será apenas aleatório.

O sinal de uma rede neural treinada apenas em seções de tendência não será aleatório, mas será a forma como a rede é treinada. Nomeadamente, acompanhará o movimento e jogará de lado.

Razão: