Etiqueta de mercado ou boas maneiras em um campo minado - página 80

 
gpwr писал(а) >>

Por que existe uma dispersão estatística perto dos círculos azuis? Se os pesos começam de zero, não deve haver nenhuma dispersão estatística.

A questão é que não estou gerando estatísticas para a mesma amostra de treinamento, mas estou mudando uma amostra de cada vez durante cada ciclo. Portanto, os resultados do treinamento não coincidem uns com os outros. Não me lembro por que o fiz, mas isso não muda a essência. Aparentemente, eu queria mostrar os processos quase estacionários no mercado e refletir sua influência sobre a velocidade de aprendizado.

Veja como são os resultados quando se faz uma média de 10 experiências na mesma amostra de treinamento (fig. à esquerda):

Você pode ver que não há variação estatística para pesos com inicialização zero.

A figura à direita é baseada em uma arquitetura de rede com 12 entradas, 5 neurônios na camada oculta e 1 neurônio na saída e com uma amostra de treinamento de 120 amostras, ou seja, é uma cópia do seu caso. As estatísticas foram coletadas a partir de 50 experiências numéricas independentes. Além disso, tudo funciona corretamente.

Se forem utilizados os preços de abertura EURUSD1h normalizados ao seu desvio padrão, sua média não é igual a zero. Ou você subtraiu a média?

Não, eu usei a primeira diferença de preço de abertura como um insumo (pensei que estava claro do contexto). É claro que a média é zero. Previu a amplitude e o sinal da próxima diferença.

Quanto ao teorema, eu gostei. Mas, isso se relaciona com nossas redes como um caso especial!

Você provou o caso degenerado para o comprimento da amostra de treinamento que tende ao infinito. Realmente, neste caso para vetor de dados de entrada representando SV com MO zero, obtemos pesos zero - a melhor previsão para amanhã para SV integrado é o valor atual hoje! Mas, uma vez colhida uma amostra de treinamento de comprimento finito, os pesos treinados tenderão para o equilíbrio, minimizando o quadrado do erro. Como exemplo para provar esta afirmação, tome o caso do SLAE (o mesmo NS). Neste caso, os pesos são definidos de forma única, o erro de treinamento na amostra de treinamento é identicamente igual a zero (o número de desconhecidos é igual ao número de equações) e os pesos (coeficientes nos desconhecidos) obviamente não são iguais a zero.

 

Algo neste projeto não funciona para mim:


 
Por que você vê um intervalo de +/-1 na escala de abcissas? Deve ser +/-N... Talvez você tenha definido os limites +/-1 com força e agora não consegue ver nada, mas é como na foto.
 

Eu não acho que seja por isso. Eu não especifiquei nenhum limite de alcance. Agora é difícil de -N para +N :


Suspeito que seja uma falha Matkad. Eu já tenho o novo, mas os correios não estão funcionando hoje. Só poderá obtê-lo amanhã.

 
paralocus писал(а) >>

Eu não acho que seja por isso. Eu não especifiquei nenhum limite de alcance. Agora é difícil de -N para +N :

Suspeito que seja uma falha Matkad. Eu já tenho o novo, mas os correios não estão funcionando hoje. Só poderei obtê-lo amanhã.

Eu estou bem:

Você, mostre-me os valores vetoriais. Tipo, F=... o que você tem?

 
 

Ahhh. Você sabe o que fazer - arredonde seu dif no laço para um inteiro: dif[i]=trunc(K*(Open[i]-Open[i-1])). Talvez o quociente de sua fonte não seja de 4 dígitos. Veja como fica o próprio cotier na mesa.

 

Sim, funcionou...

Estranho, por que não tenho quatro dígitos no meu quociente?


 

De onde, de onde... Porque você definiu o Matcad para representar números com três casas decimais.

Oh, não. O problema está no quociente original, porém. Veja nos dados brutos.

 
Isto se deve à diferença nos tipos de dados. trunc() simplesmente define o valor da diferença do primeiro quociente para um tipo inteiro.
Razão: