Etiqueta de mercado ou boas maneiras em um campo minado - página 58

 
gpwr >> :

Acho que você me entendeu mal novamente.

Eu realmente não entendo como você vai influenciar os coeficientes deste polinômio a fim de encontrar o erro mínimo global (isto é, o aprendizado). Vou lhe mostrar os pesos do neurônio treinado:


Três experiências com o mesmo vetor. A experiência mais à direita foi a mais bem-sucedida. Ou seja, entendo que, tendo uma topologia pronta, não é difícil (teoricamente) escolher tal polinômio que suavizaria muito bem esta topologia, mas me explique, como você vai calcular esta topologia (malha já treinada) para uma não treinada? Em outras palavras - qual é o algoritmo para influenciar o kf, levando a uma redução na função de erro de aprendizagem? Você sabe disso?

 
Neutron >> :

Construiu-o especialmente para você:

Você pode ver claramente que a FZ está sempre presente e é visualmente visível nos movimentos bruscos do kotir.

Sergey, não voltarei a discutir este tema com você, porque é trivial e completamente inútil. Aprenda a matemática, e da próxima vez que você tiver a próxima idéia super-duper brilhante, para a implementação da qual você acha que precisa de um ou dois institutos de pesquisa e um cluster de PCs, você pensa por um minuto - talvez você simplesmente não saiba ou não entenda. Afinal, é mais provável que a "descoberta da época", na área onde tudo já foi pisoteado há muito tempo.


OK, considere que o atraso de fase (esse é o termo) existe para dois casos



Francamente, e você me aborrece :o)

 
HideYourRichess >> :

Estou surpreso ao ver um algoritmo que demonstra isso mesmo 80%. Estou procurando por um erro. Parece muito simples. Não funciona assim.

não é surpresa se eu, não um matemático, acertar, então o que dizer de um profissional! :о)))

 

ao Neutron


Existe um atraso de fase entre Alto/Baixo e Fechado? :о))) Portanto, de acordo com seu método visual, existe um:




De onde ele pode vir?


Correções e adendo: Enquanto ninguém estiver assistindo, farei pequenas correções. Eu cometi um pequeno erro à pressa, na - foto acima Abrir e Fechar. Um sinal é atrasado em relação ao outro, mas neste caso particular não se trata de uma mudança de fase.


Não há atraso de fase. Nenhum operador matemático foi executado que pudesse causar uma mudança. Não há nenhuma mudança de fase que apareça do nada. Em vez disso, há uma escolha de processo, uma regra que diz "esse é o processo".


Se "turno" é considerado em termos de Aberto indo primeiro e Fechado indo segundo, então sim - há um "turno" (não vou argumentar contra isso). Mas eu nem sei quais métodos matemáticos "encontrarão" a mudança neste caso em particular. Estes sinais são uma alternativa entre si.




E para escolher Close para previsão, é necessário ter um sistema incrivelmente preciso. E para minha simples idéia, que por sinal é muito "robótica", nenhum atraso (H+L)/2 terá qualquer efeito.


PS: Jesus, Seryoga Seryoga, - estes processos são monopênicos, absolutamente. É isso agora, adeus. Boa sorte.

 

ao Neutron

Enquanto espero pelo novo Matkad, estou repetindo o que aprendi, ou seja, estou brincando com a camada única. Você me pediu para mostrar o comprimento do vetor de erro, e foi isso que eu consegui:


X estatísticas, comprimento L (se eu acertei).

Calculado desta forma:


Aqui i é o laço no X estatístico é o vetor de entrada (somado ao longo de todo o comprimento do vetor de treinamento atual). O quadrado de erro é acumulado durante toda a época junto com o quadrado do vetor de treinamento:


E no final de uma época, ela é contada como se segue:


Aqui n é o ciclo ao longo das épocas.

Tudo é feito corretamente?

 

A julgar pela figura, há um erro em algum lugar - devemos ver o aprendizado gradual da rede (diminuição do comprimento do vetor de erro) à medida que passamos de época em época. Isto não é visível. As razões, como sempre, poderiam ser uma carroça e um pequeno carrinho. Por exemplo, em vez da magnitude do vetor de erro da época, o gráfico mostra essa magnitude para a rede já treinada (última época) em função do número do experimento independente... Segue-se de suas - "Por X estatísticas..." - que estatísticas? Não é como se tivéssemos que digitá-lo aqui. E este aqui - "...pelo comprimento L", - L é normalizado para o comprimento do vetor de dados e deve estar próximo de 1, diminuindo gradualmente em direção ao final da circunferência. Vemos algo diferente.

Aqui, dê uma olhada em como deve ser:

Aqui o azul mostra o comprimento do vetor de erro na amostra de treinamento (estamos observando como a grade é treinada, não como ela prevê). Todas nós usamos 200 épocas de treinamento e k=1 para clareza, para mostrar que neste caso particular a rede está totalmente treinada (erro é zero) e simplesmente aprende a amostra de treinamento de cor. É ainda mais rápido. O problema é que na amostra de teste com tais pesos nosso viciador mostrará o tempo na África, ou seja, está completamente desprovido da capacidade de generalização. As linhas vermelhas na figura mostram a variação (dispersão) de uma série de experimentos (n=50), enquanto a linha azul mostra a média (eu compilo estatísticas, mas de uma maneira diferente da sua e falarei sobre isso mais tarde).

Suas duas últimas expressões estão quase corretas, exceto que não deveria haver um índice sobre estatísticas (você faz apenas UMA experiência e precisa de um novo código, sem um conjunto de estatísticas), e eu não entendo a primeira equação. De onde ele vem? Eu tenho um bloco semelhante que se parece com este:

Onde j, é o laço sobre o vetor de treinamento. Note que meus índices são visivelmente menores quando o índice é quadrado!

P.S. A propósito, eu desisti de usar a função de apertar para os pesos, primeiro para a camada simples e depois para a camada dupla. Sem ele, os resultados são igualmente bons e o incômodo é menor.

 
grasn >> :

não é nenhuma surpresa se eu, não um matemático, o conseguir, então fale de um profissional! :о)))


Descobrimos isso. O que eu estava fazendo poderia ser considerado uma versão primitiva de AR, ou vice-versa, AR poderia ser considerado uma versão melhorada do que eu estava fazendo.

 
Neutron >> :

Suas duas últimas expressões estão quase corretas, exceto que não deveria haver um índice nas estatísticas (você só está fazendo UMA experiência e precisa de um novo código, sem um conjunto de estatísticas), mas eu não entendo a primeira equação. De onde ele vem? Eu tenho um bloco semelhante que se parece com este:

Onde j, é o laço sobre o vetor de treinamento. Note que meus índices são visivelmente menores quando o índice é quadrado!

P.S. A propósito, eu desisti de usar a função de apertar para os pesos, primeiro para a camada simples e depois para a camada dupla. Sem ele, os resultados são igualmente bons e o incômodo é menor.

A primeira equação é calcular o comprimento do vetor de erro e normalizá-lo para o comprimento do vetor de dados (ou seja, a forma como eu o entendo até agora). Vou fazer isso agora.

Quanto à função de compressão, ela não funcionou logo para mim (ou seja, o resultado não foi óbvio), então eu não a usei.

 
paralocus писал(а) >>

A primeira equação é calcular o comprimento do vetor de erro e normalizá-lo pelo comprimento do vetor de dados (ou seja, a forma como eu o entendo até agora)

O que representam então as duas últimas expressões?

Eu pensei que o segundo estava encontrando os quadrados de comprimentos vetoriais e o terceiro estava encontrando o comprimento normalizado. Em caso afirmativo, por que a primeira expressão?

 
HideYourRichess >> :

Já tenho tudo resolvido. O que eu fiz pode ser considerado uma versão primitiva de AR, ou vice-versa, AR pode ser considerado uma versão melhorada do que eu fiz.

Eu não incluí a identificação do modelo, ou seja, a definição ideal do comprimento da amostra e do pedido do modelo. Com isso, acho que é possível chegar a 90%. Não tenho nenhuma dúvida de que seus resultados serão igualmente bons, e até melhores. ;)

Razão: