Rede neural - página 4

 
joo писал(а) >> a única solução correta seria "aprender sem um professor".

Absolutamente. Porque não há um professor perfeito para a rede. Ou melhor, não podemos saber qual pode ser o professor perfeito para a rede.....))))

 
LeoV >> :

Absolutamente. Porque não há um professor perfeito para a rede. Ou melhor, não podemos saber qual pode ser o professor perfeito para a rede.....))))

Exatamente! Com um professor, só é possível ensinar uma grade sobre uma função que já conhecemos, tal como uma onda sinusoidal. Aqui podemos, sem hesitação, alimentar a rede com o seguinte

do ponto treinado como professor. Este truque não vai funcionar com o mercado.

 
joo писал(а) >> Exatamente! Você pode treinar a grade com um professor apenas em uma função que já conhecemos, por exemplo, uma onda sinusoidal. Aqui podemos, em boa consciência, alimentar a grade ao lado do ponto treinado como professor. Isto não vai funcionar com o mercado.

Sim, e neste caso, quanto menor for o erro na amostra de treinamento, melhor para a rede. Isso não vai funcionar com o mercado.

 

Não é aconselhável construir uma rede estritamente em treinamento com um professor, é mais fácil descrever todos os padrões manualmente em código, haverá menos erros.

O verdadeiro objetivo da rede neural é ensinar sem um professor, ensinar o que o professor não sabe,

Você será capaz de identificar padrões que você pessoalmente não vê (e ninguém mais vê, o que é uma vantagem).

Louro para amigo: você sabe o que significa "eu não sei".

Namorada: "Eu não sei".

Loira: Bem, ninguém sabe.

 
LeoV >> :
gpwr escreveu(a) >> Está escrito em toda parte que a rede precisa ser treinada até que o erro na amostra em teste pare de diminuir.

Na verdade, é muito mais complicado do que isso. Ao treiná-lo até o erro mínimo na amostra em teste, é provável que você obtenha uma rede sobre-treinamento......

Não é provável, é. Verdade. E a redução da energia elétrica para uma melhor generalização não ajuda. O erro mínimo no teste é uma falha no teste a frente.
 
muallch писал(а) >>
Não é provável, mas é verdade. Verdade. E a redução da rede elétrica para uma melhor generalização não ajuda. O erro mínimo no teste é uma falha no teste a frente.

De acordo. Apliquei a frase "o mais provável" no sentido de um treinamento excessivo sem ambigüidade .....)))) E a redução da energia da rede elétrica às vezes ajuda......

 
muallch >> :
Não é provável, é verdade. >> Verdade. E reduzir a potência da rede para uma melhor generalização não ajuda. O erro mínimo no teste é uma falha no teste a frente.

Vocês, cidadãos, estão ficando sábios para alguma coisa. Ou você inventou algo novo, ou nós não nos entendemos.

Todos os livros didáticos dizem que o treinamento de uma rede com um professor é feito dividindo os dados em uma amostra de treinamento e uma amostra de teste. A rede é treinada minimizando o erro na amostra de treinamento, enquanto há um erro na amostra de teste (teste ou verificação fora da amostra). O aprendizado pára quando o erro na amostra de teste pára de diminuir (mostrado com uma linha pontilhada abaixo). E o erro na amostra de treinamento pode continuar a diminuir, como mostra esta figura


Você afirma que o treinamento da rede deve ser interrompido ainda mais cedo do que a linha pontilhada na foto. Onde exatamente? Então, por que treinar a rede? Por sua lógica, escolha quaisquer valores de pesos e vá em frente e utilize a rede para negociação. É então que você terá um "flush" seguro.

 
LeoV >> :

De acordo. Apliquei a frase "o mais provável" no sentido de um treinamento excessivo sem ambigüidade .....)))) E a redução da energia da rede elétrica às vezes ajuda......

Exatamente. É o que acontece, às vezes. Os Grails on MAs às vezes também dão lucro em uma posição futura. Não há (pelo menos eu não fumegantei) uma dependência clara do sistema de resultados prospectivos em relação ao poder (inchaço, neuronicidade, etc.) de uma grade treinada. Não estou dizendo que o tipo de grade não afeta nada - é apenas um dos critérios. Mas o tamanho do lucro fora da amostra de teste tem uma clara dependência (não linear) do grau de aprendizagem - numerosos experimentos com testes "ponta a ponta" o confirmam.

 
gpwr >> :

Você argumenta que o treinamento da rede deve ser interrompido ainda mais cedo do que a linha pontilhada na imagem. Onde exatamente? Então, por que treinar a rede? Por sua lógica, escolha quaisquer valores de pesos e vá em frente e utilize a rede para negociação. É aí que você terá o dreno certo.

Não, eu não tenho.


E é difícil argumentar com isso...

 
gpwr >> :

Vocês, cidadãos, estão ficando sábios para alguma coisa. Ou você inventou algo novo, ou nós não nos entendemos.

Está escrito em todos os livros didáticos que o treinamento de uma rede com um professor acontece dividindo os dados em uma amostra de treinamento e uma amostra de teste. A rede aprende minimizando o erro na amostra de treinamento enquanto observa o erro na amostra de teste (teste ou verificação fora da amostra). O aprendizado pára quando o erro na amostra de teste pára de diminuir (mostrado com uma linha pontilhada abaixo). Da mesma forma, o erro na amostra de treinamento pode continuar a diminuir, como mostrado nesta figura

Primeiro há um out-of-sample - para ajustar a grade. E então não há nenhum - o verdadeiro futuro está por vir, deve ser previsto. Qual é o critério para parar o treinamento - um certo erro ou o número de treinamentos realizados? Ou algo mais?

Razão: