Aprendizado de máquina no trading: teoria, prática, negociação e não só - página 963

 
Ivan Negreshniy:

E o que você, por si mesmo, justifica a permissibilidade de desvios para baixo, além do puro acaso?

Não tenho nenhuma justificação para esperar que o OOS seja melhor que o Train.
Como você pode exigir de dados OOS aleatórios melhores resultados do que aqueles que você aprendeu? Não pode ser, a não ser por acaso.
Foi recentemente escrito em outro tópico que o aluno não pode saber mais do que o professor.
Exemplo.
Parte dos dados (por exemplo 80%) no PE será familiar ao modelo e lá ele mostrará o mesmo erro que no Trem (let error=30%), os outros 20% dos dados no PE serão novos e desaprendidos, e darão um erro de 50%. Combinados, estes 80% familiares e 20% novos dados devem elevar o erro de OOS do site para cerca de 35%.
Portanto, eu esperaria que uma deterioração nos resultados do OOS fosse mais provável do que uma melhoria.
Há também uma probabilidade de melhoria se muitos bons exemplos chegarem ao OOS, em maior proporção do que na trama do trem. Não consigo pensar em outras formas de reduzir os erros no feedback.

Ivan Negreshniy:

E então qual é a sua tarefa principal, se não lutar com essa aleatoriedade, porque nivela o significado da validação e do OOS e IO em geral?)

A tarefa é fazer um delta de erro não muito grande.

 
Uma pergunta para a Alesha.
Como é que se retiram os ruídos dos seus 600 preditores?
 
elibrarius:

Não tenho nenhuma justificação para esperar que o OOS seja melhor que o Train.
Como você pode esperar que dados OOS aleatórios produzam melhores resultados do que os ensinados? Não pode ser, a não ser por acaso.
Foi recentemente escrito em outro tópico que o aluno não pode saber mais do que o professor.
Exemplo.
Parte dos dados (por exemplo 80%) no OOS serão familiares ao modelo e lá ele mostrará o mesmo erro que no Trem (deixe o erro=30%), os outros 20% dos dados do OOS serão novos e desaprendidos, e darão um erro de 50%. Combinados, estes 80% familiares e 20% novos dados devem elevar o erro de OOS do site para cerca de 35%.
Portanto, eu esperaria que uma deterioração nos resultados do OOS fosse mais provável do que uma melhoria.
Há também uma probabilidade de melhoria se muitos bons exemplos chegarem ao OOS, em maior proporção do que na trama do trem. Não consigo pensar em nenhuma outra forma de reduzir o erro no feedback.

A tarefa é fazer um delta de erro não muito grande.

Para não ficar confuso, é necessário definir a terminologia - OOS ou OOS (fora de amostra) são dados, por definição não familiares ao modelo, outra coisa é SI (em amostra)

 
Ivan Negreshniy:

Você precisa definir a terminologia - OOS ou OOS (fora de amostra) são dados, por definição modelos não familiares, IS (em amostra) é outra questão

Se forem encontradas regularidades nos dados, então os exemplos que correspondem a eles podem ser considerados familiares.
 
elibrarius:

Há também uma chance de melhoria se muitos bons exemplos entrarem no OOS, em maior proporção do que na seção de trens. Não vejo nenhuma outra opção para reduzir o erro no loop de feedback.

Li num dos livros do MoD que quando se treina, a relação entre o sucesso e o insucesso deve corresponder à realidade. Devemos treinar tanto os resultados bem sucedidos como os mal sucedidos igualmente.

 
Yuriy Asaulenko:

Eu li em um dos livros do MoD que, ao treinar, a relação sucesso-falha deve ser consistente com a realidade. Devemos ensinar tanto os resultados bem-sucedidos quanto os não bem-sucedidos igualmente.

Por que então tentar filtrar exemplos falhados e ruidosos; ou isolá-los, re-particioná-los para "não saber" e treinar a rede novamente?
 
elibrarius:
Então por que tentar filtrar os maus e ruidosos exemplos; ou isolá-los, reparti-los para "não saber" e treinar a rede novamente?

Eu não estou ciente disso. Isso é para aqueles que o fazem. Eu ensino como escrevi acima.

 
Dr. Trader:

Sim, é uma pena que a tua demo tenha desaparecido. E tudo porque você está olhando demais para o OOS, embora você tenha citado um artigo onde diz que o modelo OOS não pode ser selecionado, e no fórum aqui muitas vezes escreveu a mesma coisa.

Eu já escrevi que existe uma correlação direta entre TOF e estabilidade no TOF.

Até agora não houve o mesmo erro na OOB que na bandeja, sempre pelo menos 2 vezes maior. Vou tentar mais tarde, estou farto desta porcaria agora :)

Talvez tenha de mudar para P e arranjar um modelo melhor, pois a própria algália não me deixa ver mais nada.
 
Maxim Dmitrievsky:

pois a própria algália não te deixa ver mais nada.

Eu disse-te há muito tempo, é um beco sem saída. Você não deve modelar em MT - R, MathLab, como A_K2, em VisSim, etc.

Quando o modelo funciona, você pode transferi-lo para a MT, e não pode transferi-lo).

 
Yuriy Asaulenko:

Já te disseram há muito tempo - é um beco sem saída. Você não deve modelar em MT - R, MathLab, como A_K2, em VisCim, etc.

Quando o modelo funciona, então você pode transferi-lo para a MT, ou não).

O que mais pode dizer de interesse?

Razão: