Aprendizado de máquina no trading: teoria, prática, negociação e não só - página 1376

 
Aleksey Vyazmikin:

Por que estudar para menos de 10% de toda a amostra, não deveria mais amostragem levar a melhorias?

E porquê mais do que 5k? Se não se pode treinar com eles, não se pode treinar com mais.

 
Aleksey Vyazmikin:

Por que treinar menos de 10% de toda a amostra, não deveria aumentar a amostra para melhorar?

E que tal um sistema com excesso de formação, aonde você acha que vai levar?

 
Farkhat Guzairov:

E que tal um sistema requalificado, aonde você acha que isso vai levar?

Quanto maior for a amostra, mais difícil será a adaptação ao modelo, em termos de mais folhas/árvores necessárias.

 
Yuriy Asaulenko:

Por x - número de comércio, por y - a quantidade de lucro em pips .


É de 4 ou de 5 dígitos?

 
sibirqk:


É um sinal de 4, ou é um sinal de 5?

Não é nenhum sinal).
 
Yuriy Asaulenko:
Isso não é nenhum sinal)).
Então o que significa - a quantidade de lucro em pps?
 
sibirqk:
O que significa, então, colocar um lucro em pips?
Esta é uma ferramenta de troca. Mostra a possibilidade de lucro no sistema mais simples. O resto ainda não é importante.
 
Vladimir Perervenko:

Isso não está muito certo. Você tem, por exemplo, trem[2000, ] e teste[500, ]. Você treina no trem com pesos de exemplo iniciais = 1.0, faça o teste[] prever o modelo treinado. Com base na qualidade de cada prefixo de teste, você lhe dá um peso. Em seguida, combine o trem e teste e forme uma nova amostra de treinamento, treine o modelo, teste-o e assim por diante até que todas as amostras de treinamento tenham os pesos obtidos desta forma. Pode aplicar-lhes um factor de redução para barras mais antigas, mas ainda não o verifiquei. Tudo isto é para a classificação, claro.

Verificado com ELM, dá bons resultados.

Boa sorte.

Não vejo bem como isso pode melhorar o desempenho do modelo em novos dados.

Por exemplo, se a classe não for definida corretamente, colocamos peso decrescente, como uma variante extrema 0. Assim, no treinamento posterior será igual a deixar cair essas linhas da amostra e em um trem tudo ficará bem com 100% de precisão, em testes, que no mesmo círculo de marcação - também tudo ficará bem. Mas com dados completamente novos não conseguiremos retrair essas linhas e já será o que o modelo é realmente capaz de fazer.

Ou vice versa, você aumentou o peso para exemplos errados?

 
elibrarius:

Não vejo bem como isso pode melhorar o desempenho do modelo em novos dados.

Por exemplo, se a classe não for definida corretamente, colocamos peso decrescente, como uma variante extrema 0. Assim, no treinamento subseqüente será equivalente a deixar cair essas linhas da amostra e tudo ficará bem com 100% de precisão na bandeja, nos testes, que também marcamos circularmente - tudo ficará bem também. Mas em dados completamente novos não poderemos descartar linhas e já haverá o que o modelo é realmente capaz de fazer.

Ou em vez disso aumentou a ponderação para os exemplos errados?

Claro que a desclassificação é para "maus" exemplos. Se você subir - é um impulso clássico.

Faz uma experiência e verifica-a.

Eu não faço isso agora. Eu removo ou destaque exemplos ruidosos ao pré-processar antes do treinamento.

Boa sorte.

 
Yuriy Asaulenko:

Porque precisas de mais de 5.000? Se não se pode aprender com ele, não se pode aprender com mais.

Isto vai para os cofres das declarações estúpidas.

Aleksey Vyazmikin:

Quanto maior for a amostra, mais difícil será a adaptação ao modelo, em termos de mais folhas/árvores necessárias.

Exatamente certo, quanto mais melhor (menos de 100k é ruído), mas devemos considerar que o mercado muda, e como levá-lo em conta na formação é um grande segredo.

Razão: