Aprendizado de máquina no trading: teoria, prática, negociação e não só - página 2406

[Excluído]  
A entropia tem sido usada há muito tempo em todo o lado como um ficheiro de perda ou entropia cruzada. Além disso, tudo isso não importa em filas com lei flutuante, se importa, é de importância secundária. A solução está na superfície e uma das variantes já foi sugerida nesta linha, funciona de forma instável. Ainda não vou dizer os detalhes, mas um dia vou escrever um artigo. Z.I. Provavelmente ficou um pouco excitado com a superfície, mas pelo menos para mim 😀
[Excluído]  
Referência a métricas, não conheço algumas eu mesmohttps://russianblogs.com/article/7586220986/
 
Maxim Dmitrievsky:
Referência para métricas, não conheço algumas eu mesmo

Se os sinais estão uniformemente distribuídos num cubo de unidade, a métrica Chebyshev intuitivamente parece ser a mais correcta. Outra coisa é que é improvável que características arbitrárias possam ser normalizadas tão bem.

[Excluído]  
Aleksey Nikolayev:

Se as características estiverem uniformemente distribuídas num cubo unitário, a métrica Chebyshev intuitivamente parece ser a mais correcta. Outra coisa é que é pouco provável que se normalize tão bem os sinais arbitrários.

Eu experimentei a normalização e tive perdas decentes em modelos, fiquei melhor sem ela. É por isso que as florestas de árvores, não as redes neurais.
 
Maxim Dmitrievsky:
Experimentou a normalização, obtendo perdas decentes em modelos, melhor sem ela. Portanto, florestas de árvores, não redes neurais.
Conclusões semelhantes - apenas árvores. Especialmente divertido quando os máximos são actualizados e tudo muda. É claro que você pode definir os máximos manualmente ou automaticamente (para cada característica), mas são muletas.
 
Maxim Dmitrievsky:
Experimentou a normalização, obtendo perdas decentes em modelos, melhor sem ela. É por isso que as florestas de árvores, não as redes neurais.

Também estou inclinado(também graças aos seus esforços) para algo como xgboost. Mas a normalização, assim como a pesquisa preparatória geral com características, nunca dói. Eu também preciso de uma abordagem flexível para construir uma função objetiva personalizada.

 
Maxim Dmitrievsky:
Portanto, florestas de árvores, não redes neurais.

Sim, há alguns anos alguém neste tópico escreveu tal ideia - sugeriu florestas e comparou redes neurais com armas nucleares. Ele disse que eles só devem ser usados quando outros métodos não podem ajudar. Mas algum Maxim fez cocó nele.

Eu me pergunto... Ele estava certo?

[Excluído]  
Aleksey Nikolayev:

Eu também estou inclinado(também graças ao seu trabalho) para algo como xgboost. Mas a normalização, assim como o trabalho geral de pesquisa preparatória com características, nunca dói. Também precisamos de uma abordagem flexível para a construção de funções objetivas personalizadas.

recomendar LightGBM ou CatBoost, o XGBoost fica para trás

Acontece que qualquer pré-processamento matará o alfa. Isto se você pegar os incrementos e começar a secá-los. O ideal seria pegar a série original (citações), mas você não pode treiná-la devido a sua não-estacionariedade. Isto pode ser visto claramente no artigo sobre diferenciação fracionária (vamos enterrar a memória do mercado). Quanto mais transformações forem aplicadas, menos algo permanece lá.

[Excluído]  
Dmytryi Nazarchuk:

Sim, há alguns anos alguém neste tópico escreveu tal pensamento - ele sugeriu andaimes e comparou redes neurais a armas nucleares. Ele disse que eles só devem ser usados quando outros métodos não conseguem alcançar nada. Mas algum Maxim fez cocó nele.

Eu me pergunto... Ele estava certo?

É melhor dar alguma prova, não faço ideia do que ele estava a falar.

[Excluído]  
elibrarius:
Conclusões semelhantes - apenas árvores. Especialmente divertido quando os máximos são actualizados e tudo muda. É claro que você pode definir os máximos manualmente ou automaticamente (para cada característica), mas é uma muleta.

Sim, não importa como se revele um disparate.