Aprendizado de máquina no trading: teoria, prática, negociação e não só - página 2406
Você está perdendo oportunidades de negociação:
- Aplicativos de negociação gratuitos
- 8 000+ sinais para cópia
- Notícias econômicas para análise dos mercados financeiros
Registro
Login
Você concorda com a política do site e com os termos de uso
Se você não tem uma conta, por favor registre-se
Referência para métricas, não conheço algumas eu mesmo
Se os sinais estão uniformemente distribuídos num cubo de unidade, a métrica Chebyshev intuitivamente parece ser a mais correcta. Outra coisa é que é improvável que características arbitrárias possam ser normalizadas tão bem.
Se as características estiverem uniformemente distribuídas num cubo unitário, a métrica Chebyshev intuitivamente parece ser a mais correcta. Outra coisa é que é pouco provável que se normalize tão bem os sinais arbitrários.
Experimentou a normalização, obtendo perdas decentes em modelos, melhor sem ela. Portanto, florestas de árvores, não redes neurais.
Experimentou a normalização, obtendo perdas decentes em modelos, melhor sem ela. É por isso que as florestas de árvores, não as redes neurais.
Também estou inclinado(também graças aos seus esforços) para algo como xgboost. Mas a normalização, assim como a pesquisa preparatória geral com características, nunca dói. Eu também preciso de uma abordagem flexível para construir uma função objetiva personalizada.
Portanto, florestas de árvores, não redes neurais.
Sim, há alguns anos alguém neste tópico escreveu tal ideia - sugeriu florestas e comparou redes neurais com armas nucleares. Ele disse que eles só devem ser usados quando outros métodos não podem ajudar. Mas algum Maxim fez cocó nele.
Eu me pergunto... Ele estava certo?
Eu também estou inclinado(também graças ao seu trabalho) para algo como xgboost. Mas a normalização, assim como o trabalho geral de pesquisa preparatória com características, nunca dói. Também precisamos de uma abordagem flexível para a construção de funções objetivas personalizadas.
recomendar LightGBM ou CatBoost, o XGBoost fica para trás
Acontece que qualquer pré-processamento matará o alfa. Isto se você pegar os incrementos e começar a secá-los. O ideal seria pegar a série original (citações), mas você não pode treiná-la devido a sua não-estacionariedade. Isto pode ser visto claramente no artigo sobre diferenciação fracionária (vamos enterrar a memória do mercado). Quanto mais transformações forem aplicadas, menos algo permanece lá.
Sim, há alguns anos alguém neste tópico escreveu tal pensamento - ele sugeriu andaimes e comparou redes neurais a armas nucleares. Ele disse que eles só devem ser usados quando outros métodos não conseguem alcançar nada. Mas algum Maxim fez cocó nele.
Eu me pergunto... Ele estava certo?
É melhor dar alguma prova, não faço ideia do que ele estava a falar.
Conclusões semelhantes - apenas árvores. Especialmente divertido quando os máximos são actualizados e tudo muda. É claro que você pode definir os máximos manualmente ou automaticamente (para cada característica), mas é uma muleta.
Sim, não importa como se revele um disparate.