Discussão do artigo "Reamostragem avançada e seleção de modelos CatBoost pelo método de força bruta" - página 10
Você está perdendo oportunidades de negociação:
- Aplicativos de negociação gratuitos
- 8 000+ sinais para cópia
- Notícias econômicas para análise dos mercados financeiros
Registro
Login
Você concorda com a política do site e com os termos de uso
Se você não tem uma conta, por favor registre-se
Quais?
F1, MCC parece melhor.
Aqui está a lista completa
https://catboost.ai/docs/concepts/loss-functions-classification.html
F1, MCC parece ser melhor
Aqui está a lista completa
https://catboost.ai/docs/concepts/loss-functions-classification.html
Mais uma vez.
Bem, sim, às vezes faz sentido.
Um pouco mais de staking. Sim, faz sentido empilhar. Ainda é uma questão em aberto quanto à quantidade.
Ótimo artigo e trabalho titânico!
Retirei os rótulos de pé após a mudança de direção no conjunto de dados antes de alimentá-los no modelo de misturas.
Pela observação, mais modelos dão resultados positivos.
resultados do melhor teste no testador e no terminal:
Em geral, um belo trabalho. Usei-o para testar todos os meus alvos e joguei-os no lixo)))
Ótimo artigo e um esforço hercúleo!
Retirei os rótulos que estavam de pé após a mudança de direção no conjunto de dados antes de alimentá-los no modelo de misturas.
A partir da observação, mais modelos têm um resultado positivo.
resultados do melhor teste no testador e no terminal:
Em geral, um belo trabalho. Com sua ajuda, verifiquei todos os meus alvos e os joguei no lixo)))
sim, você pode descartar antes do agrupamento
Obrigado pelo feedback :)
Z.Ы para que você possa testar todos os modelos de uma só vez, em média. Jogar. O analisador para todos os modelos ainda não foi criado, ainda está em dúvida. Mas, às vezes, um conjunto de vários modelos realmente melhora.
ZYZY. você pode fazer uma enumeração de diferentes combinações de modelos treinados pela mesma métrica R2, como um desenvolvimento do tema. Em seguida, mantenha o melhor conjunto. Isso é possível até mesmo por meio da genética, se houver muitos modelos.Peguei os dados do EURUSD, H1 de 2015 a 2020 e os dividi em três conjuntos:
Verifiquei meu código duas vezes, mas talvez eu tenha feito algo errado. De qualquer forma, você pode ter alguma ideia sobre os resultados. Atenciosamente, Rasoul
Peguei os dados do EURUSD, H1 de 2015 a 2020 e os dividi em três conjuntos:
Verifiquei meu código duas vezes, mas talvez eu tenha feito algo errado. De qualquer forma, você pode ter alguma ideia sobre os resultados. Atenciosamente, Rasoul
Você pode me dizer como posso carregar meus dados por meio de um arquivo csv?
Tentei dessa forma, mas não carregou.
O formato do arquivo é:
time,close
2020,11,15,1.3587
2020,11,16,1.3472
Você pode me dizer como posso carregar meus dados por meio de um arquivo csv?
pr = pd.read_csv('pr.csv', sep=';')Ou seja, esse é um exemplo de carregamento de dados do terminal, salvando-os em um arquivo. E, em seguida, você pode usá-los em um colab
Olá, Rasoul. Tente reduzir o tamanho do conjunto de treinamento. Isso pode depender de diferentes configurações, mas o truque principal é que, quanto menor o tamanho do treinamento, melhor a generalização em novos dados. No próximo artigo, tentarei explicar esse efeito.
Isso é bom. Seria bom ver no artigo uma observação sobre o escopo de aplicabilidade dessa tese - em particular, para diferentes métodos de IO. Por algum motivo, eles recomendam 70/30 para NS. E, logicamente, na minha opinião, 50/50 deve fornecer resultados mais estáveis.
Isso é bom. Seria bom ver uma observação no artigo sobre o escopo de aplicabilidade dessa tese - em particular, para diferentes métodos de MO. Por algum motivo, recomenda-se 70/30 para NS. E, logicamente, na minha opinião, 50/50 deve fornecer resultados mais estáveis.
Há aprendizado ativo e passivo. O aprendizado passivo consiste na marcação manual de dados e no treinamento com eles. Nesse caso, deve haver muitos dados, mas há um problema de marcação correta. Ou seja, o "professor" precisa marcar os dados de modo que eles sejam, convencionalmente, da mesma distribuição e generalizem bem. A esse respeito, não faz quase nenhuma diferença a proporção do trainee\teste. Isso não lhe dá quase nada, é apenas uma verificação de modelo, uma verificação de quão bem você rotulou os dados manualmente.
Na aprendizagem ativa, o modelo aprende a marcar os dados de forma otimizada. O artigo é apenas um caso de particionamento por meio do GMM. Ou seja, tanto o aprendizado com quanto sem um professor é usado. Nesse caso, o modelo aprende a aprender com pequenos dados particionados e deve particionar os dados restantes de forma otimizada. Essa é uma abordagem relativamente nova (de cerca de 2017). E quero analisá-la mais detalhadamente em um artigo posterior.
Há muitos "dados" nas frases, peço desculpas pela tautologia)