Aprendizado de máquina no trading: teoria, prática, negociação e não só - página 2315

 
Maxim Dmitrievsky:
realmente explica de tal forma que é mais fácil pedir a Napoleões em um asilo de loucos.

Na física quântica não há previsões, há cálculos de incertezas, ou probabilidades))))

 
Valeriy Yastremskiy:

Na física quântica não há previsões, há cálculos de incertezas, ou probabilidades))))

O âmbito parece ter sido tocado, mas não revelado de todo. Em vez disso, algumas papas de babushkas começaram

 
Maxim Dmitrievsky:

o âmbito da aplicação parecia ter sido tocado, mas não foi revelado de todo. Em vez disso, começou uma espécie de papa a balbuciar.

Das algaraviadas de hoje sobre a IA e a quase IA na ciência menos de um centésimo de por cento....

De acordo?

 
Valeriy Yastremskiy:

Dos disparates de hoje sobre a IA e a IA próxima, menos de um centésimo de um por cento irá para a ciência....

De acordo?

depende de qual ciência)

há truques interessantes de reciclagem, mas eles não os revelaram, e onde mais posso ler sobre isso que ainda não encontrei
 
Maxim Dmitrievsky:

depende de que ciência )

há truques interessantes de reciclagem, mas eles não os revelaram, e onde mais posso ler sobre isso eu não consegui encontrar

ciência é conhecimento que é usado. Qualquer que seja o nome da ciência))))

 
Maxim Dmitrievsky:

Prever a incerteza é uma coisa interessante


Eles têm um link para um artigo lá - à primeira vista apenas as habituais distribuições Bayesianas mais normais.

Uncertainty in Gradient Boosting via Ensembles
  • arxiv.org
For many practical, high-risk applications, it is essential to quantify uncertainty in a model's predictions to avoid costly mistakes. While predictive uncertainty is widely studied for neural networks, the topic seems to be under-explored for models based on gradient boosting. However, gradient boosting often achieves state-of-the-art results on tabular data. This work examines a probabilistic ensemble-based framework for deriving uncertainty estimates in the predictions of gradient boosting classification and regression models. We conducted experiments on a range of synthetic and real datasets and investigated the applicability of ensemble approaches to gradient boosting models that are themselves ensembles of decision trees. Our analysis shows that ensembles of gradient boosting models successfully detect anomaly inputs while having limited ability to improve the predicted total uncertainty. Importantly, we also propose a concept of a \emph{virtual} ensemble to get the...
 
Aleksey Nikolayev:

Eles têm um link para um artigo lá - à primeira vista parece apenas com Bayes normal mais distribuições normais.

só não descobri qual botão premir para obter melhores resultados para a classificação

para regressão apenas um exemplo

consegui que a amostragem por gradiente máximo seja usada por padrão (como uma nova funcionalidade)

ou é só por defeito e não preciso de fazer nada.

A propósito, o catbust é muito fixe em termos de requalificação... é muito difícil conseguir a requalificação. Se o conjunto de dados for uma porcaria... ...vai aprender mal e não se vai lembrar de todas as opções.
 

Estou a ver outro vídeo, por agora.


 
Valeriy Yastremskiy:

ciência é conhecimento que é usado. não importa qual seja o nome da ciência))))

Tudo está bem aí com conhecimento, são apenas os campos de aplicação que precisam de ser examinados.

O próprio algoritmo de reforço ainda é muito legal. Se ao menos houvesse alguns bons oradores no estúdio.
 
Maxim Dmitrievsky:

não há nada de errado com o conhecimento, você só precisa olhar para as áreas de aplicação

O próprio algoritmo de reforço ainda é muito legal. Se ao menos houvesse mais altifalantes normais no estúdio.

(por exemplo, se você é um homem de negócios e sabe alguma coisa (por exemplo, se você é um homem de negócios e sabe alguma coisa)))) Sem conhecimento, o conhecimento é impossível))) Na fase intermediária, qualquer coisa pode acontecer, os tempos de mudança são normalmente como SB))

Razão: