Discussão do artigo "Data Science e Machine Learning (Parte 23): Por que o LightGBM e o XGBoost superam muitos modelos de IA?"

 

Novo artigo Data Science e Machine Learning (Parte 23): Por que o LightGBM e o XGBoost superam muitos modelos de IA? foi publicado:

Essas técnicas avançadas de árvores de decisão com boosting de gradiente oferecem desempenho superior e flexibilidade, tornando-as ideais para modelagem financeira e trading algorítmico. Aprenda como aproveitar essas ferramentas para otimizar suas estratégias de trading, melhorar a precisão preditiva e ganhar uma vantagem competitiva nos mercados financeiros.

Árvores de Decisão com Boosting de Gradiente (GBDT) são uma técnica poderosa de machine learning usada principalmente para tarefas de regressão e classificação. Elas combinam as previsões de vários aprendizes fracos, geralmente árvores de decisão, para criar um modelo preditivo forte.

A ideia central é construir modelos sequencialmente, cada novo modelo tentando corrigir os erros cometidos pelos anteriores.

Essas árvores com boosting, como:

  • Extreme Gradient Boosting (XGBoost): que é uma implementação popular e eficiente do boosting de gradiente,
  • Light Gradient Boosting Machine (LightGBM): que foi projetada para alto desempenho e eficiência, especialmente com grandes conjuntos de dados.
  • CatBoost: que lida automaticamente com recursos categóricos e é robusto contra overfitting.

Ganharam muita popularidade na comunidade de machine learning como os algoritmos preferidos de muitas equipes vencedoras em competições de machine learning. Neste artigo, vamos descobrir como podemos usar esses modelos precisos em nossas aplicações de trading.


Autor: Omega J Msigwa

 
Excelente artigo. Vou tentar reproduzir esse trabalho.
[Excluído]  
Você precisa aumentar o volume até o limite :) O CatBoost é um pouco superior aos outros, de acordo com os benchmarks.
 

Ao compilar, ele apresenta um erro