Discussão do artigo "O Problema da Discordância: Mergulhando Mais Fundo na Complexidade da Explicabilidade em IA"
Com base nos modelos que treinei, mesmo apenas o estado atual do mercado é um dado suficiente. Adicionar as leituras do OHLC e da banda de Bollinger não melhora muito a precisão ou a estabilidade. Na captura de tela acima, treinei um classificador LDA para prever o próximo estado do título. A principal desvantagem dessa abordagem é que a precisão pode ser perdida ao longo do caminho, por exemplo, se o modelo prevê que o preço permanecerá no estado 1, não sabemos se o preço está subindo ou descendo, só sabemos para onde o preço está indo se o sistema prever uma mudança no estado, de 1 para 2.Essa é a única solução que consigo imaginar até o momento: criar novos alvos usando os dados que temos para que saibamos que a relação existe, nós mesmos a criamos.
De fato, é muito difícil obter preditores para um conjunto de dados financeiros, e a única solução que consigo imaginar é usar os dados disponíveis para criar um novo alvo, e então teremos todos os preditores para o novo alvo. Por exemplo, se aplicarmos as Bandas de Bollinger a um gráfico, o preço pode estar em 4 estados. Completamente acima das Bandas de Bollinger, entre as bandas superior e média, acima da banda inferior, mas abaixo da banda média, ou completamente abaixo da banda. Se definirmos esses estados como 1, 2, 3, 4, poderemos prever futuros estados do mercado com mais precisão do que as mudanças no próprio preço.
Com base nos modelos que treinei, mesmo apenas o estado atual do mercado é suficiente; acrescentar leituras de OHLC e das Bandas de Bollinger não melhora muito a precisão e a estabilidade. Na captura de tela acima, treinei um classificador LDA para prever o próximo estado do título. A principal desvantagem dessa abordagem é que a integridade pode ser perdida ao longo do caminho, por exemplo, se o modelo prevê que o preço permanecerá no estado 1, não sabemos se o preço está subindo ou descendo, só sabemos para onde o preço irá se o sistema prever uma mudança de estado, de 1 para 2. Essa é a única solução que posso oferecer no momento: criar novos alvos com base nos dados que temos, para que saibamos que o link existe, pois nós mesmos o criamos.
Você deveria ler o código desses BBs miseráveis e pré-históricos, mas eles estão em \MQL5\Indicators\Examples\BB.mq5. Máscaras mofadas e sombrias novamente, tentando calcular algum desvio padrão....
Você deveria ler o código desses BBs miseráveis e pré-históricos, mas eles estão em \MQL5\Indicators\Examples\BB.mq5. Máscaras mofadas e sombrias novamente, tentando calcular algum desvio padrão....
Uma vez tentei ler o código do indicador RSI no caminho de exemplos que você especificou e, para ser sincero, achei a leitura difícil e não tenho certeza se internalizei totalmente o que todo o código está fazendo.
Você acha que os indicadores modernos, como o Vortex Indicator, podem ter superado algumas das limitações dos indicadores clássicos? Ou talvez o problema seja inerente aos indicadores técnicos, pois a maioria deles depende de algum parâmetro que precisa ser calculado e otimizado sob um ruído considerável?
- Aplicativos de negociação gratuitos
- 8 000+ sinais para cópia
- Notícias econômicas para análise dos mercados financeiros
Você concorda com a política do site e com os termos de uso

Novo artigo O Problema da Discordância: Mergulhando Mais Fundo na Complexidade da Explicabilidade em IA foi publicado:
Neste artigo, exploramos o desafio de entender como a IA funciona. Modelos de IA frequentemente tomam decisões de maneiras que são difíceis de explicar, levando ao que é conhecido como o "problema da discordância". Esta questão é fundamental para tornar a IA mais transparente e confiável.
O problema da discordância é uma área chave de pesquisa dentro da Inteligência Artificial Explicável (XAI). A XAI visa nos ajudar a entender como os modelos de IA tomam decisões, mas isso é mais fácil falar do que fazer.
Todos estamos cientes de que os modelos de aprendizado de máquina e os conjuntos de dados disponíveis estão crescendo cada vez mais em tamanho e complexidade. Na verdade, os cientistas de dados que desenvolvem algoritmos de aprendizado de máquina não podem explicar exatamente o comportamento de seu algoritmo em todos os possíveis conjuntos de dados. A Inteligência Artificial Explicável (XAI) nos ajuda a construir confiança em nossos modelos, explicar sua funcionalidade e validar que os modelos estão prontos para serem implantados em produção; mas, por mais promissor que isso possa parecer, este artigo mostrará ao leitor por que não podemos confiar cegamente em qualquer explicação que possamos obter de qualquer aplicação da tecnologia de Inteligência Artificial Explicável.
Autor: Gamuchirai Zororo Ndawana