Eu li antes "Matching of deals using clustering" e depois - e qual é a diferença - eu não entendi.
Pelo artigo, não está claro se há algum efeito do agrupamento, pois há muita aleatoriedade, o que torna impossível comparar os resultados. Por que você não pode fixar a semente ou salvar a amostra antes do agrupamento e, em seguida, executar o procedimento de criação com semente fixa para amostras com e sem pré-agrupamento?
Não dei uma olhada no código - no ONNX, todos os tipos de agrupamento podem ser salvos e, no MQL5, o vetor gerado com recursos fará referência aos agrupamentos sem problemas?
Eu li antes "Matching of deals by means of clustering" e depois - e qual é a diferença - eu não entendi. A mesma coisa é descrita, mas com palavras ligeiramente diferentes.
Pelo artigo, não está claro se há algum efeito do agrupamento, pois há muita aleatoriedade, o que torna impossível comparar os resultados. Por que você não pode fixar a semente ou salvar a amostra antes do agrupamento e, em seguida, executar o procedimento de criação com semente fixa para amostras com e sem pré-agrupamento?
Não dei uma olhada no código - no ONNX, todos os tipos de agrupamento podem ser salvos e, no MQL5, o vetor gerado com recursos fará referência aos agrupamentos sem problemas?
No primeiro caso, os modos são agrupados e o bot negocia no cluster selecionado. No segundo caso, o bot negocia em todos os clusters, mas as negociações de cada cluster recebem determinados pesos.
Por alguma razão, pensei que no primeiro caso fosse criado um modelo separado para cada cluster. Então, como o cluster é selecionado?
No segundo caso, eu entendo - não li os artigos anteriores - se for breve, como é feita a ponderação?
O agrupamento tem efeito porque diferentes agrupamentos têm um aprendizado melhor/pior.
Bem, existem amostras diferentes, de fato....
Por algum motivo, pensei que, no primeiro caso, um modelo separado fosse criado para cada cluster. Então, como o cluster é selecionado?
No segundo caso, eu entendo - não li os artigos anteriores - em resumo, como é feita a ponderação?
Bem, existem diferentes amostras, de fato....
No primeiro caso, o modelo é treinado para cada cluster, sim. O cluster é selecionado com base nos resultados da negociação no teste.
No segundo caso, os clusters são usados para filtrar as negociações ruins. Primeiro, a amostra é agrupada em n clusters e, em seguida, para cada cluster, os exemplos previstos incorretamente são contados e marcados como ruins. Como é usada a média dos exemplos ruins em várias dobras de treinamento cruzado, as médias de cada cluster são diferentes. Portanto, há uma diferença entre a filtragem em todo o conjunto de dados (como nos artigos anteriores) e a filtragem em cada cluster, a diferença está nas médias!
Bem, é uma amostra diferente, basicamente...
Amostras diferentes = regimes de mercado diferentes em termos de volatilidade. O modelo é mais estável em alguns do que em outros. Isso é para o primeiro caso.
No segundo caso, livrar-se de negociações ruins e negociar em todos os modos.
Como o processo de aprendizado é automatizado e aleatório, não estou interessado no número do cluster e em suas peculiaridades. Estou interessado em um TS pronto na saída, que pode ser escolhido entre vários TSs diferentes.Como é usada a média de exemplos ruins em várias dobras de treinamento cruzado, as médias de cada cluster são diferentes.
Diferente do fato de que quanto menor a amostra, maior a probabilidade de um exemplo ser reamostrado?
Amostras diferentes = regimes de mercado diferentes em termos de volatilidade. O modelo funciona de forma mais robusta em alguns do que em outros. Isso é para o primeiro caso.
Com o primeiro caso, fica mais ou menos claro - o que você treinou é bom e o que resta.
Como o processo de treinamento é automatizado e aleatório, não estou interessado no número do cluster e em suas peculiaridades. Estou interessado em um TC pronto na saída, que pode ser escolhido entre vários TCs diferentes.
A seleção é sempre boa, mas existe algum padrão ou critério para detectar uma relação entre a saída selecionada e o desempenho real fora das amostras de treinamento?
Diferente do fato de que quanto menor a amostra, maior a probabilidade de um exemplo ser reamostrado?
No primeiro caso, é mais ou menos claro - o que aprendemos bem, deixamos assim.
A seleção é sempre uma coisa boa, mas existe um padrão, um critério que nos permita encontrar uma correlação entre o resultado selecionado e os indicadores reais fora das amostras de treinamento?
O critério de verdade é a prática )
Há outro efeito interessante obtido. Ambos os modelos no primeiro caso são treinados com uma precisão de 0,99. Isso abre caminho para calibrar os modelos e derivar "probabilidades verdadeiras". O que eu gostaria de considerar em outro artigo, talvez.O critério da verdade é a prática)
Há mais um efeito interessante obtido. Ambos os modelos no primeiro caso são treinados com precisão de 0,99. Isso abre caminho para calibrar os modelos e derivar "probabilidades verdadeiras". O que eu gostaria de considerar em outro artigo, talvez.Escreva, é claro, mas é melhor ser mais detalhado, pois foi difícil entender sem explicações.
O critério da verdade é a prática)
Há mais um efeito interessante obtido. Ambos os modelos no primeiro caso são treinados com precisão de 0,99. Isso abre caminho para calibrar os modelos e derivar "probabilidades verdadeiras". O que eu gostaria de abordar em outro artigo, talvez.- Aplicativos de negociação gratuitos
- 8 000+ sinais para cópia
- Notícias econômicas para análise dos mercados financeiros
Você concorda com a política do site e com os termos de uso
Novo artigo Agrupamento de séries temporais na inferência causal foi publicado:
Os algoritmos de agrupamento em aprendizado de máquina são ferramentas importantes de aprendizado não supervisionado que permitem dividir os dados brutos em grupos com características semelhantes. Com esses grupos, é possível, por exemplo, realizar análise de mercado para um cluster específico, identificar os clusters mais resilientes em novos conjuntos de dados e também realizar inferências causais. Este artigo apresenta um método original para o agrupamento de séries temporais, utilizando a linguagem Python.
O agrupamento é um método de aprendizado de máquina que é usado para dividir um conjunto de dados em grupos de objetos (clusters) de tal forma que os objetos dentro de um mesmo cluster sejam semelhantes entre si, enquanto os objetos de clusters diferentes sejam distintos. O agrupamento permite revelar a estrutura dos dados, destacar padrões ocultos e reunir objetos com base em suas semelhanças.
O agrupamento pode ser usado na inferência causal. Uma das maneiras de aplicar o agrupamento nesse contexto é identificar grupos de objetos ou eventos semelhantes que podem estar relacionados a uma determinada causa. Após o agrupamento dos dados, é possível analisar as conexões entre os clusters e as causas para identificar potenciais relações de causa e efeito.
Além disso, o agrupamento ajuda a destacar grupos de objetos que podem estar sujeitos à mesma influência ou ter causas comuns, o que também pode ser útil ao analisar as relações de causa e efeito.
Autor: Maxim Dmitrievsky